JPWO2018155412A1 - 分類装置と分類方法並びにプログラム - Google Patents

分類装置と分類方法並びにプログラム Download PDF

Info

Publication number
JPWO2018155412A1
JPWO2018155412A1 JP2019501326A JP2019501326A JPWO2018155412A1 JP WO2018155412 A1 JPWO2018155412 A1 JP WO2018155412A1 JP 2019501326 A JP2019501326 A JP 2019501326A JP 2019501326 A JP2019501326 A JP 2019501326A JP WO2018155412 A1 JPWO2018155412 A1 JP WO2018155412A1
Authority
JP
Japan
Prior art keywords
classification
vector
group
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019501326A
Other languages
English (en)
Inventor
康介 西原
康介 西原
紀彦 田谷
紀彦 田谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018155412A1 publication Critical patent/JPWO2018155412A1/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

未知の刺激に対しても当該刺激の属する分類グループを決定可能とする。分類装置は、入力データの特徴を抽出し、第1の記憶部に記憶された要素分類モデルに基づき、分類情報を出力する要素分類部を備えた符号化モジュールと、前記分類情報を受け、第2の記憶部に記憶された要素推定モデルに基づき、照合用のベクトルに変換する要素推定部を備えた統合モジュールと、前記照合用のベクトルと、意味モデルとして第3の記憶部に記憶された各グループの代表ベクトルとを照合して前記照合用のベクトルの属するグループを決定し、前記グループのグループIDを分類結果として出力する決定部を備えた決定モジュールと、を有する。

Description

[関連出願についての記載]
本発明は、日本国特許出願:特願2017−030272号(2017年 2月21日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
本発明は、分類装置と分類方法とプログラムに関する。
多くの専門領域で、人の能力にも匹敵する人工知能(Artificial Intelligence:AI)技術が利用されている。ディープラーニング技術を用いた画像認識では、学習した分類カテゴリーに対しては人と同程度の認識率を実現している。工場内での自動化はすでに実用化され、生産性向上に大きく貢献している。領域によっては人の能力を凌駕している。手続きがきちんと定義されており数値計算により答えを導くタイプの領域では、計算機の発達もあり、人より高速で正確に処理を行うことができるようになってきている。工場内の自動化や、囲碁・将棋ソフトなどが一例である。
現在のAIは、決められた事象を認識し、決められたように行動するシステムである。事前に認識する事象を特定し学習させること、事前に正しく行動を設計することが最も重要である。不確定な要素をいかに取り除くかが、システムの性能に影響する。事前に想定できる環境では、十分な性能を発揮できる。
例えば、外部刺激を認識(分類)する関連技術は、例えば図1に模式的に例示するように、外部刺激を不図示のセンサ等で取得しデジタルデータとして出力する入力装置101からの入力データ1011を受け取り、該入力データ1011の特徴量を抽出し内部情報(特徴ベクトル)として符号化する特徴抽出部1021を有する符号化モジュール102と、符号化モジュール102からの内部情報を予め記憶されている情報とのマッチング(照合)を行うことで、外部刺激に該当するグループを決定し、グループID(Identification:識別情報)1032を出力するマッチング部1031を有する決定モジュール103を備えている。外部刺激は、カメラ等の撮像手段で取得した画像データや画像データベース等に記憶された画像データであってもよい。
特徴量を抽出しクラスタリングを行う関連技術として、例えば特許文献1には、画像データベース中に存在する複数の画像データを類似した画像毎に自動で分類する画像分類装置が開示されている。この画像分類装置は、複数の画像データのそれぞれについて全体の特徴量を算出し、画像データのエッジを検出しエッジ部分の特徴量を算出する特徴量算出部と、画像全体の特徴量に基づき複数の画像データを複数のクラスタに分類する第1のクラスタリング部と、エッジ部分の特徴量に基づいて、第1のクラスタリング部で分類された複数のクラスタをさらに複数のクラスタに分類する第2のクラスタリング部と、複数の画像データのそれぞれについて画像の構図から被写体を構成する画素を決定し第2のクラスタリング部で分類された複数のクラスタを、被写体を構成する画素によって統合するクラスタ統合部を備えている。
図1の関連技術では、どのようにして内部情報として符号化するかという情報、及び、分類するグループを、事前に定義しておく必要がある。なお、抽出する特徴やグループを手動で設計する他、予め準備した学習データを用いて生成する方法も知られている。
国際公開第2009/072466号
以下に関連技術の分析を与える。
図1を参照して説明した関連技術は、基本的に、事前に定義していない外部刺激に対応できない。図1において、例えば自律的に認知分類グループを獲得しながら、未知の刺激の入力に対しても該刺激の属する分類グループの決定を可能とする手法の実現が望まれる。
本発明は上記課題の認識に基づき創案されたものであって、その目的は、未知の刺激に対しても当該刺激の属する分類グループを決定可能とする装置、方法、プログラムを提供することである。
本発明の一つの形態によれば、入力データの特徴を抽出し、第1の記憶部に記憶された要素分類モデルに基づき、分類情報を出力する要素分類部を備えた符号化モジュールと、前記分類情報を受け、第2の記憶部に記憶された要素推定モデルに基づき、照合用のベクトルに変換する要素推定部を備えた統合モジュールと、前記照合用のベクトルと、意味モデルとして第3の記憶部に記憶された各グループの代表ベクトルとを照合して前記照合用ベクトルの属するグループを決定し、前記グループのグループID(Identification:w識別情報)を分類結果として出力する決定部を備えた決定モジュールと、を備えた分類装置(発達的認知装置)が提供される。入力データは、例えば外部刺激をセンサ等でセンシングしたデジタルデータ等であってもよい。
本発明の一つの形態によれば、コンピュータによる分類方法であって、
入力データの特徴を抽出し、第1の記憶部に記憶された要素分類モデルに基づき、分類情報を出力する符号化ステップと、
前記分類情報を受け、第2の記憶部に記憶された要素推定モデルに基づき、照合用のベクトルに変換する統合ステップと、
前記照合用のベクトルと、意味モデルとして第3の記憶部に記憶された各グループの代表ベクトルとを照合して前記照合用ベクトルの属するグループを決定し、前記グループのグループIDを分類結果として出力する決定ステップと、
を含む分類方法(発達的認知方法)が提供される。
本発明の一つの形態によれば、入力データの特徴を抽出し、第1の記憶部に記憶された要素分類モデルに基づき、分類情報を出力する要素分類処理を含む符号化処理と、
前記分類情報を受け、第2の記憶部に記憶された要素推定モデルに基づき、照合用のベクトルに変換する要素推定処理を含む統合処理と、
前記照合用のベクトルと、意味モデルとして第3の記憶部に記憶された各グループの代表ベクトルとを照合して前記照合用ベクトルの属するグループを決定し、前記グループのグループIDを分類結果として出力する決定処理と、
をコンピュータに実行させるプログラム(発達的認知プログラム)が提供される。
本発明によれば、上記プログラムを記憶したコンピュータ読み出し可能な記録媒体(例えばRAM(Random Access Memory)、ROM(Read Only Memory)、又は、EEPROM(Electrically Erasable and Programmable ROM))等の半導体ストレージ、HDD(Hard Disk Drive)、CD(Compact Disc)、DVD(Digital Versatile Disc)等のnon-transitory computer readable recording mediumが提供される。
本発明によれば、未知の刺激に対しても当該刺激の属する分類グループを決定可能とすることができる。
関連技術を説明する図である。 第1の実施形態の構成を例示する図である。 は、第1の実施形態を説明する図である。 は、第1の実施形態を説明する図である。 は、第1の実施形態を説明する図である。 は、第1の実施形態を説明する図である。 は、第1の実施形態を説明する図である。 は、第1の実施形態を説明する図である。 は、第1の実施形態を説明する図である。 第1の実施形態の別の構成例を例示する図である。 第2の実施形態の構成を例示する図である。 第2の実施形態を説明する図である。 は第2の実施形態を説明する図である。 は第2の実施形態を説明する図である。 は第2の実施形態を説明する図である。 は第2の実施形態を説明する図である。 は第2の実施形態を説明する図である。 は第2の実施形態を説明する図である。 は第2の実施形態を説明する図である。 第2の実施形態の動作例を説明する流れ図である。 第2の実施形態の動作例を説明する流れ図である。 第2の実施形態の動作例を説明する流れ図である。 第3の実施形態の構成を例示する図である。 は第3の実施形態を説明する図である。 は第3の実施形態を説明する図である。 第3の実施形態の動作例を例示する流れ図である。 第4の実施形態を例示する図である。
本発明の一形態のシステムは、外部から入力された刺激情報等の入力データをまとまりのある複数の要素に変換し、内部情報として内部に取り込む符号化モジュール(例えば図2の20)と、それぞれの要素を解釈可能な表象表現に変換しベクトルとして統合する統合モジュール(例えば図2の30)と、ベクトルを意味空間上にマッピングし、認知分類グループを決定する決定モジュール(例えば図2の40)を備える。表象表現と認知分類グループを協調して更新することで、新しい入力に対してこれまで表現できなかった表象表現を獲得し、意味空間上で分散していた未知刺激を既知グループから弁別可能な認知分類グループに収束させることができる。
符号化モジュール(20)と、決定モジュール(40)に加え、統合モジュール(30)を備えることで、認知分類グループと表象表現を自律的に獲得し、徐々に認知分類グループの数を増やしながら弁別能力を高めることができる。
<実施の形態1>
以下、例示的な第1の実施の形態について図面を参照して説明する。図2は、本発明の例示的な実施形態のシステム構成を例示する図である。第1の実施形態の分類システム1は、入力装置10、符号化モジュール20、統合モジュール30、決定モジュール40を備えている。これらのモジュールは、一つのユニット内に備えた装置構成としてもよい。この場合、分類システム1は分類装置(classifier)として構成される。あるいは、入力装置10、符号化モジュール20、統合モジュール30、決定モジュール40をそれぞれ、個別の装置として実装し、通信手段を介して互いに通信接続する構成としてもよい。さらに、例えば、統合モジュール30と決定モジュール40の組み合わせをサーバ等に実装し、入力装置10と符号化モジュール20を、サーバと通信接続するネットワークノード等に実装するようにしてもよい。
なお、図2において、矢線で示しているユニット間の情報/信号の向きは、実施形態の特徴を説明するための一例を示したものであり、信号の送受信を一方向性に制限するためのものではない。すなわち、ユニット間の双方向に信号を送受信する構成(ハンドシェイクや制御信号等のモジュール間での送受)を排除するためのものではない。図3A、図4、図5、図12についても同様である。
図2において、符号化モジュール20は、外部刺激等を入力する入力装置10から入力データとして受け、内部で処理できる内部情報として取り込む。特に制限されないが、入力装置10は、センサやカメラ等であってもよい。センサは、例えば、振動情報、電流/電圧、温度情報、臭い、生体情報、画像情報や音響情報等のいずれかをセンシングするデバイスであってもよい。入力装置10を有線又は無線通信手段を備えたIoT(Internet of Things)デバイスで構成し、符号化モジュール20とネットワークを介して通信接続する構成としてもよい。あるいは、入力装置10はすでにデータベース等の記憶装置に記憶されているセンシングデータや画像データを読み出して入力するインタフェースモジュールやコントローラであってもよい。
統合モジュール30は、取り込まれた情報を照合に必要な要素情報に変換し統合ベクトルを生成する。
決定モジュール40は、統合ベクトルを、意味モデルの代表ベクトル(分類されたグループの代表ベクトル)と照合し、外部刺激に対応する認知結果(グループID)44を出力する。
より詳細には、符号化モジュール20は、要素分類部23、要素分類モデル学習部21と、要素分類モデルを記憶する記憶装置22を備えている。
要素分類モデル学習部21は、抽出する特徴を入力データ(要素データ)から構成し、要素分類モデルを記憶装置22に記憶する。要素分類モデル学習部21は、決定モジュール40で決定したグループIDを入力として、学習するようにしてもよい。
要素分類部23は、記憶装置22に記憶された要素分類モデルに基づき、要素データ毎に、入力されるデータの特徴を抽出して分類し、要素分類の集りである分類情報を出力する。
統合モジュール30は、要素推定モデル学習部31と、要素推定部33と、要素推定モデルを記憶する記憶装置32を備えている。
要素推定モデル学習部31は、要素表現を、符号化モジュール20の要素分類部23から出力される分類情報と、入力データ(要素データ)に基づき、構成し、要素推定モデルとして記憶装置32に記憶する。要素推定モデル学習部31は、決定モジュール40で決定したグループIDを入力として学習するようにしてもよい。
要素推定部33は、符号化モジュール20の要素分類部23から出力される分類情報を入力し、記憶装置32に記憶される要素推定モデルを参照して、照合に利用する要素表現に変換し、決定モジュール40に出力する。
決定モジュール40は、決定(Decision Making)部42と、グループ更新・生成部41、意味モデルを記憶する記憶装置43を備えている。
グループ更新・生成部41は、認知分類グループを統合情報から構成し、意味モデルとして記憶装置43に記憶する。
決定部42は、統合モジュール30の要素推定部33から出力される分類情報と、記憶装置43に記憶された学習した意味モデルを照合し、分類される認知分類グループを決定する。
図3A乃至図3Gは、図2のシステムにおけるデータ(情報)の流れに着目してその動作原理を説明する図である。図3Aには、図2の構成とデータ(情報)が示されている。なお、図3A乃至図3Gは、あくまで第1の実施形態の動作例を説明するための図であり、データ構造や内容や表現等は図3A乃至図3Gの例に制限されるものでないことは勿論である。
入力装置10は、データD=(d1,d2,d3,d4,d5)を入力し、符号化モジュール20に出力する。データ=(d1,d2,d3,d4,d5)の一例を図3Bに示す。図3Bにおいて、縦軸は、例えばデータの大きさ(magnitude)、横軸は、例えばデータの位置、あるいは時間、あるいは他のパラメータであり、固定サイズの領域に区分される。
要素分類部23は、入力データD=(d1,d2,d3,d4,d5)を受け、記憶装置22に記憶された要素分類モデルに基づき、入力データの特徴を抽出し、要素分類の集りである分類情報X=(x1, x2)を出力する。ここで、x1は、図3Bのデータの波形のピーク(山)が存在する領域(何番目)を表している。d1に対する分割情報X=(x1,x2)=(2,5)は、データd1では、ピーク(山)が領域2、ピーク値が5であることを表している。この分割情報X=(x1,x2)は、データに対して抽出された特徴に対応する(図3C参照)。x1は、要素データ(類型)φ={φ1, φ2,φ3,…}に対応する要素分類モデルに基づき、分類される。x2は、ピークの大きさを表している。x2は、要素データ(類型)ψ={ψ1, ψ2,…}に対応する要素分類モデルに基づき、分類される。
要素分類モデル学習部21は、要素データφ={φ2,φ1,φ1,φ2,φ3}、ψ={ψ2,ψ1,ψ1,ψ2,ψ3}に基づき要素分類モデルを構成して記憶装置22に記憶する。φは、入力データの波形のピーク(山)の位置(領域)からなり、{φ2,φ1,φ1,φ2,φ3}は類型(ピーク位置)の集まりを表している。また、ψは波高等からなり、{ψ2,ψ1,ψ1,ψ2,ψ3}は、ピーク(山)の位置に対応する波高の集まりを表している。
要素分類部23から出力される分割情報X=(x1,x2)(図3C参照)は、統合モジュール30の要素推定部33と、要素推定モデル学習部31に供給される。なお、要素推定モデル学習部31は、要素推定モデルの学習時に、分割情報X=(x1,x2)を受け取るようにしてもよい。
要素推定部33は、記憶装置32に記憶された要素推定モデルに基づき、要素表現ベクトルZ=(z1,z2)に変換し、決定モジュール40に出力する。図3Dは、記憶装置32に記憶された要素推定モデルの一つを模式的に説明する図である。図3Dには、図面作成の都合で、p(φ| x1=1)のみが例示されているが、記憶装置32に記憶された要素推定モデルとして、例えばp(φ| x1=2)、p(ψ| x2=5)等、p(φ| x1=1)以外の確率分布も含む。
p(φ|x1=1)は、入力される分類情報X=(x1,x2)について、x1=1が与えられたときに、要素データ(類型)がφである確率(条件付き確率)である。同様に、p(ψ|x2=1)は、x2=1が与えられたときに、要素データ(類型)がψである確率(条件付き確率)である。図3Dの要素推定モデルでは、p(φ| x1=1)の横軸の要素データφiをφ1、φ2、φ3としている。図3Dに示す要素推定モデルでは、確率p(φ| x1=1)はφ3付近で最も高い値となる分布を有している。
要素推定部33は、例えば図3Dに例示した要素推定モデル(確率p(φ|x1))に基づき、類型φk (k=1,…,3)のサンプリングを行い、その値をベクトルZの要素z1とする。特に制限されないが、要素推定部33は、例えば、ナイーブベイス(Naive Bayes)等により、図3Dにおいて、x1=1に対して最も確からしい(確率p(φ|x1=1)の値が最も大きい)φ(≒φ3)を求める(図3Dの横軸φのφ1、φ2、φ3を仮に1、2、3と数値化した場合、z1は3に近い値となる)。
同様に、要素推定部33は、要素推定モデル(確率p(ψ| x2))に基づき、類型ψk (k=1,2,…)のサンプリングを行い、その値をベクトルZの要素z2とする。その際、要素推定部33は、例えば、x2=5に対して最も確からしい(確率の値p(ψ|x2=5)が最も大きい)ψを求めるようにしてもよい。
図3Eに、要素推定部33に入力される分類情報X=(x1,x2)と、これを確率p(φ|x1)、p(ψ|x2)でサンプリングした表現ベクトル(照合用ベクトル)Z=(z1,z2)との対応を示す。要素推定部33は、ベイジアン・アトラクタ(Bayesian Attractor)構成としてもよい。
決定部(Decision Making)42は、図3Fに示すように、ベクトルZ=(z1,z2)(図3E)と、記憶装置43に意味モデルとして記憶された各グループの代表ベクトルrg=(g1 1, g1 2)との距離に基づき、ベクトルZの属するグループ(グループID)44を決定する。図3Fの例では、2次元空間(φ、ψ)において、ベクトルZ(点で示す)とrg(矢印で示す)との距離が最小となるグループを決定する。グループの代表ベクトルrg=(g1 1, g1 2)との距離が所定の閾値以上の場合、グループ更新・生成部41は、新たなグループを生成してもよい。
図3Gの例では、x1=8の場合に、新たに要素データ(類型)φにφ4を追加したことで(φは{φ1,φ2,φ3,φ4}となる)、φ4での値(頻度)が増大し(確率p(φ4|x1=8)が増大)、φ4に対応するグループ分けが行われ、分類精度が上がる様子が示されている。
要素推定モデル学習部31は、確率p(φ|x1)が予め定められた閾値を越さない場合には、例えば決定部42からの通知(例えばグループID)に基づき、新しい類型φ4を追加するようにしてもよい(確率p(ψ|x2)についても同様である)。
グループ更新・生成部41は、入力装置10から入力された正解ラベルG={G, G,G2,G,G3}(グループの正解ラベル)を受け、記憶装置43に意味モデルとして記憶される分類グループの代表ベクトルを生成するようにしてもよい。グループ更新・生成部41は、決定部42からのベクトルZに基づき、記憶装置43に意味モデルとして記憶される分類グループの代表ベクトルを更新するようにしてもよい。
図4は、第1の実施形態の別の構成例を示す図である。図4を参照すると、統合モジュール30は、入力装置10から入力された付加データ13と、要素推定部33から出力される表現ベクトルZを統合したベクトル(統合ベクトル)を生成し、決定モジュール40に出力する要素統合部34を備えている。付加データ13は入力データ11の例えば属性情報であり、入力データ11に対応させて入力される。入力データ11が、被写体に動物を含む画像データの場合、付加データ13は、後述されるように、動物の鳴き声等(特徴)の属性情報(デジタル信号)であってもよい。
<実施の形態2>
図5は、本発明の例示的な第2の実施形態の構成を説明する図である。図5を参照すると、符号化モジュール20は、図2の構成に加えて、要素データ生成部25を有する。
要素データ生成部25は、記憶装置24に記憶されている要素モデルを参照して、入力装置10から入力された入力データから分類に必要なデータに変換する。変換方法は、記憶装置24に要素モデルとして予め記憶されている。
要素データ生成部25は、複数種類のデータを生成してもよく、生成したデータそれぞれを要素分類部23に出力する。
特に制限されないが、要素データ生成部25で行われるデータ変換としては、例えば、
・二値化変換、
・周波数変換、
・色空間変換、
・オブジェクト抽出、
・様々な信号処理フィルタを用いた変換
の少なくともいずれかを含む。
要素分類部23は、生成された要素データ毎に、特徴を抽出して、分類し、それぞれを要素とする、要素分類の集合したデータを出力する。
要素分類モデル学習部21は、生成されたデータ毎に抽出する特徴を構成し、要素分類モデルとして記憶装置22に記憶する。分類の学習に、正解ラベル14を用いた教師あり学習を行ってもよい。あるいは、自己組織的写像(Self-organizing maps:SOM)により、教師なし学習を行ってもよい。
統合モジュール30の要素推定部33は、符号化モジュール20の要素分類部23から出力される要素分類集合を受け取り、学習済みの解釈可能な表象表現ベクトルに変換する。
分類結果は観測誤差の影響で真の値から分布する。また、必ずしも人が解釈できる表現になるように設計されていない。教師なしで分類学習を行った場合、特に顕著である。
要素推定部33は、分割要素に対する要素分類を、人が解釈できる安定した表象表現に変換する。変換は、要素毎に要素分類モデルを参照して行う。例えば、要素kにおいて、入力される分類結果をXk、変換される類型をφkとする。
Xkが与えられた時にφkに変換される確率pk(φk|Xk)が要素分類モデルとして記憶されている。この確率に基づいた類型φkのサンプリングを行い、その値を表現ベクトルZの要素とする。表現ベクトルZは、表象表現ベクトルとも称呼される。
要素推定モデル学習部31は、事前に学習データを用いて要素分類モデルを生成し記憶装置32に記憶する。
要素kにおいて取り得る表象が、i種ありi番目の類型をφkiとすると、それぞれの類型の出現頻度に応じてpk(φk|Xk)を構成する。図6の例では、要素kにおいて取り得る表象がi=3種あるものとする。例えば、要素分類部23による分類情報Xkが与えられた時に学習データがφkiである条件付き確率pki(φki|Xk)を構成する。φkiは当該要素軸φk上に定義された離散値であり、当該値で確率pki(φki|Xk)を近似する確率としてpk(φk|Xk)を構成する。例えばpk(φk|Xk)は、確率値やデータ数をパラメータとする標準分布(標準正規分布)の和として構成することができる。
事前学習で用いる学習データは、類型φki間の類似度等を基に、類型φkiの値を定義しておく。なお、一つの要素における表象の表現は1次元に限らず、N次元(N≧2の整数)に拡張可能である。
要素推定モデル学習部31は、要素推定時に、確率pk(φk|Xk)、又は、どの類型φkiの確率pki(φki|Xk)も、予め定められた閾値を越さない場合には、自律的または外部からの指示によって、新しい類型φkiを追加することができる。図7Aでは、類型φ1k,…,φ3kの確率pki(φki|Xk)がいずれも閾値以下であるため、図7Bに示すように、新しい類型φ4Kが追加されている。つまり、類型の数が1つ増える。
要素推定モデル学習部31は、自律的な追加を行う場合、k以外の別の要素における確率が特定類型に高い確率を持つときに行う。つまり、k軸だけで見ると、既存の表象で表現できないが、別の軸で見ると、既存の表象で表現できる場合である。
要素推定モデル学習部31において、新しく追加する類型φkiの確率の学習には、別の軸で、既存類型に収束する入力データに対応するXkのみを用いる。それとは別に、類型を追加せずに、既存の類型を正解とするように確率を修正することも指示するようにしてもよい。新規類型に与える値は、既存類型との類似度を基に決定するようにしてもよい。あるいは、外部からの指示やインクリメントなどのルールに従ってもよい。
特に制限されないが、要素データ例として、例えば、テクスチャ、色、形状等の例を説明する。対応する要素分類は、それぞれ周波数スペクトラム、色スペクトラム、抽出オブジェクトの分類である。
テクスチャの類型φ1は、{平坦、縞、網目など}
色の類型φ2は、{黄、灰、茶など}
形の類型φ3は{首長、首短、首中、・・・}
などを学習データとして用意する。
これは、入力データが動物画像の場合、
トラを(縞、黄、首短)、
キリンを(網目、黄、首長)
などと表現することに相当する。入力データが画像の例で説明したが、画像に制限されるものでないことは勿論である。なお、類型φ1、φ2(φ3)等とインデックスk(k=1,2,3,…)で類型φkを区別する表記が用いられるが、図8B乃至図8E等では、見やすさのため、φ1、φ2(φ3)を、φ、ψ(η)等で表している。
要素統合部34は、表現ベクトルZに、新しい要素として、入力装置10から受け取った、付加データ13を追加し、統合ベクトルを出力する。特に制限されないが、付加データは、鳴き声や匂いなどの属性であり、例えば入力データDに関連付けして入力される(例えば入力データ11と付加データ13を対として入力される)。
決定部(Decision Makingモジュール)42は、入力された統合ベクトルZに最も近い代表ベクトルrgを探索し、その代表ベクトルrgが属するグループを、グループID44として出力する。代表ベクトルrgは、意味空間に定義された、認知する分類グループを代表するベクトルである。
ベクトル間の近さは、例えば、距離を重み付きの二乗和で評価する。重みをwi、統合ベクトルをzi、グループgのrgiを代表ベクトルとすると、距離gは以下で与えられる。Σ iは総和演算子であり、ここでは、グループの個数分を総和する。
距離g = Σi wi*|zi - rgi|2
統合ベクトルと代表ベクトルの距離が、どの代表ベクトルからも、予め定められた閾値以上である場合、未知のグループであるとする。
上記距離gにおいて、重みwiは特定要素の重要度を設定するためのパラメータであり、「選択的注意」とも呼ばれる。重みの設定は、単純には認知の目的に応じて静的に決めておくか、外部から設定する。要素分類部23の分類精度などに応じて、動的に設定してもよい。
認知分類グループの数や代表ベクトルは、意味モデルとして記憶装置43に記憶される。
グループ更新・生成部41は、統合ベクトル及び正解ラベルを基に、分類グループの代表ベクトルを生成、更新する。統合ベクトルは、決定部42から取得してもよい。正解ラベル14は、入力装置10から取得する。例えば、代表ベクトルは同じラベルを持つベクトルの中央値とする。グループ更新・生成部41は、 決定部42で同定した統合ベクトルを用いて、決定したグループの代表ベクトルを更新するようにしてもよい。
グループ更新・生成部41は、
・当該グループに属する過去全てのベクトルの中央値となるように更新する、
・ある一定のウィンドウ(時間窓)を設け、最近用いたベクトルの中央値とする、
・要素分類部23の分類精度などに応じて、更新の貢献度や更新の有無を決定する、
等の処理を行うようにしてもよい。
グループ更新・生成部41は、決定部42で未知のグループと同定された統合ベクトルを用いて、グループを新規に生成するようにしてもよい。
グループ更新・生成部41は、未知と同定されたベクトルが意味空間上である半径以内に一定数分布した場合、当該ベクトルの中央値として代表ベクトルを生成し、新規グループとして、意味モデルとして記憶装置43に記憶する。
図8A乃至図8Eは、図5を参照して説明した第2の実施形態のシステムのデータの処理の具体例の一例を説明する図である。要素データとして、図8Eに示すように、
φ={縞々、平坦、網目}={φ1,φ2,φ3}、
ψ={白黒、灰色、黄色}={ψ1,ψ2,ψ3}、
η={首中、首短}={η1, η2}
が、要素分類モデルに設定されているものとする。
図8Aにおいて、入力データD(81)として、d1(シマウマ)、d2(ゾウ)、d3(キリン)の各画像データ(静止画像)が入力される。
要素データ生成部25は、テクスチャ、色、首比の要素データ(82)をそれぞれ入力データD-={d1、d2、d3}から生成する。要素分類部23は、要素データの特徴を、要素分類モデル(φ,ψ, η)に基づき分類し、入力データDの{d1、d2、d3}に対応して、の分類情報X1=(x11,x12,x13)、(x21,x22,x23)、(x31,x32,x33)(83)を出力する。ここで、(x11,x12)、(x21,x22)、(x31,x32)は、例えばヒストグラム、x13、x23、x33は例えば比率である。
要素推定部33は、分類情報X=(x1,x2,x3)を受け、要素推定モデルに基づき、図8Aにおける表現ベクトルZ=(z1,z2,z3)(84)を出力する。この例では、要素統合部34は、付加データを付加せず、表現ベクトルZを統合ベクトルとして決定部42に出力する。
決定部42は、図8Bに示すように、統合モジュール30からのベクトルZと、各グループG1、G2、・・・の代表ベクトルrgの距離に基づき、ベクトルZが属するグループIDを決定する。
要素推定モデル学習部31は、類型η1、η2の確率p(η|x3=2)が、予め定められた閾値を越さない場合には、新しい類型η3を追加するようにしてもよい。図8Cでは、類型η1、η2の確率p(η|x3=2)がいずれも閾値以下であるため、図8Dに示すように、新しい類型η3(首長)が追加されている。これにより、類型η3(首長)に基づく分類を可能とし、分解能が増大する。
次に第2の実施の形態の動作について説明する。
まず、図9を参照して、グループ決定を行う動作を説明する。
要素データ生成部25は、入力データを分類に必要なデータに変換する(ステップS11)。
要素データ生成部25は、例えば、入力画像に対し、周波数変換、色空間変換、オブジェクト抽出を行い、周波数スペクトラム、色スペクトラム、オブジェクトを出力する。周波数変換及び色空間変換は抽出したオブジェクトに対して行ってもよい。
要素分類部23は、生成されたデータ毎に特徴抽出及び分類し、それぞれを要素とする要素分類の集合データを出力する(ステップS12)。
要素分類部23は、例えば、周波数スペクトラム、色スペクトラムに対しては、ニューラルネットワークやサポートベクトルマシン(Support vector machine; SVM)等を用いて分類確率を持つデータ集合を生成する。
オブジェクトに対しては、オブジェクトのサブ領域を抽出し、1以上の領域毎の座標値を生成する。分類の数や領域の数は要素分類モデルを参照する。
要素推定部33は入力されるデータ集合を表象表現ベクトルに変換する(ステップS13)。
要素をkとする(kは、周波数、色、オブジェクトに対応して1から3の値と定義)。要素分類の各要素を、対応する表象ベクトルの要素(テクスチャ、色、形状)に変換する。表象の取り得る類型は学習済みであり、例えば、テクスチャは{平坦、縞、網目}、色は{黄、灰、茶}、形状は{縦長、横長、正方}などである。
表象表現ベクトルの要素kは、要素分類Xkが与えられた時の条件付き確率を基に生成される。取り得る類型をφkiとすると確率はpki(φki|Xk)で与えられる。
例えば、k=1(テクスチャ)において、
φ11=1、φ12=2、φ13=3(平坦、縞、網目をそれぞれ1,2,3)とする。
このテクスチャ軸上でテクスチャ類型を与える確率p1(φ1| Xk)を構成し、この確率を基にサンプリングを行う。
要素統合部34は、表象表現ベクトルに新しい要素として付加データ(付加情報)13を追加し、統合ベクトルを出力する(ステップS14)。付加情報は、入力に関する属性値であり、鳴き声や匂いなど他のモダリティー由来の情報も統合することができる。
決定部42は、入力された統合ベクトルに最も近い代表ベクトルを探索し、その代表ベクトルが属するグループをグループIDとして出力する(ステップS15)。
ベクトル間の近さは、重み付きの二乗和で評価し、重みは目的に応じて外部から与える。
グループ更新・生成部41は、探索された代表ベクトルを、入力された統合ベクトルを用いて更新する(ステップS16)。
図9のステップS15において、決定部42は、入力された統合ベクトルに最も近い代表ベクトルを探索し、どの代表ベクトルからも閾値以上の距離の時は、未知のグループとして判断し、未知グループIDを出力する。
この場合、ステップS16において、グループ更新・生成部41は、未知グループIDを持つ統合ベクトルが意味空間上である半径以内に一定数分布した場合、当該ベクトルの中央値として代表ベクトルを生成し、新規グループを生成する。
次に、図10を参照して、図7を参照して説明した要素軸(φk)の更新を行う動作について説明する。ステップS21〜S24までは、図9のS11〜S14と同じである。
決定部42は、全ての要素軸で評価するとグループを形成しないが、一定数の軸のみで評価した場合にグループ生成の条件を満たす場合、グループIDを仮生成し、要素推定モデル学習部31及び要素分類モデル学習部21にフィードバックする(ステップS25)。
例えば、色軸及びオブジェクト軸で既存の類型に収束するが、テクスチャ軸(k=1)では既存の類型に収束せず、既存類型の確率p1iが閾値を超えない場合である。
要素推定モデル学習部31は、フィードバックされた、仮生成されたグループIDを受けると新しい類型(φ14=4:類型φk(k=1)の4項目、値を4とする)を追加することができる(ステップS26)。
要素推定モデル学習部31は、色軸及びオブジェクト軸が同じ類型に収束する入力の要素分類X1を用いて、p14(φ14|X1)を構成し、テクスチャ軸の確率p1を更新するようにしてもよい。新しい類型に与える値は、既存類型の最大値からインクリメントした値とする。追加する類型の値は外部より指示することができ、学習の有無も指示可能である。
要素分類モデル学習部21は、フィードバックされた、仮生成されたグループIDを受けると、仮生成されたグループIDを正解ラベルとして、収束しない軸の要素分類モデルを更新することができる(ステップS27)。正解ラベルは、装置外部より、入力装置10を介して、指示することができ、学習の有無も指示可能である。入力装置10は、外部からのデータを受信する通信インタフェース(トランシーバのレシーバ)や、キーボード等を含む入力インタフェースであってもよい。
次に、図11を参照して、第2の実施形態において、事前学習を行う動作を説明する。ステップS31、S33、S35、S36、S37はそれぞれ、図9のステップS11、S12、S13、S14、S15と同じである。
要素分類モデル学習部21は、要素データ生成部25により生成されたデータを用いて要素分類モデルを学習する(ステップS32)。ニューラルネットワークで分類を行う場合、正解ラベルを用いて、ニューラルネットワークの重みを学習する。
要素推定モデル学習部31は、要素分類部23より生成された分類情報Xkと、正解ラベル(類型φki)から、pki(φki|Xk)及びpk(φk|Xk)を構成する(ステップS34)。
グループ更新・生成部41は、同じ正解ラベル(グループID)をもつ要素統合部34で生成された統合ベクトルの中央値を代表ベクトルとして生成し、グループを生成する(ステップS38)。
学習データが終了したか判定し(ステップS39)、学習データが無くなるまでステップS31〜S38を繰り返す。
なお、図5において、付加データ13を付加しない場合、要素統合部34を削除し、要素推定部33の出力を、決定部42へ出力するようにしてもとよい。
<第3の実施形態>
図12は、本発明の第3の実施形態の構成を説明する図である。図12を参照すると、要素データ生成部25は、分割推定部251と、要素分割部252を備えている。分割推定部251は、例えば連続画像データ等の入力データを受け、入力データを分割するための特徴を抽出する。
抽出する分割特徴は、要素モデルとして記憶装置24に記憶される。記憶装置24の要素モデルは、分割推定部251が、分割の推定時に参照する。
要素分割部252は、分割特徴を基に、入力データを分割して出力する。符号化モジュール20は、さらに要素モデル学習部26を備えた構成としてもよい。要素モデル学習部26は、入力データと分割情報から、要素モデルを構築することができる。
特に制限されないが、一例として、
・入力データ11として、連続する動物の画像データ、
・分割情報15として、関節座標情報、
・正解ラベル14として、動物の種類、
とする。
動物は荒い近似では、骨格を基にした多関節剛体として近似できる。例えば、顔、首、胴、足、尾などの剛体パーツが関節で接続したオブジェクトとして表現でき、関節座標がわかればそれぞれのパーツが分割可能である。
関節座標とパーツの対応は、予め与えておく。この場合、分割推定部251は、分割特徴として関節座標を抽出する。
要素モデル学習部26は、入力データである画像データと、分割情報15である関節座標情報とを基に、要素モデルを構築する。
要素モデル学習部26は、例えば、画像データを入力、関節座標情報を教師データとして、例えばディープラーニング技術で学習し、学習したネットワークモデルを、要素モデルとして、記憶装置24に記憶するようにしてもよい。
要素モデル学習部26は、未学習の時は、画像データの入力に対して、誤差の大きい関節座標を生成する。この誤差を最小にするようにモデルを構築する。
要素分割部252は、入力データ11(画像)を、分割情報(関節座標)を基に、要素画像に分割する。
要素画像は、例えば、顔、首、胴、足、尾などに対応する画像である。
要素分類部23は、分割された要素画像それぞれに対して分類を行う。例えば、ディープラーニング技術で分類を行うようにしてもよい。ネットワークモデルとして、要素分類モデル学習モジュールで学習したものを使ってもよいし、一般画像を使った学習済みのものを使ってもよい。要素分類部23の出力は、例えば、分類確率を要素とするデータ集合であってもよい。
要素分類モデル学習部21は、要素画像と、正解ラベルとを基に、要素分類モデルを構築することができる。
例えば、要素画像を入力とし、パーツラベル(例えば、縞の足や網目の胴など)を教師データとして、要素ごと(顔、首、胴、足、尾ごと)にディープラーニング技術で学習し、学習したネットワークモデルを要素分類モデルとして記憶する。
要素推定モデル学習部31は、データが入力される毎に、適応的に確率pki(φki|Xk)及びpk(φk|Xk)を更新する。要素推定部33による推定結果は、既知で同種のデータが連続して入力すると、特定の類型に対する確率が次第に高くなることが期待される(図13(A)、(B)参照)。図13(B)には、図13(A)に対して、特定の類型φ2kに対する確率が高くなる様子が示されている。
例えば、同一のトラの動画像を入力としている場合などである。確率pk(φk|Xk)がどの領域でも閾値を超えない間は結果を出力せず、超えた場合に表象表現ベクトルを出力することもできる。要素推定部33において、同種のデータが連続しデータが蓄積しても、確率pk(φk|Xk)、又は、どの類型φkiの確率pki(φki|Xk)も閾値を越さない場合、要素推定モデル学習モジュールは類型の追加や、既存類型に収束する更新を行うことができる。
要素統合部34は、上記要素画像の表象表現ベクトルに、テクスチャ、色、形状などの表現ベクトルを統合することができる。入力データが画像の例で説明したが、画像に制限されるものでないことは勿論である。
次に、図14を参照して、第3の実施の形態の動作について説明する。
以下では、適応学習を行う動作例を説明する。分割推定部251は、画像データを入力として関節座標を抽出する(ステップS41)。例えば、ディープラーニング技術で関節座標を推定する。
要素分割部252は、入力画像を、関節座標を基に関節を両端とするパーツを含む要素画像に分割する(ステップS42)。関節座標とパーツの対応は、予め与えておく。
要素分類部23は、分割された要素画像それぞれに対し分類を行う(ステップS43)。例えば、ディープラーニング技術で、要素分類を推定する。
要素推定モデル学習部31は、データが入力される毎に確率pki(φki|Xk)及びpk(φk|Xk)を更新する(ステップS44)。
要素推定モデル学習部31は、確率pk(φk|Xk)が予め定められた閾値を超えるか判断する(ステップS45)。
確率pk(φk|Xk)が閾値を超えている場合(ステップS45のYes分岐)、要素推定部33では、確率pk(φk|Xk)を用いて表象表現ベクトルを生成し、要素統合部34に出力する(ステップS46)。確率pk(φk|Xk)が閾値を超えない場合には、同種のデータの蓄積があるか否かを判断する(ステップS50)。同種のデータの蓄積がない場合には(ステップS50のNo分岐)、ステップS41の処理に戻る。
同種データを連続して入力しても、どの領域でも確率pk(φk|Xk)が閾値を越さない場合(ステップS50のYes分岐)、要素推定モデル学習部31は、類型の追加を行い(ステップS51)、ステップS41に戻る。
要素統合部34は、要素画像の表象表現ベクトルに、テクスチャ、色、形状などの表象表現ベクトルを統合することができる(ステップS46)。
ステップS47、ステップS48は、それぞれ、図9のステップS15、ステップS16と同様である。
次に、学習データが終了したか判定し(ステップS49)、学習データが無くなるまでステップS41〜S48(ステップS50、S51も含み得る)の処理を繰り返す。
なお、図12において、付加データ13を付加しない場合、要素統合部34を削除し、要素推定部33の出力を、決定部42へ出力するようにしてもよい。
前記した各実施形態によれば、入力データをまとまりのある要素に分割し、分割要素を解釈可能な表現に変換し、それを要素とする表現ベクトルを意味空間上でグルーピングし、分割要素の表現と意味空間上のグループを協調して操作することで、刺激弁別能力を高め、認知分類グループの新規獲得を可能にする。
大局的な環境刺激に対し分割要素は比較的単純な特徴を持つため、他軸と協調することで分割要素の表現を自律的に獲得でき、その組合せで評価することで弁別能力を高めることができる。分割要素を、追加獲得する類型値の表現に変換することで、自律的なグループ形成を観測可能にし、外部からの干渉を可能とする。要素表現を連続的に修正することで、少ないグループから始めてより多くの新規グループを獲得できる。
なお、上述の実施の形態における各手段(各処理部)は、IC(Integrated Circuit)回路などのハードウェア又はソフトウェア、もしくはその両方によって構成される。例えば、上記の各手段はコンピュータにより構成される。図15は、このようなコンピュータ装置(分類装置)300のハードウェア構成例を示している。コンピュータ装置300は、プロセッサ301と、インタフェース302と、メモリ303とを備え、それぞれバス304を介して接続されている。インタフェース302は、データ入出力手段によりデータのやり取りに使われる。インタフェース302には、例えばネットワークデバイス、ファイルデバイス、センサデバイスが接続される。プロセッサ301は、インタフェース302を介して、各種情報を入出力する。プロセッサ301は、メモリ303に格納されたプログラムを実行する。メモリ303は、例えば、プロセッサ301によって実行されるプログラムを記憶するメインメモリを含む。メモリ303に記憶されているプログラムは、各手段の処理を実行するために、プロセッサ301に処理させるための命令群(instruction codes)を含む。なお、プロセッサ301はその内部に実行する命令を格納するメモリを備えた構成としてもよい。
すなわち、前記各実施形態の分類装置(符号化モジュール20、統合モジュール30、決定モジュール40を含む)は、それぞれの処理のためのプログラムがプロセッサ301で実行されることにより実現することができる。あるいは、符号化モジュール20、統合モジュール30、決定モジュール40をそれぞれ、図15のコンピュータ装置300で実現してもよい。
上記プロセッサ301で実行されるプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
なお、図2、図3A、図4、図5、図12において、入力装置10と符号化モジュール20を端末側に実装し、統合モジュール30と、決定モジュール40を、端末と通信接続するサーバ装置に実装するようにしてもよい。この場合、サーバ装置は、クラウドサービスを提供すサーバとして構成としてもよい。
前記第2、第3の実施形態では、一例として、画像情報等の分類を例に説明したが、本発明は、センシングデバイス等で取得した信号(情報)から特徴を抽出して分類する各種装置、システムに適用可能である。
なお、上記の特許文献1の開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ乃至選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。
1 分類システム(分類装置)
10 入力装置
11 入力データ
12 要素データ
13 付加データ
14 正解ラベル
15 分割情報
20 符号化モジュール
21 要素分類モデル学習部
22 記憶装置(要素分類モデル)
23 要素分類部
24 記憶装置(要素モデル)
25 要素データ生成部
26 要素モデル学習部
30 統合モジュール
31 要素推定モデル学習部
32 記憶装置(要素推定モデル)
33 要素推定部
34 要素統合部
40 決定モジュール
41 グループ更新・生成部
42 決定部
43 記憶装置(意味モデル)
44 グループID
81 入力データ(画像データ)
82 要素データ
83 分類情報
84 表現ベクトル
101 入力装置
102 符号化モジュール
103 決定モジュール
251 分割推定部
252 要素分割部
300 コンピュータ装置
301 プロセッサ
302 インタフェース
303 メモリ
304 バス
1011入力データ
1021 特徴抽出部
1031 マッチング部
1032 グループID

Claims (21)

  1. 入力データの特徴を抽出し、第1の記憶部に記憶された要素分類モデルに基づき、分類情報を出力する要素分類部を備えた符号化モジュールと、
    前記分類情報を受け、第2の記憶部に記憶された要素推定モデルに基づき、照合用のベクトルに変換する要素推定部を備えた統合モジュールと、
    前記照合用のベクトルと、意味モデルとして第3の記憶部に記憶された各グループの代表ベクトルとを照合して前記照合用ベクトルの属するグループを決定し、前記グループのグループIDを分類結果として出力する決定部を備えた決定モジュールと、
    を有する、ことを特徴とする分類装置。
  2. 前記決定モジュールにおいて、
    前記決定部は、前記照合用のベクトルと、前記意味モデルとして学習された代表ベクトルとの距離を計算し、前記距離が所定値以下の場合、前記代表ベクトルが属するグループIDを決定し、
    前記決定モジュールは、前記グループを前記照合用のベクトルから構成し意味モデルとして前記第3の記憶部に記憶するグループ更新・生成部をさらに備えた、ことを特徴とする請求項1に記載の分類装置。
  3. 前記統合モジュールは、
    前記分類情報、及び入力された要素データに基づき、前記要素推定モデルを生成する要素推定モデル学習部をさらに備え、
    前記要素推定モデル学習部は、前記決定部で決定したグループIDを入力として前記要素推定モデルを学習する、ことを特徴とする請求項1又は2に記載の分類装置。
  4. 前記統合モジュールは、
    前記要素推定部で生成された前記ベクトルに、前記入力データに対応して入力された付加情報を付加した統合ベクトルを生成し、前記照合用のベクトルとして、前記決定モジュールに出力する要素統合部をさらに備えた、ことを特徴とする請求項3に記載の分類装置。
  5. 前記符号化モジュールは、
    入力された要素データに基づき前記要素分類モデルを生成する要素分類モデル学習部をさらに備えた、ことを特徴とする請求項1乃至4のいずれか1項に記載の分類装置。
  6. 前記符号化モジュールは、
    前記入力データを受け、前記要素分類部での分類に必要な要素データに変換する要素データ生成部をさらに備えた、ことを特徴とする請求項5に記載の分類装置。
  7. 前記要素データ生成部は、
    前記入力データを受け、第4の記憶部に記憶された要素モデルに基づき、前記入力データを分割するための特徴を抽出する分割推定部と、
    前記分割特徴に基づき、前記入力データを分割し、前記要素分類部に出力する要素分割部と、
    を含む、ことを特徴とする請求項6に記載の分類装置。
  8. コンピュータによる分類方法であって、
    入力データの特徴を抽出し、第1の記憶部に記憶された要素分類モデルに基づき、分類情報を出力する要素分類処理を含む符号化ステップと、
    前記分類情報を受け、第2の記憶部に記憶された要素推定モデルに基づき、照合用のベクトルに変換する統合ステップと、
    前記照合用のベクトルと、意味モデルとして第3の記憶部に記憶された各グループの代表ベクトルとを照合して前記照合用ベクトルの属するグループを決定し、前記グループのグループIDを分類結果として出力する決定ステップと、
    を含むことを特徴とする分類方法。
  9. 前記決定ステップは、
    前記照合用のベクトルと、前記意味モデルとして学習された代表ベクトルとの距離を計算し、前記距離が所定値以下の場合、前記代表ベクトルが属するグループIDを決定するステップと、
    前記グループを前記照合用のベクトルから構成し意味モデルとして前記第3の記憶部に記憶するステップと、
    を含む、ことを特徴とする請求項8に記載の分類方法。
  10. 前記統合ステップは、
    前記分類情報を受け、前記要素推定モデルに基づき、表現ベクトルに変換するステップと、
    前記分類情報、及び入力された要素データに基づき、前記要素推定モデルを生成する要素推定モデル学習ステップと、
    を含み、
    前記要素推定モデル学習ステップでは、前記決定ステップで決定したグループIDを入力として前記要素推定モデルを学習する、ことを特徴とする請求項8又は9に記載の分類方法。
  11. 前記統合ステップは、
    前記分類情報と前記要素推定モデルに基づき生成したベクトルに、前記入力データに対応して入力された付加情報を付加した統合ベクトルを生成し、前記照合用のベクトルとして、前記決定ステップに供給するステップを含む、ことを特徴とする請求項10に記載の分類方法。
  12. 前記符号化ステップは、
    入力された要素データに基づき前記要素分類モデルを生成する要素分類モデル学習ステップを含む、ことを特徴とする請求項8乃至11のいずれか1項に記載の分類方法。
  13. 前記符号化ステップは、
    前記入力データを受け、分類情報の作成に必要な要素データに変換する要素データ生成ステップをさらに含む、ことを特徴とする請求項12に記載の分類方法。
  14. 前記要素データ生成ステップは、
    前記入力データを受け、第4の記憶部に記憶された要素モデルに基づき、前記入力データを分割するための特徴を抽出する分割推定ステップと、
    前記分割特徴に基づき、前記入力データを分割し、前記要素分類処理に出力する要素分割ステップと、
    を含む、ことを特徴とする請求項13に記載の分類方法。
  15. 入力データの特徴を抽出し、第1の記憶部に記憶された要素分類モデルに基づき、分類情報を出力する要素分類処理を含む符号化処理と、
    前記分類情報を受け、第2の記憶部に記憶された要素推定モデルに基づき、照合用のベクトルに変換する要素推定処理を含む統合処理と、
    前記照合用のベクトルと、意味モデルとして第3の記憶部に記憶された各グループの代表ベクトルとを照合して前記照合用ベクトルの属するグループを決定し、前記グループのグループIDを分類結果として出力する決定処理と、
    をコンピュータに実行させる、ことを特徴とするプログラム。
  16. 前記決定処理は、
    前記照合用のベクトルと、前記意味モデルとして学習された代表ベクトルとの距離を計算し、前記距離が所定値以下の場合、前記代表ベクトルが属するグループIDを決定する処理と、
    前記グループを前記照合用のベクトルから構成し意味モデルとして前記第3の記憶部に記憶するグループ更新・生成処理を実行する、ことを特徴とする請求項15に記載のプログラム。
  17. 前記統合処理は、
    前記分類情報、及び入力された要素データに基づき、前記要素推定モデルを生成し、前記決定処理で決定したグループIDを入力として前記要素推定モデルを学習する要素推定モデル学習処理を実行する、ことを特徴とする請求項15又は16に記載のプログラム。
  18. 前記統合処理は、
    前記要素推定処理で生成された前記ベクトルに、前記入力データに対応して入力された付加情報を付加した統合ベクトルを生成し、前記照合用のベクトルとして、前記決定処理に出力する要素統合処理をさらに実行する、ことを特徴とする請求項17に記載のプログラム。
  19. 前記符号化処理は、
    入力された要素データに基づき前記要素分類モデルを生成する要素分類モデル学習処理をさらに実行する、ことを特徴とする請求項15乃至18のいずれか1項に記載のプログラム。
  20. 前記符号化処理は、
    前記入力データを受け、前記要素分類処理での分類に必要な要素データに変換する要素データ生成処理をさらに実行する、ことを特徴とする請求項19に記載のプログラム。
  21. 前記要素データ生成処理は、
    前記入力データを受け、第4の記憶部に記憶された要素モデルに基づき、前記入力データを分割するための特徴を抽出する分割推定処理と、
    前記分割特徴に基づき、前記入力データを分割し、前記要素分類処理に出力する要素分割処理と、を実行する、ことを特徴とする請求項20に記載のプログラム。
JP2019501326A 2017-02-21 2018-02-20 分類装置と分類方法並びにプログラム Pending JPWO2018155412A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017030272 2017-02-21
JP2017030272 2017-02-21
PCT/JP2018/005899 WO2018155412A1 (ja) 2017-02-21 2018-02-20 分類装置と分類方法並びにプログラム

Publications (1)

Publication Number Publication Date
JPWO2018155412A1 true JPWO2018155412A1 (ja) 2020-01-09

Family

ID=63252683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019501326A Pending JPWO2018155412A1 (ja) 2017-02-21 2018-02-20 分類装置と分類方法並びにプログラム

Country Status (3)

Country Link
US (1) US11443233B2 (ja)
JP (1) JPWO2018155412A1 (ja)
WO (1) WO2018155412A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414125B2 (ja) * 2020-04-17 2024-01-16 株式会社島津製作所 波形情報推定方法及び装置、並びに、ピーク波形処理方法及び装置
CN114187605B (zh) * 2021-12-13 2023-02-28 苏州方兴信息技术有限公司 一种数据集成方法、装置和可读存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3118725B2 (ja) * 1991-09-11 2000-12-18 株式会社日立製作所 自動分類方法
JP3796997B2 (ja) * 1999-02-18 2006-07-12 松下電器産業株式会社 物体認識方法及び物体認識装置
US6647139B1 (en) * 1999-02-18 2003-11-11 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
JP3938872B2 (ja) 2001-02-02 2007-06-27 松下電器産業株式会社 データ分類装置および物体認識装置
JP4556873B2 (ja) * 2003-10-21 2010-10-06 日本電気株式会社 画像照合システム及び画像照合方法
JP4766559B2 (ja) * 2006-06-09 2011-09-07 Kddi株式会社 音楽信号の帯域拡張方式
JP5008118B2 (ja) * 2006-08-28 2012-08-22 公立大学法人首都大学東京 不審者判別システム及びプロファイル配布システム
WO2009014156A1 (en) * 2007-07-20 2009-01-29 Fujifilm Corporation Image processing apparatus, image processing method and program
WO2009072466A1 (ja) 2007-12-03 2009-06-11 National University Corporation Hokkaido University 画像分類装置および画像分類プログラム
WO2010122721A1 (ja) * 2009-04-22 2010-10-28 日本電気株式会社 照合装置、照合方法および照合プログラム
JP5214762B2 (ja) * 2011-03-25 2013-06-19 株式会社東芝 認識装置、方法及びプログラム
JP5649601B2 (ja) * 2012-03-14 2015-01-07 株式会社東芝 照合装置、方法及びプログラム
JP6235414B2 (ja) * 2014-06-06 2017-11-22 株式会社デンソーアイティーラボラトリ 特徴量演算装置、特徴量演算方法、及び特徴量演算プログラム

Also Published As

Publication number Publication date
US20200234186A1 (en) 2020-07-23
US11443233B2 (en) 2022-09-13
WO2018155412A1 (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
US11776092B2 (en) Color restoration method and apparatus
CN110163258B (zh) 一种基于语义属性注意力重分配机制的零样本学习方法及系统
Ozturk et al. Improved clustering criterion for image clustering with artificial bee colony algorithm
KR20190094133A (ko) 객체를 인식하는 인공 지능 장치 및 그 방법
US11604998B2 (en) Upgrading a machine learning model's training state
JP7058941B2 (ja) 辞書生成装置、辞書生成方法、及びプログラム
KR102517513B1 (ko) 인공지능 기반 수목 데이터 관리 시스템 및 수목 데이터 관리 방법
US10970313B2 (en) Clustering device, clustering method, and computer program product
Kumar et al. Indian classical dance classification with adaboost multiclass classifier on multifeature fusion
US11468540B2 (en) Method and device for image processing
US20150242709A1 (en) Learning apparatus, density measuring apparatus, learning method, computer program product, and density measuring system
JP6620882B2 (ja) ドメイン適応を用いたパターン認識装置、方法およびプログラム
JPWO2018203555A1 (ja) 信号検索装置、方法、及びプログラム
Kishore et al. Selfie sign language recognition with convolutional neural networks
Bongini et al. Recursive neural networks for density estimation over generalized random graphs
WO2018155412A1 (ja) 分類装置と分類方法並びにプログラム
US10917721B1 (en) Device and method of performing automatic audio focusing on multiple objects
Chien et al. Variational bayesian gan
CN114399718B (zh) 一种视频播放过程中的图像内容识别方法及装置
CN116246102A (zh) 一种基于自编码器与决策树的图像分类方法与系统
WO2022204800A1 (en) Machine learning systems and methods for generating structural representations of plants
Ghosh et al. A survey on remote sensing scene classification algorithms
CN115082963A (zh) 人体属性识别模型训练及人体属性识别方法、相关装置
Arevalo-Ramirez et al. Conditional random field features and structure assessment for digital terrain modeling
Tsukada et al. Unsupervised and adaptive category classification for a vision-based mobile robot