JP6199461B1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6199461B1
JP6199461B1 JP2016178495A JP2016178495A JP6199461B1 JP 6199461 B1 JP6199461 B1 JP 6199461B1 JP 2016178495 A JP2016178495 A JP 2016178495A JP 2016178495 A JP2016178495 A JP 2016178495A JP 6199461 B1 JP6199461 B1 JP 6199461B1
Authority
JP
Japan
Prior art keywords
data
learning
unit
vector
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016178495A
Other languages
English (en)
Other versions
JP2018045361A (ja
Inventor
伸裕 鍜治
伸裕 鍜治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016178495A priority Critical patent/JP6199461B1/ja
Priority to US15/690,921 priority patent/US20180075324A1/en
Application granted granted Critical
Publication of JP6199461B1 publication Critical patent/JP6199461B1/ja
Publication of JP2018045361A publication Critical patent/JP2018045361A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】データを特徴量表現に変換する変換処理を効率よく学習することができる情報処理装置、情報処理方法、およびプログラムを提供する。【解決手段】データ分類装置100は、入力される分類対象データTDを特徴量表現に変換する特徴量変換器130と、対象データを第1学習データD1として用いて、雑音データと確率値との関係を示す雑音分布データD3を更新する更新部171と、更新部によって更新された雑音分布データD3を用いて、雑音データを生成する生成部172と、第1学習データと雑音データとを用いて、特徴量変換器130の変換処理を学習する第1学習部173と、を備える。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。
従来、テキストデータや画像、音声などの分類対象データに、「政治」や「経済」などのトピックに対応するラベルを付与するトピック分析装置が知られている(特許文献1参照)。トピック分析装置は、SNS(Social Networking Service)の分野などで好適に用いられる。
トピック分析装置は、分類対象データをベクトルデータに変換し、変換したベクトルデータに基づいてラベルを付与する。また、トピック分析装置は、予めラベルが付与された文書データ(教師データ)を用いて学習することで、ラベル付与の精度を向上させることができる。
特開2013−246586号公報
しかしながら、特許文献1に開示されたトピック分析装置は、ラベルを付与することによりデータを分類する分類部に対する学習処理を行うものの、分類対象データをベクトルデータに変換する変換部に対する学習処理を行うことはできなかった。
本発明は、このような事情を考慮してなされたものであり、データを特徴量表現に変換する変換処理を効率よく学習することができる情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。
本発明の一態様は、入力される対象データを特徴量表現に変換する変換部と、前記対象データを第1学習データとして用いて、雑音データと確率値との関係を示す雑音分布データを更新する更新部と、前記更新部によって更新された前記雑音分布データを用いて、雑音データを生成する生成部と、前記第1学習データと前記雑音データとを用いて、前記変換部の変換処理を学習する第1学習部と、を備える情報処理装置である。
本発明の一態様によれば、データを特徴量表現に変換する変換処理を効率よく学習することができる。
実施形態に係るデータ分類装置100の使用環境を示す図である。 実施形態に係るデータ分類装置100の詳細構成を示すブロック図である。 実施形態に係るベクトル表現テーブルTBの一例を示す図である。 実施形態に係るワードベクトルVの算出方法の一例を示す図である。 実施形態に係るラベル付与処理を説明するための図である。 実施形態に係る学習器170の詳細構成を示すブロック図である。 実施形態に係る第1学習データD1の一例を示す図である。 実施形態に係る雑音分布データD3の一例を示す図である。 実施形態に係る雑音分布データD3の一例である雑音分布q(c)を示す図である。 実施形態に係る第2学習データD2の一例を示す図である。 実施形態に係るラベル付与処理を示すフローチャートである。 実施形態に係る特徴量変換器130の変換処理を学習する学習処理(第1学習処理)を示すフローチャートである。 実施形態に係る分類部141の分類処理を学習する学習処理(第2学習処理)を示すフローチャートである。 実施形態に係るデータ分類装置100のハードウェア構成の一例を示す図である。 他の実施形態に係るデータ分類装置100の詳細構成を示すブロック図である。
以下、図面を参照して、情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。本実施形態においては、情報処理装置の一例として、データ分類装置について説明する。データ分類装置は、例えば、SNSにおいてリアルタイムに投稿されるデータを分類対象データとし、「政治」、「経済」、「スポーツ」といったラベルを付与することで、投稿されるデータをテーマごとに分類するのを補助する装置である。データ分類装置は、SNSなどを管理するサーバ装置に対してクラウドサービスによって分類結果を提供する装置であってもよいし、上記サーバ装置に内蔵されるものであってもよい。
データ分類装置は、分類対象データを特徴量表現に変換し、特徴量表現に基づいてラベルを付与すると共に、これらの処理の内容を学習することで、分類対象データに対して適切なラベルを付与することができる。なお、以下の説明では、一例として、特徴量表現はベクトルデータであるものとし、分類対象データは複数の単語を含むテキストデータであるものとする。
<1.データ分類装置の使用環境>
図1は、実施形態に係るデータ分類装置100の使用環境を示す図である。実施形態のデータ分類装置100は、ネットワークNWを介してデータサーバ200と通信する。ネットワークNWは、例えば、WAN(Wide Area Network)、LAN(Local Area Network)、インターネット、プロバイダ装置、無線基地局、専用回線などのうちの一部または全部を含む。
データ分類装置100は、データ管理部110と、受付部120と、特徴量変換器130と、分類器140と、第1記憶部150と、第2記憶部160と、学習器170とを備える。データ管理部110、特徴量変換器130、分類器140、および学習器170は、例えば、データ分類装置100のプロセッサがプログラムを実行することで実現されてもよいし、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。
受付部120は、ユーザからの入力を受け付けるキーボードやマウスなどの装置である。第1記憶部150および第2記憶部160は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置などにより実現される。また、第1記憶部150および第2記憶部160の一部または全部は、NAS(Network Attached Storage)や外部のストレージサーバなど、データ分類装置100がアクセス可能な外部装置であってもよい。
データサーバ200は、制御部210と、通信部220とを備える。制御部210は、例えば、データサーバ200のプロセッサがプログラムを実行することで実現されてもよいし、LSI、ASIC、FPGAなどのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。
通信部220は、例えばNIC(Network Interface Card)を備える。制御部210は、通信部220を用いて、ネットワークNWを介してデータ分類装置100にストリームデータを逐次送信する。「ストリームデータ」とは、大量に際限なく到来する時刻順のデータであり、例えば、ブログ(ウェブログ)サービスにおいて投稿された記事や、ソーシャルネットワーキングサービス(SNS)において投稿された記事である。また、ストリームデータには、各種センサから制御装置等に提供されるセンサデータ(GPSにより測位される位置、加速度、温度など)が含まれてもよい。データ分類装置100は、データサーバ200から受信したストリームデータを、分類対象データとして使用する。
<2.データ分類装置によるラベル付与処理>
図2は、実施形態に係るデータ分類装置100の詳細構成を示すブロック図である。データ分類装置100は、データサーバ200からストリームデータ(以下、分類対象データTDと称す)を受信し、受信した分類対象データTDにラベルを付与することで分類対象データTDを分類する。ラベルは、分類対象データTDを分類するためのデータであり、例えば、「政治」、「経済」、「スポーツ」などの分類対象データTDが属するジャンルを示すデータである。以下、データ分類装置100の分類動作について詳細に説明する。
データ管理部110は、データサーバ200から分類対象データTDを受信し、受信した分類対象データTDを特徴量変換器130に出力する。また、データ管理部110は、受信した分類対象データTDを、第1学習データD1として第1記憶部150に記憶させる。
特徴量変換器130は、データ管理部110から出力された分類対象データTDから単語を抽出し、抽出した単語を、ベクトル表現テーブルTBを参照してベクトルに変換する。
図3は、実施形態に係るベクトル表現テーブルTBの一例を示す図である。ベクトル表現テーブルTBは、学習器170によって管理される不図示のテーブルメモリに記憶される。ベクトル表現テーブルTBには、k個の単語のそれぞれに対して分散表現によって生成されるp次元のベクトルが対応付けられている。ベクトル表現テーブルTBに含まれる単語の上限数kは、テーブルメモリの容量に応じて適宜決定されるとよい。ベクトルの次元数pは、データの分類を正確に行うために十分な値が設定されるとよい。なお、ベクトル表現テーブルTBに含まれる各ベクトルは、後述する第1学習部173によって行われる学習処理によって算出される。
例えば、単語W1に対してはベクトルV1=(V1−1,V1−2,・・・,V1−p)が対応付けられており、単語W2に対してはベクトルV2=(V2−1,V2−2,・・・,V2−p)が対応付けられており、単語Wkに対してはベクトルVk=(Vk−1,Vk−2,・・・,Vk−p)が対応付けられている。特徴量変換器130は、分類対象データTDから抽出した全ての単語をベクトルに変換し、変換した全てのベクトルを足し合わせることで、ワードベクトルVを算出する。
図4は、実施形態に係るワードベクトルVの算出方法の一例を示す図である。図4に示される例において、特徴量変換器130は、分類対象データTDから単語W1、単語W2、および単語W3を抽出したこととする。この場合、特徴量変換器130は、ベクトル表現テーブルTBを参照して、単語W1をベクトルV1に変換し、単語W2をベクトルV2に変換し、単語W3をベクトルV3に変換する。
次に、特徴量変換器130は、ベクトルV1、ベクトルV2、およびベクトルV3の和を求めることで、ワードベクトルVを算出する。すなわち、図4に示される例においては、V=V1+V2+V3である。このため、分類対象データTDから抽出された単語数に関わらず、ワードベクトルVの次元数はpである。
このように、特徴量変換器130は、学習器170によって管理されるベクトル表現テーブルTBを参照して、データ管理部110から入力される分類対象データTDをワードベクトルVに変換する。その後、特徴量変換器130は、変換したワードベクトルVと分類対象データTDとを分類器140に出力する。
なお、特徴量変換器130は、各ベクトルの和をワードベクトルVとして算出することとしたが、これに限られない。例えば、特徴量変換器130は、各ベクトルの平均値である平均ベクトルを、ワードベクトルVとして算出してもよいし、各ベクトルの内容を反映したものであれば、如何なるベクトルをワードベクトルVとして算出してもよい。
分類器140は、分類部141と第2学習部142とを備え、例えば線形モデルを用いて分類対象データTDを分類する。特徴量変換器130からワードベクトルVおよび分類対象データTDが入力されると、分類部141は、入力されたワードベクトルVに対応するラベルを導出し、導出したラベルを分類対象データTDに付与する。これによって、分類対象データTDが分類される。ここでいう分類とは、単語列をラベル列に変換する構造予測のような、広義の分類を含む。なお、分類器140にはワードベクトルVが入力されることとしたが、データが入力されてもよい。この場合、分類器140は、ワードベクトルV以外に入力されたデータ(例えば日付、分類の閾値や総数などを調整する各種パラメータ等)を反映させて処理を行ってもよい。
図5は、実施形態に係るラベル付与処理を説明するための図である。ここでは、説明を容易にするために、各単語が2次元のワードベクトル(x,y)に変換された例について説明する。図5において、横軸はワードベクトルのxの値を示し、縦軸はワードベクトルのyの値を示す。グループG1は、ラベルL1が付与されたワードベクトルVのグループである。グループG2は、ラベルL2が付与されたワードベクトルVのグループである。
境界BDは、ワードベクトルVがグループG1とグループG2の何れに属するのかを判定するために用いられる分類基準パラメータである。なお、境界BDは、後述する第2学習部142によって行われる学習処理によって算出される。
図5に示される例において、ワードベクトルVが境界BDの右上に存在する場合、分類部141は、ワードベクトルVはグループG1に属すると判定し、分類対象データTDにラベルL1を付与する。一方、ワードベクトルVが境界BDの左下に存在する場合、分類部141は、ワードベクトルVはグループG2に属すると判定し、分類対象データTDにラベルL2を付与する。
このように、分類部141は、特徴量変換器130によって変換されたワードベクトルVに基づき、分類対象データTDにラベルを付与する。また、分類部141は、ラベルが付与された分類対象データTDをデータサーバ200に送信する。例えば、データサーバ200は、データ分類装置100から受信したラベルが付与された分類対象データTDを、ブログ(ウェブログ)サービスにおいて投稿された記事のジャンル分けや、ソーシャルネットワーキングサービス(SNS)において投稿された記事のジャンル分けに使用する。
<3.変換処理の学習>
次に、第1学習部173によって実行される、特徴量変換器130の変換処理を学習する学習処理について説明する。第1学習部173は、入力される分類対象データTDを蓄積したデータを第1学習データD1として用いて、特徴量変換器130の変換処理を学習する。本実施形態において、特徴量変換器130の変換処理を学習することは、ベクトル表現テーブルTBに含まれるベクトルV1からVkを、より適切な値に更新することである。本実施形態においては、データ管理部110から出力される全ての分類対象データTDを第1学習データD1として蓄積して処理することは不適切であるため、第1学習部173は、少数の第1学習データD1を受け取るごとにリアルタイムに学習処理を行う。
図6は、実施形態に係る学習器170の詳細構成を示すブロック図である。学習器170は、更新部171と、生成部172と、第1学習部173とを備える。学習器170は、第1記憶部150から第1学習データD1を読み出す。第1記憶部150から読み出された第1学習データD1は、更新部171および第1学習部173に入力される。
図7は、実施形態に係る第1学習データD1の一例を示す図である。初期状態において、第1記憶部150には第1学習データD1は記憶されていないが、データ管理部110がデータサーバ200から分類対象データTD(ストリームデータ)を受信すると、データ管理部110は、受信した分類対象データTDを第1記憶部150に記憶させる。データ管理部110は、分類対象データTDを受信する度に、受信した分類対象データTDを第1記憶部150に蓄積していく。このため、分類対象データTDは、特徴量変換器130による変換処理に使用されるだけでなく、第1学習部173による学習処理にも使用される。
図7に示されるように、第1学習データD1には、データ管理部110によって受信された複数の分類対象データTDが含まれる。第1学習データD1に含まれる分類対象データTDの上限数は、第1記憶部150の容量に応じて適宜決定されるとよい。第1学習部173は、第1学習データD1として第1記憶部150に記憶された分類対象データTDが上限数に達した場合(言い換えると、第1記憶部150に記憶された第1学習データD1が所定量を超えた場合)、特徴量変換器130の変換処理を学習する学習処理を開始する。
更新部171は、第1記憶部150から読み出された第1学習データD1から、対象語と文脈語を抽出する。対象語は、第1学習部173によって行われる学習処理の対象となる単語である。文脈語は、対象語の近傍(例えば、5単語以内)に存在する単語である。更新部171は、抽出した文脈語を示す文脈語データcを用いて、雑音データと確率値との関係を示す雑音分布データD3を更新する。
図8は、実施形態に係る雑音分布データD3の一例を示す図である。雑音分布データD3には文脈語データcが含まれる。詳細は後述するが、雑音分布データD3に含まれる文脈語データcは、第1学習部173によって行われる学習処理において、雑音データnとして使用される。図8においては省略されているが、雑音分布データD3に含まれるそれぞれの文脈語データcは、後述する確率値に対応付けられている。
初期状態において、雑音分布データD3には文脈語データcは含まれていないが、更新部171が第1学習データD1から文脈語を抽出すると、更新部171は、抽出した文脈語を示す文脈語データcを雑音分布データD3に追加する。
例えば、今までに抽出された文脈語データcの総数をNとし、雑音分布データD3に登録できる文脈語データcの最大数をTとする。この場合、更新部171は、T/Nの確率で、雑音分布データD3を更新する。ただし、T>Nの場合、T/N=1とする。具体的には、T>Nの場合、更新部171は、抽出した文脈語データcを雑音分布データD3に追加する。一方、T≦Nの場合、更新部171は、T/Nの確率で、雑音分布データD3を更新するか否かを判定する。更新部171は、雑音分布データD3を更新すると判定した場合には、雑音分布データD3に登録された複数の文脈語データcの中からランダムに一つの文脈語データを選択し、選択した文脈語データを、新たに抽出した文脈語データに書き換える。更新部171は、文脈語データcを抽出する度に、上述した処理を繰り返す。
なお、更新部171による更新処理は、これに限られない。例えば、更新部171は、雑音分布データD3に登録された文脈語データcの数が最大数Tに達していない場合は、抽出した文脈語データcを雑音分布データD3に追加してもよい。一方、更新部171は、雑音分布データD3に登録された文脈語データcの数が最大数Tに達している場合は、雑音分布データD3の各エントリに対して、1/Nの確率でそのエントリを抽出した文脈語データcに書き換えてもよい。
図8に示されるように、雑音分布データD3には、更新部171によって抽出された複数の文脈語データcが含まれる。雑音分布データD3に含まれる文脈語データcの上限数は、雑音分布データD3を記憶するメモリ(不図示)の容量に応じて適宜決定されるとよい。
図9は、実施形態に係る雑音分布データD3の一例である雑音分布q(c)を示す図である。具体的には、雑音分布データD3は、雑音データとして用いられる文脈語データcの確率分布を示す雑音分布q(c)である。例えば、雑音分布q(c)は、複数の文脈語データc(c1、c2、c3、・・・)の各々が、確率値と対応付けられている。更新部171は、第1学習データD1から抽出した文脈語の出現確率を確率値として算出し、算出した確率値と抽出した文脈語データcとを用いて雑音分布データD3を更新する。なお、更新部171は、第1学習データD1が入力される度に、雑音分布データD3を更新する。
生成部172は、更新部171によって更新された雑音分布データD3を用いて、雑音データnを生成する。例えば、生成部172は、図9に示される雑音分布q(c)に基づいて、一つの文脈語データcを選択する。ここで、生成部172は、確率値が高い文脈語データcほど、高確率で選択する。生成部172は、選択した文脈語データcを、雑音データnとして第1学習部173に出力する。
第1学習部173は、第1学習データD1に含まれる対象語を示す対象語データwと、文脈語データcとの全ペア(w,c)に対して、確率的勾配法を用いて損失関数LNCEを最適化する。これによって、第1学習部173は、ベクトル表現テーブルTBに含まれるベクトルをより適した値に更新することができる。
具体的に、第1学習部173は、対象語データwに対応するベクトル、文脈語データcに対応するベクトル、および雑音データnに対応するベクトルを、損失関数LNCEを偏微分した値を用いて、以下の式(1)から式(3)に基づいて更新する。ここで、矢印はベクトル表現を表す記号である。
Figure 0006199461
式(1)から式(3)において、αは学習率である。例えば、第1学習部173は、AdaGrad法を用いて学習率αを算出する。式(1)から式(3)におけるLNCEは、損失関数である。第1学習部173は、以下の式(4)に基づいて損失関数LNCEを算出する。なお、説明を容易にするために、損失関数には一つの雑音データが用いられることとするが、複数の雑音データが用いられてもよい。
Figure 0006199461
このように、第1学習部173は、第1学習データD1を用いて、教師無し学習により特徴量変換器130の変換処理を学習する学習処理を行う。これによって、第1学習部173は、ベクトル表現テーブルTBに含まれるベクトルを、より適した値に更新することができる。
従来の技術において、特徴量変換器130の変換処理を学習する学習処理を行う場合、分類部141の動作を停止した上で、学習処理を行うためのデータを格納する大容量の記憶部を用いてバッチ処理を行う必要があった。このため、特徴量変換器130の変換処理を学習する学習処理とデータの分類処理とを並行して行うことができず、特徴量変換器130の変換処理を学習する学習処理とデータの分類処理とを効率的に行うことができなかった。
これに対し、本実施形態においては、データ管理部110から出力された分類対象データTDが第1学習データD1として第1記憶部150に記憶される。また、第1学習部173は、特徴量変換器130の変換処理を学習する学習処理が完了した場合、第1学習データ(分類対象データ)を第1記憶部150から消去する。消去によって第1記憶部150内の記憶領域が解放されると、データ管理部110は、データサーバ200から新たに受信した分類対象データTDを、第1学習データとして第1記憶部150に記憶する。これによって、データ分類装置100は、記憶容量が小さい第1記憶部150を用いて、特徴量変換器130の変換処理を学習する学習処理を行うことができる。
なお、本実施形態においては、第1学習部173は、特徴量変換器130の変換処理を学習する学習処理に使用された第1学習データを第1記憶部150から消去することとしたが、これに限られない。例えば、第1学習部173は、特徴量変換器130の変換処理を学習する学習処理に使用された第1学習データに、「上書き可」のフラグを付与することにより無効化してもよい。
第1学習部173は、第1学習データD1に含まれる他の学習データを用いて、以上の処理を繰り返し行う。これによって、ベクトル表現テーブルTBに含まれるベクトルの値が最適化される。例えば、互いに関連する単語のベクトルは、近い値となるように更新される。
このように、第1学習部173は、第1学習データD1に含まれる対象語データw(第1の単語)に対応づけられた第1のベクトルと、対象語データwに関連する文脈語データc(第2の単語)に対応づけられた第2のベクトルとが近い値となるように、ベクトル表現テーブルTBに含まれる第1のベクトルと第2のベクトルとを更新する。具体的に、第1学習部173は、第1学習データD1において、文脈語データc(第2の単語)が対象語データw(第1の単語)から所定単語以内(例えば、5単語以内)に存在する場合、第1のベクトルと第2のベクトルとが近い値となるように、ベクトル表現テーブルTBに含まれる第1のベクトルと第2のベクトルとを更新する。これによって、第1のベクトルと第2のベクトルとが、より適した値に更新される。
また、第1学習部173は、第1のベクトルと、第2のベクトルと、雑音データnに対応付けられた第3のベクトルとを用いて損失関数LNCEを算出し、算出した損失関数LNCEを偏微分した値を用いて、第1のベクトルと、第2のベクトルと、第3のベクトルとを更新する。これによって、第1のベクトルと、第2のベクトルと、第3のベクトルとが、より適した値に更新される。
第1学習部173は、ベクトル表現テーブルTBに含まれない単語が第1学習データD1から抽出されると、抽出された単語をベクトル表現テーブルTBに新たに追加し、予め設定されたベクトルを対応付ける。新たに追加された単語に対応付けられたベクトルは、第1学習部173によって行われる学習処理によって、より適した値に更新される。
ここで、ベクトル表現テーブルTBに登録された単語の総数が上限数に達している場合、第1学習部173は、出現頻度の低い単語をベクトル表現テーブルTBから消去し、新たに抽出された単語をベクトル表現テーブルTBに追加する。これによって、単語数の増加によりベクトル表現テーブルTBを格納するテーブルメモリがオーバーフローすることを防止することができる。
なお、第1学習部173は、雑音データnを負例データとして用いた学習処理を行うことにより、ベクトル表現テーブルTBを更新してもよい。例えば、第1学習部173は、損失関数LNCEに代えて、以下の式(5)に示される損失関数LNSを用いて、対象語データwに対応するベクトル、文脈語データcに対応するベクトル、および雑音データ(負例データ)nに対応するベクトルを更新してもよい。
Figure 0006199461
また、第1学習部173は、第1学習データD1および雑音データnとは異なるデータを用いて、ベクトル表現テーブルTBを更新してもよい。例えば、生成部172は、雑音データnに加えて、雑音データnの確率値を生成してもよい。また、第1学習部173は、第1記憶部150から読み出された第1学習データD1と、生成部172によって生成された雑音データnおよび確率値とを用いて、ベクトル表現テーブルTBを更新してもよい。
<4.分類処理の学習>
次に、第2学習部142によって実行される、分類部141の分類処理を学習する学習処理について説明する。第2学習部142は、分類対象データTDと同種のデータに対してラベルが付与された第2学習データD2を用いて、分類部141の分類処理を学習する。本実施形態において、分類部141の分類処理を学習することは、ワードベクトルVを分類するために用いられる分類基準パラメータ(例えば、図5の境界BD)を、より適切なパラメータに更新することである。
図10は、実施形態に係る第2学習データD2の一例を示す図である。ユーザは、文章が含まれるテキストデータと、テキストデータに対応するラベル(正解データ)とを、データ分類装置100に入力する。受付部120は、ユーザによって入力されたテキストデータおよびラベル(正解データ)を受け付け、第2学習データD2として第2記憶部160に記憶する。このように、第2学習データD2は、ユーザによって作成されて第2記憶部160に記憶されるデータであり、第1学習データD1とは異なり、随時入力されて増加するデータではなくてもよい。
図10に示されるように、第2学習データD2には、テキストデータとラベルが対応付けられた複数の学習データが含まれる。第2学習データD2に含まれる学習データの上限数は、第2記憶部160の容量に応じて適宜決定されるとよい。第2学習部142は、例えば、第1学習部173によってベクトル表現テーブルTBに含まれるベクトルが更新されたときに、分類部141に対する学習処理を開始する。
まず、第2学習部142は、第2記憶部160に記憶された第2学習データD2から学習データ(テキストデータおよびラベル)を読み出す。ここで、第2学習部142によって読み出される学習データの個数は、第2学習部142によって行われる学習処理の頻度などに応じて適宜決定される。例えば、第2学習部142は、学習処理が頻繁に行われる場合は学習データを一つ読み出してもよいし、たまにしか学習処理が行われない場合は第2記憶部160から全ての学習データを読み出してもよい。第2学習部142は、読み出した学習データに含まれるテキストデータを特徴量変換器130に出力する。特徴量変換器130は、学習器170に管理されるベクトル表現テーブルTBを参照して、第2学習部142から出力されたテキストデータを、ワードベクトルVに変換する。その後、特徴量変換器130は、変換したワードベクトルVを分類器140に出力する。
次に、第2学習部142は、特徴量変換器130から入力されたワードベクトルVと、第2記憶部160から読み出した学習データに含まれるラベル(正解データ)とを用いて、分類基準パラメータ(図5の境界BD)を更新する。第2学習部142は、従来から行われているいずれの手法を用いて分類基準パラメータを算出してもよい。例えば、第2学習部142は、サポートベクターマシン(SVM)のヒンジロス関数を確率的勾配法で最適化して分類基準パラメータを算出してもよく、パーセプトロンアルゴリズムを用いて分類基準パラメータを算出してもよい。
第2学習部142は、算出した分類基準パラメータを分類部141に設定する。分類部141は、第2学習部142によって設定された分類基準パラメータを用いて、前述の分類処理を行う。
このように、第2学習部142は、正例または負例を示す情報を含む第2学習データD2に基づいて、特徴量変換器130によって変換されたワードベクトルVを分類するために用いられる分類基準パラメータ(例えば、図5の境界BD)を更新する。具体的に、第2学習部142は、第2記憶部160からラベルが付与された第2学習データD2を読み出し、読み出した第2学習データD2を特徴量変換器130に出力する。特徴量変換器130は、第2学習部142から出力された第2学習データD2をワードベクトルVに変換し、変換したワードベクトルVを第2学習部142に出力する。第2学習部142は、特徴量変換器130から出力されたワードベクトルVと、第2学習データD2に付与されたラベルとに基づき、分類基準パラメータを更新する。これによって、ワードベクトルVを分類するために用いられる分類基準パラメータ(図5の境界BD)をより適した値に更新することができる。
なお、第2学習部142は、分類部141の分類処理を学習する学習処理が完了した場合であっても、学習に使用した学習データ(テキストデータおよびラベル)を第2記憶部160から消去しない。つまり、第2学習部142は、分類部141の分類処理を学習する学習処理を行う際、第2記憶部160に蓄積された第2学習データD2を繰り返し使用する。これによって、第2記憶部160が空のために第2学習部142が学習処理を行えないことを防止することができる。
なお、第2学習部142は、分類部141の分類処理を学習する学習処理に使用された第2学習データにフラグを付与し、フラグを付与されたデータを消去できるようにしてもよい。これによって、第2記憶部160がオーバーフローすることを防止することができる。
第2学習部142は、第1学習部173による学習処理が行われる度に、第2学習データD2に含まれる他の学習データ(テキストデータおよびラベル)を用いて学習処理を繰り返し行う。第2学習データD2は、ユーザによって入力されたラベル(正解データ)が付与されたデータである。このため、第2学習部142は、第2学習データD2を用いて分類部141に対する学習処理を行う度に、分類部141によって行われる分類処理の精度を向上させることができる。
なお、特徴量変換器130および分類部141による処理は、第1学習部173および第2学習部142による処理とは非同期で実行される。これによって、特徴量変換器130の変換処理を学習する学習処理と、分類部141の分類処理を学習する学習処理と、データの分類処理とを効率的に行うことができる。
仮に、ベクトル表現を逐次学習する技術が存在する場合であっても、一つずつ学習データを読み出して学習処理をリアルタイムで行うことや、一度学習された単語に対応するベクトルを再度更新することは難しい。しかしながら、本実施形態の第1学習部173は、第1記憶部150から一つずつ学習データを読み出す場合であっても、特徴量変換器130および分類部141による処理と並行してリアルタイムで動作することができる。また、本実施形態の第1学習部173は、一度更新したベクトル表現テーブルTB内のベクトルを、第1学習データD1を使用して学習する度に、より適した値に再度更新することができる。
<5.ラベル付与処理のフローチャート>
図11は、実施形態に係るラベル付与処理を示すフローチャートである。本フローチャートによる処理は、データ分類装置100によって実行される。
まず、データ管理部110は、データサーバ200から分類対象データTDを受信したか否かを判定する(S11)。データ管理部110は、データサーバ200から分類対象データTDを受信したと判定した場合、受信した分類対象データTDを、第1学習データD1として第1記憶部150に記憶する(S12)。
次に、データ管理部110は、受信した分類対象データTDを特徴量変換器130に出力する(S13)。特徴量変換器130は、学習器170によって管理されるベクトル表現テーブルTBを参照して、データ管理部110から入力された分類対象データTDを、ワードベクトルVに変換する(S14)。特徴量変換器130は、変換したワードベクトルVを分類部141に出力する。
分類部141は、特徴量変換器130から入力されたワードベクトルVおよび分類基準パラメータ(図5の境界BD)に基づき、分類対象データTDにラベルを付与することで、分類対象データTDを分類する(S15)。分類部141は、ラベルが付与された分類対象データTDをデータサーバ200に送信し(S16)、前述のS11に処理を戻す。
<6.第1学習処理のフローチャート>
図12は、実施形態に係る特徴量変換器130の変換処理を学習する学習処理(第1学習処理)を示すフローチャートである。本フローチャートによる処理は、学習器170によって実行される。
まず、学習器170は、第1記憶部150内の第1学習データD1が所定量を超えたか否かを判定する(S21)。学習器170は、第1記憶部150内の第1学習データD1が所定量を超えたと判定した場合、第1記憶部150から第1学習データD1を読み出す(S22)。
次に、学習器170の更新部171は、第1記憶部150から読み出した第1学習データD1を用いて、雑音分布データD3を更新する(S23)。また、生成部172は、更新部171によって更新された雑音分布データD3を用いて、雑音データnを生成する(S24)。
第1学習部173は、第1記憶部150から読み出された第1学習データD1と、生成部172によって生成された雑音データnとを用いて、ベクトル表現テーブルTBを更新する(S25)。これによって、ベクトル表現テーブルTBに含まれるベクトルをより適した値に更新することができる。次に、第1学習部173は、更新に使用した第1学習データD1を、第1記憶部150から消去する(S26)。その後、第1学習部173は、第1学習処理の完了を示す学習完了通知を第2学習部142に出力し(S27)、前述のS21に処理を戻す。
<7.第2学習処理のフローチャート>
図13は、実施形態に係る分類部141の分類処理を学習する学習処理(第2学習処理)を示すフローチャートである。本フローチャートによる処理は、第2学習部142によって実行される。
まず、第2学習部142は、第1学習部173から学習完了通知が入力されたか否かを判定する(S31)。第2学習部142は、第1学習部173から学習完了通知が入力されたと判定した場合、第2記憶部160から第2学習データD2を読み出す(S32)。
次に、第2学習部142は、読み出した第2学習データD2を用いて、分類基準パラメータ(例えば、図5の境界BD)を更新する(S33)。これによって、分類部141によって行われる分類処理の精度を向上させることができる。その後、第2学習部142は、前述のS31に処理を戻す。
なお、データ分類装置100は、図11に示されるフローチャートによる処理と、図12に示されるフローチャートによる処理と、図13に示されるフローチャートによる処理とを並行して実行する。これによって、データ分類装置100は、ラベル付与処理を停止させることなく、特徴量変換器130の変換処理を学習する学習処理と、分類部141の分類処理を学習する学習処理とを実行することができる。したがって、データ分類装置100は、特徴量変換器130の変換処理を学習する学習処理と、分類部141の分類処理を学習する学習処理と、データの分類処理とを効率的に行うことができる。
<8.ハードウェア構成>
図14は、実施形態に係るデータ分類装置100のハードウェア構成の一例を示す図である。データ分類装置100は、例えば、CPU180、RAM181、ROM182、フラッシュメモリやHDDなどの二次記憶装置183、NIC184、ドライブ装置185、キーボード186、およびマウス187が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置185には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置183、またはドライブ装置185に装着された可搬型記憶媒体に記憶されたプログラムがDMA(Direct Memory Access)コントローラ(不図示)などによってRAM181に展開され、CPU180によって実行されることで、データ分類装置100の機能部が実現される。
<9.他の実施形態>
上記実施形態においては、データ管理部110によって受信された分類対象データTDが、特徴量変換器130に入力されるとともに、第1学習データD1として第1記憶部150に記憶されることとしたが、これに限られない。例えば、特徴量変換器130への分類対象データTDの入力と、第1記憶部150への分類対象データTDの入力とは、別系統であってもよい。
図15は、他の実施形態に係るデータ分類装置100の詳細構成を示すブロック図である。図15に示されるように、データ分類装置100は、分類対象データTDと同種の学習データを自動的に収集する自動収集部190を更に備え、自動収集部190は、収集した学習データを第1学習データD1として第1記憶部150に記憶させてもよい。このように、データ分類装置100は、特徴量変換器130へ分類対象データTDを入力するデータ管理部110とは別に、収集した学習データを第1学習データD1として第1記憶部150に記憶させる自動収集部190を備えてもよい。
また、データ分類装置100は、テキストデータである分類対象データTDを分類してラベルを付与することとしたが、これに限られない。例えば、データ分類装置100は、音声データである分類対象データTDを分類してラベルを付与してもよいし、画像データである分類対象データTDを分類してラベルを付与してもよい。データ分類装置100が画像データを分類する場合、特徴量変換器130は、入力された画像データをAuto-Encoderを用いてベクトル表現に変換してもよく、第1学習部173は、Auto-Encoderを確率的勾配法を用いて最適化してもよい。また、ベクトル表現テーブルTBに代えて、画像データのピクセルを入力とするニューラルネットワークが用いられてもよい。
また、第1学習部173は、第1記憶部150に記憶された第1学習データD1が所定量を超えた場合、特徴量変換器130を学習する学習処理を開始することとしたが、これに限られない。例えば、第1学習部173は、第1記憶部150に記憶された第1学習データD1が所定量を超えるよりも前に、特徴量変換器130を学習する学習処理を開始してもよい。また、第1学習部173は、第1記憶部150が満杯になった場合、特徴量変換器130を学習する学習処理を開始してもよい。
また、特徴量変換器130は、単語をベクトルに変換することとしたが、他の特徴量表現に変換してもよい。また、特徴量変換器130は、単語を特徴量表現に変換する際に、ベクトル表現テーブルTBを参照することとしたが、他の情報源を参照してもよい。
以上説明したように、実施形態のデータ分類装置100は、特徴量変換器130と、更新部171と、生成部172と、第1学習部173とを備える。特徴量変換器130は、入力される分類対象データTDをワードベクトルVに変換する。更新部171は、分類対象データTDを第1学習データD1として用いて、雑音データと確率値との関係を示す雑音分布データD3を更新する。生成部172は、更新部171によって更新された雑音分布データD3を用いて、雑音データnを生成する。第1学習部173は、第1学習データD1と雑音データnとを用いて、特徴量変換器130の変換処理を学習する。これによって、データ分類装置100は、データを特徴量表現に変換する変換処理を効率よく学習することができる。
なお、本発明は、データ分類装置100に適用されることとしたが、他の情報処理装置に適用されてもよい。例えば、本発明は、ベクトル表現テーブルを用いて処理対象データをワードベクトルに変換する変換部および変換部の変換処理を学習する学習部を備える学習装置に適用されてもよい。例えば、この学習装置と、ベクトル表現テーブルを用いて類義語検索を行う類義語検索装置とによって、学習機能を備える類義語検索システムが実現される。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
100…データ分類装置
110…データ管理部
120…受付部
130…特徴量変換器
140…分類器
141…分類部
142…第2学習部
150…第1記憶部
160…第2記憶部
170…学習器
171…更新部
172…生成部
173…第1学習部
190…自動収集部
200…データサーバ

Claims (17)

  1. 入力される対象データを特徴量表現に変換する変換部と、
    前記対象データを第1学習データとして用いて、雑音データとして使用される文脈語を示す文脈語データと、前記文脈語の出現確率を示す確率値との関係を示す雑音分布データを更新する更新部と、
    前記更新部によって更新された前記雑音分布データを用いて、雑音データを生成する生成部と、
    前記第1学習データと前記雑音データとを用いて、前記変換部の変換処理を学習する第1学習部と、
    を備える情報処理装置。
  2. 前記変換部は、単語とベクトルが対応付けられたベクトル表現テーブルを参照して、前記対象データを前記特徴量表現としてのベクトルデータに変換し、
    前記第1学習部は、前記第1学習データと前記雑音データとを用いて、前記ベクトル表現テーブルに含まれるベクトルを更新する
    請求項1記載の情報処理装置。
  3. 前記第1学習部は、前記第1学習データに含まれる第1の単語に対応づけられた第1のベクトルと、前記第1の単語に関連する第2の単語に対応づけられた第2のベクトルとが近い値となるように、前記ベクトル表現テーブルに含まれる前記第1のベクトルと前記第2のベクトルとを更新する
    請求項2記載の情報処理装置。
  4. 前記更新部は、前記第1学習データから前記第2の単語を抽出し、抽出した前記第2の単語を前記文脈語データとして用いて前記雑音分布データを更新する
    請求項3記載の情報処理装置。
  5. 前記第2の単語は、前記第1学習データにおいて、前記第1の単語から所定単語以内に存在する単語であり、
    前記雑音分布データは、前記第2の単語の確率分布を示すデータである
    請求項3または4記載の情報処理装置。
  6. 前記第1学習部は、前記第1のベクトルと、前記第2のベクトルと、前記雑音データに対応付けられた第3のベクトルとを用いて損失関数を算出し、算出した損失関数を偏微分した値を用いて、前記第1のベクトルと、前記第2のベクトルと、前記第3のベクトルとを更新する
    請求項3から5のいずれか一項に記載の情報処理装置。
  7. 前記生成部は、前記雑音データとして使用される文脈語を示す前記文脈語データに加えて、前記雑音データとして使用される前記文脈語の出現確率を示す確率値を生成し、
    前記第1学習部は、前記第1学習データと、前記生成部によって生成された前記文脈語データおよび前記確率値とを用いて、前記変換部の変換処理を学習する
    請求項1記載の情報処理装置。
  8. 前記変換部によって変換された前記特徴量表現に基づき、前記対象データにラベルを付与する分類部と、
    前記対象データと同種のデータに対してラベルが付与された第2学習データを用いて、前記分類部の分類処理を学習する第2学習部と、
    を更に備える請求項1記載の情報処理装置。
  9. 前記第2学習部は、正例または負例を示す情報を含む前記第2学習データに基づいて、前記変換部によって変換された前記特徴量表現を分類するために用いられる分類基準パラメータを更新する
    請求項8記載の情報処理装置。
  10. 前記第2学習部は、前記第2学習データを前記変換部に出力し、
    前記変換部は、前記第2学習部から出力された前記第2学習データを前記特徴量表現に変換し、変換した前記特徴量表現を前記第2学習部に出力し、
    前記第2学習部は、前記変換部から出力された前記特徴量表現と、前記第2学習データに付与された前記ラベルとに基づき、前記分類基準パラメータを更新する
    請求項9記載の情報処理装置。
  11. 前記変換部および前記分類部による処理は、前記第1学習部および前記第2学習部による処理とは非同期で実行される
    請求項8記載の情報処理装置。
  12. 前記第1学習データは、第1記憶部に記憶され、
    前記第1学習部は、前記第1記憶部に記憶された前記第1学習データが所定量を超えた場合に、前記変換部の変換処理を学習する学習処理を開始する
    請求項1記載の情報処理装置。
  13. 前記第1学習部は、前記変換部の変換処理を学習する学習処理が完了した場合、前記第1学習データを前記第1記憶部から消去または無効化する
    請求項12記載の情報処理装置。
  14. 前記生成部は、前記雑音分布データから、前記確率値が高い文脈語データほど高確率で選択し、選択した前記文脈語データを前記雑音データとして前記第1学習部に出力する
    請求項1から13の何れか一項に記載の情報処理装置。
  15. 入力される対象データを第1学習データとして用いて、雑音データとして使用される文脈語を示す文脈語データと、前記文脈語の出現確率を示す確率値との関係を示す雑音分布データを更新する更新部と、
    前記更新部によって更新された前記雑音分布データを用いて、雑音データを生成する生成部と、
    前記第1学習データと前記雑音データとを用いて、前記対象データを特徴量表現に変換する変換部の変換処理を学習する第1学習部と、
    を備える情報処理装置。
  16. 情報処理装置が、入力される対象データを特徴量表現に変換する変換工程と、
    前記情報処理装置が、前記対象データを第1学習データとして用いて、雑音データとして使用される文脈語を示す文脈語データと、前記文脈語の出現確率を示す確率値との関係を示す雑音分布データを更新する更新工程と、
    前記情報処理装置が、前記更新工程において更新された前記雑音分布データを用いて、雑音データを生成する生成工程と、
    前記情報処理装置が、前記第1学習データと前記雑音データとを用いて、前記変換工程の変換処理を学習する第1学習工程と、
    を備える情報処理方法。
  17. コンピュータを、
    入力される対象データを特徴量表現に変換する変換部、
    前記対象データを第1学習データとして用いて、雑音データとして使用される文脈語を示す文脈語データと、前記文脈語の出現確率を示す確率値との関係を示す雑音分布データを更新する更新部、
    前記更新部によって更新された前記雑音分布データを用いて、雑音データを生成する生成部、
    前記第1学習データと前記雑音データとを用いて、前記変換部の変換処理を学習する第1学習部、
    として機能させるためのプログラム。
JP2016178495A 2016-09-13 2016-09-13 情報処理装置、情報処理方法、およびプログラム Active JP6199461B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016178495A JP6199461B1 (ja) 2016-09-13 2016-09-13 情報処理装置、情報処理方法、およびプログラム
US15/690,921 US20180075324A1 (en) 2016-09-13 2017-08-30 Information processing apparatus, information processing method, and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016178495A JP6199461B1 (ja) 2016-09-13 2016-09-13 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP6199461B1 true JP6199461B1 (ja) 2017-09-20
JP2018045361A JP2018045361A (ja) 2018-03-22

Family

ID=59895734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016178495A Active JP6199461B1 (ja) 2016-09-13 2016-09-13 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US20180075324A1 (ja)
JP (1) JP6199461B1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107957989B9 (zh) 2017-10-23 2021-01-12 创新先进技术有限公司 基于集群的词向量处理方法、装置以及设备
CN108170663A (zh) * 2017-11-14 2018-06-15 阿里巴巴集团控股有限公司 基于集群的词向量处理方法、装置以及设备
JP7116309B2 (ja) * 2018-10-10 2022-08-10 富士通株式会社 コンテキスト情報生成方法、コンテキスト情報生成装置およびコンテキスト情報生成プログラム
WO2020190295A1 (en) * 2019-03-21 2020-09-24 Hewlett-Packard Development Company, L.P. Saliency-based hierarchical sensor data storage
KR102458360B1 (ko) * 2021-12-16 2022-10-25 창원대학교 산학협력단 불균형 데이터에 대한 딥러닝 분류 모델 성능을 향상시키기 위한 레이블 기반 샘플 추출 장치 및 그 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08287097A (ja) * 1995-04-19 1996-11-01 Nippon Telegr & Teleph Corp <Ntt> 文書分類方法及び装置
JP2001306612A (ja) * 2000-04-26 2001-11-02 Sharp Corp 情報提供装置、情報提供方法およびその方法を実現するプログラムを記録した機械読取可能な記録媒体
JP2009193219A (ja) * 2008-02-13 2009-08-27 Nippon Telegr & Teleph Corp <Ntt> インデックス作成装置、その方法、プログラム及び記録媒体

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546117B1 (en) * 1999-06-10 2003-04-08 University Of Washington Video object segmentation using active contour modelling with global relaxation
US7630986B1 (en) * 1999-10-27 2009-12-08 Pinpoint, Incorporated Secure data interchange
JP2002073072A (ja) * 2000-08-31 2002-03-12 Sony Corp モデル適応装置およびモデル適応方法、記録媒体、並びにパターン認識装置
JP4594869B2 (ja) * 2006-01-24 2010-12-08 富士通株式会社 状態監視装置
US20080082320A1 (en) * 2006-09-29 2008-04-03 Nokia Corporation Apparatus, method and computer program product for advanced voice conversion
JP5531237B2 (ja) * 2009-02-24 2014-06-25 本田技研工業株式会社 脳情報出力装置、ロボット、および脳情報出力方法
GB2471875B (en) * 2009-07-15 2011-08-10 Toshiba Res Europ Ltd A speech recognition system and method
US8750628B2 (en) * 2010-01-14 2014-06-10 Nec Corporation Pattern recognizer, pattern recognition method and program for pattern recognition
US9165051B2 (en) * 2010-08-24 2015-10-20 Board Of Trustees Of The University Of Illinois Systems and methods for detecting a novel data class
KR20120072243A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 음향/음성 인식을 위한 잡음 제거 장치 및 그 방법
US8841558B2 (en) * 2011-08-02 2014-09-23 Medtronic Inc. Hermetic feedthrough
JP6161326B2 (ja) * 2013-02-27 2017-07-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6234060B2 (ja) * 2013-05-09 2017-11-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation ターゲットドメインの学習用音声データの生成方法、生成装置、および生成プログラム
CN103383347B (zh) * 2013-07-04 2015-09-09 中国计量科学研究院 非线性误差的绝对测量方法及装置
JP5822411B2 (ja) * 2013-08-12 2015-11-24 株式会社アポロジャパン 画像情報のコード変換装置、画像情報のコード変換方法、画像コードを用いた画像関連情報提供システム、画像情報のコード変換プログラム、及びそのプログラムを記録した記録媒体
JP5984153B2 (ja) * 2014-09-22 2016-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、プログラム、及び情報処理方法
US9892731B2 (en) * 2015-09-28 2018-02-13 Trausti Thor Kristjansson Methods for speech enhancement and speech recognition using neural networks
US20170220951A1 (en) * 2016-02-02 2017-08-03 Xerox Corporation Adapting multiple source classifiers in a target domain

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08287097A (ja) * 1995-04-19 1996-11-01 Nippon Telegr & Teleph Corp <Ntt> 文書分類方法及び装置
JP2001306612A (ja) * 2000-04-26 2001-11-02 Sharp Corp 情報提供装置、情報提供方法およびその方法を実現するプログラムを記録した機械読取可能な記録媒体
JP2009193219A (ja) * 2008-02-13 2009-08-27 Nippon Telegr & Teleph Corp <Ntt> インデックス作成装置、その方法、プログラム及び記録媒体

Also Published As

Publication number Publication date
JP2018045361A (ja) 2018-03-22
US20180075324A1 (en) 2018-03-15

Similar Documents

Publication Publication Date Title
JP6235082B1 (ja) データ分類装置、データ分類方法、およびプログラム
US10699043B2 (en) Generating integrated circuit floorplans using neural networks
JP6199461B1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3718057B1 (en) Neural architecture search using a performance prediction neural network
US11544573B2 (en) Projection neural networks
EP3711000B1 (en) Regularized neural network architecture search
JP5454357B2 (ja) 情報処理装置および方法、並びに、プログラム
JP2015166962A (ja) 情報処理装置、学習方法、及び、プログラム
WO2019101836A1 (en) Population based training of neural networks
CN102741840B (zh) 用于对个性化场景建模的方法和装置
US11030532B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
CN111813910A (zh) 客服问题的更新方法、系统、终端设备及计算机存储介质
JP2020030638A (ja) 材料情報出力方法、材料情報出力装置、材料情報出力システム、及びプログラム
CN111783873A (zh) 基于增量朴素贝叶斯模型的用户画像方法及装置
CN112785005A (zh) 多目标任务的辅助决策方法、装置、计算机设备及介质
CN113761375A (zh) 基于神经网络的消息推荐方法、装置、设备及存储介质
CN114241411A (zh) 基于目标检测的计数模型处理方法、装置及计算机设备
US20220215287A1 (en) Self-supervised pretraining through text alignment
CN112000803B (zh) 文本分类方法及装置、电子设备及计算机可读存储介质
US20220391765A1 (en) Systems and Methods for Semi-Supervised Active Learning
JP2018077671A (ja) 情報処理装置、情報処理方法、予測モデルの生成装置、予測モデルの生成方法、およびプログラム
CN116561338A (zh) 工业知识图谱生成方法、装置、设备及存储介质
CN117010480A (zh) 模型训练方法、装置、设备、存储介质及程序产品
CN114781485A (zh) 文本分类方法、装置、计算机设备和计算机可读存储介质
CN112348045B (zh) 神经网络的训练方法、训练装置和电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170823

R150 Certificate of patent or registration of utility model

Ref document number: 6199461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250