JP2006139520A - 話題スコープ抽出装置、その制御方法及びプログラム - Google Patents

話題スコープ抽出装置、その制御方法及びプログラム Download PDF

Info

Publication number
JP2006139520A
JP2006139520A JP2004328283A JP2004328283A JP2006139520A JP 2006139520 A JP2006139520 A JP 2006139520A JP 2004328283 A JP2004328283 A JP 2004328283A JP 2004328283 A JP2004328283 A JP 2004328283A JP 2006139520 A JP2006139520 A JP 2006139520A
Authority
JP
Japan
Prior art keywords
message
topic
distance
vector
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004328283A
Other languages
English (en)
Other versions
JP4350026B2 (ja
Inventor
Katsuto Bessho
克人 別所
Masahiro Oku
雅博 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004328283A priority Critical patent/JP4350026B2/ja
Publication of JP2006139520A publication Critical patent/JP2006139520A/ja
Application granted granted Critical
Publication of JP4350026B2 publication Critical patent/JP4350026B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract


【課題】 複数の話題が混在しているメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を適切に抽出することができるようにする。

【解決手段】 任意のメッセージ対に対し、上記対のメッセージ間のメッセージ内ベクトル集合間距離と、上記対のメッセージ間の参照距離と、上記対の各メッセージが属するトピックセグメント間のトピックセグメント内ベクトル集合間距離を基に、上記対のメッセージ間の最終的な距離を算出し、任意のメッセージ間の距離を基に、メッセージ列をファジィクラスタリングし、その結果得られた各クラスタに対し、上記クラスタへの帰属度がある閾値以上のメッセージの集合を、話題スコープとして導出する。

【選択図】 図1

Description

本発明は、複数の話題が混在するメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を抽出する話題スコープ抽出装置に係り、特に、掲示板等、時系列に並んで会話の流れになっているメッセージ列であって、複数の話題からなるメッセージ列を対象とする。
掲示板等のポータルサイトは、スレッド(元発言とこれに対するコメントとによって構成される言葉)の集合であり、各スレッドは、メッセージ列である。このメッセージ列は、時系列に並んでいる会話の流れであり、複数の話題で構成されている。
このようなスレッド集合を対象として、自然言語文を入力し、上記入力文に適合するメッセージ集合を取得する検索処理がある。
1つ1つのメッセージと入力文との意味的類似性によって、適合するメッセージを検索する手法が考えられる。
しかし、掲示板等のメッセージの特徴は、1つ1つのメッセージは、極めて短く、含まれている単語の数が少ないことである。1つのメッセージは、それだけでは、完結した話題になってはいない。メッセージを、一般の文書検索における文書とみなすには、情報量が少な過ぎる。
メッセージ列における1つの話題は、複数のメッセージで構成され、1つ1つのメッセージは、意味的なまとまりをなすメッセージ群の1つに過ぎない。意味的なまとまりをなすメッセージ群になって初めて、一般の文書検索における文書と同等の情報量を持つ。
上記手法において、入力文との間で類似性の高いメッセージを検索するだけでは、上記メッセージを含み、意味的なまとまりをなすメッセージ群を取り出すことができない。このために、本来検索されるべきメッセージでありながら、検索結果から洩れるものが多数発生する。
したがって、メッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープを抽出し、入力文と適合する話題スコープを検索する構成が適切である。
意味的なまとまりをなすメッセージ集合を抽出する手法として、単語を座標とし、単語のメッセージにおける重要度を座標値とする特徴ベクトルで、各メッセージを表し、この特徴ベクトルを利用して、同一の話題のメッセージが同一クラスタとなるように、メッセージ集合をクラスタリングすることが知られている(たとえば、非特許文献1参照)。
余東明、石川孝著「コミュニティウェブにおけるアクティブ情報検索ためのトピック抽出」、The 17th Annual Conference of the Japanese Society for Artificial Intelligence、pp.1−4、2003年
非特許文献1記載の手法では、メッセージを特徴ベクトルで表す。しかし、上記のように、掲示板等のメッセージは、概して短く、含まれている単語の数が少ないので、同一の話題のメッセージでありながら、含んでいる単語集合の共通部分が少なく、したがって、特徴ベクトルが遠くなるケースが頻出するという問題がある。
また、逆に、本来は別々の話題に属するメッセージでありながら、含んでいる単語集合の共通部分が多いので、特徴ベクトルが近くなるケースが頻出し、このために、同一の話題のメッセージが同一クラスタになるようなクラスタリングを、適切に実行することができないという問題がある。
本発明は、複数の話題が混在しているメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を適切に抽出することができる話題スコープ抽出装置を提供することを目的とする。
請求項1記載の発明は、複数の話題が混在するメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を抽出する話題スコープ抽出装置であって、各メッセージを形態素解析することによって、単語単位に分割するメッセージ形態素解析手段と、単語と上記単語の意味を表現するベクトルとの対が格納されている記憶手段である概念ベースと、上記概念ベースを検索することによって、上記メッセージ形態素解析手段で得られた各単語に対応するベクトルを取得するメッセージ内単語ベクトル取得手段と、任意のメッセージ対に対し、上記対の各メッセージ内の単語ベクトル集合を基に、上記対のメッセージ間のメッセージ内ベクトル集合間距離を算出するメッセージ内ベクトル集合間距離算出手段と、任意のメッセージ対に対し、上記対のメッセージ間の参照関係を基に、上記対のメッセージ間の参照距離を算出する参照距離算出手段と、上記メッセージ内単語ベクトル取得手段で得られた単語ベクトルの系列から、上記メッセージ列を同一話題の区間であるトピックセグメントの集合へ分割するトピックセグメンテーション手段と、任意のトピックセグメント対に対し、上記対の各トピックセグメント内の単語ベクトル集合を基に、上記対のトピックセグメント間のトピックセグメント内ベクトル集合間距離を算出するトピックセグメント内ベクトル集合間距離算出手段と、任意のメッセージ対に対し、上記メッセージ内ベクトル集合間距離算出手段で得られた上記対のメッセージ間のメッセージ内ベクトル集合間距離と、上記参照距離算出手段で得られた上記対のメッセージ間の参照距離と、上記トピックセグメント内ベクトル集合間距離算出手段で得られた上記対の各メッセージが属するトピックセグメント間のトピックセグメント内ベクトル集合間距離を基に、上記対のメッセージ間の最終的な距離を算出するメッセージ間距離算出手段と、上記メッセージ間距離算出手段で得られた任意のメッセージ間の距離を基に、メッセージ列をファジィクラスタリングし、その結果得られた各クラスタに対し、上記クラスタへの帰属度がある閾値以上のメッセージの集合を、話題スコープとして導出するファジィクラスタリング手段とを有することを特徴とする話題スコープ抽出装置である。
請求項2記載の発明は、請求項1において、上記ファジィクラスタリング手段で得られた各話題スコープ内の単語ベクトル集合に関する情報を生成する話題スコープ内ベクトル情報生成手段と、入力文を形態素解析し単語単位に分割する入力文形態素解析手段と、上記概念ベースを検索することによって、上記入力文形態素解析手段で得られた各単語に対応するベクトルを取得する入力文内単語ベクトル取得手段と、上記入力文内単語ベクトル取得手段で得られた入力文内の単語ベクトル集合に関する情報を生成する入力文内ベクトル情報生成手段と、上記入力文内ベクトル情報生成手段で得られた入力文内の単語ベクトル集合に関する情報と、上記話題スコープ内ベクトル情報生成手段で得られた各話題スコープ内の単語ベクトル集合に関する情報との間の距離計算を行うことによって、入力文と各話題スコープ間の距離を算出する入力文・話題スコープ間距離算出手段とを有することを特徴とする話題スコープ抽出装置である。
本発明によれば、複数の話題が混在しているメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を適切に抽出することができるという効果を奏する。
発明を実施するための最良の形態は、以下の実施例である。
図1は、本発明の実施例1である話題スコープ抽出装置100を示すブロック図である。
話題スコープ抽出装置100は、複数の話題が混在するメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を抽出する話題スコープ抽出装置であって、メッセージ形態素解析手段11と、概念ベース12と、メッセージ内単語ベクトル取得手段13と、メッセージ内ベクトル集合間距離算出手段14と、参照距離算出手段15と、トピックセグメンテーション手段16と、トピックセグメント内ベクトル集合間距離算出手段17と、メッセージ間距離算出手段18と、ファジィクラスタリング手段19とを有する。
図2は、実施例1において、入力となるメッセージ列の一例を示す図である。
メッセージは、投稿単位であり、番号iのメッセージをMと表す。図2において、メッセージMのメッセージ内容に記載されている「>>4」は、メッセージMへのリンクを示し、つまり、メッセージMがMを参照していることを意味している。
このメッセージ列から抽出されるべき話題スコープの集合は、C={M,M,M,M,M,M10}、C={M,M,M,M,M}であり、Mは、2つの話題スコープに属している。
メッセージ形態素解析手段11は、各メッセージを形態素解析し、単語単位に分割する手段である。この結果得られた単語のうちで、品詞情報等を参照し、内容語のみを残す。ただし、Mにおける「>>4」のように、他のメッセージへのリンクは、そのままの状態で残す。この単語単位の分割によって、各メッセージは、図3に示すようになる。
図3は、図2に示すメッセージMを形態素解析した結果を示す図である。
図4は、実施例1における概念ベース12の例を示す図である。
概念ベース12は、ハードディスク等の記憶手段に格納され、単語毎に、f次元ベクトル値が付与されている。概念ベース12中の単語は、名詞や動詞、形容詞等の自立語である。概念ベース12における単語ベクトルは、意味的に類似している単語間ほど距離が近く、意味的に類似していない単語間程、距離が遠くなるように値が設定されている。
概念ベースの例は、特開平6−103315号公報の「類似性判別装置」や、特開平7−302265号公報の「類似性判別用データ精錬方法およびこの方法を実施する装置」で開示されているデータベースである。
また、Deerwesterの論文(S.Deerwester, S.T.Dumais, G.W.Furnas, T.K.Landauer and R.Harshman, Indexing by Latent Semantic Analysis, Journal of the American Society for Information Science, pp.391-407, 1990.)では、単語の文書における頻度を記録した単語・文書間の共起行列を、特異値分解によって次元数を縮退させた行列に変換しているが、この変換後の行列も、概念ベースの一例である。
Schutzeの論文(H.Schutze, Dimensions of Meaning, Proc. of Supercomputing '92, pp.786-796, 1992.)では、コーパス中の単語間の共起頻度を記録した単語・単語間の共起行例を、特異値分解によって次元数を縮退させた行列に変換しているが、この変換後の行列も、概念ベースの一例である。
メッセージ内単語ベクトル取得手段13は、概念ベース12を検索することによって、メッセージ形態素解析手段11が得た各単語に対応するベクトルを取得する手段である。
メッセージ内ベクトル集合間距離算出手段14は、任意のメッセージ対に対し、上記対の各メッセージ内の単語ベクトル集合を基に、上記対のメッセージ間のメッセージ内ベクトル集合間距離を算出する手段である。
入力テキスト中の単語ベクトルの列(異なる出現位置の単語のベクトルは、値が同じでも別物とする)を、
X={x,x,・・・,x|x|
とする。
各メッセージ内の単語ベクトル集合は、連続する、Xの要素の集合となる。以後、Mは、メッセージM内の単語ベクトル集合も同時に意味するものとする。
メッセージMの重心D(M)は、
Figure 2006139520
と計算される。|M|は、M内の要素数である。
メッセージMのコストE(M)を
Figure 2006139520
とする。
任意のメッセージM、M間のメッセージ内ベクトル集合間距離ΔE(M,M)を、M、Mを併合したときのコストの増分とする。ΔE(M,M)は、
Figure 2006139520
となる。
ただし、単語数が1個以下のメッセージについては、他のメッセージとのメッセージ内ベクトル集合間距離を算出しないようにする。
上記式(1)によって、任意のメッセージ間のメッセージ内ベクトル集合間距離は、図5に示すようになる。
図5は、図2に示すメッセージM間のメッセージ内ベクトル集合間距離を示す図である。
、M(i<j)間の距離は、i行j列目の成分にのみ記載している。
任意のメッセージについて、自身との距離は、0.0となる。
単語数が1個であるMとMについては、他のメッセージとの距離は、算出されていない。MとMは、単語集合が一致しているが、距離は0.0ではなく、MとMが同一の話題に属することを、回避している。
と、その内容を受けるMとの距離は、0.2であり、Mと、その内容を受けるMとの距離も、0.2である。MとM10との距離は、0.3である。それ以外の異なるメッセージ間の距離は、0.5となっている。
参照距離算出手段15は、任意のメッセージ対に対し、上記対のメッセージ間の参照関係を基に、上記対のメッセージ間の参照距離を算出する手段である。
2つのメッセージM、M(i<j)に対し、MがMを参照しているときに、M、M間の参照距離を、0.0とする。MがMを参照していても、時間的に後に出現するメッセージとの間に、話題同一性が必ずしもあるわけではないので、それだけで、M、M間の参照距離を0.0にはしない。
これによって、任意のメッセージ間の参照距離は、図6に示すようになる。
図6は、図2に示すメッセージM間の参照距離を示す図である。
、M(i<j)間の距離は、i行j列目の成分にのみ記載している。
がMを参照しているので、MとMとの参照距離は、0.0となる。それ以外のメッセージ間の参照距離は、算出されない。
トピックセグメンテーション手段16は、メッセージ内単語ベクトル取得手段13で得られた単語ベクトルの系列から、メッセージ列を同一話題の区間であるトピックセグメントの集合へ分割する。
トピックセグメンテーションの方法は、特開2002−342324号公報や特開2004−234512号公報に開示されている。
特開2002−342324号公報に記載されているトピックセグメンテーションの方法は、任意の単語境界の前後に、所定個数の単語の集合である単語列をとり、各単語列に対し、上記単語列を構成する単語のベクトルの重心を算出し、前後の単語列に対応する重心間の余弦測度を、上記単語境界の結束度とし、この結束度が極小となる単語境界を、話題区間の境界と認定する方法である。
また、特開2004−234512号公報に記載されているトピックセグメンテーションの方法は、任意の区間に対して、上記区間内の単語ベクトルの重心の各単語ベクトルとの間の距離の自乗の和を、コストとして求め、任意の区間列のコストを、上記区間列に含まれる区間のコストの和として、一定の条件下で、コストが最小となる区間列を、話題区間列と認定するする方法である。
図7は、図2に示すメッセージ列をトピックセグメンテーションした結果を示す図である。
トピックセグメンテーション手段16により、メッセージ列は、図7に示すように、メッセージ列を、トピックセグメントの集合T={M,M,M,M}、T={M,M,M,M}、T={M,M10}へ分割される。
トピックセグメント内のメッセージ対の中には、距離が0.5と大きいものもあるが、トピックセグメンテーションによって、トピックセグメント内のメッセージ間の話題同一性を検出することが可能となる。
トピックセグメント内ベクトル集合間距離算出手段17は、任意のトピックセグメント対に対し、上記対の各トピックセグメント内の単語ベクトル集合を基に、上記対のトピックセグメント間のトピックセグメント内ベクトル集合間距離を算出する手段である。
各トピックセグメント内の単語ベクトル集合は、連続する、Xの要素の集合となる。以後、Tは、T内の単語ベクトル集合も同時に意味するものとする。
トピックセグメント内ベクトル集合間距離を、メッセージ内ベクトル集合間距離と同様に、次のように定める。
トピックセグメントTの重心を、D(T)とし、T内の要素数を、|T|としたときに、任意のトピックセグメントT,T間のトピックセグメント内ベクトル集合間距離ΔE(T,T)を、
Figure 2006139520
とする。
上記式(2)によって、任意のトピックセグメント間のトピックセグメント内ベクトル集合間距離は、図8に示すようになる。
図8は、図7に示すトピックセグメントT間のトピックセグメント内ベクトル集合間距離を示す図である。
、T(i<j)間の距離は、i行j列目の成分にのみ記載している。
任意のトピックセグメントについて、自身との距離を、0.0となる。異なるトピックセグメント間の距離は、0.5となっている。
メッセージ間距離算出手段18は、任意のメッセージ対に対し、メッセージ内ベクトル集合間距離算出手段14が得た上記対のメッセージ間のメッセージ内ベクトル集合間距離と、参照距離算出手段15が得た上記対のメッセージ間の参照距離と、トピックセグメント内ベクトル集合間距離算出手段17が得た上記対の各メッセージが属するトピックセグメント間のトピックセグメント内ベクトル集合間距離とのうちで、最小値を、上記対のメッセージ間の最終的な距離とする手段である。
これによって、任意のメッセージ間の距離は、図9に示すようになる。
図9は、図2に示すメッセージM間の距離を示す図である。
、M(i<j)間の距離は、i行j列目の成分にのみ記載している。
同一トピックセグメント内の任意のメッセージ間の距離は、0.0となる。MとMとのメッセージ内ベクトル集合間距離は、0.2であり、各メッセージが属するトピックセグメント間の距離は、0.5であるので、メッセージ間距離は、0.2となる。
とMとのメッセージ内ベクトル集合間距離は、0.5であり、参照距離は、0.0であり、各メッセージが属するトピックセグメント間の距離は、0.5であるので、メッセージ間距離は、0.0となる。
上記以外の、異なるトピックセグメントに属するメッセージ間の距離は、0.5となる。
ファジィクラスタリング手段19は、メッセージ間距離算出手段18が得た任意のメッセージ間の距離を基に、メッセージ列を、ファジィクラスタリングし、その結果得られた各クラスタに対し、上記クラスタへの帰属度が所定の閾値以上であるメッセージの集合を、「話題スコープ」として導出する手段である。
ファジィクラスタリングの方法は、「E.H.Ruspini, A new approach to clustering, Information and Control, Vol.15, pp.22-32, 1969.」に記載されている方法である。以下、このRuspiniの方法について説明する。
メッセージの集合{M,M,・・・,M}と、任意のメッセージM、M間の距離d(M,M)とが与えられているとする。また、メッセージのファジィクラスタの集合を、{C,C,・・・,C}とする。U=(upi)(1≦p≦r,i≦i≦n)の各成分upiは、MのCへの帰属度を意味するものとし、U=(upi)は、
Figure 2006139520
の条件を満たすものとする。評価関数
Figure 2006139520
を考える。重みωも、実数値をとる変数である。
上記Ruspiniの方法では、評価関数J(U,ω)を最小にするU、ωすなわち、
Figure 2006139520
を求める。求めたU=(upi)の各成分upiが、MのCへの帰属度である。
帰属度の所定閾値αをとり、各ファジィクラスタCに対し、メッセージ集合{M:upi≧α}を、対応する話題スコープとする。
図9に示す任意のメッセージ間の距離の情報を入力し、上記ファジィクラスタリングを実行することによって、話題スコープの集合C={M,M,M,M,M,M10}、C={M,M,M,M,M}が得られる。
とMとのメッセージ間距離が、0.2と比較的小さいので、Mは、トピックセグメントT内のメッセージ群とも、同一話題スコープに属している。
また、MとMとのメッセージ間距離が、0.0であるので、トピックセグメントTとTとの距離は、0.5と大きかったにも関わらず、TとT内のメッセージ群が、同一話題スコープに属するようになっている。
図10は、実施例1の動作を示すフローチャートである。
まず、S1では、メッセージ形態素解析手段11が、各メッセージを形態素解析することによって、単語単位に分割し、記憶装置に記憶する。
なお、本明細書および請求の範囲において、「記憶装置」は、メモリに限らず、ハードディスク等の外部記憶装置を含む概念である。
S2で、メッセージ内単語ベクトル取得手段13が、概念ベース12を検索することによって、メッセージ形態素解析手段11で得られた各単語に対応するベクトルを取得し、記憶装置に記憶する。
S3で、メッセージ内ベクトル集合間距離算出手段14が、任意のメッセージ対に対し、上記対の各メッセージ内の単語ベクトル集合を基に、上記対のメッセージ間のメッセージ内ベクトル集合間距離を算出し、記憶装置に記憶する。
S4で、参照距離算出手段15が、任意のメッセージ対に対し、上記対のメッセージ間の参照関係を基に、上記対のメッセージ間の参照距離を算出し、記憶装置に記憶する。
S5で、トピックセグメンテーション手段16が、メッセージ内単語ベクトル取得手段13で得られた単語ベクトルの系列から、メッセージ列を同一話題の区間であるトピックセグメントの集合へ分割し、記憶装置に記憶する。
S6で、トピックセグメント内ベクトル集合間距離算出手段17が、任意のトピックセグメント対に対し、上記対の各トピックセグメント内の単語ベクトル集合を基に、上記対のトピックセグメント間のトピックセグメント内ベクトル集合間距離を算出し、記憶装置に記憶する。
S7で、メッセージ間距離算出手段18が、任意のメッセージ対に対し、メッセージ内ベクトル集合間距離算出手段14で得られた上記対のメッセージ間のメッセージ内ベクトル集合間距離と、参照距離算出手段15で得られた上記対のメッセージ間の参照距離と、トピックセグメント内ベクトル集合間距離算出手段17で得られた上記対の各メッセージが属するトピックセグメント間のトピックセグメント内ベクトル集合間距離を基に、上記対のメッセージ間の最終的な距離を算出し、記憶装置に記憶する。
S8で、ファジィクラスタリング手段19が、メッセージ間距離算出手段18で得られた任意のメッセージ間の距離を基に、メッセージ列をファジィクラスタリングし、その結果得られた各クラスタに対し、上記クラスタへの帰属度がある閾値以上のメッセージの集合を、話題スコープとして導出し、記憶装置に記憶する。
図11は、本発明の実施例2である話題スコープ抽出装置200の構成を示すブロック図である。
話題スコープ抽出装置200は、話題スコープ抽出装置100に、話題スコープ内ベクトル情報生成手段20と、入力文形態素解析手段21と、入力文内単語ベクトル取得手段22と、入力文内ベクトル情報生成手段23と、入力文・話題スコープ間距離算出手段24とが付加された装置である。
つまり、話題スコープ抽出装置200は、メッセージ形態素解析手段11と、概念ベース12と、メッセージ内単語ベクトル取得手段13と、メッセージ内ベクトル集合間距離算出手段14と、参照距離算出手段15と、トピックセグメンテーション手段16と、トピックセグメント内ベクトル集合間距離算出手段17と、メッセージ間距離算出手段18と、ファジィクラスタリング手段19と、話題スコープ内ベクトル情報生成手段20と、入力文形態素解析手段21と、入力文内単語ベクトル取得手段22と、入力文内ベクトル情報生成手段23と、入力文・話題スコープ間距離算出手段24とを有する。
話題スコープ内ベクトル情報生成手段20は、ファジィクラスタリング手段19が得た各話題スコープ内の単語ベクトル集合に関する情報を生成する手段である。
話題スコープC内の単語ベクトル集合は、C内のメッセージに含まれる単語ベクトル集合の和である。
以後、Cは、C内の単語ベクトル集合も同時に意味するものとする。各話題スコープCに対し、Cの重心D(C)と、C内の要素数|C|とを算出し、保持する。これらCの重心D(C)と、C内の要素数|C|とが、C内の単語ベクトル集合に関する情報である。
入力文形態素解析手段21は、入力文を形態素解析し、単語単位に分割する手段である。この結果得られた単語のうちで、品詞情報等を参照し、内容語のみを残す。
例として、入力文Q:「おいしいラーメン店」は、「おいしい/ラーメン/店」となる。
入力文内単語ベクトル取得手段22は、概念ベース12を検索することによって、入力文形態素解析手段21が得た各単語に対応するベクトルを取得する手段である。
以後、Qは、Q内の単語ベクトル集合も同時に意味するものとする。
入力文内ベクトル情報生成手段23は、入力文内単語ベクトル取得手段22が得た入力文内の単語ベクトル集合に関する情報を生成する手段である。入力文Qに対し、Qの重心D(Q)と、Q内の要素数|Q|とを算出し、保持する。これらQの重心D(Q)と、Q内の要素数|Q|とが、入力文Q内の単語ベクトル集合に関する情報である。
入力文・話題スコープ間距離算出手段24は、入力文内ベクトル情報生成手段23が得た入力文内の単語ベクトル集合に関する情報と、話題スコープ内ベクトル情報生成手段20が得た各話題スコープ内の単語ベクトル集合に関する情報との間の距離計算を行うことによって、入力文と各話題スコープ間の距離を算出する手段である。
入力文Qと話題スコープCとの間の距離d(Q,C)は、
Figure 2006139520
として算出する。
話題スコープの集合C={M,M,M,M,M,M10}、C={M,M,M,M,M}に対し、話題スコープを、入力文Qとの距離によってソートすると、C、Cの順になる。入力文Qに対し、この順で話題スコープを提示することが可能である。また、所定閾値以下の距離を持つ話題スコープのみに限定して、提示することも可能である。これによって、話題スコープCのみを提示する。
なお、メッセージ内ベクトル集合間距離算出手段14において、メッセージ内の単語数が一定数以下のメッセージ(以下、小メッセージと呼ぶ)については、他のメッセージとのメッセージ内ベクトル集合間距離を算出しないようにした。しかし、異なるトピックセグメント内にあるメッセージであって、メッセージ内の単語数が一定数以上のメッセージ(以下、大メッセージと呼ぶ)が、参照関係なしに、小メッセージの内容を受ける場合もあり得る。
例として、「語ろう」という呼びかけのメッセージに対し、異なるトピックセグメント内にある大メッセージが受ける場合がある。
そこで、小メッセージの内容が、新たな話題を喚起するような内容の場合に限り、小メッセージと、上記メッセージよりも後にくる大メッセージとの間のメッセージ内ベクトル集合間距離を算出するようにしてもよい。この算出によって、2つのメッセージを、同一の話題に属させることができる。
図12、図13は、実施例2における複数の他のメッセージへのリンクを持つメッセージの例を示す図である。
1つのメッセージMに、図12、図13に示すように、2つ以上のメッセージの集合Nへの参照がある場合、参照距離算出手段15において、Mと、Nの任意の要素との間の参照距離を十分小さく、たとえば0.0に設定するようにしてもよい。
図12に示す例では、M、M、Mのそれぞれと、Mとの間の参照距離が0.0となる。図13に示す例では、M13と、メッセージM、M10のそれぞれとの間の参照距離が0.0となる。
図14は、図13に示す複数の他のメッセージへのリンクを持つメッセージを分割した結果を示す図である。
特に、図13に示すような、参照しているリンク毎に叙述がなされているメッセージを、メッセージ中の空き行等のフォーマット情報を元に、図14に示すように、リンク情報毎に分割することもできる。入力となるメッセージ列に対して、上記のように、メッセージの分割処理を予め行った上で、話題スコープ抽出装置200に入力するようにしてもよい。図14に示す例のように、所定のメッセージにおいて、「>>13」のように、メッセージM13へのリンクがあれば、上記所定のメッセージは、M13.1とM13.2とを参照していることを意味する。
なお、話題スコープ抽出装置200において、リンク情報の有無に拘らず、1メッセージ内に複数のメッセージ内容がある場合、上記メッセージを分割し、この分割されたメッセージを、話題スコープ抽出装置200に入力するようにしてもよい。メッセージの分割方法として、特開2002−342324号公報や特開2004−234512号公報に記載されている方法をとることができる。
また、個々のメッセージ毎に分割するのではなく、メッセージ列の全テキストに対し分割を行い、その結果得られる各トピックセグメントと、各メッセージとの間の交わりの集合を入力としてもよい。この場合、トピックセグメンテーション手段16において、トピックセグメンテーションは実行せず、既に得られているトピックセグメント集合を、トピックセグメント内ベクトル集合間距離算出手段17以降の処理で用いる。
図15は、実施例2において、投稿者名欄に前のメッセージの番号を記述されているメッセージの例を示す図である。
図15のように、メッセージに投稿者名欄があり、かつて自分が投稿したメッセージの番号を、新たに投稿するメッセージの投稿者名とするような事例もあり得る。このように、メッセージ中の投稿者名欄に、前のメッセージの番号が記述されている場合、2つのメッセージ間に話題同一性が認められることがあり得るので、参照距離算出手段15が、2つのメッセージ間の参照距離を十分小さく、たとえば0.0に設定するようにしてもよい。図15に示す例では、メッセージM15とM19との間の参照距離が、0.0となる。
次に、実施例2の動作について説明する。
図16は、実施例2の動作を示すフローチャートである。
なお、ステップS1〜S8は、図10のフローチャートにおけるステップS1〜S8と同じである。
S8の次に、S9では、話題スコープ内ベクトル情報生成手段20が、ファジィクラスタリング手段19で得られた各話題スコープ内の単語ベクトル集合に関する情報を生成し、記憶装置に記憶する。
S11では、入力文形態素解析手段21が、入力文を形態素解析し単語単位に分割する。
S12では、入力文内単語ベクトル取得手段22が、概念ベース12を検索することによって、入力文形態素解析手段21で得られた各単語に対応するベクトルを取得し、記憶装置に記憶する。
S13では、入力文内ベクトル情報生成手段23が、入力文内単語ベクトル取得手段22で得られた入力文内の単語ベクトル集合に関する情報を生成し、記憶装置に記憶する。
S14では、入力文・話題スコープ間距離算出手段24が、入力文内ベクトル情報生成手段23で得られた入力文内の単語ベクトル集合に関する情報と、話題スコープ内ベクトル情報生成手段20で得られた各話題スコープ内の単語ベクトル集合に関する情報との間の距離計算を行うことによって、入力文と各話題スコープ間の距離を算出し、記憶装置に記憶する。
ところで、1トピックセグメント内のメッセージ間で距離を測ると、メッセージ内の単語数は十分あるわけではないので、距離は大きいことも多い。これは、1メッセージ単位で距離を測ると距離が大きくても、連続するメッセージ列に含まれる単語ベクトル集合をとると、上記メッセージ列に隣接するメッセージ列との間との差異が浮き彫りになる場合があることを意味する。トピックセグメンテーション手段16によって、メッセージ列をトピックセグメントの集合へ分割することにより、1メッセージ単位の類似性では検出し難いトピックセグメント内のメッセージ間の話題同一性を検出することが可能となる。
参照距離算出手段15によって、参照関係にあるメッセージ間の参照距離は無条件に小さく設定することができる。
メッセージ間距離算出手段18では、メッセージ内ベクトル集合間距離、参照距離、トピックセグメント内ベクトル集合間距離の最小値を、メッセージ間の最終的な距離とする。
メッセージ内の単語数が一定数以下のメッセージ(以下、小メッセージと呼ぶ)と、他のメッセージとが同一の話題に属するための決定要因を考える。小メッセージの内容を、上記小メッセージと属するトピックセグメントが異なる、メッセージ内の単語数が一定数以上のメッセージ(以下、大メッセージと呼ぶ)が参照関係なしに受ける一部の場合を除いて、2つのメッセージの参照関係の有無と、所属するトピックセグメント間の距離が決定要因となる。メッセージ内ベクトル集合間距離算出手段14では、小メッセージに対しては、他のメッセージとのメッセージ内ベクトル集合間距離を算出しないようにする。これによって、小メッセージと他のメッセージとの間の距離は、参照距離、トピックセグメント内ベクトル集合間距離で定まる。
一方、2つの大メッセージが同一の話題に属するための決定要因は、参照関係の有無、所属するトピックセグメント間の距離、メッセージ内ベクトル集合間距離である。特に、大メッセージAを受けて、Aが属していた話題とは別の話題が、Aと属するトピックセグメントが異なる大メッセージBから、参照関係なしに始まることがある。この場合、メッセージAは、複数の話題に属するべきものである。A、B間のメッセージ内ベクトル集合間距離は、A、Bそれぞれが属するトピックセグメント間の距離よりも小さくなる。この結果、A、Bは別々の距離の大きいトピックセグメントに属するにも関わらず、ファジィクラスタリングによって、AはBが属するトピックセグメント内のメッセージ集合とも同一の話題に属するようになる。
本発明は、複数の話題が混在するメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を抽出する技術に適用可能である。
本発明の実施例1である話題スコープ抽出装置100を示すブロック図である。 実施例1において、入力となるメッセージ列の一例を示す図である。 図2に示すメッセージMを形態素解析した結果を示す図である。 実施例1における概念ベース12の例を示す図である。 図2に示すメッセージM間のメッセージ内ベクトル集合間距離を示す図である。 図2に示すメッセージM間の参照距離を示す図である。 図2に示すメッセージ列をトピックセグメンテーションした結果を示す図である。 図7に示すトピックセグメントT間のトピックセグメント内ベクトル集合間距離を示す図である。 図2に示すメッセージM間の距離を示す図である。 実施例1の動作を示すフローチャートである。 本発明の実施例2である話題スコープ抽出装置200の構成を示すブロック図である。 実施例2における複数の他のメッセージへのリンクを持つメッセージの例を示す図である。 実施例2における複数の他のメッセージへのリンクを持つメッセージの例を示す図である。 図13に示す他の複数のメッセージへのリンクを持つメッセージを分割した結果を示す図である。 実施例2において、投稿者名欄に前のメッセージの番号が記述されているメッセージの例を示す図である。 実施例2の動作を示すフローチャートである。

Claims (6)

  1. 複数の話題が混在するメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を抽出する話題スコープ抽出装置であって、
    各メッセージを形態素解析することによって、単語単位に分割するメッセージ形態素解析手段と;
    単語と上記単語の意味を表現するベクトルとの対が格納されている記憶手段である概念ベースと;
    上記概念ベースを検索することによって、上記メッセージ形態素解析手段で得られた各単語に対応するベクトルを取得するメッセージ内単語ベクトル取得手段と;
    任意のメッセージ対に対し、上記対の各メッセージ内の単語ベクトル集合を基に、上記対のメッセージ間のメッセージ内ベクトル集合間距離を算出するメッセージ内ベクトル集合間距離算出手段と;
    任意のメッセージ対に対し、上記対のメッセージ間の参照関係を基に、上記対のメッセージ間の参照距離を算出する参照距離算出手段と;
    上記メッセージ内単語ベクトル取得手段で得られた単語ベクトルの系列から、上記メッセージ列を同一話題の区間であるトピックセグメントの集合へ分割するトピックセグメンテーション手段と;
    任意のトピックセグメント対に対し、上記対の各トピックセグメント内の単語ベクトル集合を基に、上記対のトピックセグメント間のトピックセグメント内ベクトル集合間距離を算出するトピックセグメント内ベクトル集合間距離算出手段と;
    任意のメッセージ対に対し、上記メッセージ内ベクトル集合間距離算出手段で得られた上記対のメッセージ間のメッセージ内ベクトル集合間距離と、上記参照距離算出手段で得られた上記対のメッセージ間の参照距離と、上記トピックセグメント内ベクトル集合間距離算出手段で得られた上記対の各メッセージが属するトピックセグメント間のトピックセグメント内ベクトル集合間距離を基に、上記対のメッセージ間の最終的な距離を算出するメッセージ間距離算出手段と;
    上記メッセージ間距離算出手段で得られた任意のメッセージ間の距離を基に、メッセージ列をファジィクラスタリングし、その結果得られた各クラスタに対し、上記クラスタへの帰属度がある閾値以上のメッセージの集合を、話題スコープとして導出するファジィクラスタリング手段と;
    を有することを特徴とする話題スコープ抽出装置。
  2. 請求項1において、
    上記ファジィクラスタリング手段で得られた各話題スコープ内の単語ベクトル集合に関する情報を生成する話題スコープ内ベクトル情報生成手段と;
    入力文を形態素解析し単語単位に分割する入力文形態素解析手段と;
    上記概念ベースを検索することによって、上記入力文形態素解析手段で得られた各単語に対応するベクトルを取得する入力文内単語ベクトル取得手段と;
    上記入力文内単語ベクトル取得手段で得られた入力文内の単語ベクトル集合に関する情報を生成する入力文内ベクトル情報生成手段と;
    上記入力文内ベクトル情報生成手段で得られた入力文内の単語ベクトル集合に関する情報と、上記話題スコープ内ベクトル情報生成手段で得られた各話題スコープ内の単語ベクトル集合に関する情報との間の距離計算を行うことによって、入力文と各話題スコープ間の距離を算出する入力文・話題スコープ間距離算出手段と;
    を有することを特徴とする話題スコープ抽出装置。
  3. 複数の話題が混在するメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を抽出する話題スコープ抽出装置の制御方法であって、
    各メッセージを形態素解析することによって、単語単位に分割し、記憶装置に記憶するメッセージ形態素解析工程と;
    単語と上記単語の意味を表現するベクトルとの対が格納されている記憶手段である概念ベースを検索することによって、上記メッセージ形態素解析工程で得られた各単語に対応するベクトルを取得し、記憶装置に記憶するメッセージ内単語ベクトル取得工程と;
    任意のメッセージ対に対し、上記対の各メッセージ内の単語ベクトル集合を基に、上記対のメッセージ間のメッセージ内ベクトル集合間距離を算出し、記憶装置に記憶するメッセージ内ベクトル集合間距離算出工程と;
    任意のメッセージ対に対し、上記対のメッセージ間の参照関係を基に、上記対のメッセージ間の参照距離を算出し、記憶装置に記憶する参照距離算出工程と;
    上記メッセージ内単語ベクトル取得工程で得られた単語ベクトルの系列から、上記メッセージ列を同一話題の区間であるトピックセグメントの集合へ分割し、記憶装置に記憶するトピックセグメンテーション工程と;
    任意のトピックセグメント対に対し、上記対の各トピックセグメント内の単語ベクトル集合を基に、上記対のトピックセグメント間のトピックセグメント内ベクトル集合間距離を算出し、記憶装置に記憶するトピックセグメント内ベクトル集合間距離算出工程と;
    任意のメッセージ対に対し、上記メッセージ内ベクトル集合間距離算出工程で得られた上記対のメッセージ間のメッセージ内ベクトル集合間距離と、上記参照距離算出工程で得られた上記対のメッセージ間の参照距離と、上記トピックセグメント内ベクトル集合間距離算出工程で得られた上記対の各メッセージが属するトピックセグメント間のトピックセグメント内ベクトル集合間距離を基に、上記対のメッセージ間の最終的な距離を算出し、記憶装置に記憶するメッセージ間距離算出工程と;
    上記メッセージ間距離算出工程で得られた任意のメッセージ間の距離を基に、メッセージ列をファジィクラスタリングし、その結果得られた各クラスタに対し、上記クラスタへの帰属度がある閾値以上のメッセージの集合を、話題スコープとして導出し、記憶装置に記憶するファジィクラスタリング工程と;
    を有することを特徴とする話題スコープ抽出装置の制御方法。
  4. 請求項3において、
    上記ファジィクラスタリング工程で得られた各話題スコープ内の単語ベクトル集合に関する情報を生成し、記憶装置に記憶する話題スコープ内ベクトル情報生成工程と;
    入力文を形態素解析し単語単位に分割する入力文形態素解析工程と;
    上記概念ベースを検索することによって、上記入力文形態素解析工程で得られた各単語に対応するベクトルを取得し、記憶装置に記憶する入力文内単語ベクトル取得工程と;
    上記入力文内単語ベクトル取得工程で得られた入力文内の単語ベクトル集合に関する情報を生成し、記憶装置に記憶する入力文内ベクトル情報生成工程と;
    上記入力文内ベクトル情報生成工程で得られた入力文内の単語ベクトル集合に関する情報と、上記話題スコープ内ベクトル情報生成工程で得られた各話題スコープ内の単語ベクトル集合に関する情報との間の距離計算を行うことによって、入力文と各話題スコープ間の距離を算出し、記憶装置に記憶する入力文・話題スコープ間距離算出工程と;
    を有することを特徴とする話題スコープ抽出装置の制御方法。
  5. 複数の話題が混在するメッセージ列から、意味的なまとまりをなすメッセージ集合である話題スコープの集合を抽出するプログラムであって、
    各メッセージを形態素解析することによって、単語単位に分割し、記憶装置に記憶するメッセージ形態素解析手順と;
    単語と上記単語の意味を表現するベクトルとの対が格納されている記憶手段である概念ベースを検索することによって、上記メッセージ形態素解析手順で得られた各単語に対応するベクトルを取得し、記憶装置に記憶するメッセージ内単語ベクトル取得手順と;
    任意のメッセージ対に対し、上記対の各メッセージ内の単語ベクトル集合を基に、上記対のメッセージ間のメッセージ内ベクトル集合間距離を算出し、記憶装置に記憶するメッセージ内ベクトル集合間距離算出手順と;
    任意のメッセージ対に対し、上記対のメッセージ間の参照関係を基に、上記対のメッセージ間の参照距離を算出し、記憶装置に記憶する参照距離算出手順と;
    上記メッセージ内単語ベクトル取得手順で得られた単語ベクトルの系列から、上記メッセージ列を同一話題の区間であるトピックセグメントの集合へ分割し、記憶装置に記憶するトピックセグメンテーション手順と;
    任意のトピックセグメント対に対し、上記対の各トピックセグメント内の単語ベクトル集合を基に、上記対のトピックセグメント間のトピックセグメント内ベクトル集合間距離を算出し、記憶装置に記憶するトピックセグメント内ベクトル集合間距離算出手順と;
    任意のメッセージ対に対し、上記メッセージ内ベクトル集合間距離算出手順で得られた上記対のメッセージ間のメッセージ内ベクトル集合間距離と、上記参照距離算出手順で得られた上記対のメッセージ間の参照距離と、上記トピックセグメント内ベクトル集合間距離算出手順で得られた上記対の各メッセージが属するトピックセグメント間のトピックセグメント内ベクトル集合間距離を基に、上記対のメッセージ間の最終的な距離を算出し、記憶装置に記憶するメッセージ間距離算出手順と;
    上記メッセージ間距離算出手順で得られた任意のメッセージ間の距離を基に、メッセージ列をファジィクラスタリングし、その結果得られた各クラスタに対し、上記クラスタへの帰属度がある閾値以上のメッセージの集合を、話題スコープとして導出し、記憶装置に記憶するファジィクラスタリング手順と;
    をコンピュータに実行させるプログラム。
  6. 請求項5において、
    上記ファジィクラスタリング手順で得られた各話題スコープ内の単語ベクトル集合に関する情報を生成し、記憶装置に記憶する話題スコープ内ベクトル情報生成手順と;
    入力文を形態素解析し単語単位に分割する入力文形態素解析手順と;
    上記概念ベースを検索することによって、上記入力文形態素解析手順で得られた各単語に対応するベクトルを取得し、記憶装置に記憶する入力文内単語ベクトル取得手順と;
    上記入力文内単語ベクトル取得手順で得られた入力文内の単語ベクトル集合に関する情報を生成し、記憶装置に記憶する入力文内ベクトル情報生成手順と;
    上記入力文内ベクトル情報生成手順で得られた入力文内の単語ベクトル集合に関する情報と、上記話題スコープ内ベクトル情報生成手順で得られた各話題スコープ内の単語ベクトル集合に関する情報との間の距離計算を行うことによって、入力文と各話題スコープ間の距離を算出し、記憶装置に記憶する入力文・話題スコープ間距離算出手順と;
    をコンピュータに実行させるプログラム。
JP2004328283A 2004-11-11 2004-11-11 話題スコープ抽出装置、その制御方法及びプログラム Expired - Fee Related JP4350026B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004328283A JP4350026B2 (ja) 2004-11-11 2004-11-11 話題スコープ抽出装置、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004328283A JP4350026B2 (ja) 2004-11-11 2004-11-11 話題スコープ抽出装置、その制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2006139520A true JP2006139520A (ja) 2006-06-01
JP4350026B2 JP4350026B2 (ja) 2009-10-21

Family

ID=36620310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004328283A Expired - Fee Related JP4350026B2 (ja) 2004-11-11 2004-11-11 話題スコープ抽出装置、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP4350026B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146311A (ja) * 2007-12-17 2009-07-02 Fuji Xerox Co Ltd 文書解析装置、および文書解析方法、並びにコンピュータ・プログラム
JP2010176666A (ja) * 2009-01-27 2010-08-12 Palo Alto Research Center Inc ソーシャルインデックスにおける熱いトピック及び冷めたトピックを検出することによりユーザの関心を管理するためのシステム及び方法
WO2014208298A1 (ja) * 2013-06-28 2014-12-31 日本電気株式会社 文章分類装置、文章分類方法、及び記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146311A (ja) * 2007-12-17 2009-07-02 Fuji Xerox Co Ltd 文書解析装置、および文書解析方法、並びにコンピュータ・プログラム
JP2010176666A (ja) * 2009-01-27 2010-08-12 Palo Alto Research Center Inc ソーシャルインデックスにおける熱いトピック及び冷めたトピックを検出することによりユーザの関心を管理するためのシステム及び方法
WO2014208298A1 (ja) * 2013-06-28 2014-12-31 日本電気株式会社 文章分類装置、文章分類方法、及び記録媒体
JPWO2014208298A1 (ja) * 2013-06-28 2017-02-23 日本電気株式会社 文章分類装置、文章分類方法、及び文章分類プログラム

Also Published As

Publication number Publication date
JP4350026B2 (ja) 2009-10-21

Similar Documents

Publication Publication Date Title
Downey et al. Locating complex named entities in web text.
CN109408743B (zh) 文本链接嵌入方法
Zhou et al. Resolving surface forms to wikipedia topics
KR20180011254A (ko) 웹페이지 트레이닝 방법 및 기기, 그리고 검색 의도 식별 방법 및 기기
CN109670039A (zh) 基于三部图和聚类分析的半监督电商评论情感分析方法
CN111159363A (zh) 一种基于知识库的问题答案确定方法及装置
CN106339495A (zh) 一种基于层次增量聚类的话题检测方法及系统
US8812504B2 (en) Keyword presentation apparatus and method
CN113111178B (zh) 无监督的基于表示学习的同名作者消歧方法及装置
CN103678318B (zh) 多词单元提取方法和设备及人工神经网络训练方法和设备
Gong et al. Phrase-based hashtag recommendation for microblog posts.
Hassan et al. Query answering approach based on document summarization
Althobaiti et al. A semi-supervised learning approach to arabic named entity recognition
Berrahou et al. How to extract unit of measure in scientific documents?
JP4350026B2 (ja) 話題スコープ抽出装置、その制御方法及びプログラム
Alfarra et al. Graph-based technique for extracting keyphrases in a single-document (gtek)
CN108427769B (zh) 一种基于社交网络的人物兴趣标签提取方法
Showrov et al. Keyword extraction from bengali news
Pomp et al. Enhancing Knowledge Graphs with Data Representatives.
Sun et al. Stylometric and Neural Features Combined Deep Bayesian Classifier for Authorship Verification.
CN114328820A (zh) 信息搜索方法以及相关设备
CN110399595B (zh) 一种文本信息标注的方法以及相关装置
Anitha et al. An approach for summarizing hindi text through a hybrid fuzzy neural network algorithm
Alfarra et al. Graph-based Growing self-organizing map for Single Document Summarization (GGSDS)
Tohalino et al. Using virtual edges to extract keywords from texts modeled as complex networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090721

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees