JP5824429B2 - スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム - Google Patents

スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム Download PDF

Info

Publication number
JP5824429B2
JP5824429B2 JP2012178990A JP2012178990A JP5824429B2 JP 5824429 B2 JP5824429 B2 JP 5824429B2 JP 2012178990 A JP2012178990 A JP 2012178990A JP 2012178990 A JP2012178990 A JP 2012178990A JP 5824429 B2 JP5824429 B2 JP 5824429B2
Authority
JP
Japan
Prior art keywords
spam
account
language model
score
name
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012178990A
Other languages
English (en)
Other versions
JP2014038392A (ja
Inventor
良彦 数原
良彦 数原
良治 片岡
良治 片岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012178990A priority Critical patent/JP5824429B2/ja
Publication of JP2014038392A publication Critical patent/JP2014038392A/ja
Application granted granted Critical
Publication of JP5824429B2 publication Critical patent/JP5824429B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、スパム文書を判別する技術の分野に属するものであり、特に、スパム判別器生成に適した特徴を算出するための技術に属するものである。
ウェブ検索システムのような検索システムにおいては、検索対象の文書を取得し、検索可能にする際に、ユーザの満足度を下げる要因となるスパムページをあらかじめ判別し、除去を行うことがある。この際、日々大量に作成されるスパムページに対応するため、スパム、非スパムのラベルが付与された評価データセット(訓練データと呼ぶ) を元に機械学習手法を用いて判別器を自動生成する方法がある(非特許文献1)。なお本明細書では、以降、スパムページのことをspam、非スパムページのことをhamと呼ぶ。一般的なスパム判別においては、テキストの本文における単語の出現頻度やリンク情報などを特徴として用いる。
G. V. Cormack,"Content-based web spam detection", In Proceedings of AIRWeb'07, 2007. 北研二, 辻井潤一, "言語と計算(4) 確率的言語モデル", 東京大学出版会, 1999.
従来のスパム分類器生成手法では、主にテキストの本文における単語の出現頻度に基づく特徴を利用していたため、プログラムによって自動生成されたようなページでは、ページの内容からだけではspamかhamか分類が困難であるという課題がある。
本発明は上記の点に鑑みてなされたものであり、自動生成されたスパムページであっても、スパムページの判別を適確に行うことを可能とする特徴を算出する技術を提供することを目的とする。
上記の課題を解決するために、本発明は、アカウント名のスパムらしさを示すスコアを算出するスパムアカウントスコア算出装置であって、
スパムアカウント名と非スパムアカウント名の集合から、アカウント名を分解して得られるトークン毎のスパム内頻度と非スパム内頻度を算出し、アカウント言語モデルとしてアカウント言語モデルDBに格納するアカウント言語モデル生成手段と、
前記アカウント言語モデルDBに格納されたアカウント言語モデルに基づいて、予測対象アカウント名におけるトークン毎のスパムと非スパムの確率を算出し、当該確率に基づいて、前記予測対象アカウント名のスパムらしさを示すスコアを算出するアカウント評価手段とを備え、
前記アカウント評価手段は、スパムと非スパムのそれぞれについて、前記確率の対数値をトークン毎に加算したスコアを算出し、スパムのスコアから非スパムのスコアを引いた値を前記予測対象アカウント名のスパムらしさを示すスコアとすることを特徴とするスパムアカウントスコア算出装置として構成される。また、前記アカウント言語モデルは、例えばn-gram言語モデルである。
また、本発明は、アカウント名のスパムらしさを示すスコアを算出するスパムアカウントスコア算出装置であって、
スパムアカウント名と非スパムアカウント名の集合から、アカウント名を分解して得られるトークン毎のスパム内頻度と非スパム内頻度を算出し、アカウント言語モデルとしてアカウント言語モデルDBに格納するアカウント言語モデル生成手段と、
前記アカウント言語モデルDBに格納されたアカウント言語モデルに基づいて、予測対象アカウント名におけるトークン毎のスパムと非スパムの確率を算出し、当該確率に基づいて、前記予測対象アカウント名のスパムらしさを示すスコアを算出するアカウント評価手段とを備え、
前記アカウント言語モデルは、n-gram言語モデルであり、当該n-gram言語モデルの単位として文字種を用いることを特徴とするスパムアカウントスコア算出装置として構成してもよい。
また、本発明は、前記スパムアカウントスコア算出装置が実行するアカウントスコア算出方法、及び、コンピュータを、前記アカウントスコア算出装置における各手段として機能させるためのプログラムとして構成することもできる。
本発明によれば、hamアカウント名とspamアカウント名に基づいた言語モデルを利用することにより、spam業者によって自動生成されたようアカウントを高精度に判別することが可能となり、この情報を新たな特徴として用いることで、spam 業者によって自動生成されたアカウント名に紐づくウェブページ(例えばブログ記事) の高精度な判別が可能なスパム判別器の生成が可能となる。
本発明の実施の形態に係るスパムアカウントスコア算出装置100の機能構成図である。 アカウント言語モデル生成機能部20の処理の流れを示すフローチャートである。 アカウント評価機能部50の処理の流れを示すフローチャートである。 ラベル付きアカウント名DB10のデータ構造の例を示す図である。 アカウント名言語モデルDB30のデータ構造の例を示す図である。 予測対象アカウント名DB40のデータ構造の例を示す図である。 予測結果DB60のデータ構造の例を示す図である。 スパム訓練データDB70のデータ構造の例を示す図である。
以下、図面を参照して本発明の実施の形態を説明する。なお、以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。
プログラムによって自動生成されたようなページでは、自動生成したアカウント名が見受けられることから、本発明の実施の形態では、アカウント名を特徴に組み入れる技術を提案している。以下、本実施の形態を詳細に説明する。
<装置構成>
図1に、本発明の実施の形態に係るスパムアカウントスコア算出装置100の機能構成図を示す。図1に示すように、本実施の形態に係るスパムアカウントスコア算出装置100は、アカウント評価部1、予測対象アカウント名DB(データベース)40、予測結果DB60、スパム訓練データDB70、特徴付与機能部80、特徴追加データDB90を有する。アカウント評価部1は、ラベル付きアカウント名DB10、アカウント言語モデル生成機能部20、アカウント名言語モデルDB30、アカウント評価機能部50を有する。ここでの各DBは、複数のテーブルからなるデータを格納する記憶手段である。
スパムアカウントスコア算出装置100は、例えば、1つ又は複数のコンピュータに、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。すなわち、スパムアカウントスコア算出装置100の各部が有する機能は、当該スパムアカウントスコア算出装置100を構成するコンピュータに内蔵されるCPUやメモリ、ハードディスクなどのハードウェア資源を用いて、各部で実施される処理に対応するプログラムを実行することによって実現することが可能である。より具体的には、プログラムに従って、計算対象の文字列等のデータをメモリから読み出し、CPUにより演算を行って、メモリに格納する動作を繰り返しながら処理が実行される。上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
以下、各DBの内容や各機能部の処理について説明する。
<アカウント言語モデル生成機能部20>
アカウント言語モデル生成機能部20は、ラベル付きアカウント名DB10からデータを読み出し、当該データを用いてアカウント言語モデル生成処理を行い、生成された言語モデルをアカウント名言語モデルDB30に格納する。
図4に、ラベル付きアカウント名DB10のデータ構造の例を示す。図4に示すように、ラベル付きアカウント名DB10はアカウント名カラムとクラスカラムを有し、アカウント名カラムはアカウントの文字列情報、クラスカラムはspamかhamかの情報を格納する。
言語モデルの実現にはいくつかの方法が存在するが、本実施の形態ではn-gram言語モデルを用いている。また、簡単のため、n = 2である2-gram言語モデルの例を示しているが、n > 2の場合も同様に実現が可能である。また本実施の形態では全てのアルファベットを異なる文字として扱っているが、例えば文字種(アルファベット、数字、記号)という単位のn-gram モデルでも同様にスコアを計算することができる。
図5に、アカウント名言語モデルDB030のデータ構造の例を示す。図5に示すデータ構造において、トークンはn文字から成る文字列とn−1 文字から成る文字列として格納されている。この例の場合は2-gramであるため、2-gramトークンと1-gramトークンの2種類が格納されている。ここで^は先頭文字、$は終端文字を表す。例えばsuharaという文字列は{^s, su, uh, ha, ar, ra, a$}という7個のトークンに分割される。アカウント名言語モデルDB30では、これらのトークンについてspam内頻度とham内頻度を格納する。
以下、図2のフローチャートを参照して、アカウント言語モデル生成機能部20が実行する処理の流れを説明する。
ステップ1−1)ラベル付きアカウント名DB10から未処理のレコードを読み込み、アカウント名をSとする。
ステップ1−2)Sをn-gram トークン列に分解し、集合をTとする。例えばn = 2でS =suharaの場合、T = {^s, su, uh, ha, ar, ra, a$}である。
ステップ1−3)Tのうち、未処理のトークンをtとする。当該トークンの(n-1)-gram をt−1とする。例えば、t = suに対応する(n-1)-gram すなわち1-gramはt−1 = s である。
ステップ1−4)アカウント名言語モデルDB30にt とt−1に対応する頻度を加算する。
ステップ1−5)Tのうちに未処理のトークンが存在する場合、ステップ1−3に戻り、次のトークンの処理に移る。そうでなければステップ1−6に進む。
ステップ1−6)ラベル付きアカウント名DB10に未処理のレコードがある場合、ステップ1−1に戻り、次のレコードの処理に移る。そうでなければ処理を終了する。
<アカウント評価機能部50>
アカウント評価機能部50は、アカウント名言語モデルDB30から読み出したデータと予測対象アカウント名DB40から読み出したデータとを入力とし、アカウントスコアを計算し、計算結果を予測結果DB60に格納する。
図6に、予測対象アカウント名DB40のデータ構造の例を示す。図6に示すように、予測対象アカウント名DB40は予測対象のアカウント名を格納し、データ構造のスキーマはラベル付きアカウント名DB10(図4)からクラス情報を取り除いたものと等しい。
図7に、予測結果DB60のデータ構造の例を示す。図7に示すように、予測結果DB60にはアカウント名とスコアが格納される。
以下、図3のフローチャートを参照して、アカウント評価機能部50が実行する処理の流れを説明する。
ステップ2−1)予測対象アカウント名DB40から未処理のレコードを読み込み、アカウント名をStest とする。spam、hamそれぞれの言語モデルの確率を保持する変数をscorespam、scorehamとし、それぞれ1に初期化する。
ステップ2−2)Stestをトークン列に分解し、トークン集合をTtestとする。
ステップ2−3)Ttestのうち、未処理のトークンをttestとし、当該トークンに対応する(n-1)-gramをttest,−1とする。
ステップ2−4)アカウント名言語モデルDB30からttestとttest,−1に対応するspamとhamの頻度を取得し、それぞれをCountspam(ttest), Countspam(ttest,−1), Countham(ttest), Countham(ttest,−1) とする。言語モデルの生成確率の計算には、例えば加算スムージングを用いた推定
Figure 0005824429
を用いることができる(非特許文献2)。ここで|V|は全てのトークン数を表しており、αはあらかじめ設定されたパラメータであり、例えばα= 0.01 を用いる。なお、この推定にその他のスムージング手法を用いることも可能である(非特許文献2)。hamとspam両方についてPspam(ttest|ttest,−1) とPham(ttest|ttest,−1) を計算し、対数の値を取ったものをscorespam、scorehamに加える。すなわち、
scorespam <-- scorespam + log Pspam(ttest|ttest,−1) (2)
scoreham <-- scoreham + log Pham(ttest|ttest,−1) (3)
という操作を行う。
ステップ2−5)未処理のトークンがある場合、ステップ2−3に戻り、次のトークンの処理に移る。そうでない場合、ステップ2−6に進む。
ステップ2−6)言語モデルに基づくスパムらしさのスコアscore を式(4) に従って算出し、予測結果DB60に当該アカウント名と併せて出力する。
score = scorespam −scoreham (4)
更に別のアカウント名についてのスコアscore を算出するには、ステップ2−1〜ステップ2−6の処理を当該アカウント名について行えばよい。
<特徴付与機能部80>
特徴付与機能部80は、予測結果DB60のデータとスパム訓練データDB70のデータを入力とし、特徴追加スパム訓練データを特徴追加スパム訓練データDB90に格納する。この機能としては例えば非特許文献1に記載された技術を用いることができる。
スパム訓練データDB70のデータ構造の例を図8に示す。スパム訓練データDB70は1レコードに1 事例の情報を格納しており、事例ID、アカウント名、スパムラベルと特徴べクトルのカラムで構成されている。ここで事例とは、スパム判定の単位である文書のことを表し、判定されたスパムラベルy と、M 次元の特徴ベクトルxT =(x1, x2, ..., xM)の情報を持つ。アカウント名は当該ページを生成したアカウント名に関する情報を格納しており、予測対象アカウント名DB40におけるアカウント名と紐づけるために用いる。スパムラベルy∈{+1, −1} は、spamの場合+1、hamの場合−1とする。図8ではspam、ham で表している。特徴ベクトルには例えば、当該ページに含まれている単語情報やリンク情報などを用いる。特徴ベクトルの各カラムは、当該事例の特徴ベクトルx の値を格納している。
特徴追加スパム訓練データDB90は、スパム訓練データDB70において予測結果DB60のスコアを新たなカラムとして追加したものである。スパム訓練データDB70のアカウント名を元に該当するレコードに対して予測結果を追記する。なお、文字種単位のスコアが別途計算されていた場合には、上記カラムに加えて別のカラムとして追加が可能である。
特徴追加スパム訓練データDB90を用いて既存のスパム分類器生成手法を用いてスパム判別器を生成することが可能である。スパム分類器生成手法には、例えば非特許文献1に記載された技術を用いることができる。
(実施の形態のまとめ)
上述したように、本実施の形態では、アカウント言語モデル生成機能部20がham アカウント名とspam アカウント名に基づいた言語モデルを生成し、当該言語モデルを利用して、アカウント評価機能部50が予測対象アカウント名に対してスパムらしさを示すスコアを算出する。このスコアの情報を新たな特徴として用いることで、spam 業者によって自動生成されたアカウント名に紐づくウェブページ(例えばブログ記事) の高精度な判別が可能なスパム判別器の生成が可能となる。
本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。
1 アカウント評価部
10 ラベル付きアカウント名DB
20 アカウント言語モデル生成機能部
30 アカウント名言語モデルDB
40 予測対象アカウント名DB
50 アカウント評価機能部
60 予測結果DB
70 スパム訓練データDB
80 特徴付与機能部
90 特徴追加データDB
100 スパムアカウントスコア算出装置

Claims (7)

  1. アカウント名のスパムらしさを示すスコアを算出するスパムアカウントスコア算出装置であって、
    スパムアカウント名と非スパムアカウント名の集合から、アカウント名を分解して得られるトークン毎のスパム内頻度と非スパム内頻度を算出し、アカウント言語モデルとしてアカウント言語モデルDBに格納するアカウント言語モデル生成手段と、
    前記アカウント言語モデルDBに格納されたアカウント言語モデルに基づいて、予測対象アカウント名におけるトークン毎のスパムと非スパムの確率を算出し、当該確率に基づいて、前記予測対象アカウント名のスパムらしさを示すスコアを算出するアカウント評価手段とを備え、
    前記アカウント評価手段は、スパムと非スパムのそれぞれについて、前記確率の対数値をトークン毎に加算したスコアを算出し、スパムのスコアから非スパムのスコアを引いた値を前記予測対象アカウント名のスパムらしさを示すスコアとする
    ことを特徴とするスパムアカウントスコア算出装置。
  2. 前記アカウント言語モデルは、n-gram言語モデルであることを特徴とする請求項1に記載のスパムアカウントスコア算出装置。
  3. アカウント名のスパムらしさを示すスコアを算出するスパムアカウントスコア算出装置であって、
    スパムアカウント名と非スパムアカウント名の集合から、アカウント名を分解して得られるトークン毎のスパム内頻度と非スパム内頻度を算出し、アカウント言語モデルとしてアカウント言語モデルDBに格納するアカウント言語モデル生成手段と、
    前記アカウント言語モデルDBに格納されたアカウント言語モデルに基づいて、予測対象アカウント名におけるトークン毎のスパムと非スパムの確率を算出し、当該確率に基づいて、前記予測対象アカウント名のスパムらしさを示すスコアを算出するアカウント評価手段とを備え、
    前記アカウント言語モデルは、n-gram言語モデルであり、当該n-gram言語モデルの単位として文字種を用いる
    ことを特徴とするスパムアカウントスコア算出装置。
  4. アカウント名のスパムらしさを示すスコアを算出するスパムアカウントスコア算出装置が実行するスパムアカウントスコア算出方法であって、
    スパムアカウント名と非スパムアカウント名の集合から、アカウント名を分解して得られるトークン毎のスパム内頻度と非スパム内頻度を算出し、アカウント言語モデルとしてアカウント言語モデルDBに格納するアカウント言語モデル生成ステップと、
    前記アカウント言語モデルDBに格納されたアカウント言語モデルに基づいて、予測対象アカウント名におけるトークン毎のスパムと非スパムの確率を算出し、当該確率に基づいて、前記予測対象アカウント名のスパムらしさを示すスコアを算出するアカウント評価ステップとを備え、
    前記アカウント評価ステップにおいて、スパムと非スパムのそれぞれについて、前記確率の対数値をトークン毎に加算したスコアを算出し、スパムのスコアから非スパムのスコアを引いた値を前記予測対象アカウント名のスパムらしさを示すスコアとする
    ことを特徴とするスパムアカウントスコア算出方法。
  5. 前記アカウント言語モデルは、n-gram言語モデルであることを特徴とする請求項4に記載のスパムアカウントスコア算出方法。
  6. アカウント名のスパムらしさを示すスコアを算出するスパムアカウントスコア算出装置が実行するスパムアカウントスコア算出方法であって、
    スパムアカウント名と非スパムアカウント名の集合から、アカウント名を分解して得られるトークン毎のスパム内頻度と非スパム内頻度を算出し、アカウント言語モデルとしてアカウント言語モデルDBに格納するアカウント言語モデル生成ステップと、
    前記アカウント言語モデルDBに格納されたアカウント言語モデルに基づいて、予測対象アカウント名におけるトークン毎のスパムと非スパムの確率を算出し、当該確率に基づいて、前記予測対象アカウント名のスパムらしさを示すスコアを算出するアカウント評価ステップとを備え、
    前記アカウント言語モデルは、n-gram言語モデルであり、当該n-gram言語モデルの単位として文字種を用いる
    ことを特徴とするスパムアカウントスコア算出方法。
  7. コンピュータを、請求項1ないし3のうちいずれか1項に記載のスパムアカウントスコア算出装置における各手段として機能させるためのプログラム。
JP2012178990A 2012-08-10 2012-08-10 スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム Expired - Fee Related JP5824429B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012178990A JP5824429B2 (ja) 2012-08-10 2012-08-10 スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012178990A JP5824429B2 (ja) 2012-08-10 2012-08-10 スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2014038392A JP2014038392A (ja) 2014-02-27
JP5824429B2 true JP5824429B2 (ja) 2015-11-25

Family

ID=50286505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012178990A Expired - Fee Related JP5824429B2 (ja) 2012-08-10 2012-08-10 スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5824429B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105447204B (zh) * 2016-01-04 2017-12-12 北京百度网讯科技有限公司 网址识别方法和装置
CN108874940B (zh) * 2018-06-01 2022-05-10 杭州电子科技大学 一种基于Twitter数据的社交网络组织成员识别方法

Also Published As

Publication number Publication date
JP2014038392A (ja) 2014-02-27

Similar Documents

Publication Publication Date Title
CN103336766B (zh) 短文本垃圾识别以及建模方法和装置
JP2012118977A (ja) 文書類似性計算の機械学習に基づく最適化およびカスタマイズのための方法およびシステム
CN108319627A (zh) 关键词提取方法以及关键词提取装置
CN110134777B (zh) 问题去重方法、装置、电子设备和计算机可读存储介质
CN108959474B (zh) 实体关系提取方法
JP6070501B2 (ja) 情報処理装置及び情報処理プログラム
CN111984792A (zh) 网站分类方法、装置、计算机设备及存储介质
CN112784009B (zh) 一种主题词挖掘方法、装置、电子设备及存储介质
CN111488732B (zh) 一种变形关键词检测方法、系统及相关设备
CN110858217A (zh) 微博敏感话题的检测方法、装置及可读存储介质
CN109783805B (zh) 一种网络社区用户识别方法、装置和可读存储介质
CN110287311A (zh) 文本分类方法及装置、存储介质、计算机设备
JP6770709B2 (ja) 機械学習用モデル生成装置及びプログラム。
JP6563350B2 (ja) データ分類装置、データ分類方法、及びプログラム
CN110209780B (zh) 一种问题模板生成方法、装置、服务器及存储介质
JP5824429B2 (ja) スパムアカウントスコア算出装置、スパムアカウントスコア算出方法、及びプログラム
CN107291686B (zh) 情感标识的辨识方法和情感标识的辨识系统
CN109902162B (zh) 基于数字指纹的文本相似性的识别方法、存储介质及装置
JP2016110256A (ja) 情報処理装置及び情報処理プログラム
CN115035890B (zh) 语音识别模型的训练方法、装置、电子设备及存储介质
CN116644148A (zh) 关键词识别方法、装置、电子设备及存储介质
CN114969253A (zh) 市场主体与政策的匹配方法、装置、计算设备及介质
CN115017906A (zh) 一种针对文本中实体的识别方法、装置及存储介质
CN113420127A (zh) 威胁情报处理方法、装置、计算设备及存储介质
CN111159397B (zh) 文本分类方法和装置、服务器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151009

R150 Certificate of patent or registration of utility model

Ref document number: 5824429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees