JP2006514371A - 適応型ジャンクメッセージフィルタリングシステム - Google Patents

適応型ジャンクメッセージフィルタリングシステム Download PDF

Info

Publication number
JP2006514371A
JP2006514371A JP2004569229A JP2004569229A JP2006514371A JP 2006514371 A JP2006514371 A JP 2006514371A JP 2004569229 A JP2004569229 A JP 2004569229A JP 2004569229 A JP2004569229 A JP 2004569229A JP 2006514371 A JP2006514371 A JP 2006514371A
Authority
JP
Japan
Prior art keywords
filter
message
user
data
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004569229A
Other languages
English (en)
Other versions
JP4524192B2 (ja
Inventor
エル.ラウンスウェイト ロバート
ティー.グッドマン ジョシュア
イー.ヘッカーマン デビッド
シー.プラット ジョン
エム.カディエ カール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006514371A publication Critical patent/JP2006514371A/ja
Application granted granted Critical
Publication of JP4524192B2 publication Critical patent/JP4524192B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/212Monitoring or handling of messages using filtering or selective blocking

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Economics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Transfer Between Computers (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Communication Control (AREA)
  • Selective Calling Equipment (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Medicines Containing Material From Animals Or Micro-Organisms (AREA)
  • Compounds Of Unknown Constitution (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Micro-Organisms Or Cultivation Processes Thereof (AREA)
  • Filters That Use Time-Delay Elements (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本発明は、メッセージをフィルタリングするシステムに関する。このシステムは、偽陽性率および偽陰性率が関連付けられているシードフィルタを含む。メッセージをフィルタ処理する新しいフィルタも提供され、新しいフィルタは、シードフィルタの偽陽性率および偽陰性率に従って評価され、シードフィルタの偽陽性率および偽陰性率の決定に使用されるデータを使用して、閾値に応じて新しいフィルタの新しい偽陽性率および新しい偽陰性率を決定する。新しいフィルタの閾値が存在し、したがって新しい偽陽性率および新しい偽陰性率がともにシードフィルタの偽陽性率および偽陰性率より良いとみなされる場合、シードフィルタの代わりに新しいフィルタが使用される。

Description

本発明は、不要な情報(ジャンクメールなど)を識別するシステムおよび方法に関し、より詳細にはこうした識別を容易にする適応型フィルタに関する。
本出願は、次の特許および特許出願、「TECHNIQUE WHICH UTILIZES A PROBABILISTIC CLASSIFIER TO DETECT JUNK E-MAIL BY AUTOMATICALLY UPDATING A TRAINING AND RE-TRAINING THE CLASSIFIER BASED ON THE UPDATING TRAINING SET」という名称の米国特許第6,161,130号明細書、1999年11月23に出願した「CLASSIFICATION SYSTEM TRAINER EMPLOYING MAXIMUM MARGIN BACK-PROPAGATION WITH PROBABILISTIC OUTPUTS」という名称の米国特許出願第09/448,408号明細書、および2002年10月23に提出した「METHOD AND SYSTEM FOR IDENTIFYING JUNK E-MAIL」という名称の米国特許出願第10/278,591号明細書に関連する。
インターネットなどのグローバル通信ネットワークの到来は、膨大な数の潜在的な顧客と接触するビジネスチャンスをもたらした。電子メッセージング、および特に電子メール(「Eメール」)は、ネットワークユーザに不要な広告および宣伝を広める手段(「スパム」とも呼ぶ)として、ますます浸透してきている。
コンサルティングおよびマーケットリサーチ会社であるRadicati Group,Incは、2002年8月の時点で、毎日20億のジャンクEメールメッセージが送信されていると推定しており、この数は、2年ごとに3倍になると予想される。個人およびエンティティ(会社、政府関係機関など)は、ジャンクメッセージによって次第に不便を感じ、しばしば気分を害するようになってきている。したがって、ジャンクEメールは今や信頼できるコンピュータ処理の大きな脅威であり、あるいはまもなく大きな脅威となる。
ジャンクEメールの阻止に使用される主な技術は、フィルタリングシステム/方法の使用である。定評のあるフィルタリング技術の1つは、機械学習手法に基づいている。機械学習フィルタは、受信メッセージに、そのメッセージがジャンクである確率を割り当てる。この手法では、一般に、2つのクラスのメッセージ例(例えばジャンクメッセージと非ジャンクメッセージなど)から特徴が抽出され、2つのクラスの間を確率的に区別するために学習フィルタが適用される。多くのメッセージの特徴は内容(例えばメッセージの件名および/または本文の単語および句など)に関連しているため、こうしたタイプのフィルタは、一般に「内容ベースのフィルタ」と呼ばれる。
いくつかのジャンク/スパムフィルタは順応性がある。これは、多言語のユーザおよび珍しい言語を話すユーザがその固有の必要性に適応できるフィルタを必要とするという点で重要である。さらに、何がジャンク/スパムで何がそうでないかにすべてのユーザが同意するとは限らない。したがって、(例えばユーザの挙動を観察することを介して)暗黙的に(implicitly)訓練することができるフィルタを使用することによって、ユーザの特定のメッセージ識別の必要性を満たすようにそれぞれのフィルタを動的に調整することができる。
フィルタリングの適応の1つの手法は、メッセージをジャンクおよび非ジャンクとラベル付けするようユーザに要求することである。残念ながら、手動による労力を要するこうした訓練技術は、こうした訓練を適切に行うのに必要な時間量はもちろんのこと、こうした訓練に関連付けられている複雑性のため、多くのユーザにとっては好ましくない。別の適応型フィルタ訓練手法は、暗黙的な(implicit)訓練キューを使用することである。例えば、ユーザがメッセージに返信するか、メッセージを転送する場合、この手法は、メッセージを非ジャンクであると見なす。しかし、この種類のメッセージキューのみを使用することは、訓練プロセスに統計上の偏りをもたらし、その結果、それぞれの精度がより低いフィルタがもたらされる。
さらに別の手法は、すべてのユーザのEメールを訓練に使用することである。この場合、最初のラベルが既存のフィルタによって割り当てられ、ユーザはこうした割当を、例えば「ジャンクとして削除」および「非ジャンク」などのオプションを選択する明示的なキュー(例えば「ユーザ訂正」方法など)、および/または暗黙的なキューで時々オーバーライドする。こうした手法は上述した技術よりは良いが、以下で説明し、主張する本発明と比べて依然として不十分である。
次に、本発明の一部の態様を基本的に理解できるようにするために、本発明の簡略化された要約を示している。この要約は、本発明の広範な概要を示すものではない。本発明の主な/重要な要素を識別するためのもの、または本発明の範囲を画定するためのものではない。単に、後述するより詳細な説明の前置きとして、本発明の一部の概念を簡略化した形式で提示するためのものである。
本発明は、ジャンク/スパムメッセージの識別に最適な使用可能なフィルタ(例えばシードフィルタ(seed filter)または新しいフィルタなど)の使用を容易にするシステムおよび方法を提供する。本発明は、メッセージをフィルタ処理し、偽陽性率(false positive rate)(例えば誤ってジャンクとして分類された非ジャンクメール)および偽陰性率(false negative rate)(例えば誤って非ジャンクとして分類されたジャンクメール)が関連付けられているシードフィルタを使用する。新しいフィルタもメッセージのフィルタリングに使用される。新しいフィルタは、シードフィルタに関連付けられている偽陽性率および偽陰性率に従って評価される。シードフィルタの偽陽性率および偽陰性率の決定に使用されるデータは、閾値に応じて新しいフィルタの新しい偽陽性率および偽陰性率の決定に使用される。
新しいフィルタの閾値が存在し、したがって新しい偽陽性率および新しい偽陰性率がともにシードフィルタの偽陽性率および偽陰性率より良いとみなされる場合、シードフィルタの代わりに新しいフィルタが使用される。新しい偽陽性率および新しい偽陰性率は、(例えばユーザ訂正プロセスの使用により)ユーザによってジャンクおよび非ジャンクとラベル付けされたメッセージに従って決定される。ユーザ訂正プロセスは、メッセージの最初の分類をオーバーライドするステップを含み、最初の分類は、ユーザがメッセージを受信すると、シードフィルタによって自動的に実行される。閾値は、単一の閾値とする、または生成された複数の閾値から選択することができる。複数の値を使用する場合、選択された閾値は、例えば、対象となる閾値(例えば最も低い偽陽性率の閾値、またはp効用関数に基づいてユーザの期待効用を最大にする閾値など)の範囲の中間の閾値を選択することによって決定することができる。あるいは、閾値は、新しいフィルタの偽陽性率および偽陰性率がその選択された閾値で少なくともシードフィルタのものと同程度に良い場合にのみ選択することができ、1がより良い。さらに、新しいフィルタ率が選択された閾値だけではなく、他の近くの閾値でもシードフィルタ率より良い場合のみ新しいフィルタが選択されるように、選択基準を提供することができる。
本発明の別の態様は、データのフィルタリングを容易にするグラフィカルユーザインターフェースを提供する。インターフェースは、フィルタの構成に関して構成システムと通信するフィルタインターフェースを提供する。インターフェースは、デフォルト、高度、専用のうちの少なくとも1つを含むユーザが選択可能な複数のフィルタレベルを提供する。インターフェースは、本発明の上記のシステムおよび方法の実行を容易にする様々なツールを提供する。
上記および関連の目的を達成するために、本発明のいくつかの態様例を、次の説明および添付の図面との関連で本明細書に記載している。しかし、これらの態様は、本発明の原理を使用し得る様々な方法のほんの一部を示しているにすぎず、本発明は、こうしたすべての態様およびその均等物を含むものとする。本発明の他の利点および新規の特徴は、本発明の次の詳細な説明を図面と併せ読めば明らかになる。
次に、図面を参照して本発明を説明する。図中、同様の参照番号を使用して同様の要素を指す。次の説明では、説明上、本発明を完全に理解できるようにするために様々な特定の詳細を記載している。しかし、こうした特定の詳細なしに本発明を実施できることは明らかである。他の例では、本発明の説明を容易にするために、よく知られている構造および装置をブロック図の形式で示している。
本出願で使用する場合、「構成要素」および「システム」という用語は、ハードウェア、ハードウェアとソフトウェアの組合せ、ソフトウェア、または実行中のソフトウェアのいずれかのコンピュータ関連のエンティティを指すものとする。例えば、構成要素は、それだけには限定されないが、プロセッサ上で稼働するプロセス、プロセッサ、オブジェクト、実行可能ファイル、実行スレッド、プログラム、および/またはコンピュータとすることができる。例として、サーバ上で稼働するアプリケーションおよびサーバはいずれも構成要素である。1つまたは複数の構成要素がプロセスおよび/または実行スレッド内に存在していてよく、1つの構成要素を1つのコンピュータ上に配置する、および/または2つ以上のコンピュータの間に分散することができる。
本発明は、ジャンクメッセージのフィルタリングに関して様々な推論方式および/または技術を組み込むことができる。本明細書で使用する場合、「推論」という用語は一般に、イベントおよび/またはデータを介して捕捉された1組の観察結果からシステム、環境、および/またはユーザの状態について推理または推論する過程を指す。例えば、推論を使用して特定の内容または動作を識別したり、状態にわたる確率分布を生成したりすることができる。推論は、確率的、つまりデータおよびイベントの考慮に基づいた対象の状態にわたる確率分布の計算とすることができる。また推論は、1組のイベントおよび/またはデータから上位レベルのイベントを構成するために使用する技術も指す。こうした推論は、複数のイベントが時間的にごく近接して相関していようといまいと、またイベントおよびデータが1つ又は複数のイベントおよびデータソースから派生しようとしまいと、1組の観察されたイベントおよび/または格納されたイベントデータから新しいイベントまたは動作を構築する。
メッセージという用語は本明細書を通じて広範にわたって使用されているが、こうした用語は、電子メールだけに限定されるものではなく、任意の適した通信アーキテクチャに分散することができる任意の形式の電子メッセージ通信を含むように、適切に構成することができることを理解されたい。例えば、2人以上の間での会議を容易にする会議アプリケーション(例えば対話型チャットプログラム、インスタントメッセージングプログラムなど)も、ユーザがメッセージを交換する間に不要なテキストを通常のチャットメッセージに電子的に散りばめ、かつ/または先頭メッセージ、終わりのメッセージ、または上記のすべてとして挿入することができるため、本明細書に開示されたフィルタリングの利点を使用することができる。この特定のアプリケーションでは、望ましくない内容(コマーシャル、宣伝、広告など)を捕捉し、ジャンクとしてタグ付けするために、フィルタは、特定のメッセージの内容(テキストおよび画像)を自動的にフィルタ処理するよう構成することができる。
次に図1を参照すると、本発明によるジャンクメッセージ検出システム100を示している。システム100は、受信メッセージのストリーム102を受信し、ジャンクメッセージの検出および削除を容易にするために、これをフィルタ処理することができる。メッセージ102は、本発明の適応性のある態様に従って決定されるフィルタ基準に応じて、メッセージ102を第1のフィルタ106(例えばシードフィルタ)と第2のフィルタ108(例えば新しいフィルタ)との間に経路指定することができるフィルタ制御構成要素104内に受信される。したがって、第1のフィルタ106がジャンクメッセージの検出に十分効率的であると決定された場合、第2のフィルタ108は使用されず、フィルタ制御104は、メッセージ102を引き続き第1のフィルタ106に経路指定する。しかし、第2のフィルタ108が少なくとも第1のフィルタ106と同程度に効率的であると決定された場合、フィルタ制御104は、メッセージ102を第2のフィルタ108に経路指定することを決定することができる。こうした決定に使用される基準については、以下で詳述する。最初に使用するとき、フィルタシステム100は、メッセージ102が第1のフィルタ106に経路指定されてフィルタ処理されるように(例えば、通常第1のフィルタ106が特定の製品とともに出荷された明示的に訓練されたシードフィルタであるときなど)、予め定められたデフォルトのフィルタ設定に構成することができる。
第1のフィルタ106の設定に基づいて、第1のフィルタ106内に受信されたメッセージは、ジャンクデータに関連付けられているジャンク情報について問い合わせが行われる。ジャンク情報は、それだけには限定されないが、ソースIPアドレス、送信者名、送信者のEメールアドレス、送信者のドメイン名、識別子フィールド内のでたらめな英数文字列などの(ジャンクメールを送信することで知られている送信者からの)送信者情報、「ローン」、「セックス」、「レート」、「限定商品」、「今すぐ購入」などジャンクメールで一般に使用されるメッセージテキスト用語および句、文字のサイズ、文字の色、特殊文字の使用などのメッセージテキストの特徴、ポップアップ広告への埋め込みリンクなどを含み得る。ジャンクデータは、予め定められた、また動的に決定されたジャンク基準に少なくとも部分的に基づいて決定することができる。メッセージは、一般にジャンクメール、または適切なメールのみを送信することで知られている送信者または送信者IPからのメールには現れない「天気」や「チーム」などの「適切な」データについての問い合わせも行われる。製品が最初にシードフィルタ無しで、フィルタ基準の設定無しで出荷された場合、すべてのメッセージは、タグが付けられずに第1のフィルタ106を通過してユーザのインボックス112(第1のフィルタ出力とも呼ぶ)に入ることを理解されたい。インボックス112は、単に、様々な場所(サーバ、大容量記憶装置、クライアントコンピュータ、分散ネットワークなど)に存在するデータストアとすることができることを理解されたい。さらに、第1のフィルタ106および/または第2のフィルタ108は、複数のユーザ/構成要素によって使用することができ、インボックス112は、メッセージをそれぞれのユーザ/構成要素ごとに別々に格納するように区分することができることを理解されたい。さらに、システム100は、二次的フィルタのうちの最も適切なものが特定のタスクに関して使用されるように、複数の二次的フィルタ108を使用することができる。本発明のこうした態様については、以下で詳述する。
ユーザがメールボックスのメッセージを調べるとき、一部のメッセージは、ジャンクであり、他のメッセージは非ジャンクであると決定される。これは、一部には、例えばボタンを押すことによって、または特定のメッセージに関連付けられているユーザアクションを介してメッセージに暗黙的にタグ付けすることを介して、ユーザによってジャンクメールまたは非ジャンクメールに明示的にタグ付けすることに基づいている。メッセージは、例えばメッセージが読まれインボックスの中に残されている、メッセージが読まれ転送される、メッセージが読まれごみ箱フォルダ以外の任意のフォルダに入れられる、メッセージに返信する、またはユーザがメッセージを開き編集するなどのユーザアクションまたはメッセージプロセスに基づいてジャンクではないことを暗黙的に決定することができる。他のユーザアクションも非ジャンクメッセージに関連付けられるように定義することができる。メッセージは、例えば1週間の間メッセージを読んでいない、メッセージを読むことなく削除することなどに基づいてジャンクであると暗黙的に決定することができる。したがってシステム100は、ユーザ訂正構成要素114を介してこれらのユーザアクション(またはメッセージプロセス)を監視する。これらのユーザアクションまたはメッセージプロセスは、ユーザが最初にメッセージを調べ、それに対するアクションを実行する間に、システム100が第1のフィルタ106の偽陽性率および偽陰性率のデータの開発を開始することができるように、ユーザ訂正構成要素114内に予め構成しておくことができる。ユーザ訂正ブロック114内に予め構成されていないほぼすべてのユーザアクション(またはメッセージプロセス)は、システム100がこうしたメッセージタイプに対処するよう適応するまで、「未知の」メッセージをフィルタ出力112まで自動的にタグ無しで到達させることができる。「ユーザ」という用語は、本明細書で使用する場合、人間、人間のグループ、構成要素、および人間と構成要素との組合せを含むものとすることを理解されたい。
ユーザのインボックス112内のメッセージがタグ無しメッセージとして受信され、しかし実際にはジャンクメッセージである場合、システム100は、これを偽陰性データ値として処理する。ユーザ訂正構成要素114は、次いでこの偽陰性情報をフィルタ制御構成要素104に、第1のフィルタ106の有効性を確認するために使用するデータ値として戻す。一方、実際にはメッセージはジャンクメッセージではない場合に、第1のフィルタ106がそれをジャンクメールとしてタグ付けした場合、システム100は、これを偽陽性データ値として処理する。ユーザ訂正構成要素114は、次いでこの偽陽性情報をフィルタ制御構成要素104に、第1のフィルタ106の有効性の決定に関して使用するデータポイントとして戻す。したがってユーザがユーザのインボックス112内で受信されたメッセージを訂正するとき、第1のフィルタ106のための偽陰性データおよび偽陽性データが開発される。
システム100は、その偽陽性率および偽陰性率が第1のフィルタ106のものより低い(例えば許容可能な確率内)第2のフィルタ108の閾値が存在するかどうかを決定する。存在する場合、システム100は、許容可能な閾値のうちの1つを選択する。システムは、偽陽性率が同程度に良く、偽陰性率がより良い場合、または偽陰性率が同程度に良く、偽陽性率がより良い場合に第2のフィルタを選択することもできる。したがって、本発明は、特定のユーザの効用関数、およびユーザが第1のフィルタ106の誤りを間違いなく訂正したかどうかに関係なく、許容可能な確率以内で、第2のフィルタがジャンクの検出に関して同等以上の有用性を提供することを保証する第2のフィルタ108の閾値があるかどうか(およびその閾値が何であるか)を決定することを提供する。
システム100は、偽陽性識別および偽陰性識別のユーザ確認を考慮して、新しい訓練の必要性に基づいて新しい(または第2の)フィルタ108を訓練する。より具体的には、システム100は、ユーザ訂正方法を介して決定されたジャンクラベルおよび非ジャンクラベルでタグ付けされたデータを使用する。このデータを使用して、第1の(例えば既存のまたはシード)フィルタ106の偽陽性(例えば誤ってジャンクとラベル付けされた非ジャンクメッセージなど)率および偽陰性(例えば誤って非ジャンクとラベル付けされたジャンクメッセージなど)率を決定する。同じデータを使用して、新しい(例えば第2の)フィルタ108を学習(または「訓練」)する。このデータは、閾値に応じて、第2のフィルタの偽陽性率および偽陰性率の決定に関しても使用される。評価データは第2のフィルタの訓練に使用されるものと同じであるため、以下で詳述するように、クロス確認(cross-validation)手法が使用されることが好ましい。クロス確認は、当業者にはよく知られている技術である。第2の組のデータが少なくとも第1の組と同程度に良いと決定されると、第2のフィルタ108が実行可能になる。次いで、率比較プロセスが、現在より良いフィルタリング効用を有している第1のフィルタ106にフィルタリングを戻すべきであることを決定するまで、制御構成要素104はすべての受信メッセージを第2のフィルタ108に経路指定する。
本発明の特定の一態様は、2つの前提に依存する。第1の前提は、第1の確認(例えばユーザ訂正など)がエラーを含んでいない(例えばユーザは非ジャンクのメッセージをジャンクとして削除しない)ことである。この前提に基づいて、データラベルは、常に正しいとは限らないが、少なくとも第1のフィルタ106によって割り当てられたラベルと同程度に「正しい」。したがって、こうしたラベルに従って第2のフィルタ108が既存のフィルタに劣らないほどの有用性を有している場合、第2のフィルタ108の真の期待効用は、第1のフィルタ106のものに劣らないはずである。第2の前提は、より低い偽陽性率および偽陰性率が望まれることである。こうした前提によれば、第2のフィルタ108の両方のエラー率が第1のフィルタ106のものより大きくない場合、第2のフィルタ108は、ユーザの特定の効用関数に関係なく、第1のフィルタ106としてのジャンク検出に関して、少なくとも第1のフィルタと同程度に良い。
第2のフィルタ108が常に第1のフィルタと同程度に効率的であるとは限らない1つの理由は、第2のフィルタが第1のフィルタ106より少ないデータに基づいているからである。第1のフィルタ106は、他のユーザのデータから生成されたシードデータを有している「シード」フィルタとすることができる。実質的に、ユーザがフィルタを構成する必要なく一般のジャンクEメールメッセージを識別するフィルタ構成がユーザに提供されるように、全部ではないがほとんどの適応型フィルタがシードフィルタを備えて出荷されている。このことは、経験の浅いコンピュータユーザに良い「びっくり箱」の経験を提供する。第2のフィルタ108が常に第1のフィルタ106と同程度に効率的であるとは限らない別の理由は、より複雑だからである。これは、フィルタは完璧ではない、また校正されない場合があるという2つの事実に依存している。次にこれらの事実について説明し、次いで第2のフィルタ108がより良いかどうかを決定する問題に戻る。
次に図2を参照すると、キャッチ率(1マイナス偽陰性率に等しい、正しくラベル付けされたスパムの割合)、および偽陽性率(非ジャンクとラベル付けされたジャンクの割合)に関しての性能のトレードオフのグラフを示している。本明細書で示し、当業者にも理解できるように、フィルタは完璧ではない。したがって、より多いジャンクメッセージを識別し、キャッチすることと、非ジャンクメッセージをジャンクとして誤って間違ったラベルを貼ることとの間にトレードオフがある。この性能のトレードオフ(本明細書では精度率とも呼ぶ)は、受信者動作曲線(ROC)200として知られているもので示している。曲線上の各点は異なるトレードオフに対応している。ユーザが確率閾値を調整することによってフィルタの「動作点」を選択するか、確率閾値が予め設定されていてもよい。メッセージがジャンクである(フィルタによってみなされた)確率pがこの閾値を超えるとき、メッセージはジャンクとラベル付けされる。したがって、ユーザが精度率が高い(例えば正しくラベル付けされたメッセージの数に対して偽陽性の数が低いなど)体制で動作することを決定した場合、曲線200上の動作点は原点に近づく。例えば、ユーザがROC200上の動作点Aを選択した場合、偽陽性率は約0.0007であり、正しくラベル付けされたメッセージの数の対応するy軸値は約0.45である。ユーザは、端数を切り捨てたフィルタ精度率0.45/0.0007=643、つまり正しくラベル付けされた約643個のメッセージごとに1つの偽陽性メッセージを有する。一方、動作点が点Bである場合、約0.72/0.01=72でより低い精度率が算出される。すなわち、正しくラベル付けされた約72個のメッセージごとに1つの偽陽性がある。
異なるユーザがそれぞれに固有の選好の組に関してこうしたトレードオフを異なるように作り出す。決定理論の言葉で言えば、異なる人間はジャンクメッセージのフィルタリングに関して異なる効用関数を有する。例えば、あるクラスのユーザは、非ジャンクメッセージの誤ったラベリング、およびN個のジャンクメッセージをキャッチできないことに無頓着であり得る。このクラスのユーザの場合、ジャンクの最適な確率閾値(p*)は、次の関係を介して定義することができる。
Figure 2006514371
式中、Nはメッセージの数であり、Nはクラスごとのユーザ間で異なり得る。
したがって、このクラスのユーザは「p効用関数」を有すると言われる。このことを了解した上で、ユーザがp効用関数を有しており、第2のフィルタが校正される場合、最適な閾値は、自動的に選択することができる。つまり、閾値はpに設定されるはずである。別のクラスのユーザは、ジャンクとラベル付けされた非ジャンクEメールをX%以下にしたい可能性がある。こうしたユーザの場合、最適な閾値は、第2のフィルタ108がメッセージに割り当てる確率の分布によって決まる。
第2の概念は、フィルタを校正することができる場合もできない場合もあることである。校正されたフィルタは、1組のEメールメッセージがジャンクであることを確率pで決定するとき、こうしたメッセージのpがジャンクであるという性質を有する。多くの機械学習方法は、ユーザが既存のフィルタの誤りをきちんと修正することを前提に、校正されたフィルタを生成する。ユーザが誤りを時々(例えば80%未満)しか訂正しない場合、フィルタは校正されない可能性がある。こうしたフィルタは、誤ったラベルを基準にして校正され、真のラベルを基準にしては校正されない。一方、本発明は、ユーザの効用関数、およびユーザが既存のフィルタ106の誤りをきちんと訂正したかどうかに関係なく、(何らかの確率以内で)第2のフィルタ108が第1のフィルタ106以上の有用性をユーザに提供することを保証する第2のフィルタ108の閾値があるかどうか(およびその閾値が何であるか)を決定する手段を提供する。
次に図3を参照すると、本発明の一態様によるプロセスのフロー図を示している。説明を簡潔にするために、方法を一連の動作として示し、説明しているが、一部の動作は、本発明によれば、本明細書に示し説明したものとは異なる順序で、かつ/または他の動作と同時に行うことができるため、本発明は動作の順序によって限定されないことを了解され、理解されたい。例えば、方法を、代わりに相互に関係のある一連の状態またはイベントとして、例えば状態図などで表すことができることを当業者であれば了解され、理解されよう。さらに、本発明による方法を実施するのに示したすべての動作が必要であるとは限らない。
基本的な手法は2つの前提に依存する。1つの前提は、ユーザ訂正がエラーを含んでいないことである(エラーの一例は、ユーザがジャンクではないメッセージをジャンクとして削除したときなどである)。こうした前提に基づいて、データ上のラベルは、常に正しいとは限らないが、少なくとも第1の/シードフィルタによって割り当てられたラベルと同程度に「正しい」。したがって、これらのラベルに従って第2のフィルタが第1のフィルタに劣らないほどの有用性を有している場合、第2のフィルタの真の期待効用は、第1のフィルタのものに劣らない。第2の前提は、すべてのユーザがより低い偽陽性率および偽陰性率を好むということである。この前提に基づいて、第2のフィルタの両方のエラー率が第1のフィルタのものより高くない場合、ユーザの特定の効用関数に関係なく、第2のフィルタは第1のフィルタに劣らない。
300で、第1および第2のフィルタに(例えば設定を変更し、一般にフィルタのセットアップおよび構成を制御するために)それとインターフェースする手段が提供される。302で、第1のフィルタは、1つまたは複数のフィルタ設定に従って受信メッセージを自動的にフィルタ処理するように構成される。設定は、製造業者によって提供されるデフォルトの設定を含み得る。フィルタ処理されたメッセージが(例えばインボックスなどに)受信されると、304で、メッセージが調べられ、(例えばユーザ訂正方法を介して)どの非ジャンクメッセージが誤ってジャンクとタグ付けされた(例えば偽陽性)か、またどのジャンクメッセージがジャンクとしてタグ付けされていない(偽陰性)かに関する決定が行われる。304で、ユーザ訂正機能は、偽陰性メッセージを明示的または暗黙的にジャンクメールとしてタグ付けし、偽陽性メッセージの非ジャンクとしてのタグを削除することによって実行することができる。こうしたユーザ訂正機能は、その偽陽性率データおよび偽陰性率データの決定を介して第1のフィルタの精度率を提供する。308で、第2のフィルタは、第1のフィルタ106のユーザ訂正済みデータに従って訓練される。次いで310に示すように、同じデータを使用して、閾値に応じて第2のフィルタの偽陽性率および偽陰性率が決定される。312で、閾値が決定される。関連の偽陽性率および偽陰性率が第1のフィルタのこうした率より低い(何らかの妥当な確率以内)ように、第2のフィルタの閾値が存在するかどうかに関する決定が行われる。つまり、314に示すように、第2のフィルタの精度率(精度SF)が第1のフィルタの精度率(精度FF)より良いかどうかを決定するためである。YESの場合、316に示すように、適切な閾値が選択され、受信メッセージをフィルタ処理するために第2のフィルタが配置される。NOの場合、プロセスは318に進み、第1のフィルタが受信メッセージのフィルタリングを行うように保持される。このプロセスは、必要に応じて上記の動作を動的に繰り返す。
精度分析プロセスは、ユーザ訂正機能が行われるたびに行うことができ、したがって閾値の決定に基づいていつでも第2のフィルタを使用し、または非稼働にすることができる。第1のフィルタの評価データは、第2のフィルタの訓練に使用されるものと同じであるため、クロス確認手法が使用される。つまり、データは、ユーザ訂正プロセスごとにk(kは整数)個のバケット(bucket)にセグメント化され、バケットごとに、第2のフィルタは、他のk−1個のバケットのデータを使用して訓練される。次いでk−1個のバケットから選択された1個のバケットについて第2のフィルタの性能(または精度)が評価される。別の可能性は、それぞれジャンクラベルおよび非ジャンクラベル付きのN1およびN2のメッセージが蓄積(例えばN1=N2=1000)されるまで待ち、次いでN3およびN4の追加のジャンクメッセージおよび非ジャンクメッセージが蓄積(例えばN3=N4=100)されるたびに再度実行することである。別の選択肢は、こうしたプロセスをカレンダー時間に基づいてスケジュールすることである。
第2のフィルタを第1のフィルタに劣らないようにする閾値が複数ある場合、どの閾値を使用すべきかを選択するための選択肢がいくつか存在する。1つの選択肢は、ユーザがp効用関数を有するという前提に基づいてユーザの期待効用を最大にする閾値を選択することである。別の選択肢は、最も低い偽陽性率の閾値を選択することである。さらに別の選択肢は、対象となる閾値の範囲の中間点を選択することである。
測定されたエラー率の不確実性に対応して、k1およびk2がそれぞれ第1のフィルタおよび第2のフィルタからの非ジャンク(またはジャンク)の誤ったラベルを貼ったエラーの数と仮定する。簡単な統計分析は、
Figure 2006514371
の場合、(例えばf=2x=97.5の場合、f=0、x=50の場合など)第2のフィルタのエラー率が第1のフィルタに劣らないことを約x%の確信が持てると断定することができることを示している。控えめにするために、k1またはk2がゼロに等しい場合、1の値を平方根(sqrt)の項で使用すべきである。xは保守的な調整であり、xが100に近い場合、第2のフィルタが第2のフィルタを配置する前の第1のフィルタより良いという確実性が高いはずであることに留意されたい。この確実性(または不確実性)の計算は、第1のフィルタと第2のフィルタとの間のエラーが独立しているという前提を含む。この前提を回避する1つの手法は、共通のエラーの数、つまり独立性の前提に基づいて存在するエラーの数を評価することである。この数よりk個多いエラーが見つかった場合、上記の計算においてk1およびk2を(k1−k)および(k2−k)と置き換える。さらに、訓練データ内のメッセージの数が増えるにつれて、第2のフィルタが(任意の閾値で)第1のフィルタより正確である可能性が高くなる。上記の不確実性の推定値は、こうした「予備的知識」を無視する。この予備的知識を不確実性の推定値に組み込むための理に適った方法があることをベイズ確率/統計に精通している当業者であれば理解されよう。
基本的な手法の一態様では、ジャンクメッセージが第1のフィルタによって非ジャンクとしてラベル付けされると仮定する。さらに、ユーザはこの誤りを訂正せず、そのためシステムは、デフォルトではこのメッセージをジャンクではないと決定すると仮定する。より正確な訓練データを有する第2のフィルタは、このメッセージにジャンクとラベル付けし得る。その結果、第1のフィルタの偽陽性率は実際より低く評価されたことになり、第2のフィルタの偽陽性率は実際より高く評価されたことになる。この結果は、ほとんどのジャンクEメールフィルタは、偽陽性率を低く保つために多くのジャンクメッセージが非ジャンクとラベル付けされる閾値で動作するという事実によって増幅される。
基本的な手法のこの態様に取り組むために組み合わせて使用することができるいくつかの手法がある。第1の手法は、ユーザが例えばN=20のp効用関数を有しており、第2のフィルタを第1のフィルタに劣らないようにする閾値を見つけることができるたびに第2のフィルタを配置すると仮定することである。ここでは、例えば第2のフィルタの偽陽性率が第1のフィルタのものより大きい場合でさえ、第2のフィルタを配置することができる。つまり、この手法では、第2のフィルタが配置される可能性が高い。
第2の手法は、非ジャンクとラベル付けされたメッセージが実際に高い確実性でジャンクではないとわかっているものであるように、テストセットを制限することである。例えば、テストセットは、ユーザが「非ジャンク」ボタンを選択することによってラベル付けされたメッセージ、読まれ、削除されていないメッセージ、転送されたメッセージ、およびユーザが返信したメッセージのみを含む。
第3の手法は、第2のフィルタの偽陽性率のより良い推定値を生成するために、システムが校正されたフィルタ(例えば第1のフィルタ)によって生成された確率を使用することができることである。つまり、データ内の非ジャンクラベルおよび第1のフィルタのジャンクラベルの付いたメッセージの数を単に数えるのではなく、システムは、こうした各メッセージが正常(非ジャンク)である(校正されたフィルタによる)確率を合計することができる。この合計はその数より少なくなり、ユーザがすべてのメッセージを完全に訂正していれば、数のより良い推定値となる。
かなり簡単な第4の手法では、ユーザが「非ジャンク」および「ジャンク」のボタンを使用してラベルを訂正する期待回数が監視される。ここでは、校正されるのがわかっているフィルタ(例えば第1/シードフィルタ)に関して予想が得られる。実際の訂正数が期待数(絶対数または割合)を下回る場合、システムは第2のフィルタを訓練しない。
実際には、ユーザインターフェースは、複数の閾値を提供する場合があり、ユーザはそこから1つを選択することができる。この状況で、新しいフィルタは、ユーザによって選択された閾値でシードフィルタより良い場合のみ配置される。しかし、さらに、新しいフィルタが他の閾値設定、特にユーザの現在の選択に近い設定でシードフィルタより良いことが望ましい。次のアルゴリズムは、この手法を容易にするこうした方法の1つである。例えば、デフォルト値0.25の実数であるSliderHalfLife(SHL)と呼ばれるパラメータを入力する。閾値ごとに、新しいフィルタが第1のフィルタと同等以上かどうかを決定する。次いで現在選択されている閾値を使用する。しかし、新しいフィルタが現行の閾値設定で第1/シードフィルタより良く、次に記載するTotalWeight値(w)がゼロ以上である場合は切り替える。最初は、TotalWeight=0である。非現行の閾値設定ごとに
\\現行の設定からのその距離に基づいてそれぞれ重みを割り当てる
Figure 2006514371
d=距離
IS=設定のインデックス
ICS=現行の設定のインデックス
IMAX=最大設定のインデックス
IMIN=最小設定のインデックス
w=.5(d/SHL)
この設定で新しいフィルタがより良い場合、その重みをTotalWeightに追加する。そうでない場合、その重みをTotalWeightから差し引く。
このアルゴリズムは、各閾値設定で新しいフィルタがより良いかどうかを決定するだけであることに留意されたい。第1の/シードフィルタと比べて新しいフィルタがどれだけ良いか悪いかを考慮に入れない。このアルゴリズムは、新しいおよび古い偽陰性率、偽陽性率、偽陰性の数および/または偽陽性の数の関数を使用して、上げ下げの度合いを考慮に入れるように変更することができる。
次に図4aを参照すると、ユーザに提示することができるユーザインターフェース400の例を、本明細書に開示した適応型ジャンクフィルタシステムおよびユーザメールボックスの基本的な構成について示している。インターフェース400は、それだけには限定されないが、File、Edit、View、Sign Out、Help&Settingsのドロップダウンメニューの見出しを含むメニューバー402を備えるジャンクメールページ(またはウィンドウ)401を含む。また、ウィンドウ401は、ユーザが、Home、Favorites、Search、Mail&More、Messenger、Entertainment、Money、Shopping、People&Chat、Learning、およびPhotosを含めて、インターフェース400の他のページ、ツール、および機能にナビゲートできるように、ナビゲーションの前進および戻りを容易にするリンクバー404も含む。メニューバー406は、ジャンクEメール構成ウィンドウ401の1つまたは複数の構成ウィンドウの選択を容易にする。示したように、設定サブウィンドウ408は、ユーザがジャンクEメールのフィルタリングのいくつかの基本的な構成オプションを選択できるようにする。第1のオプション410は、ユーザがジャンクEメールのフィルタリングを実行可能にできるようにする。ユーザは、様々なレベルのEメール保護を選択することを選択することもできる。例えば、第2のオプション412は、ユーザが、最も明白なジャンクメールのみをキャッチするデフォルトのフィルタ設定を選択できるようにする。第3のオプション414は、より多くのジャンクEメールがキャッチされ、破棄されるように、ユーザがより高度なフィルタリングを選択できるようにする。第4のオプション416は、信頼されている相手、例えばユーザのアドレス帳および安全リストに列挙されている相手からのEメールのみの受信をユーザが選択することができる。関連設定エリア418は、ジャンクメールフィルタ、安全リスト、メーリングリスト、および送信者のブロックリスト(Block Sender List)を含めて、こうした列挙されているエリアにナビゲートする手段を提供する。
次に図4bを参照すると、ユーザメールボックスの特徴を示すユーザインターフェース400のユーザメールボックスウィンドウ420を示している。メールボックスウィンドウ420は、それだけには限定されないが、File、Edit、View、Sign Out、Help&Settingsのドロップダウンメニューの見出しを含むメニューバー402を含む。また、メールボックスウィンドウ420は、ユーザが、Home、Favorites、Search、Mail&More、Messenger、Entertainment、Money、Shopping、People&Chat、Learning、およびPhotosを含めて、インターフェース400の他のページ、ツール、および機能にナビゲートできるように、ナビゲーションの前進および戻りを容易にするリンクバー404も含む。また、ウィンドウ420は、ユーザが新しいメッセージを作成できるようにするWrite Message選択、メッセージを削除するDeleteオプション、メッセージをジャンクとしてタグ付けするJunkオプション、メッセージに返信するReplyオプション、メッセージを異なるフォルダに移動させるPut in Folderオプション、およびメッセージを転送する転送アイコンを含むEメール制御ツールバー422も含む。
ウィンドウ420は、ユーザにInboxフォルダ、Trash Canフォルダ、およびJunk Mailフォルダの内容を表示するために選択するオプションを提供するフォルダ選択サブウィンドウ424も含む。ユーザは、Stored Messagesフォルダ、Outboxフォルダ、Sent Messagesフォルダ、Trash Canフォルダ、Draftsフォルダ、Demo programフォルダ、Old Junk Mailフォルダなど、様々なフォルダの内容にアクセスすることもできる。Junk MailフォルダおよびOld Junk Mailフォルダのそれぞれの中のメッセージの数は、それぞれのフォルダ名の隣にも列挙される。メッセージリストサブウィンドウ426では、フォルダ選択サブウィンドウ424内のフォルダ選択に従って、受信したメッセージのリストが提示される。メッセージプレビューサブウィンドウ428では、選択されたメッセージの内容の一部がプレビューのためにユーザに提示される。ウィンドウ420は、ユーザ選好サブウィンドウ(図示せず)に提示されるユーザの選好情報を含むように変更することができる。選好サブウィンドウは、図4aに示すように、ウィンドウ420例の右側の一部に含めることができる。これは、それだけには限定されないが、天気情報、株式市場情報、お気に入りのWebサイトのリンクなどを含む。
インターフェース400例は、示されているものに限定されず、ユーザがフィルタ選択を行うのをさらに助け、Eメールフィルタの構成に必要ではないインターフェースの他のページにナビゲートするために実装することができる他の従来のグラフ、画像、説明文、メニューオプションなどを含むことができる。
次に図5を参照すると、開示されたフィルタリング技術を使用するアーキテクチャの概略図を示している。1つまたは複数のクライアント502、504、および506(クライアント、クライアント、...クライアントとも呼ぶ)との間のEメールの通信を容易にするネットワーク500が提供されている。ネットワーク500は、インターネットまたはWAN(広域ネットワーク)などのグローバル通信ネットワーク(GCN)、LAN(ローカルエリアネットワーク)、または他の任意のネットワークアーキテクチャとすることができる。この特定の実装形態では、SMTP(Simple Mail Transport Protocol)ゲートウェイサーバ508は、SMTPサービスをLAN510に提供するためにネットワーク500とインターフェースする。LAN510に動作可能に配置されているEメールサーバ512は、ゲートウェイ508とインターフェースして、クライアント502、504、および506の受信Eメールおよび発信Eメールを制御し、処理する。クライアント502、504、および506も、少なくともそこに備えられているメールサーバにアクセスするように、LAN510に配置されている。
クライアント502は、クライアント処理を制御する中央処理装置(CPU)514を含む。CPU514が複数のプロセッサを含むことができることを理解されたい。CPU514は、上記に記載した1つまたは複数のフィルタリング機能のうちの任意のものを提供することに関する命令を実行する。命令は、それだけには限定されないが、少なくとも上記の基本的な手法のフィルタリング方法を実行する符号化された命令、それとともに使用することができ、ユーザがユーザ訂正を行わないことに対処するための手法の少なくともいずれかまたはすべて、不確実性の決定、閾値の決定、偽陽性率データおよび偽陰性率データを使用した精度率の計算、およびユーザの対話性の選択を含む。ユーザが対話してフィルタ設定を構成したり、Eメールにアクセスしたりすることができるように、CPU514およびクライアントオペレーティングシステムとの通信を容易にするためにユーザインターフェース518が提供される。
クライアント502は、上記に示したフィルタの説明に従って動作可能な少なくとも第1のフィルタ520(第1のフィルタ106と類似)および第2のフィルタ522(第2のフィルタ108と類似)も含む。クライアント502は、フィルタ処理されたEメールであり、適切にタグ付けされたEメールであると予想されるメッセージを第1のフィルタ520および第2のフィルタ522のうちの少なくとも一方から受信するEメールインボックス格納場所(またはフォルダ)524も含む。第2のEメール格納場所(またはフォルダ)526は、ユーザがジャンクメールであると決定し、そこに格納することを選択したジャンクメールを収納するために提供されるが、これはゴミ箱フォルダでもよい。上述したように、インボックスフォルダ524は、受信Eメールの同等以上のフィルタリングを提供するために第1のフィルタ520より第2のフィルタ522が使用されたかどうかに応じて第1のフィルタ520または第2のフィルタ522のいずれかによってフィルタ処理されたEメールを含むことができる。
ユーザがEメールサーバ512からEメールを受信すると、ユーザは、次いでインボックスフォルダ524のEメールを詳細に調べて、フィルタ処理されたインボックスのEメールメッセージの実際の状況を読み取り、決定する。ジャンクEメールが第1のフィルタ520を通過した場合、ユーザは、メッセージが実際にジャンクEメールであったことをシステムに知らせるユーザ訂正機能を明示的または暗黙的に実行する。次いで第1および第2のフィルタ(520および522)は、このユーザ訂正データに基づいて訓練される。第2のフィルタ522の精度率が第1のフィルタ520より良いと決定されると、同等以上のフィルタリングを提供するために、第2のフィルタ522が第1のフィルタ520の代わりに使用される。上述したように、第2のフィルタ522の精度率が第1のフィルタ520と実質的に等しい場合、第2のフィルタ522を使用してもしなくても良い。フィルタ訓練は、上述したように、予め決定されているいくつかの基準に従って行われるように、ユーザ選択とすることができる。
次に図6を参照すると、本発明のフィルタリング技術に従って、複数ユーザのログインを容易にし、受信メッセージをフィルタ処理する1つまたは複数のクライアントコンピュータ602を有するシステム600を示している。クライアント602は、第1のフィルタ604および第2のフィルタ606がそれぞれコンピュータ602にログインする異なるユーザごとにメッセージのフィルタリングを提供するように、複数のログイン機能を含む。したがって、コンピュータオペレーティングシステムの起動プロセスの一部としてログイン画面を提示する、または必要に応じて、ユーザが各自の受信メッセージにアクセスできる前に関連のユーザプロフィールを連動させるためのユーザインターフェース608が提供される。したがって、第1のユーザ610(ユーザとも呼ぶ)は、メッセージにアクセスすることを選択したとき、一般にユーザ名およびユーザパスワードの形でアクセス情報を入力することによって、ユーザインターフェース608のログイン画面612を介してクライアントコンピュータ602にログインする。CPU514は、メッセージ通信アプリケーション(例えばメールクライアントなど)を介して、第1のユーザインボックス場所614(ユーザインボックスとも呼ぶ)、および第1のユーザジャンクメッセージ場所616(ユーザジャンクメッセージとも呼ぶ)のみへの第1のユーザアクセスを可能にするアクセス情報を処理する。
CPU514がユーザログインアクセス情報を受信すると、CPU514は、クライアントコンピュータ602にダウンロードすることができる受信メッセージをフィルタ処理する第1のフィルタ604および第2のフィルタ606を使用するための第1のユーザフィルタ選好情報にアクセスする。コンピュータにログインすることができるすべてのユーザ(ユーザ、ユーザ、...ユーザ)のフィルタ選好情報は、フィルタ選好テーブルにローカルに格納することができる。第1のユーザがコンピュータ602にログインしたとき、または関連の第1のユーザプロフィールを連動させたとき、フィルタ選好情報は、CPU514によってアクセス可能である。したがって、第1のユーザ610の第1および第2のフィルタ(604および606)についての偽陰性率データおよび偽陽性率データが、ダウンロードされるメッセージのフィルタリングのために、第1のフィルタ604または第2のフィルタのいずれかを連動させるよう処理される。開示した本発明に従って本明細書に上述したように、偽陰性率データおよび偽陽性率データは、少なくともユーザ訂正プロセスから導出される。第1のユーザ610がメッセージをダウンロードすると、偽陰性率データおよび偽陽性率データを、誤ってタグ付けされたメッセージに従って更新することができる。次いで、別のユーザがコンピュータ602にログインする前のある時点で、第1のユーザの更新された率データが、将来の参照のためにフィルタ選好テーブルに格納される。
第2のユーザ618がログインすると、偽陰性率データおよび偽陽性率データは、それに関連付けられているフィルタリング選好に従って変わり得る。第2のユーザ618がそのログイン情報を入力した後、CPU514は、第2のユーザフィルタ選好情報にアクセスし、それに応じて第1のフィルタ604または第2のフィルタ606のいずれかを連動させる。コンピュータオペレーティングシステムは、コンピュータメッセージングアプリケーションとともに、第2のユーザ618のメッセージングサービスを、第2のユーザインボックス620(ユーザインボックスとも呼ぶ)および第2のユーザジャンクメッセージ場所622(ユーザジャンクメッセージとも呼ぶ)のみにアクセスするよう制限する。第2のユーザ618の第1および第2のフィルタ(604および606)についての偽陰性率データおよび偽陽性率データが、ダウンロードされる第2のユーザ618のメッセージのフィルタリングのために、第1のフィルタ604または第2のフィルタ606のいずれかを連動させるよう処理される。開示した本発明に従って本明細書に上述したように、偽陰性率データおよび偽陽性率データは、少なくともユーザ訂正プロセスから導出される。第2のユーザ618がメッセージをダウンロードすると、偽陰性率データおよび偽陽性率データを、誤ってタグ付けされたメッセージに従って更新することができる。
ユーザとも呼ぶN番目のユーザ624の動作が、第1および第2のユーザ(610および618)のものと同じように提供される。他のすべてのユーザと同様に、N番目のユーザ624は、N番目のユーザ624に関連付けられているユーザ情報のみに限定され、したがって、メッセージングアプリケーションを使用しているとき、ユーザインボックス626およびユーザジャンクメッセージ場所628のみにアクセスすることができ、他のインボックス(614および620)およびジャンクメッセージ場所(616および622)にはアクセスできない。
コンピュータ602は、クライアントネットワークインターフェース630を使用することによって、LAN510上の他のクライアントと通信し、そこに配置されるネットワークサービスにアクセスするように適切に構成される。したがって、SMTP(またはメッセージ)ゲートウェイ508からのメッセージを受信し、クライアント(602および632(クライアントとも呼ぶ))、およびLAN510を介してメッセージをメッセージサーバ512に伝えるよう動作可能な他の任意の有線または無線装置の受信メッセージおよび発信メッセージを制御し、処理するためのメッセージサーバ512が提供されている。クライアント(602および632)は、そこに備えられている少なくともメッセージサービスにアクセスするためにLAN510と動作可能に通信するように配置される。SMTPゲートウェイ508は、GCN500とインターフェースして、GCN500のネットワーク装置とLAN510上のメッセージングエンティティとの間に互換性のあるSMTPメッセージングサービスを提供する。
上述したように、率データの平均を使用して、フィルタ(604および606)の使用の最高平均設定値を決定することができることを理解されたい。同様に、コンピュータ602にログインすることができるユーザの最高率データを使用して、そこにログインするすべてのユーザのフィルタを構成することもできる。
次に図7を参照すると、最初のフィルタリングがメッセージサーバ702上で行われ、二次的フィルタリングが1つまたは複数のクライアント上で行われるシステム700を示している。1つまたは複数のクライアント(704、706、および708)(クライアント、クライアント、...クライアントとも呼ぶ)との間のメッセージ(Eメールなど)の通信を容易にするGCN500が提供されている。SMTPゲートウェイサーバ508は、GCN500とインターフェースして、GCN500のネットワーク装置とLAN510上のメッセージングエンティティとの間に互換性のあるSMTPメッセージングサービスを提供する。
メッセージサーバ702は、LAN510上に動作可能に配置されており、ゲートウェイ508とインターフェースして、クライアント704、706、708、およびLAN510を介してメッセージをメッセージサーバ702に伝えるよう動作可能な他の任意の有線または無線装置の受信メッセージおよび発信メッセージを制御し、処理する。クライアント(704、706、708)(例えば有線または無線の装置)は、そこに備えられている少なくともメッセージサービスにアクセスするためにLAN510と動作可能に通信するように配置される。
本発明の一態様によれば、メッセージサーバ702は、第1のフィルタ710(第1のフィルタ106と類似)を使用することによって最初のフィルタリングを実行し、クライアントは、第2のフィルタ712(第2のフィルタ108と類似)を使用して二次的フィルタリングを実行する。したがって、第1のフィルタ710がメッセージがジャンクメッセージであるか非ジャンクメッセージであるかを決定するためにそれらを処理する間、受信メッセージは、ゲートウェイ508からメッセージサーバ702の受信メッセージバッファ714に受信されて一時的に格納される。バッファ714は、すべてのメッセージが先着順ベースで処理されるように、簡単なFIFO(先入れ先出し)アーキテクチャとすることができる。しかし、メッセージサーバ702は、タグ付きプロパティに従ってバッファに入れられたメッセージをフィルタ処理することができることは理解できよう。したがって、送信者によって優先順位が高いタグが付けられたメッセージが、優先順位が低いタグが付けられた他のメッセージの前にバッファ714から転送されてフィルタ処理されるように、バッファ714は、メッセージの優先順位を提供するように適切に構成される。プロパティのタグ付けは、それだけには限定されないが、メッセージのサイズ、メッセージが送信された日付、メッセージに添付があるかどうか、添付のサイズ、メッセージはバッファ714内にどのぐらいの期間あるかなどを含めて、送信者の優先順位タグに関連のない他の基準を基にすることができる。
第1のフィルタ710の偽陽性率データおよび偽陰性率データを開発するために、管理者は、第1のフィルタ710の出力をサンプリングして、どれだけ多くの正常なメッセージが誤ってジャンクとラベル付けされているか、どれだけ多くのジャンクメッセージが誤って正常とラベル付けされているかを決定することができる。本発明の一態様に従って本明細書に上述したように、次いで第1のフィルタ710のこの率データは、第2のフィルタ712の新しい偽陽性率データおよび偽陰性率データを決定する基礎として使用される。
どんな場合でも、第1のフィルタ710がメッセージをフィルタ処理すると、メッセージはサーバ702からサーバネットワークインターフェース716を通ってネットワーク510を横切り、クライアント宛先IPアドレスに基づいて適切なクライアント(例えば第1のクライアント704)に経路指定される。第1のクライアント704は、すべてのクライアントプロセスを制御するCPU514を含む。CPU514は、メッセージサーバ702と通信して第1のフィルタ710の偽陽性率データおよび偽陰性率データを取得し、第2のフィルタ712を使用すべきときを決定するために、第2のフィルタ712の偽陽性率データおよび偽陰性率データとの比較を行う。比較の結果が第2のフィルタ率データが第1のフィルタ710の率データより劣らないというような場合、第2のフィルタ712が使用され、CPU514は、メッセージサーバ702と通信して、第1のクライアント704向けのメッセージがフィルタ処理されずにサーバ702を通過できるようにする。
第1のクライアント704のユーザが受信メッセージを調べ、ユーザ訂正を行うと、第2のフィルタ712の新しい偽陽性率データおよび偽陰性率データが更新される。新しい率データが第1の率データより悪くなった場合、第1のフィルタ710が第1のクライアント704のフィルタリングを提供するために再度使用される。CPU514は、その特定のクライアント704について第1のフィルタと第2のフィルタ(710および712)との間でフィルタリングをいつ切り替えるかを決定するために、引き続き率データ比較を行う。
CPU514は、本明細書に記載した1つまたは複数のフィルタリング機能のうちの任意のものを提供する命令に従って動作可能なアルゴリズムを実行する。アルゴリズムは、それだけには限定されないが、少なくとも上記の基本的な手法のフィルタリング方法を実行する符号化された命令、それとともに使用することができ、ユーザがユーザ訂正を行わないことに対処するための手法の少なくともいずれかまたはすべて、不確実性の決定、閾値の決定、偽陽性率データおよび偽陰性率データを使用した精度率の計算、およびユーザの対話性の選択を含む。ユーザが対話してフィルタ設定を構成したり、メッセージにアクセスしたりすることができるように、CPU514およびクライアントオペレーティングシステムとの通信を容易にするためにユーザインターフェース518が提供される。
クライアント502は、少なくとも上記に示したフィルタの説明に従って動作可能な第2のフィルタ712も含む。クライアント502は、フィルタ処理されたメッセージであり、適切にタグ付けされたメッセージであると予想されるメッセージを第1のフィルタ710および第2のフィルタ712のうちの少なくとも一方から受信するメッセージインボックス格納場所(またはフォルダ)524も含む。第2のメッセージ格納場所(またはフォルダ)526は、ユーザがジャンクメールであると決定し、そこに格納することを選択したジャンクメールを収納するために提供されるが、これはゴミ箱フォルダでもよい。上述したように、インボックスフォルダ524は、受信メッセージの同等以上のフィルタリングを提供するために第1のフィルタ710より第2のフィルタ712が使用されたかどうかに応じて第1のフィルタ710または第2のフィルタ712のいずれかによってフィルタ処理されたメッセージを含むことができる。
上述したように、ユーザは、メッセージをメッセージサーバ702からダウンロードすると、インボックスフォルダ524のメッセージを詳細に調べて、フィルタ処理されたインボックスメッセージの実際の状況を読み取り、決定する。ジャンクメッセージが第1のフィルタ710を通過した場合、ユーザは、メッセージが実際にジャンクメッセージであったことをシステムに知らせるユーザ訂正機能を明示的または暗黙的に実行する。次いで第1および第2のフィルタ(710および712)は、このユーザ訂正データに基づいて訓練される。第2のフィルタ712の精度率が第1のフィルタ710より良いと決定されると、同等以上のフィルタリングを提供するために、第2のフィルタ712が第1のフィルタ710の代わりに使用される。また、第2のフィルタ712の精度率が第1のフィルタ710と実質的に等しい場合、第2のフィルタを使用してもしなくても良い。フィルタ訓練は、上述したように、予め決定されているいくつかの基準に従って行われるように、ユーザ選択とすることができる。
他のクライアント(706および708)がメッセージをフィルタ処理するためにメッセージサーバ702を使用するため、それぞれのクライアント(706および708)の新しい率データは、第1のフィルタ710のフィルタ動作に影響を与えることを理解されたい。したがって、それぞれのクライアント(706および708)は、メッセージサーバ702との通信も行い、これらのクライアント(706および708)の第2のフィルタのそれぞれの新しい率データに従って、第1のフィルタ710を使用可能または使用不可にする。メッセージサーバ702は、それぞれのクライアントフィルタ要件に関連するクライアント選好のフィルタ選好テーブルを含み得る。したがって、バッファに入れられたすべてのメッセージは、宛先IPアドレスについての問い合わせが行われ、フィルタテーブルに格納されているその宛先アドレスに関連付けられているフィルタ選好に従って処理される。したがって、第1のクライアント704向けにブロードキャストされたジャンクメッセージは、第1のクライアント704の率データ比較結果に従って、第1のクライアント704の第2のフィルタ712によって処理される必要があり、第2のクライアント706向けの同じジャンクメッセージも、それとともに取得された率データ比較の結果に従って、メッセージサーバ702の第1のフィルタ710によって処理される必要がある。
個々のクライアント(704、706、および708)の個々の新しい率データをサーバ702によって同時に受信し、その平均を決定するように処理することができることをさらに理解されたい。次いでこの平均値を使用して、クライアントの第1のフィルタ710または第2のフィルタ712を別々に、またはグループとして切り替えて使用するかどうかを決定することができる。あるいは、クライアント(704、706、および708)の最高の新しい率データをサーバ702によって決定し、別々にまたはグループとして第1のフィルタ710とクライアントフィルタ712との間で切り替えるために使用することができる。
次に図8を参照すると、本発明のフィルタリングの態様を使用する大規模なフィルタリングシステム800の代替の実施形態を示している。メッセージのフィルタリングが例えばインターネットサービスプロバイダなどシステム全般にわたるメールシステムによって大規模に行われるより頑強な実装では、複数のフィルタリングシステムを使用して、大量の受信メッセージを処理することができる。大量の受信メッセージ802が受信され、異なる多くのユーザの宛先にアドレス指定される。メッセージ802は、例えばSMTPゲートウェイ804を介してプロバイダシステムに入り、次いで様々なフィルタシステム808、810、および812に経路指定するシステムメッセージ経路指定構成要素806(それぞれフィルタシステム、フィルタシステム、...フィルタシステムとも呼ばれる)に送信される。
各フィルタシステム(808、810、および812)は、経路指定制御構成要素、第1のフィルタ、第2のフィルタ、および出力バッファを含む。したがって、フィルタシステム808は、第1のシステムフィルタ816と第2のシステムフィルタ818との間でメッセージを経路指定する経路指定制御構成要素814を含む。第1のフィルタおよび第2のフィルタ(816および818)の出力は、メッセージがユーザインボックス経路指定構成要素822に送信される前に一時的にメッセージを格納する出力バッファ820に接続される。ユーザインボックス経路指定構成要素822は、フィルタシステム808の出力バッファ820から受信された各メッセージに、ユーザ宛先アドレスについて問い合わせを行い、メッセージを複数のユーザインボックス824(インボックス、インボックス、...インボックスとも呼ぶ)の中の適切なユーザインボックスに経路指定する。
システムメッセージ経路指定構成要素806は、メッセージ処理に対応するフィルタシステム(808、810、および812)の帯域幅の可用性に従ってフィルタシステム(808、810、812)間でメッセージを経路指定するために、負荷バランシング機能を含む。したがって、第1のフィルタシステム808の受信メッセージキュー(図示してはいないが、経路指定構成要素814の一部)は、バックアップされ、システム800に必要なスループットに対応できない場合、このキューの状況情報は、システム814の受信キューが他のメッセージを受信できるようになるまで受信メッセージ802が他のフィルタシステム(810および812)に経路指定されるように、経路指定制御構成要素814からシステム経路指定構成要素806にフィードバックされる。残りのフィルタシステム(810および812)のそれぞれは、システム経路指定構成要素806が使用可能なすべてのフィルタシステム、フィルタシステム、フィルタシステム、...フィルタシステムの間のメッセージ負荷処理(message load handling)を処理することができるように、この受信キューフィードバック機能を含む。
次に、第1のシステムフィルタ808の適応型フィルタ機能について詳しく説明する。この特定のシステムの実装では、システム管理者は、タグ付け/非タグ付けメッセージを提供するためにフィルタの精度に関するフィードバックを提供することによって、システム800のジャンクメールを何が構成しているかを決定するのにタスクが課される。つまり、管理者は、それぞれのシステム(808、810、812)のそれぞれのFNおよびFP情報を生成するためにユーザ訂正を行う。受信メッセージが大量であるため、これは、何がジャンクメッセージで何が非ジャンクメッセージであるかを決定する際に、取得されたサンプルがそれぞれのフィルタシステム(808、810、812)によって実行されるフィルタリングの精度を反映する高度の確率を数学的に提供する統計的なサンプリング方法に従って行うことができる。
それを促進するのに、管理者は、システム制御構成要素826を介してバッファ820からメッセージのサンプルを取得し、サンプル上のメッセージのタグ付けの精度を確認する。システム制御構成要素826は、その監視および制御のためにフィルタシステム(808、810、812)に相互接続するハードウェアおよび/またはソフトウェア処理システムとすることができる。誤ってタグ付けされた任意のメッセージを使用して、第1のフィルタ816の偽陰性(FN)率データおよび偽陽性(FP)率データを設定する。次いでこのFN/FP率データを第2のフィルタ818で使用する。第1のフィルタ816の率データが閾値を下回る場合、第2のフィルタ818を使用可能にして、少なくとも第1のフィルタ816と同程度のフィルタリングを提供することができる。管理者がバッファ820から再度ユーザ訂正のサンプリングを行うとき、第2のフィルタ818のFN/FPデータが第1のフィルタ816のものより劣る場合、経路指定制御構成要素814は、第2のフィルタ818のこのFN/FPデータを処理し、メッセージ経路指定が第1のフィルタ816に戻されることを決定する。
システム制御構成要素826は、その間でデータを交換するためにシステムメッセージ経路指定構成要素806とインターフェースし、管理者によるその管理を提供する。また、システム制御構成要素826は、これらのシステムのサンプリング機能を提供するように、残りのシステム、フィルタシステム、...フィルタシステムの出力バッファとインターフェースする。管理者は、その動作を監視するために、システム制御構成要素826を介してユーザインボックス経路指定構成要素822にアクセスすることもできる。
図1を参照して上述したように、フィルタの精度を、複数のフィルタリングシステムの精度に拡大することができる。次いで第1のシステム808のFN/FP率データを使用して、第2のシステム810および第3のシステム812のフィルタを訓練して、システム800全体のフィルタリング機能をさらに向上させることができる。同様に、特定のシステムのFN/FPデータに従って負荷制御を実行することができる。つまり、第1のシステム808のFN/FPデータ全体が第2のシステム810のFN/FPデータより劣る場合、より多くのメッセージを第1のシステム808より第2のシステム810に経路指定することができる。
フィルタシステム(808、810、および812)を、それぞれ専用のコンピュータまたはコンピュータの組合せ上で稼働する個別のフィルタアルゴリズムとすることができることを理解されたい。あるいは、ハードウェア機能が存在する場合、すべてのフィルタリングが単一の頑強なマシン上で行われるように、アルゴリズムを単一のコンピュータ上でともに稼働させることができる。
次に図9を参照すると、開示されたアーキテクチャを実行するよう動作可能なコンピュータのブロック図を示している。本発明の様々な態様に関する状況をさらに提供するために、図9および次の説明は、本発明の様々な態様を実施するのに適した動作環境900の概略説明を提供するものである。本発明は、1つまたは複数のコンピュータ上で稼働し得るコンピュータ実行可能命令の一般的な文脈で説明してきたが、本発明を他のプログラムモジュールとの組合せで実施する、かつ/またはハードウェアおよびソフトウェアの組合せとして実施することもできることを当業者であれば理解されよう。一般にプログラムモジュールは、特定のタスクを実行し、または特定の抽象データ型を実装するルーチン、プログラム、構成要素、データ構造などを含む。さらに、本方法は、単一のプロセッサまたはマルチプロセッサのコンピュータシステム、ミニコンピュータ、メインフレームコンピュータ、パーソナルコンピュータ、ハンドヘルドコンピューティング装置、マイクロプロセッサベースおよびプログラム可能家庭用電化製品など、1つまたは複数の関連の装置に操作可能にそれぞれ結合することができる他のコンピュータシステム構成で実施できることを当業者であれば理解されよう。また、本発明の態様例は、いくつかのタスクが通信ネットワークによってリンクされているリモート処理装置によって実行される分散コンピューティング環境で実施することもできる。分散コンピューティング環境では、プログラムモジュールを、ローカルおよびリモートのメモリ記憶装置に置くことができる。
再度図9を参照すると、本発明の様々な態様を実施するための環境900例は、コンピュータ902を含んでおり、コンピュータ902は、処理ユニット904、システムメモリ906、システムバス908を含む。システムバス908は、それだけには限定されないが、システムメモリ906を含むシステム構成要素を処理ユニット904に結合する。処理ユニット904は、市販の様々なプロセッサのうちのどんなものでもよい。デュアルマイクロプロセッサおよび他のマルチプロセッサアーキテクチャを処理ユニット904として使用することもできる。
システムバス908は、市販の様々なバスアーキテクチャのうちの任意のものを使用するメモリバスまたはメモリコントローラ、周辺バス、およびローカルバスを含むいくつかのタイプのバス構造のうちどんなものでもよい。システムメモリ906は、読取り専用メモリ(ROM)910およびランダムアクセスメモリ(RAM)912を含む。基本入出力システム(BIOS)は、例えば起動中など、コンピュータ902内の要素間での情報の転送を助ける基本ルーチンを含み、ROM910に格納されている。
コンピュータ902は、ハードディスクドライブ914、磁気ディスクドライブ916(例えば取外式ディスク918から読み取り、またはそこに書き込む)、光ディスクドライブ920(例えばCD−ROMディスク922を読み取る、あるいは他の光媒体から読み取り、またはそこに書き込むなど)をさらに含む。ハードディスクドライブ914、磁気ディスクドライブ916、および光ディスクドライブ920は、それぞれハードディスクドライブインターフェース924、磁気ディスクドライブインターフェース926、および光ドライブインターフェース928によってシステムバス908に接続することができる。ドライブおよびその関連のコンピュータ可読媒体は、データ、データ構造、コンピュータ実行可能命令などの不揮発性の記憶域を提供する。コンピュータ902では、ドライブおよび媒体は、ブロードキャストプログラミングの適したデジタル形式での保管に対応する。上記のコンピュータ可読媒体の説明は、ハードディスク、取外式磁気ディスク、およびCDを指しているが、zipドライブ、磁気カセット、フラッシュメモリカード、デジタルビデオディスク、カートリッジなど、コンピュータによって読み取ることができる他のタイプの媒体を動作環境例で使用することもできること、およびこうした任意の媒体は、本発明の方法を実行するためのコンピュータ実行可能命令を含み得ることを当業者であれば理解されたい。
オペレーティングシステム930、1つまたは複数のアプリケーションプログラム932、他のプログラムモジュール934、およびプログラムデータ936を含めて、いくつかのプログラムモジュールをドライブおよびRAM912に格納することができる。本発明は、市販の様々なオペレーティングシステムまたはオペレーティングシステムの組合せとともに実施できることを理解されたい。
ユーザは、コマンドおよび情報をキーボード938およびマウス940などのポインティング装置を介してコンピュータ902に入力することができる。他の入力装置(図示せず)には、マイクロフォン、IRリモートコントロール、ジョイスティック、ゲームパッド、衛星パラボラアンテナ、スキャナなどがある。これらおよび他の入力装置は、しばしばシステムバス908に結合されているシリアルポートインターフェース942を介して処理ユニット904に接続されるが、パラレルポート、ゲームポート、ユニバーサルシリアルバス(USB)、IRインターフェースなど他のインターフェースで接続してもよい。モニタ944または他のタイプの表示装置もまた、ビデオアダプタ946などのインターフェースを介してシステムバス908に接続される。コンピュータは一般に、モニタ944に加えて、スピーカやプリンタなどの他の周辺出力装置(図示せず)を含んでいる。
コンピュータ902は、リモートコンピュータ948など1つまたは複数のリモートコンピュータへの論理接続を使用してネットワーク式環境で動作することができる。リモートコンピュータ948は、ワークステーション、サーバコンピュータ、ルータ、パーソナルコンピュータ、ポータブルコンピュータ、マイクロプロセッサベースのエンターテイメント装置、ピア装置または他の共通のネットワークノードとすることができ、一般に、コンピュータ902に関連して記載した多くの、またはすべての要素を含むが、簡潔にするためにメモリ記憶装置950のみを示している。示した論理接続は、LAN952およびWAN954を含む。こうしたネットワーキング環境は、オフィス、全社規模のコンピュータネットワーク、イントラネット、およびインターネットではごく一般的である。
LANネットワーキング環境で使用する場合、コンピュータ902は、ネットワークインターフェースまたはアダプタ956を介してローカルネットワーク952に接続される。WANネットワーキング環境で使用する場合、コンピュータ902は一般に、モデム958を含む、LANを介して通信サーバに接続される、またはインターネットなどWAN954を介して通信を確立する他の手段を有する。モデム958は、内蔵のものでも外付けのものでもよく、シリアルポートインターフェース942を介してシステムバス908に接続される。ネットワーク式環境では、コンピュータ902に関連して示したプログラムモジュール、またはその一部をリモートメモリ記憶装置950に格納することができる。図示したネットワーク接続は例であり、コンピュータ間の通信リンクを確立する他の手段を使用してもよいことは理解されよう。
本発明の一態様によれば、フィルタアーキテクチャは、フィルタリングが使用されるシステムの特定のユーザによって望まれるフィルタリングの度合いに適応する。しかし、この「適応」の側面は、ローカルユーザシステム環境からシステムベンダーの製造プロセスまで拡大することができ、そこでは、特定のクラスのユーザのフィルタリングの度合いを工場で売り物として生成されるシステムに実装するために選択することができることを理解されたい。例えば、購入者が、購入された第1のシステム群はいかなるジャンクメールへのアクセスも必要としないユーザに提供されることを決定した場合、このシステム群の工場でのデフォルトの設定は高く設定することができ、第2のクラスのユーザの第2のシステム群は、より多くのジャンクメールを調べることができるようにより低い設定に構成することができる。いずれのシナリオでも、本発明の適応の性質は、任意のクラスのユーザの個々のユーザがフィルタリングの度合いを調整することができるように、ローカルに実行可能とすることができ、または使用不可の場合、デフォルトの設定をまったく変更できないようにすることができる。開示されたフィルタアーキテクチャで適切に構成された1つまたは多くのシステムを構成する匹敵するアクセス権を行使するネットワーク管理者は、こうしたクラスの構成をローカルに実施することもできることを理解されたい。
上記で説明してきたことは、本発明の例を含む。当然、本発明を説明するために構成要素または方法の予想されるすべての組合せについて説明することは不可能であり、本発明の他の多くの組合せおよび置換えが可能であることを当業者であれば理解できよう。したがって、本発明は、添付の特許請求の範囲の意図および範囲内のこうしたすべての代替形態、変更形態、および変形形態を含むものとする。さらに、「含む」という用語が詳細な説明または特許請求の範囲で使用されている限り、こうした用語は、請求項で移行語として使用されるときに「含む」が解釈される「含む」という用語と同じように包含的であるものとする。
本発明によるフィルタシステムを示す概略ブロック図である。 キャッチ率に関する性能のトレードオフを示すグラフである。 本発明による方法を示すフローチャートである。 本発明による適応型ジャンクメールフィルタリングシステムの構成のユーザインターフェース例を示す図である。 本発明による適応型ジャンクメールフィルタリングシステムの構成のユーザインターフェース例を示す図である。 本発明を使用するメッセージ処理アーキテクチャを示す概略ブロック図である。 本発明の技術による、複数ユーザのログインを容易にし、受信メッセージをフィルタ処理する1つまたは複数のクライアントコンピュータを有するシステムを示す図である。 本発明による、最初のフィルタリングがメッセージサーバ上で行われ、二次的なフィルタリングが1つまたは複数のクライアント上で行われるシステムを示す図である。 大規模な実装の適応型フィルタリングシステムを示すブロック図である。 開示されたアーキテクチャを実行するよう動作可能なコンピュータを示すブロック図である。

Claims (63)

  1. 偽陽性率および偽陰性率が関連付けられている、メッセージをフィルタ処理する第1のフィルタと、
    前記メッセージをフィルタ処理する第2のフィルタであって、前記第2のフィルタは前記第1のフィルタの前記偽陽性率および前記偽陰性率に従って評価され、前記第1のフィルタの前記偽陽性率および前記偽陰性率を決定するために使用される前記データは、閾値に応じて前記第2のフィルタに関連付けられている新しい偽陽性率および新しい偽陰性率を決定するために使用され、前記第2のフィルタの閾値が存在し、したがって前記新しい偽陽性率および新しい偽陰性率がともに前記第1のフィルタの前記偽陽性率および前記偽陰性率よりも良いとみなされる場合、前記第1のフィルタの代わりに使用される第2のフィルタと
    を含むことを特徴とするデータフィルタリングシステム。
  2. 前記偽陽性率および偽陰性率はユーザ訂正プロセスの使用を介してジャンクおよび非ジャンクとラベル付けされたメッセージに従って決定されることを特徴とする請求項1に記載のシステム。
  3. 前記ユーザ訂正プロセスはメッセージの最初の分類をオーバーライドするステップを含み、前記最初の分類は前記メッセージを受信すると前記第1のフィルタによって自動的に行われることを特徴とする請求項2に記載のシステム。
  4. 前記偽陽性率および前記偽陰性率は前記メッセージのうちの少なくとも1つの内容から導出されることを特徴とする請求項1に記載のシステム。
  5. 前記偽陽性率および前記偽陰性率は他のユーザEメールメッセージの内容から導出されることを特徴とする請求項1に記載のシステム。
  6. 前記第2のフィルタは前記新しい偽陽性率が前記第1のフィルタのものより劣るときに使用されることを特徴とする請求項1に記載のシステム。
  7. 前記偽陽性率および偽陰性率は、予め定められた数のジャンクメッセージおよび非ジャンクメッセージがラベル付けされた後、および予め定められた時間になった後のうちの少なくとも一方で決定されることを特徴とする請求項1に記載のシステム。
  8. 前記閾値は複数の生成された閾値から選択され、前記選択された閾値は、対象となる閾値にわたる平均閾値、最も低い偽陽性率の閾値、p効用関数に基づいてユーザの期待効用を最大にする閾値のうちの少なくとも1つを選択することによって決定されることを特徴とする請求項1に記載のシステム。
  9. 前記閾値は複数の閾値から選択され、前記第2のフィルタは前記新しい偽陽性率および前記新しい偽陰性率がその閾値で前記第1のフィルタの前記偽陽性率および前記偽陰性率より良い場合にのみ使用されることを特徴とする請求項1に記載のシステム。
  10. 複数の二次的フィルタをさらに含み、前記複数の二次元フィルタは前記第2のフィルタを含んでおり、前記システムは、前記少なくとも1つの二次的フィルタの閾値が存在し、したがって前記新しい偽陽性率および新しい偽陰性率がともに前記第1のフィルタの前記偽陽性および偽陰性率より良いとみなされる場合、前記第1のフィルタの代わりに前記二次的フィルタのうちの少なくとも1つを使用することを特徴とする請求項1に記載のシステム。
  11. 前記二次的フィルタはM個(Mは整数)のフィルタを含み、前記システムは特定のメッセージには前記第1のフィルタの代わりにフィルタMを選択し、別のメッセージには前記第1のフィルタの代わりにフィルタMを選択することを特徴とする請求項10に記載のシステム。
  12. 請求項1に記載の前記システムを実施するためのコンピュータ実行可能構成要素を格納することを特徴とするコンピュータ可読媒体。
  13. 請求項1に記載の前記システムを含むことを特徴とするコンピュータ。
  14. 請求項1に記載の前記システムを含むことを特徴とするネットワーク。
  15. 請求項1に記載の前記システムを含むことを特徴とするポータブルコンピューティング装置。
  16. PDA、電話、またはラップトップコンピュータのうちの1つであることを特徴とする請求項15に記載の装置。
  17. メッセージをフィルタ処理し、第1の精度データが関連付けられている第1のフィルタと、
    前記メッセージをフィルタ処理し、第2の精度データが関連付けられている第2のフィルタであって、前記第2のフィルタは前記第1の精度データで評価され、前記第1の精度データの決定に使用される前記データは閾値に応じて前記第2の精度データを決定するために使用され、前記第2のフィルタの閾値が存在し、したがって前記第2の精度データが前記第1の精度データより良いとみなされる場合に使用される第2のフィルタと
    を含むことを特徴とするデータフィルタ。
  18. 前記第2のフィルタは、前記第1のフィルタとの組合せおよび前記第1のフィルタの代わりのうちの少なくとも一方で使用されることを特徴とする請求項17に記載のフィルタ。
  19. 前記第2のフィルタは、前記第2の精度率が少なくとも前記第1の精度率と同じであるときに使用されることを特徴とする請求項17に記載のフィルタ。
  20. 前記第1の精度データおよび前記第2の精度データのうちの少なくとも一方は偽陽性率および偽陰性率を含むことを特徴とする請求項17に記載のフィルタ。
  21. 前記第1の精度データおよび前記第2の精度データは、メッセージテキストおよびメッセージの内容の少なくとも一方に基づいて決定されることを特徴とする請求項17に記載のフィルタ。
  22. 前記第1のフィルタは他のユーザのEメールデータの処理から導出されたシードフィルタであることを特徴とする請求項17に記載のフィルタ。
  23. 前記第1の精度データは、ユーザがメッセージである前記データを調べ、前記メッセージにジャンクメッセージおよび非ジャンクメッセージのうちの一方にタグ付けするユーザ訂正処理に従って決定されることを特徴とする請求項17に記載のフィルタ。
  24. 前記ユーザ訂正プロセスは前記メッセージの最初の分類をオーバーライドするステップを含み、前記最初の分類は前記メッセージを受信すると前記第1のフィルタによって自動的に行われることを特徴とする請求項23に記載のフィルタ。
  25. 前記第2のフィルタは、前記第2のフィルタを使用するために使用される前記閾値が、Nが少なくとも20である場合にp関数に基づいて、少なくとも前記第1のフィルタと同程度に効率的であるときに使用されることを特徴とする請求項17に記載のフィルタ。
  26. 前記第1の精度データは、高度の確実性で正しいとわかっている予め定められた組のデータに従って決定されることを特徴とする請求項17に記載のフィルタ。
  27. 前記予め定められた組のデータは、前記ユーザに非ジャンクメッセージとタグ付けされたメッセージ、前記ユーザによって読まれ、削除されたメッセージ、前記ユーザによって転送されたメッセージ、および前記ユーザによって返信されたメッセージのうちの少なくとも1つを含むことを特徴とする請求項26に記載のフィルタ。
  28. 前記第1の精度データは、前記第1の精度データの偽陽性率の評価に使用される、校正されたフィルタから受信された確率値によって決定されることを特徴とする請求項17に記載のフィルタ。
  29. 前記第1の精度データは期待値の生成に使用されることを特徴とする請求項17に記載のフィルタ。
  30. 前記第2のフィルタは、ユーザ訂正の実際の数が少なくとも前記期待値と同じである場合にのみ使用されることを特徴とする請求項29に記載のフィルタ。
  31. 前記閾値は複数の閾値から選択され、前記新しいフィルタは前記第2の精度データがその閾値で前記第1の精度データより良い場合にのみ使用されることを特徴とする請求項17に記載のフィルタ。
  32. シードフィルタに関連付けられている偽陽性率および偽陰性率を決定するステップと、
    前記シードフィルタに関連付けられているシードデータを使用して新しいフィルタを訓練するステップであって、前記シードデータは閾値に応じて前記新しいフィルタの新しい偽陽性率および偽陰性率の決定に使用されるステップと、
    前記新しいフィルタの閾値が存在し、したがって前記新しい偽陽性率および新しい偽陰性率がともに前記シードフィルタのものより良いとみなされる場合、前記シードフィルタの代わりに前記新しいフィルタを使用するステップと
    を含むことを特徴とするデータのフィルタリングを容易にする方法。
  33. 一部にはユーザ訂正プロセスの使用を介してメッセージをジャンクおよび非ジャンクとラベル付けすることに基づいて前記シードデータを生成することを特徴とする請求項32に記載の方法。
  34. 前記ユーザ訂正プロセスは前記メッセージの最初の分類をオーバーライドするステップを含み、前記最初の分類は前記メッセージを受信する前記シードフィルタによって自動的に行われることを特徴とする請求項32に記載の方法。
  35. 前記シードデータをEメールメッセージの内容から導出するステップをさらに含むことを特徴とする請求項32に記載の方法。
  36. 前記シードデータを他のユーザのEメールメッセージの内容から導出するステップをさらに含むことを特徴とする請求項32に記載の方法。
  37. 前記新しい偽陽性率が前記シードフィルタのものより劣るときに前記新しいフィルタを使用するステップをさらに含むことを特徴とする請求項32に記載の方法。
  38. 予め定められた数のジャンクメッセージおよび非ジャンクメッセージがラベル付けされた後、および予め定められた時間になった後のうちの少なくとも一方で前記偽陽性率および偽陰性率を決定するステップをさらに含むことを特徴とする請求項32に記載の方法。
  39. 現行の閾値設定で、前記新しい偽陽性率および新しい偽陰性率がともに前記シードフィルタのものより良いとみなされ、加重値が少なくともゼロである場合、前記新しいフィルタを使用することを特徴とする請求項32に記載の方法。
  40. 前記現行の閾値以外の閾値である非現行の閾値設定より前記現行の閾値設定で前記新しいフィルタの性能が良いときに前記加重値を上げ、前記非現行の閾値設定より前記現行の閾値設定で前記新しいフィルタの性能が劣るときに前記加重値を下げることを特徴とする請求項39に記載の方法。
  41. 少なくとも第1のフィルタおよび第2のフィルタを受信するステップと、
    前記第1のフィルタの第1の精度データを決定するステップと、
    前記第1の精度データを使用して前記第2のフィルタを訓練するステップと、
    閾値に応じて前記第2のフィルタの第2の精度データを決定するステップと、
    予め定められた閾値に到達すると前記第2のフィルタを使用するステップと
    を含むことを特徴とするデータのフィルタリングの方法。
  42. 前記第2のフィルタは、前記第1のフィルタとの組合せ、および前記第1のフィルタの代わりのうちの少なくとも一方で使用されることを特徴とする請求項41に記載の方法。
  43. 前記第2のフィルタは、前記第2の精度率が少なくとも前記第1の精度率と同じであるときに使用されることを特徴とする請求項41に記載の方法。
  44. 前記第1の精度データおよび前記第2の精度データのうちの少なくとも一方は偽陽性率および偽陰性率を含むことを特徴とする請求項41に記載の方法。
  45. 前記第1の精度データおよび前記第2の精度データは、EメールテキストおよびEメールの内容の少なくとも一方に基づいて決定されることを特徴とする請求項41に記載の方法。
  46. 前記第1のフィルタは他のユーザのEメールデータの処理から導出されたシードフィルタであることを特徴とする請求項41に記載の方法。
  47. 前記第1の精度データは、ユーザがEメールメッセージである前記データを調べ、前記Eメールメッセージにジャンクメッセージおよび非ジャンクメッセージのうちの一方にタグ付けするユーザ訂正処理に従って決定されることを特徴とする請求項41に記載の方法。
  48. 前記ユーザ訂正プロセスは前記Eメールメッセージの最初の分類をオーバーライドするステップを含み、前記最初の分類は前記Eメールメッセージを受信すると前記第1のフィルタによって自動的に行われることを特徴とする請求項47に記載の方法。
  49. 前記第2のフィルタを生成するために使用される前記閾値が、Nが少なくとも20である場合にp関数に基づいて、少なくとも前記第1のフィルタと同程度に効率的であるときに前記第2のフィルタを使用するステップをさらに含むことを特徴とする請求項41に記載の方法。
  50. 前記第1の精度データは、高度の確実性で正しいとわかっている予め定められた組のデータに従って決定されることを特徴とする請求項41に記載の方法。
  51. 前記予め定められた組のデータは、前記ユーザに非ジャンクメッセージとタグ付けされたメッセージ、前記ユーザによって読まれ、削除されたメッセージ、前記ユーザによって転送されたメッセージ、および前記ユーザによって返信されたメッセージのうちの少なくとも1つを含むことを特徴とする請求項50に記載の方法。
  52. 前記第1の精度データは、前記第1の精度データの偽陽性率の評価に使用される、校正されたフィルタから受信された確率値によって決定されることを特徴とする請求項41に記載の方法。
  53. 前記第1の精度データに基づいて期待値を生成するステップをさらに含むことを特徴とする請求項41に記載の方法。
  54. ユーザ訂正の実際の数が少なくとも前記期待値と同じである場合にのみ前記第2のフィルタを使用することを特徴とする請求項53に記載の方法。
  55. フィルタを構成する構成システムと通信するように構成されているフィルタインターフェースと、
    前記フィルタを構成するためのフィルタ構成情報を受信する前記フィルタインターフェースの少なくとも1つの入力と、
    生成するために前記構成システムに前記フィルタ構成情報をコミットする前記フィルタインターフェースの少なくとも1つの出力と
    を含むことを特徴とするデータのフィルタリングを容易にするグラフィカルユーザインターフェース。
  56. 更新されたメッセージフィルタを生成するよう処理するために前記フィルタ構成情報をコミットするよう動作可能であることを特徴とする請求項55に記載のインターフェース。
  57. デフォルト、高度、専用のうちの少なくとも1つを含む複数のユーザ選択可能フィルタレベルを提供するよう動作可能であることを特徴とする請求項55に記載のインターフェース。
  58. メッセージをジャンクとタグ付けすることを容易にするユーザメールボックスインターフェースをさらに含むことを特徴とする請求項55に記載のインターフェース。
  59. 前記ユーザメールボックスインターフェースは、ジャンクメールフォルダおよび古いジャンクメールフォルダのうちの少なくとも一方へのアクセスを容易にすることを特徴とする請求項58に記載のインターフェース。
  60. メッセージフィルタを構成するコンピュータ実行可能命令を有するコンピュータ可読媒体であって、
    偽陽性率および偽陰性率が関連付けられている、メッセージをフィルタ処理する第1のフィルタと、
    前記メッセージをフィルタ処理する第2のフィルタであって、前記第2のフィルタは前記偽陽性率および前記偽陰性率に従って評価され、前記第1のフィルタの前記偽陽性率および前記偽陰性率を決定するために使用される前記データは、閾値に応じて前記第2のフィルタの新しい偽陽性率および新しい偽陰性率を決定するために使用され、前記第2のフィルタの閾値が存在し、したがって前記新しい偽陽性率および新しい偽陰性率がともに前記第1のフィルタの前記偽陽性率および前記偽陰性率よりも良いとみなされる場合、前記第1のフィルタの代わりに使用される第2のフィルタと
    を含むことを特徴とするコンピュータ可読媒体。
  61. 前記偽陽性率および偽陰性率は、ユーザがEメールメッセージである前記データを調べ、前記Eメールメッセージにジャンクメッセージおよび非ジャンクメッセージのうちの一方にタグ付けするユーザ訂正処理に従って決定されることを特徴とする請求項60に記載のコンピュータ可読媒体。
  62. 前記第2のフィルタは、前記第2の精度率が少なくとも前記第1の精度率と同じであるときに使用されることを特徴とする請求項60に記載のコンピュータ可読媒体。
  63. メッセージを受信する手段と、
    偽陽性率および偽陰性率が関連付けられている、前記メッセージをフィルタ処理する第1の手段と、
    前記メッセージをフィルタ処理する新しい手段であって、フィルタ処理する前記新しい手段はフィルタする前記第1の手段の前記偽陽性率および前記偽陰性率に従って訓練され、前記第1のフィルタ手段の前記偽陽性率および前記偽陰性率を決定するために使用される前記データは、閾値に応じて前記新しいフィルタ手段に関連付けられている新しい偽陽性率および新しい偽陰性率を決定するために使用され、前記新しいフィルタ手段の閾値が存在し、したがって前記新しい偽陽性率および新しい偽陰性率がともに前記第1のフィルタの前記偽陽性率および前記偽陰性率よりも良いとみなされる場合、前記第1のフィルタ手段の代わりに使用される新しいフィルタ手段と
    を含むことを特徴とするデータフィルタリングシステム。
JP2004569229A 2003-02-25 2003-12-31 適応型ジャンクメッセージフィルタリングシステム Expired - Fee Related JP4524192B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/374,005 US7249162B2 (en) 2003-02-25 2003-02-25 Adaptive junk message filtering system
PCT/US2003/041526 WO2004079501A2 (en) 2003-02-25 2003-12-31 Adaptive junk message filtering system

Publications (2)

Publication Number Publication Date
JP2006514371A true JP2006514371A (ja) 2006-04-27
JP4524192B2 JP4524192B2 (ja) 2010-08-11

Family

ID=32868786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004569229A Expired - Fee Related JP4524192B2 (ja) 2003-02-25 2003-12-31 適応型ジャンクメッセージフィルタリングシステム

Country Status (19)

Country Link
US (2) US7249162B2 (ja)
EP (1) EP1597645B1 (ja)
JP (1) JP4524192B2 (ja)
KR (1) KR101076908B1 (ja)
CN (1) CN100437544C (ja)
AT (1) ATE464722T1 (ja)
AU (1) AU2003300051B2 (ja)
BR (1) BR0318024A (ja)
CA (1) CA2512821C (ja)
DE (1) DE60332168D1 (ja)
HK (1) HK1085286A1 (ja)
IL (1) IL169885A (ja)
MX (1) MXPA05008205A (ja)
NO (1) NO20053915L (ja)
NZ (1) NZ541391A (ja)
RU (1) RU2327205C2 (ja)
TW (1) TWI393391B (ja)
WO (1) WO2004079501A2 (ja)
ZA (1) ZA200505907B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502998A (ja) * 2004-06-14 2008-01-31 クゥアルコム・インコーポレイテッド サーバーへの電子メッセージのコンテンツについての通信情報
JP2008276388A (ja) * 2007-04-26 2008-11-13 Canon It Solutions Inc 情報処理装置、情報処理装置の制御方法、プログラム、及び記録媒体
JP2009104400A (ja) * 2007-10-23 2009-05-14 Kddi Corp 電子メールフィルタリング装置、電子メールのフィルタリング方法およびプログラム
JP2009140437A (ja) * 2007-12-10 2009-06-25 Just Syst Corp フィルタリング処理方法、フィルタリング処理プログラムおよびフィルタリング装置
JP2010532591A (ja) * 2007-02-22 2010-10-07 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Ipマルチメディアサブシステムサービスへのグループアクセス

Families Citing this family (184)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6999955B1 (en) * 1999-04-20 2006-02-14 Microsoft Corporation Systems and methods for estimating and integrating measures of human cognitive load into the behavior of computational applications and services
US7640305B1 (en) * 2001-06-14 2009-12-29 Apple Inc. Filtering of data
US7849141B1 (en) 2001-06-14 2010-12-07 Apple Inc. Training a computer storage system for automatic filing of data using graphical representations of storage locations
US7155608B1 (en) * 2001-12-05 2006-12-26 Bellsouth Intellectual Property Corp. Foreign network SPAM blocker
US8046832B2 (en) 2002-06-26 2011-10-25 Microsoft Corporation Spam detector with challenges
US7539726B1 (en) 2002-07-16 2009-05-26 Sonicwall, Inc. Message testing
US8924484B2 (en) * 2002-07-16 2014-12-30 Sonicwall, Inc. Active e-mail filter with challenge-response
US8396926B1 (en) 2002-07-16 2013-03-12 Sonicwall, Inc. Message challenge response
US7908330B2 (en) 2003-03-11 2011-03-15 Sonicwall, Inc. Message auditing
US8266215B2 (en) 2003-02-20 2012-09-11 Sonicwall, Inc. Using distinguishing properties to classify messages
US7299261B1 (en) 2003-02-20 2007-11-20 Mailfrontier, Inc. A Wholly Owned Subsidiary Of Sonicwall, Inc. Message classification using a summary
US7406502B1 (en) 2003-02-20 2008-07-29 Sonicwall, Inc. Method and system for classifying a message based on canonical equivalent of acceptable items included in the message
US7249162B2 (en) * 2003-02-25 2007-07-24 Microsoft Corporation Adaptive junk message filtering system
US7219148B2 (en) * 2003-03-03 2007-05-15 Microsoft Corporation Feedback loop for spam prevention
US7543053B2 (en) 2003-03-03 2009-06-02 Microsoft Corporation Intelligent quarantining for spam prevention
US20050091320A1 (en) * 2003-10-09 2005-04-28 Kirsch Steven T. Method and system for categorizing and processing e-mails
US7856477B2 (en) * 2003-04-04 2010-12-21 Yahoo! Inc. Method and system for image verification to prevent messaging abuse
US7680886B1 (en) * 2003-04-09 2010-03-16 Symantec Corporation Suppressing spam using a machine learning based spam filter
US7483947B2 (en) 2003-05-02 2009-01-27 Microsoft Corporation Message rendering for identification of content features
US7272853B2 (en) 2003-06-04 2007-09-18 Microsoft Corporation Origination/destination features and lists for spam prevention
US20050044153A1 (en) * 2003-06-12 2005-02-24 William Gross Email processing system
US7711779B2 (en) 2003-06-20 2010-05-04 Microsoft Corporation Prevention of outgoing spam
US9715678B2 (en) 2003-06-26 2017-07-25 Microsoft Technology Licensing, Llc Side-by-side shared calendars
US7155484B2 (en) * 2003-06-30 2006-12-26 Bellsouth Intellectual Property Corporation Filtering email messages corresponding to undesirable geographical regions
US7707255B2 (en) 2003-07-01 2010-04-27 Microsoft Corporation Automatic grouping of electronic mail
US8214437B1 (en) * 2003-07-21 2012-07-03 Aol Inc. Online adaptive filtering of messages
US7814545B2 (en) 2003-07-22 2010-10-12 Sonicwall, Inc. Message classification using classifiers
US7835294B2 (en) * 2003-09-03 2010-11-16 Gary Stephen Shuster Message filtering method
US20050071432A1 (en) * 2003-09-29 2005-03-31 Royston Clifton W. Probabilistic email intrusion identification methods and systems
US7930351B2 (en) * 2003-10-14 2011-04-19 At&T Intellectual Property I, L.P. Identifying undesired email messages having attachments
US7451184B2 (en) * 2003-10-14 2008-11-11 At&T Intellectual Property I, L.P. Child protection from harmful email
US7921159B1 (en) * 2003-10-14 2011-04-05 Symantec Corporation Countering spam that uses disguised characters
US20050080642A1 (en) * 2003-10-14 2005-04-14 Daniell W. Todd Consolidated email filtering user interface
US7664812B2 (en) * 2003-10-14 2010-02-16 At&T Intellectual Property I, L.P. Phonetic filtering of undesired email messages
US7610341B2 (en) * 2003-10-14 2009-10-27 At&T Intellectual Property I, L.P. Filtered email differentiation
US7715059B2 (en) * 2003-10-22 2010-05-11 International Business Machines Corporation Facsimile system, method and program product with junk fax disposal
US7590694B2 (en) 2004-01-16 2009-09-15 Gozoom.Com, Inc. System for determining degrees of similarity in email message information
US7653695B2 (en) * 2004-02-17 2010-01-26 Ironport Systems, Inc. Collecting, aggregating, and managing information relating to electronic messages
US8214438B2 (en) 2004-03-01 2012-07-03 Microsoft Corporation (More) advanced spam detection features
US7644127B2 (en) * 2004-03-09 2010-01-05 Gozoom.Com, Inc. Email analysis using fuzzy matching of text
US8918466B2 (en) * 2004-03-09 2014-12-23 Tonny Yu System for email processing and analysis
US7631044B2 (en) * 2004-03-09 2009-12-08 Gozoom.Com, Inc. Suppression of undesirable network messages
DE102004014139B4 (de) * 2004-03-23 2006-07-20 Vodafone Holding Gmbh System und Verfahren zum Klassifizieren von elektronischen Nachrichten
US20050223074A1 (en) * 2004-03-31 2005-10-06 Morris Robert P System and method for providing user selectable electronic message action choices and processing
US20090100523A1 (en) * 2004-04-30 2009-04-16 Harris Scott C Spam detection within images of a communication
US20050254100A1 (en) * 2004-05-17 2005-11-17 Venali, Inc. Ticket exchange for combating fax spam
US7461063B1 (en) * 2004-05-26 2008-12-02 Proofpoint, Inc. Updating logistic regression models using coherent gradient
US7756930B2 (en) * 2004-05-28 2010-07-13 Ironport Systems, Inc. Techniques for determining the reputation of a message sender
US7849142B2 (en) * 2004-05-29 2010-12-07 Ironport Systems, Inc. Managing connections, messages, and directory harvest attacks at a server
US7873695B2 (en) 2004-05-29 2011-01-18 Ironport Systems, Inc. Managing connections and messages at a server by associating different actions for both different senders and different recipients
US7664819B2 (en) * 2004-06-29 2010-02-16 Microsoft Corporation Incremental anti-spam lookup and update service
US7904517B2 (en) 2004-08-09 2011-03-08 Microsoft Corporation Challenge response systems
US7660865B2 (en) * 2004-08-12 2010-02-09 Microsoft Corporation Spam filtering with probabilistic secure hashes
US7895531B2 (en) 2004-08-16 2011-02-22 Microsoft Corporation Floating command object
US7703036B2 (en) 2004-08-16 2010-04-20 Microsoft Corporation User interface for displaying selectable software functionality controls that are relevant to a selected object
US8255828B2 (en) 2004-08-16 2012-08-28 Microsoft Corporation Command user interface for displaying selectable software functionality controls
US9015621B2 (en) 2004-08-16 2015-04-21 Microsoft Technology Licensing, Llc Command user interface for displaying multiple sections of software functionality controls
US8146016B2 (en) 2004-08-16 2012-03-27 Microsoft Corporation User interface for displaying a gallery of formatting options applicable to a selected object
FI20041159A0 (fi) * 2004-09-07 2004-09-07 Nokia Corp Menetelmä viestien suodattamiseksi tietoverkossa
FR2875317A1 (fr) * 2004-09-10 2006-03-17 France Telecom Procede de surveillance de couriers electroniques emis et/ou recus par un client d'un fournisseur d'acces internet au sein d'un reseau de telecommunication
US20060075048A1 (en) * 2004-09-14 2006-04-06 Aladdin Knowledge Systems Ltd. Method and system for identifying and blocking spam email messages at an inspecting point
EP1672936B1 (en) * 2004-12-16 2018-12-05 Sony Mobile Communications Inc. Prevention of unsolicited messages
KR100641410B1 (ko) 2004-12-17 2006-11-01 엔에이치엔(주) 특수 문자를 이용하여 편집한 단문 메시지의 필터링 방법및 이를 이용한 이동통신 단말기
US8396927B2 (en) * 2004-12-21 2013-03-12 Alcatel Lucent Detection of unwanted messages (spam)
US7752272B2 (en) * 2005-01-11 2010-07-06 Research In Motion Limited System and method for filter content pushed to client device
WO2006091059A1 (en) * 2005-02-28 2006-08-31 Nhn Corporation Message managing system, message managing method and recording medium storing program for that method execution
US8639757B1 (en) 2011-08-12 2014-01-28 Sprint Communications Company L.P. User localization using friend location information
US9571652B1 (en) 2005-04-21 2017-02-14 Verint Americas Inc. Enhanced diarization systems, media and methods of use
US8930261B2 (en) * 2005-04-21 2015-01-06 Verint Americas Inc. Method and system for generating a fraud risk score using telephony channel based audio and non-audio data
CN101495969B (zh) * 2005-05-05 2012-10-10 思科埃恩波特系统有限公司 识别电子消息中的威胁
US8078740B2 (en) 2005-06-03 2011-12-13 Microsoft Corporation Running internet applications with low rights
US7865830B2 (en) 2005-07-12 2011-01-04 Microsoft Corporation Feed and email content
US7930353B2 (en) * 2005-07-29 2011-04-19 Microsoft Corporation Trees of classifiers for detecting email spam
US9542667B2 (en) 2005-09-09 2017-01-10 Microsoft Technology Licensing, Llc Navigating messages within a thread
US8627222B2 (en) 2005-09-12 2014-01-07 Microsoft Corporation Expanded search and find user interface
US20070118759A1 (en) * 2005-10-07 2007-05-24 Sheppard Scott K Undesirable email determination
US8065370B2 (en) 2005-11-03 2011-11-22 Microsoft Corporation Proofs to filter spam
US8272064B2 (en) * 2005-11-16 2012-09-18 The Boeing Company Automated rule generation for a secure downgrader
US7451145B1 (en) * 2005-12-13 2008-11-11 At&T Corp. Method and apparatus for recursively analyzing log file data in a network
EP1806885A1 (en) * 2006-01-05 2007-07-11 Alcatel Lucent Electronic messaging management method and system
US8131805B2 (en) * 2006-03-01 2012-03-06 Research In Motion Limited Multilevel anti-spam system and method with load balancing
US7685271B1 (en) * 2006-03-30 2010-03-23 Symantec Corporation Distributed platform for testing filtering rules
US8417783B1 (en) * 2006-05-31 2013-04-09 Proofpoint, Inc. System and method for improving feature selection for a spam filtering model
US9727989B2 (en) 2006-06-01 2017-08-08 Microsoft Technology Licensing, Llc Modifying and formatting a chart using pictorially provided chart elements
US8185737B2 (en) 2006-06-23 2012-05-22 Microsoft Corporation Communication across domains
CN101098504A (zh) * 2006-06-29 2008-01-02 卢森特技术有限公司 用于sms垃圾过滤的smpp消息处理
US20080005238A1 (en) * 2006-06-29 2008-01-03 Microsoft Corporation Roaming consistent user representation information across devices and applications
US8166113B2 (en) * 2006-08-02 2012-04-24 Microsoft Corporation Access limited EMM distribution lists
JP4405500B2 (ja) * 2006-12-08 2010-01-27 インターナショナル・ビジネス・マシーンズ・コーポレーション 傾向分析システムの評価方法および装置
US7606214B1 (en) * 2006-09-14 2009-10-20 Trend Micro Incorporated Anti-spam implementations in a router at the network layer
CN101166159B (zh) * 2006-10-18 2010-07-28 阿里巴巴集团控股有限公司 一种确定垃圾信息的方法及系统
US20080096592A1 (en) * 2006-10-19 2008-04-24 Waytena William L Systems and Methods for Providing Communications Services Using Assigned Codes
US8224905B2 (en) 2006-12-06 2012-07-17 Microsoft Corporation Spam filtration utilizing sender activity data
US7921176B2 (en) * 2007-01-03 2011-04-05 Madnani Rajkumar R Mechanism for generating a composite email
US8381096B2 (en) * 2007-03-15 2013-02-19 Yahoo! Inc. Managing list tailoring for a mobile device
US20080235246A1 (en) * 2007-03-20 2008-09-25 Arun Hampapur Filter sequencing based on a publish-subscribe architecture for digital signal processing
US10019570B2 (en) 2007-06-14 2018-07-10 Microsoft Technology Licensing, Llc Protection and communication abstractions for web browsers
US8762880B2 (en) 2007-06-29 2014-06-24 Microsoft Corporation Exposing non-authoring features through document status information in an out-space user interface
US8484578B2 (en) 2007-06-29 2013-07-09 Microsoft Corporation Communication between a document editor in-space user interface and a document editor out-space user interface
US8201103B2 (en) 2007-06-29 2012-06-12 Microsoft Corporation Accessing an out-space user interface for a document editor program
US7890590B1 (en) * 2007-09-27 2011-02-15 Symantec Corporation Variable bayesian handicapping to provide adjustable error tolerance level
US20090089381A1 (en) * 2007-09-28 2009-04-02 Microsoft Corporation Pending and exclusive electronic mail inbox
US8438636B2 (en) * 2008-01-11 2013-05-07 Microsoft Corporation Secure and extensible policy-driven application platform
US7996897B2 (en) * 2008-01-23 2011-08-09 Yahoo! Inc. Learning framework for online applications
US9588781B2 (en) 2008-03-31 2017-03-07 Microsoft Technology Licensing, Llc Associating command surfaces with multiple active components
WO2009143105A2 (en) * 2008-05-20 2009-11-26 Raytheon Company Method and apparatus for providing a synchronous interface for an asynchronous service
EP2304924A1 (en) 2008-05-20 2011-04-06 Raytheon Company System and method for maintaining stateful information
US20090292785A1 (en) * 2008-05-20 2009-11-26 Raytheon Company System and method for dynamic contact lists
US8655954B2 (en) * 2008-05-20 2014-02-18 Raytheon Company System and method for collaborative messaging and data distribution
EP2301209B1 (en) * 2008-05-20 2016-03-30 Raytheon Company System and method for message filtering
TW200949570A (en) * 2008-05-23 2009-12-01 Univ Nat Taiwan Science Tech Method for filtering e-mail and mail filtering system thereof
US9665850B2 (en) 2008-06-20 2017-05-30 Microsoft Technology Licensing, Llc Synchronized conversation-centric message list and message reading pane
US8402096B2 (en) * 2008-06-24 2013-03-19 Microsoft Corporation Automatic conversation techniques
US8490185B2 (en) * 2008-06-27 2013-07-16 Microsoft Corporation Dynamic spam view settings
US8554847B2 (en) * 2008-07-15 2013-10-08 Yahoo! Inc. Anti-spam profile clustering based on user behavior
US20100070372A1 (en) * 2008-09-17 2010-03-18 Yahoo! Inc. Using spam and user actions to infer advertisements
US20100211641A1 (en) * 2009-02-16 2010-08-19 Microsoft Corporation Personalized email filtering
US9046983B2 (en) 2009-05-12 2015-06-02 Microsoft Technology Licensing, Llc Hierarchically-organized control galleries
US7930430B2 (en) 2009-07-08 2011-04-19 Xobni Corporation Systems and methods to provide assistance during address input
US9152952B2 (en) * 2009-08-04 2015-10-06 Yahoo! Inc. Spam filtering and person profiles
US9021028B2 (en) 2009-08-04 2015-04-28 Yahoo! Inc. Systems and methods for spam filtering
US9529864B2 (en) 2009-08-28 2016-12-27 Microsoft Technology Licensing, Llc Data mining electronic communications
US8205264B1 (en) * 2009-09-04 2012-06-19 zScaler Method and system for automated evaluation of spam filters
US9183544B2 (en) 2009-10-14 2015-11-10 Yahoo! Inc. Generating a relationship history
US8959159B2 (en) * 2010-04-01 2015-02-17 Microsoft Corporation Personalized email interactions applied to global filtering
US8843568B2 (en) * 2010-05-17 2014-09-23 Microsoft Corporation Email tags
TWI423636B (zh) * 2010-05-19 2014-01-11 Chunghwa Telecom Co Ltd 即時的郵件封包檢測系統及方法
US8880622B2 (en) * 2010-06-30 2014-11-04 International Business Machines Corporation Message thread management using dynamic pointers
US8635289B2 (en) 2010-08-31 2014-01-21 Microsoft Corporation Adaptive electronic message scanning
US8464342B2 (en) * 2010-08-31 2013-06-11 Microsoft Corporation Adaptively selecting electronic message scanning rules
JP5025776B2 (ja) * 2010-09-28 2012-09-12 株式会社東芝 異常診断フィルタ生成装置
CN103229148B (zh) * 2010-09-28 2016-08-31 西门子公司 运输车辆的适应性远程维护
US8589732B2 (en) * 2010-10-25 2013-11-19 Microsoft Corporation Consistent messaging with replication
US9209993B2 (en) * 2010-11-16 2015-12-08 Microsoft Technology Licensing, Llc Cooperative session-based filtering
CN102480705B (zh) * 2010-11-26 2015-11-25 卓望数码技术(深圳)有限公司 一种根据号码关系图过滤垃圾短信的方法及系统
US8744979B2 (en) * 2010-12-06 2014-06-03 Microsoft Corporation Electronic communications triage using recipient's historical behavioral and feedback
CN102567304B (zh) * 2010-12-24 2014-02-26 北大方正集团有限公司 一种网络不良信息的过滤方法及装置
US8504492B2 (en) 2011-01-10 2013-08-06 Accenture Global Services Limited Identification of attributes and values using multiple classifiers
US8620836B2 (en) * 2011-01-10 2013-12-31 Accenture Global Services Limited Preprocessing of text
JP6085253B2 (ja) * 2011-01-14 2017-02-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ダイバース無線受信器システム
US8635291B2 (en) * 2011-02-18 2014-01-21 Blackberry Limited Communication device and method for overriding a message filter
US9294306B2 (en) * 2011-03-11 2016-03-22 Shutterfly, Inc. Intelligent prevention of spam emails at share sites
RU2453919C1 (ru) * 2011-03-28 2012-06-20 Закрытое акционерное общество "Лаборатория Касперского" Способ выявления спама в растровом изображении
US9519682B1 (en) 2011-05-26 2016-12-13 Yahoo! Inc. User trustworthiness
US10277452B2 (en) * 2011-07-08 2019-04-30 Gree, Inc. Message processing system and message processing method
CN103947167B (zh) 2011-11-15 2017-05-17 日本电气株式会社 网络通信装置和传输帧的优先频带限制的方法
US8954519B2 (en) * 2012-01-25 2015-02-10 Bitdefender IPR Management Ltd. Systems and methods for spam detection using character histograms
US9152953B2 (en) * 2012-02-10 2015-10-06 International Business Machines Corporation Multi-tiered approach to E-mail prioritization
US9256862B2 (en) * 2012-02-10 2016-02-09 International Business Machines Corporation Multi-tiered approach to E-mail prioritization
RU2510982C2 (ru) * 2012-04-06 2014-04-10 Закрытое акционерное общество "Лаборатория Касперского" Система и способ оценки пользователей для фильтрации сообщений
US9876742B2 (en) * 2012-06-29 2018-01-23 Microsoft Technology Licensing, Llc Techniques to select and prioritize application of junk email filtering rules
TWI516158B (zh) 2012-07-19 2016-01-01 葉宏堯 可攜式電子接入裝置以及無線數據網路系統
US9368116B2 (en) 2012-09-07 2016-06-14 Verint Systems Ltd. Speaker separation in diarization
US8938796B2 (en) 2012-09-20 2015-01-20 Paul Case, SR. Case secure computer architecture
US10134401B2 (en) 2012-11-21 2018-11-20 Verint Systems Ltd. Diarization using linguistic labeling
EP2923279B1 (en) 2012-11-21 2016-11-02 Coherent Logix Incorporated Processing system with interspersed processors; dma-fifo
US9575633B2 (en) * 2012-12-04 2017-02-21 Ca, Inc. User interface utility across service providers
US8966203B2 (en) * 2013-01-04 2015-02-24 Microsoft Corporation Shared and managed memory unified access
CN103970801B (zh) * 2013-02-05 2019-03-26 腾讯科技(深圳)有限公司 微博广告博文识别方法及装置
US9460722B2 (en) 2013-07-17 2016-10-04 Verint Systems Ltd. Blind diarization of recorded calls with arbitrary number of speakers
US9984706B2 (en) 2013-08-01 2018-05-29 Verint Systems Ltd. Voice activity detection using a soft decision mechanism
RU2638634C2 (ru) * 2014-01-23 2017-12-14 Общество с ограниченной ответственностью "Аби Продакшн" Автоматическое обучение программы синтаксического и семантического анализа с использованием генетического алгоритма
CN103793838A (zh) * 2014-01-26 2014-05-14 宇龙计算机通信科技(深圳)有限公司 拦截广告的方法及其装置
US10931692B1 (en) * 2015-01-22 2021-02-23 Cisco Technology, Inc. Filtering mechanism to reduce false positives of ML-based anomaly detectors and classifiers
US9875742B2 (en) 2015-01-26 2018-01-23 Verint Systems Ltd. Word-level blind diarization of recorded calls with arbitrary number of speakers
US20160335432A1 (en) * 2015-05-17 2016-11-17 Bitdefender IPR Management Ltd. Cascading Classifiers For Computer Security Applications
CN106663169B (zh) * 2015-07-24 2021-03-09 策安保安有限公司 使用无监督式机器学习和优先权算法的高速威胁情报管理的系统及方法
US20170222960A1 (en) * 2016-02-01 2017-08-03 Linkedin Corporation Spam processing with continuous model training
US10063435B2 (en) * 2016-04-11 2018-08-28 The Boeing Company System and method for context aware network filtering
CN106201829B (zh) * 2016-07-18 2019-01-22 中国银联股份有限公司 监控阈值确定方法及装置、监控报警方法、装置及系统
CN107040450B (zh) * 2016-07-20 2018-06-01 平安科技(深圳)有限公司 自动回复方法和装置
US10838584B2 (en) 2016-10-31 2020-11-17 Microsoft Technology Licensing, Llc Template based calendar events with graphic enrichment
US10911382B2 (en) * 2017-01-30 2021-02-02 Futurewei Technologies, Inc. Personalized message priority classification
US11232369B1 (en) * 2017-09-08 2022-01-25 Facebook, Inc. Training data quality for spam classification
CN107798390B (zh) 2017-11-22 2023-03-21 创新先进技术有限公司 一种机器学习模型的训练方法、装置以及电子设备
US11544577B1 (en) * 2018-01-26 2023-01-03 Amazon Technologies, Inc. Adaptable filtering for edge-based deep learning models
US11538128B2 (en) 2018-05-14 2022-12-27 Verint Americas Inc. User interface for fraud alert management
US10887452B2 (en) 2018-10-25 2021-01-05 Verint Americas Inc. System architecture for fraud detection
IL303147B1 (en) 2019-06-20 2024-05-01 Verint Americas Inc Systems and methods for verification and fraud detection
US11868453B2 (en) 2019-11-07 2024-01-09 Verint Americas Inc. Systems and methods for customer authentication based on audio-of-interest
CN111221970B (zh) * 2019-12-31 2022-06-07 论客科技(广州)有限公司 基于行为结构和语义内容联合分析的邮件分类方法及装置
US11847537B2 (en) * 2020-08-12 2023-12-19 Bank Of America Corporation Machine learning based analysis of electronic communications
US11558335B2 (en) 2020-09-23 2023-01-17 International Business Machines Corporation Generative notification management mechanism via risk score computation
US11528242B2 (en) * 2020-10-23 2022-12-13 Abnormal Security Corporation Discovering graymail through real-time analysis of incoming email

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999005814A2 (en) * 1997-07-24 1999-02-04 Worldtalk Corporation E-mail firewall with stored key encryption/decryption
WO1999017504A1 (en) * 1997-09-29 1999-04-08 Ericsson Inc. Messaging application having a plurality of interfacing capabilities
WO1999033188A2 (en) * 1997-12-23 1999-07-01 Bright Light Technologies, Inc. Apparatus and method for controlling delivery of unsolicited electronic mail
JP2003067304A (ja) * 2001-08-27 2003-03-07 Kddi Corp 電子メールフィルタリングシステム、電子メールフィルタリング方法、電子メールフィルタリングプログラム及びそれを記録した記録媒体
JP2003085079A (ja) * 2001-09-12 2003-03-20 Xaxon R & D Corp コンピュータネットワークにおけるコンテンツフィルタリング装置及びフィルタパターンファイルの配信方法並びに記憶媒体、プログラム
WO2003103218A2 (en) * 2002-05-31 2003-12-11 Oracle International Corporation Method and apparatus for controlling data provided to a mobile device
WO2004066123A2 (en) * 2003-01-16 2004-08-05 Ironport Systems Inc. Electronic message delivery using a virtual gateway approach

Family Cites Families (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US184315A (en) * 1876-11-14 Improvement in combined stopper and dropper for bottles
US199095A (en) * 1878-01-08 Improvement in amalgamators
GB8918553D0 (en) 1989-08-15 1989-09-27 Digital Equipment Int Message control system
US5619648A (en) 1994-11-30 1997-04-08 Lucent Technologies Inc. Message filtering techniques
US5845077A (en) 1995-11-27 1998-12-01 Microsoft Corporation Method and system for identifying and obtaining computer software from a remote computer
US6101531A (en) 1995-12-19 2000-08-08 Motorola, Inc. System for communicating user-selected criteria filter prepared at wireless client to communication server for filtering data transferred from host to said wireless client
PL182423B1 (pl) 1995-12-29 2001-12-31 Tixi Com Gmbh Telecomm Sposób i uklad mikrokomputerowy do bezposredniego transferu danych PL PL PL
CN1104687C (zh) 1996-01-31 2003-04-02 伊普思龙网络公司 传输网络中在包路由选择和包交换之间动态转换的改进方法及设备
US5704017A (en) 1996-02-16 1997-12-30 Microsoft Corporation Collaborative filtering utilizing a belief network
US5884033A (en) 1996-05-15 1999-03-16 Spyglass, Inc. Internet filtering system for filtering data transferred over the internet utilizing immediate and deferred filtering actions
US6151643A (en) 1996-06-07 2000-11-21 Networks Associates, Inc. Automatic updating of diverse software products on multiple client computer systems by downloading scanning application to client computer and generating software list on client computer
US6453327B1 (en) 1996-06-10 2002-09-17 Sun Microsystems, Inc. Method and apparatus for identifying and discarding junk electronic mail
US6072942A (en) 1996-09-18 2000-06-06 Secure Computing Corporation System and method of electronic mail filtering using interconnected nodes
US5905859A (en) 1997-01-09 1999-05-18 International Business Machines Corporation Managed network device security method and apparatus
US5805801A (en) 1997-01-09 1998-09-08 International Business Machines Corporation System and method for detecting and preventing security
US6742047B1 (en) 1997-03-27 2004-05-25 Intel Corporation Method and apparatus for dynamically filtering network content
DE69724235T2 (de) 1997-05-28 2004-02-26 Siemens Ag Computersystem und Verfahren zum Schutz von Software
US7117358B2 (en) 1997-07-24 2006-10-03 Tumbleweed Communications Corp. Method and system for filtering communication
US6199102B1 (en) 1997-08-26 2001-03-06 Christopher Alan Cobb Method and system for filtering electronic messages
US6393465B2 (en) 1997-11-25 2002-05-21 Nixmail Corporation Junk electronic mail detector and eliminator
US6023723A (en) * 1997-12-22 2000-02-08 Accepted Marketing, Inc. Method and system for filtering unwanted junk e-mail utilizing a plurality of filtering mechanisms
WO1999032985A1 (en) 1997-12-22 1999-07-01 Accepted Marketing, Inc. E-mail filter and method thereof
GB2334116A (en) 1998-02-04 1999-08-11 Ibm Scheduling and dispatching queued client requests within a server computer
US6484261B1 (en) 1998-02-17 2002-11-19 Cisco Technology, Inc. Graphical network security policy management
US6504941B2 (en) 1998-04-30 2003-01-07 Hewlett-Packard Company Method and apparatus for digital watermarking of images
US6314421B1 (en) 1998-05-12 2001-11-06 David M. Sharnoff Method and apparatus for indexing documents for message filtering
US6074942A (en) * 1998-06-03 2000-06-13 Worldwide Semiconductor Manufacturing Corporation Method for forming a dual damascene contact and interconnect
US6308273B1 (en) 1998-06-12 2001-10-23 Microsoft Corporation Method and system of security location discrimination
US6161130A (en) 1998-06-23 2000-12-12 Microsoft Corporation Technique which utilizes a probabilistic classifier to detect "junk" e-mail by automatically updating a training and re-training the classifier based on the updated training set
US6192360B1 (en) 1998-06-23 2001-02-20 Microsoft Corporation Methods and apparatus for classifying text and for building a text classifier
US6167434A (en) 1998-07-15 2000-12-26 Pang; Stephen Y. Computer code for removing junk e-mail messages
US6112227A (en) 1998-08-06 2000-08-29 Heiner; Jeffrey Nelson Filter-in method for reducing junk e-mail
US6434600B2 (en) 1998-09-15 2002-08-13 Microsoft Corporation Methods and systems for securely delivering electronic mail to hosts having dynamic IP addresses
US6732273B1 (en) * 1998-10-21 2004-05-04 Lucent Technologies Inc. Priority and security coding system for electronic mail messages
GB2343529B (en) 1998-11-07 2003-06-11 Ibm Filtering incoming e-mail
US6546416B1 (en) 1998-12-09 2003-04-08 Infoseek Corporation Method and system for selectively blocking delivery of bulk electronic mail
US6643686B1 (en) 1998-12-18 2003-11-04 At&T Corp. System and method for counteracting message filtering
US6615242B1 (en) 1998-12-28 2003-09-02 At&T Corp. Automatic uniform resource locator-based message filter
US6266692B1 (en) 1999-01-04 2001-07-24 International Business Machines Corporation Method for blocking all unwanted e-mail (SPAM) using a header-based password
US6330590B1 (en) 1999-01-05 2001-12-11 William D. Cotten Preventing delivery of unwanted bulk e-mail
US6424997B1 (en) 1999-01-27 2002-07-23 International Business Machines Corporation Machine learning based electronic messaging system
US6477551B1 (en) 1999-02-16 2002-11-05 International Business Machines Corporation Interactive electronic messaging system
US6732149B1 (en) * 1999-04-09 2004-05-04 International Business Machines Corporation System and method for hindering undesired transmission or receipt of electronic messages
US6370526B1 (en) 1999-05-18 2002-04-09 International Business Machines Corporation Self-adaptive method and system for providing a user-preferred ranking order of object sets
US6592627B1 (en) 1999-06-10 2003-07-15 International Business Machines Corporation System and method for organizing repositories of semi-structured documents such as email
US6728690B1 (en) 1999-11-23 2004-04-27 Microsoft Corporation Classification system trainer employing maximum margin back-propagation with probabilistic outputs
US6321267B1 (en) 1999-11-23 2001-11-20 Escom Corporation Method and apparatus for filtering junk email
US6701440B1 (en) 2000-01-06 2004-03-02 Networks Associates Technology, Inc. Method and system for protecting a computer using a remote e-mail scanning device
US6633855B1 (en) 2000-01-06 2003-10-14 International Business Machines Corporation Method, system, and program for filtering content using neural networks
US7072942B1 (en) * 2000-02-04 2006-07-04 Microsoft Corporation Email filtering methods and systems
US6691156B1 (en) 2000-03-10 2004-02-10 International Business Machines Corporation Method for restricting delivery of unsolicited E-mail
US6684201B1 (en) 2000-03-31 2004-01-27 Microsoft Corporation Linguistic disambiguation system and method using string-based pattern training to learn to resolve ambiguity sites
US7210099B2 (en) 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
US20040073617A1 (en) 2000-06-19 2004-04-15 Milliken Walter Clark Hash-based systems and methods for detecting and preventing transmission of unwanted e-mail
US6990513B2 (en) 2000-06-22 2006-01-24 Microsoft Corporation Distributed computing services platform
US6779021B1 (en) 2000-07-28 2004-08-17 International Business Machines Corporation Method and system for predicting and managing undesirable electronic mail
US6842773B1 (en) 2000-08-24 2005-01-11 Yahoo ! Inc. Processing of textual electronic communication distributed in bulk
US6757830B1 (en) 2000-10-03 2004-06-29 Networks Associates Technology, Inc. Detecting unwanted properties in received email messages
US6971023B1 (en) 2000-10-03 2005-11-29 Mcafee, Inc. Authorizing an additional computer program module for use with a core computer program
US7243125B2 (en) 2000-12-08 2007-07-10 Xerox Corporation Method and apparatus for presenting e-mail threads as semi-connected text by removing redundant material
US6775704B1 (en) 2000-12-28 2004-08-10 Networks Associates Technology, Inc. System and method for preventing a spoofed remote procedure call denial of service attack in a networked computing environment
US6901398B1 (en) * 2001-02-12 2005-05-31 Microsoft Corporation System and method for constructing and personalizing a universal information classifier
GB2373130B (en) 2001-03-05 2004-09-22 Messagelabs Ltd Method of,and system for,processing email in particular to detect unsolicited bulk email
US6928465B2 (en) 2001-03-16 2005-08-09 Wells Fargo Bank, N.A. Redundant email address detection and capture system
US6751348B2 (en) 2001-03-29 2004-06-15 Fotonation Holdings, Llc Automated detection of pornographic images
US7188106B2 (en) 2001-05-01 2007-03-06 International Business Machines Corporation System and method for aggregating ranking results from various sources to improve the results of web searching
US6768991B2 (en) 2001-05-15 2004-07-27 Networks Associates Technology, Inc. Searching for sequences of character data
US7103599B2 (en) 2001-05-15 2006-09-05 Verizon Laboratories Inc. Parsing of nested internet electronic mail documents
US20030009698A1 (en) 2001-05-30 2003-01-09 Cascadezone, Inc. Spam avenger
US7502829B2 (en) 2001-06-21 2009-03-10 Cybersoft, Inc. Apparatus, methods and articles of manufacture for intercepting, examining and controlling code, data and files and their transfer
US7328250B2 (en) 2001-06-29 2008-02-05 Nokia, Inc. Apparatus and method for handling electronic mail
TW533380B (en) 2001-07-23 2003-05-21 Ulead Systems Inc Group image detecting method
US6769016B2 (en) 2001-07-26 2004-07-27 Networks Associates Technology, Inc. Intelligent SPAM detection system using an updateable neural analysis engine
US20060036701A1 (en) 2001-11-20 2006-02-16 Bulfer Andrew F Messaging system having message filtering and access control
CN1350247A (zh) * 2001-12-03 2002-05-22 上海交通大学 针对邮件内容的监管系统
CN1350246A (zh) * 2001-12-03 2002-05-22 上海交通大学 智能化的电子邮件内容过滤方法
US20030204569A1 (en) 2002-04-29 2003-10-30 Michael R. Andrews Method and apparatus for filtering e-mail infected with a previously unidentified computer virus
US20030229672A1 (en) 2002-06-05 2003-12-11 Kohn Daniel Mark Enforceable spam identification and reduction system, and method thereof
US8046832B2 (en) 2002-06-26 2011-10-25 Microsoft Corporation Spam detector with challenges
US20040003282A1 (en) * 2002-06-28 2004-01-01 Smith Alrick Lockhart Method of storing data
US8924484B2 (en) 2002-07-16 2014-12-30 Sonicwall, Inc. Active e-mail filter with challenge-response
US20040019651A1 (en) * 2002-07-29 2004-01-29 Andaker Kristian L. M. Categorizing electronic messages based on collaborative feedback
US7363490B2 (en) 2002-09-12 2008-04-22 International Business Machines Corporation Method and system for selective email acceptance via encoded email identifiers
US20040083270A1 (en) * 2002-10-23 2004-04-29 David Heckerman Method and system for identifying junk e-mail
US7149801B2 (en) 2002-11-08 2006-12-12 Microsoft Corporation Memory bound functions for spam deterrence and the like
US6732157B1 (en) 2002-12-13 2004-05-04 Networks Associates Technology, Inc. Comprehensive anti-spam system, method, and computer program product for filtering unwanted e-mail messages
AU2003288515A1 (en) 2002-12-26 2004-07-22 Commtouch Software Ltd. Detection and prevention of spam
US7533148B2 (en) 2003-01-09 2009-05-12 Microsoft Corporation Framework to enable integration of anti-spam technologies
US7171450B2 (en) 2003-01-09 2007-01-30 Microsoft Corporation Framework to enable integration of anti-spam technologies
US7249162B2 (en) * 2003-02-25 2007-07-24 Microsoft Corporation Adaptive junk message filtering system
US20040177120A1 (en) 2003-03-07 2004-09-09 Kirsch Steven T. Method for filtering e-mail messages
US20050015455A1 (en) 2003-07-18 2005-01-20 Liu Gary G. SPAM processing system and methods including shared information among plural SPAM filters

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999005814A2 (en) * 1997-07-24 1999-02-04 Worldtalk Corporation E-mail firewall with stored key encryption/decryption
JP2001518724A (ja) * 1997-07-24 2001-10-16 ワールドトーク・コーポレイション 格納された鍵による暗号化/暗号解読を用いた電子メール用ファイアウォール
WO1999017504A1 (en) * 1997-09-29 1999-04-08 Ericsson Inc. Messaging application having a plurality of interfacing capabilities
JP2001518747A (ja) * 1997-09-29 2001-10-16 エリクソン インコーポレイテッド 複数のインターフェーシング能力を有するメッセージング・アプリケーション
WO1999033188A2 (en) * 1997-12-23 1999-07-01 Bright Light Technologies, Inc. Apparatus and method for controlling delivery of unsolicited electronic mail
JP2001527257A (ja) * 1997-12-23 2001-12-25 ブライト ライト テクノロジーズ,インコーポレイテッド 望まれていない電子メールの配信を制御する装置及び方法
JP2003067304A (ja) * 2001-08-27 2003-03-07 Kddi Corp 電子メールフィルタリングシステム、電子メールフィルタリング方法、電子メールフィルタリングプログラム及びそれを記録した記録媒体
JP2003085079A (ja) * 2001-09-12 2003-03-20 Xaxon R & D Corp コンピュータネットワークにおけるコンテンツフィルタリング装置及びフィルタパターンファイルの配信方法並びに記憶媒体、プログラム
WO2003103218A2 (en) * 2002-05-31 2003-12-11 Oracle International Corporation Method and apparatus for controlling data provided to a mobile device
JP2005528850A (ja) * 2002-05-31 2005-09-22 オラクル・インターナショナル・コーポレイション モバイル機器に提供されるデータを制御するための方法および装置
WO2004066123A2 (en) * 2003-01-16 2004-08-05 Ironport Systems Inc. Electronic message delivery using a virtual gateway approach
JP2006515703A (ja) * 2003-01-16 2006-06-01 アイアンポート システムズ インコーポレイテッド 仮想ゲートウエイ手法を用いる電子メッセージの配信

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502998A (ja) * 2004-06-14 2008-01-31 クゥアルコム・インコーポレイテッド サーバーへの電子メッセージのコンテンツについての通信情報
JP2010532591A (ja) * 2007-02-22 2010-10-07 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Ipマルチメディアサブシステムサービスへのグループアクセス
JP2008276388A (ja) * 2007-04-26 2008-11-13 Canon It Solutions Inc 情報処理装置、情報処理装置の制御方法、プログラム、及び記録媒体
JP2009104400A (ja) * 2007-10-23 2009-05-14 Kddi Corp 電子メールフィルタリング装置、電子メールのフィルタリング方法およびプログラム
JP2009140437A (ja) * 2007-12-10 2009-06-25 Just Syst Corp フィルタリング処理方法、フィルタリング処理プログラムおよびフィルタリング装置

Also Published As

Publication number Publication date
US20040167964A1 (en) 2004-08-26
CN1742266A (zh) 2006-03-01
IL169885A (en) 2010-11-30
WO2004079501A2 (en) 2004-09-16
RU2005126821A (ru) 2006-01-20
ATE464722T1 (de) 2010-04-15
WO2004079501A3 (en) 2005-10-06
BR0318024A (pt) 2005-12-06
CA2512821A1 (en) 2004-09-16
NO20053915L (no) 2005-09-22
TWI393391B (zh) 2013-04-11
RU2327205C2 (ru) 2008-06-20
DE60332168D1 (de) 2010-05-27
TW200423643A (en) 2004-11-01
CA2512821C (en) 2012-12-18
EP1597645B1 (en) 2010-04-14
CN100437544C (zh) 2008-11-26
KR20060006767A (ko) 2006-01-19
NO20053915D0 (no) 2005-08-22
US7640313B2 (en) 2009-12-29
ZA200505907B (en) 2007-03-28
EP1597645A2 (en) 2005-11-23
JP4524192B2 (ja) 2010-08-11
IL169885A0 (en) 2007-07-04
EP1597645A4 (en) 2009-03-18
HK1085286A1 (en) 2006-08-18
US7249162B2 (en) 2007-07-24
MXPA05008205A (es) 2005-09-30
US20080010353A1 (en) 2008-01-10
AU2003300051B2 (en) 2009-02-19
AU2003300051A1 (en) 2004-09-28
KR101076908B1 (ko) 2011-10-25
NZ541391A (en) 2008-08-29

Similar Documents

Publication Publication Date Title
JP4524192B2 (ja) 適応型ジャンクメッセージフィルタリングシステム
US11765121B2 (en) Managing electronic messages with a message transfer agent
US8935190B2 (en) E-mail handling system and method
US8108323B2 (en) Distributed spam filtering utilizing a plurality of global classifiers and a local classifier
US10178115B2 (en) Systems and methods for categorizing network traffic content
CN100527117C (zh) 在含多个反垃圾邮件模块的系统中确定消息的方法和系统
US7577709B1 (en) Reliability measure for a classifier
US9710759B2 (en) Apparatus and methods for classifying senders of unsolicited bulk emails
JP4387205B2 (ja) アンチスパム技術の統合を可能にするフレームワーク
US20050204001A1 (en) Method and devices for prioritizing electronic messages
US20150089007A1 (en) E-mail handling based on a behavioral history
US20100161537A1 (en) System and Method for Detecting Email Spammers
AU2004216772A2 (en) Feedback loop for spam prevention
JP2004164584A (ja) 電子文書を分類するための方法およびシステム
US10171409B2 (en) Systems and methods for path optimization in a message campaign
US7996897B2 (en) Learning framework for online applications
JP4963099B2 (ja) 電子メールフィルタリング装置、電子メールのフィルタリング方法およびプログラム
US8290768B1 (en) System and method for determining a set of attributes based on content of communications
US20200412685A1 (en) Communication association model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100531

R150 Certificate of patent or registration of utility model

Ref document number: 4524192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130604

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees