JP2005235206A - スパム防止のためのインテリジェントな強制隔離 - Google Patents

スパム防止のためのインテリジェントな強制隔離 Download PDF

Info

Publication number
JP2005235206A
JP2005235206A JP2005036833A JP2005036833A JP2005235206A JP 2005235206 A JP2005235206 A JP 2005235206A JP 2005036833 A JP2005036833 A JP 2005036833A JP 2005036833 A JP2005036833 A JP 2005036833A JP 2005235206 A JP2005235206 A JP 2005235206A
Authority
JP
Japan
Prior art keywords
messages
message
spam
classification
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005036833A
Other languages
English (en)
Other versions
JP4818616B2 (ja
Inventor
Derek Hazeur
ヘイザー デリク
Geoffrey J Hulten
ジェイ.ハルトン ジェフリー
Joshua T Goodman
ティー.グッドマン ジョシュア
Robert L Rounthwaite
エル.ラウンスウェイト ロバート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2005235206A publication Critical patent/JP2005235206A/ja
Application granted granted Critical
Publication of JP4818616B2 publication Critical patent/JP4818616B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/212Monitoring or handling of messages using filtering or selective blocking

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Economics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Operations Research (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Medicines Containing Material From Animals Or Micro-Organisms (AREA)

Abstract

【課題】 スパム防止に関連してより堅牢な分類システムを実施するインテリジェントな強制隔離のシステムおよび方法を提供する。
【解決手段】 フィルタが、それらのメッセージについての情報を欠いており、このため、分類が一時的に遅延される。これにより、フィルタ更新がより正確な分類を伴って届くように、さらなる時間が与えられる。疑わしいメッセージは、所定の期間にわたって強制隔離して、それらのメッセージに関してさらなるデータが収集されることを可能にする。いくつかの要因を使用して、さらなる分析のためにメッセージにフラグが付けられる可能性がより高いかどうかを判定することができる。フィードバックループシステムによるユーザフィードバックも、メッセージの分類を実施するのに利用することができる。ある期間の後、メッセージの分類を再開することができる。
【選択図】 図1

Description

本発明は、正当な情報(例えば、良好なメール)と望ましくない情報(例えば、迷惑メール)の両方を識別するためのシステムおよび方法に関し、より詳細には、一つには、メッセージに関してさらなる情報を収集して疑わしいメッセージの分類を実施できるまで、そのようなメッセージの配信を少なくとも遅らせることにより、スパム防止のためにメッセージを分類することに関する。
インターネットなどの世界的な通信網の到来により、莫大な数の潜在的な顧客と接触するための商業的機会がもたらされた。電子メッセージング、特に電子メール(「eメール」)が、不要な広告および宣伝(「スパム」とも呼ばれる)をネットワークユーザに頒布する手段としてますます浸透している。
コンサルタント−市場調査会社であるRadicati Group,Inc.は、2002年8月の時点で、20億の迷惑メールメッセージが毎日、送信されているものと推定しており、この数字は、2年ごとに3倍になるものと見込まれている。個人およびエンティティ(例えば、企業、政府機関)は、迷惑メッセージによってますます不都合を被り、しばしば、不快にさせられている。このため、迷惑メールは、現在、信頼できるコンピューティングへの大きな脅威となっているか、または近々そうなる。
迷惑メールを阻むのに利用される重要な技術が、フィルタリングシステム/方法の使用である。1つの定評のあるフィルタリング技術は、機械学習アプローチに基づき、機械学習フィルタ群が、着信メッセージに、そのメッセージが迷惑メッセージである確率を割り当てる。このアプローチでは、2つのクラスの典型的なメッセージ(例えば、迷惑メッセージと迷惑メッセージではないメッセージ)から、通常、特徴が抽出され、学習フィルタが適用されて、2つのクラスが確率論的に区別される。多くのメッセージ特徴は、内容(例えば、件名および/またはメッセージの本文の中の語および句)に関連するため、そのようなタイプのフィルタは、一般に、「内容ベースのフィルタ」と呼ばれる。
一部の迷惑メッセージ/スパムフィルタは、適応性があり、これは、複数言語使用のユーザ、および希少言語を話すユーザが、ユーザ固有のニーズに適応することが可能なフィルタを必要とするという点で重要である。さらに、すべてのユーザが、何が迷惑メッセージ/スパムであり、何が迷惑メッセージ/スパムではないかについて意見が一致しているわけではない。したがって、暗黙に(例えば、ユーザの行動を観察することを介して)訓練することができるフィルタを使用することにより、ユーザの特定のメッセージ識別のニーズに合うようにそれぞれのフィルタを動的に調整することができる。
フィルタリング適応のための1つのアプローチは、メッセージに迷惑メッセージまたは迷惑メッセージではないメッセージとしてラベルを付けるようにユーザに要求することである。残念ながら、そのような手作業を多く要する(manually intensive)訓練技術は、そのような訓練を適切に実行するのに要求される時間は言うに及ばず、そのような訓練に関連する複雑さのため、多くのユーザには望ましくない。さらに、そのような手動の訓練技術は、しばしば、個々のユーザによって損なわれる。例えば、無料メーリングリストへの加入が、しばしば、ユーザによって忘れられ、このため、迷惑メールと誤ってラベルが付けられる。その結果、正当なメールが無期限にユーザのメールボックスからブロックされる。別の適応フィルタ訓練アプローチは、暗黙の訓練キュー(cue)を使用することである。例えば、ユーザが、メッセージに返信した、またはメッセージを転送した場合、このアプローチは、メッセージが迷惑メッセージではないと見なす。しかし、この種のメッセージキューだけを使用することは、訓練プロセスに統計的な偏りを導入し、それぞれより低い精度のフィルタ群をもたらす。
さらに別のアプローチは、すべてのユーザ電子メールを訓練のために利用することであり、初期ラベルが既存のフィルタによって割り当てられ、ユーザが、ときとして、明示的なキュー(例えば、「ユーザ訂正」法)−例えば、「迷惑メッセージとして削除する」や「迷惑メッセージではない」などの選択肢を選択して−および/または暗黙のキューでそれらの割り当てを指定変更する(override)。そのようなアプローチは、先に説明した諸技術より優れているが、それでも、以下に説明し、主張する本発明と比べて不十分である。
さらに、スパムに対抗するように設計された現在のフィルタ技術は、問題を抱えたままである。例えば、スパム発信者(spammer)は、フィルタを通過することができる1つのメッセージを見つけることができた場合、フィルタが更新される前に、無数のスパムメッセージを通過させることができる。フィルタをどれだけ迅速に更新することができるかに関わらず、スパム発信者は、単により大きい帯域幅を獲得することにより、ますます速くメッセージを送ることができるものと考えられる。
以下に、本発明の一部の態様の基本的な理解を提供するため、本発明の簡略化した大要を提示する。この大要は、本発明の広範な概要ではない。この大要は、本発明の重要な/不可欠な要素を明らかにする、または本発明の範囲を画定することを意図するものではない。この大要の唯一の目的は、後に提示するより詳細な説明の前置きとして、本発明の一部の概念を簡略化した形で提示することである。
本発明は、スパム防止に関連してアイテムを分類することを実施するインテリジェントな強制隔離のシステムおよび方法を提供する。より具体的には、本発明は、メッセージを疑わしいとして分類するか、またはメッセージに疑わしいとフラグを付け、かつ/またはメッセージの分類(スパムまたは良好としての)を一時的に遅らせる。メッセージおよび/または送信者についてのさらなる情報を学習するのに好適な時間を提供する遅延期間または強制隔離期間が、フィルタおよび/またはシステムによって設定されることが可能である。
本発明の一態様によれば、情報は、メッセージ量(例えば、送信者別のメッセージ量)などの活動および/または挙動を監視するように構成することができる1つまたは複数のシステムコンポーネントから獲得されることが可能である。例えば、少量で送信されたメッセージは、スパムである可能性がそれほど高くない。同様に、大量に送信されたメッセージは、スパムである可能性がより高い。
本発明の別の態様によれば、メッセージ内容を分析して、その内容が、ハニーポット(honeypot)で見られるメッセージに実質的に似ているかどうかを判定することができる。ハニーポット(わな、脆弱性をもったサーバやネットワークをわざとインターネットにさらうこと)とは、既知のスパムターゲットを参照し、着信メッセージをスパムとして識別するためのおよび/または特定の商業者のメッセージアドレス処理を追跡するためのものであることを思い起こされたい。一般に、ハニーポットは、正当なメッセージのセットを特定することができ、他のすべてのメッセージをスパムと見なすことができる電子メールアドレスである。例えば、電子メールアドレスは、人々によって見つけられる可能性が低い制限された形で、Webサイト上で開示されることが可能である。このため、このアドレスに送信されたあらゆるメッセージは、スパムと見なすことができる。代替として、電子メールアドレスは、その商業者から正当なメッセージが受信されるものと見込まれる商業者にだけ開示されていることが可能である。このため、その商業者から受信されるメッセージは正当であるが、受信される他のすべてのメッセージは、間違いなくスパムであると考えることができる。ハニーポットおよび/または他のソース(例えば、ユーザ)に由来するスパムデータは、フィードバックループシステムに組み込むことができるが、ハニーポットを使用するスパム分類の大幅な増加のため、そのようなデータに少なめに重みを付けて(down weighted)、偏ったフィードバック結果を得ることを抑えることができる。
本発明の別の態様によれば、メッセージ内容を分析して、そのメッセージ内容が、他の方法を介してフィードバックを受けたメッセージに実質的に似ているかどうかを判定することができ、他の方法には、ユーザによって「これは迷惑メッセージである」とマークが付けられること、ユーザによって「これは迷惑メッセージではない」とマークが付けられること、フィードバックループユーザによって類別されること(上記の「スパム防止のためのフィードバックループ」を参照)、他の何らかの設定における(例えば、J電子メールサービスにおいてではなく、Yサーバ上における)フィードバックループ技術の展開によって類別されること、メッセージ内容を他のスパムリポジトリと比較することが含まれる。
本発明のさらに別の態様によれば、強制隔離をハッシュベースの技術と組み合わせることができる。1つの実例では、メッセージをハッシュして、強制隔離されたメッセージが、後に良好である、またはスパムであると分類された(以前に強制隔離された)他の何からのメッセージと類似しているかどうかを確認するのに役立てることができ、メッセージを強制隔離の外に出す。スパム発信者は、通常、数千または数百万のユーザにメールを送信する。メッセージは、ときとして、同一であるか、ほぼ同一であるか、または1つのタイプとして識別できる。このため、互いに類似するメッセージを捕捉することにより、メッセージの分類が容易になることが可能である。ただし、ハニーポット、フィードバックループ、またはユーザの苦情において類似するメッセージが全く存在しない(または非常にわずかしか存在しない)場合、そのメッセージは、多分、特定の受信者、または特定のグループの受信者を標的にしており、したがって、送信者は、スパム発信者でない可能性が高い。
強制隔離されたメッセージは、ユーザに見えることも、見えないことも可能な、「強制隔離」、「迷惑メッセージ」、「迷惑メッセージである可能性があるメッセージ」などと明示された特別フォルダの中に格納することができる。強制隔離フォルダに送られたメッセージは、強制隔離されたメッセージが、通常、ユーザに見えるか否かに関わらず、フィードバックループのために選択することができる。つまり、削除されたメッセージ、迷惑メッセージフォルダに入れられたメッセージ、または受信トレイ(inbox)に入れられたメッセージと全く同様に、強制隔離フォルダに送られたメッセージは、ユーザ分類のために選択することができる。フィードバックループは、スパムを検出すること、およびより堅牢なスパムフィルタを構築することを実施するようにメッセージの少なくともサブセットをスパムである、または良好であると分類するようにユーザに求めることを伴うポーリング(polling)機構であることを思い起されたい。本発明で使用するとおり、フィードバックループを利用して、強制隔離されたメッセージのランダムなサンプリングについてユーザにポーリングを行うことができる。例えば、強制隔離されたメッセージの少なくともサブセットが、ユーザ分類のためにフィードバックループに参加している、メッセージのそれぞれの受信者(例えば、ユーザ)に到達することを許すことができる。
フィードバックループの代替として、またはフィードバックループに加えて、強制隔離フォルダがメッセージ受信者(例えば、少なくともメッセージ受信者のサブセット)に可視であり、特別フォルダの中に保持されるメッセージの少なくともサブセットを分類する機会がメッセージ受信者に与えられることも可能である。ただし、その場合、受信者は、フィードバックループ参加者を兼ねることも、そうでないことも可能である。受信者は、そのようなメッセージが良好である、または迷惑メッセージであると報告できることが可能である。そのような特徴付けは、「迷惑メッセージ報告」ボタンをクリックして、メッセージがスパムであると示すこと、あるいは「良好」ボタンまたは「メッセージ救出」ボタンをクリックして、メッセージが正当であると示すことなど、1つまたは複数のボタンをクリックすることによって実施することができる。このため、少なくとも限定された一揃いの強制隔離されたメッセージに関する、フィードバックループ方法または迷惑メッセージ/良好メッセージ報告方法を介したユーザデータが、特定の強制隔離されたメッセージがスパムであるかどうかを判定することを容易にすることができる。
不確実なメッセージをスパムとして分類して、後に、ユーザがそれらのメッセージを削除から救出する救出システムとは異なり、本発明は、分類(スパムとしての、またはスパムではないとしての)を遅らせ、一部のユーザが、特定のメッセージに関するユーザの見解を提供して、後の分類を助けることができるようにすることを理解されたい。さらに、フィードバックループ参加者および/または要請を受けていない(unsolicited)メッセージ受信者によって送られた苦情などのユーザの苦情を利用して、強制隔離されているメッセージの少なくとも一部がスパムであるかどうかを判定するのを容易にすることができる。ユーザからの苦情がないことも、記録し、特定のメッセージがスパムであるかどうかを判定するのに役立てることができる。
メッセージを強制隔離することの代替として、不確かなメッセージ、または疑わしいメッセージの少なくともサブセットが、強制隔離なしに、または明示的なユーザ分類(例えば、フィードバック要求、ポーリングなど)なしにフィルタを少しずつ流れ出る、または通過することを許すこともできる。代わりに、それらのメッセージに関するユーザ/受信者の行動を監視する、または観察することができる。少しずつ流れ出ることが許されるメッセージの量は、送信者ごとに一定のメッセージ数(例えば、最初の1000通)であること、または送信者別などの、メッセージの一定のパーセンテージであることが可能である。次に、それらのメッセージの受信者に、メッセージがスパムである、またはスパムではないと特徴付ける暗黙の機会を与えることができる。それらのメッセージに関するユーザの行動を使用して、フィルタを更新することができる。
本発明のさらに別の態様では、機械学習システム(例えば、ニューラルネットワーク、サポートベクトルマシン(SVM)、ベイジアンビリーフネットワーク(Bayesian Belief Network))が、正当なメッセージとスパムメッセージの両方を認識し、さらに、それらを区別するように訓練された、改良され、かつ/または更新されたスパムフィルタ群を作成することを実施する。新しいスパムフィルタ、または更新されたスパムフィルタが本発明に従って訓練されると、そのフィルタをメールサーバ群およびクライアント電子メールソフトウェアプログラム群に配置することができる。さらに、新しいスパムフィルタ、または更新されたスパムフィルタを、特定のユーザによって提供された分類および/または他の情報に対して訓練して、個人用設定されたフィルタの性能を向上させることができる。追加の訓練データセットが構築されるにつれ、スパムフィルタは、機械学習を介してさらなる訓練を受け、フィルタの性能および精度が最適化されることが可能である。メッセージ分類を介するユーザフィードバックも、スパムフィルタ群および保護者による制限(parental control)のためのリストを生成するため、スパムフィルタ性能を試験するため、および/またはスパム発信元を識別するために利用することができる。
さらに、部分的にはユーザならびにシステム分析によって生成された訓練データも、新たに強制隔離されたメッセージに特に適用できる新しいサブフィルタ群(良好なメッセージ、スパムメッセージ、および疑わしいメッセージに関する複数の特徴について訓練されたフルサイズのフィルタより小さい)を作成するのに利用することができる。新しいサブフィルタ群は、新たに強制隔離されたメッセージから抽出された1つまたは複数の特定の特徴(特徴のサブセット)について訓練することができる。例えば、サブフィルタをIPアドレスの特徴についてだけ訓練することができる。
情報が獲得されるとすぐに、かつ/または強制隔離期間が経過すると、1つまたは複数の(スパム)フィルタが更新されて、強制隔離されたメッセージの適切な分類を実施することが可能である。これは、メッセージが強制隔離から出る用意ができるたびに毎回、フィルタが更新されなければならないことを意味しないことに留意されたい(ただし、それが実用的である場合、更新されることも可能である)。本発明は、代りに、強制隔離期間を事前設定されたフィルタ更新スケジュールと同期するように選択して、フィルタ更新が行われた直後にメッセージのバッチが強制隔離から出る用意ができるように(このため、更新された情報を使用して分類される、または再分類されるように)することができる。このスケジュール設定は、暗黙に(例えば、新しいフィルタが午後1時に届くようにスケジュールされ、したがって、メッセージは、午後1時01分まで強制隔離される)、または明示的に(例えば、メッセージは、いつであれ「新しいフィルタが届くまで」強制隔離される)行われることが可能である。このため、それらの疑わしいメッセージは、更新されたフィルタを通って戻され、スパムである、またはスパムではないと分類されることが可能である。例えば、遅らせられたメッセージが、一つには新しい否定的な情報がないことに基づき、「良好」であると分類されることが可能である。同様に、遅らせられたメッセージが、新しい肯定的な情報に基づいて良好であると分類されることも可能である。
さらに、ユーザおよび/またはシステムフィードバックから収集された情報を使用して、既に使用中の1つまたは複数のフィルタを更新することもできる。その結果、遅らせられたメッセージが、分類のために再びフィルタを通って処理される、または通過させられることが可能である。さらに、強制隔離を受ける後の着信メッセージに適用するために新しいフィルタ群を訓練することもできる。
強制隔離期間中、または遅延期間中にメッセージがスパムであると判定された場合、そのメッセージを特別フォルダ(例えば、強制隔離フォルダ)から直接に削除すること、かつ/または破棄するために別のフォルダ(例えば、トラッシュ(trash)フォルダ)に移動させることができる。そうではなく、良好であると分類されたメッセージは、メッセージのそれぞれの解放の日付(強制隔離からの解放の日付)をタイムスタンプして、宛先の受信者に配信することができる。このため、それらのメッセージは、2つのタイムスタンプ、すなわち、最初の着信日を示す第1のタイムスタンプ、および強制隔離からの解放を示す第2のタイムスタンプを有することが可能である。強制隔離からの解放の日付は、Date、すなわち、ヘッダフィールドであることが可能であり、メッセージが見られる場合、クライアントソフトウェアがそれらのメッセージを適切に並べ替えることが確実にされる。(詳細には、メッセージが大幅に遅らせられた後、通常の順序で現れる場合、そのメッセージは、日付順に並べ替えられた受信トレイの、ユーザがメッセージを見る可能性が低いセクションに現れる可能性がある。新しい日付をスタンプすることは、メッセージがユーザに見えるようになることを確実にするのに役立つ。)
以上の目的、および関連する目的の達成のため、本発明のいくつかの例示的な態様を、以下の説明および添付の図面に関連して本明細書で説明する。ただし、それらの態様は、本発明の原理を使用することができる様々な形のいくつかに過ぎず、本発明は、すべてのそのような態様および同等の態様を含むものとする。本発明のその他の利点、および新規性のある特徴は、本発明の以下の詳細な説明を添付の図面と併せて考慮することで明白となり得る。
次に図面を参照して本発明を説明する。すべての図面で、同様の要素を指すのに同様の符号を使用している。以下の説明では、説明の目的で、本発明の完全な理解を提供するため、多数の特定の詳細を記載する。しかし、本発明は、それらの特定の詳細なしでも実施できることが明らかであろう。その他、周知の構造およびデバイスは、本発明を説明するのを容易にするため、ブロック図の形態で示す。
本出願で使用する「コンポーネント」および「システム」という用語は、ハードウェア、ハードウェアとソフトウェアの組み合わせ、ソフトウェア、または実行中のソフトウェアであるコンピュータ関連エンティティを指すものとする。例えば、コンポーネントは、プロセッサ上で実行されているプロセス、プロセッサ、オブジェクト、実行可能ファイル、実行のスレッド、プログラム、および/またはコンピュータであることが可能であるが、以上には限定されない。例として、サーバ上で実行されているアプリケーションとサーバが、ともにコンポーネントであることが可能である。1つまたは複数のコンポーネントが、プロセス内部および/または実行のスレッド内部に存在することが可能であり、コンポーネントは、1つのコンピュータ上に局所化されていること、および/または2つ以上のコンピュータの間で分散されていることが可能である。
本発明は、機械学習スパムフィルタリングのために訓練データを生成することに関連して、様々な推論スキームおよび/または推論技術を組み込むことが可能である。本明細書で使用する「推論」という用語は、イベントおよび/またはデータを介してキャプチャされた所見のセットから、システム、環境、および/またはユーザの状態について推論する、または推測するプロセスを全般に指す。推論を使用して、例えば、特定のコンテキストまたはアクションを識別すること、または諸状態にわたる確率分布を生成することができる。推論は、確率論的であること、つまり、データおよびイベントの考慮に基づく、関心対象の諸状態にわたる確率分布の計算であることが可能である。推論は、イベントおよび/またはデータのセットから、より高レベルのイベントを構成するために使用される諸技術を指すことも可能である。そのような推論は、イベントが時間的に近接して互いに関連しているか否か、イベントおよびデータが、1つのイベントソースやデータソースに由来するか、複数のイベントソースやデータソースに由来するかにかかわらず、観察されたイベントおよび/または格納されたイベントデータのセットから、新しいイベントまたはアクションの構築をもたらす。
メッセージという用語を本明細書全体で広く使用しているが、この用語は、本来の電子メールに限定されず、任意の適切な通信アーキテクチャを介して配信することができる任意の形態の電子メッセージングを含むように適切に適応させることができることを理解されたい。例えば、2名以上の人々の間で会議または会話を実施する会議アプリケーション(例えば、対話型チャットプログラム、およびインスタントメッセージングプログラム)も、本明細書で開示するフィルタリングの利点を利用することができる。というのは、ユーザがメッセージを交換する際、不要なテキストが、通常のチャットメッセージの中に電子的に差し入れられ、かつ/または始めのメッセージとして、終りのメッセージとして、または以上のすべてとして挿入されることが可能である。この特定の応用例では、望ましくない内容(例えば、コマーシャル、宣伝、または広告)をキャプチャし、迷惑メッセージとしてタグを付けるために、特定のメッセージ内容(テキストおよびイメージ)を自動的にフィルタリングするようにフィルタを訓練することができる。
本発明において、「受信者」という用語は、着信メッセージの宛先を指す。「ユーザ」という用語は、本明細書で説明したフィードバックループのシステムおよびプロセスに参加するよう、受動的または能動的に選択した、または間接的に選択された受信者を指す。
本発明は、着信するアイテムまたはメッセージのインテリジェントな強制隔離を実施するシステムおよび方法に関わる。インテリジェントな強制隔離とは、スパムであると疑われる一部のメッセージを遅らせることを指す。これにより、フィルタが、更新されて、それらのメッセージのより正確な分類に達する時間が与えられる。実際、強制隔離なしの次のシナリオを考慮されたい。スパム発信者が、現在のフィルタを通過するメッセージを見つける。スパム発信者は、そのメッセージを10000000名の人々にできる限り迅速に、メッセージシステムがフィルタ更新を得ることができる前に送信する。10000000名の人々は、スパムを受信する(受信トレイの中で)。次に、強制隔離を伴う同一のシナリオを考慮されたい。スパム発信者が、現在、スパムとして捕捉されない、または分類されないメッセージを見つける。しかし、そのメッセージは、何らかの形で奇妙であり、システムに疑わしくなっている。スパム発信者は、そのメッセージを10000000名の人々にできる限り迅速に、フィルタが更新されることが可能である前に送信する。スパム発信者のメッセージは、疑わしく、フィルタが、そのメッセージをスパムである、またはスパムではないと簡単に分類するのに十分な情報が用意されていないため、以下に本発明で説明するとおり、強制隔離されることが可能である。
図1を参照すると、本発明の態様によるフィードバックループシステムを実装する強制隔離システム100の全体的なブロック図が示されている。メッセージ受信コンポーネント110が、着信するメッセージ(IMと表す)を受信し、宛先の受信者120に配信する。メッセージ受信コンポーネントは、多くのメッセージ受信コンポーネントで通例であるように、不要なメッセージ(例えば、スパム)の配信を抑えるため、少なくとも1つのフィルタ130(例えば、第1の分類コンポーネント)を含む、またはそのフィルタ130と協働することが可能である。メッセージ受信コンポーネント110は、フィルタ130と連携して、メッセージ(IM)を処理し、メッセージのフィルタリング済みのサブセット(FILTERED IMと表す)を宛先の受信者120に提供する。
フィルタ130は、フィードバックループシステムを使用して訓練されていることが可能であることに留意されたい。詳細には、フィルタ130は、信頼されたユーザフィードバックに少なくともある程度、基づき、スパムを識別するだけでなく、スパムメールと良好なメールを区別するようにも前もって訓練されている。機械学習システムは、良好なメッセージとスパムメッセージの両方に関するユーザフィードバックを含む訓練データを利用することにより、そのようなフィルタ群130の訓練を実施する。
1つまたは複数のフィルタ130は、着信メッセージについて十分な情報を有する場合、メッセージにより正確にスコアを付け、メッセージがスパムである、またはスパムではない(例えば、良好)と分類することができる。このため、宛先の受信者120に配信されるメッセージのサブセット(FILTERED IM)に関して、フィルタ群130は、メッセージが良好であったと判定するのに十分な量の情報を含むと結論することができる。同様に、着信メッセージの別のサブセットが、スパムとして識別されて、適切な形で破棄されることが可能である(図示せず)。
あいにく、スパム発信者、および正当な送信者でも、それほどではないにせよ、自らの送信者情報のいくらかの部分を他の部分よりも頻繁に変更する傾向がある。例えば、スパム発信者は、スパムフィルタ群を欺こうとして、または通り抜けようとして、自らのIPアドレス、ドメイン名、およびメッセージ内容など、自らのメッセージの多くの態様を偽装する、または改変する傾向が非常に強い。逆に、一部の正当な送信者は、自らのIPアドレスをロジスティック上(logistical)の理由で変更する。例えば、ニューヨークタイムズ社は、増加した数のオンライン加入者に対応するのに必要とされる新しいサーバ群の追加のため、ときどきIPアドレスを変更することが知られている。着信メッセージの少なくともサブセットにおけるこれらのタイプの変更に起因して、フィルタ群130は、メッセージについて、スパム確率スコア(例えば、メッセージがスパムである確率)を正確に算出するのに十分な情報を有さない可能性がある。その結果、情報の欠如のため、メッセージを正確に分類することができない。
従来のスパム防止システムとは異なり、分類のための情報を欠いたメッセージは、本発明では、それらのメッセージについてさらなる情報が収集されている間、遅らせる、つまり強制隔離する(将来の分析のためにフラグを付ける)ことができる。強制隔離されたメッセージは、強制隔離期間中に収集された情報でフィルタ群130を更新することができるまで、ある期間(例えば、遅延期間または強制隔離期間)にわたって遅延メッセージストア140に移動させることができる。遅延メッセージストアは、他の何らかのストア、例えば、迷惑メッセージフォルダ、またはサーバ上のキュー(queue)と同一であることが可能である。このストアの中の強制隔離されたメッセージに特別にマークを付けること、あるいはこのフォルダまたはキューの中のすべてのメッセージに、あたかもそれらのメッセージが強制隔離されているかのように、定期的にスコアを付けなおすことができる。
獲得することができるいくつかのタイプの情報が存在する。1つのタイプは、細流(trickle out)コンポーネントである。強制隔離されたメッセージに関するユーザフィードバックには、強制隔離されたメッセージの少なくともサブセットが、メッセージの宛先の受信者に配信するために、強制隔離から「少しずつ流れ出て(trickle out)」出ること、またはフィルタ分類プロセスを迂回することが許される細流機構を使用することが関わる。少しずつ出されるメッセージは、一つには、宛先の受信者(例えば、ランダムなユーザまたは選択されたユーザ150)が、スパムフィルタ群を訓練するためのフィードバックループシステムの参加者であるということに基づいて選択されることが可能である。代替として、またはさらに、少しずつ出されるメッセージをランダムに選択することもできる。
別の形態のデータが、フィードバックループである。フィードバックループコンポーネント170が、ユーザ(例えば、フィードバックループに参加している受信者)からの将来のフィードバックのために、強制隔離されたか、削除されたかなどにかかわらず、メールの一部分を選択する。フィードループコンポーネント170は、フィルタ群を構築すること、および/または更新することを実施するフィルタ更新コンポーネント160にデータを与える。上記の「スパム防止のためのフィードバックループ」で説明したとおり、それらのメッセージに関してユーザに明示的にクエリを行うことができる。
さらに別の形態のデータが、ハニーポット180(例えば、ハニーポットコンポーネント)から来ることが可能である。メッセージがメッセージ受信コンポーネント110に着信すると、一部のメッセージが、ハニーポットコンポーネント180に流れ込むことが可能である。一般に、ハニーポットの中で見つかるメッセージは、通常、スパムである可能性がある。このため、それらのメッセージを識別する情報を、フィルタ群を更新する、または構築する際にフィルタ更新コンポーネント160によって後に使用されるように、収集することができる。
データは、「これは迷惑メッセージである」、「これは迷惑メッセージではない」を含む他のソース185から、または新しい設定において展開されたフィードバックループ技術から、またはその他のソースから来ることも可能である。
ユーザフィードバックが、フィルタ更新コンポーネント160によって収集され、次に、フィルタ130を更新するのに使用されることが可能である。強制隔離期間は、一定の時間を有することが可能であることを理解されたい。例えば、強制隔離期間は、1時間、6時間、または24時間などの任意の時間の長さに自動的に、または手動で設定されることが可能である。これは、メッセージが遅延メッセージストア140に移動された後、1時間、6時間、または最大で24時間以上の時間にわたって情報が収集されることが可能であることを意味する。一部のケースでは、少しずつ出されたメッセージに対してユーザの苦情がないことにより、メッセージ(例えば、送信者別で同一のメッセージの複数のコピー、または多くの異なるメッセージ)が、正当である可能性がより高く、スパムである可能性がより低いことが示されることが可能である。
ユーザフィードバックに加え、情報は、遅延メッセージストア140に動作上、接続されたメッセージ分析コンポーネント190によって収集されることも可能である。メッセージ分析コンポーネント190は、強制隔離されたメッセージを、送信者ごとの量、ならびに強制隔離されたメッセージ間の類似点について監視し、メッセージをメッセージの内容および/または発信元情報についても分析することができる。例えば、少量で(例えば、1時間当たり20未満、1時間当たり50未満、1時間当たり1000未満など)送信されたメッセージは、スパム発信者の行動としてより典型的な、大量に(例えば、1時間当たり10000、1時間当たり100000など)送信されたメッセージより、スパムである可能性が低い。このため、特定の送信者が少量のメッセージを送信しているという情報が、送信者について学習される情報であり、フィルタ群130を更新するのに使用されて、将来、その送信者のメッセージが、疑わしいと見なされず、良好であると分類されることが可能であるようになることが可能である。
さらに、強制隔離されたメッセージの少なくともサブセットに関してハッシュ関数を計算して、送信者別などでメッセージ間の類似度を算出することができる。例えば、強制隔離されているメッセージを、内容に基づいて、または送信者に基づいて、他の最近のメッセージと比較することができる。同一の、または類似するハッシュを有する、あるいは同一の、または類似するユーザからの他の最近のメッセージが、ユーザによって迷惑メッセージであると報告された、フィードバックループにおいて迷惑メッセージであると分類された、またはハニーポットに着信した場合、そのメッセージは、スパムであると分類することができる。類似するメッセージが、良好であるとマークを付けられた、あるいは強制隔離フォルダまたは迷惑メッセージフォルダから救出された、またはフィードバックループにおいて良好であると分類された場合、そのメッセージは、良好であると分類することができる。多くの類似するメッセージがメッセージ受信コンポーネントに着信した場合、そのようなメッセージの量が、メッセージがスパムであることのインジケータとなることが可能である。多くの類似するメッセージが、ユーザ受信トレイに配信され(例えば、細流を介して)、いずれにも、または少数にしか、迷惑メッセージとしてユーザによりマークが付けられていない場合、そのことを、メッセージが良好であったことのインジケータと解釈することができる。類似するメッセージがハニーポットに全く着信していない場合、そのことを、メッセージが良好であることのインジケータと解釈することができる。
強制隔離期間が終了すると、フィルタ群130をそれに応じて更新することができ(例えば、更新されたフィルタを第2の分類コンポーネントと呼ぶことができる)、強制隔離されたメッセージを、スパムである、または良好であると分類するために再びフィルタリングすることができる。強制隔離されたメッセージに関するフィードバックから生成された訓練データに少なくともある程度、基づくフィルタ更新は、ユーザ(例えば、個人用フィルタの場合)、クライアント、および/またはサーバによって決められた頻度で行われることが可能である。フィルタ更新を強制隔離期間の長さと一致するように設定することも可能であり、その逆も同様に可能である。
次に図2を参照すると、メッセージ分類を実施する強制隔離システム200のブロック図が示されている。システム200は、1つまたは複数のメッセージフィルタ210を含み、これらのフィルタ210を介して新しいメッセージがスパムである、または良好であると分類されるように処理される。閾値分析などによってスパムまたは良好のいずれの下にも明確に当てはまらないメッセージは、疑わしいと見なすことができ、メッセージまたはメッセージ送信者に関するさらなるデータがフィルタ210に提供されることが可能になるまで、特別強制隔離フォルダ220に移動される。これは、メッセージ救出システムとは極めて対照的(in direct contrast to)である。本発明とは異なり、メッセージ救出を実行するシステムは、不確実なメッセージをスパムとして分類して、スパムフォルダに移動させる。そのような「スパム」メッセージは、誰かが非常に類似したメッセージを良好であると分類したという理由で、後に救出される。本発明では、メッセージは、「疑わしい」と見なされることが可能であり、スパムまたは良好としての分類は、メッセージについてさらに学習する時間を与えるために一時的に遅延される。
使用することができる1つの学習技術は、疑わしいメッセージに付いて追加のデータ230を受け取ることに関わる。一部の状況では、一部の疑わしいメッセージが、メッセージの宛先の受信者に対して解放される(少しずつ出される)ことが可能である。代替として、フィードバックループを使用して、一部のメッセージをサンプリングしてもよい。代替として、一部のデータが、ハニーポットに配信されてもよい。代替として、データが、「これは迷惑メッセージである」報告から、「これは迷惑メッセージではない」報告から、または新しい設定において展開されたフィードバックループ技術から、または他のソースから来てもよい。
他の状況では、ユーザは、ユーザの強制隔離メッセージフォルダへのアクセスを有することが可能である。これが該当する場合、ユーザは、強制隔離されたメッセージの少なくともサブセットに関するフィードバックを提供することができる。すると、類似したメッセージに類似した扱いを与えることができ、ユーザが、すべての強制隔離されたメッセージに関するフィードバックを提供しなくてもよいようになる。これは、比較的重要である可能性がある。というのは、数千のメッセージが強制隔離される可能性があり、このため、スパムまたは良好としてのメッセージの分類が一時的に遅延されているからである。
フィードバックは、特定のメッセージに対する何らかのアクセスを有したユーザからの肯定的なコメント、または否定的なコメントの形態であることが可能である。例えば、肯定的なコメントは、メッセージが良好であるという確認「ステートメント」を含むことが可能である。さらに、肯定的なコメントは、類似の情報に対する新しい否定的コメントの欠如、および/または新しい苦情の欠如を含むことが可能である。
強制隔離されたメッセージに関するシステムフィードバックも収集することができる。これには、量(少量のメッセージ、または大量のメッセージ)、他の強制隔離されたメッセージに対するメッセージの類似性、および/またはハニーポットメッセージに対するメッセージの類似性などの特徴に関して、強制隔離フォルダ220の中のメッセージの少なくともサブセットを監視することで収集されたデータが含まれる。この情報が、あらゆる利用可能なユーザフィードバックと合わせて、フィルタ更新コンポーネント240によってそれぞれの特徴(または訓練データ)として利用されて、フィルタ210が訓練され、更新されることが可能である。その後、更新されたフィルタ群250を生成することができる。強制隔離されたメッセージは相当な部分が、更新されたフィルタ250を通過させられて、分類プロセスが再開されることが可能である。このため、分類が終わると、示されたスパムを強制隔離フォルダから永久に削除する、または削除のためにごみ箱260に送ることができる。第1の配信コンポーネント270は、メッセージの宛先の受信者に配信するために、「良好な」メッセージを強制隔離から解放することができる。強制隔離フォルダが迷惑メッセージフォルダも兼ねているのではない場合、強制隔離されたメッセージは、第2の配信コンポーネント280によって迷惑メッセージフォルダに入れられることが可能である。強制隔離フォルダが迷惑メッセージフォルダである場合、強制隔離されたメッセージから、特別な「強制隔離」フラグが除去されることが可能である。
図3は、本発明の態様による強制隔離システム300に関連する利点の別の図を示す。詳細には、図は、新しい着信メッセージがとることが可能な1つの特定の進路を概略で示す。メッセージは、最初、フィルタ310を介して処理される。フィルタは、例えば、確率スコアを計算することにより、良好なメッセージ320とスパムメッセージ330を区別するように訓練されている。ただし、一部のメッセージは、スパムである、または良好であると明確に分類される境界線(edge)に該当する可能性がある。それらは、疑わしいメッセージ340であることが可能である。そうである1つの理由は、単に、メッセージが、フィルタが前に見たことのない、または認識しない態様または特徴を含むという理由で、メッセージに関する情報をフィルタが欠いている可能性があることである。それらの特定のメッセージに関して、スパム330である、または良好320であるという分類は、ある期間、遅延される(350)。この期間は、フィルタが、メッセージについてさらなる情報を学習してから(360)、スパムの分類または良好の分類に取り組むことを可能にする。この結果、分類誤り率を低下させ、ユーザの満足度を高めることができる。というのは、以前に見たことのない「良好な」メッセージが、単に無知なフィルタ、または適切な情報を欠いているフィルタに起因して、恣意的に「スパム」として分類されないからである。
フィルタは、更新されることが可能であり(370)、メッセージが良好380である、またはスパム390であるという分類が再開されることが可能である。期間は、強制隔離されたメッセージを良好である、またはスパムであると分類するのを容易にするように、さらなるデータが獲得されることが可能であり、獲得されるだけ十分に長くなければならないことを理解されたい。つまり、「疑わしい」というラベルは、強制隔離期間が経過した後、もはや利用可能でない、または強制隔離されたメッセージに適用可能でない可能性がある。
次に図4を参照すると、メッセージの分類および強制隔離の一時的な遅延をもたらす可能性がある典型的な実例の概略図400が存在する。メッセージは、最初にメッセージ受信コンポーネント(例えば、図1、110)に着信すると、1つまたは複数のフィルタによって評価された後、スコアを付けることが可能である。確率スコアとは、特定のメッセージがスパムである尤度を指す。このスコアを、削除閾値や移動閾値などの閾値と比べることができる。
削除閾値を満たす、または超えるメッセージは、スパムである、または少なくともよりスパム発信者らしいと見なすことができる。0=良好なメッセージという完全な確率スコアと、1=スパムメッセージまたは迷惑メッセージという完全なスコアを所与として、0からおよそ0.8までの計算スコアが良好なメッセージ(または迷惑メッセージフォルダに入れる危険を冒すには良好である可能性が高すぎるメッセージ)を反映し(そのため、配信され)、およそ0.8からおよそ0.99までのスコアが迷惑メッセージである確度の高いメッセージを反映し(そのため、迷惑メッセージフォルダに入れることができる)、およそ0.99から1までのスコアが迷惑メッセージまたはスパム(そのため、高い確かさで削除されることが可能である)を反映すると定めることができる。スパムまたは良好の境界線(edge)にある、またはその近くにある、あるいは何らかの構成可能なアクションが定義された閾値にある、またはその近くにあるメッセージを強制隔離のために選択することができる。さもなければ、何らかの特別な形でメッセージにマークを付ける、またはメッセージを調査するようにメッセージ管理者に送るなどの、他の何らかの構成可能なアクションが行われることが可能である。
新しいIPアドレスをフィルタが以前に見たことがないというような理由で疑問の余地があると見なされる一部のメッセージに関して、強制隔離は、役立つ可能性も、役立たない可能性もある。つまり、一部のメッセージは、境界線に近いが、それらのメッセージのスコアは、それらのメッセージについてさらなる情報が学習された後でも、スパムである、または良好であるとの明確な分類をもたらすように、あまり変化しない可能性がある。例えば、架空の送信者、Large Good Newspaper CorpおよびMostly Evil Spammer Inc.からのメッセージを考慮されたい。Large Good Newspaper Corpからのメッセージには、25%のスパムである尤度(閾値)が割り当てられ、他方、Mostly Evil Spammer Inc.からのメッセージには、80%の尤度が割り当てられる。これらのパーセンテージは、以前に獲得され、フィルタ群を訓練するのに使用された(機械学習技術により)大量の情報または訓練データに基づく。Large Good Newspaper Corpは、明らかに自らのリストをデバウンス(debounce)せず、したがって、フィルタユーザのおよそ1/4が、そのメッセージにスパムとしてマークを付ける(例えば、一部のユーザは、加入したことを忘れ、メッセージにスパムとしてマークを付ける)。このため、フィルタは、Large Good Newspaper Corpのメッセージにおよそ25%のスパムである確率を与え、この確率は、フィルタ群を通過するだけ十分に低いが、強制隔離されるのに十分なだけ高い可能性がある。しかし、それらのメッセージは、一貫して25%レベルにあり、フィルタは、さらなる情報が獲得されるかどうか、または翌日、それらのメッセージに関するスコアが変化しているかどうか成り行きを見守るので、すべての受信者にLarge Good Newspaper Corpの見出しを1日、またはそれより遅れて与える必要はない。同様に、Mostly Evil Spammer Inc.からのメッセージは、毎日、一貫して80%スパムである。このため、以上の状況のいずれにおいても、強制隔離は、行われるべき最適のアプローチ、または最も効率的なアプローチではない可能性がある。というのは、追加の情報により、いずれの分類も代わる可能性が低いからである。
したがって、メッセージについて比較的大量のデータが既に知られている場合、ユーザまたはフィルタシステムは、追加の情報が分類の変更をもたらす可能性が低いため、強制隔離を行わないと決めることができる。大量のデータとは、IPアドレス、メッセージの中のリンク、送信者のドメイン名(特にスプーフィング防止(anti−spoofing)機構と組み合わせられる場合)、メッセージの中の語、および他のあらゆる特徴に関連する任意のデータを指すことが可能である。このため、検査されている特徴に関して、強制隔離を行うか否かの決定を行うのを容易にする送信者別の特徴に関する大量の情報を、フィルタが既に有するかどうかを判定することができる。
しかし、閾値までの距離は、いつ強制隔離を行うかを決める唯一の答えではない。より具体的には、メッセージのIPアドレスを考慮されたい。IPアドレスが以前に見られていない場合、メッセージは、通常、強制隔離されることが可能である。メッセージのその他の特徴に基づいてメッセージが明らかにスパムである、または良好であるのではない場合、前に見られていないIPアドレスを有するメッセージが受信された場合、以下の3つの可能性が存在する。すなわち、
・アドレスは、少量IPアドレス(例えば、おそらく、小企業用または個人用のサーバであり、スパムではないか、または少なくとも非常に対象を限ったスパムである)である。
・アドレスは、大きい正当な会社が、さらなるサーバ群を追加した際のその会社の新しいIPアドレスであり(例えば、ニューヨークタイムズ社)、やはりスパムではない。
・アドレスは、スパム発信者のIPアドレスである。
数時間でも待つことにより、フィルタは、おそらく、以上の3つの可能性を区別し、非常に貴重な情報を得ることができる。既知のIPアドレスに関しては、メッセージが極めて広い範囲に入る場合でも、メッセージを遅らせる(一時的に強制隔離する)ことが望ましい可能性がある。送信者のドメインも同様の形で扱うことができる。スプーフィング防止技術がより普及するにつれ、一部の疑問の余地があるメッセージの真の送信者を確かめるためにも、メッセージを強制隔離することができる。さらに、送信者のIPアドレスに関するリバースIPアドレスエントリが存在せず、かつ/または送信者のドメインに関する前方参照が、送信者のIPアドレスと少なくともほぼ一致しない場合、メッセージを強制隔離することができる(430)。
スパムの別の実質的なインジケータは、特にリンクに埋め込まれたドメインの存在である。メッセージが、前に全く、またはほとんど見られていないドメイン名を含む場合、メッセージは、疑わしいと見なすことができる。IPアドレスの場合と全く同様に、そのようなメッセージの配信を遅らせることは、メッセージをスパムである、または良好であると適切に分類するのに役立つ可能性がある。一部のタイプの添付ファイル(440)は、特に疑わしく(例えば、ウイルスに特有である)、そのような拡張子(例えば、実行可能ファイル、または埋め込まれたマクロを有するドキュメントファイル)を含むメッセージは、強制隔離することができる。
強制隔離は、キーワードベースのフィルタリングの穴を使用する試みを検出することもできる。例えば、スパム発信者が、多くの良好な語を見出し、それらの良好な語を自分のメッセージに追加したが、いくつかの不良な語が、依然として検出可能である場合、そのメッセージは、疑わしいと見なすことができる(全体的に良好なスコアを有していても)。メッセージは、例えば、数時間、分類を遅らせることができ、フィードバックループシステムを介して、その種類の多くのメッセージを発見することができる。その後、フィルタは、そのタイプのメッセージが実際に不良であると学習することができる。このタイプのスパム発信者戦術に対抗するため、以前に良好であると考えられた語に少なめに重みを付けて、メッセージの発信元が不良であるとフィルタが学習することなどができる。つまり、メッセージが、矛盾する証拠を含むために機械学習フィルタには難しいタイプであるように見える場合、そのメッセージを強制隔離することができる。さらに、解析するのが困難である可能性があるHTMLを含む、または主にイメージを含むため、いずれの種類のフィルタにも困難であるように見えるいずれのメッセージも、強制隔離することができる。全体的に、複数の特徴の評価を実行してから、メッセージを強制隔離するかどうかを決定することができる。
一般に、個々のユーザは、比較的少数の場所から、少数の言語でメッセージを受信する傾向がある。個人用フィルタ群に関して、ユーザが、通常、良好なメッセージを受け取らない場所から、または、通常、良好なメッセージを受け取らない言語でメッセージを受け取った場合、そのメッセージも強制隔離することができる。場所は、地理的場所、IPアドレス、IPアドレス割り当て情報、FROMドメイン名における国コードなどにある程度、基づいて特定することができる。
次に図5を参照すると、本発明に従って少なくともサーバ上で強制隔離が使用される、少なくとも1つのサーバと少なくとも1つのクライアントの間における典型的な高レベル通信アーキテクチャ500が示されている。一部のケースでは、メッセージが既に強制隔離されていることを何らかの形で示すことが望ましい可能性がある。例えば、クライアントとサーバがともに強制隔離を実施する場合、クライアントが、サーバにおいて既に強制隔離済みであるメッセージを強制隔離することは、望ましくない可能性がある。代替として、クライアントは、クライアントがメッセージを強制隔離する時間から、そのメッセージがサーバにおいて強制隔離される時間を差し引くことにより、強制隔離時間を適切に短縮することができる。
図に示すとおり、サーバに入ってくるメッセージは、1つまたは複数のフィルタ510を通過した後、クライアントに進むか、または分析および調査520のためにメッセージが保持される530強制隔離に進む。サーバからの、強制隔離された(その後、強制隔離から解放された)メッセージ、または強制隔離されなかったメッセージが、次に、クライアント上に配置されたフィルタ540に送られる。この時点で、メッセージは、適宜、単にフィルタ540によって分類された後、受信トレイ550に配信されることが可能である。
次に図6を参照すると、着信メッセージ610に関するメッセージプロセッサ605の動作に関わる強制隔離システム600の概略図が示されている。メッセージ610は、メッセージの着信の日付と時刻をタイムスタンプされた後(615)、メッセージプロセッサ605の中に入り、フィルタリングされる(620)。メッセージには、そのメッセージに関する情報が欠如していることから、強制隔離のマークが付けられる(630)。強制隔離の結果、スパムである、または良好であるというメッセージの分類は、遅延期間の時間にわたって遅延される。
遅延期間(635)は、メッセージに強制隔離のマークが付けられると始まり、システムまたはユーザによって設定された任意の時間にわたって続くことが可能である。例えば、フィルタは、次回のフィルタ更新(スケジュールされた更新)にある程度、基づき、推奨される強制隔離時間を提供することができる。強制隔離は、API(アプリケーションプログラミングインタフェース)を介して実施されることが可能であるため、適切なAPIに送り込まれるm(例えば、1以上の整数)個の強制隔離時間(積極的、中程度、控えめ)を有することも可能である。APIに関するさらなる説明は、図10で以下に説明する。
遅延期間中、フィルタは、ユーザからフィードバックを収集すること、ならびに強制隔離で保持されるメッセージを監視すること、または分析することから得られた所見などにより、メッセージについてさらに学習することができる(640)。遅延期間が終了すると(645)、フィルタが更新されることが可能であり(650)、強制隔離されたメッセージが、良好である、またはスパムであると分類されることが可能である(660)。現在、良好であると分類されている強制隔離されたメッセージに関して、例えば、サーバによる受信の最初のタイムスタンプが、解放の日時および/または配信の日時よりも数時間、または数日早い可能性がある。これは、メッセージを受信/着信の日付順に並べ替えるユーザには、問題である可能性がある。このため、強制隔離から解放された「良好な」メッセージには、特に、強制隔離期間が、数時間を超えて続き、1日、または数日にわたった場合、メッセージの解放の日時もタイムスタンプすることができる(670)。そのようなメッセージは、例えば、両方の日時を含み、かつ/または、主にメッセージの解放の日時順に並べ替えられることが可能である。
次に、本発明による様々な方法を一連の動作を介して説明する。本発明は、動作の順序によって限定されないことを理解し、認識されたい。というのは、一部の動作は、本発明によれば、本明細書で図示し、説明するのとは異なった順序で行われることが可能であり、かつ/または他の動作と同時に行われることが可能だからである。例えば、方法は、代替として、状態図などで、一連の互いに関連する状態またはイベントとして表すこともできることが当業者には理解され、認識されよう。さらに、すべての例示した動作が、本発明による方法を実施するのに要求されるわけではない可能性がある。
図7を参照すると、疑わしいメッセージ、または疑問の余地があるメッセージの分類を遅らせることを実施する典型的なプロセス700の流れ図が示されている。プロセス700は、710で、スパムである、または良好であると分類するために着信メッセージを受け取ることに関わる。720で、メッセージをスパムである、または良好であると分類するのに十分な情報をフィルタが有するかどうかが、判定されることが可能である。「はい」である場合、730で、メッセージが分類されることが可能であり、続いて、740で、良好なメッセージが配信され、スパムメッセージが破棄されることが可能である。このプロセスは、着信メッセージが引続き受信されるにつれ、710で再開されることが可能である。安全リスト上の送信者からのメッセージは、メッセージがその他の点で疑わしく見えても、強制隔離されないことを理解されたい。ユーザは、特定のメッセージが一貫して強制隔離されている(送信者別に)ことに気付いた場合、送信者をそれぞれの安全リストに加えることができる。
しかし、720で情報の欠如がある場合、750で、分類が遅らせられ、メッセージは、遅延期間の時間中、強制隔離フォルダ、または他のタイプの特別なフォルダに移動されることが可能である。この遅延期間中、760で、メッセージ、またはメッセージの送信者についてのさらなる情報が収集されることが可能である。プロセスのこの段階に関するさらなる詳細は、以下の図8で見ることができる。収集されたあらゆる情報またはデータがフィルタにフィードバックされて、770で、フィルタが更新される(機械学習技術を介して)。以下の図9は、プロセスのこの段階に関するさらなる詳細について説明する。
メッセージに関するデータの収集は、遅延期間が終了する(780)まで続く。遅延期間が終了すると、790で、更新されたフィルタ群を使用して、メッセージ(または少なくともサブセット)がスパムである、または良好であると分類されることが可能である。740で、スパムメッセージが破棄され、良好なメッセージが配信されることが可能である。
次に図8を参照すると、上記の図7の760におけるように収集することができる典型的なタイプの情報の流れ図が示されている。例えば、810で、メッセージ量を監視して、送信者が少量送信者であるか、大量送信者であるかが判定されることが可能である。さらに、送信者別のメッセージが送信されるレートは、スパム発信者らしい挙動を示すものであることも可能である。例えば、1時間当たり数百の電子メールを送信することは、1時間に数千の電子メールを送信することと極めて対照的(directly contrasts with)である。
820で、強制隔離されたメッセージは、ハニーポットメッセージとも比較されることが可能である。ハニーポットは、スパムメッセージの信頼できるソースであることを思い起されたい。このため、ハニーポットメッセージに似た強制隔離されたメッセージは、よりスパムらしい可能性がある。この情報は、メッセージをどのように分類するかを決める際、フィルタに極めて役立つ可能性がある。
830で、ユーザは、強制隔離されたメッセージの少なくともサブセットがスパムであるか否かについてユーザの入力を提供する機会を与えられることが可能である。詳細には、強制隔離システムは、ユーザの苦情について調べる目的で、いくつかのメッセージが強制隔離から少しずつ出されるか、またはフィルタを通る(強制隔離を迂回して)ことが許されるように設計されることが可能である。例えば、新しいIPアドレスからのメッセージが検出された場合、フィルタは、最初の1000のメッセージ、または10000のメッセージさえ、強制隔離なしでフィルタを通ることを許すようにプログラミングされることが可能である。代替として、メッセージの一定のパーセンテージを通すこともできる。後に、同一のIPアドレスからのメッセージは、十分な数のユーザが、メッセージを検査し、メッセージがスパムであった場合、苦情を言う時間を有するまで、強制隔離される。十分な時間が経過した後、良好である、またはスパムであると分類する判定が行われることが可能である。
850で、強制隔離されたメッセージが、類似性について分析されることが可能である。詳細には、それらのメッセージ(または少なくともサブセット)に関するハッシュ値が計算されて、異なる送信者の間、および送信者別に、いずれのメッセージが互いに類似しているかが特定されることが可能である。大量の類似したメッセージは、スパムを示すことが可能であり、この情報を使用してフィルタを更新することができる。さらに、強制隔離されたメッセージを、スパムである、または良好であると分類済みの最近、強制隔離されたメッセージと比較することができる。類似したメッセージが見つかった場合、それらのメッセージを強制隔離から取り出し、より早期の同類のメッセージ(counterpart)が分類されたとおりに分類することができる。さらに、送信者分析(例えば、送信者IPアドレス)に基づいてメッセージを比較することもできる。
860で、フィードバックループデータが収集される。いくつかのメッセージが着信するにつれ、メッセージを良好である、またはスパムであると類別するように受信者に明確に求める特別なクエリが受信者に送られる。
図9は、強制隔離中に収集された情報をどのように利用して、メッセージの分類を改良することができるかを略述する典型的なプロセス900の流れ図を示す。910で、例えば、その情報を機械学習技術に関連して訓練データとして使用して、スパムフィルタを効果的に更新することができる。スパムフィルタを更新することにより、メッセージのスパムまたは良好としての分類を改良して、偽の良好の分類、または偽のスパムの分類を抑えることができる。代替として、またはさらに、920で、獲得された情報の少なくともサブセットを使用して、最近、強制隔離されたメッセージのための新しいスパムフィルタ(サブフィルタ)を構築する、または訓練することができる。
さらに、強制隔離に関して機械学習アプローチを使用することができる。詳細には、プロセス(または関連するシステム)が、各メッセージに関して、強制隔離がメッセージの分類を変えることになるかどうかを記録することができる。変えることになった場合、メッセージは、強制隔離されるべきであったことになり、変えることにならなかった場合、メッセージは、強制隔離されなくてもよかったことになる。その後、プロセスおよび/またはシステムは、このデータに基づき、いずれのメッセージが強制隔離されるべきかを学習することができる。この機械学習アプローチは、強制隔離のために役立つ可能性があるあらゆる特別な特徴を考慮に入れることができる。典型的な特徴には、大量(high volume)IPアドレス、メッセージのIPアドレス(メッセージがMostly Evil Spammer Inc.またはLarge Good Newspaper Corpからである場合、分類は安定している傾向があることが分かっている)、未知のIPアドレスから、または未知のドメイン名を含むこと、多くの良好な特徴および不良な特徴を含むことなどが含まれるが、以上には限定されない。
次に図10を参照すると、本発明の態様を実行するように少なくとも部分的にAPIで実装することができる典型的なプロセス1000の流れ図が示されている。プロセス1000は、1010で、各着信メッセージに関してスパム確率を計算することを伴う。1020で、それぞれの計算されたスパム確率(スコア)に少なくともある程度、基づき、特定のメッセージを強制隔離するかどうかをフィルタが決定することができる。1030で、強制隔離時間が、以下の少なくとも1つに少なくともある程度、基づいて推奨されることが可能である。すなわち、
・メッセージがスパムである確率(スコア)
・次回のフィルタ更新の時刻、次回のフィルタダウンロードの時刻(その時点で、フィルタは、強制隔離を続けるか、それとも最終的な決定を行うか判断し、最終的な決定が行われるまで繰り返すことができる)、および/または
・不確実さのレベルである。
代替として、またはさらに、m個の強制隔離時間(積極的、中程度、および/または控えめ)をAPIに送り込むことができる。強制隔離するかどうか、およびどれだけの期間、強制隔離するかについての推奨は、APIに送り込まれる値によって知らされることが可能である。(スパム)フィルタは、メッセージがスパムであるかどうか、ならびにどれだけの期間、メッセージを強制隔離するかどうかを含め、メッセージが強制隔離されるべきかどうかに関する情報を返すことができる。最初、推奨される強制隔離時間は、単にスパム確率に基づくことが可能であるが、前述したような他の要因も考慮することができる。
サーバとクライアントはともに、自らのフィルタ群に関して強制隔離を実施することができる。このため、サーバとクライアントがともにそのようなフィルタ群を使用し、サーバがメッセージを強制隔離する場合、1040で、その情報が、クライアントフィルタに通信されることが可能である。さらに、クライアントフィルタも強制隔離を行う場合、サーバ上の強制隔離時間の長さをクライアントフィルタに通信して、1050で、特定のメッセージに対して、サーバ強制隔離時間だけクライアント強制隔離時間を短縮すること、または呼び出さないこと、または適用しないことが可能である。
さらに、フィルタまたはスパムフィルタによるメッセージ分類の一時的な遅延は、特に、スパム防止を実施するより堅牢なフィルタリング機構をもたらす。さらに、良好なメッセージの配信の不要な遅延が、ユーザの不満を和らげる。というのは、すべての疑問の余地のあるメッセージが強制隔離を受けるわけではないからである。代わりに、いくつかの要因および/または技術が、フィルタまたはフィルタリングシステムによって前述したとおり使用されて、インテリジェントな強制隔離システムが実現されることが可能である。
本発明の様々な態様のさらなる文脈を提供するため、図11および以下の説明は、本発明の様々な態様を実施することができる適切な動作環境1110の簡単で、一般的な説明を提供することを意図している。本発明を、1つまたは複数のコンピュータまたは他のデバイスによって実行される、プログラムモジュール群などのコンピュータ実行可能命令の一般的な文脈で説明するが、本発明は、その他のプログラムモジュール群と組み合わせて、かつ/またはハードウェアとソフトウェアの組み合わせとして実施することもできることが、当業者には認識されよう。
しかし、一般に、プログラムモジュールには、特定のタスクを実行する、または特定のデータ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。動作環境1110は、適切な動作環境の一例に過ぎず、本発明の用途または機能の範囲について何ら限定を示唆するものではない。本発明で使用するのに適する可能性があるその他の周知のコンピュータシステム、コンピュータ環境、および/またはコンピュータ構成には、パーソナルコンピュータ、ハンドヘルドデバイスまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、プログラマブル家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、以上のシステムまたはデバイスを含む分散コンピューティング環境が含まれるが、以上には限定されない。
図11を参照すると、本発明の様々な態様を実施するための典型的な環境1110が、コンピュータ1112を含む。コンピュータ1112は、処理装置1114、システムメモリ1116、およびシステムバス1118を含む。システムバス1118は、システムメモリ1116から処理装置1114までを含むが、それらには限定されないシステムコンポーネントを結合する。処理装置1114は、様々な利用可能なプロセッサのいずれであることも可能である。デュアルプロセッサ、およびその他のマルチプロセッサアーキテクチャも、処理装置1114として使用することができる。
システムバス1118は、それだけに限らないが、11ビットバス、インダストリアルスタンダードアーキテクチャ(Industrial Standard Architecture)(ISA)、マイクロチャネルアーキテクチャ(Micro Channel Architecture)(MCA)、エクステンデッドISA(Extended ISA)(EISA)、インテリジェントドライブエレクトロニクス(Intelligent Drive Electronics)(IDE)、VESAローカルバス(VLB)、ペリフェラルコンポーネントインターコネクト(Peripheral Component Interconnect)(PCI)、ユニバーサルシリアルバス(Universal Serial Bus)(USB)、アドバンストグラフィックスポート(Advanced Graphics Port)(AGP)、パーソナルコンピュータメモリカードインターナショナルアソシエーション(Personal Computer Memory Card International Association)バス(PCMCIA)、およびスモールコンピュータシステムズインターフェース(Small Computer Systems Interface)(SCSI)が含めて、メモリバスもしくはメモリコントローラ、周辺機器バスもしくは外部バス、および/または任意の様々な使用可能なバスアーキテクチャを使用するローカルバスを含む、いくつかのタイプのバス構造のいずれかとすることができる。
システムメモリ1116は、揮発性メモリ1120および不揮発性メモリ1122を含む。始動中などに、コンピュータ1112内部の要素間で情報を転送する基本ルーチンを含む基本入出力システム(BIOS)が、不揮発性メモリ1122の中に格納される。例として、限定としてではなく、不揮発性メモリ1122には、読み取り専用メモリ(ROM)、プログラマブルROM(PROM)、電気的にプログラミング可能なROM(EPROM)、電気的に消去可能なROM(EEPROM)、またはフラッシュメモリが含まれることが可能である。揮発性メモリ1120には、外部キャッシュメモリとして動作するランダムアクセスメモリ(RAM)が含まれる。例として、限定としてではなく、RAMは、シンクロナス(synchronous)RAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレート(double data rate)SDRAM(DDR SDRAM)、エンハンスト(enhanced)SDRAM(ESDRAM)、シンクリンク(Synchlink)DRAM(SLDRAM)、およびダイレクトラムバス(direct Rambus)RAM(DRRAM)などの多くの形態で利用可能である。
コンピュータ1112は、リムーバブルな/リムーバブルでない、揮発性/不揮発性のコンピュータ記憶媒体も含む。図11は、例えば、ディスクストレージ1124を示す。ディスクストレージ1124には、磁気ディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、Jazドライブ、Zipドライブ、LS−100ドライブ、フラッシュメモリカード、またはメモリスティックが含まれるが、以上には限定されない。さらに、ディスクストレージ1124には、コンパクトディスクROMデバイス(CD−ROM)、書き込み可能なCD(CD−recordable)ドライブ(CD−Rドライブ)、再書き込み可能CDドライブ(CD−RWドライブ)、またはデジタルバーサタイルディスクROMドライブ(DVD−ROM)が含まれるが、以上には限定されない他の記憶媒体とは別個の、または組み合わせの記憶媒体も含まれることが可能である。システムバス1118に対するディスク記憶装置群1124の接続を実施するため、インタフェース1126のようなリムーバブルなインタフェースまたはリムーバブルでないインタフェースが、通常、使用される。
図11は、ユーザと適切な動作環境1110に示した基本的なコンピュータリソース群の間の仲介役として動作するソフトウェアを示す。そのようなソフトウェアには、オペレーティングシステム1128が含まれる。ディスクストレージ1124上に格納されることが可能なオペレーティングシステム1128は、コンピュータシステム1112のリソースを制御し、割り振るように動作する。システムアプリケーション群1130が、システムメモリ1116またはディスクストレージ1124に格納されたプログラムモジュール群1132およびプログラムデータ1134を介して、オペレーティングシステム1128によるリソースの管理を活用する。本発明は、様々なオペレーティングシステム、またはオペレーティングシステムの組み合わせを使用して実施できることを理解されたい。
ユーザは、入力デバイス1136を介してコマンドまたは情報をコンピュータ1112に入力する。入力デバイス群1136には、マウス、トラックボールなどのポインティングデバイス、スタイラス、タッチパッド、キーボード、マイク、ジョイスティック、ゲームパッド、サテライトディッシュ、スキャナ、TVチューナカード、デジタルカメラ、デジタルビデオカメラ、Webカメラなどが含まれるが、以上には限定されない。以上、およびその他の入力デバイス群は、インタフェースポート1138経由でシステムバス1118を介して処理装置1114に接続される。インタフェースポート1138には、例えば、シリアルポート、パラレルポート、ゲームポート、およびユニバーサルシリアルバス(USB)が含まれる。出力デバイス1140は、入力デバイス1136と同一タイプのポートのいくつかを使用する。このため、例えば、USBポートが、コンピュータ1112に入力を与えるのに使用され、コンピュータ1112から出力デバイス1140に情報を出力するのに使用されることが可能である。特別なアダプタを要する出力デバイス群1140のなかでとりわけ、モニタ、スピーカ、およびプリンタのようないくつかの出力デバイス1140が存在することを例示するため、出力アダプタ1142を提供している。出力アダプタ群1142には、例として、限定としてではなく、出力デバイス1140とシステムバス1118の間で接続の手段を提供するビデオカードおよびサウンドカードが含まれる。リモートコンピュータ1144のような他のデバイス群および/またはデバイスのシステムは、入力機能と出力機能をともに提供することに留意されたい。
コンピュータ1112は、リモートコンピュータ1144のような1つまたは複数のリモートコンピュータに対する論理接続を使用するネットワーク化された環境で動作することができる。リモートコンピュータ1144は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ワークステーション、マイクロプロセッサベースの器具、ピアデバイス、またはその他の一般的なネットワークノードなどであることが可能であり、通常、コンピュータ1112に関連して説明した要素の多く、またはすべてを含む。簡明にするため、メモリ記憶装置1146だけをリモートコンピュータ1144とともに示す。リモートコンピュータ1144は、ネットワークインタフェース1148を介してコンピュータ1112に論理接続され、通信接続1150を介して物理接続される。ネットワークインタフェース1148は、ローカルエリアネットワーク(LAN)やワイドエリアネットワーク(WAN)などの通信網を包含する。LAN技術には、光ファイバ分散データインタフェース(Fiber Distributed Data Interface)(FDDI)、銅線分散データインタフェース(Copper Distributed Data Interface)(CDDI)、イーサネット(登録商標)/IEEE1102.3、トークンリング/IEEE1102.5などが含まれる。WAN技術には、ポイントツーポイントリンク、統合サービスデジタル網(ISDN)およびその変種のような回線交換網、パケット交換網、およびデジタル加入者線(DSL)が含まれるが、以上には限定されない。
通信接続1150は、ネットワークインタフェース1148をバス1118に接続するのに使用されるハードウェア/ソフトウェアを指す。通信接続1150は、図を明瞭にするため、コンピュータ1112内部に示すが、コンピュータ1112の外部にあることも可能である。ネットワークインタフェース1148に接続するために必要なハードウェア/ソフトウェアには、単に例として、通常の電話級のモデム、ケーブルモデム、およびDSLモデムを含むモデム、ISDNアダプタ、およびイーサネット(登録商標)カードなどの内部技術および外部技術が含まれる。
以上に説明したことに、本発明の実施例が含まれる。本発明を説明する目的で、コンポーネントまたは方法の考えられるすべての組み合わせを説明することは、もちろん、不可能であるが、本発明の多くのさらなる組み合わせおよび置換が可能であることを、当業者は認めることができよう。したがって、本発明は、添付の特許請求の範囲の趣旨および範囲に含まれるすべてのそのような変更形態、改変形態、および変形形態を包含するものとする。さらに、「含まれる(include)」という用語は、詳細な説明、または特許請求の範囲において使用される限り、請求項において転換語として使用される場合に、「含む(comprising)」という用語が解釈されるのと同様の形で包括的であるものとする。
本発明の諸態様による、フィードバックループ訓練システムに関連してフィードバックを利用して強制隔離されたメッセージについてさらに学習する、インテリジェントな強制隔離システムを示すブロック図である。 本発明の諸態様による、疑わしいメッセージについてさらなる情報を獲得して、スパムフィルタを更新すること、および、疑わしいメッセージをスパムである、またはスパムでないと分類することを実施するインテリジェントな強制隔離システムを示すブロック図である。 本発明の態様による、一部は既成のフィルタ群により、また一部は更新されたフィルタ群による着信メッセージの典型的な分類を示す概略流れ図である。 本発明の態様による、強制隔離の目的でメッセージを疑わしいと見なす適切な機会を特定することを実施する典型的な事例を示す概略図である。 本発明の態様による、少なくとも1つのサーバ上における強制隔離システムの実装に関連するクライアントとサーバの通信を示す概略図である。 本発明の態様による典型的な強制隔離プロセスを通って進むメッセージを示すブロック図である。 本発明の態様による、十分な情報が利用可能な場合、メッセージを分類すること、および分類のために十分な情報を欠くメッセージを強制隔離することを実施する典型的な方法を示す流れ図である。 本発明の態様による、強制隔離期間中にメッセージまたはメッセージ送信者に関するさらなる情報を収集することを実施する典型的な方法を示す流れ図である。 本発明の態様による、強制隔離期間中にメッセージまたはメッセージ送信者に関するさらなる情報を収集することを実施する典型的な方法を示す流れ図である。 本発明の態様による、強制隔離期間中にメッセージまたはメッセージ送信者に関するさらなる情報を収集することを実施する典型的な方法を示す流れ図である。 本発明の態様による典型的な通信環境を示す概略ブロック図である。
符号の説明
1 着信メッセージ
2 遅延期間が終了した後
3 遅延されたIM
4 遅延されたIMのサブセット
5 フィルタリングされたIM
110 メッセージ受信コンポーネント
120 宛先の受信者
130 フィルタ
140 遅延メッセージストア
150 ランダムなユーザ、または選択されたユーザ
160 フィルタ更新コンポーネント
170 フィードバックループコンポーネント
180 ハニーポットコンポーネント
190 メッセージ分析コンポーネント

Claims (42)

  1. スパム防止に関連してメッセージを分類することを実施するシステムであって、
    前記メッセージのセットを受信するコンポーネントと、
    前記メッセージのサブセットをスパムとして、または、さらなる分類のためにフラグが付けられるとして識別し、メッセージの前記サブセットのさらなる分類を一時的に遅らせる第1の分類コンポーネントと、
    前記遅延期間後、メッセージの前記サブセットを分類する第2の分類コンポーネントと
    を含むことを特徴とするシステム。
  2. 前記第2の分類コンポーネントは、十分な新しい否定的情報の欠如に基づき、メッセージの前記サブセットのいくつかが良好であると識別することを特徴とする請求項1に記載のシステム。
  3. 前記第2の分類コンポーネントは、良好なメッセージによく一致する以外の新しい肯定的情報に基づき、メッセージの前記サブセットのいくつかを良好であると識別することを特徴とする請求項1に記載のシステム。
  4. 前記メッセージは、情報の欠如に基づき、スパムである、またはフラグが付けられる、または遅延されると分類されることを特徴とする請求項1に記載のシステム。
  5. 前記メッセージは、機械学習スパムフィルタからの更新された情報に基づいて再分類されることを特徴とする請求項1に記載のシステム。
  6. 十分な新しい否定的情報の前記欠如は、ハニーポット内で類似のメッセージが出現しないことを含むことを特徴とする請求項2に記載のシステム。
  7. 十分な新しい否定的情報の前記欠如は、類似の情報に関してユーザの苦情がないことを含むことを特徴とする請求項2に記載のシステム。
  8. 十分な新しい否定的情報の前記欠如は、メッセージの少なくともサブセットについてユーザにポーリングした情報を含むことを特徴とする請求項2に記載のシステム。
  9. 十分な新しい否定的情報の前記欠如は、類似するメッセージが少量であることを含むことを特徴とする請求項2に記載のシステム。
  10. 前記メッセージは、前記送信者の身元に基づいて類似していると分類されることを特徴とする請求項8に記載のシステム。
  11. 前記送信者の身元は、該送信者のIPアドレスに基づいて分類されることを特徴とする請求項10に記載のシステム。
  12. メッセージの前記類似性は、前記メッセージの中に含まれるURLに基づくことを特徴とする請求項8に記載のシステム。
  13. スパムであると最初に分類されたメッセージは、新しい情報に基づいて削除されることを特徴とする請求項1に記載のシステム。
  14. 前記スパムは、永久的に削除されることを特徴とする請求項1に記載のシステム。
  15. 前記スパムは、削除済みメッセージフォルダに移動されることを特徴とする請求項1に記載のシステム。
  16. 前記第1の分類コンポーネントおよび/または前記第2の分類コンポーネントに関連する情報を受け取り、スパムフィルタを訓練すること、またはスパムリストをポピュレートすることに関連して前記情報を使用するフィードバックコンポーネントをさらに含むことを特徴とする請求項1に記載のシステム。
  17. 前記メッセージは、電子メール(e−mail)とメッセージの少なくともどちらかを含むことを特徴とする請求項1に記載のシステム。
  18. 前記メッセージのセットを受信する前記コンポーネントは、電子メールサーバ、メッセージサーバ、およびクライアント電子メールソフトウェアのいずれか1つであることを特徴とする請求項1に記載のシステム。
  19. 請求項1に記載のシステムを使用することを特徴とするサーバ。
  20. 請求項1に記載のシステムを使用することを特徴とする電子メールアーキテクチャ。
  21. 請求項1に記載のコンポーネントを格納していることを特徴とするコンピュータ可読媒体。
  22. さらなる分析のためにフラグが付けられるという前記第1の分類コンポーネントによる識別に少なくともある程度、基づき、メッセージの前記サブセットを強制隔離する強制隔離コンポーネントをさらに含むことを特徴とする請求項1に記載のシステム。
  23. 前記強制隔離は、メッセージの前記サブセットを他のメッセージとは別個のフォルダの中に入れることを介して実行されることを特徴とする請求項1に記載のシステム。
  24. 前記フォルダは、ユーザに見える、または見えないことを特徴とする請求項1に記載のシステム。
  25. メッセージの前記サブセットの高い出現率(occurrence)に関連するソースを識別する識別コンポーネントをさらに含むことを特徴とする請求項1に記載のシステム。
  26. 最初の着信の日時と前記メッセージの分類が再開された解放の日時の少なくともどちらかを前記メッセージ上にスタンプするタイムスタンプコンポーネントをさらに含むことを特徴とする請求項1に記載のシステム。
  27. メッセージの前記サブセットは、安全リスト上の送信者からのメッセージ、スパムであると容易に識別され、分類されるメッセージ、良好であると容易に識別され、分類されるメッセージの少なくともいずれかを除外することを特徴とする請求項1に記載のシステム。
  28. 前記第1の分類コンポーネントは、メッセージの前記サブセットの分類が実行するまでの遅延の長さを決定することを特徴とする請求項1に記載のシステム。
  29. 遅延の前記長さは、
    次回のスケジュールされたフィルタ更新までの時間、
    新しいフィルタまたは更新されたフィルタのダウンロードまでの時間、および
    前記サブセットの中のそれぞれのメッセージに割り当てられるスパム確率スコアの少なくともいずれかに少なくともある程度、基づくことを特徴とする請求項28に記載のシステム。
  30. 分類されるべきメッセージのセットを受信するステップと、
    十分な情報の欠如に基づき、メッセージの少なくともサブセットがスパムである、または良好であるという分類を一時的に遅らせるか、またはメッセージの前記サブセットが信頼できない、または疑わしいと最初に分類するステップと
    を含むことを特徴とするメッセージを分類するための方法。
  31. 強制隔離が正しい最終的な分類に役立つ尤度を算出するように訓練された機械学習フィルタをさらに含むことを特徴とする請求項30に記載の方法。
  32. 強制隔離期間が経過すること、および
    前記サブセットの中の前記それぞれのメッセージがスパムである、または良好であると分類することを容易にする、メッセージの前記サブセットに関する追加の情報が獲得されたことの少なくともどちらかが生じた場合、分類を再開するステップ
    をさらに含むことを特徴とする請求項30に記載の方法。
  33. メッセージの前記サブセットは、スパムである、または良好であると容易に分類されるメッセージ、または安全リスト上の送信者からのメッセージを除外することを特徴とする請求項30に記載の方法。
  34. 前記メッセージの分類を一時的に遅らせるステップは、
    前記メッセージ上の送信者のIPアドレスを前に見たことがない場合、
    送信者のドメインを前に見たことがない場合、
    送信者のドメインが、リバースIPアドレスを欠いている場合、
    前記送信者のドメイン上の前方参照が、前記送信者のIPアドレスと少なくともほぼ一致しない場合、
    前記メッセージが、埋め込まれたドメイン名、埋め込まれたマクロ、および実行可能ファイルの少なくとも1つを含む場合、
    前記メッセージが、良好なメッセージとスパムメッセージの矛盾する証拠を含む場合、
    前記メッセージが、スパムに関連する場所を発信元としている場合、
    前記メッセージが、スパムに関連する言語で書かれている場合、
    前記メッセージが、主にイメージを含む場合、および
    前記メッセージが、HTMLを含む場合
    の少なくとも1つに少なくともある程度、基づくことを特徴とする請求項30に記載の方法。
  35. 疑わしいメッセージの少なくともサブセットを配信するステップをさらに含むことを特徴とする請求項30に記載の方法。
  36. 疑わしいメッセージの前記サブセットは、該メッセージのそれぞれの宛先の受信者に配信され、該メッセージの作用は、メッセージの前記サブセットがスパムであるか、または良好であるかを判定することを容易にすることを特徴とする請求項35に記載の方法。
  37. フィードバックが求められるメッセージの前記サブセットは、分類が一時的に遅延される送信者ごとの一定のパーセンテージのメッセージ、または一定の量のメッセージであることを特徴とする請求項35に記載の方法。
  38. フィードバックが求められるメッセージの前記サブセットは、前記メッセージに関してさらに学習することを容易にするように、スパムである、または良好であるという分類なしに、通過することを許されることを特徴とする請求項35に記載の方法。
  39. 強制隔離によってメッセージを分類することを容易にするAPIであって、
    着信メッセージのスパム確率スコアを計算するステップと、
    該メッセージのそれぞれのスパム確率スコアに少なくともある程度、基づき、メッセージの少なくともサブセットを強制隔離するステップと、
    強制隔離時間を推奨するステップと
    を含むことを特徴とするAPI。
  40. 次回のフィルタダウンロードまでメッセージの少なくともサブセットを強制隔離し、該ダウンロードの時点で、前記フィルタは、強制隔離を続けるか、または前記メッセージの分類を再開するかを決定し、スパムである、または良好であるという最終の分類まで繰り返すステップをさらに含むことを特徴とする請求項39に記載のAPI。
  41. サーバフィルタが、ある期間にわたって前記それぞれのメッセージを強制隔離したことをサーバとクライアントの間で通信し、クライアントフィルタ強制隔離時間を短縮するステップをさらに含むことを特徴とする請求項39に記載のAPI。
  42. メッセージを分類するためのシステムであって、
    分類されるべきメッセージのセットを受信するための手段と、
    十分な情報の欠如に基づき、前記メッセージがスパムである、または良好であるという分類を一時的に遅らせるか、または前記メッセージが信頼できない、または疑わしいと最初に分類するための手段と
    を含むことを特徴とするシステム。
JP2005036833A 2004-02-13 2005-02-14 スパム防止のためのインテリジェントな強制隔離 Expired - Fee Related JP4818616B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/779,295 US7543053B2 (en) 2003-03-03 2004-02-13 Intelligent quarantining for spam prevention
US10/779,295 2004-02-13

Publications (2)

Publication Number Publication Date
JP2005235206A true JP2005235206A (ja) 2005-09-02
JP4818616B2 JP4818616B2 (ja) 2011-11-16

Family

ID=34701415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005036833A Expired - Fee Related JP4818616B2 (ja) 2004-02-13 2005-02-14 スパム防止のためのインテリジェントな強制隔離

Country Status (11)

Country Link
US (1) US7543053B2 (ja)
EP (1) EP1564670B1 (ja)
JP (1) JP4818616B2 (ja)
KR (1) KR101117866B1 (ja)
CN (1) CN1658572B (ja)
AT (1) ATE481804T1 (ja)
BR (1) BRPI0500374A (ja)
CA (1) CA2497012A1 (ja)
DE (1) DE602005023553D1 (ja)
ES (1) ES2350107T3 (ja)
MX (1) MXPA05001677A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122146A (ja) * 2005-10-25 2007-05-17 Just Syst Corp 電子メール評価装置および電子メール評価方法
KR100791552B1 (ko) 2006-02-03 2008-01-03 주식회사 위더스정보 스팸 게시물 차단 시스템 및 그 운영방법
JP2008502998A (ja) * 2004-06-14 2008-01-31 クゥアルコム・インコーポレイテッド サーバーへの電子メッセージのコンテンツについての通信情報
JP2008546076A (ja) * 2005-05-27 2008-12-18 マイクロソフト コーポレーション 時間制限メッセージの効率的な処理
JP2009512082A (ja) * 2005-10-21 2009-03-19 ボックスセントリー ピーティーイー リミテッド 電子メッセージ認証
JP2011526044A (ja) * 2008-06-23 2011-09-29 クラウドマーク インコーポレイテッド データを再評価するためのシステムおよび方法
JP2014502754A (ja) * 2010-12-24 2014-02-03 北大方正集▲団▼有限公司 インターネットにおける有害情報の遮断方法と装置
JP2014529152A (ja) * 2011-09-30 2014-10-30 マイクロソフト コーポレーション メッセージの分類と管理
KR20220036270A (ko) * 2020-09-15 2022-03-22 주식회사 카카오 스팸 url을 판단하는 방법 및 시스템
JP7388791B1 (ja) 2023-08-14 2023-11-29 株式会社Godot 情報処理システム、情報処理方法及び情報処理プログラム

Families Citing this family (153)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7120931B1 (en) * 2000-08-31 2006-10-10 Cisco Technology, Inc. System and method for generating filters based on analyzed flow data
US8578480B2 (en) 2002-03-08 2013-11-05 Mcafee, Inc. Systems and methods for identifying potentially malicious messages
US20060015942A1 (en) 2002-03-08 2006-01-19 Ciphertrust, Inc. Systems and methods for classification of messaging entities
US8132250B2 (en) * 2002-03-08 2012-03-06 Mcafee, Inc. Message profiling systems and methods
US8561167B2 (en) 2002-03-08 2013-10-15 Mcafee, Inc. Web reputation scoring
US7870203B2 (en) * 2002-03-08 2011-01-11 Mcafee, Inc. Methods and systems for exposing messaging reputation to an end user
US8046832B2 (en) 2002-06-26 2011-10-25 Microsoft Corporation Spam detector with challenges
US7219131B2 (en) * 2003-01-16 2007-05-15 Ironport Systems, Inc. Electronic message delivery using an alternate source approach
US7219148B2 (en) * 2003-03-03 2007-05-15 Microsoft Corporation Feedback loop for spam prevention
US7543053B2 (en) 2003-03-03 2009-06-02 Microsoft Corporation Intelligent quarantining for spam prevention
US7676546B2 (en) 2003-03-25 2010-03-09 Verisign, Inc. Control and management of electronic messaging
US7895649B1 (en) 2003-04-04 2011-02-22 Raytheon Company Dynamic rule generation for an enterprise intrusion detection system
US7346700B2 (en) * 2003-04-07 2008-03-18 Time Warner Cable, A Division Of Time Warner Entertainment Company, L.P. System and method for managing e-mail message traffic
US7483947B2 (en) * 2003-05-02 2009-01-27 Microsoft Corporation Message rendering for identification of content features
US7617526B2 (en) * 2003-05-20 2009-11-10 International Business Machines Corporation Blocking of spam e-mail at a firewall
US7308716B2 (en) * 2003-05-20 2007-12-11 International Business Machines Corporation Applying blocking measures progressively to malicious network traffic
US7484096B1 (en) * 2003-05-28 2009-01-27 Microsoft Corporation Data validation using signatures and sampling
US7457791B1 (en) * 2003-05-30 2008-11-25 Microsoft Corporation Using invariants to validate applications states
US7272853B2 (en) 2003-06-04 2007-09-18 Microsoft Corporation Origination/destination features and lists for spam prevention
US7711779B2 (en) 2003-06-20 2010-05-04 Microsoft Corporation Prevention of outgoing spam
US9338026B2 (en) * 2003-09-22 2016-05-10 Axway Inc. Delay technique in e-mail filtering system
US7715059B2 (en) * 2003-10-22 2010-05-11 International Business Machines Corporation Facsimile system, method and program product with junk fax disposal
US20050238181A1 (en) * 2003-11-27 2005-10-27 Sigvard Nilsson Hearing protector
US20050120118A1 (en) * 2003-12-01 2005-06-02 Thibadeau Robert H. Novel network server for electronic mail filter benchmarking
US20050154601A1 (en) * 2004-01-09 2005-07-14 Halpern Joshua I. Information security threat identification, analysis, and management
WO2005081477A1 (en) * 2004-02-17 2005-09-01 Ironport Systems, Inc. Collecting, aggregating, and managing information relating to electronic messages
US7904510B2 (en) * 2004-02-23 2011-03-08 Microsoft Corporation Systems and methods for managing discussion threads based on ratings
US8214438B2 (en) * 2004-03-01 2012-07-03 Microsoft Corporation (More) advanced spam detection features
US20050198159A1 (en) * 2004-03-08 2005-09-08 Kirsch Steven T. Method and system for categorizing and processing e-mails based upon information in the message header and SMTP session
US7912905B2 (en) * 2004-05-18 2011-03-22 Computer Associates Think, Inc. System and method for filtering network messages
US7756930B2 (en) 2004-05-28 2010-07-13 Ironport Systems, Inc. Techniques for determining the reputation of a message sender
US7849142B2 (en) 2004-05-29 2010-12-07 Ironport Systems, Inc. Managing connections, messages, and directory harvest attacks at a server
US7873695B2 (en) 2004-05-29 2011-01-18 Ironport Systems, Inc. Managing connections and messages at a server by associating different actions for both different senders and different recipients
US7870200B2 (en) 2004-05-29 2011-01-11 Ironport Systems, Inc. Monitoring the flow of messages received at a server
US7748038B2 (en) 2004-06-16 2010-06-29 Ironport Systems, Inc. Method and apparatus for managing computer virus outbreaks
US7664819B2 (en) * 2004-06-29 2010-02-16 Microsoft Corporation Incremental anti-spam lookup and update service
US20060015726A1 (en) * 2004-07-19 2006-01-19 Callas Jonathan D Apparatus for partial authentication of messages
US7904517B2 (en) 2004-08-09 2011-03-08 Microsoft Corporation Challenge response systems
US7660865B2 (en) * 2004-08-12 2010-02-09 Microsoft Corporation Spam filtering with probabilistic secure hashes
US8176126B2 (en) 2004-08-26 2012-05-08 International Business Machines Corporation System, method and program to limit rate of transferring messages from suspected spammers
US7555524B1 (en) * 2004-09-16 2009-06-30 Symantec Corporation Bulk electronic message detection by header similarity analysis
US8635690B2 (en) * 2004-11-05 2014-01-21 Mcafee, Inc. Reputation based message processing
US8131804B2 (en) 2004-11-19 2012-03-06 J Michael Greata Method and apparatus for immunizing data in computer systems from corruption
US20060112430A1 (en) * 2004-11-19 2006-05-25 Deisenroth Jerrold M Method and apparatus for immunizing data in computer systems from corruption
WO2006060581A2 (en) * 2004-11-30 2006-06-08 Sensory Networks Inc. Apparatus and method for acceleration of security applications through pre-filtering
US7810158B2 (en) * 2004-12-16 2010-10-05 At&T Intellectual Property I, L.P. Methods and systems for deceptively trapping electronic worms
US8135779B2 (en) * 2005-06-07 2012-03-13 Nokia Corporation Method, system, apparatus, and software product for filtering out spam more efficiently
US7822818B2 (en) * 2005-07-01 2010-10-26 Symantec Corporation Methods and systems for detecting and preventing the spread of malware on instant messaging (IM) networks by using automated IM users
US7823200B2 (en) * 2005-07-01 2010-10-26 Symantec Corporation Methods and systems for detecting and preventing the spread of malware on instant messaging (IM) networks by analyzing message traffic patterns
US8572733B1 (en) * 2005-07-06 2013-10-29 Raytheon Company System and method for active data collection in a network security system
US7930353B2 (en) * 2005-07-29 2011-04-19 Microsoft Corporation Trees of classifiers for detecting email spam
US8224761B1 (en) 2005-09-01 2012-07-17 Raytheon Company System and method for interactive correlation rule design in a network security system
US7950058B1 (en) 2005-09-01 2011-05-24 Raytheon Company System and method for collaborative information security correlation in low bandwidth environments
US8065370B2 (en) 2005-11-03 2011-11-22 Microsoft Corporation Proofs to filter spam
US20070124389A1 (en) * 2005-11-28 2007-05-31 Lucent Technologies Inc. Anti-spam application storage system
US9426103B2 (en) 2005-12-27 2016-08-23 International Business Machines Corporation Host state-sensing for message interruption
US7849143B2 (en) * 2005-12-29 2010-12-07 Research In Motion Limited System and method of dynamic management of spam
EP1806885A1 (en) * 2006-01-05 2007-07-11 Alcatel Lucent Electronic messaging management method and system
EP1806904B1 (en) 2006-01-05 2016-03-23 Sound View Innovations, LLC Method for managing electronic information, the related user terminal and the related information source
US7849185B1 (en) 2006-01-10 2010-12-07 Raytheon Company System and method for attacker attribution in a network security system
KR100819965B1 (ko) * 2006-01-12 2008-04-07 (주)아이티 시스템즈 스팸 전화, 스팸 메시지 차단 및 가입자 상태 바로 알림방법 및 장치
US20070174768A1 (en) * 2006-01-20 2007-07-26 International Business Machines Corporation Adaptive alert management
US7627641B2 (en) 2006-03-09 2009-12-01 Watchguard Technologies, Inc. Method and system for recognizing desired email
EP1850606B1 (en) 2006-04-25 2009-06-17 Research In Motion Limited Filtering messages using information about the sender's location
US20080082658A1 (en) * 2006-09-29 2008-04-03 Wan-Yen Hsu Spam control systems and methods
US8050983B1 (en) 2006-10-31 2011-11-01 Amazon Technologies, Inc. Inhibiting inappropriate communications between users involving tranactions
US8811156B1 (en) 2006-11-14 2014-08-19 Raytheon Company Compressing n-dimensional data
US8224905B2 (en) 2006-12-06 2012-07-17 Microsoft Corporation Spam filtration utilizing sender activity data
CN100555991C (zh) * 2006-12-29 2009-10-28 华为技术有限公司 报文访问控制的方法、转发引擎装置和通信设备
US7779156B2 (en) 2007-01-24 2010-08-17 Mcafee, Inc. Reputation based load balancing
US8763114B2 (en) 2007-01-24 2014-06-24 Mcafee, Inc. Detecting image spam
US8214497B2 (en) 2007-01-24 2012-07-03 Mcafee, Inc. Multi-dimensional reputation scoring
US8429626B2 (en) 2007-02-15 2013-04-23 Microsoft Corporation Packaging content updates
US20080201722A1 (en) * 2007-02-20 2008-08-21 Gurusamy Sarathy Method and System For Unsafe Content Tracking
EP1968264B1 (en) * 2007-02-28 2018-10-24 Strato Ag A method of filtering electronic mails and an electronic mail system
WO2009003059A1 (en) * 2007-06-25 2008-12-31 Google Inc. Zero-hour quarantine of suspect electronic messages
US8103727B2 (en) * 2007-08-30 2012-01-24 Fortinet, Inc. Use of global intelligence to make local information classification decisions
US20090083413A1 (en) * 2007-09-24 2009-03-26 Levow Zachary S Distributed frequency data collection via DNS
US8082584B1 (en) * 2007-10-16 2011-12-20 Mcafee, Inc. System, method, and computer program product for conditionally performing a scan on data based on an associated data structure
US8185930B2 (en) 2007-11-06 2012-05-22 Mcafee, Inc. Adjusting filter or classification control settings
US8160975B2 (en) * 2008-01-25 2012-04-17 Mcafee, Inc. Granular support vector machine with random granularity
US20090228558A1 (en) * 2008-03-05 2009-09-10 Brenner Michael R Time management for outgoing electronic mail
US8589503B2 (en) 2008-04-04 2013-11-19 Mcafee, Inc. Prioritizing network traffic
US8086688B1 (en) 2008-05-16 2011-12-27 Quick Vault, Inc. Method and system for mobile data security
US8689341B1 (en) * 2008-05-21 2014-04-01 Symantec Corporation Anti-phishing system based on end user data submission quarantine periods for new websites
US8028031B2 (en) * 2008-06-27 2011-09-27 Microsoft Corporation Determining email filtering type based on sender classification
US8312539B1 (en) * 2008-07-11 2012-11-13 Symantec Corporation User-assisted security system
US8180838B2 (en) * 2008-08-29 2012-05-15 Microsoft Corporation Efficiently managing modular data storage systems
US8886728B2 (en) 2008-12-12 2014-11-11 At&T Intellectual Property I, L.P. Method and apparatus for reclassifying e-mail or modifying a spam filter based on users' input
WO2011056796A1 (en) 2009-11-04 2011-05-12 Martin Kagan Internet infrastructure survey
US8862674B2 (en) * 2009-11-30 2014-10-14 At&T Intellectual Property I, L.P. Method and apparatus for managing an electronic messaging system
US8549642B2 (en) * 2010-01-20 2013-10-01 Symantec Corporation Method and system for using spam e-mail honeypots to identify potential malware containing e-mails
US8745143B2 (en) * 2010-04-01 2014-06-03 Microsoft Corporation Delaying inbound and outbound email messages
US8621638B2 (en) 2010-05-14 2013-12-31 Mcafee, Inc. Systems and methods for classification of messaging entities
US8595830B1 (en) 2010-07-27 2013-11-26 Symantec Corporation Method and system for detecting malware containing E-mails based on inconsistencies in public sector “From” addresses and a sending IP address
US8635289B2 (en) 2010-08-31 2014-01-21 Microsoft Corporation Adaptive electronic message scanning
US8464342B2 (en) 2010-08-31 2013-06-11 Microsoft Corporation Adaptively selecting electronic message scanning rules
US9021043B2 (en) * 2010-09-28 2015-04-28 Microsoft Technology Licensing Llc Message gateway with hybrid proxy/store-and-forward logic
CN102655480B (zh) * 2011-03-03 2015-12-02 腾讯科技(深圳)有限公司 相似邮件处理系统和方法
US9442881B1 (en) * 2011-08-31 2016-09-13 Yahoo! Inc. Anti-spam transient entity classification
US8914882B2 (en) * 2011-11-03 2014-12-16 Raytheon Company Intrusion prevention system (IPS) mode for a malware detection system
US9231899B2 (en) * 2012-01-13 2016-01-05 International Business Machines Corporation Transmittal of blocked message notification
US9876742B2 (en) * 2012-06-29 2018-01-23 Microsoft Technology Licensing, Llc Techniques to select and prioritize application of junk email filtering rules
US10320628B2 (en) 2013-06-19 2019-06-11 Citrix Systems, Inc. Confidence scoring of device reputation based on characteristic network behavior
US9633203B2 (en) * 2013-09-12 2017-04-25 Cellco Partnership Spam notification device
US10694029B1 (en) 2013-11-07 2020-06-23 Rightquestion, Llc Validating automatic number identification data
US11568280B1 (en) * 2019-01-23 2023-01-31 Amdocs Development Limited System, method, and computer program for parental controls and recommendations based on artificial intelligence
US9111093B1 (en) 2014-01-19 2015-08-18 Google Inc. Using signals from developer clusters
US9246923B1 (en) 2014-01-19 2016-01-26 Google Inc. Developer risk classifier
WO2015184579A1 (en) * 2014-06-03 2015-12-10 Yahoo! Inc Determining traffic quality using event-based traffic scoring
WO2016040942A1 (en) 2014-09-12 2016-03-17 Quickvault, Inc. Method and system for forensic data tracking
US20200067861A1 (en) * 2014-12-09 2020-02-27 ZapFraud, Inc. Scam evaluation system
US9967219B2 (en) * 2015-03-23 2018-05-08 Ca, Inc. Privacy preserving method and system for limiting communications to targeted recipients using behavior-based categorizing of recipients
US20170093771A1 (en) * 2015-09-30 2017-03-30 Bank Of America Corporation Electronic mail cluster analysis by internet header information
LT3297221T (lt) * 2016-09-19 2018-12-27 Retarus Gmbh Įtartinų elektroninių pranešimų aptikimo būdas
US11936604B2 (en) 2016-09-26 2024-03-19 Agari Data, Inc. Multi-level security analysis and intermediate delivery of an electronic message
US10805314B2 (en) 2017-05-19 2020-10-13 Agari Data, Inc. Using message context to evaluate security of requested data
US10880322B1 (en) 2016-09-26 2020-12-29 Agari Data, Inc. Automated tracking of interaction with a resource of a message
US9847973B1 (en) 2016-09-26 2017-12-19 Agari Data, Inc. Mitigating communication risk by detecting similarity to a trusted message contact
US10855635B2 (en) * 2016-11-14 2020-12-01 Microsoft Technology Licensing, Llc Electronic mail (e-mail) system support for messages with different traffic types
US11722513B2 (en) 2016-11-30 2023-08-08 Agari Data, Inc. Using a measure of influence of sender in determining a security risk associated with an electronic message
US11044267B2 (en) 2016-11-30 2021-06-22 Agari Data, Inc. Using a measure of influence of sender in determining a security risk associated with an electronic message
US10594640B2 (en) * 2016-12-01 2020-03-17 Oath Inc. Message classification
US10360466B2 (en) * 2016-12-27 2019-07-23 Facebook, Inc. Systems and methods for image description generation
US10911382B2 (en) * 2017-01-30 2021-02-02 Futurewei Technologies, Inc. Personalized message priority classification
US10757053B2 (en) * 2017-03-02 2020-08-25 Microsoft Technology Licensing, Llc High confidence digital content treatment
US11019076B1 (en) 2017-04-26 2021-05-25 Agari Data, Inc. Message security assessment using sender identity profiles
US11757914B1 (en) * 2017-06-07 2023-09-12 Agari Data, Inc. Automated responsive message to determine a security risk of a message sender
US11102244B1 (en) * 2017-06-07 2021-08-24 Agari Data, Inc. Automated intelligence gathering
CN107481037B (zh) * 2017-07-24 2021-01-26 北京京东尚科信息技术有限公司 原生广告插播方法和装置
US20190068535A1 (en) * 2017-08-28 2019-02-28 Linkedin Corporation Self-healing content treatment system and method
KR102005420B1 (ko) * 2018-01-11 2019-07-30 국방과학연구소 전자메일 저자 분류 방법 및 장치
US10601868B2 (en) 2018-08-09 2020-03-24 Microsoft Technology Licensing, Llc Enhanced techniques for generating and deploying dynamic false user accounts
US11212312B2 (en) 2018-08-09 2021-12-28 Microsoft Technology Licensing, Llc Systems and methods for polluting phishing campaign responses
US11606365B2 (en) * 2018-11-19 2023-03-14 Zixcorp Systems, Inc. Delivery of an electronic message using a machine learning policy
US11341430B2 (en) 2018-11-19 2022-05-24 Zixcorp Systems, Inc. Creating a machine learning policy based on express indicators
US11824870B2 (en) 2018-12-19 2023-11-21 Abnormal Security Corporation Threat detection platforms for detecting, characterizing, and remediating email-based threats in real time
US11050793B2 (en) 2018-12-19 2021-06-29 Abnormal Security Corporation Retrospective learning of communication patterns by machine learning models for discovering abnormal behavior
RU2750643C2 (ru) * 2019-07-17 2021-06-30 Акционерное общество "Лаборатория Касперского" Способ признания письма спамом через анти-спам карантин
US11132337B2 (en) * 2019-10-15 2021-09-28 Saleforce.com, inc. Dynamically updating distributed content objects
CA3100378A1 (en) * 2019-11-20 2021-05-20 Royal Bank Of Canada System and method for unauthorized activity detection
KR20210076867A (ko) 2019-12-16 2021-06-24 김상진 가디언즈 코드 시스템 및 이의 운영방법
US11582190B2 (en) * 2020-02-10 2023-02-14 Proofpoint, Inc. Electronic message processing systems and methods
KR102259789B1 (ko) * 2020-02-24 2021-06-02 삼정데이타서비스 주식회사 발신 메일 및 수신 메일의 스팸 필터링 방법 및 장치
US11252189B2 (en) 2020-03-02 2022-02-15 Abnormal Security Corporation Abuse mailbox for facilitating discovery, investigation, and analysis of email-based threats
WO2021178423A1 (en) 2020-03-02 2021-09-10 Abnormal Security Corporation Multichannel threat detection for protecting against account compromise
US11470108B2 (en) 2020-04-23 2022-10-11 Abnormal Security Corporation Detection and prevention of external fraud
US11528242B2 (en) * 2020-10-23 2022-12-13 Abnormal Security Corporation Discovering graymail through real-time analysis of incoming email
US11687648B2 (en) 2020-12-10 2023-06-27 Abnormal Security Corporation Deriving and surfacing insights regarding security threats
WO2022197606A2 (en) * 2021-03-13 2022-09-22 Digital Reasoning Systems, Inc. Alert actioning and machine learning feedback
US11831661B2 (en) 2021-06-03 2023-11-28 Abnormal Security Corporation Multi-tiered approach to payload detection for incoming communications
US20230198926A1 (en) * 2021-12-17 2023-06-22 AO Kaspersky Lab System and method for restricting the reception of e-mails from a sender of bulk spam mail
WO2024029666A1 (ko) * 2022-08-04 2024-02-08 (주)기원테크 표적형 이메일 공격 차단 및 대응을 위한 이메일 보안 시스템 및 그 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353133A (ja) * 1999-04-09 2000-12-19 Internatl Business Mach Corp <Ibm> 電子メッセージの望ましくない送信または受信を妨害するためのシステムおよび方法
JP2002537727A (ja) * 1999-02-17 2002-11-05 アーゴウ インターラクティブ リミテッド 電子メール用プロキシおよびフィルタ装置および方法
JP2003244240A (ja) * 2002-02-18 2003-08-29 Yozan Inc メールサーバ装置、電子メール分類方法、メールサーバプログラムおよびメール転送システム
JP2004030639A (ja) * 2002-06-26 2004-01-29 Microsoft Corp 迷惑電子メールを検出するシステムおよび方法

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8918553D0 (en) 1989-08-15 1989-09-27 Digital Equipment Int Message control system
US5758257A (en) 1994-11-29 1998-05-26 Herz; Frederick System and method for scheduling broadcast of and access to video programs and other data using customer profiles
US5619648A (en) 1994-11-30 1997-04-08 Lucent Technologies Inc. Message filtering techniques
US5638487A (en) 1994-12-30 1997-06-10 Purespeech, Inc. Automatic speech recognition
US5845077A (en) 1995-11-27 1998-12-01 Microsoft Corporation Method and system for identifying and obtaining computer software from a remote computer
US6101531A (en) 1995-12-19 2000-08-08 Motorola, Inc. System for communicating user-selected criteria filter prepared at wireless client to communication server for filtering data transferred from host to said wireless client
US5704017A (en) 1996-02-16 1997-12-30 Microsoft Corporation Collaborative filtering utilizing a belief network
US5884033A (en) 1996-05-15 1999-03-16 Spyglass, Inc. Internet filtering system for filtering data transferred over the internet utilizing immediate and deferred filtering actions
US6453327B1 (en) 1996-06-10 2002-09-17 Sun Microsystems, Inc. Method and apparatus for identifying and discarding junk electronic mail
US6072942A (en) 1996-09-18 2000-06-06 Secure Computing Corporation System and method of electronic mail filtering using interconnected nodes
US5905859A (en) 1997-01-09 1999-05-18 International Business Machines Corporation Managed network device security method and apparatus
US5805801A (en) 1997-01-09 1998-09-08 International Business Machines Corporation System and method for detecting and preventing security
US6122657A (en) 1997-02-04 2000-09-19 Networks Associates, Inc. Internet computer system with methods for dynamic filtering of hypertext tags and content
US6742047B1 (en) 1997-03-27 2004-05-25 Intel Corporation Method and apparatus for dynamically filtering network content
DE69724235T2 (de) 1997-05-28 2004-02-26 Siemens Ag Computersystem und Verfahren zum Schutz von Software
US7117358B2 (en) 1997-07-24 2006-10-03 Tumbleweed Communications Corp. Method and system for filtering communication
US6199102B1 (en) 1997-08-26 2001-03-06 Christopher Alan Cobb Method and system for filtering electronic messages
US6003027A (en) 1997-11-21 1999-12-14 International Business Machines Corporation System and method for determining confidence levels for the results of a categorization system
US6393465B2 (en) 1997-11-25 2002-05-21 Nixmail Corporation Junk electronic mail detector and eliminator
US6351740B1 (en) 1997-12-01 2002-02-26 The Board Of Trustees Of The Leland Stanford Junior University Method and system for training dynamic nonlinear adaptive filters which have embedded memory
AU1907899A (en) 1997-12-22 1999-07-12 Accepted Marketing, Inc. E-mail filter and method thereof
US6023723A (en) 1997-12-22 2000-02-08 Accepted Marketing, Inc. Method and system for filtering unwanted junk e-mail utilizing a plurality of filtering mechanisms
US6052709A (en) 1997-12-23 2000-04-18 Bright Light Technologies, Inc. Apparatus and method for controlling delivery of unsolicited electronic mail
GB2334116A (en) 1998-02-04 1999-08-11 Ibm Scheduling and dispatching queued client requests within a server computer
US6484261B1 (en) 1998-02-17 2002-11-19 Cisco Technology, Inc. Graphical network security policy management
US6504941B2 (en) 1998-04-30 2003-01-07 Hewlett-Packard Company Method and apparatus for digital watermarking of images
US6314421B1 (en) 1998-05-12 2001-11-06 David M. Sharnoff Method and apparatus for indexing documents for message filtering
US6074942A (en) * 1998-06-03 2000-06-13 Worldwide Semiconductor Manufacturing Corporation Method for forming a dual damascene contact and interconnect
US6308273B1 (en) 1998-06-12 2001-10-23 Microsoft Corporation Method and system of security location discrimination
US6161130A (en) 1998-06-23 2000-12-12 Microsoft Corporation Technique which utilizes a probabilistic classifier to detect "junk" e-mail by automatically updating a training and re-training the classifier based on the updated training set
US6167434A (en) 1998-07-15 2000-12-26 Pang; Stephen Y. Computer code for removing junk e-mail messages
US6112227A (en) 1998-08-06 2000-08-29 Heiner; Jeffrey Nelson Filter-in method for reducing junk e-mail
US6434600B2 (en) 1998-09-15 2002-08-13 Microsoft Corporation Methods and systems for securely delivering electronic mail to hosts having dynamic IP addresses
US6732273B1 (en) 1998-10-21 2004-05-04 Lucent Technologies Inc. Priority and security coding system for electronic mail messages
GB2343529B (en) 1998-11-07 2003-06-11 Ibm Filtering incoming e-mail
US6546416B1 (en) 1998-12-09 2003-04-08 Infoseek Corporation Method and system for selectively blocking delivery of bulk electronic mail
US6643686B1 (en) 1998-12-18 2003-11-04 At&T Corp. System and method for counteracting message filtering
US6615242B1 (en) 1998-12-28 2003-09-02 At&T Corp. Automatic uniform resource locator-based message filter
US6330590B1 (en) 1999-01-05 2001-12-11 William D. Cotten Preventing delivery of unwanted bulk e-mail
US6424997B1 (en) 1999-01-27 2002-07-23 International Business Machines Corporation Machine learning based electronic messaging system
US6449634B1 (en) 1999-01-29 2002-09-10 Digital Impact, Inc. Method and system for remotely sensing the file formats processed by an E-mail client
US6477551B1 (en) 1999-02-16 2002-11-05 International Business Machines Corporation Interactive electronic messaging system
US7032030B1 (en) 1999-03-11 2006-04-18 John David Codignotto Message publishing system and method
US6370526B1 (en) 1999-05-18 2002-04-09 International Business Machines Corporation Self-adaptive method and system for providing a user-preferred ranking order of object sets
US6592627B1 (en) 1999-06-10 2003-07-15 International Business Machines Corporation System and method for organizing repositories of semi-structured documents such as email
US6449636B1 (en) 1999-09-08 2002-09-10 Nortel Networks Limited System and method for creating a dynamic data file from collected and filtered web pages
US6321267B1 (en) 1999-11-23 2001-11-20 Escom Corporation Method and apparatus for filtering junk email
US6728690B1 (en) 1999-11-23 2004-04-27 Microsoft Corporation Classification system trainer employing maximum margin back-propagation with probabilistic outputs
CA2392397A1 (en) * 1999-11-23 2001-05-31 Escom Corporation Electronic message filter having a whitelist database and a quarantining mechanism
US6701440B1 (en) 2000-01-06 2004-03-02 Networks Associates Technology, Inc. Method and system for protecting a computer using a remote e-mail scanning device
US6633855B1 (en) 2000-01-06 2003-10-14 International Business Machines Corporation Method, system, and program for filtering content using neural networks
US7822977B2 (en) * 2000-02-08 2010-10-26 Katsikas Peter L System for eliminating unauthorized electronic mail
US6691156B1 (en) 2000-03-10 2004-02-10 International Business Machines Corporation Method for restricting delivery of unsolicited E-mail
US6684201B1 (en) 2000-03-31 2004-01-27 Microsoft Corporation Linguistic disambiguation system and method using string-based pattern training to learn to resolve ambiguity sites
DE10023208A1 (de) * 2000-05-12 2001-11-15 Alstom Power Nv Isolierung von Statorwicklungen im Spritzgussverfahren
US7210099B2 (en) 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
US20040073617A1 (en) 2000-06-19 2004-04-15 Milliken Walter Clark Hash-based systems and methods for detecting and preventing transmission of unwanted e-mail
JP2004531780A (ja) 2000-06-22 2004-10-14 マイクロソフト コーポレーション 分散型コンピューティングサービスプラットフォーム
US7003555B1 (en) 2000-06-23 2006-02-21 Cloudshield Technologies, Inc. Apparatus and method for domain name resolution
US6779021B1 (en) 2000-07-28 2004-08-17 International Business Machines Corporation Method and system for predicting and managing undesirable electronic mail
US6842773B1 (en) 2000-08-24 2005-01-11 Yahoo ! Inc. Processing of textual electronic communication distributed in bulk
US6971023B1 (en) 2000-10-03 2005-11-29 Mcafee, Inc. Authorizing an additional computer program module for use with a core computer program
US6757830B1 (en) 2000-10-03 2004-06-29 Networks Associates Technology, Inc. Detecting unwanted properties in received email messages
US6748422B2 (en) * 2000-10-19 2004-06-08 Ebay Inc. System and method to control sending of unsolicited communications relating to a plurality of listings in a network-based commerce facility
US7243125B2 (en) 2000-12-08 2007-07-10 Xerox Corporation Method and apparatus for presenting e-mail threads as semi-connected text by removing redundant material
JP3554271B2 (ja) 2000-12-13 2004-08-18 パナソニック コミュニケーションズ株式会社 情報通信装置
US6775704B1 (en) 2000-12-28 2004-08-10 Networks Associates Technology, Inc. System and method for preventing a spoofed remote procedure call denial of service attack in a networked computing environment
US20020124025A1 (en) 2001-03-01 2002-09-05 International Business Machines Corporataion Scanning and outputting textual information in web page images
US6928465B2 (en) 2001-03-16 2005-08-09 Wells Fargo Bank, N.A. Redundant email address detection and capture system
US6751348B2 (en) 2001-03-29 2004-06-15 Fotonation Holdings, Llc Automated detection of pornographic images
US8949878B2 (en) 2001-03-30 2015-02-03 Funai Electric Co., Ltd. System for parental control in video programs based on multimedia content information
US6920477B2 (en) 2001-04-06 2005-07-19 President And Fellows Of Harvard College Distributed, compressed Bloom filter Web cache server
US8095597B2 (en) 2001-05-01 2012-01-10 Aol Inc. Method and system of automating data capture from electronic correspondence
US7188106B2 (en) 2001-05-01 2007-03-06 International Business Machines Corporation System and method for aggregating ranking results from various sources to improve the results of web searching
US6768991B2 (en) 2001-05-15 2004-07-27 Networks Associates Technology, Inc. Searching for sequences of character data
US7103599B2 (en) 2001-05-15 2006-09-05 Verizon Laboratories Inc. Parsing of nested internet electronic mail documents
US20030009698A1 (en) 2001-05-30 2003-01-09 Cascadezone, Inc. Spam avenger
US20030009495A1 (en) 2001-06-29 2003-01-09 Akli Adjaoute Systems and methods for filtering electronic content
TW533380B (en) 2001-07-23 2003-05-21 Ulead Systems Inc Group image detecting method
US6769016B2 (en) 2001-07-26 2004-07-27 Networks Associates Technology, Inc. Intelligent SPAM detection system using an updateable neural analysis engine
US7146402B2 (en) 2001-08-31 2006-12-05 Sendmail, Inc. E-mail system providing filtering methodology on a per-domain basis
US6785820B1 (en) 2002-04-02 2004-08-31 Networks Associates Technology, Inc. System, method and computer program product for conditionally updating a security program
US20030204569A1 (en) 2002-04-29 2003-10-30 Michael R. Andrews Method and apparatus for filtering e-mail infected with a previously unidentified computer virus
US20030229672A1 (en) 2002-06-05 2003-12-11 Kohn Daniel Mark Enforceable spam identification and reduction system, and method thereof
US8924484B2 (en) 2002-07-16 2014-12-30 Sonicwall, Inc. Active e-mail filter with challenge-response
US7363490B2 (en) 2002-09-12 2008-04-22 International Business Machines Corporation Method and system for selective email acceptance via encoded email identifiers
US7188369B2 (en) 2002-10-03 2007-03-06 Trend Micro, Inc. System and method having an antivirus virtual scanning processor with plug-in functionalities
US20040083270A1 (en) 2002-10-23 2004-04-29 David Heckerman Method and system for identifying junk e-mail
US7149801B2 (en) 2002-11-08 2006-12-12 Microsoft Corporation Memory bound functions for spam deterrence and the like
US6732157B1 (en) 2002-12-13 2004-05-04 Networks Associates Technology, Inc. Comprehensive anti-spam system, method, and computer program product for filtering unwanted e-mail messages
US20060265498A1 (en) * 2002-12-26 2006-11-23 Yehuda Turgeman Detection and prevention of spam
US7533148B2 (en) * 2003-01-09 2009-05-12 Microsoft Corporation Framework to enable integration of anti-spam technologies
US7171450B2 (en) * 2003-01-09 2007-01-30 Microsoft Corporation Framework to enable integration of anti-spam technologies
US7725544B2 (en) * 2003-01-24 2010-05-25 Aol Inc. Group based spam classification
US7249162B2 (en) 2003-02-25 2007-07-24 Microsoft Corporation Adaptive junk message filtering system
US7219148B2 (en) 2003-03-03 2007-05-15 Microsoft Corporation Feedback loop for spam prevention
US7543053B2 (en) 2003-03-03 2009-06-02 Microsoft Corporation Intelligent quarantining for spam prevention
US7320020B2 (en) * 2003-04-17 2008-01-15 The Go Daddy Group, Inc. Mail server probability spam filter
US7293063B1 (en) 2003-06-04 2007-11-06 Symantec Corporation System utilizing updated spam signatures for performing secondary signature-based analysis of a held e-mail to improve spam email detection
US7263607B2 (en) * 2003-06-12 2007-08-28 Microsoft Corporation Categorizing electronic messages based on trust between electronic messaging entities
US7155484B2 (en) * 2003-06-30 2006-12-26 Bellsouth Intellectual Property Corporation Filtering email messages corresponding to undesirable geographical regions
US7051077B2 (en) * 2003-06-30 2006-05-23 Mx Logic, Inc. Fuzzy logic voting method and system for classifying e-mail using inputs from multiple spam classifiers
US7257564B2 (en) * 2003-10-03 2007-08-14 Tumbleweed Communications Corp. Dynamic message filtering
US7930351B2 (en) * 2003-10-14 2011-04-19 At&T Intellectual Property I, L.P. Identifying undesired email messages having attachments
US7373385B2 (en) * 2003-11-03 2008-05-13 Cloudmark, Inc. Method and apparatus to block spam based on spam reports from a community of users
US20050120019A1 (en) * 2003-11-29 2005-06-02 International Business Machines Corporation Method and apparatus for the automatic identification of unsolicited e-mail messages (SPAM)
US7590694B2 (en) * 2004-01-16 2009-09-15 Gozoom.Com, Inc. System for determining degrees of similarity in email message information
US7693943B2 (en) * 2004-01-23 2010-04-06 International Business Machines Corporation Classification of electronic mail into multiple directories based upon their spam-like properties
WO2006002076A2 (en) 2004-06-15 2006-01-05 Tekelec Methods, systems, and computer program products for content-based screening of messaging service messages

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002537727A (ja) * 1999-02-17 2002-11-05 アーゴウ インターラクティブ リミテッド 電子メール用プロキシおよびフィルタ装置および方法
JP2000353133A (ja) * 1999-04-09 2000-12-19 Internatl Business Mach Corp <Ibm> 電子メッセージの望ましくない送信または受信を妨害するためのシステムおよび方法
JP2003244240A (ja) * 2002-02-18 2003-08-29 Yozan Inc メールサーバ装置、電子メール分類方法、メールサーバプログラムおよびメール転送システム
JP2004030639A (ja) * 2002-06-26 2004-01-29 Microsoft Corp 迷惑電子メールを検出するシステムおよび方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502998A (ja) * 2004-06-14 2008-01-31 クゥアルコム・インコーポレイテッド サーバーへの電子メッセージのコンテンツについての通信情報
JP4824753B2 (ja) * 2005-05-27 2011-11-30 マイクロソフト コーポレーション 時間制限メッセージの効率的な処理
JP2008546076A (ja) * 2005-05-27 2008-12-18 マイクロソフト コーポレーション 時間制限メッセージの効率的な処理
JP2009512082A (ja) * 2005-10-21 2009-03-19 ボックスセントリー ピーティーイー リミテッド 電子メッセージ認証
JP2007122146A (ja) * 2005-10-25 2007-05-17 Just Syst Corp 電子メール評価装置および電子メール評価方法
KR100791552B1 (ko) 2006-02-03 2008-01-03 주식회사 위더스정보 스팸 게시물 차단 시스템 및 그 운영방법
JP2011526044A (ja) * 2008-06-23 2011-09-29 クラウドマーク インコーポレイテッド データを再評価するためのシステムおよび方法
JP2014502754A (ja) * 2010-12-24 2014-02-03 北大方正集▲団▼有限公司 インターネットにおける有害情報の遮断方法と装置
JP2014529152A (ja) * 2011-09-30 2014-10-30 マイクロソフト コーポレーション メッセージの分類と管理
US11057334B2 (en) 2011-09-30 2021-07-06 Microsoft Technology Licensing, Llc Message classification and management
KR20220036270A (ko) * 2020-09-15 2022-03-22 주식회사 카카오 스팸 url을 판단하는 방법 및 시스템
KR102527260B1 (ko) 2020-09-15 2023-04-27 주식회사 카카오 스팸 url을 판단하는 방법 및 시스템
JP7388791B1 (ja) 2023-08-14 2023-11-29 株式会社Godot 情報処理システム、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
BRPI0500374A (pt) 2005-09-27
CA2497012A1 (en) 2005-08-13
CN1658572A (zh) 2005-08-24
US7543053B2 (en) 2009-06-02
ES2350107T3 (es) 2011-01-18
US20040215977A1 (en) 2004-10-28
ATE481804T1 (de) 2010-10-15
MXPA05001677A (es) 2005-10-26
EP1564670A2 (en) 2005-08-17
JP4818616B2 (ja) 2011-11-16
KR101117866B1 (ko) 2012-03-09
KR20060041934A (ko) 2006-05-12
EP1564670A3 (en) 2005-11-02
CN1658572B (zh) 2013-03-06
DE602005023553D1 (de) 2010-10-28
EP1564670B1 (en) 2010-09-15

Similar Documents

Publication Publication Date Title
JP4818616B2 (ja) スパム防止のためのインテリジェントな強制隔離
JP4828411B2 (ja) スパム防止のためのフィードバックループ
US7660865B2 (en) Spam filtering with probabilistic secure hashes
US8977696B2 (en) Declassifying of suspicious messages
KR101201045B1 (ko) 발신 스팸의 감소를 용이하게 하기 위한 시스템 및 방법, 스패머가 아닌 것 같은 활동의 주기적 확인을 용이하게 하는 시스템 및 방법, 스팸 감소 방법, 및 컴퓨터 판독가능한 기록 매체
US7287060B1 (en) System and method for rating unsolicited e-mail
KR101143194B1 (ko) 스팸 필터의 혼란화
US20050102366A1 (en) E-mail filter employing adaptive ruleset
US20060031306A1 (en) Method and apparatus for scoring unsolicited e-mail
US20050204005A1 (en) Selective treatment of messages based on junk rating
US20100211645A1 (en) Identification of a trusted message sender with traceable receipts
JP2009104400A (ja) 電子メールフィルタリング装置、電子メールのフィルタリング方法およびプログラム
Islam Designing Spam Mail Filtering Using Data Mining by Analyzing User and Email Behavior
Pham et al. Mail defense against spam via a scheme of distributed merit accumulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110831

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4818616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees