KR101117866B1 - 스팸 방지를 위한 지능형 차단 - Google Patents

스팸 방지를 위한 지능형 차단 Download PDF

Info

Publication number
KR101117866B1
KR101117866B1 KR1020050012057A KR20050012057A KR101117866B1 KR 101117866 B1 KR101117866 B1 KR 101117866B1 KR 1020050012057 A KR1020050012057 A KR 1020050012057A KR 20050012057 A KR20050012057 A KR 20050012057A KR 101117866 B1 KR101117866 B1 KR 101117866B1
Authority
KR
South Korea
Prior art keywords
messages
message
spam
subset
delay period
Prior art date
Application number
KR1020050012057A
Other languages
English (en)
Other versions
KR20060041934A (ko
Inventor
데렉 헤이류어
제프리 제이. 헐튼
조슈아 티. 굳맨
로버트 엘. 라운스웨이트
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20060041934A publication Critical patent/KR20060041934A/ko
Application granted granted Critical
Publication of KR101117866B1 publication Critical patent/KR101117866B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/212Monitoring or handling of messages using filtering or selective blocking

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Information Transfer Between Computers (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Medicines Containing Material From Animals Or Micro-Organisms (AREA)

Abstract

본 발명은 스팸 방지에 관련하여 보다 강력한 분류 시스템을 활용하는 지능형 차단 시스템 및 방법을 제공한다. 본 발명은 의문, 의심, 비신뢰인 것으로 나타나는 일부 메시지의 분류(스팸 또는 양호)를 보류하는 것을 포함한다. 특히, 필터는 이들 메시지에 대한 정보가 부족하기 때문에, 분류는 일시 지연된다. 이는 필터 갱신에 보다 많은 시간을 제공하여 보다 정확한 분류가 되게 한다. 의심가는 메시지는 일정 기간 동안 차단되어 보다 많은 데이터가 이 메시지에 대하여 수집될 수 있게 할 수 있다. 다수의 인자가 사용되어 메시지가 추가 분석을 위해 플래그될 가능성이 많은 지를 결정한다. 피드백 루프 시스템을 통한 사용자 피드백은 또한 메시지의 분류를 용이하게 하도록 사용될 수 있다. 일정 시간 후에, 메시지 분류가 재개될 수 있다.
Figure R1020050012057
스팸 방지, 분류 컴포넌트, 메시지 분류 시스템, 지능형 차단, 피드백 루프

Description

스팸 방지를 위한 지능형 차단{INTELLIGENT QUARANTINING FOR SPAM PREVENTION}
도 1은 본 발명의 일 양태에 따른, 피드백 루프 트레이닝 시스템에 관련된 피드백을 사용하여 차단된 메시지에 대하여 추가 학습하는 지능형 차단 시스템의 블록도.
도 2는 본 발명의 일 양태에 따른, 의심 메시지에 대한 보다 많은 정보의 획득을 용이하게 하여 스팸 필터를 갱신하고 의심 메시지를 스팸인지 아닌지로 분류하는 지능형 차단 시스템의 블록도.
도 3은 본 발명의 일 양태에 따른, 설치된 필터에 일부 그리고 갱신된 필터에 일부에 의한 인커밍 메시지의 예시적인 분류의 개략 흐름도.
도 4는 본 발명의 일 양태에 따른, 적절한 경우의 결정을 용이하게 하여 차단 목적을 위해 메시지를 의심으로 간주하는 예의 개략도.
도 5는 본 발명의 일 양태에 따른, 적어도 하나의 서버 상의 차단 시스템의 구현에 관련되는 클라이언트와 서버 통신의 개략도.
도 6은 본 발명의 일 양태에 따른, 예시적인 차단 프로세스를 통해 진행하는 메시지의 블록도.
도 7은 본 발명의 일 양태에 따른, 충분한 정보가 이용가능한 경우 메시지의 분류 및 분류를 위한 충분한 정보가 부족한 경우 메시지의 차단을 용이하게 하는 예시적인 방법의 흐름도.
도 8은 본 발명의 일 양태에 따른, 차단 기간 동안 메시지 또는 메시지 발신자에 대한 보다 많은 정보의 수집을 용이하게 하는 예시적인 방법의 흐름도.
도 9는 본 발명의 일 양태에 따른, 차단 기간 동안 메시지 또는 메시지 발신자에 대한 보다 많은 정보의 수집을 용이하게 하는 예시적인 방법의 흐름도.
도 10은 본 발명의 일 양태에 따른, 차단 기간 동안 메시지 또는 메시지 발신자에 대한 보다 많은 정보의 수집을 용이하게 하는 예시적인 방법의 흐름도.
도 11은 본 발명에 따른 예시적인 통신 환경의 개략 블록도.
<도면의 주요 부분에 대한 부호의 설명>
110: 메시지 수신자 컴포넌트
130: 필터
160: 필터 갱신 컴포넌트
170: 피드백 루프 컴포넌트
180: 하니팟 컴포넌트
210: 메시지 필터
260: 휴지통
270: 제1 전달 컴포넌트
280: 제2 전달 컴포넌트
본 발명은 적법(예를 들어, 양호한 메일) 및 원하지 않는 정보(예를 들어, 정크 메일)를 식별하는 시스템 및 방법에 관한 것으로서, 보다 구체적으로는, 메시지에 대한 추가 정보가 수집되어 이러한 메시지의 분류를 용이할 때까지 적어도 부분적으로 의심 메시지의 전달을 지연하여 스팸 방지를 위해 메시지를 분류하는 시스템 및 방법에 관한 것이다.
인터넷과 같은 글로벌 통신 네트워크의 출현은 수많은 잠재 고객에게 연락할 수 있는 상업적 기회를 제공하고 있다. 전자 메시징, 특히, 전자 메일(이메일)은 원하지 않는 광고와 프로모션("스팸으로 불림)을 네트워크 사용자에게 퍼뜨리는 수단으로서 급증하고 있다.
라디카티 그룹(Radicati Group, Inc.)은 컨설팅 및 시장 조사 회사로서, 2002년 8월에, 20억개의 정크 이메일이 메시지가 매일 전송된다고 추정하고 있다 - 이 숫자는 매 2년 마다 3배가 된다고 예측되고 있다. 개인 및 법인(예를 들어, 기업, 정부기관)은 정크메일에 점점 불편해하고 종종 성나게 한다. 이와 같이, 정크 이메일은 현재 또는 곧 신뢰성있는 계산에 주요한 위협이 될 수 있다.
정크 이메일을 막는데 사용되는 주요 기술은 필터링 시스템/방법론의 사용이다. 증명된 필터링 기술은 머신 학습 접근법에 기초한다 - 머신 학습 필터는 메시지가 정크라는 확률을 인커밍 메시지를 할당한다. 이러한 접근법에서, 특징은 통상 두 클래스의 예시 메시지(예를 들어, 정크 및 비정크(non-junk) 메시지)로부터 추출되고, 학습 필터는 두 클래스 사이를 확률적으로 구분하는데 사용된다. 많은 메시지 특징이 컨텐츠(예를 들어, 대상 및/또는 메시지의 본문의 단어 및 어구 )에 관한 것이며, 이러한 유형의 필터는 통상 "컨텐츠 기반 필터"로 불린다.
일부 정크/스팸 필터는 적응형이며, 이는 다중언어 사용자와 사용자가 적은 언어를 사용하는 사용자가 특정 요구에 적합할 수 있는 필터를 요구한다는 점에서 중요하다. 더욱이, 모든 사용자가 무엇이 정크/스팸인지 그리고 아닌지에 동의하는 것은 아니다. 따라서, 묵시적으로(예를 들어, 사용자 행동의 관측을 통해) 트레이닝될 수 있는 필터를 사용함으로써, 각 필터는 사용자의 특성 메시지 식별 요구를 충족하도록 동적으로 조정될 수 있다.
필터 적응에 대한 하나의 접근법은 사용자가 정크 및 비정크로서 메시지를 구별하게 하는 것이다. 불행히도, 이러한 수동의 힘든 트레이닝 기술은 이러한 트레이닝에 관련된 복잡성 뿐만 아니라 이러한 트레이닝을 적절하게 수행하는데 필요한 시량으로 인해 많은 사용자에게 바람직하지 않다. 또한, 이러한 수동 트레이닝 기술은 종종 개인 사용자에 의해 오류가 생길 수 있다. 예를 들면, 무료 메일 리스트에 가입은 종종 사용자가 잊어버려, 정크 메일로서 부정확하게 구분되버린다. 그 결과, 적법한 메일이 사용자 메일함에 일정하지 않게 차단될 수 있다. 다른 적응형 필터 트레이닝 접근법은 묵시적 트레이닝 신호(cue)를 사용하는 것이다. 예를 들면, 사용자가 메시지를 응답 또는 전송하면, 이 접근법은 메시지가 비정크로서 가정한다. 그러나, 이러한 종류의 메시지 신호만을 사용하는 것은 통계적 편향을 트레이닝 프로세스에 초래하여 필터들이 각각 덜 정확해진다.
또다른 접근법은 모든 사용자 이메일을 트레이닝용으로 사용하는 것이며, 여기서, 초기 라벨은 기존 필터에 의해 할당되고 사용자는 묵시적 신호(예를 들어, "사용자 보정" 방법)로 - 예를 들어, "정크로서 삭제" 및 "정크 아님" 등과 같은 옵션을 선택하는 등 - 이들 할당을 무효화한다. 이러한 접근법이 상술한 기술보다 우수하지만, 후술하는 본 발명에 비해서는 여전히 불충분한다.
또한, 스팸에 대하여 싸우는 현재의 필터 기술은 여전히 문제점이 있다. 예를 들면, 스패머(spammer)가 필터를 통과할 수 있는 메시지를 발견할 수 있으면, 필터가 갱신될 때까지 수백만의 스팸 메시지를 보낼 수 있게 된다. 필터가 얼마나 빨리 갱신되는 것에 관계없이, 스패머는 단지 보다 많은 대역을 얻음으로써 보다 빨리 이들의 메시지를 전송할 수 있다.
이하, 본 발명의 몇몇 양태의 기본적 이해를 제공하기 위해 본 발명의 간단한 요약을 제공한다. 이 요약은 본 발명의 전체 개요는 아니다. 이는 본 발명의 주요/중요 요소를 식별하고 범위를 상세히 나타내려는 것이 아니다. 이의 유일한 목적은 이하 보다 상세히 설명하기 전에 간단한 형태로서 본 발명의 일부 개념을 제공하는 것이다.
본 발명은 스팸 차단에 관련하여 항목의 분류를 용이하게 하는 지능형 차단 시스템 및 방법을 제공한다. 보다 구체적으로는, 본 발명은 의심으로서 메시지를 분류하고 및/또는 이 분류(스팸 또는 양호)를 일시 지연한다. 지연 또는 차단 기간은 적절한 시간량을 제공하여 메시지 및/또는 발신자에 대한 보다 많은 정보를 습득하게 하는 필터 및/또는 시스템에 의해 설정될 수 있다.
본 발명의 일 양태에 따르면, 메시지량(예를 들어, 발신자 당 메시지량)과 같은 활동 및/또는 동작을 점검하도록 구성될 수 있는 하나 이상의 시스템 컴포넌트로부터 정보가 획득될 수 있다. 예를 들면, 적은 양이 전송되는 메시지는 스팸일 가능성이 적다. 유사하게, 많은 양이 전송되는 메시지는 스팸일 가능성이 높다.
본 발명의 다른 양태에 따르면, 메시지 컨텐츠는 하니팟(honeypot)에서 발견된 메시지와 거의 유사한지를 판정하도록 분석될 수 있다. 하니팟은 인커밍 메시지를 스팸으로 식별하거나 및/또는 특정 상업용 메시지 주소 프로세싱을 추적하는 기지의 스팸 타겟을 지칭한다. 통상, 하니팟은 일련의 적법한 메시지가 결정될 있고 모든 다른 메시지는 스팸으로 간주될 수 있는 이메일 주소이다. 예를 들면, 이메일 주소는 사람들에 의해 발견되지 않을 것 같은 제한적인 방식으로 웹사이트 상에 개시될 수 있다. 따라서, 이 주소로 전송된 임의의 메시지는 스팸으로 간주될 수 있다. 다르게는, 이메일 주소는 적법한 메시지가 수신되도록 예측되는 상인(merchant)에게만 개시될 수 있다. 따라서, 이 상인으로부터 수신된 메시지는 적법하고 모든 다른 메시지는 안전하게 스팸으로 간주될 수 있다. 하니팟 및/또는 다른 소스(예를 들어, 사용자)로부터 유도된 스팸 데이터는 피드백 루프 시스템에 포함될 수 있지만, 하니팟을 사용한 스팸 분류의 실질적 증가로 인해, 이러한 데이터는 낮게 가중되어 편향된 피드백 결과를 얻는 것을 완화할 수 있다.
본 발명의 다른 양태에 따르면, 메시지 컨텐츠는 이것이 다른 방법, 즉, 사용자에 의해 "이는 정크임(this is junk)"으로 표시; 사용자에 의해 "이는 정크가 아님(this is not junk)"으로 표시; 피드백 루프 사용자(수프라(supra)로 명명된 스팸 방지용 피드백 루프 참조)에 의해 분류; 일부 다른 설정(예를 들어, J 이메일 서비스 대신에 Y 서버 상에)의 피드백 루프의 기술의 배치로 분류; 이를 다른 스팸 리포지터리(repositories)와 비교하는 등을 통해 피드백 수신된 메시지와 거의 유사한지를 판정하도록 분석될 수 있다.
본 발명의 또다른 양태에 따르면, 해시 기반 기술을 사용하여 차단이 결합될 수 있다. 일 양태에서, 메시지는 해시되어 차단된 메시지가 추후 양호 또는 스팸으로 분류된 임의의 다른 메시지(이전에 차단된 메시지)와 유사한지를 확인하여, 차단 밖으로 나올 수 할 수 있게 한다. 스패머는 통상 수천 또는 수백만의 사용자에게 메일을 전송한다. 메시지는 종종 동일, 거의 동일, 또는 하나의 유형으로서 식별가능하다. 따라서, 다른 것과 유사한 메시지를 캐치하는 것이 이들의 분류를 용이하게 할 수 있다. 그러나, 유사한 메시지가 하니팟, 피드백 루프, 또는 사용자 불평에 없는 경우(또는 겨우 몇개만 있는 경우), 메시지는 십중 팔구 특정 수신자, 또는 수신자 그룹에 타겟되는 것으로서, 발신자는 스패머가 아닐 가능성이 높다.
차단된 메시지는 사용자에게 보이거나 보이지 않을 수 있는 "차단", "정크", "정크 가능(Potential Junk)" 등으로 식별되는 특별 폴더 내에 저장될 수 있다. 차단 폴더에 전송된 메시지는 차단된 메시지가 사용자에게 정상적으로 보이는지에 관계없이 피드백 루프에 대하여 선택될 수 있다. 즉, 삭제되고 정크 폴더에 저장되거나 수신함 내 저장되는 메시지와 같이, 차단 폴더에 전송된 메시지는 사용자 분류에 대하여 선택될 수 있다. 피드백 루프는 사용자에게 적어도 메시지의 부분집합을 스팸 또는 양호로서 분류하게 하여 스팸을 용이하게 검출하여 보다 강력한 스팸 필터를 구성할 수 있는 폴링 메커니즘이다. 본 발명에 사용되는 바와 같이, 피드백 루프는 차단된 메시지의 랜덤 샘플링 시에 사용자를 폴링하도록 사용될 수 있다. 예를 들면, 적어도 차단된 메시지의 일부는 사용자 분류를 위해 피드백 루프에 참가하는 각 수신자(예를 들어, 사용자)에게 전달될 수 있다.
다르게는 또는 피드백 루프에 더하여, 차단 폴더가 메시지 수신자(예를 들어, 적어도 이의 부분 집합)에 보일 수 있어 이들에게 특별 폴더에 유지되는 적어도 메시지의 부분 집합을 분류할 기회를 제공한다. 이 경우, 그러나, 수신자는 피드백 루프 참가자이거나 아닐 수 있다. 이들은 이러한 메시지를 양호하거나 정크로서 보고할 수 있다. 이러한 특성화는 메시지가 스팸을 나타내는 "정크 보고" 등의 하나 이상의 버튼과 또는 메시지가 적법함으로 나타내는 "양호" 또는 "구출(rescue) 메시지" 버튼을 클릭하여 수행될 수 있다. 따라서, 피드백 루프 또는 정크/양호 보고 방법을 통해, 적어도 한정된 부분의 차단 메시지에 대해서는 특정 차단 메시지가 스팸인지의 결정을 용이하게 할 수 있다.
불확실 메시지를 스팸으로 분류한 후에 사용자가 삭제로부터 이를 구출하는 구출 시스템과는 달리, 본 발명은 분류(스팸 또는 다른 경우로서)를 지연하여 사용자가 특정 메시지에 대한 이들의 생각을 제공하여 후속 분류를 용이하게 할 수 있다. 더욱이, 피드백 루프 참가자 및/또는 비요청 메시지 수신자에 의해 제출된 것과 같은 사용자 불만은 차단 중인 메시지 중 적어도 일부가 스팸인지를 결정하는데 사용될 수 있다. 사용자로부터 불평이 적은 것은 또한 특정 매시지가 스팸인지를 결정하는데 사용될 수 있다.
차단 메시지에 대한 대안으로서, 적어도 의문 또는 의심 메시지의 부분 집합은 차단 또는 명확한 사용자 분류(예를 들어, 피드백 요청, 폴링 등) 없이 필터에 새어 나가거나(trickle out) 통과할 수 있다. 그 대신, 사용자/수신자 동작은 이들 메시지에 대하여 점검 또는 관측될 수 있다. 새어 나갈 수 있는 메시지량은 발신자 당 고정된 개수의 메시지일 수 있으며(예를 들어, 처음 1000개) 또는 고정된 확률의 메시지 - 예를 들면 발신자 당 - 일 수 있다. 이들 메시지의 수신자는 스팸인지 아닌지에 대한 메시지를 특성화하는 묵시적 기회가 부여된다. 이들 메시지에 대한 사용자 동작은 필터를 갱신하는데 사용될 수 있다.
본 발명의 또다른 양태에서, 머신 습득 시스템(예를 들어, 뉴럴 네트워크, 지원 벡터 머신(SVM), 베이시안 신뢰망(Bayesian Belief Network)은 적법 메시지와 스팸 메시지를 인식하도록 트레이닝된 개선된 및/또는 갱신된 스팸 필터를 생성하도 이들을 구별하게 한다. 일단 새로운 또는 갱신된 스팸 필터가 본 발명에 따라 트레이닝되는 경우, 메일 서버 및 이메일 소프트웨어 프로그램에 배포될 수 있다. 더욱이, 새로운 또는 갱신된 스팸 필터는 참여 사용자에 의해 제공되어 개별화된 필터의 성능을 향상시키도록 분류 및/또는 다른 정보에 대하여 트레이닝될 수 있다. 추가 트레이닝 데이터 집합이 구성됨에 따라, 스팸 필터는 머신 학습을 통해 트레이닝을 진행하여 성능 및 정확성을 최적화할 수 있다. 메시지 분류에 의한 사용자 피드백은 스팸 필터와 부분 제어에 대한 리스트를 생성하고, 스팸 필터 성능을 테스트하고, 및/또는 스팸 발생지를 식별하는데 사용될 수 있다.
더욱이, 시스템 분석 뿐만 아니라 사용자에 의해 일부 생성되는 트레이닝 데이터는 또한 최근에 차단된 메시지에 구체적으로 적용가능한 새로운 서브필터(양호, 스팸 및 의심 메시지에 대한 복수의 특징에 대하여 트레이닝된 전체 크기 필터보다 작음)를 생성하도록 사용될 수 있다. 새로운 서브 필터는 최근에 차단된 메시지로부터 추출된 하나 이상의 특징(특성 부분 집합) 상에 트레이닝될 수 있다. 예를 들면, 서브필터는 IP 어드레스 특징에 대해서만 트레이닝될 수 있다.
정보가 획득되자마자 및/또는 차단 기간이 경과했을 때, 하나 이상의 (스팸) 필터가 차단된 메시지를 적절하게 분류하도록 갱신될 수 있다. 이는 메시지가 차단 기간에서 나올 준비가 될 때마다 필터가 갱신되어야 하는 것을 의미하는 것이 아니다(비록 이것이 실시가능하더라도). 본 발명은 미리 설정된 필터 갱신 스케줄과 동기일 수 있는 차단 시점을 선택할 수 있으므로, 필터 갱신이 발생한 직후에(따라서 갱신 정보로 분류 또는 재분류) 메시지 묶음이 차단에서 나올 수 있다. 이러한 스케줄은 묵시적으로(예를 들어, 새로운 필터는 1PM에 도달하도록 예정되어 메시지는 1:01PM까지 차단된다) 또는 명시적으로(예를 들어, 언제라도, "새로운 필터가 도달할 때까지" 차단되는 메시지)를 행해질 수 있다. 따라서, 이들 의심 메시지는 갱신된 필터로 다시 동작하고 스팸 또는 비스팸으로서 분류될 수 있다. 예를 들면, 지연된 메시지는 새로운 부정 정보의 부족에 일부 기초하여 "양호"로서 분류될 수 있다. 유사하게, 지연된 메시지가 새로운 양의 정보에 기초하여 양호한 것으로 분류될 수 있다.
더욱이, 사용자 및/또는 시스템 피드백으로부터 수집된 정보는 이미 사용중인 하나 이상의 필터를 갱신하는데 사용될 수 있다. 그 결과, 지연된 메시지는 분류를 위해 필터를 통해 다시 처리 또는 전송될 수 있다. 또한, 새 필터가 차단되어야 하는 후속 인커밍 메시지에 대한 적용을 위해 트레이닝될 수 있다.
메시지가 차단 또는 지연 기간 동안 스팸으로 결정되는 경우, 특별 폴더(예를 들어, 차단 폴더)로부터 직접 삭제되고 및/또는 폐기용의 다른 폴더(예를 들어, 휴지통 폴더)에 이동될 수 있다. 다르게는, 양호한 것으로 분류된 메시지는 개별 릴리스 날짜(차단에서 릴리스된 날짜)로 타임 스탬프되어 의도한 수신자에 배달될 수 있다. 따라서, 이들 메시지는 두개의 타임 스탬프 - 하나는 원래의 도달 날짜 다른 하나는 차단에서 릴리스된 날짜를 가리킨다. 차단 릴리스 날짜는 날짜:헤더 필드일 수 있으므로, 클라이언트 소프트웨어는 이 메시지를 적절하게 정렬하게 함으로써, 이들이 보여질 수 있다. (특히, 메시지가 실질적으로 지연되면, 통상의 순서로 나타나는 경우, 날짜 정렬된 수신함 부분에서 사용자가 보지 않을 수 있다. 새로운 날짜를 스탬프하는 것은 메시지가 사용자에게 보일 수 있게 한다.)
상기 및 또는 관련 목적의 달성을 위해, 여기서 설명되는 본 발명의 어떤 예시적인 양태는 다음 설명과 첨부 도면에 관련된다. 그러나, 이들 양태는 본 발명의 원리가 사용될 수 있으며 본 발명은 모든 이러한 양태와 균등물을 포함하도록 하려는 여러 방식 중 단지 일부이다. 본 발병의 다른 이점 및 신규 특징은 도면과 함께 본 발명의 후술하는 상세한 설명으로부터 보다 명백해질 것이다.
이하, 본 발명은 도면을 참조하여 설명하며, 여기서, 동일 참조 번호는 동일한 구성요소를 나타내는데 사용된다. 후술하는 설명에서, 설명의 목적을 위해, 많은 특정 세부사항이 본 발명의 철저한 이해를 제공하도록 설명된다. 그러나, 본 발명은 이들 특정 세부사항 없이 실시될 수 있음은 명백하다. 다른 경우, 공지된 구조 및 장치가 본 발명을 설명하기 위해 블록도 형태로 도시되어 있다.
이러한 애플리케이션에서 사용되는 바와 같이, "컴포넌트" 및 "시스템"이라는 용어는 컴퓨터 관련 엔티티, 하드웨어, 소프트웨어, 하드웨어와 소프트웨어의 조합, 또는 실행 중인 소프트웨어를 의미한다. 예를 들면, 컴포넌트는 프로세서에서 실행되는 프로세스, 프로세서, 객체, 실행파일, 실행 스레드, 프로그램 및/또는 컴퓨터일 수 있지만 이에 한정되지 않는다. 예를 들면, 서버 상에서 동작하는 애플리케이션과 이 서버는 컴포넌트일 수 있다. 하나 이상의 컴포넌트가 프로세스 내에 상주할 수 있으며 및/또는 실행 스레드 및 컴포넌트는 하나의 컴퓨터로 로컬화되거나 및/또는 둘 이상의 컴포넌트 사이에 분산될 수 있다.
본 발명은 머신 학습 스팸 필터링을 위해 트레이닝 데이터를 생성하는 것에 관련되는 여러 유추 방식 및/또는 기술을 포함할 수 있다. 여기서 사용되는 바와 같이, "유추"라는 용어는 이벤트 및/또는 데이터를 통해 캡처된 일련의 관측으로부터 시스템, 환경, 및/또는 사용자의 상태의 추론 과정에 관한 것이다. 유추는 특정 경우 또는 동작를 식별하도록 사용될 수 있으며, 예를 들면, 상태들에 대한 확률 분포를 생성할 수 있다. 추론은 확률적일 수 있으며, 다시 말하면, 확률 분포의 계산은 데이터와 이벤트의 고려에 기초한 관심 상태에 대한 확률 분호의 계산이 다. 추론은 또한 일련의 이벤트 및/또는 데이터로부터 고차원 이벤트를 조성하는데 사용되는 기술을 나타낼 수 있다. 이러한 추론은, 이벤트가 시간적으로 상관되는지 그리고 데이터 및 이벤트가 하나 또는 여러 이벤트 및 데이터 소스로부터 오는지에 관계없이, 일련의 관측된 이벤트 및/또는 저장된 이벤트 데이터로부터 새로운 이벤트 또는 동작을 구성한다.
메시지라는 용어는 본 명세서에서 광범위하게 사용되지만 이러한 용어는 본래의 전자 메일에 한정되지 않고, 임의의 적절한 통신 아키텍처 상에 분산될 수 있는 임의 형태의 전자 메시징을 포함하는데 적절하게 적합할 수 있다. 예를 들면, 둘 이상의 사람 간의 회의 또는 대화를 용이하게 하는 회의 애플리케이션(예를 들어, 대화식 채팅 프로그램 및 인스턴트 메시징 프로그램)은, 또한, 사용자가 인사말, 맺음말 등의 메시지를 교환할 때 원하지 않은 텍스트가 정상 채트에 전자적으로 삽입될 수 있기 때문에 여기서 개시되는 필터링을 이용할 수 있다. 이러한 특정 애플리케이션에서, 필터는 원하지 않은 컨텐츠(예를 들어, 광고, 프로모션, 또는 상업광고)를 캡처하여 정크로서 태그하기위해서 특정 메시지 컨텐츠(텍스트 및 이미지)를 자동 필터링하도록 트레이닝될 수 있다.
본 발명에서, "수신자"라는 용어는 인커밍 메시지의 받는 사람을 말한다. "사용자"라는 용어는 수동 또는 능동으로 선택되었거나 여기서 설명되는 피드백 루프 시스템과 프로세스에서 참가하도록 간접적으로 선택된 수신자를 의미한다.
본 발명은 인커밍 아이템 또는 메시지의 지능형 차단을 용이하게 하는 시스템 및 방법에 관한 것이다. 지능형 차단은 스팸으로 의심받는 일부 메시지를 보류 하는 것을 의미한다. 이는 필터가 갱신되어 메시지를 보다 정확하게 분류하도록 보다 많은 시간을 부여할 수 있다. 실제, 차단이 없는 다음 시나리오를 고려하자: 스패머는 현재 필터를 통과할 수 있는 메시지를 발견한다. 그는 메시지 시스템이 필터 갱신을 획득할 수 있을 때가지 가능한 한 빨리 천만명에게 이 메시지를 전송한다. 천만명의 사람들은 스팸을 (수신함에) 수신한다. 이제 차단을 갖는 동일한 시나리오를 고려하자: 스패머가 현재 잡히지 않거나 스팸으로 식별되지 않는 메시지를 발견한다; 그러나, 메시지는 다소 이상하여 시스템이 이를 의심하다. 그는 필터가 갱신될 때까지 가능한 한 빨리 천만명의 사람에게 이 메시지를 전송한다. 스패머의 메시지가 의심스럽고 필터가 이를 스팸인지를 아닌지를 용이하게 분류하기 위해 이용가능한 충분한 정보가 없기 때문에, 이들은 이하 설명되는 바와 같이 차단될 수 있다.
이하, 도 1을 참조하면, 본 발명의 일 양태에 따른 피드백 루프 시스템을 구현하는 차단 시스템(100)의 통상의 블록도가 도시되어 있다. 메시지 수신 컴포넌트(110)는 인커밍 메시지(IM이라고 함)를 수신하여 이를 의도된 수신자(120)에 전달한다. 메시지 수신 컴포넌트는, 많은 메시지 수신 컴포넌트에서와 같이, 적어도 하나의 필터(130; 예를 들어, 제1 분류 컴포넌트)를 포함하거나 이와 함께 동작하여, 원하지 않은 메시지(예를 들어, 스팸)의 전달을 줄일 수 있다. 메시지 수신 컴포넌트(110)는 필터(130)와 관련하여 메시지(IM)를 처리하고 의도한 수신자(120)에 메시지(필터링된 IM으로 나타냄)의 필터링된 부분집합을 제공한다.
필터(130)는 피드백 루프 시스템을 사용하여 트레이닝될 수 있음이 이해되어 야 한다. 특히, 필터(130)는 신뢰 사용자 피드백에 적어도 일부 기초하여 스팸 뿐만 아니라 스팸 및 양호 메일 사이를 구별하도록 이전에 트레이닝된다. 머신 학습 시스템은 양호 및 스팸 메시지에 대한 사용자 피드백을 포함하는 트레이닝 데이터를 사용하여 이러한 필터(130)의 트레이닝을 용이하게 한다.
하나 이상의 필터(130)는 인커밍 메시지에 대한 충분한 정보를 갖고 있는 경우, 필터(130)는 메시지를 보다 정확하게 평가하여 이를 스팸 또는 비스팸(예를 들어, 양호)으로서 분류할 수 있다. 따라서, 의도한 수신자(120)에 전달된 메시지의 부분집합(필터링된 IM)에 대하여, 필터(130)는 충분한 양의 정보를 포함하여 메시지가 양호한 지를 결정하도록 할 수 있다. 유사하게, 인커밍 메시지의 다른 부분 집합은 스팸으로 식별되어 적절하게 폐기될 수 있다(미도시).
불행히도, 스패머, 그리고 심지어 적업한 발신자도 간혹 다른 것보다 보다 빈번하게 발신자 데이터의 일부를 변경하려 한다. 예를 들면, 스패머는 IP 주소, 도메인 네임, 및 메시지 컨텐츠 등의 메시지의 다양한 양태를 위장 또는 변형하여 스팸 필터를 속이려는 경향이 매우 강하다. 역으로, 일부 적법한 전송가가 이들의 IP 주소를 합리적 이유로 변경한다. 예를 들면, 뉴욕 타임스는 증가된 수의 온라인 가입자를 수용하는데 필요한 새로운 서버의 추가로 인해 수시로 IP 주소를 변경하는 것으로 알려져 있다. 적어도 인커밍 메시지의 부분 집합에서의 이들 변경 유형으로 인해, 필터(130)는 스팸 확률 점수(예를 들어, 메시지가 스팸이라는 확률)을 정확하기 결정하기 위한 메시지에 대한 충분한 정보를 갖지 않을 수 있다. 그 결과, 메시지는 정보 부족으로 인해 정확하게 분류될 수 없다.
종래의 스팸 방지 시스템과는 달리, 본 발명에서는 분류 정보가 부족한 메시지는 보류 또는 차단(추가 분석을 위해 표시)하여 보다 많은 정보가 이에 대하여 수집된다. 차단된 메시지는 필터(130)가 차단 기간 동안 수집된 임의의 정보로 갱신될 수 있을 때까지 일정 기간(예를 들어, 지연 또는 차단된 기간)에 대하여 지연된 메시지 저장소(140)에 이동될 수 있다. 지연된 메시지는 예를 들면 정크 폴더 또는 서버 상의 큐와 같은 몇몇 다른 저장소와 동일할 수 있다. 저장소에 차단된 메시지는 특별하게 표시될 수 있으며, 또는 이 폴더 내의 모든 메시지는 차단된 것처럼 주기적으로 재채점될 수 있다.
획득될 수 있는 여러 정보 유형이 있다. 한 유형은 트리클 아웃 성분(trickle out component)이다. 차단된 메시지에 대한 사용자 피드백은 적어도 차단된 메시지의 부분 집합이 차단 밖으로 새어나가거나 의도한 수신자로의 전달을 위한 필터 분류 프로세스를 우회할 수 있게 되는 트리클 아웃 메커니즘을 사용한 것을 포함한다. 새어나간 메시지는 의도한 수신자(예를 들어, 랜덤 또는 선택된 사용자(150))가 스팸 필터를 트레이닝하는 피드백 루프 시스템에서 참가자라는 사실에 일부 기인하여 선택될 수 있다. 다르게는, 또는, 이에 더하여, 새어나간 메시지는 랜덤하게 선택될 수 있다.
다른 데이터 형태는 피드백 루프이다. 피드백 루프 컴포넌트(170)는 사용자(예를 들어, 피드백 루프에 참가하는 수신자)로부터의 추가 피드백을 위해 차단, 삭제된 것에 관계없이, 메일의 일부를 선택한다. 피드백 루프 컴포넌트(170)는 필터를 구성 및/또는 갱신할 수 있게 하는 필터 갱신 컴포넌트(160)에 데이터를 부여 한다. 수프라(supra)로 불리는 스팸 방지용 피드백 루프에서 설명되는 바와 같이, 사용자는 이들 메시지에 대하여 명시적으로 문의받는다.
데이터의 또다른 형태는 하니팟(180; 예를 들어, 하니팟 성분)에 대한 것이다. 메시지가 메시지 수신 컴포넌트(110)에 도달하는 경우, 일부 메시지가 하니팟 컴포넌트(180)에 진행할 수 있다. 통상, 하니팟에 발견된 메시지는 통상 스팸일 수 있다. 따라서, 이들 메시지를 식별하는 정보는 필터를 갱신 또는 구성하는 경우 필터 갱신 컴포넌트(160)에 의한 추후 사용을 위해 수집될 수 있다.
"이는 정크", "이는 정크 아님" 등의 데이터는 다른 소스(185)로부터 또는 새로운 설정으로 배치된 피드백 루프 기술로부터 또는 다른 소스로부터 올 수 있다.
사용자 피드백은 필터 갱신 컴포넌트(160)에 의해 수집된 후 필터(130)를 갱신하도록 사용될 수 있다. 차단 기간은 설정 기간을 가질 수 있음이 이해되어야 한다. 예를 들면, 1시간, 6시간, 또는 24시간 등의 임의의 수동 또는 자동 설정된 시간 길이일 수 있다. 이는 메시지가 지연된 메시지 저장소(140)에 이동된 후에 1시간, 6시간, 24시간 또는 그 이상의 시간 동안 정보가 수집될 수 있음을 의미한다. 몇몇 경우, 새어 나간 메시지에 대한 사용자 불평의 부족은 메시지(예를 들어, 동일 메시지의 여러 복사본 또는 발신자 당 많은 상이한 메시지)가 적법할 가능성이 크고 스팸일 가능성은 작음을 나타낼 수 있다.
사용자 피드백에 더하여, 지연된 메시지 저장소(140)에 동작가능하게 접속되는 메시지 분석 컴포넌트(190)에 의해 정보가 수집될 수 있다. 메시지 분석 컴포 넌트(190)는 발신자 당 양과 차단 메시지 중에서 유사성에 대하여 차단 메시지를 점검할 수 있으며, 이들을 컨텐츠 및/또는 발생 정보로서 분석할 수 있다. 예를 들면, 적은 양으로 전송된 메시지(예를 들어, 시간당 20미만, 시간당 50미만, 시간당 1000미만 등)는 스패머 동작을 보다 잘 나타내는 많은 양(예를 들어, 시간당 10,000, 시간당 100,000)으로 전송되는 메시지보다 스팸일 가능성이 적다. 따라서, 특정 발신자가 적은 양의 메시지를 전송하는 정보는 발신자에 대하여 습득되는 특징일 수 있으며, 발신자의 메시지가 의심으로 간주되지 않는 대신 양호한 것으로 구별될 수 있도록 필터(130)를 갱신하는데 사용될 수 있다.
또한, 해시 펑션이 차단된 메시지의 적어도 부분 집합에 대하여 계산되어 발신자 당과 같이 메시지 중에서 유사성을 결정할 수 있다. 예를 들면, 차단 메시지는 컨텐츠 또는 발신자에 기초하여 다른 최근 메시지와 비교될 수 있다. 유사한 해시 또는 동일 또는 유사한 사용자로부터의 다른 최근 메시지가 사용자에 의해 정크로서 보고되고, 피드백 루프에서 정크로서 분류되거나, 하니팟에서 도달되면, 메시지는 스팸으로서 분별될 수 있다. 유사한 메시지가 양호한 것으로 표시되거나 차단 또는 정크 폴더로부터 구출되면, 또는 피드백 루프에서 양호한 것으로 분류되면, 메시지는 양호한 것으로 분류될 수 있다. 많은 유사한 메시지가 메시지 수신 컴포넌트에 도달하면, 이러한 메시지의 양은 메시지가 스팸이라는 표시일 수 있다. 많은 유사한 메시지가 사용자 수신함(예를 들어, 트리클 아웃을 통해)전달된 경우, 그리고 사용자에 의한 정크로서 표시된 것이 없거나 거의 없는 경우, 이는 메시지가 양호하다는 표시로서 취급될 수 있다. 유사한 메시지가 하니팟에서 도달되지 않은 경우, 이는 메시지가 양호하다는 표시로서 간주될 수 있다.
차단 기간이 완료된 경우, 필터(130)는 이에 따라 갱신될 수 있으며, (예를 들어, 갱신된 필터는 제2 분류 컴포넌트로서 불릴 수 있다) 차단된 메시지는 스팸 또는 양포로서 분류를 위해 재필터링될 수 있다. 차단된 메시지 상의 피드백으로부터 생성된 데이터를 트레이닝하는 것에 적어도 일부 기초한 필터 갱신은 사용자 (예를 들어, 개인용 필터), 클라이언트 및/또는 서버에 의해 결정된 바대로 빈번한게 발생할 수 있다. 필터는 차단 기간의 길이와 일치하도록 설정될 수 있으며, 그 역도 또한 사실이다.
도 2를 참조하면, 메시지 분류를 용이하게 하는 차단 시스템(200)의 블록도가 도시되어 있다. 시스템(200)은 새로운 메시지가 스팸 또는 양호로서 분류를 위해 처리되는 하나 이상의 메시지 필터(2310)를 포함한다. 임계치 분석과 같이 명확하게 스팸 또는 양호한 것으로 구분되지 않는 메시지는 의심으로 간주되어 이 메시지 또는 메시지 발신자에 대한 추가 데이터가 필터(210)에 제공될 수 있을 때까지 특별 차단 폴더(220)에 이동될 수 있다. 이는 메시지 구출 시스템과 직접적으로 반대이다. 본 발명과는 달리, 메시지 구출을 수행하는 시스템은 불명확한 메시지를 스팸으로서 분류하고 이를 스팸 폴더에 이동한다. 이러한 "스팸" 메시지는 일부가 매우 유사한 메시지를 양호한 것으로서 분류하기 때문에 추후 구출될 수 있다. 본 발명에서, 메시지는 "의심"으로 간주될 수 있으며, 스팸 또는 양호로서의 구별은 이들에 대하여 보다 많이 습득하기 위한 시간을 제공하기 위해서 일시 지연된다.
사용될 수 있는 하나의 학습 기술은 의심 메시지에 대한 추가 데이터(230)를 수신하는 것을 포함한다. 몇몇 상황에서, 일부 의심 메시지는 의도된 수신자에게 릴리스(트리클 아웃)될 수 있다. 다르게는, 피드백 루프는 몇몇 메시지를 샘플하는데 사용될 수 있다. 다르게는, 몇몇 데이터는 하니팟에 전달될 수 있다. 다르게는, 데이터는 "이는 정크"라는 보고; "이는 정크 아님"이라는 보고; 또는 새로운 설정에 배치되는 피드백 루프 기술; 또는 다른 소스로부터 올 수 있다.
다른 상황에서, 사용자는 차단 메시지 폴더에 대한 액세스를 가질 수 있다. 이것이 발생하면, 사용자는 적어도 차단된 메시지의 부분집합에 대한 피드백을 제공할 수 있다. 유사한 메시지가 그 후 사용자가 모든 차단 메시지에 대한 피드백을 제공할 필요가 없도록 해당 처리가 부여될 수 있다. 이는 수천개의 메시지가 차단될 수 있기 때문에 상대적으로 중요해질 수 있으므로, 이들의 스팸 또는 양호로서의 분류는 일시 지연되었다.
피드백은 특정 메시지로의 몇몇 액세스를 갖는 사용자로부터 긍정 또는 부정 코멘트의 형태일 수 있다. 예를 들면, 긍정 코멘트는 메시지가 양호하다는 "진술"의 확인을 포함한다. 또한, 긍정 코멘트는 새 부정 코멘트의 부족 및/또는 유사한 정보에 대한 새 불명의 부족을 포함할 수 있다.
차단된 메시지에 대한 시스템 피드백이 또한 수집될 수 있다. 이는 양(메시지의 적거나 많은 양), 메시지와 다른 차단 메시지의 유사성, 및/또는 메시지와 하니팟 메시지의 유사성 등의 특성에 대한 차단 폴더(220)에서 적어도 메시지의 부분 집합을 점검하여 수집된 데이터를 포함할 수 있다. 임의의 이용가능 사용자 피드 백과 함께 이러한 정보는 각 특징(또는 트레이닝 데이터)으로서 필터 갱신 컴포넌트(240)에 의해 사용되어 필터(210)를 트레이닝하여 갱신할 수 있다. 이 후에, 갱신된 필터(250)가 생성될 수 있다. 차단된 메시지는 실체부에서 갱신된 필터(250)를 통해 진행되어 분류 프로세스를 재개한다. 이에 따라, 일단 분류되면, 지정된 스팸이 차단 폴더로부터 영구 삭제되거나 삭제를 위해 휴지통(260)에 전송될 수 있다. 제1 전달 컴포넌트(270)는 의도한 수신자에게 전달을 위한 차단으로부터 "양호한" 메시지를 릴리스할 수 있다. 차단 폴더가 정크 폴더가 없는 경우, 차단된 메시지는 제2 전달 컴포넌트(280)를 통해 정크 폴더에 배치될 수 있다. 차단 폴더가 정크 폴더이면, 차단된 메시지는 특별 "차단된" 플리그가 제거되게 할 수 있다.
도 3은 본 발명의 일 양태에 따른, 차단 시스템(300)에 관련된 이점의 다른 측면을 나타낸다. 특히, 이 도면은 새 인커밍 메시지가 발생하는 특정 코스를 나타낸다. 메시지는 필터(310)를 통해 초기에 처리된다. 필터는 예를 들면 확률 점수를 계산하여 양호(320) 및 스팸(330) 사이에 구별되도록 트레이닝되었다. 그러나, 일부 메시지는 명확하게 스팸 또는 양호로서 구별되는 근방에 해당할 수 있다. 이들은 의심 메시지(340)일 수 있다. 이에 대한 이유는 메시지가 이전에 보지 못하거나 인식하지 않은 양태 또는 특징을 포함하기 때문에 메시지에 대한 정보를 부족할 수 있다. 이들 특정 메시지에 대하여, 스팸(330) 또는 양호(320)로서 분류는 시구간 동안 연기된다(350). 이러한 시구간은 스팸 또는 양호로서 분별하기 전에 메시지에 대한 보다 많은 정보를 학습할 수 있게 한다(360). 그 결과, 분류 에러 레이트가 감소될 수 있으며, 이전에 본 적이 없는 "양호한" 메시지가 단지 무시하 는 필터 또는 적절한 정보가 부적한 필터로 인해 "스팸"으로서 임의로 분류되기 때문에 사용자 만족이 증가될 수 있다.
필터는 갱신될 수 있으며(370), 양호(380) 또는 스팸(390)인 메시지의 분류가 재개될 수 있다. 시구간은 보다 많은 데이터가 있을 수 있고 양호 또는 스팸으로 차단 메시지의 분류를 용이하게 획득되도록 충분히 길어야 한다. 즉, 차단 구간이 경과하면 "의심" 라벨이 더이상 이용가능하지 않거나 차단 메시지에 이용가능할 수 있다.
도 4를 참조하면, 메시지의 차단 및 분류가 일시 지연될 수 있는 예시적인 인스턴스의 개략도(400)이다. 메시지가 초기에 메시지 수신 컴포넌트(예를 들어, 도 1; 110)에서 도달하는 경우에, 하나 이상의 필터에 의해 평가된 후 채점될 수 있다. 확률 점수는 특정 메시지가 스팸일 가능성을 의미한다. 이 점수는 삭제 임계치 및 이동 임계치 등의 임계치와 비교될 수 있다.
삭제 임계치를 충족하거나 초과하는 메시지는 스팸 또는 적어도 보다 스패머와 같은 것으로 간주될 수 있다. 완벽한 확률 점수가 0=양호 메시지와 최고점수인 1=스팸 또는 정크 메시지인 경우, 0과 약 0.8 사이의 계산된 점수는 양호한 메시지를 반영하고(또는 정크 폴더에 놓일 수 있는 위험에 비해 양호할 수 있는 가능성이 매우 높음)(따라서, 전달됨), 약 0.8에서 약 0.99까지의 점수는 정크 가능을 반영하며(따라서, 정크 폴더에 배치될 수 있음), 약 0.99 내지 1 까지의 점수는 정크 또는 스팸임을 반영한다(따라서, 상당한 확실성으로 삭제될 수 있음). 스팸 또는 양호의 에지 근방에 또는 그 상부의 점수를 갖는 메시지, 또는 일부 구성가능한 동작이 한정되는 임계치가 차단에 대하여 선택될 수 있다. 다르게는, 특별 방식으로 메시지를 표시하거나 메시지 관리자에게 전송하여 메시지를 조사하는 등의 일부 달리 구성가능한 동작이 발생할 수 있다.
새 IP 주소가 필터에 의해 이전에 보지 않았기 때문에 의심가는 것으로 간주된 일부 메시지에 대하여, 차단은 도움이 되거나 되지 않을 수 있다. 즉, 일부 메시지는 에지 근방에 있을 수 있지만, 이들 점수는 보다 많은 정보가 이들에 대하여 학습되는 경우에도 스팸 또는 양호로서 명확한 분류를 이끌기에 충분히 변하지 않을 수 있다. 예를 들면, 가상의 발신자 "양호 신문사"와 "스패머사"로 부터의 메시지를 고려하자. 양호 신문사로부터의 메시지는 스팸일 가능성(임계치)가 25% 할당되는 반면, 스패머사는 80% 가능성으로 할당된다. 이들 확률은 대량의 정보 또는 이전에 획득되고 필터를 트레이닝하는데 사용되는 트레이닝 데이터에 기초한다(머신 학습 기술). 양호 신문사는 이들 리스트를 디바운싱(debounce)하지 않으며, 대략 약 1/4의 필터 사용자가 이 메시지를 스팸으로 표시한다(예를 들어, 일부 사용자는 가입한 것을 잊어버려 이를 스팸으로 표시함). 따라서, 필터는 약 25%의 스팸일 가능성으로 이들 메시지를 부여하여 이는 필터를 통과하기에 충분히 낮고 차단되기에는 높을 수 있다. 그러나, 이들 메시지는 일관되게 25% 레벨이고; 필터가 더 획득할 정보가 있는지 또는 이 메시지에 대한 내일의 점수가 변경되는지 확인하기 위해 대기함에 따라 모든 수신자에게 양호 신문사의 헤드라인을 하루 이상 늦게 부여할 필요가 없다. 유사하게, 스패머사로부터의 메시지는 날마다 항상 80%의 스팸이다. 따라서, 이들 상황 어느 경우이든, 추가 정보가 분류를 변경할 가능성이 적어 차단은 최적이거나 가장 효율적인 접근법이 아닐 수 있다.
따라서, 비교적 큰 데이터양이 메시지에 대하여 이미 알려져 있는 경우, 사용자 또는 필터 시스템은 추가 정보가 분류를 변경하지 않을 가능성이 있으므로 차단하지 않도록 결정할 수 있다. 많은 양의 데이터는 IP 주소, 메시지 링크, 발신자의 도메인 네임(특히, 안티 스푸핑 메커니즘과 함께), 메시지 단어, 및 임의의 다른 특성에 관한 임의의 데이터를 의미할 수 있다. 따라서, 점검되는 특징에 대하여, 필터가 이미 전송당 특징에 대한 많은 정보가 있는지를 점검되어 차단에 대한 결정을 용이하게 할 수 있다.
그러나, 임계치에 대한 거리는 차단 시기를 결정하는 유일한 답은 아니다. 보다 구체적으로는, 메시지의 IP 주소를 고려하자. IP 주소가 이전에 관측되지 않은 것이면, 이는 통상 차단될 수 있다 - 그렇지 않은 경우 메시지는 메시지의 다른 특징에 따라 명백하게 스팸 또는 양호이다. 이전에 보지 않은 IP 주소를 갖는 메시지가 수신되면, 3가지 가능성이 있다.
Figure 112005007671651-pat00001
적은 양의 IP 주소(예를 들어, 소기업 또는 개인용 서버이고 스팸이 아니다 - 또는 적어도 매우 타겟화된 스팸);
Figure 112010008134269-pat00002
많은 서버를 추가함에 따라 큰 적법 회사(예를 들면, 뉴욕 타임스)에 대하여 새로운 IP 주소 - 마찬가지로, 스팸이 아님;
Figure 112005007671651-pat00003
스패머의 IP 주소.
심지어 수시간을 기다림으로서, 필터는 이들 3개의 가능성들 사이에서 분별하여 가장 중요한 정보를 획득할 수 있다. 미지의 IP 어드레스에 대하여, 메시지 가 매우 넓은 범위에 해당되는 경우에도 메시지를 지연(일시 차단)하는 것이 바람직할 수 있다. 발신자의 도메인도 유사한 방식으로 처리될 수 있다. 안티 스푸팅 기술이 퍼짐에 따라, 메시지가 차단되어 특정 의심 메시지의 지정한 발신자를 확인할 수 있다. 또한, 발신자 IP 주소에 대한 역 IP 주소가 없고 및/또는 발신자 도메인 상의 전방 검색이 발신자의 IP 주소와 적어도 대략적으로 일치하지 않으면, 메시지는 차단될 수 있다(430).
스팸의 다른 실질적 표시자는 특히 링크에서의 임베디드 도메인의 존재이다. 메시지가 이전에 전혀 또는 거의 보지 않은 도메인 네임을 포함하면, 의심으로 간주될 수 있다. IP 주소와 같이, 이러한 메시지의 지연 전달은 이들을 스팸 또는 양호로서 분류하는 것을 지원할 수 있다. 특정 유형의 첨부 파일(440)은 특히 의심(예를 들어, 통상의 바이러스)이고 이러한 확장을 갖는 메시지(에를 들어, 실행 파일 또는 마크로 임베디드 문서 파일)는 차단될 수 있다.
또한, 차단은 키워드 기반 필터링에서 홀을 사용하려는 시도를 검출할 수 있다. 예를 들면, 스패머가 많은 양호한 워드를 발견하고 이들 양호한 워드를 그 메시지에 추가하면, 단지 나쁜 워드가 단지 검출가능하고, (전체적으로 양호한 점수를 갖더라도) 메시지는 의심으로 간주될 수 있다. 이 메시지는 예를 들면 수시간 동안 분류에서 보류되고, 피드백 루프 시스템을 통해 많은 이 종류의 데이터가 발견될 수 있다. 그 후, 필터는 이러한 유형의 메시지가 실제 나쁘다는 것을 알 수 있다. 이 스패머 전략 유형과 싸우기 위해서, 이전에 양호한 것으로 여겨진 단어는 가중치 감소되고 상기 필터는 상기 메시지의 원점이 열악함을 알 수 있다. 즉, 머신 학습 필터에 대하여 나타나기 있는 유형의 메시지의 경우 이는 상충하는 증거를 포함하기 때문에 차단될 수 있다. 또한, 파싱하기 어려운 HTML을 포함하거나 화상을 주로 포함하기 때문에 임의 유형의 필터에 대하여 나타나기 어려운 임의의 메시지가 차단될 수 있다. 전반적으로, 복수의 특징의 평가는 메시지를 차단하는지가 결정될 수 있기 전에 복수의 특징의 평가가 수행될 수 있다.
통상, 개인 사용자는 비교적 적은 수의 위치에서 메시지를 수신하고 비교적 언어 수가 적다. 개인용 필터에 있어서, 사용자는 통상 양호한 메시지를 수신하지 않는 위치에서 메시지를 수신하거나 통상 양호한 메시지를 수신하지 않는 언어로 수신하는 경우, 메시지는 또한 차단될 수 있다. 위치는, 지형 위치, IP 주소, IP 주소 할당 정보, 도메인 네임에서의 국가 코드 등에 일부 기초하여 결정될 수 있다.
도 5를 참조하면, 본 발명에 따른, 차단이 적어도 하나의 서버 상에서 사용되는, 적어도 하나의 서버와 적어도 하나의 클라이언트 사이에서간의 예시적인 하이 레벨 통신 아키텍처가 도시되어 있다. 몇몇 경우, 메시지가 이미 차단된 것을 어느 방식으로 나타내는 것이 바람직할 수 있다. 예를 들면, 클라이언트와 서버가 차단을 구변하는 경우, 클라이언트가 서버에서 이미 차단된 메시지를 차단하는 것은 바람직하지 않다. 다르게는, 클라이언트는 메시지가 서버에서 차단된 시간량을 메시지가 클라이언트에서 차단된 시간량을 감사하여 적적하여 시간량을 감소할 수 있다.
도면에서 나타낸 바와 같이, 서버에서 진입하는 메시지는 하나 이상의 필터 S(S)(510)를 통해 클라이언트에 진행하거나 분석 및 조사(520)를 위해 유지되도록 차단된다(530). 차단된(그리고 차단에서 해제된) 서버로부터의 메시지 또는 차단되지 않은 메시지는 클라이언트에 위치한 하나 이상의 필터C(S)에 전달될 수 있다. 이 점에서, 메시지는 단순히 필터(540)에 의해 분류될 수 있고 적절한 경우 수신함(550)에 전달될 수 있다.
이하, 도 6을 참조하면, 인커밍 메시지(610)에 대하여 메시지 프로세서(605)의 동작을 포함하는 차단 시스템(600)의 개략도가 도시되어 있다. 메시지(610)는 도달 날짜 및 시간으로 타임 스탬프되고(615) 그 후 필터링되는 메시지 프로세서(605)에 진입한다(620). 메시지는 메시지에 대한 정보 부족으로 인해 차단에 대해 표시한다(630). 차단 결과, 스팸 또는 양호로서의 메시지의 분류는 지연 구간 동안 지연된다.
지연 구간(635)은 메시지가 차단 표시될 때 개시하고, 시스템 또는 사용자에 의해 설정된 임의의 시간량에 대하여 계속된다. 예를 들면, 필터는 다음 필터 갱신(예정된 갱신)에 적어도 일부 기초하여 권고된 차단 시간을 제공할 수 있다. 차단은 API(애플리케이션 프로그램 인터페이스)에 의해 구현될 수 있기 때문에, 적절한 API에 전달된 m(예를 들어, 1 이상의 정수) 차단 횟수(공격적, 중간, 보수적)일 수 있다. 또한, API에 대한 설명은 도 10에서 인프라로 설명된다.
지연 구간 동안, 필터는 사용자로부터 피드백을 수집하여 그리고 차단 유지되는 메시지를 점검 또는 분석하여 행해지는 관측에 의해 메시지에 대해 보다 많이 습득할 수 있다(645). 지연 구간이 종료하면(645), 필터는 갱신될 수 있으며(650), 차단 메시지가 양호 또는 스팸으로 분류될 수 있다(660). 이제 양호로서 분류된 양호 메시지에 대하여, 예를 들면, 서버에 의해 수신자의 원래 타임 스탬프는 이들의 릴리스 날짜 및/또는 전달 날짜일 수 있다. 이는 인커밍/도달 날짜에 의해 메시지를 정렬하는 사용자에게 문제가 될 수 있다. 따라서, 차단에서 릴리스된 "양호" 메시지는 릴리스 날짜에 특히, 차단 시간이 수시간 이상 그리고 하루 이상 연장하는 경우에 타임 스탬프될 수 있다(670). 이러한 메시지는 날짜를 포함할 수 있고 및/또는 예를 들면 주로 릴리스 날짜로 정렬될 수 있다.
본 발명에 따른 다양한 방법은 이하 일련의 동작을 통해 설명한다. 본 발명은 이 동작 순서에 한정되지 않으며, 본 발명에 따라, 상이한 순서로 및/또는 여기서 도시되고 설명된 다른 동작과 동시에 발생할 수 있다. 예를 들면, 당업자는 방법론이 상태도와 같은 일련의 상호관련 상태 또는 이벤트로서 나타낼 수 있음을 이해할 것이다. 더욱이, 모든 도시된 동작이 본 발명에 따른 방법을 구현하는데 요구되는 것은 아니다.
도 7을 참조하면, 의심 또는 의문 메시지의 분류를 지연을 용이하게 하는 예시적인 프로세스(700)의 흐름도가 도시되어 있다. 프로세스(700)는 710에서 스팸 또는 양호로서의 분류를 위해 인커밍 메시지를 수신하는 것을 포함한다. 720에서, 필터는 메시지를 스팸 또는 양호로서 분류할 충분한 정보가 있는지를 판정한다. 그러한 경우, 메시지는 730으로 분류되고 그 후, 양호한 메시지는 전달될 수 있으며, 스팸 메시지는 740에서 폐기될 수 있다. 이러한 프로세스는 인커밍 메시지가 계속 수신될 대 710에서 재개한다. 안전 리스트 상의 발신자로부터의 메시지는 다르게 의심스럽게 나타나더라도 차단되지 않음이 이해되어야 한다. 사용자는 특정 메시지(발신자에 대하여)가 계속 차단 중임을 인식하면, 발신자에게 이 안전 리스트를 추가할 수 있다.
그러나, 720에서 정보가 부족하면, 분류는 750에서 지연되고 메시지는 차단 폴더 또는 지연 구간 동안 특별 폴더의 다른 유형으로 이동될 수 있다. 이 지연 구간 동안, 메시지 또는 메시지의 발신자에 대한 보다 많은 정보가 760에서 수집될 수 있다. 이 프로세스 단계에 대한 추가 세부사항이 도 8에서 인프라로서 발견될 수 있다. 임의의 수집된 정보 또는 데이터는 필터에 피드백되어 770에서 필터를 (머신 학습 기술에 의해)갱신할 수 있다. 도 9는, 인프라에서, 프로세서의 이 단계에 대한 추가 세부사항을 나타낸다.
지연 기간이 종료할 때까지, 메시지에 대한 데이터 수집을 지속한다(780). 지연 구간이 종료한 경우, 메시지(또는 적어도 부분집합)은 갱신된 필터를 사용하여 790에서 스팸 또는 양호로서 분류될 수 있다. 스팸 메시지는 폐기될 수 있으며, 양호한 메시지는 740에서 전달될 수 있다.
이하, 도 8을 참조하면, 도 7에서 760에서 등과 같이 수집될 수 있는 예시적인 정보 유형의 흐름도, 수프라이 도시되어 있다. 예를 들면, 810에서, 메시지량은 발신자가 적은 양이거나 많은 양의 발신자인지를 결정하도록 점검될 수 있다. 또한, 메시지가 발신자마다 전송된 속도는 또한 스패머 유사 행동을 나타낼 수 있다. 예를 들면, 수백개의 이메일을 한 시간 동안 전송하는 것은 수천개의 이메일 을 한 시간에 전송하는 것과 대비된다.
820에서, 차단된 메시지는 또한 하니팟 메시지일 수 있다. 하니팟은 스팸 메시지의 신뢰성있는 소스이다. 따라서, 하니팟 메시지와 유사한 차단된 메시지는 보다 스팸과 유사할 수 있다. 이러한 정보는 메시지 분류 방식을 결정할 때 필터에 배우 유용할 수 있다.
830에서, 사용자는 차단 메시지의 적어도 부분집합이 스팸인지 여부에 대하여 입력을 제공할 기회가 부여될 수 있다. 특히, 차단 시스템은 사용자 불만을 점검하기 위해서 몇개의 메시지가 차단에서 새어 나오거나 필터를 통과(차단 우회)할 수 있다. 예를 들면, 새 IP 주소에서 메시지가 검출되는 경우, 제1000 또는 10,000개의 메시지가 차단없이 필터를 통과할 수 있도록 필터가 프로그래밍될 수 있다. 다르게는, 고정 확률의 메시지가 통과될 수 있다. 그 후, 동일 IP 주소에서의 메시지는 충분한 수의 사용자가 메시지를 점검하여 스팸인 경우 불평할 시간을 가질 때가지 차단된다. 충분한 양의 시간이 지난 후에, 양호 또는 스팸으로 분류하는 결정이 행해질 수 있다.
850에서, 차단된 메시지는 유사성에 대하여 분석될 수 있다. 특히, 해시 값은 메시지에 대하여 계산되어 상이한 발신자 또는 동일 발신자 중에서 어느 메시지가 유사한지를 판정할 수 있다. 유사한 메시지의 많은 양은 스팸을 가리킬 수 있으며, 이러한 정보는 필터를 갱신하도록 사용될 수 있다. 또한, 차단된 메시지는 스팸 또는 양호한 것으로 분류된 최근 차단된 메시지와 비교될 수 있다. 유사 메시지가 발견된 경우, 차단이 제거되어 이전의 대응부분과 같이 분류될 수 있다. 또한, 메시지가 발신자 분석(예를 들어, 발신자 IP 주소)에 기초하여 비교될 수 있다.
860에서, 피드백 루프 데이터가 수집된다. 일부 메시지가 들어올 때, 메시지를 양호 또는 스팸으로 분류하도록 요구하는 특정 문의가 수신자에게 전송된다.
도 9는 차단 기간 동안 수집된 정보가 메시지 분류를 개선하는데 사용될 수 있는 방식을 나타내는 예시적인 프로세스(900)의 흐름도를 나타낸다. 910에서, 이 정보는 머신 학습 기술과 함께 트레이닝 데이터로서 사용될 수 있어 예를 들면 스팸 필터를 효과적으로 갱신할 수 있다. 스팸 필터를 갱신함으로써, 스팸 또는 양호로서의 메시지의 분류가 개선되어 오류 양호 또는 오류 스팸 분류를 줄일 수 있다. 다르게는, 또는, 이에 더하여, 획득된 정보의 적어도 부분집합이 최근 차단된 메시지에 대한 새로운 스팸 필터(서브필터)를 구성 또는 트레이닝하도록 사용될 수 있다(920).
더욱이, 머신 학습 접근법은 차단에 대하여 사용될 수 있다. 특히, 프로세스(또는 관련 시스템)는 차단이 메시지의 분류를 변경되는지를 각 메시지에 대하여 기록할 수 있다. 그러한 경우, 메시지가 차단되어야 하지만, 그렇지 않은 경우에는, 차단될 필요가 없다. 다음으로, 프로세스 및/또는 시스템은 메시지가 차단되어야 하는 이 데이터에 기초하여 학습할 수 있다. 이 머신 학습 접근법은 차단에 사용될 수 있는 임의의 특별 특징을 설명할 수 있다. 예시적인 특징은 많은 양의 IP 주소; 메시지의 IP 주소(스패머사 또는 양호 신문사인 경우, 분류가 일정하다는 것을 알고 있다); 미지의 IP 주소에서 또는 미지의 도메인 네임을 포함하는 경우; 많은 양호 및 열악한 특징을 포함하는 경우 등을 포함하지만 이에 한정되지 않는다.
이하, 도 10을 참조하면, 본 발명의 일 양태를 수행하기 위해 적어도 부분적으로 API에 구현될 수 있는 예시적인 프로세스(1000)의 흐름도가 도시되어 있다. 이 프로세스(1000)는 각 인커밍 메시지에 대하여 1010에서 스팸 확률을 계산하는 것을 포함한다. 1020에서, 필터는 각각의 계산된 스팸 확률(점수)에 기초하여 특정 메시지를 차단할지 결정할 수 있다. 1030에서, 차단 시간은 다음 중 적어도 하나에 기초하여 권고될 수 있다:
Figure 112005007671651-pat00004
메시지가 스팸일 확률(점수);
Figure 112010008134269-pat00005
다음 필터 갱신 시간, 다음 필터 다운로드 시간(필터가 차단을 계속할지, 또는 최종 결정을 행할지를 결정하고 최종 결정이 행해질 때까지 반복할 수 있는 시간); 및/또는
Figure 112005007671651-pat00006
불확실성 정도.
다르게는, 또는, 이에 더하여, m 차단 횟수(공격적, 중간, 및/또는 보수적)가 API에 전달될 수 있다. 차단 여부, 차단 기간에 대한 권고는 API에 전달되는 값으로 알려질 수 있다. (스팸) 필터는 메시지가 스팸인지 여부 뿐만 아니라 메시지가 차단되어야 하는지 여부 - 메시지를 차단하는 기간을 포함 - 에 대한 정보가 리턴할 수 있다. 초기에, 권고된 차단 시간은 스팸 확률에 단순히 기초할 수 있으며, 다른 인자는 상술한 바와 같이 고려될 수 있다.
서버와 클라이언트가 모두 이들 필터에 대하여 차단을 구현할 수 있다. 따라서, 서보와 클라이언트가 이러한 필터와 서버가 메시지를 차단하도록 사용하는 경우, 이 정보는 클라이언트 필터에 1040에서 통신될 수 있다. 또한, 클라이언트 필터가 또한 차단하는 경우, 서버 상의 차단 시간 길이는 클라이언트 필터에 통신될 수 있으므로, 클라이언트 차단 시간이 감소되지 않을 수 있으며, 또는, 서버 차단 시간에 의해 1050에서 특정 메시지에 호출 또는 적용되지 않을 수 있다.
더욱이, 필터 또는 스팸 필터에 의한 메시지 분류의 일시 지연은, 특히, 스팸 방지를 용이하게 하는 보다 강력한 필터 메커니즘을 제공한다. 또한, 양호 메시지의 전달에 불필요한 지연이 모든 의심가는 메시지가 차단되는 것이 아니기 때문에 사용자 불만을 완화시킨다. 그 대신, 여러 인자 및/또는 기술이 필터 또는 필터링 시스템에 의해 사용되어 지능형 차단 시스템을 달성한다.
본 발명의 다양한 양태에 대한 추가 경우를 제공하기 위해서, 도 11과 다음 설명은 본 발명의 다양한 양태가 구현될 수 있는 적절한 운영 환경(1110)의 간단하고 일반적인 설명을 제공한다. 본 발명은 프로그램 모듈, 하나 이상의 컴퓨터 또는 다른 장치에 의해 실행가능한 프로그램 모듈 등의 컴퓨터 실행가능 명령의 경우에 대하여 설명하지만, 당업자는 본 발명이 다른 프로그램 모듈과 조합으로 및/또는 하드웨어 및 소프트웨어의 조합으로 구현될 수 있음을 인식할 것이다.
그러나, 통상, 프로그램 모듈은 특정 작업을 수행하거나 특정 데이터형을 구현하는 루틴, 프로그램 모듈, 객체, 컴포넌트, 데이터 구조 등을 포함한다. 운영 환경(1110)은 적절한 운영 환경의 단지 일 예이며 본 발명의 사용 또는 기능의 범위에 대한 임의의 제한을 암시하려는 것은 아니다. 본 발명에 적절하게 사용될 수 있는 다른 공지의 컴퓨터 시스템, 환경 및/또는 구성은 개인용 컴퓨터, 핸드헬드 또는 랩탑 장치, 멀티프로세서 시스템, 마이크로프로세서 기반 시스템, 프로그래머블 소비자 전자제품, 네트워크 PC, 미니컴퓨터, 메인프레임 컴퓨터, 상기 시스템 또는 장치를 포함하는 분산 컴퓨팅 장치를 포함하지만 이에 한정되는 것은 아니다.
도 11을 참조하면, 본 발명의 다양한 양태를 구현하는 예시적인 환경(1110)은 컴퓨터(1112)를 포함한다. 컴퓨터(1112)는 처리부(1114), 시스템 메모리(1116), 및 시스템 버스(1118)를 포한한다. 시스템 버스(1118)는 시스템 메모리(1116)를 포함하지만 이에 한정되지 않는 시스템을 처리부(1114)에 결합한다. 처리부(1114)는 다양한 이용가능한 프로세서 중 임의의 것일 수 있다. 이중 마이크로프로세서 및 다른 멀티프로세서 아키텍처가 또한 처리부(1114)로서 사용될 수 있다.
시스템 버스(1118)는 메모리 버스 또는 메모리 컨트롤러, 주변 버스 또는 외부 버스, 및/또는 11비트 버스, 산업용 표준 아키텍처(ISA), 마이크로 채널 아키텍처(MSA), 확장형 ISA(EISA). 지능형 구동 전자제품(IDE), VESA 로컬 버스(VLB), 주변 컴포넌트 상호접속(PCI), 범용 직렬 버스(USB), 개선된 그래픽 포트(AGP), 개인용 컴퓨터 메모리 카드 국제 협회 버스(PCMCIA) 및 소형 컴퓨터 시스템 인터페이스(SCSI)를 포함하지만 이에 한정되지 않는 임의의 다양한 이용가능한 버스를 사용하는 로컬 버스 등의 여러 유형의 버스 구조 중 임의의 것일 수 있다.
시스템 메모리(1116)는 휘발성 메모리(1120)과 비휘발성 메모리(1122)를 포함한다. 기본 루틴을 포함하여 시동 시와 같이 컴퓨터(1112) 내의 요소들 사이에 정보를 전달하는 기본 입출력 시스템(BIOS)이 비휘발성 메모리(1122)에 저장된다. 한정이 아닌 예를 들면, 비휘발성 메모리(1122)는 판독 전용 메모리(ROM), 프로그래머블 ROM(PROM), 전기적으로 프로그래밍가능한 ROM(EPROM), 전기적으로 소거가능한 ROM(EEPROM), 또는 플래시 메모리를 포함할 수 있다. 휘발성 메모리(1120)는 외장형 캐시 메모리로서 동작하는 랜덤 액세스 메모리(RAM)를 포함한다. 한정이 아닌 예를 들면, RAM은, 동기식 RAM(SRAM), 동적 RAM(DRAM), 동기식 DRAM(SDRAM), 이중 데이터 레이트 SDRAM(DDR SDRAM), 개선된 SDRAM(ESDRAM), 동기식 링크 DRAM(SLDRAM), 및 다이렉트 램버스 RAM(DRRAM) 등의 여러 형태로 이용가능하다.
컴퓨터(1112)는 또한 분리형/비분리형, 휘발성/비휘발성 컴퓨터 스토리지 매체를 포함한다. 도 11은 예를 들면 디스크 스토리지(1124)를 나타낸다. 디스크 스토리지(114)는 자기 디스크 드라이브, 플로피 디스크 드라이브, 재즈 드라이브, 집 드라이브, LS-100 드라이브, 플래시 메모리 카드 또는 메모리 스틱 등의 장치를 포함하지만 이에 한정되지 않는다. 또한, 디스크 스토리지(1124)는 컴팩트 디스크 ROM 장치(CD-ROM), CD 기록가능 장치(CD-R Drive), CD 기입가능 드라이브(CD-RW Drive) 또는 디지털 다기능 디스트 ROM 드라이브(DVD-ROM)를 포함하지만 이에 한정되지 않는 다른 스토리지 매체와 조합으로 또는 개별적으로 스토리지 매체를 포함할 수 있다. 디스크 스토리지 장치(1124)의 시스템 버스(1118)로의 접속 용이하게 하기 위해, 분리형 또는 비분리형 인터페이스가 통상 인터페이스(1126) 등에 사용될 수 있다.
도 11에서, 적절한 운영 환경(1110)에서 설명되는 기본 컴퓨터 자원과 사용자 간의 중간자로서 동작하는 소프트웨어를 나타낸다. 이러한 소프트웨어는 운영 체계(1128)를 포함한다. 운영 체계(1128)는 디스크 스토리지(1124) 상에 저장될 수 있으며, 컴퓨터 시스템(1112)의 자원을 제어 및 할당하게 한다. 시스템 애플리케이션(1130)은 시스템 메모리(1116) 또는 디스크 스토리지(1124)에 저장되는 운영 체계(1128) 내지 프로그램 모듈(1132) 및 프로그램 데이터(1134)로 자원의 관리를 이용할 수 있다. 본 발명은 운영 체계의 조합 또는 다양한 운영 체계로 구현될 수 있다.
사용자는 입력 장치(1136)를 통해 컴퓨터(1112)에 명령 또는 정보를 입력한다. 입력 장치(1136)는 마우스 등의 포인팅 장치, 트랙볼, 스타일러스, 터치 패드, 키보드, 마이크로폰, 조이스틱, 게임 패드, 위성 접시, 스캐너, TV 튜너 카드, 디지털 카메라, 디지털 비디오 카메라, 웹 카메라를 포함하지만 이에 한정되지 않는다. 이들 및 다른 입력 장치는 인터페이스 포트(1138)를 경유하여 시스템 버스(1118)를 통해 처리부(1114)에 접속한다. 인터페이스 포드(1138)는 예를 들면 직렬 포트, 병렬 포트, 게임 포트, 및 범용 직렬 포트(USB)를 포함한다. 출력 장치(1140)는 입력 장치(1136)로서 동일 유형의 포트의 일부를 사용한다. 따라서, 예를 들면, USB 포트는 입력을 컴퓨터(1112)에 제공하고 컴퓨터(1112)에서 출력 장치(1140)로의 정보를 출력하는데 사용될 수 있다. 출력 어댑터(1142)는 특별 어댑터를 요구하지 않는 다른 출력 장치(1140) 중에서 모니터, 스피커, 및 프린터 등의 일부 출력 장치(1140)를 나타내도록 제공된다. 출력 어댑터(1142)는 출력 장치(1140)와 시스템 버스(1118) 간의 접속 수단을 제공하는 비디오 및 사운드 카드를 포함하지만 이는 단지 예시로서 이에 한정되는 것은 아니다. 다른 출력 장치 및/ 또는 장치의 시스템이 원격 컴퓨터(1144) 등의 입력 및 출력 성능을 제공함이 인식되어야 한다.
컴퓨터(1112)는 원격 컴퓨터(1144) 등의 하나 이상의 컴퓨터에 대한 논리적 접속을 사용하여 네트워크화된 환경에서 동작할 수 있다. 원격 컴퓨터(114)는 개인용 컴퓨터, 서버, 라우터, 네트워크 PC, 워크스테이션, 마이크로프로세서 기반 기기, 피어 장치 또는 다른 공통 네트워크 노드 등일 수 있으며, 통상, 컴퓨터(1112)에 대하여 설명된 모든 또는 다수의 요소를 포함한다. 간이함을 위해서, 단지 메모리 스토리지 장치(1146)만이 원격 컴퓨터(1144)에 도시되어 있다. 원격 컴퓨터(1144)는 네트워크 인터페이스(1148)를 통해 컴퓨터에 논리 접속된 후 통신 접속(1150)를 통해 물리적으로 접속된다. 네트워크 인터페이스(1148)는 근거리 네트워크(LAN) 및 광역 네트워크(WAN) 등의 통신 네트워크를 포함한다. LAN 기술은 파이버 분산 데이터 인터페이스(FDDI), 구리 분산 데이터 인터페이스(CDDI), 이더넷/IEEE1102.3, 토큰 링/IEEE 1102.5 등을 포함한다. WAN 기술은 점대점 링크, 통합 서비스 디지털 네트워크(ISDN), 및 그 변형과 같은 회로 교환 네트워크, 패킷 교환 네트워크 및 디지털 가입자 라인(DSL) 등을 포함하지만 이에 한정되는 것은 아니다.
통신 접속(1150)은 네트워크 인터페이스(1148)를 버스(1118)에 접속하는데 사용되는 하드웨어/소프트웨어를 나타낸다. 통신 접속(1150)이 컴퓨터(1112) 내부에 명확성을 위해 도시되어 있지만, 이는 컴퓨터(1112) 외부에 있을 수 있다. 네트워크 인터페이스(1148)에 대한 접속에 필요한 하드웨어/소프트웨어는 전화식 모 뎀, 케이블 모뎀, 및 DSL 모뎀 등의 모뎀, ISDN 어댑터, 및 이더넷 카드 등의 내장형 및 외장형 기술을 포함하지만 이는 단지 예시이다.
상기 설명된 것은 본 발명의 예들을 포함한다. 물론, 본 발명을 설명하는 목적으로 모든 생각가능한 컴포넌트 또는 방법이 조합을 설명하는 것은 가능하지 않지만, 당업자는 본 발명의 많은 추가 변형 및 조합이 가능함을 인식할 수 있다. 따라서, 본 발명은 첨부된 청구항의 취지 및 범위에 해당하는 이러한 변경, 변형, 및 변화를 포함시키려는 것이다. 또한, 여기서 용어 "구비한다(include)"라는 용어가 상세한 설명과 청구항에서 사용되는 경우에는, 이 용어는 용어 "포함한다(comprising)"와 유사한 방식으로 청구항에서 전환어로서 사용되는 경우 "포함한다(comprising)"가 해석되는 경우와 같이, 개방형이다.
상술한 본 발명에 따르면, 의문, 의심, 비신뢰인 것으로 나타나는 일부 메시지의 분류를 보류함으로써, 필터 갱신에 보다 많은 시간을 제공하여 보다 정확한 분류가 될 수 있게 하며, 적어도 한정된 부분의 차단 메시지에 대해서는 특정 차단 메시지가 스팸인지의 결정을 용이하게 할 수 있다.

Claims (42)

  1. 스팸 방지와 관련하여 메시지들을 분류하게 하는 컴퓨터 구현 시스템으로서,
    프로세서에 동작가능하게 결합된 메모리;
    상기 메시지들의 집합을 수신하는 컴포넌트;
    상기 메시지들의 부분집합을, 스팸(SPAM) 또는 추가 분석을 위해 플래그된 것으로 식별하고, 상기 메시지들의 부분집합의 추가 분류를 일시적으로 지연하는 제1 분류 컴포넌트; 및
    지연 기간 후에, 결정된 상기 지연 기간 중에 상기 메시지들의 부분집합과 관련된 추가 데이터를 수신하는 데 사용되는 하나 이상의 학습(learning) 기술에 적어도 부분적으로 기초하여 상기 지연 기간 중에 업데이트된 필터를 사용함으로써 상기 메시지들의 부분집합을 분류하는 제2 분류 컴포넌트 - 상기 추가 데이터는 상기 메시지들의 부분집합의 분석에 기초한 데이터를 포함하고, 상기 지연 기간은, 상기 메시지들의 집합이 스팸일 확률, 다음 필터 업데이트의 시간, 다음 필터 다운로드의 시간 및 상기 메시지들의 부분집합과 관련된 불확실성의 레벨 중 적어도 하나에 부분적으로 기초하여 동적으로 결정되고, 상기 메시지들의 부분집합이 하나 이상의 서버 필터에 의해 차단되었다고 판정되면 결정된 상기 지연 기간은 감소함 -
    를 포함하고,
    상기 메모리는 상기 컴포넌트, 상기 제1 분류 컴포넌트 또는 상기 제2 분류 컴포넌트 중 적어도 하나의 적어도 일부를 유지하는 시스템.
  2. 제1항에 있어서,
    상기 제2 분류 컴포넌트는 새로운 부정(negative) 정보의 부족에 기초하여 상기 메시지들의 부분집합 중 일부를 양호(good)한 것으로 식별하는 시스템.
  3. 제2항에 있어서,
    상기 새로운 부정 정보의 부족은 적어도 메시지들의 부분집합에 대한 사용자들을 폴링한 것(polling)으로부터의 정보를 포함하는 시스템.
  4. 제1항에 있어서,
    상기 제2 분류 컴포넌트는 새로운 긍정 정보에 따라 상기 메시지의 부분집합 중 일부를 양호한 것으로 식별하는 시스템.
  5. 제1항에 있어서,
    상기 제1 분류 컴포넌트와 상기 제2 분류 컴포넌트 중 적어도 하나에 관한 정보를 수신하고 스팸 필터의 트레이닝 또는 스팸 리스트의 생성과 관련된 정보를 사용하는 피드백 컴포넌트를 더 포함하는 시스템.
  6. 제1항에 있어서,
    상기 메시지들의 부분 집합은 안전리스트(safelists) 상의 발신자로부터의 메시지들, 즉시 스팸으로 식별되어 분류되는 메시지들, 및 즉시 양호한 것으로 식별되어 분류되는 메시지들 중 적어도 하나를 제외하는 시스템.
  7. 스팸 방지와 관련하여 메시지들을 분류하게 하는 서버로서,
    프로세서에 동작가능하게 결합된 메모리;
    상기 메시지들의 집합을 수신하는 컴포넌트;
    상기 메시지들의 부분집합을 스팸 또는 추가 분석을 위해 플래그된 것으로 식별하고, 상기 메시지들의 부분집합의 추가 분류를 일시적으로 지연하는 제1 분류 컴포넌트; 및
    지연 기간 후에, 결정된 상기 지연 기간 중에 상기 메시지들의 부분집합과 관련된 추가 데이터를 수신하는 데 사용되는 하나 이상의 학습 기술에 적어도 부분적으로 기초하여 상기 지연 기간 중에 업데이트된 필터를 사용함으로써 상기 메시지들의 부분집합을 분류하는 제2 분류 컴포넌트 - 상기 추가 데이터는 상기 메시지들의 부분집합의 분석에 기초한 데이터를 포함하고, 상기 지연 기간은, 다음 필터 업데이트의 시간에 부분적으로 기초하여 동적으로 결정되고, 상기 메시지들의 부분집합이 하나 이상의 서버 필터에 의해 차단되었다고 판정되면 결정된 상기 지연 기간은 감소함 -
    를 포함하고,
    상기 메모리는 상기 컴포넌트, 상기 제1 분류 컴포넌트 또는 상기 제2 분류 컴포넌트 중 적어도 하나의 적어도 일부를 유지하는, 서버.
  8. 스팸 방지와 관련하여 메시지들을 분류하게 하는 이메일 시스템으로서,
    프로세서에 동작가능하게 결합된 메모리;
    상기 메시지들의 집합을 수신하는 컴포넌트;
    상기 메시지들의 부분집합을, 스팸 또는 추가 분석을 위해 플래그된 것으로 식별하고, 상기 메시지들의 부분집합의 추가 분류를 일시적으로 지연하는 제1 분류 컴포넌트; 및
    지연 기간 후에, 결정된 상기 지연 기간 중에 상기 메시지들의 부분집합과 관련된 추가 데이터를 수신하는 데 사용되는 하나 이상의 학습 기술에 적어도 부분적으로 기초하여 상기 지연 기간 중에 업데이트된 필터를 사용함으로써 상기 메시지들의 부분집합을 분류하는 제2 분류 컴포넌트 - 상기 추가 데이터는 상기 메시지들의 부분집합의 분석에 기초한 데이터를 포함하고, 상기 지연 기간은, 상기 메시지들의 부분집합과 관련된 불확실성의 레벨에 부분적으로 기초하여 동적으로 결정되고, 상기 메시지들의 부분집합이 하나 이상의 서버 필터에 의해 차단되었다고 판정되면 결정된 상기 지연 기간은 감소함 -
    를 포함하고,
    상기 메모리는 상기 컴포넌트, 상기 제1 분류 컴포넌트 또는 상기 제2 분류 컴포넌트 중 적어도 하나의 적어도 일부를 유지하는, 이메일 시스템.
  9. 스팸 방지와 관련하여 메시지들을 분류하게 하는, 컴포넌트가 저장된 컴퓨터 판독가능 저장 매체로서,
    상기 메시지들의 집합을 수신하는 컴포넌트;
    상기 메시지들의 부분집합을, 스팸 또는 추가 분석을 위해 플래그된 것으로 식별하고, 상기 메시지들의 부분집합의 추가 분류를 일시적으로 지연하는 제1 분류 컴포넌트; 및
    지연 기간 후에, 결정된 상기 지연 기간 중에 상기 메시지들의 부분집합과 관련된 추가 데이터를 수신하는 데 사용되는 하나 이상의 학습 기술에 적어도 부분적으로 기초하여 상기 지연 기간 중에 업데이트된 필터를 사용함으로써 상기 메시지들의 부분집합을 분류하는 제2 분류 컴포넌트 - 상기 추가 데이터는 상기 메시지들의 부분집합의 분석에 기초한 데이터를 포함하고, 상기 지연 기간은, 다음 필터 다운로드의 시간에 부분적으로 기초하여 동적으로 결정되고, 상기 메시지들의 부분집합이 하나 이상의 서버 필터에 의해 차단되었다고 판정되면 결정된 상기 지연 기간은 감소함 -
    를 포함하는, 컴퓨터 판독가능 저장 매체.
  10. 메시지들을 분류하는 방법으로서,
    메시지 수신 컴포넌트에 의해, 분류할 메시지들의 집합을 수신하는 단계;
    정보가 부족하면, 하나 이상의 필터에 의해, 적어도 상기 메시지들의 부분집합을 스팸 또는 양호한 것으로 분류하는 것을 일시 지연하거나, 상기 메시지들의 부분집합을 비신뢰 또는 의심되는 것으로 초기에 분류하는 단계;
    상기 메시지들의 부분집합이 스팸일 확률에 적어도 부분적으로 기초하여, 상기 하나 이상의 필터에 의해, 지연 기간을 동적으로 결정하는 단계;
    결정된 상기 지연 기간 중에 상기 메시지들의 부분집합과 관련된 추가 데이터를 수신하는 데 사용되는 하나 이상의 학습 기술에 적어도 부분적으로 기초하여, 상기 지연 기간 중에 업데이트된 클라이언트 필터를 사용함으로써, 결정된 상기 지연 기간 후에, 비신뢰 또는 의심되는 상기 메시지들의 부분집합을 상기 하나 이상의 필터에 의해, 스팸 또는 양호한 것으로 분류하는 단계 - 상기 하나 이상의 학습 기술은, 발신자당 양(volume) 또는 차단된 메시지들 사이의 유사성 중 적어도 하나에 관하여 상기 메시지들의 부분집합을 모니터링 하는 것, 또는 상기 메시지들의 부분집합을, 그것들의 컨텐츠 또는 발생(origination) 정보 중 적어도 하나에 대해 분석하는 것 중 적어도 하나를 포함함 -; 및
    하나 이상의 서버 필터가 메시지를 시간 기간 동안 차단했다고 판정되면, 상기 하나 이상의 필터에 의해, 메시지에 대한 상기 클라이언트 필터와 관련된 상기 지연 기간을 감소시키는 단계
    를 포함하는 방법.
  11. 제10항에 있어서,
    트레이닝된 머신 학습 필터에 의해 분류의 정확성을 증가시키는 차단 가능성을 결정하는 단계를 더 포함하는 방법.
  12. 제10항에 있어서,
    차단 기간이 경과한 경우, 및
    상기 부분 집합 내의 각각의 메시지들을 스팸 또는 양호한 것으로서 분류하게 하도록 상기 메시지들의 부분 집합에 관한 추가 정보를 획득한 경우
    중 적어도 하나가 발생할 때, 분류를 재개하는 단계를 더 포함하는 방법.
  13. 제10항에 있어서,
    상기 메시지에 대한 발신자의 IP 주소가 이전에 본 적이 없었던 경우;
    발신자의 도메인이 이전에 본 적이 없었던 경우;
    발신자의 도메인에 역 IP 주소가 없는 경우;
    발신자의 도메인에 대한 전방 검색(forward lookup)이 적어도 상기 발신자의 IP 주소와 부분적으로 일치하지 않는 경우;
    상기 메시지가 임베디드 도메인 네임, 엠베디드 매크로, 및 실행가능 파일 중 적어도 하나를 포함하는 경우;
    상기 메시지가 양호한 메시지들의 증거와 스팸 메시지들의 증거를 모두 포함하는 경우;
    상기 메시지가 스팸과 관련된 위치에서 발생한 경우;
    상기 메시지가 스팸과 관련된 언어로 작성된 경우;
    상기 메시지가 화상(image)을 포함하는 경우; 및
    상기 메시지가 HTML을 포함하는 경우
    중 적어도 하나에 적어도 부분적으로 기초할 때, 상기 메시지의 분류를 일시적으로 지연하는 단계를 더 포함하는 방법.
  14. 컴퓨터에 의해 실행될 때, 상기 컴퓨터로 하여금 차단에 의해 메시지들을 분류하게 하는 방법을 수행하게 하는 컴퓨터 실행가능 API가 저장된 컴퓨터 판독가능 저장 매체로서,
    상기 방법은,
    인커밍 메시지들에 대한 스팸 확률 점수를 계산하는 단계;
    상기 메시지들 각각의 스팸 확률 점수들에 적어도 부분적으로 기초하여, 적어도 메시지들의 부분집합을 차단하는 단계;
    상기 메시지들의 집합이 스팸일 확률, 다음 필터 업데이트의 시간, 다음 필터 다운로드의 시간 또는 상기 메시지들의 부분집합과 관련된 불확실성의 레벨 중 적어도 하나에 부분적으로 기초하여 차단 시간을 동적으로 권고하는(recommending) 단계;
    상기 메시지들의 부분집합과 관련된 추가 데이터를 수신하기 위해 상기 차단 시간 중에 사용되는 하나 이상의 학습 기술에 적어도 부분적으로 기초하여 상기 차단 시간 중에 하나 이상의 스팸 필터를 업데이트하는 단계;
    업데이트된 상기 하나 이상의 스팸 필터를 사용함으로써 상기 차단 시간 후에, 차단된 상기 메시지들의 부분집합을 양호한 것 또는 스팸으로 분류하는 단계; 및
    하나 이상의 클라이언트 필터가 메시지에 대한 차단 시간을 감소시키도록, 서버와 클라이언트 사이에서 하나 이상의 서버 필터가 시간 기간 동안 메시지를 차단했다고 통신하는 단계
    를 포함하는 컴퓨터 판독가능 저장 매체.
  15. 메시지들을 분류하기 위한 컴퓨터 구현 시스템으로서,
    분류할 메시지들의 집합을 수신하는 수단;
    정보가 부족하면, 상기 메시지들의 집합을 스팸 또는 양호한 것으로 분류하는 것을 일시적으로 지연하거나, 상기 메시지들의 집합을 비신뢰 또는 의심되는 것으로 초기에 분류하는 수단;
    상기 메시지들의 집합이 스팸일 확률, 다음 필터 업데이트의 시간, 다음 필터 다운로드의 시간 및 상기 메시지들의 집합과 관련된 불확실성의 레벨 중 적어도 하나에 부분적으로 기초하여 지연 기간을 동적으로 결정하는 수단;
    결정된 상기 지연 기간 중에 메시지들의 부분집합과 관련된 추가 데이터를 수신하는 데 사용되는 하나 이상의 학습 기술에 적어도 부분적으로 기초하여 결정된 상기 지연 기간 후에, 비신뢰 또는 의심되는 상기 메시지들의 부분집합을 스팸 또는 양호한 것으로 분류하는 수단 - 상기 추가 데이터는 메시지 볼륨(volume)을 포함함 -;
    사용자 및 시스템 분석에 의해 생성된 트레이닝 데이터를 사용함으로써 서브필터를 생성하는 수단 - 상기 서브필터는 상기 비신뢰 또는 의심되는 메시지로부터 추출된 하나 이상의 특징들에 대하여 트레이닝됨 -;
    상기 비신뢰 또는 의심되는 메시지들을 양호한 것 또는 스팸으로 분류하기 위해 상기 서브필터를 상기 비신뢰 또는 의심되는 메시지에 적용하는 수단;
    하나 이상의 서버 필터들에 의해 시간 기간동안 차단된 메시지들을 판정하기 위해 서버와 클라이언트 사이에서 통신하는 수단;
    판정된 상기 메시지에 대해 결정되는 지연 기간을 감소시키는 수단; 및
    프로세서에 동작가능하게 결합되며, 상기 수단들 중 적어도 하나의 수단을 유지하는 메모리
    를 포함하는 컴퓨터 구현 시스템.
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
KR1020050012057A 2004-02-13 2005-02-14 스팸 방지를 위한 지능형 차단 KR101117866B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/779,295 US7543053B2 (en) 2003-03-03 2004-02-13 Intelligent quarantining for spam prevention
US10/779,295 2004-02-13

Publications (2)

Publication Number Publication Date
KR20060041934A KR20060041934A (ko) 2006-05-12
KR101117866B1 true KR101117866B1 (ko) 2012-03-09

Family

ID=34701415

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050012057A KR101117866B1 (ko) 2004-02-13 2005-02-14 스팸 방지를 위한 지능형 차단

Country Status (11)

Country Link
US (1) US7543053B2 (ko)
EP (1) EP1564670B1 (ko)
JP (1) JP4818616B2 (ko)
KR (1) KR101117866B1 (ko)
CN (1) CN1658572B (ko)
AT (1) ATE481804T1 (ko)
BR (1) BRPI0500374A (ko)
CA (1) CA2497012A1 (ko)
DE (1) DE602005023553D1 (ko)
ES (1) ES2350107T3 (ko)
MX (1) MXPA05001677A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029666A1 (ko) * 2022-08-04 2024-02-08 (주)기원테크 표적형 이메일 공격 차단 및 대응을 위한 이메일 보안 시스템 및 그 동작 방법

Families Citing this family (166)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7120931B1 (en) * 2000-08-31 2006-10-10 Cisco Technology, Inc. System and method for generating filters based on analyzed flow data
US8132250B2 (en) * 2002-03-08 2012-03-06 Mcafee, Inc. Message profiling systems and methods
US20060015942A1 (en) 2002-03-08 2006-01-19 Ciphertrust, Inc. Systems and methods for classification of messaging entities
US8561167B2 (en) 2002-03-08 2013-10-15 Mcafee, Inc. Web reputation scoring
US7870203B2 (en) * 2002-03-08 2011-01-11 Mcafee, Inc. Methods and systems for exposing messaging reputation to an end user
US8578480B2 (en) 2002-03-08 2013-11-05 Mcafee, Inc. Systems and methods for identifying potentially malicious messages
US8046832B2 (en) 2002-06-26 2011-10-25 Microsoft Corporation Spam detector with challenges
US7219131B2 (en) * 2003-01-16 2007-05-15 Ironport Systems, Inc. Electronic message delivery using an alternate source approach
US7543053B2 (en) 2003-03-03 2009-06-02 Microsoft Corporation Intelligent quarantining for spam prevention
US7219148B2 (en) * 2003-03-03 2007-05-15 Microsoft Corporation Feedback loop for spam prevention
US7676546B2 (en) 2003-03-25 2010-03-09 Verisign, Inc. Control and management of electronic messaging
US7895649B1 (en) 2003-04-04 2011-02-22 Raytheon Company Dynamic rule generation for an enterprise intrusion detection system
US7346700B2 (en) * 2003-04-07 2008-03-18 Time Warner Cable, A Division Of Time Warner Entertainment Company, L.P. System and method for managing e-mail message traffic
US7483947B2 (en) 2003-05-02 2009-01-27 Microsoft Corporation Message rendering for identification of content features
US7308716B2 (en) * 2003-05-20 2007-12-11 International Business Machines Corporation Applying blocking measures progressively to malicious network traffic
US7617526B2 (en) * 2003-05-20 2009-11-10 International Business Machines Corporation Blocking of spam e-mail at a firewall
US7484096B1 (en) * 2003-05-28 2009-01-27 Microsoft Corporation Data validation using signatures and sampling
US7457791B1 (en) * 2003-05-30 2008-11-25 Microsoft Corporation Using invariants to validate applications states
US7272853B2 (en) 2003-06-04 2007-09-18 Microsoft Corporation Origination/destination features and lists for spam prevention
US7711779B2 (en) 2003-06-20 2010-05-04 Microsoft Corporation Prevention of outgoing spam
US9338026B2 (en) * 2003-09-22 2016-05-10 Axway Inc. Delay technique in e-mail filtering system
US7715059B2 (en) * 2003-10-22 2010-05-11 International Business Machines Corporation Facsimile system, method and program product with junk fax disposal
US20050238181A1 (en) * 2003-11-27 2005-10-27 Sigvard Nilsson Hearing protector
US20050120118A1 (en) * 2003-12-01 2005-06-02 Thibadeau Robert H. Novel network server for electronic mail filter benchmarking
US20050154601A1 (en) * 2004-01-09 2005-07-14 Halpern Joshua I. Information security threat identification, analysis, and management
EP1716676B1 (en) * 2004-02-17 2012-06-13 Cisco Technology, Inc. Collecting, aggregating, and managing information relating to electronic messages
US7904510B2 (en) * 2004-02-23 2011-03-08 Microsoft Corporation Systems and methods for managing discussion threads based on ratings
US8214438B2 (en) * 2004-03-01 2012-07-03 Microsoft Corporation (More) advanced spam detection features
US20050198159A1 (en) * 2004-03-08 2005-09-08 Kirsch Steven T. Method and system for categorizing and processing e-mails based upon information in the message header and SMTP session
US7912905B2 (en) * 2004-05-18 2011-03-22 Computer Associates Think, Inc. System and method for filtering network messages
US7756930B2 (en) 2004-05-28 2010-07-13 Ironport Systems, Inc. Techniques for determining the reputation of a message sender
US7870200B2 (en) 2004-05-29 2011-01-11 Ironport Systems, Inc. Monitoring the flow of messages received at a server
US7849142B2 (en) 2004-05-29 2010-12-07 Ironport Systems, Inc. Managing connections, messages, and directory harvest attacks at a server
US7873695B2 (en) 2004-05-29 2011-01-18 Ironport Systems, Inc. Managing connections and messages at a server by associating different actions for both different senders and different recipients
US20060031318A1 (en) * 2004-06-14 2006-02-09 Gellens Randall C Communicating information about the content of electronic messages to a server
US7748038B2 (en) 2004-06-16 2010-06-29 Ironport Systems, Inc. Method and apparatus for managing computer virus outbreaks
US7664819B2 (en) * 2004-06-29 2010-02-16 Microsoft Corporation Incremental anti-spam lookup and update service
US20060015726A1 (en) * 2004-07-19 2006-01-19 Callas Jonathan D Apparatus for partial authentication of messages
US7904517B2 (en) 2004-08-09 2011-03-08 Microsoft Corporation Challenge response systems
US7660865B2 (en) * 2004-08-12 2010-02-09 Microsoft Corporation Spam filtering with probabilistic secure hashes
US8176126B2 (en) 2004-08-26 2012-05-08 International Business Machines Corporation System, method and program to limit rate of transferring messages from suspected spammers
US7555524B1 (en) * 2004-09-16 2009-06-30 Symantec Corporation Bulk electronic message detection by header similarity analysis
US8635690B2 (en) * 2004-11-05 2014-01-21 Mcafee, Inc. Reputation based message processing
US20060112430A1 (en) * 2004-11-19 2006-05-25 Deisenroth Jerrold M Method and apparatus for immunizing data in computer systems from corruption
US8131804B2 (en) * 2004-11-19 2012-03-06 J Michael Greata Method and apparatus for immunizing data in computer systems from corruption
WO2006060581A2 (en) * 2004-11-30 2006-06-08 Sensory Networks Inc. Apparatus and method for acceleration of security applications through pre-filtering
US7810158B2 (en) * 2004-12-16 2010-10-05 At&T Intellectual Property I, L.P. Methods and systems for deceptively trapping electronic worms
US7600126B2 (en) * 2005-05-27 2009-10-06 Microsoft Corporation Efficient processing of time-bounded messages
US8135779B2 (en) * 2005-06-07 2012-03-13 Nokia Corporation Method, system, apparatus, and software product for filtering out spam more efficiently
US7822818B2 (en) * 2005-07-01 2010-10-26 Symantec Corporation Methods and systems for detecting and preventing the spread of malware on instant messaging (IM) networks by using automated IM users
US7823200B2 (en) * 2005-07-01 2010-10-26 Symantec Corporation Methods and systems for detecting and preventing the spread of malware on instant messaging (IM) networks by analyzing message traffic patterns
US8572733B1 (en) * 2005-07-06 2013-10-29 Raytheon Company System and method for active data collection in a network security system
US7930353B2 (en) * 2005-07-29 2011-04-19 Microsoft Corporation Trees of classifiers for detecting email spam
US8224761B1 (en) 2005-09-01 2012-07-17 Raytheon Company System and method for interactive correlation rule design in a network security system
US7950058B1 (en) 2005-09-01 2011-05-24 Raytheon Company System and method for collaborative information security correlation in low bandwidth environments
WO2007045049A1 (en) * 2005-10-21 2007-04-26 Boxsentry Pte Limited Electronic message authentication
JP2007122146A (ja) * 2005-10-25 2007-05-17 Just Syst Corp 電子メール評価装置および電子メール評価方法
US8065370B2 (en) 2005-11-03 2011-11-22 Microsoft Corporation Proofs to filter spam
US20070124389A1 (en) * 2005-11-28 2007-05-31 Lucent Technologies Inc. Anti-spam application storage system
US9426103B2 (en) 2005-12-27 2016-08-23 International Business Machines Corporation Host state-sensing for message interruption
US7849143B2 (en) * 2005-12-29 2010-12-07 Research In Motion Limited System and method of dynamic management of spam
EP1806885A1 (en) * 2006-01-05 2007-07-11 Alcatel Lucent Electronic messaging management method and system
EP1806904B1 (en) 2006-01-05 2016-03-23 Sound View Innovations, LLC Method for managing electronic information, the related user terminal and the related information source
US7849185B1 (en) 2006-01-10 2010-12-07 Raytheon Company System and method for attacker attribution in a network security system
KR100819965B1 (ko) * 2006-01-12 2008-04-07 (주)아이티 시스템즈 스팸 전화, 스팸 메시지 차단 및 가입자 상태 바로 알림방법 및 장치
US20070174768A1 (en) * 2006-01-20 2007-07-26 International Business Machines Corporation Adaptive alert management
KR100791552B1 (ko) 2006-02-03 2008-01-03 주식회사 위더스정보 스팸 게시물 차단 시스템 및 그 운영방법
US7627641B2 (en) * 2006-03-09 2009-12-01 Watchguard Technologies, Inc. Method and system for recognizing desired email
EP1850606B1 (en) 2006-04-25 2009-06-17 Research In Motion Limited Filtering messages using information about the sender's location
US20080082658A1 (en) * 2006-09-29 2008-04-03 Wan-Yen Hsu Spam control systems and methods
US8050983B1 (en) * 2006-10-31 2011-11-01 Amazon Technologies, Inc. Inhibiting inappropriate communications between users involving tranactions
US8811156B1 (en) 2006-11-14 2014-08-19 Raytheon Company Compressing n-dimensional data
US8224905B2 (en) 2006-12-06 2012-07-17 Microsoft Corporation Spam filtration utilizing sender activity data
CN100555991C (zh) * 2006-12-29 2009-10-28 华为技术有限公司 报文访问控制的方法、转发引擎装置和通信设备
US8214497B2 (en) 2007-01-24 2012-07-03 Mcafee, Inc. Multi-dimensional reputation scoring
US7779156B2 (en) 2007-01-24 2010-08-17 Mcafee, Inc. Reputation based load balancing
US8763114B2 (en) 2007-01-24 2014-06-24 Mcafee, Inc. Detecting image spam
US8429626B2 (en) 2007-02-15 2013-04-23 Microsoft Corporation Packaging content updates
US20080201722A1 (en) * 2007-02-20 2008-08-21 Gurusamy Sarathy Method and System For Unsafe Content Tracking
EP1968264B1 (en) * 2007-02-28 2018-10-24 Strato Ag A method of filtering electronic mails and an electronic mail system
WO2009003059A1 (en) * 2007-06-25 2008-12-31 Google Inc. Zero-hour quarantine of suspect electronic messages
US8103727B2 (en) * 2007-08-30 2012-01-24 Fortinet, Inc. Use of global intelligence to make local information classification decisions
US20090083413A1 (en) * 2007-09-24 2009-03-26 Levow Zachary S Distributed frequency data collection via DNS
US8082584B1 (en) 2007-10-16 2011-12-20 Mcafee, Inc. System, method, and computer program product for conditionally performing a scan on data based on an associated data structure
US8185930B2 (en) 2007-11-06 2012-05-22 Mcafee, Inc. Adjusting filter or classification control settings
US8160975B2 (en) * 2008-01-25 2012-04-17 Mcafee, Inc. Granular support vector machine with random granularity
US20090228558A1 (en) * 2008-03-05 2009-09-10 Brenner Michael R Time management for outgoing electronic mail
US8589503B2 (en) 2008-04-04 2013-11-19 Mcafee, Inc. Prioritizing network traffic
US8086688B1 (en) 2008-05-16 2011-12-27 Quick Vault, Inc. Method and system for mobile data security
US8689341B1 (en) * 2008-05-21 2014-04-01 Symantec Corporation Anti-phishing system based on end user data submission quarantine periods for new websites
WO2010008825A1 (en) * 2008-06-23 2010-01-21 Cloudmark, Inc. Systems and methods for re-evaluating data
US8028031B2 (en) * 2008-06-27 2011-09-27 Microsoft Corporation Determining email filtering type based on sender classification
US8312539B1 (en) * 2008-07-11 2012-11-13 Symantec Corporation User-assisted security system
US8180838B2 (en) * 2008-08-29 2012-05-15 Microsoft Corporation Efficiently managing modular data storage systems
US8886728B2 (en) 2008-12-12 2014-11-11 At&T Intellectual Property I, L.P. Method and apparatus for reclassifying e-mail or modifying a spam filter based on users' input
US9385988B2 (en) 2009-11-04 2016-07-05 Cedexis, Inc. Internet infrastructure survey
US8862674B2 (en) * 2009-11-30 2014-10-14 At&T Intellectual Property I, L.P. Method and apparatus for managing an electronic messaging system
US8549642B2 (en) * 2010-01-20 2013-10-01 Symantec Corporation Method and system for using spam e-mail honeypots to identify potential malware containing e-mails
US8745143B2 (en) * 2010-04-01 2014-06-03 Microsoft Corporation Delaying inbound and outbound email messages
US8621638B2 (en) 2010-05-14 2013-12-31 Mcafee, Inc. Systems and methods for classification of messaging entities
US8595830B1 (en) 2010-07-27 2013-11-26 Symantec Corporation Method and system for detecting malware containing E-mails based on inconsistencies in public sector “From” addresses and a sending IP address
US8635289B2 (en) 2010-08-31 2014-01-21 Microsoft Corporation Adaptive electronic message scanning
US8464342B2 (en) 2010-08-31 2013-06-11 Microsoft Corporation Adaptively selecting electronic message scanning rules
US9021043B2 (en) * 2010-09-28 2015-04-28 Microsoft Technology Licensing Llc Message gateway with hybrid proxy/store-and-forward logic
CN102567304B (zh) * 2010-12-24 2014-02-26 北大方正集团有限公司 一种网络不良信息的过滤方法及装置
CN102655480B (zh) * 2011-03-03 2015-12-02 腾讯科技(深圳)有限公司 相似邮件处理系统和方法
US9442881B1 (en) * 2011-08-31 2016-09-13 Yahoo! Inc. Anti-spam transient entity classification
US9292600B2 (en) 2011-09-30 2016-03-22 Microsoft Technology Licensing, Llc Message classification and management
CA2854466A1 (en) * 2011-11-03 2013-05-10 Raytheon Company Intrusion prevention system (ips) mode for a malware detection system
US9231899B2 (en) * 2012-01-13 2016-01-05 International Business Machines Corporation Transmittal of blocked message notification
US9876742B2 (en) * 2012-06-29 2018-01-23 Microsoft Technology Licensing, Llc Techniques to select and prioritize application of junk email filtering rules
US10320628B2 (en) 2013-06-19 2019-06-11 Citrix Systems, Inc. Confidence scoring of device reputation based on characteristic network behavior
US9633203B2 (en) * 2013-09-12 2017-04-25 Cellco Partnership Spam notification device
US10694029B1 (en) 2013-11-07 2020-06-23 Rightquestion, Llc Validating automatic number identification data
US11568280B1 (en) * 2019-01-23 2023-01-31 Amdocs Development Limited System, method, and computer program for parental controls and recommendations based on artificial intelligence
US9246923B1 (en) 2014-01-19 2016-01-26 Google Inc. Developer risk classifier
US9111093B1 (en) 2014-01-19 2015-08-18 Google Inc. Using signals from developer clusters
WO2015184579A1 (en) * 2014-06-03 2015-12-10 Yahoo! Inc Determining traffic quality using event-based traffic scoring
US9565200B2 (en) * 2014-09-12 2017-02-07 Quick Vault, Inc. Method and system for forensic data tracking
US20200067861A1 (en) * 2014-12-09 2020-02-27 ZapFraud, Inc. Scam evaluation system
US9967219B2 (en) * 2015-03-23 2018-05-08 Ca, Inc. Privacy preserving method and system for limiting communications to targeted recipients using behavior-based categorizing of recipients
US20170093771A1 (en) * 2015-09-30 2017-03-30 Bank Of America Corporation Electronic mail cluster analysis by internet header information
LT3297221T (lt) * 2016-09-19 2018-12-27 Retarus Gmbh Įtartinų elektroninių pranešimų aptikimo būdas
US11936604B2 (en) 2016-09-26 2024-03-19 Agari Data, Inc. Multi-level security analysis and intermediate delivery of an electronic message
US10805270B2 (en) 2016-09-26 2020-10-13 Agari Data, Inc. Mitigating communication risk by verifying a sender of a message
US10880322B1 (en) 2016-09-26 2020-12-29 Agari Data, Inc. Automated tracking of interaction with a resource of a message
US10805314B2 (en) 2017-05-19 2020-10-13 Agari Data, Inc. Using message context to evaluate security of requested data
US10855635B2 (en) * 2016-11-14 2020-12-01 Microsoft Technology Licensing, Llc Electronic mail (e-mail) system support for messages with different traffic types
US11044267B2 (en) 2016-11-30 2021-06-22 Agari Data, Inc. Using a measure of influence of sender in determining a security risk associated with an electronic message
US11722513B2 (en) 2016-11-30 2023-08-08 Agari Data, Inc. Using a measure of influence of sender in determining a security risk associated with an electronic message
US10594640B2 (en) * 2016-12-01 2020-03-17 Oath Inc. Message classification
US10360466B2 (en) * 2016-12-27 2019-07-23 Facebook, Inc. Systems and methods for image description generation
US10911382B2 (en) * 2017-01-30 2021-02-02 Futurewei Technologies, Inc. Personalized message priority classification
US10757053B2 (en) * 2017-03-02 2020-08-25 Microsoft Technology Licensing, Llc High confidence digital content treatment
US11019076B1 (en) 2017-04-26 2021-05-25 Agari Data, Inc. Message security assessment using sender identity profiles
US11757914B1 (en) * 2017-06-07 2023-09-12 Agari Data, Inc. Automated responsive message to determine a security risk of a message sender
US11102244B1 (en) * 2017-06-07 2021-08-24 Agari Data, Inc. Automated intelligence gathering
CN107481037B (zh) * 2017-07-24 2021-01-26 北京京东尚科信息技术有限公司 原生广告插播方法和装置
US20190068535A1 (en) * 2017-08-28 2019-02-28 Linkedin Corporation Self-healing content treatment system and method
KR102005420B1 (ko) * 2018-01-11 2019-07-30 국방과학연구소 전자메일 저자 분류 방법 및 장치
WO2019224907A1 (ja) * 2018-05-22 2019-11-28 三菱電機株式会社 不正メール判定装置、不正メール判定方法及び不正メール判定プログラム
US10601868B2 (en) 2018-08-09 2020-03-24 Microsoft Technology Licensing, Llc Enhanced techniques for generating and deploying dynamic false user accounts
US11212312B2 (en) 2018-08-09 2021-12-28 Microsoft Technology Licensing, Llc Systems and methods for polluting phishing campaign responses
US11606365B2 (en) * 2018-11-19 2023-03-14 Zixcorp Systems, Inc. Delivery of an electronic message using a machine learning policy
US11341430B2 (en) 2018-11-19 2022-05-24 Zixcorp Systems, Inc. Creating a machine learning policy based on express indicators
US11431738B2 (en) 2018-12-19 2022-08-30 Abnormal Security Corporation Multistage analysis of emails to identify security threats
US11824870B2 (en) 2018-12-19 2023-11-21 Abnormal Security Corporation Threat detection platforms for detecting, characterizing, and remediating email-based threats in real time
US11050793B2 (en) 2018-12-19 2021-06-29 Abnormal Security Corporation Retrospective learning of communication patterns by machine learning models for discovering abnormal behavior
RU2750643C2 (ru) * 2019-07-17 2021-06-30 Акционерное общество "Лаборатория Касперского" Способ признания письма спамом через анти-спам карантин
US11132337B2 (en) * 2019-10-15 2021-09-28 Saleforce.com, inc. Dynamically updating distributed content objects
CA3100378A1 (en) * 2019-11-20 2021-05-20 Royal Bank Of Canada System and method for unauthorized activity detection
KR20210076867A (ko) 2019-12-16 2021-06-24 김상진 가디언즈 코드 시스템 및 이의 운영방법
US11582190B2 (en) * 2020-02-10 2023-02-14 Proofpoint, Inc. Electronic message processing systems and methods
US11470042B2 (en) 2020-02-21 2022-10-11 Abnormal Security Corporation Discovering email account compromise through assessments of digital activities
KR102259789B1 (ko) * 2020-02-24 2021-06-02 삼정데이타서비스 주식회사 발신 메일 및 수신 메일의 스팸 필터링 방법 및 장치
WO2021178423A1 (en) 2020-03-02 2021-09-10 Abnormal Security Corporation Multichannel threat detection for protecting against account compromise
US11252189B2 (en) 2020-03-02 2022-02-15 Abnormal Security Corporation Abuse mailbox for facilitating discovery, investigation, and analysis of email-based threats
US11470108B2 (en) 2020-04-23 2022-10-11 Abnormal Security Corporation Detection and prevention of external fraud
KR102527260B1 (ko) * 2020-09-15 2023-04-27 주식회사 카카오 스팸 url을 판단하는 방법 및 시스템
US11528242B2 (en) * 2020-10-23 2022-12-13 Abnormal Security Corporation Discovering graymail through real-time analysis of incoming email
US11687648B2 (en) 2020-12-10 2023-06-27 Abnormal Security Corporation Deriving and surfacing insights regarding security threats
EP4305812A2 (en) * 2021-03-13 2024-01-17 Digital Reasoning Systems, Inc. Alert actioning and machine learning feedback
US11831661B2 (en) 2021-06-03 2023-11-28 Abnormal Security Corporation Multi-tiered approach to payload detection for incoming communications
US20230171287A1 (en) * 2021-11-29 2023-06-01 AO Kaspersky Lab System and method for identifying a phishing email
US12028304B2 (en) * 2021-12-17 2024-07-02 AO Kaspersky Lab System and method for restricting the reception of e-mails from a sender of bulk spam mail
JP7388791B1 (ja) * 2023-08-14 2023-11-29 株式会社Godot 情報処理システム、情報処理方法及び情報処理プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244240A (ja) 2002-02-18 2003-08-29 Yozan Inc メールサーバ装置、電子メール分類方法、メールサーバプログラムおよびメール転送システム
JP2004030639A (ja) 2002-06-26 2004-01-29 Microsoft Corp 迷惑電子メールを検出するシステムおよび方法
EP1564670A3 (en) 2004-02-13 2005-11-02 Microsoft Corporation Intelligent quarantining for spam prevention

Family Cites Families (110)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8918553D0 (en) * 1989-08-15 1989-09-27 Digital Equipment Int Message control system
US5758257A (en) * 1994-11-29 1998-05-26 Herz; Frederick System and method for scheduling broadcast of and access to video programs and other data using customer profiles
US5619648A (en) * 1994-11-30 1997-04-08 Lucent Technologies Inc. Message filtering techniques
US5638487A (en) * 1994-12-30 1997-06-10 Purespeech, Inc. Automatic speech recognition
US5845077A (en) * 1995-11-27 1998-12-01 Microsoft Corporation Method and system for identifying and obtaining computer software from a remote computer
US6101531A (en) * 1995-12-19 2000-08-08 Motorola, Inc. System for communicating user-selected criteria filter prepared at wireless client to communication server for filtering data transferred from host to said wireless client
US5704017A (en) * 1996-02-16 1997-12-30 Microsoft Corporation Collaborative filtering utilizing a belief network
US5884033A (en) * 1996-05-15 1999-03-16 Spyglass, Inc. Internet filtering system for filtering data transferred over the internet utilizing immediate and deferred filtering actions
US6453327B1 (en) * 1996-06-10 2002-09-17 Sun Microsystems, Inc. Method and apparatus for identifying and discarding junk electronic mail
US6072942A (en) * 1996-09-18 2000-06-06 Secure Computing Corporation System and method of electronic mail filtering using interconnected nodes
US5805801A (en) * 1997-01-09 1998-09-08 International Business Machines Corporation System and method for detecting and preventing security
US5905859A (en) * 1997-01-09 1999-05-18 International Business Machines Corporation Managed network device security method and apparatus
US6122657A (en) * 1997-02-04 2000-09-19 Networks Associates, Inc. Internet computer system with methods for dynamic filtering of hypertext tags and content
US6742047B1 (en) * 1997-03-27 2004-05-25 Intel Corporation Method and apparatus for dynamically filtering network content
EP0881559B1 (en) * 1997-05-28 2003-08-20 Siemens Aktiengesellschaft Computer system for protecting software and a method for protecting software
US7117358B2 (en) * 1997-07-24 2006-10-03 Tumbleweed Communications Corp. Method and system for filtering communication
US6199102B1 (en) * 1997-08-26 2001-03-06 Christopher Alan Cobb Method and system for filtering electronic messages
US6003027A (en) * 1997-11-21 1999-12-14 International Business Machines Corporation System and method for determining confidence levels for the results of a categorization system
US6393465B2 (en) * 1997-11-25 2002-05-21 Nixmail Corporation Junk electronic mail detector and eliminator
US6351740B1 (en) * 1997-12-01 2002-02-26 The Board Of Trustees Of The Leland Stanford Junior University Method and system for training dynamic nonlinear adaptive filters which have embedded memory
US6023723A (en) * 1997-12-22 2000-02-08 Accepted Marketing, Inc. Method and system for filtering unwanted junk e-mail utilizing a plurality of filtering mechanisms
WO1999032985A1 (en) * 1997-12-22 1999-07-01 Accepted Marketing, Inc. E-mail filter and method thereof
US6052709A (en) 1997-12-23 2000-04-18 Bright Light Technologies, Inc. Apparatus and method for controlling delivery of unsolicited electronic mail
GB2334116A (en) * 1998-02-04 1999-08-11 Ibm Scheduling and dispatching queued client requests within a server computer
US6484261B1 (en) * 1998-02-17 2002-11-19 Cisco Technology, Inc. Graphical network security policy management
US6504941B2 (en) * 1998-04-30 2003-01-07 Hewlett-Packard Company Method and apparatus for digital watermarking of images
US6314421B1 (en) * 1998-05-12 2001-11-06 David M. Sharnoff Method and apparatus for indexing documents for message filtering
US6074942A (en) * 1998-06-03 2000-06-13 Worldwide Semiconductor Manufacturing Corporation Method for forming a dual damascene contact and interconnect
US6308273B1 (en) * 1998-06-12 2001-10-23 Microsoft Corporation Method and system of security location discrimination
US6161130A (en) * 1998-06-23 2000-12-12 Microsoft Corporation Technique which utilizes a probabilistic classifier to detect "junk" e-mail by automatically updating a training and re-training the classifier based on the updated training set
US6167434A (en) * 1998-07-15 2000-12-26 Pang; Stephen Y. Computer code for removing junk e-mail messages
US6112227A (en) * 1998-08-06 2000-08-29 Heiner; Jeffrey Nelson Filter-in method for reducing junk e-mail
US6434600B2 (en) * 1998-09-15 2002-08-13 Microsoft Corporation Methods and systems for securely delivering electronic mail to hosts having dynamic IP addresses
US6732273B1 (en) * 1998-10-21 2004-05-04 Lucent Technologies Inc. Priority and security coding system for electronic mail messages
GB2343529B (en) * 1998-11-07 2003-06-11 Ibm Filtering incoming e-mail
US6546416B1 (en) 1998-12-09 2003-04-08 Infoseek Corporation Method and system for selectively blocking delivery of bulk electronic mail
US6643686B1 (en) 1998-12-18 2003-11-04 At&T Corp. System and method for counteracting message filtering
US6615242B1 (en) * 1998-12-28 2003-09-02 At&T Corp. Automatic uniform resource locator-based message filter
US6330590B1 (en) * 1999-01-05 2001-12-11 William D. Cotten Preventing delivery of unwanted bulk e-mail
US6424997B1 (en) * 1999-01-27 2002-07-23 International Business Machines Corporation Machine learning based electronic messaging system
US6449634B1 (en) * 1999-01-29 2002-09-10 Digital Impact, Inc. Method and system for remotely sensing the file formats processed by an E-mail client
US6477551B1 (en) * 1999-02-16 2002-11-05 International Business Machines Corporation Interactive electronic messaging system
GB2347053A (en) * 1999-02-17 2000-08-23 Argo Interactive Limited Proxy server filters unwanted email
US7032030B1 (en) 1999-03-11 2006-04-18 John David Codignotto Message publishing system and method
US6732149B1 (en) * 1999-04-09 2004-05-04 International Business Machines Corporation System and method for hindering undesired transmission or receipt of electronic messages
US6370526B1 (en) * 1999-05-18 2002-04-09 International Business Machines Corporation Self-adaptive method and system for providing a user-preferred ranking order of object sets
US6592627B1 (en) * 1999-06-10 2003-07-15 International Business Machines Corporation System and method for organizing repositories of semi-structured documents such as email
US6449636B1 (en) * 1999-09-08 2002-09-10 Nortel Networks Limited System and method for creating a dynamic data file from collected and filtered web pages
EP1234244A4 (en) * 1999-11-23 2005-03-09 Escom Corp ELECTRONIC MESSAGE FILTER COMPRISING A WHITE LIST BASED DATABASE AND QUARANTINE MECHANISM
US6321267B1 (en) * 1999-11-23 2001-11-20 Escom Corporation Method and apparatus for filtering junk email
US6728690B1 (en) * 1999-11-23 2004-04-27 Microsoft Corporation Classification system trainer employing maximum margin back-propagation with probabilistic outputs
US6633855B1 (en) * 2000-01-06 2003-10-14 International Business Machines Corporation Method, system, and program for filtering content using neural networks
US6701440B1 (en) * 2000-01-06 2004-03-02 Networks Associates Technology, Inc. Method and system for protecting a computer using a remote e-mail scanning device
US7822977B2 (en) * 2000-02-08 2010-10-26 Katsikas Peter L System for eliminating unauthorized electronic mail
US6691156B1 (en) * 2000-03-10 2004-02-10 International Business Machines Corporation Method for restricting delivery of unsolicited E-mail
US6684201B1 (en) * 2000-03-31 2004-01-27 Microsoft Corporation Linguistic disambiguation system and method using string-based pattern training to learn to resolve ambiguity sites
DE10023208A1 (de) * 2000-05-12 2001-11-15 Alstom Power Nv Isolierung von Statorwicklungen im Spritzgussverfahren
US7210099B2 (en) * 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
US20040073617A1 (en) * 2000-06-19 2004-04-15 Milliken Walter Clark Hash-based systems and methods for detecting and preventing transmission of unwanted e-mail
WO2001098936A2 (en) * 2000-06-22 2001-12-27 Microsoft Corporation Distributed computing services platform
US7003555B1 (en) * 2000-06-23 2006-02-21 Cloudshield Technologies, Inc. Apparatus and method for domain name resolution
US6779021B1 (en) * 2000-07-28 2004-08-17 International Business Machines Corporation Method and system for predicting and managing undesirable electronic mail
US6842773B1 (en) 2000-08-24 2005-01-11 Yahoo ! Inc. Processing of textual electronic communication distributed in bulk
US6757830B1 (en) * 2000-10-03 2004-06-29 Networks Associates Technology, Inc. Detecting unwanted properties in received email messages
US6971023B1 (en) * 2000-10-03 2005-11-29 Mcafee, Inc. Authorizing an additional computer program module for use with a core computer program
US6748422B2 (en) * 2000-10-19 2004-06-08 Ebay Inc. System and method to control sending of unsolicited communications relating to a plurality of listings in a network-based commerce facility
US7243125B2 (en) * 2000-12-08 2007-07-10 Xerox Corporation Method and apparatus for presenting e-mail threads as semi-connected text by removing redundant material
JP3554271B2 (ja) 2000-12-13 2004-08-18 パナソニック コミュニケーションズ株式会社 情報通信装置
US6775704B1 (en) * 2000-12-28 2004-08-10 Networks Associates Technology, Inc. System and method for preventing a spoofed remote procedure call denial of service attack in a networked computing environment
US20020124025A1 (en) * 2001-03-01 2002-09-05 International Business Machines Corporataion Scanning and outputting textual information in web page images
US6928465B2 (en) 2001-03-16 2005-08-09 Wells Fargo Bank, N.A. Redundant email address detection and capture system
US6751348B2 (en) * 2001-03-29 2004-06-15 Fotonation Holdings, Llc Automated detection of pornographic images
US8949878B2 (en) * 2001-03-30 2015-02-03 Funai Electric Co., Ltd. System for parental control in video programs based on multimedia content information
US6920477B2 (en) 2001-04-06 2005-07-19 President And Fellows Of Harvard College Distributed, compressed Bloom filter Web cache server
US8095597B2 (en) * 2001-05-01 2012-01-10 Aol Inc. Method and system of automating data capture from electronic correspondence
US7188106B2 (en) * 2001-05-01 2007-03-06 International Business Machines Corporation System and method for aggregating ranking results from various sources to improve the results of web searching
US7103599B2 (en) * 2001-05-15 2006-09-05 Verizon Laboratories Inc. Parsing of nested internet electronic mail documents
US6768991B2 (en) 2001-05-15 2004-07-27 Networks Associates Technology, Inc. Searching for sequences of character data
US20030009698A1 (en) * 2001-05-30 2003-01-09 Cascadezone, Inc. Spam avenger
US20030009495A1 (en) * 2001-06-29 2003-01-09 Akli Adjaoute Systems and methods for filtering electronic content
TW533380B (en) * 2001-07-23 2003-05-21 Ulead Systems Inc Group image detecting method
US6769016B2 (en) * 2001-07-26 2004-07-27 Networks Associates Technology, Inc. Intelligent SPAM detection system using an updateable neural analysis engine
US7146402B2 (en) 2001-08-31 2006-12-05 Sendmail, Inc. E-mail system providing filtering methodology on a per-domain basis
US6785820B1 (en) 2002-04-02 2004-08-31 Networks Associates Technology, Inc. System, method and computer program product for conditionally updating a security program
US20030204569A1 (en) * 2002-04-29 2003-10-30 Michael R. Andrews Method and apparatus for filtering e-mail infected with a previously unidentified computer virus
US20030229672A1 (en) * 2002-06-05 2003-12-11 Kohn Daniel Mark Enforceable spam identification and reduction system, and method thereof
US8924484B2 (en) * 2002-07-16 2014-12-30 Sonicwall, Inc. Active e-mail filter with challenge-response
US7363490B2 (en) * 2002-09-12 2008-04-22 International Business Machines Corporation Method and system for selective email acceptance via encoded email identifiers
US7188369B2 (en) 2002-10-03 2007-03-06 Trend Micro, Inc. System and method having an antivirus virtual scanning processor with plug-in functionalities
US20040083270A1 (en) * 2002-10-23 2004-04-29 David Heckerman Method and system for identifying junk e-mail
US7149801B2 (en) * 2002-11-08 2006-12-12 Microsoft Corporation Memory bound functions for spam deterrence and the like
US6732157B1 (en) * 2002-12-13 2004-05-04 Networks Associates Technology, Inc. Comprehensive anti-spam system, method, and computer program product for filtering unwanted e-mail messages
WO2004059506A1 (en) * 2002-12-26 2004-07-15 Commtouch Software Ltd. Detection and prevention of spam
US7533148B2 (en) * 2003-01-09 2009-05-12 Microsoft Corporation Framework to enable integration of anti-spam technologies
US7171450B2 (en) * 2003-01-09 2007-01-30 Microsoft Corporation Framework to enable integration of anti-spam technologies
US7725544B2 (en) * 2003-01-24 2010-05-25 Aol Inc. Group based spam classification
US7249162B2 (en) 2003-02-25 2007-07-24 Microsoft Corporation Adaptive junk message filtering system
US7219148B2 (en) 2003-03-03 2007-05-15 Microsoft Corporation Feedback loop for spam prevention
US7320020B2 (en) * 2003-04-17 2008-01-15 The Go Daddy Group, Inc. Mail server probability spam filter
US7293063B1 (en) 2003-06-04 2007-11-06 Symantec Corporation System utilizing updated spam signatures for performing secondary signature-based analysis of a held e-mail to improve spam email detection
US7263607B2 (en) * 2003-06-12 2007-08-28 Microsoft Corporation Categorizing electronic messages based on trust between electronic messaging entities
US7155484B2 (en) * 2003-06-30 2006-12-26 Bellsouth Intellectual Property Corporation Filtering email messages corresponding to undesirable geographical regions
US7051077B2 (en) * 2003-06-30 2006-05-23 Mx Logic, Inc. Fuzzy logic voting method and system for classifying e-mail using inputs from multiple spam classifiers
US7257564B2 (en) * 2003-10-03 2007-08-14 Tumbleweed Communications Corp. Dynamic message filtering
US7930351B2 (en) * 2003-10-14 2011-04-19 At&T Intellectual Property I, L.P. Identifying undesired email messages having attachments
US7373385B2 (en) * 2003-11-03 2008-05-13 Cloudmark, Inc. Method and apparatus to block spam based on spam reports from a community of users
US20050120019A1 (en) * 2003-11-29 2005-06-02 International Business Machines Corporation Method and apparatus for the automatic identification of unsolicited e-mail messages (SPAM)
US7590694B2 (en) * 2004-01-16 2009-09-15 Gozoom.Com, Inc. System for determining degrees of similarity in email message information
US7693943B2 (en) * 2004-01-23 2010-04-06 International Business Machines Corporation Classification of electronic mail into multiple directories based upon their spam-like properties
EP1767010B1 (en) 2004-06-15 2015-11-11 Tekelec Global, Inc. Method, system, and computer program products for content-based screening of MMS messages

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244240A (ja) 2002-02-18 2003-08-29 Yozan Inc メールサーバ装置、電子メール分類方法、メールサーバプログラムおよびメール転送システム
JP2004030639A (ja) 2002-06-26 2004-01-29 Microsoft Corp 迷惑電子メールを検出するシステムおよび方法
EP1564670A3 (en) 2004-02-13 2005-11-02 Microsoft Corporation Intelligent quarantining for spam prevention

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029666A1 (ko) * 2022-08-04 2024-02-08 (주)기원테크 표적형 이메일 공격 차단 및 대응을 위한 이메일 보안 시스템 및 그 동작 방법

Also Published As

Publication number Publication date
ATE481804T1 (de) 2010-10-15
ES2350107T3 (es) 2011-01-18
EP1564670A2 (en) 2005-08-17
US20040215977A1 (en) 2004-10-28
US7543053B2 (en) 2009-06-02
EP1564670B1 (en) 2010-09-15
MXPA05001677A (es) 2005-10-26
KR20060041934A (ko) 2006-05-12
BRPI0500374A (pt) 2005-09-27
JP2005235206A (ja) 2005-09-02
CN1658572A (zh) 2005-08-24
JP4818616B2 (ja) 2011-11-16
DE602005023553D1 (de) 2010-10-28
CN1658572B (zh) 2013-03-06
CA2497012A1 (en) 2005-08-13
EP1564670A3 (en) 2005-11-02

Similar Documents

Publication Publication Date Title
KR101117866B1 (ko) 스팸 방지를 위한 지능형 차단
AU2004216772B2 (en) Feedback loop for spam prevention
US7660865B2 (en) Spam filtering with probabilistic secure hashes
US7653606B2 (en) Dynamic message filtering
JP4672285B2 (ja) スパム防止のための送信元および宛先の特徴およびリスト
US8224905B2 (en) Spam filtration utilizing sender activity data
EP1597645B1 (en) Adaptive junk message filtering system
Segal et al. SpamGuru: An Enterprise Anti-Spam Filtering System.
US20050102366A1 (en) E-mail filter employing adaptive ruleset
KR20080067352A (ko) 필터 처리 시스템, 음성 및 팩스 메시지와 대화하는 방법,및 메일 서버 방법
KR20040110086A (ko) 스팸 필터의 혼란화
JP4963099B2 (ja) 電子メールフィルタリング装置、電子メールのフィルタリング方法およびプログラム
Wang et al. Toward Automated E-mail Filtering–An Investigation of Commercial and Academic Approaches
Vijayan et al. An anti-spam engine using fuzzy logic with enhanced performance tuning
Liu et al. Spam filtering system based on uncertain learning
Islam Designing Spam Mail Filtering Using Data Mining by Analyzing User and Email Behavior
Cana Comparing the effectiveness of two Bayesian based spam filtering software packages: Bogofilter vs. SpamBayes

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150121

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160119

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170119

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180118

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190116

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20200115

Year of fee payment: 9