RU2012113256A - Система и способ оценки пользователей для фильтрации сообщений - Google Patents

Система и способ оценки пользователей для фильтрации сообщений Download PDF

Info

Publication number
RU2012113256A
RU2012113256A RU2012113256/08A RU2012113256A RU2012113256A RU 2012113256 A RU2012113256 A RU 2012113256A RU 2012113256/08 A RU2012113256/08 A RU 2012113256/08A RU 2012113256 A RU2012113256 A RU 2012113256A RU 2012113256 A RU2012113256 A RU 2012113256A
Authority
RU
Russia
Prior art keywords
user
rules
filtering rules
weight
reputation
Prior art date
Application number
RU2012113256/08A
Other languages
English (en)
Other versions
RU2510982C2 (ru
Inventor
Виктор Владимирович Яблоков
Антон Владимирович Тихомиров
Владислав Валерьевич Мартыненко
Original Assignee
Закрытое акционерное общество "Лаборатория Касперского"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Закрытое акционерное общество "Лаборатория Касперского" filed Critical Закрытое акционерное общество "Лаборатория Касперского"
Priority to RU2012113256/08A priority Critical patent/RU2510982C2/ru
Priority to US13/484,449 priority patent/US9361605B2/en
Priority to EP12181649.0A priority patent/EP2648145A1/en
Priority to DE202012013734.4U priority patent/DE202012013734U1/de
Priority to CN201310115340.4A priority patent/CN103198123B/zh
Publication of RU2012113256A publication Critical patent/RU2012113256A/ru
Application granted granted Critical
Publication of RU2510982C2 publication Critical patent/RU2510982C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Computer Hardware Design (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

1. Система категоризации сообщений, получаемых группой пользователей, которая содержит:а) коллективную базу данных правил фильтрации, предназначенную для хранения правил фильтрации и передачи указанных правил средству распространения правил фильтрации;б) средство распространения правил фильтрации, предназначенное для передачи компьютерным устройствам пользователей правил фильтрации сообщений из коллективной базы данных правил фильтрации;в) базу данных репутаций пользователей, предназначенную для хранения веса репутации каждого из пользователей и передачи информации о значениях веса репутации пользователей средству обработки отчетов;г) средство обработки отчетов, предназначенное для:- получения отчетов пользователей о том, что определенное сообщение относится к определенной категории;- вычисления веса сообщения по данной категории на основе количества присланных пользователями отчетов и веса репутации каждого пользователя, приславшего отчет;- вынесения решения о том, что сообщение относится к данной категории на основании превышения вычисленным весом сообщения по данной категории заданного порога;- изменения на основании вынесенного решения правил фильтрации в коллективной базе данных правил фильтрации;- распространения измененных правил фильтрации из коллективной базы данных правил фильтрации, с помощью средства распространения правил фильтрации, между компьютерными устройствами пользователей.2. Система по п.1, в которой средство обработки отчетов и средство распространения правил фильтрации связаны с установленной на компьютерном устройстве каждого пользователя системой фильтрации �

Claims (25)

1. Система категоризации сообщений, получаемых группой пользователей, которая содержит:
а) коллективную базу данных правил фильтрации, предназначенную для хранения правил фильтрации и передачи указанных правил средству распространения правил фильтрации;
б) средство распространения правил фильтрации, предназначенное для передачи компьютерным устройствам пользователей правил фильтрации сообщений из коллективной базы данных правил фильтрации;
в) базу данных репутаций пользователей, предназначенную для хранения веса репутации каждого из пользователей и передачи информации о значениях веса репутации пользователей средству обработки отчетов;
г) средство обработки отчетов, предназначенное для:
- получения отчетов пользователей о том, что определенное сообщение относится к определенной категории;
- вычисления веса сообщения по данной категории на основе количества присланных пользователями отчетов и веса репутации каждого пользователя, приславшего отчет;
- вынесения решения о том, что сообщение относится к данной категории на основании превышения вычисленным весом сообщения по данной категории заданного порога;
- изменения на основании вынесенного решения правил фильтрации в коллективной базе данных правил фильтрации;
- распространения измененных правил фильтрации из коллективной базы данных правил фильтрации, с помощью средства распространения правил фильтрации, между компьютерными устройствами пользователей.
2. Система по п.1, в которой средство обработки отчетов и средство распространения правил фильтрации связаны с установленной на компьютерном устройстве каждого пользователя системой фильтрации сообщений, которая содержит:
а) средство отправки отчетов, с помощью которого пользователь имеет возможность отправить средству обработки отчетов системы усовершенствования правил фильтрации отчет о том, что полученное им сообщение относится к определенной категории;
б) базу данных правил фильтрации, предназначенную для хранения правил фильтрации сообщений;
в) фильтр сообщений, предназначенный для фильтрации входящих сообщений в соответствии с правилами, хранимыми в базе данных правил фильтрации;
г) средство изменения правил фильтрации, предназначенное для изменения правил фильтрации в базе данных правил фильтрации в соответствии с правилами, полученными от средства распространения правил фильтрации.
3. Система по п.1, в которой пользователь с помощью средства изменения правил фильтрации имеет возможность изменять правила фильтрации в базе данных правил фильтрации.
4. Система по п.1, в которой база данных репутаций пользователей связана с системой оценки репутаций пользователей, которая содержит:
а) средство задания правил, предназначенное для задания перечня действий пользователя и правил, в соответствии с которыми будет изменен вес репутации пользователя, совершившего действие из указанного перечня;
б) базу данных правил репутации, предназначенную для хранения заданных действий и соответствующих им правил изменения веса репутации;
в) средство подсчета репутаций пользователей, предназначенное для:
- получения уведомлений о совершенных пользователями действиях из заданного перечня;
- изменения веса репутации каждого из пользователей в базе данных репутаций пользователей в соответствии с заданными правилами;
г) средство распространения регистрируемых действий, предназначенное для передачи компьютерным устройствам пользователей перечня заданных действий, необходимых для регистрации.
5. Система по п.1, в которой система оценки репутаций пользователей содержит также базу данных аномальных действий, предназначенную для хранения информации о действиях, которые отрицательно влияют на репутацию пользователя, совершившего данное действие.
6. Система по п.1, в которой одной из категорий сообщений является категория сообщений, содержащих спам.
7. Способ категоризации сообщений, получаемых группой пользователей, в котором:
а) распространяют между компьютерными устройствами пользователей правила фильтрации из коллективной базы данных правил фильтрации;
б) получают отчеты пользователей о том, что определенное сообщение относится к определенной категории;
в) вычисляют вес сообщения по данной категории на основе количества присланных пользователями отчетов и веса репутации каждого пользователя, приславшего отчет;
г) выносят решение о том, что сообщение относится к данной категории на основании превышения вычисленным весом сообщения по данной категории заданного порога;
д) изменяют на основании вынесенного решения правила фильтрации в коллективной базе данных правил фильтрации;
е) распространяют между компьютерными устройствами пользователей измененные правила фильтрации из коллективной базы данных правил фильтрации.
8. Способ по п.7, в котором вес сообщения по определенной категории вычисляют с использованием следующих инструментов:
- нечеткая логика;
- имитационное моделирование;
- искусственные нейронные сети;
- метод опорных векторов.
9. Способ по п.7, в котором репутация пользователя зависит от следующих факторов:
- включение пользователем дополнительных модулей антивирусного приложения, которые отключены по умолчанию;
- повышение уровня безопасности каждого из модулей в настройках;
- увеличение пользователем частоты антивирусных проверок в настройках расписания;
- увеличение пользователем частоты обновления антивирусных баз;
- использование пользователем в веб-обозревателе дополнительных надстроек, повышающих безопасность при работе в сети Интернет;
- изменение пользователем настроек веб-обозревателя, с целью повышения безопасности при работе в сети Интернет;
- тематика посещаемых сайтов;
- тематика запускаемых на компьютерном устройстве пользователя приложений и программ;
- регулярное пополнение баз анти-спам фильтра и родительского контроля;
- продолжительность использования антивирусного приложения пользователем;
- проведение антивирусных проверок компьютерной системы по требованию;
- антивирусная проверка съемных носителей информации;
- частота попадания в компьютерную систему вредоносных файлов.
10. Способ по п.7, в котором на компьютерном устройстве пользователя:
а) отправляют отчет о том, что полученное сообщение относится к определенной категории;
б) производят фильтрацию входящих сообщений в соответствии с правилами фильтрации в базе данных правил фильтрации;
в) изменяют правила фильтрации в базе данных правил фильтрации в соответствии с измененными правилами, полученными из коллективной базы данных фильтрации.
11. Способ по п.7, в котором изменяют правила фильтрации в базе данных правил фильтрации в соответствии с требованиями пользователя.
12. Способ по п.7, в котором:
а) задают перечень действий пользователей и правила, в соответствии с которыми будет изменен вес репутации пользователя, совершившего действие из указанного перечня;
б) распространяют между компьютерными устройствами пользователей перечень заданных действий, необходимых для регистрации;
в) регистрируют на компьютерном устройстве пользователя действия пользователя из заданного перечня;
г) отправляют уведомления о зарегистрированных действиях пользователя;
д) изменяют вес репутации пользователя согласно заданным правилам на основе информации о действиях пользователя из полученных уведомлений.
13. Способ по п.7, в котором задают перечень аномальных действий, которые отрицательно влияют на репутацию пользователя, совершившего данное действие.
14. Способ по п.13, в котором для снижения веса репутации пользователя аномальное действие учитывают только после того, как количество аномальных действий, совершенных данным пользователем, превысит установленное значение.
15. Способ по п.13, в котором к аномальным действиям пользователя относятся:
- слишком быстрая категоризация сообщений;
- слишком частая категоризация сообщений;
- категоризация сообщений в неуместное время;
- необоснованно частый запуск антивирусной проверки по требованию;
- отправка отчетов о сетевых атаках, которые не были зарегистрированы сетевым экраном;
- отсутствие открытия пользователем окна интерфейса антивирусного приложения при поступающих отчетах об использовании пользователем антивирусного приложения;
- отсутствие антивирусных проверок при поступающих отчетах об их проведении;
- отсутствие событий на устройствах ввода при совершении пользователем различных действий;
- использование приложений, которые не являются активными во время использования;
- использование приложений, которые не являются запущенными.
16. Способ по п.7, в котором аномальные действия не учитываются при расчете веса репутации данного пользователя.
17. Способ по п.7, в котором производят изменение веса репутации пользователей также на основе достоверности отправленных ими отчетов.
18. Способ по п.7, в котором производят вычисление значений веса репутации пользователей отдельно для каждой заданной категории сообщений.
19. Способ по п.18, в котором вычисляют вес сообщения по определенной категории на основе количества присланных пользователями отчетов и веса репутации по данной категории каждого пользователя, приславшего отчет.
20. Способ по п.7, в котором учитывают отчеты, отправленные только теми пользователями, у которых вес репутации превышает определенное пороговое значение.
21. Способ по п.7, в котором распространяют правила фильтрации систем фильтрации сообщений, установленных на компьютерных устройствах пользователей, имеющих самый высокий репутационный вес, среди остальных пользователей группы.
22. Способ по п.7, в котором одной из категорий сообщений является категория сообщений, содержащих спам.
23. Способ по п.7, в котором в качестве сообщений может выступать голосовой спам.
24. Способ по п.23, в котором отчеты пользователей содержат уникальный идентификатор отправителя голосового спама, а правила фильтрации в коллективной базе данных правил фильтрации изменяют за счет внесения в черный список уникальных идентификаторов отправителей тех объектов голосового спама, вычисленный спам-вес которых превысил заданный порог.
25. Способ по п.7, в котором правила фильтрации в коллективной базе данных правил фильтрации дополнительно изменяют путем использования поисковых роботов, предназначенных для поиска в сети Интернет информации об отправителях спам-сообщений с целью добавления ее в коллективную базу данных правил фильтрации.
RU2012113256/08A 2012-04-06 2012-04-06 Система и способ оценки пользователей для фильтрации сообщений RU2510982C2 (ru)

Priority Applications (5)

Application Number Priority Date Filing Date Title
RU2012113256/08A RU2510982C2 (ru) 2012-04-06 2012-04-06 Система и способ оценки пользователей для фильтрации сообщений
US13/484,449 US9361605B2 (en) 2012-04-06 2012-05-31 System and method for filtering spam messages based on user reputation
EP12181649.0A EP2648145A1 (en) 2012-04-06 2012-08-24 System and method for filtering spam messages based on user reputation
DE202012013734.4U DE202012013734U1 (de) 2012-04-06 2012-08-24 System zum Filtern von Spam-Nachrichten auf der Grundlage derBenutzerreputation
CN201310115340.4A CN103198123B (zh) 2012-04-06 2013-04-03 用于基于用户信誉过滤垃圾邮件消息的系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2012113256/08A RU2510982C2 (ru) 2012-04-06 2012-04-06 Система и способ оценки пользователей для фильтрации сообщений

Publications (2)

Publication Number Publication Date
RU2012113256A true RU2012113256A (ru) 2013-10-27
RU2510982C2 RU2510982C2 (ru) 2014-04-10

Family

ID=46799066

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2012113256/08A RU2510982C2 (ru) 2012-04-06 2012-04-06 Система и способ оценки пользователей для фильтрации сообщений

Country Status (5)

Country Link
US (1) US9361605B2 (ru)
EP (1) EP2648145A1 (ru)
CN (1) CN103198123B (ru)
DE (1) DE202012013734U1 (ru)
RU (1) RU2510982C2 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2750643C2 (ru) * 2019-07-17 2021-06-30 Акционерное общество "Лаборатория Касперского" Способ признания письма спамом через анти-спам карантин

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9424612B1 (en) * 2012-08-02 2016-08-23 Facebook, Inc. Systems and methods for managing user reputations in social networking systems
US9537814B2 (en) * 2012-12-14 2017-01-03 Facebook, Inc. Spam detection and prevention in a social networking system
US9253207B2 (en) 2013-02-08 2016-02-02 PhishMe, Inc. Collaborative phishing attack detection
US9398038B2 (en) 2013-02-08 2016-07-19 PhishMe, Inc. Collaborative phishing attack detection
US9356948B2 (en) 2013-02-08 2016-05-31 PhishMe, Inc. Collaborative phishing attack detection
US8966637B2 (en) 2013-02-08 2015-02-24 PhishMe, Inc. Performance benchmarking for simulated phishing attacks
US9661023B1 (en) * 2013-07-12 2017-05-23 Symantec Corporation Systems and methods for automatic endpoint protection and policy management
US10171501B2 (en) 2013-09-20 2019-01-01 Open Text Sa Ulc System and method for remote wipe
US10824756B2 (en) 2013-09-20 2020-11-03 Open Text Sa Ulc Hosted application gateway architecture with multi-level security policy and rule promulgations
EP2851833B1 (en) * 2013-09-20 2017-07-12 Open Text S.A. Application Gateway Architecture with Multi-Level Security Policy and Rule Promulgations
US9262629B2 (en) 2014-01-21 2016-02-16 PhishMe, Inc. Methods and systems for preventing malicious use of phishing simulation records
CN105095292B (zh) * 2014-05-15 2019-08-09 中兴通讯股份有限公司 语音邮箱系统的信息获取方法及装置
RU2670029C2 (ru) * 2014-06-03 2018-10-17 Общество С Ограниченной Ответственностью "Яндекс" Система и способ автоматической модерации сообщений
US20200067861A1 (en) * 2014-12-09 2020-02-27 ZapFraud, Inc. Scam evaluation system
US9432506B2 (en) 2014-12-23 2016-08-30 Intel Corporation Collaborative phone reputation system
CN104899482B (zh) * 2015-03-31 2018-09-28 北京京东尚科信息技术有限公司 限制批量请求服务的方法和装置
US9906539B2 (en) 2015-04-10 2018-02-27 PhishMe, Inc. Suspicious message processing and incident response
RU2629444C2 (ru) * 2015-06-30 2017-08-29 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер определения спам активности в облачной системе
US11593075B2 (en) 2015-11-03 2023-02-28 Open Text Sa Ulc Streamlined fast and efficient application building and customization systems and methods
US11388037B2 (en) 2016-02-25 2022-07-12 Open Text Sa Ulc Systems and methods for providing managed services
US9699305B1 (en) 2016-06-07 2017-07-04 International Business Machines Corporation Caller relationship and risk assessment
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
CA3041255C (en) 2016-11-16 2024-03-12 Motorola Solutions, Inc. Method and apparatus for providing a role-based query bot
US10305840B2 (en) 2017-06-16 2019-05-28 International Business Machines Corporation Mail bot and mailing list detection
CN112219381B (zh) * 2018-06-01 2023-09-05 诺基亚技术有限公司 用于基于数据分析的消息过滤的方法和装置
US11102344B1 (en) * 2019-01-30 2021-08-24 United States Automobile Association (USAA) Systems and methods for detecting fraudulent calls using virtual assistants
RU2762389C2 (ru) * 2021-05-07 2021-12-20 Общество с ограниченной ответственностью "Алгоритм" Способ распознавания абонента, совершающего нежелательные вызовы и способ обработки нежелательного вызова

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7496960B1 (en) * 2000-10-30 2009-02-24 Trend Micro, Inc. Tracking and reporting of computer virus information
US8370936B2 (en) * 2002-02-08 2013-02-05 Juniper Networks, Inc. Multi-method gateway-based network security systems and methods
US7096498B2 (en) * 2002-03-08 2006-08-22 Cipher Trust, Inc. Systems and methods for message threat management
US7237008B1 (en) 2002-05-10 2007-06-26 Mcafee, Inc. Detecting malware carried by an e-mail message
US7249162B2 (en) 2003-02-25 2007-07-24 Microsoft Corporation Adaptive junk message filtering system
US7219148B2 (en) 2003-03-03 2007-05-15 Microsoft Corporation Feedback loop for spam prevention
US7373385B2 (en) 2003-11-03 2008-05-13 Cloudmark, Inc. Method and apparatus to block spam based on spam reports from a community of users
US8839417B1 (en) * 2003-11-17 2014-09-16 Mcafee, Inc. Device, system and method for defending a computer network
US7590694B2 (en) * 2004-01-16 2009-09-15 Gozoom.Com, Inc. System for determining degrees of similarity in email message information
US7941490B1 (en) * 2004-05-11 2011-05-10 Symantec Corporation Method and apparatus for detecting spam in email messages and email attachments
US8582567B2 (en) * 2005-08-09 2013-11-12 Avaya Inc. System and method for providing network level and nodal level vulnerability protection in VoIP networks
US8635690B2 (en) * 2004-11-05 2014-01-21 Mcafee, Inc. Reputation based message processing
US7912192B2 (en) * 2005-02-15 2011-03-22 At&T Intellectual Property Ii, L.P. Arrangement for managing voice over IP (VoIP) telephone calls, especially unsolicited or unwanted calls
US20060253584A1 (en) * 2005-05-03 2006-11-09 Dixon Christopher J Reputation of an entity associated with a content item
CA2606998C (en) * 2005-05-05 2014-09-09 Ironport Systems, Inc. Detecting unwanted electronic mail messages based on probabilistic analysis of referenced resources
US7937480B2 (en) * 2005-06-02 2011-05-03 Mcafee, Inc. Aggregation of reputation data
US8010609B2 (en) * 2005-06-20 2011-08-30 Symantec Corporation Method and apparatus for maintaining reputation lists of IP addresses to detect email spam
US8972449B2 (en) * 2005-12-29 2015-03-03 Nextlabs, Inc. Preventing conflicts of interests between two or more groups
US8849921B2 (en) * 2007-06-28 2014-09-30 Symantec Corporation Method and apparatus for creating predictive filters for messages
US7937468B2 (en) 2007-07-06 2011-05-03 Yahoo! Inc. Detecting spam messages using rapid sender reputation feedback analysis
US8185930B2 (en) * 2007-11-06 2012-05-22 Mcafee, Inc. Adjusting filter or classification control settings
US9203911B2 (en) * 2007-11-14 2015-12-01 Qualcomm Incorporated Method and system for using a cache miss state match indicator to determine user suitability of targeted content messages in a mobile environment
US7836061B1 (en) 2007-12-29 2010-11-16 Kaspersky Lab, Zao Method and system for classifying electronic text messages and spam messages
US8185956B1 (en) * 2008-03-31 2012-05-22 Symantec Corporation Real-time website safety reputation system
US20100125911A1 (en) 2008-11-17 2010-05-20 Prakash Bhaskaran Risk Scoring Based On Endpoint User Activities
US8886728B2 (en) * 2008-12-12 2014-11-11 At&T Intellectual Property I, L.P. Method and apparatus for reclassifying e-mail or modifying a spam filter based on users' input
RU85247U1 (ru) * 2008-12-26 2009-07-27 ЗАО "Лаборатория Касперского" Идентификация спама с помощью лексических векторов (варианты)
US8479051B2 (en) * 2009-01-23 2013-07-02 Microsoft Corporation System and method for customized error reporting
US8959159B2 (en) 2010-04-01 2015-02-17 Microsoft Corporation Personalized email interactions applied to global filtering

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2750643C2 (ru) * 2019-07-17 2021-06-30 Акционерное общество "Лаборатория Касперского" Способ признания письма спамом через анти-спам карантин

Also Published As

Publication number Publication date
CN103198123B (zh) 2016-12-28
RU2510982C2 (ru) 2014-04-10
EP2648145A1 (en) 2013-10-09
US20130268470A1 (en) 2013-10-10
DE202012013734U1 (de) 2020-08-11
CN103198123A (zh) 2013-07-10
US9361605B2 (en) 2016-06-07

Similar Documents

Publication Publication Date Title
RU2012113256A (ru) Система и способ оценки пользователей для фильтрации сообщений
US10848506B2 (en) Threat mitigation system and method
Xie et al. Innocent by association: early recognition of legitimate users
CA2586709C (en) Message profiling systems and methods
RU2541123C1 (ru) Система и способ определения рейтинга электронных сообщений для борьбы со спамом
US10104029B1 (en) Email security architecture
US8001582B2 (en) Cross-network reputation for online services
Chen et al. TruSMS: A trustworthy SMS spam control system based on trust management
US11316887B2 (en) Threat mitigation system and method
US20210026954A1 (en) Threat mitigation system and method
Cao et al. Combating friend spam using social rejections
Yan et al. Unwanted content control via trust management in pervasive social networking
Das et al. Analysis of twitter spam detection using machine learning approach
US20210377313A1 (en) Threat Mitigation System and Method
Lahmadi et al. Hinky: Defending against text-based message spam on smartphones
Chen et al. Implementation of an SMS spam control system based on trust management
US20240095350A1 (en) Threat management system for identifying and performing actions on cybersecurity top threats
US20240098114A1 (en) System and Method for Identifying and Managing Cybersecurity Top Threats
Chaisamran et al. Trust-based SPIT detection by using call duration and social reliability
Liu et al. Mining Call Spammers from Logs
Nagarajan et al. An Analysis of Spam Mail Using K-Means Clustering Algorithm

Legal Events

Date Code Title Description
HE9A Changing address for correspondence with an applicant