RU2012113256A - Система и способ оценки пользователей для фильтрации сообщений - Google Patents
Система и способ оценки пользователей для фильтрации сообщений Download PDFInfo
- Publication number
- RU2012113256A RU2012113256A RU2012113256/08A RU2012113256A RU2012113256A RU 2012113256 A RU2012113256 A RU 2012113256A RU 2012113256/08 A RU2012113256/08 A RU 2012113256/08A RU 2012113256 A RU2012113256 A RU 2012113256A RU 2012113256 A RU2012113256 A RU 2012113256A
- Authority
- RU
- Russia
- Prior art keywords
- user
- rules
- filtering rules
- weight
- reputation
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/107—Computer-aided management of electronic mailing [e-mailing]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Physics & Mathematics (AREA)
- Economics (AREA)
- Computer Hardware Design (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Data Mining & Analysis (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
1. Система категоризации сообщений, получаемых группой пользователей, которая содержит:а) коллективную базу данных правил фильтрации, предназначенную для хранения правил фильтрации и передачи указанных правил средству распространения правил фильтрации;б) средство распространения правил фильтрации, предназначенное для передачи компьютерным устройствам пользователей правил фильтрации сообщений из коллективной базы данных правил фильтрации;в) базу данных репутаций пользователей, предназначенную для хранения веса репутации каждого из пользователей и передачи информации о значениях веса репутации пользователей средству обработки отчетов;г) средство обработки отчетов, предназначенное для:- получения отчетов пользователей о том, что определенное сообщение относится к определенной категории;- вычисления веса сообщения по данной категории на основе количества присланных пользователями отчетов и веса репутации каждого пользователя, приславшего отчет;- вынесения решения о том, что сообщение относится к данной категории на основании превышения вычисленным весом сообщения по данной категории заданного порога;- изменения на основании вынесенного решения правил фильтрации в коллективной базе данных правил фильтрации;- распространения измененных правил фильтрации из коллективной базы данных правил фильтрации, с помощью средства распространения правил фильтрации, между компьютерными устройствами пользователей.2. Система по п.1, в которой средство обработки отчетов и средство распространения правил фильтрации связаны с установленной на компьютерном устройстве каждого пользователя системой фильтрации �
Claims (25)
1. Система категоризации сообщений, получаемых группой пользователей, которая содержит:
а) коллективную базу данных правил фильтрации, предназначенную для хранения правил фильтрации и передачи указанных правил средству распространения правил фильтрации;
б) средство распространения правил фильтрации, предназначенное для передачи компьютерным устройствам пользователей правил фильтрации сообщений из коллективной базы данных правил фильтрации;
в) базу данных репутаций пользователей, предназначенную для хранения веса репутации каждого из пользователей и передачи информации о значениях веса репутации пользователей средству обработки отчетов;
г) средство обработки отчетов, предназначенное для:
- получения отчетов пользователей о том, что определенное сообщение относится к определенной категории;
- вычисления веса сообщения по данной категории на основе количества присланных пользователями отчетов и веса репутации каждого пользователя, приславшего отчет;
- вынесения решения о том, что сообщение относится к данной категории на основании превышения вычисленным весом сообщения по данной категории заданного порога;
- изменения на основании вынесенного решения правил фильтрации в коллективной базе данных правил фильтрации;
- распространения измененных правил фильтрации из коллективной базы данных правил фильтрации, с помощью средства распространения правил фильтрации, между компьютерными устройствами пользователей.
2. Система по п.1, в которой средство обработки отчетов и средство распространения правил фильтрации связаны с установленной на компьютерном устройстве каждого пользователя системой фильтрации сообщений, которая содержит:
а) средство отправки отчетов, с помощью которого пользователь имеет возможность отправить средству обработки отчетов системы усовершенствования правил фильтрации отчет о том, что полученное им сообщение относится к определенной категории;
б) базу данных правил фильтрации, предназначенную для хранения правил фильтрации сообщений;
в) фильтр сообщений, предназначенный для фильтрации входящих сообщений в соответствии с правилами, хранимыми в базе данных правил фильтрации;
г) средство изменения правил фильтрации, предназначенное для изменения правил фильтрации в базе данных правил фильтрации в соответствии с правилами, полученными от средства распространения правил фильтрации.
3. Система по п.1, в которой пользователь с помощью средства изменения правил фильтрации имеет возможность изменять правила фильтрации в базе данных правил фильтрации.
4. Система по п.1, в которой база данных репутаций пользователей связана с системой оценки репутаций пользователей, которая содержит:
а) средство задания правил, предназначенное для задания перечня действий пользователя и правил, в соответствии с которыми будет изменен вес репутации пользователя, совершившего действие из указанного перечня;
б) базу данных правил репутации, предназначенную для хранения заданных действий и соответствующих им правил изменения веса репутации;
в) средство подсчета репутаций пользователей, предназначенное для:
- получения уведомлений о совершенных пользователями действиях из заданного перечня;
- изменения веса репутации каждого из пользователей в базе данных репутаций пользователей в соответствии с заданными правилами;
г) средство распространения регистрируемых действий, предназначенное для передачи компьютерным устройствам пользователей перечня заданных действий, необходимых для регистрации.
5. Система по п.1, в которой система оценки репутаций пользователей содержит также базу данных аномальных действий, предназначенную для хранения информации о действиях, которые отрицательно влияют на репутацию пользователя, совершившего данное действие.
6. Система по п.1, в которой одной из категорий сообщений является категория сообщений, содержащих спам.
7. Способ категоризации сообщений, получаемых группой пользователей, в котором:
а) распространяют между компьютерными устройствами пользователей правила фильтрации из коллективной базы данных правил фильтрации;
б) получают отчеты пользователей о том, что определенное сообщение относится к определенной категории;
в) вычисляют вес сообщения по данной категории на основе количества присланных пользователями отчетов и веса репутации каждого пользователя, приславшего отчет;
г) выносят решение о том, что сообщение относится к данной категории на основании превышения вычисленным весом сообщения по данной категории заданного порога;
д) изменяют на основании вынесенного решения правила фильтрации в коллективной базе данных правил фильтрации;
е) распространяют между компьютерными устройствами пользователей измененные правила фильтрации из коллективной базы данных правил фильтрации.
8. Способ по п.7, в котором вес сообщения по определенной категории вычисляют с использованием следующих инструментов:
- нечеткая логика;
- имитационное моделирование;
- искусственные нейронные сети;
- метод опорных векторов.
9. Способ по п.7, в котором репутация пользователя зависит от следующих факторов:
- включение пользователем дополнительных модулей антивирусного приложения, которые отключены по умолчанию;
- повышение уровня безопасности каждого из модулей в настройках;
- увеличение пользователем частоты антивирусных проверок в настройках расписания;
- увеличение пользователем частоты обновления антивирусных баз;
- использование пользователем в веб-обозревателе дополнительных надстроек, повышающих безопасность при работе в сети Интернет;
- изменение пользователем настроек веб-обозревателя, с целью повышения безопасности при работе в сети Интернет;
- тематика посещаемых сайтов;
- тематика запускаемых на компьютерном устройстве пользователя приложений и программ;
- регулярное пополнение баз анти-спам фильтра и родительского контроля;
- продолжительность использования антивирусного приложения пользователем;
- проведение антивирусных проверок компьютерной системы по требованию;
- антивирусная проверка съемных носителей информации;
- частота попадания в компьютерную систему вредоносных файлов.
10. Способ по п.7, в котором на компьютерном устройстве пользователя:
а) отправляют отчет о том, что полученное сообщение относится к определенной категории;
б) производят фильтрацию входящих сообщений в соответствии с правилами фильтрации в базе данных правил фильтрации;
в) изменяют правила фильтрации в базе данных правил фильтрации в соответствии с измененными правилами, полученными из коллективной базы данных фильтрации.
11. Способ по п.7, в котором изменяют правила фильтрации в базе данных правил фильтрации в соответствии с требованиями пользователя.
12. Способ по п.7, в котором:
а) задают перечень действий пользователей и правила, в соответствии с которыми будет изменен вес репутации пользователя, совершившего действие из указанного перечня;
б) распространяют между компьютерными устройствами пользователей перечень заданных действий, необходимых для регистрации;
в) регистрируют на компьютерном устройстве пользователя действия пользователя из заданного перечня;
г) отправляют уведомления о зарегистрированных действиях пользователя;
д) изменяют вес репутации пользователя согласно заданным правилам на основе информации о действиях пользователя из полученных уведомлений.
13. Способ по п.7, в котором задают перечень аномальных действий, которые отрицательно влияют на репутацию пользователя, совершившего данное действие.
14. Способ по п.13, в котором для снижения веса репутации пользователя аномальное действие учитывают только после того, как количество аномальных действий, совершенных данным пользователем, превысит установленное значение.
15. Способ по п.13, в котором к аномальным действиям пользователя относятся:
- слишком быстрая категоризация сообщений;
- слишком частая категоризация сообщений;
- категоризация сообщений в неуместное время;
- необоснованно частый запуск антивирусной проверки по требованию;
- отправка отчетов о сетевых атаках, которые не были зарегистрированы сетевым экраном;
- отсутствие открытия пользователем окна интерфейса антивирусного приложения при поступающих отчетах об использовании пользователем антивирусного приложения;
- отсутствие антивирусных проверок при поступающих отчетах об их проведении;
- отсутствие событий на устройствах ввода при совершении пользователем различных действий;
- использование приложений, которые не являются активными во время использования;
- использование приложений, которые не являются запущенными.
16. Способ по п.7, в котором аномальные действия не учитываются при расчете веса репутации данного пользователя.
17. Способ по п.7, в котором производят изменение веса репутации пользователей также на основе достоверности отправленных ими отчетов.
18. Способ по п.7, в котором производят вычисление значений веса репутации пользователей отдельно для каждой заданной категории сообщений.
19. Способ по п.18, в котором вычисляют вес сообщения по определенной категории на основе количества присланных пользователями отчетов и веса репутации по данной категории каждого пользователя, приславшего отчет.
20. Способ по п.7, в котором учитывают отчеты, отправленные только теми пользователями, у которых вес репутации превышает определенное пороговое значение.
21. Способ по п.7, в котором распространяют правила фильтрации систем фильтрации сообщений, установленных на компьютерных устройствах пользователей, имеющих самый высокий репутационный вес, среди остальных пользователей группы.
22. Способ по п.7, в котором одной из категорий сообщений является категория сообщений, содержащих спам.
23. Способ по п.7, в котором в качестве сообщений может выступать голосовой спам.
24. Способ по п.23, в котором отчеты пользователей содержат уникальный идентификатор отправителя голосового спама, а правила фильтрации в коллективной базе данных правил фильтрации изменяют за счет внесения в черный список уникальных идентификаторов отправителей тех объектов голосового спама, вычисленный спам-вес которых превысил заданный порог.
25. Способ по п.7, в котором правила фильтрации в коллективной базе данных правил фильтрации дополнительно изменяют путем использования поисковых роботов, предназначенных для поиска в сети Интернет информации об отправителях спам-сообщений с целью добавления ее в коллективную базу данных правил фильтрации.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2012113256/08A RU2510982C2 (ru) | 2012-04-06 | 2012-04-06 | Система и способ оценки пользователей для фильтрации сообщений |
US13/484,449 US9361605B2 (en) | 2012-04-06 | 2012-05-31 | System and method for filtering spam messages based on user reputation |
EP12181649.0A EP2648145A1 (en) | 2012-04-06 | 2012-08-24 | System and method for filtering spam messages based on user reputation |
DE202012013734.4U DE202012013734U1 (de) | 2012-04-06 | 2012-08-24 | System zum Filtern von Spam-Nachrichten auf der Grundlage derBenutzerreputation |
CN201310115340.4A CN103198123B (zh) | 2012-04-06 | 2013-04-03 | 用于基于用户信誉过滤垃圾邮件消息的系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2012113256/08A RU2510982C2 (ru) | 2012-04-06 | 2012-04-06 | Система и способ оценки пользователей для фильтрации сообщений |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2012113256A true RU2012113256A (ru) | 2013-10-27 |
RU2510982C2 RU2510982C2 (ru) | 2014-04-10 |
Family
ID=46799066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2012113256/08A RU2510982C2 (ru) | 2012-04-06 | 2012-04-06 | Система и способ оценки пользователей для фильтрации сообщений |
Country Status (5)
Country | Link |
---|---|
US (1) | US9361605B2 (ru) |
EP (1) | EP2648145A1 (ru) |
CN (1) | CN103198123B (ru) |
DE (1) | DE202012013734U1 (ru) |
RU (1) | RU2510982C2 (ru) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2750643C2 (ru) * | 2019-07-17 | 2021-06-30 | Акционерное общество "Лаборатория Касперского" | Способ признания письма спамом через анти-спам карантин |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9424612B1 (en) * | 2012-08-02 | 2016-08-23 | Facebook, Inc. | Systems and methods for managing user reputations in social networking systems |
US9537814B2 (en) * | 2012-12-14 | 2017-01-03 | Facebook, Inc. | Spam detection and prevention in a social networking system |
US9253207B2 (en) | 2013-02-08 | 2016-02-02 | PhishMe, Inc. | Collaborative phishing attack detection |
US9398038B2 (en) | 2013-02-08 | 2016-07-19 | PhishMe, Inc. | Collaborative phishing attack detection |
US9356948B2 (en) | 2013-02-08 | 2016-05-31 | PhishMe, Inc. | Collaborative phishing attack detection |
US8966637B2 (en) | 2013-02-08 | 2015-02-24 | PhishMe, Inc. | Performance benchmarking for simulated phishing attacks |
US9661023B1 (en) * | 2013-07-12 | 2017-05-23 | Symantec Corporation | Systems and methods for automatic endpoint protection and policy management |
US10171501B2 (en) | 2013-09-20 | 2019-01-01 | Open Text Sa Ulc | System and method for remote wipe |
US10824756B2 (en) | 2013-09-20 | 2020-11-03 | Open Text Sa Ulc | Hosted application gateway architecture with multi-level security policy and rule promulgations |
EP2851833B1 (en) * | 2013-09-20 | 2017-07-12 | Open Text S.A. | Application Gateway Architecture with Multi-Level Security Policy and Rule Promulgations |
US9262629B2 (en) | 2014-01-21 | 2016-02-16 | PhishMe, Inc. | Methods and systems for preventing malicious use of phishing simulation records |
CN105095292B (zh) * | 2014-05-15 | 2019-08-09 | 中兴通讯股份有限公司 | 语音邮箱系统的信息获取方法及装置 |
RU2670029C2 (ru) * | 2014-06-03 | 2018-10-17 | Общество С Ограниченной Ответственностью "Яндекс" | Система и способ автоматической модерации сообщений |
US20200067861A1 (en) * | 2014-12-09 | 2020-02-27 | ZapFraud, Inc. | Scam evaluation system |
US9432506B2 (en) | 2014-12-23 | 2016-08-30 | Intel Corporation | Collaborative phone reputation system |
CN104899482B (zh) * | 2015-03-31 | 2018-09-28 | 北京京东尚科信息技术有限公司 | 限制批量请求服务的方法和装置 |
US9906539B2 (en) | 2015-04-10 | 2018-02-27 | PhishMe, Inc. | Suspicious message processing and incident response |
RU2629444C2 (ru) * | 2015-06-30 | 2017-08-29 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и сервер определения спам активности в облачной системе |
US11593075B2 (en) | 2015-11-03 | 2023-02-28 | Open Text Sa Ulc | Streamlined fast and efficient application building and customization systems and methods |
US11388037B2 (en) | 2016-02-25 | 2022-07-12 | Open Text Sa Ulc | Systems and methods for providing managed services |
US9699305B1 (en) | 2016-06-07 | 2017-07-04 | International Business Machines Corporation | Caller relationship and risk assessment |
US10650621B1 (en) | 2016-09-13 | 2020-05-12 | Iocurrents, Inc. | Interfacing with a vehicular controller area network |
CA3041255C (en) | 2016-11-16 | 2024-03-12 | Motorola Solutions, Inc. | Method and apparatus for providing a role-based query bot |
US10305840B2 (en) | 2017-06-16 | 2019-05-28 | International Business Machines Corporation | Mail bot and mailing list detection |
CN112219381B (zh) * | 2018-06-01 | 2023-09-05 | 诺基亚技术有限公司 | 用于基于数据分析的消息过滤的方法和装置 |
US11102344B1 (en) * | 2019-01-30 | 2021-08-24 | United States Automobile Association (USAA) | Systems and methods for detecting fraudulent calls using virtual assistants |
RU2762389C2 (ru) * | 2021-05-07 | 2021-12-20 | Общество с ограниченной ответственностью "Алгоритм" | Способ распознавания абонента, совершающего нежелательные вызовы и способ обработки нежелательного вызова |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7496960B1 (en) * | 2000-10-30 | 2009-02-24 | Trend Micro, Inc. | Tracking and reporting of computer virus information |
US8370936B2 (en) * | 2002-02-08 | 2013-02-05 | Juniper Networks, Inc. | Multi-method gateway-based network security systems and methods |
US7096498B2 (en) * | 2002-03-08 | 2006-08-22 | Cipher Trust, Inc. | Systems and methods for message threat management |
US7237008B1 (en) | 2002-05-10 | 2007-06-26 | Mcafee, Inc. | Detecting malware carried by an e-mail message |
US7249162B2 (en) | 2003-02-25 | 2007-07-24 | Microsoft Corporation | Adaptive junk message filtering system |
US7219148B2 (en) | 2003-03-03 | 2007-05-15 | Microsoft Corporation | Feedback loop for spam prevention |
US7373385B2 (en) | 2003-11-03 | 2008-05-13 | Cloudmark, Inc. | Method and apparatus to block spam based on spam reports from a community of users |
US8839417B1 (en) * | 2003-11-17 | 2014-09-16 | Mcafee, Inc. | Device, system and method for defending a computer network |
US7590694B2 (en) * | 2004-01-16 | 2009-09-15 | Gozoom.Com, Inc. | System for determining degrees of similarity in email message information |
US7941490B1 (en) * | 2004-05-11 | 2011-05-10 | Symantec Corporation | Method and apparatus for detecting spam in email messages and email attachments |
US8582567B2 (en) * | 2005-08-09 | 2013-11-12 | Avaya Inc. | System and method for providing network level and nodal level vulnerability protection in VoIP networks |
US8635690B2 (en) * | 2004-11-05 | 2014-01-21 | Mcafee, Inc. | Reputation based message processing |
US7912192B2 (en) * | 2005-02-15 | 2011-03-22 | At&T Intellectual Property Ii, L.P. | Arrangement for managing voice over IP (VoIP) telephone calls, especially unsolicited or unwanted calls |
US20060253584A1 (en) * | 2005-05-03 | 2006-11-09 | Dixon Christopher J | Reputation of an entity associated with a content item |
CA2606998C (en) * | 2005-05-05 | 2014-09-09 | Ironport Systems, Inc. | Detecting unwanted electronic mail messages based on probabilistic analysis of referenced resources |
US7937480B2 (en) * | 2005-06-02 | 2011-05-03 | Mcafee, Inc. | Aggregation of reputation data |
US8010609B2 (en) * | 2005-06-20 | 2011-08-30 | Symantec Corporation | Method and apparatus for maintaining reputation lists of IP addresses to detect email spam |
US8972449B2 (en) * | 2005-12-29 | 2015-03-03 | Nextlabs, Inc. | Preventing conflicts of interests between two or more groups |
US8849921B2 (en) * | 2007-06-28 | 2014-09-30 | Symantec Corporation | Method and apparatus for creating predictive filters for messages |
US7937468B2 (en) | 2007-07-06 | 2011-05-03 | Yahoo! Inc. | Detecting spam messages using rapid sender reputation feedback analysis |
US8185930B2 (en) * | 2007-11-06 | 2012-05-22 | Mcafee, Inc. | Adjusting filter or classification control settings |
US9203911B2 (en) * | 2007-11-14 | 2015-12-01 | Qualcomm Incorporated | Method and system for using a cache miss state match indicator to determine user suitability of targeted content messages in a mobile environment |
US7836061B1 (en) | 2007-12-29 | 2010-11-16 | Kaspersky Lab, Zao | Method and system for classifying electronic text messages and spam messages |
US8185956B1 (en) * | 2008-03-31 | 2012-05-22 | Symantec Corporation | Real-time website safety reputation system |
US20100125911A1 (en) | 2008-11-17 | 2010-05-20 | Prakash Bhaskaran | Risk Scoring Based On Endpoint User Activities |
US8886728B2 (en) * | 2008-12-12 | 2014-11-11 | At&T Intellectual Property I, L.P. | Method and apparatus for reclassifying e-mail or modifying a spam filter based on users' input |
RU85247U1 (ru) * | 2008-12-26 | 2009-07-27 | ЗАО "Лаборатория Касперского" | Идентификация спама с помощью лексических векторов (варианты) |
US8479051B2 (en) * | 2009-01-23 | 2013-07-02 | Microsoft Corporation | System and method for customized error reporting |
US8959159B2 (en) | 2010-04-01 | 2015-02-17 | Microsoft Corporation | Personalized email interactions applied to global filtering |
-
2012
- 2012-04-06 RU RU2012113256/08A patent/RU2510982C2/ru active
- 2012-05-31 US US13/484,449 patent/US9361605B2/en active Active
- 2012-08-24 DE DE202012013734.4U patent/DE202012013734U1/de not_active Expired - Lifetime
- 2012-08-24 EP EP12181649.0A patent/EP2648145A1/en not_active Ceased
-
2013
- 2013-04-03 CN CN201310115340.4A patent/CN103198123B/zh active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2750643C2 (ru) * | 2019-07-17 | 2021-06-30 | Акционерное общество "Лаборатория Касперского" | Способ признания письма спамом через анти-спам карантин |
Also Published As
Publication number | Publication date |
---|---|
CN103198123B (zh) | 2016-12-28 |
RU2510982C2 (ru) | 2014-04-10 |
EP2648145A1 (en) | 2013-10-09 |
US20130268470A1 (en) | 2013-10-10 |
DE202012013734U1 (de) | 2020-08-11 |
CN103198123A (zh) | 2013-07-10 |
US9361605B2 (en) | 2016-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2012113256A (ru) | Система и способ оценки пользователей для фильтрации сообщений | |
US10848506B2 (en) | Threat mitigation system and method | |
Xie et al. | Innocent by association: early recognition of legitimate users | |
CA2586709C (en) | Message profiling systems and methods | |
RU2541123C1 (ru) | Система и способ определения рейтинга электронных сообщений для борьбы со спамом | |
US10104029B1 (en) | Email security architecture | |
US8001582B2 (en) | Cross-network reputation for online services | |
Chen et al. | TruSMS: A trustworthy SMS spam control system based on trust management | |
US11316887B2 (en) | Threat mitigation system and method | |
US20210026954A1 (en) | Threat mitigation system and method | |
Cao et al. | Combating friend spam using social rejections | |
Yan et al. | Unwanted content control via trust management in pervasive social networking | |
Das et al. | Analysis of twitter spam detection using machine learning approach | |
US20210377313A1 (en) | Threat Mitigation System and Method | |
Lahmadi et al. | Hinky: Defending against text-based message spam on smartphones | |
Chen et al. | Implementation of an SMS spam control system based on trust management | |
US20240095350A1 (en) | Threat management system for identifying and performing actions on cybersecurity top threats | |
US20240098114A1 (en) | System and Method for Identifying and Managing Cybersecurity Top Threats | |
Chaisamran et al. | Trust-based SPIT detection by using call duration and social reliability | |
Liu et al. | Mining Call Spammers from Logs | |
Nagarajan et al. | An Analysis of Spam Mail Using K-Means Clustering Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
HE9A | Changing address for correspondence with an applicant |