RU2778208C1 - System for smart monitoring of user's behavior during interaction with content - Google Patents

System for smart monitoring of user's behavior during interaction with content Download PDF

Info

Publication number
RU2778208C1
RU2778208C1 RU2021109220A RU2021109220A RU2778208C1 RU 2778208 C1 RU2778208 C1 RU 2778208C1 RU 2021109220 A RU2021109220 A RU 2021109220A RU 2021109220 A RU2021109220 A RU 2021109220A RU 2778208 C1 RU2778208 C1 RU 2778208C1
Authority
RU
Russia
Prior art keywords
user
data
server
module
events
Prior art date
Application number
RU2021109220A
Other languages
Russian (ru)
Inventor
Элеонора Станиславовна Соколова
Дмитрий Валерьевич Дмитриев
Мираббас Бахтияр оглы Багиров
Татьяна Леонидовна Бородина
Тимофей Дмитриевич Карклин
Original Assignee
федеральное государственное бюджетное образовательное учреждение высшего образования "Нижегородский государственный технический университет им. Р.Е. Алексеева" (НГТУ)
Filing date
Publication date
Application filed by федеральное государственное бюджетное образовательное учреждение высшего образования "Нижегородский государственный технический университет им. Р.Е. Алексеева" (НГТУ) filed Critical федеральное государственное бюджетное образовательное учреждение высшего образования "Нижегородский государственный технический университет им. Р.Е. Алексеева" (НГТУ)
Application granted granted Critical
Publication of RU2778208C1 publication Critical patent/RU2778208C1/en

Links

Images

Abstract

FIELD: computer technology.
SUBSTANCE: system for smart monitoring of user’s behavior during the interaction with content contains a server and user devices connected to the server, in which primary data is collected on user devices by means of software and hardware means; behavioral events are extracted; data is aggregated, and a vector of values of event signs is formed; user’s disorders are controlled by combination of the vector of signs with conditions of user’s behavior events, predetermined on the user device; primary data and user’s disorders are stored in a server database. The server contains a module for video data validation for protection from photo- and video-forgery; a module for preliminary processing of data for a video-analytics module; a unit for control of events by the formed vector of signs; a unit for load control and data transmission. The server processes and stores biometrical data, providing cryptographic protection and reduction in load on the client.
EFFECT: increase in the quality of monitoring of user’s behavior.
1 cl, 2 dwg

Description

Изобретение относится к средствам мониторинга поведения пользователя при взаимодействии с контентом на пользовательском устройстве в процессах онлайн-коммуникаций - во время дистанционного обучения и проведения онлайн-экзаменов, тестирования, определения профессиональных компетенций при собеседовании, проведении научных, деловых мероприятий, для определения внимания и заинтересованности пользователей.The invention relates to means for monitoring user behavior when interacting with content on a user device in online communication processes - during distance learning and conducting online exams, testing, determining professional competencies during interviews, conducting scientific, business events, to determine the attention and interest of users .

Известен способ мониторинга поведения пользователя при взаимодействии с контентом и система для его осуществления (RU 2673010 С1), выбранная в качестве прототипа, в которой проводят сбор первичных данных с пользовательского устройства, извлекают признаки событий поведения пользователя, которые сопоставляют с предварительно заданными на пользовательском устройстве условиями наступления событий поведения пользователя, и, в случае найденного соответствия, передают данные о наступлении события на сервер и сохраняют полученный результат в базе данных.There is a known method for monitoring user behavior when interacting with content and a system for its implementation (RU 2673010 C1), selected as a prototype, in which primary data are collected from the user device, extract signs of user behavior events that are compared with conditions pre-set on the user device occurrence of user behavior events, and, in case of a match, transmit data on the occurrence of the event to the server and store the result in the database.

В данном способе отсутствуют защита от фото и видео подлога при биометрической идентификации пользователя, предобработка данных, механизмы балансировки нагрузки. Так же в данном способе выполнение обработки и хранение части биометрических данных на устройстве пользователя приводит к уязвимостям и возможности несанкционированного доступа к пользовательским данным.In this method, there is no protection against photo and video forgery with biometric user identification, data preprocessing, load balancing mechanisms. Also in this method, the processing and storage of part of the biometric data on the user's device leads to vulnerabilities and the possibility of unauthorized access to user data.

Кроме того, в данном способе отсутствует возможность настройки параметров системы под конкретного пользователя и формат сдачи дисциплины, не обеспечивается гибкость внедрения новых решений, масштабируемость функционала, высокая надежность и отказоустойчивость.In addition, this method lacks the ability to configure system parameters for a specific user and the format of the discipline, does not provide the flexibility to introduce new solutions, functionality scalability, high reliability and fault tolerance.

Эти недостатки устраняются предлагаемым решением.These shortcomings are eliminated by the proposed solution.

Решается задача мониторинга поведения пользователя при взаимодействии с контентом на пользовательском устройстве разработкой масштабируемой программно-аппаратной системы, включающей сервисы предварительной обработки данных для уменьшения объема пользовательских данных на сервере, интеллектуальной фильтрации шумов и повышения информативности сжатого видеосигнала, криптографической защиты пользовательских данных, реализации биометрической верификации пользователя с защитой от фото и видео подлога, балансировки нагрузки при помощи аппаратно-программных методов с целью оптимизации используемых ресурсов, максимизации пропускной способности каналов связи, уменьшения времени отклика сервера.The problem of monitoring user behavior when interacting with content on a user device is solved by developing a scalable software and hardware system that includes data preprocessing services to reduce the amount of user data on the server, intelligent noise filtering and increasing the information content of a compressed video signal, cryptographic protection of user data, and implementation of biometric user verification. with protection against photo and video forgery, load balancing using hardware and software methods in order to optimize the resources used, maximize the throughput of communication channels, reduce server response time.

Технический результат заключается в наличии защиты от фото и видео подлога при идентификации и верификации пользователя, предобработке данных для модуля видеоаналитики, балансировке нагрузки, отсутствии обработки и хранения биометрических данных на устройстве пользователя, наличии настройки параметров системы под конкретного пользователя и формат сдачи дисциплины для управления процессами коммуникаций через электронные пользовательские устройства с целью улучшения качества мониторинга поведения пользователя при взаимодействии с контентом с обеспечением гибкости внедрения новых решений, масштабируемости функционала, высокой надежности и отказоустойчивости.The technical result consists in the presence of protection against photo and video forgery during user identification and verification, pre-processing of data for the video analytics module, load balancing, no processing and storage of biometric data on the user's device, the presence of system settings for a specific user and the discipline delivery format for process management communications through electronic user devices in order to improve the quality of monitoring user behavior when interacting with content, ensuring the flexibility of implementing new solutions, scalability of functionality, high reliability and fault tolerance.

Технический результат достигается тем, что в системе интеллектуального мониторинга поведения пользователя при взаимодействии с контентом, содержащей сервер и связанные с сервером пользовательские устройства, в которой на каждом пользовательском устройстве проводится сбор первичных данных посредством программных и аппаратных средств, извлечение поведенческих событий, агрегация данных и формирование вектора значений признаков событий, на сервере хранится база данных и производится контроль нарушений пользователя сопоставлением вектора признаков с предварительно заданными на пользовательском устройстве условиями наступления событий поведения пользователя, на пользовательских устройствах в блоке сбора данных выполняется настройка параметров системы под конкретного пользователя и формат сдачи дисциплин; сервер содержит модуль валидации видеоданных для защиты от фото и видео подлога, обеспечивающий выявление программной и физической подмены лица при идентификации и верификации пользователя; модуль предобработки данных для модуля видеоаналитики с фильтрацией шумов и анализом регулярности изображений путем сравнения уровней яркости каждого пикселя входных данных для описания окрестности; блок контроля наступления событий по сформированному вектору признаков; блок контроля нагрузки и передачи данных для балансировки нагрузки между клиентом и сервером, обеспечивающий равномерное распределение нагрузки и масштабирование множества клиентов и серверов; сервер осуществляет обработку и хранение биометрических данных с обеспечением криптографической защиты и снижением нагрузки на клиенте; обеспечена гибкость внедрения новых решений, масштабируемость функционала, высокая надежность и отказоустойчивость за счет использования микросервисной архитектуры.The technical result is achieved by the fact that in the system for intelligent monitoring of user behavior when interacting with content, containing a server and user devices associated with the server, in which primary data is collected on each user device by means of software and hardware, behavioral events are extracted, data is aggregated, and event attribute values vector, a database is stored on the server and user violations are monitored by comparing the attribute vector with the conditions for the occurrence of user behavior events pre-set on the user device, on user devices in the data collection unit, the system parameters are configured for a specific user and the format for passing disciplines; the server contains a video data validation module to protect against photo and video forgery, which ensures the detection of software and physical face substitution during user identification and verification; a data preprocessing module for a video analytics module with noise filtering and image regularity analysis by comparing the brightness levels of each pixel of the input data to describe the neighborhood; a block for controlling the occurrence of events according to the generated feature vector; load control and data transfer block for load balancing between the client and the server, ensuring uniform load distribution and scaling of multiple clients and servers; the server processes and stores biometric data with cryptographic protection and reduces the load on the client; provided flexibility in the implementation of new solutions, scalability of functionality, high reliability and fault tolerance through the use of microservice architecture.

Под первичными данными понимаются данные о действиях пользователя, которые совершаются на пользовательском устройстве с использованием его аппаратных и программных средств, биометрические данные пользователя, а также данные об окружающем пространстве. Сбор перечисленных данных может осуществляться в форме текста, графики, аудио и видео, в том числе биометрических данных.Primary data refers to data about user actions that are performed on the user device using its hardware and software, user biometric data, as well as data about the surrounding space. The collection of the listed data can be in the form of text, graphics, audio and video, including biometric data.

Под поведенческими событиями понимаются события о действиях пользователя в системе, включающие подключение дополнительных аппаратных средств, в том числе путем Bluetooth соединения, запуск приложений, поисковых запросов, открытие файлов, смену активного окна, скроллинг, включение/выключение микрофона/видеокамеры на устройстве, а также изменение направления взгляда, угла поворота головы пользователя, появление сторонних лиц в кадре, появление посторонних шумов. При сборе поведенческих событий формируется вектор значений признаков, где каждое событие представляет собой несколько размерностей вектора, который в дальнейшем сопоставляется с предварительно заданными условиями наступления событий поведения пользователя. Извлеченные вектора признаков по каждому типу данных отправляются на GPU сервер, где происходит обработка данных.Behavioral events are understood as events about user actions in the system, including the connection of additional hardware, including through a Bluetooth connection, launching applications, search queries, opening files, changing the active window, scrolling, turning on / off the microphone / video camera on the device, as well as change in the direction of gaze, the angle of rotation of the user's head, the appearance of third-party faces in the frame, the appearance of extraneous noise. When collecting behavioral events, a vector of feature values is formed, where each event represents several dimensions of the vector, which is further compared with predefined conditions for the occurrence of user behavior events. The extracted feature vectors for each data type are sent to the GPU server, where the data is processed.

Под настраиваемыми параметрами системы понимаются события поведения пользователя, которые необходимо отслеживать в соответствии с целями проведения мониторинга и выбор которых осуществляется перед началом процесса онлайн-коммуникаций в блоке сбора данных. Например, можно задать допустимый угол отведения взгляда, поворота головы или исключить мониторинг этих поведенческих событий, разрешить скроллинг и т.д. В соответствии выбранным параметрам информация о наступлении поведенческих событий поступает в блок контроля событий.System configurable parameters are understood as user behavior events that need to be tracked in accordance with the monitoring objectives and which are selected before starting the online communication process in the data collection unit. For example, you can set the allowed angle of looking away, turning the head, or excluding monitoring of these behavioral events, allowing scrolling, etc. In accordance with the selected parameters, information about the occurrence of behavioral events enters the event control unit.

Обработка биометрических данных осуществляется блоком видеоаналитики, в котором при помощи алгоритмов компьютерного зрения, в частности моделей gaze-estimation-adas-0002, facial-landmarks-35-adas-0002, head-pose-estimation-adas-0001, осуществляется идентификация пользователя и анализ направления взгляда. Хранение биометрических данных осуществляется на выделенном сервере с обеспечением криптографической защиты.The processing of biometric data is carried out by a video analytics unit, in which, using computer vision algorithms, in particular, the gaze-estimation-adas-0002, facial-landmarks-35-adas-0002, head-pose-estimation-adas-0001 models, the user is identified and gaze direction analysis. Biometric data is stored on a dedicated server with cryptographic protection.

Процесс выявления фото и видео подлогов, в том числе присутствия программной или физической подмены лица, осуществляется путем применения базовых нейронных сетей SimpleNet. Изображения из трека используются для получения четырех модальностей (2 ранг-пулинга и 2 оптических потока), которые обрабатываются независимыми базовыми сетями SimleNet и в дальнейшем агрегируются полносвязным слоем. Использование данной архитектуры позволяет использовать предложенный алгоритм в режиме реального времени.The process of identifying photo and video fraud, including the presence of software or physical face spoofing, is carried out by using SimpleNet basic neural networks. Images from the track are used to obtain four modalities (2 rank poolings and 2 optical streams), which are processed by independent SimleNet core networks and further aggregated by a fully connected layer. The use of this architecture allows using the proposed algorithm in real time.

Фильтрация шумов с учетом последующего применения алгоритмов детектирования объектов и событий осуществляется модулем предобработки данных с использованием медианного фильтра, где производится предобработка на основе анализа регулярности изображения для поиска важных областей с анализом окрестностей каждого пикселя. При этом сравниваются уровни яркости пиксела и его окрестности.Noise filtering, taking into account the subsequent application of object and event detection algorithms, is carried out by a data preprocessing module using a median filter, where preprocessing is performed based on image regularity analysis to search for important areas with an analysis of the neighborhoods of each pixel. In this case, the brightness levels of the pixel and its surroundings are compared.

Балансировка нагрузки осуществляется за счет комплекса алгоритмов и методов, которые соответствуют транспортному уровню OSI.Load balancing is carried out through a set of algorithms and methods that correspond to the OSI transport layer.

Использование микросервисной архитектуры, в отличие от монолитной архитектуры, где отсутствует изоляция и распределенность между модулями системы, способствует гибкости и масштабируемости, а использование оркестровки позволяет контролировать запуск и остановку контейнеров, группировать их в кластеры и организовывать все процессы, образующие приложение, что способствует высокой надежности и отказоустойчивости за счет управления развертыванием контейнеров и автоматизации обновлений, контроля за состоянием и процедур аварийного переключения.The use of a microservice architecture, in contrast to a monolithic architecture, where there is no isolation and distribution between the system modules, contributes to flexibility and scalability, and the use of orchestration allows you to control the start and stop of containers, group them into clusters and organize all the processes that make up the application, which contributes to high reliability and resiliency by managing container deployments and automating updates, health monitoring, and failover procedures.

Интеллектуальная система работает следующим образом.The intelligent system works as follows.

В виде устройства пользователя могут выступать стационарные компьютеры, ноутбуки, телефоны, планшеты, оснащенные веб-камерой.The user device can be desktop computers, laptops, phones, tablets equipped with a webcam.

На фиг. 1 представлена функциональная схема системы интеллектуального мониторинга, где структурные блоки отдельных микросервисов выделены пунктиром. Она включает блоки сбора данных о выполняемых процессах на устройстве пользователя 1, сбора видеоданных 2, контроля аппаратных подключений 3, агрегации данных 4, контроля нагрузки и передачи данных 5, распределения данных 6, предобработки данных 7, валидации видеоданных 8, биометрической верификации 9, видеоаналитики 10, контроля событий 11, агрегации обработанных данных 12, базы данных 13, подведения итогов и получения результатов 14.In FIG. 1 shows a functional diagram of an intelligent monitoring system, where the structural blocks of individual microservices are highlighted with a dotted line. It includes blocks for collecting data on ongoing processes on the user's device 1, video data collection 2, hardware connection control 3, data aggregation 4, load and data transfer control 5, data distribution 6, data preprocessing 7, video data validation 8, biometric verification 9, video analytics 10, event control 11, aggregation of processed data 12, database 13, summarizing and obtaining results 14.

Сбор данных осуществляется с помощью трех блоков. Блок 1 включает в себя модуль контроля запущенных программных процессов и приложений на пользовательском устройстве 15 и модуль контроля событий мыши 16. Данный блок собирает данные о кликах и скроллингах мыши при взаимодействии с контентом, а также контролирует запущенные процессы на устройстве пользователя и передает результаты в модуль агрегации 20. Блок 2, включающий модуль подключения к веб-камере 17, реализует захват изображений с пользовательского устройства на основе средств сбора видеоданных (web-камеры) и получения снимков рабочего стола, и передает захваченные изображения в модуль агрегации данных 20. Блок 3 включает в себя модули сбора данных о Bluetooth-соединениях 18 и контроля сети 19 для проверки стабильности соединения с сервером и сетью Интернет, и передает результаты в модуль агрегации данных 20. Модуль агрегации данных 20 извлекает вектор признаков по каждому типу данных, полученных с пользовательского устройства в результате работы блоков 1, 2, 3, и отправляет вектор признаков на GPU сервер посредством модуля передачи данных 21.Data collection is carried out using three blocks. Block 1 includes a module for monitoring running software processes and applications on the user's device 15 and a module for monitoring mouse events 16. This block collects data on mouse clicks and scrolls when interacting with content, and also controls running processes on the user's device and passes the results to the module aggregation module 20. Block 2, which includes a webcam connection module 17, implements image capture from a user device based on video data collection tools (webcam) and desktop snapshots, and transmits the captured images to a data aggregation module 20. Block 3 includes includes modules for collecting data on Bluetooth connections 18 and network control 19 to check the stability of the connection with the server and the Internet, and transmits the results to the data aggregation module 20. The data aggregation module 20 extracts a feature vector for each type of data received from the user device in as a result of the operation of blocks 1, 2, 3, and sends a vect op signs on the GPU server through the data transfer module 21.

Затем данные распределяются модулем 22 на блок контроля событий 11 и модуль предобработки данных 23. Модуль 22 реализован при помощи аппаратно-программных методов и снижает нагрузку на канал связи с уменьшением времени обработки видеоданных.Then the data is distributed by module 22 to the event control unit 11 and the data preprocessing module 23. Module 22 is implemented using hardware-software methods and reduces the load on the communication channel with a decrease in video data processing time.

Блок контроля событий 11 поведения пользователя при работе с техническими устройствами осуществляется с помощью модуля анализа запущенных программных средств 24, модуля анализа Bluetooth-соединений 25, предназначенного для исследований и мониторинга трафика и анализа подключений к пользовательскому устройству, модуля контроля событий мыши 26, позволяющего контролировать клики и скроллинги по странице в зависимости от контента.The event control unit 11 of user behavior when working with technical devices is carried out using the module for analyzing running software tools 24, the module for analyzing Bluetooth connections 25, designed to study and monitor traffic and analyze connections to the user device, the mouse event control module 26, which allows you to control clicks and scrolling on the page depending on the content.

Модуль 23 реализует предобработку данных, выполняя интеллектуальную фильтрацию шумов с учетом последующего применения алгоритмов детектирования объектов и событий, а также сжатие данных видеосигнала без потери важной информации. Далее данные передаются в модуль валидации видео 27.Module 23 implements data pre-processing, performing intelligent noise filtering, taking into account the subsequent application of object and event detection algorithms, as well as compressing video signal data without losing important information. Next, the data is transmitted to the video validation module 27.

Модуль валидации видеоданных 27 анализирует видео на основе алгоритма 3d-реконструкции лица на фотографии и оценки карты глубины локальных дескрипторов, выявляет фото и видео подлоги, в том числе присутствие программной (наложения фото и видео) и физической подмены лица, детектируя подлог в режиме реального времени. При успешной валидации кадр попадет в блок биометрической верификации 9, включающий модуль поиска лица 28 на изображении и модуль биометрической верификации 29, который в соответствие с идентификационным номером выполняет верификацию пользователя. Верификация пользователя выполняется в самом начале работы системы и далее через установленный промежуток времени At. Верификация производится с помощью выделения высокоуровневых признаков лица и сравнения их с имеющимися биометрическими данными в БД.The video data validation module 27 analyzes video based on the 3d-reconstruction algorithm of a face in a photo and estimates the depth map of local descriptors, detects photo and video forgeries, including the presence of software (photo and video overlays) and physical face substitution, detecting forgery in real time . Upon successful validation, the frame will enter the biometric verification unit 9, which includes a face search module 28 in the image and a biometric verification module 29, which, in accordance with the identification number, performs user verification. User verification is performed at the very beginning of the system operation and then after a set period of time At. Verification is performed by extracting high-level facial features and comparing them with the available biometric data in the database.

После успешной верификации данные передаются в блок видеоаналитики 10, включающий модуль проведения криптографической защиты 30 и модуль анализа невербальных признаков поведения пользователя 31 (отведение взгляда, поворот головы, эмоции) с помощью библиотеки Open VINO™ Toolkit и предобученных глубоких моделей из репозитория Open Model Zoo, дающих выигрыш в скорости обработки данных.After successful verification, the data is transferred to the video analytics unit 10, which includes a cryptographic protection module 30 and a module for analyzing non-verbal signs of user behavior 31 (gaze aversion, head rotation, emotions) using the Open VINO™ Toolkit library and pre-trained deep models from the Open Model Zoo repository, giving a gain in data processing speed.

Модель глубокого обучения gaze-estimation-adas-0002 на вход получает детектированные с помощью модели facial-landmarks-35-adas-0002 глаза и ориентацию головы по локальным осям xyz, формируя на выходе ненормированный вектор направления взгляда. Кроме того, формируются углы положения головы по осям xyz с помощью модели head-pose-estimation-adas-0001.The gaze-estimation-adas-0002 deep learning model receives as input the eyes detected using the facial-landmarks-35-adas-0002 model and the orientation of the head along the local xyz axes, forming an unnormalized gaze direction vector at the output. In addition, the head position angles along the xyz axes are formed using the head-pose-estimation-adas-0001 model.

Обработанные данные с блока контроля событий 11 для анализа поведения пользователя при работе с техническими устройствами и блока видеоаналитики 10, осуществляющего анализ невербальных признаков поведения, отправляются в модуль агрегации обработанных данных 32, выполняющий контроль совокупности всех групп событий и записывающий все обнаруженные признаки событий в базу данных 33. Модуль подведения итогов и получения результатов 34 позволяет просмотреть результаты мониторинга поведения пользователя на пользовательском устройстве при взаимодействии с контентом, формируя отчет с полной статистикой (видам, количествам и временем выявления признаков событий) по выявленным нарушениям в виде интерактивных графических схем в интерфейсной части системы мониторинга фиг. 2, а также в виде сформированного Excel отчета.The processed data from the event control unit 11 for analyzing user behavior when working with technical devices and the video analytics unit 10, which analyzes non-verbal signs of behavior, are sent to the processed data aggregation module 32, which controls the totality of all groups of events and records all detected signs of events in the database 33. Summing up and obtaining results module 34 allows you to view the results of monitoring the user's behavior on the user device when interacting with content, generating a report with full statistics (types, quantities and time of detection of signs of events) on detected violations in the form of interactive graphic diagrams in the interface part of the system monitoring FIG. 2, as well as in the form of a generated Excel report.

Кроме того, система мониторинга поведения пользователя при возникновении нарушений его взаимодействия с контентом в режиме реального времени выводит всю информацию о нарушениях в виде интерактивных графических схем на экран экзаменатора (лектора).In addition, the system for monitoring user behavior in the event of violations of its interaction with content in real time displays all information about violations in the form of interactive graphic diagrams on the screen of the examiner (lecturer).

Предложенная интеллектуальная система мониторинга поведения пользователя при взаимодействии с контентом, реализованная в виде микросервисов, удовлетворяет требованиям:The proposed intelligent system for monitoring user behavior when interacting with content, implemented as microservices, meets the requirements:

1. Настройки процессов коммуникаций через электронные пользовательские устройства под конкретного пользователя и формат сдачи дисциплины, и может использоваться в прикладных областях онлайн работы.1. Settings for communication processes through electronic user devices for a specific user and the format of passing the discipline, and can be used in applied areas of online work.

2. Масштабирования и наращивания архитектуры системы, что требуется в современных реалиях, когда в образовательных и других организациях ряд процессов переводится в удаленный режим работы с использованием мультимедийных платформ для видео-конференц-связи.2. Scaling and building up the system architecture, which is required in modern realities, when a number of processes in educational and other organizations are transferred to a remote mode of operation using multimedia platforms for video conferencing.

3. Повышает эффективность и производительность процессов мониторинга, анализа, контроля и реализации эффективного управления коммуникационными дистанционными процессами.3. Increases the efficiency and productivity of the processes of monitoring, analysis, control and implementation of effective management of communication remote processes.

4. Обеспечивает повышение надежности принятия решений при мониторинге поведения пользователя при взаимодействии с контентом за счет расширения функционала контроля и возможности подстройки параметров системы как под конкретного пользователя, так и конкретный технический процесс.4. Provides an increase in the reliability of decision-making when monitoring user behavior when interacting with content by expanding the control functionality and the ability to adjust system parameters both for a specific user and a specific technical process.

5. Повышает устойчивость работы системы за счет балансировки нагрузки.5. Improves system stability through load balancing.

6. Обеспечивает биометрическую верификацию пользователей с защитой от фото и видео подлога, а также криптографическую защиту данных для предотвращения несанкционированного доступа к пользовательским данным на сервере.6. Provides biometric user verification with protection against photo and video forgery, as well as cryptographic data protection to prevent unauthorized access to user data on the server.

Claims (1)

Система интеллектуального мониторинга поведения пользователя при взаимодействии с контентом, содержащая сервер и связанные с сервером пользовательские устройства, в которой на каждом пользовательском устройстве проводится сбор первичных данных посредством программных и аппаратных средств, включающий модуль контроля запущенных программных процессов и приложений, модуль контроля событий мыши, модуль подключения к веб-камере с захватом изображений снимков рабочего стола, модуль сбора данных о Bluetooth-соединениях и контроля сети для проверки стабильности соединения с сервером и сетью Интернет; извлечение поведенческих событий; агрегация данных и формирование вектора значений признаков событий; контроль нарушений пользователя сопоставлением вектора признаков с предварительно заданными на пользовательском устройстве условиями наступления событий поведения пользователя; хранение первичных данных и нарушений пользователя в базе данных сервера, отличающаяся тем, что на пользовательских устройствах в блоке сбора данных реализована настройка параметров системы под конкретного пользователя, включающая дополнительно к биометрической верификации пользователя данные о поведенческих событиях пользователя и формате сдачи дисциплины; сервер содержит модуль валидации видеоданных для защиты от фото- и видеоподлога, обеспечивающий выявление программной и физической подмены лица при идентификации и верификации пользователя; модуль предобработки данных для модуля видеоаналитики с фильтрацией шумов и анализом регулярности изображений путем сравнения уровней яркости каждого пикселя входных данных для описания окрестности; блок контроля наступления событий по сформированному вектору признаков; блок контроля нагрузки и передачи данных для балансировки нагрузки между клиентом и сервером, обеспечивающий равномерное распределение нагрузки и масштабирование множества клиентов и серверов; сервер осуществляет обработку и хранение биометрических данных с обеспечением криптографической защиты и снижением нагрузки на клиента.A system for intelligent monitoring of user behavior when interacting with content, containing a server and user devices connected to the server, in which primary data is collected on each user device by means of software and hardware, including a module for monitoring running software processes and applications, a module for monitoring mouse events, a module connecting to a webcam with capturing images of desktop snapshots, a module for collecting data on Bluetooth connections and monitoring the network to check the stability of the connection with the server and the Internet; extraction of behavioral events; aggregation of data and formation of a vector of event signs values; control of user violations by comparing the feature vector with pre-set conditions on the user device for the occurrence of user behavior events; storage of primary data and violations of the user in the server database, characterized in that on the user devices in the data collection unit, the system parameters are configured for a specific user, including, in addition to the biometric user verification, data on the user's behavioral events and the discipline delivery format; the server contains a video data validation module to protect against photo and video forgery, which ensures the detection of software and physical face substitution during user identification and verification; a data preprocessing module for a video analytics module with noise filtering and image regularity analysis by comparing the brightness levels of each pixel of the input data to describe the neighborhood; a block for controlling the occurrence of events according to the generated feature vector; load control and data transfer block for load balancing between the client and the server, ensuring uniform load distribution and scaling of multiple clients and servers; the server processes and stores biometric data with cryptographic protection and reduces the load on the client.
RU2021109220A 2021-04-05 System for smart monitoring of user's behavior during interaction with content RU2778208C1 (en)

Publications (1)

Publication Number Publication Date
RU2778208C1 true RU2778208C1 (en) 2022-08-15

Family

ID=

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110279228A1 (en) * 2010-05-12 2011-11-17 Weyond Conferencing LLC System and Method for Remote Test Administration and Monitoring
US20140314284A1 (en) * 2013-02-11 2014-10-23 Emotient Data acquisition for machine perception systems
US20140337128A1 (en) * 2003-07-22 2014-11-13 Google Inc. Content-targeted advertising using collected user behavior data
RU2673010C1 (en) * 2017-09-13 2018-11-21 Дмитрий Владимирович Истомин Method for monitoring behavior of user during their interaction with content and system for its implementation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140337128A1 (en) * 2003-07-22 2014-11-13 Google Inc. Content-targeted advertising using collected user behavior data
US20110279228A1 (en) * 2010-05-12 2011-11-17 Weyond Conferencing LLC System and Method for Remote Test Administration and Monitoring
US20150077259A1 (en) * 2010-05-12 2015-03-19 Verificient Technologies, Inc. System and method for remote test administration and monitoring
US20140314284A1 (en) * 2013-02-11 2014-10-23 Emotient Data acquisition for machine perception systems
RU2673010C1 (en) * 2017-09-13 2018-11-21 Дмитрий Владимирович Истомин Method for monitoring behavior of user during their interaction with content and system for its implementation

Similar Documents

Publication Publication Date Title
WO2020211388A1 (en) Behavior prediction method and device employing prediction model, apparatus, and storage medium
CN110869937A (en) Face image duplication removal method and apparatus, electronic device, storage medium, and program
EP3420544B1 (en) A method and apparatus for conducting surveillance
WO2021139324A1 (en) Image recognition method and apparatus, computer-readable storage medium and electronic device
Mitra et al. A machine learning based approach for deepfake detection in social media through key video frame extraction
US11934405B2 (en) Method for monitoring user behavior when interacting with content and a system for its implementation
JP2022048147A5 (en)
EP3761187A1 (en) Method and apparatus for matching multimedia resource, and storage medium and electronic device
CN110263613A (en) Monitor video processing method and processing device
WO2022188697A1 (en) Biological feature extraction method and apparatus, device, medium, and program product
WO2021135138A1 (en) Target motion trajectory construction method and device, and computer storage medium
CN111914811B (en) Image data processing method, image data processing device, computer equipment and storage medium
CN111667275A (en) User identity identification method, device, equipment and medium thereof
WO2022201411A1 (en) Face authentication application using homomorphic encryption
Giorgi et al. Privacy-Preserving Analysis for Remote Video Anomaly Detection in Real Life Environments.
Bouras et al. An online real-time face recognition system for police purposes
RU2778208C1 (en) System for smart monitoring of user's behavior during interaction with content
Liu et al. Unified frequency-assisted transformer framework for detecting and grounding multi-modal manipulation
CN113518061B (en) Data transmission method, equipment, device, system and medium in face recognition
CN110163043B (en) Face detection method, device, storage medium and electronic device
CN111160211A (en) Education training system based on face recognition
Mukhanbet et al. Hybrid Architecture of Face and Action Recognition Systems for Proctoring on a Graphic Processor
Atkins A testing time for face recognition technology
CN113052609B (en) Security prevention and control method and device for automatic teller machine, electronic equipment and medium
Thombare et al. Exam Proctoring System