RU2778208C1 - System for smart monitoring of user's behavior during interaction with content - Google Patents
System for smart monitoring of user's behavior during interaction with content Download PDFInfo
- Publication number
- RU2778208C1 RU2778208C1 RU2021109220A RU2021109220A RU2778208C1 RU 2778208 C1 RU2778208 C1 RU 2778208C1 RU 2021109220 A RU2021109220 A RU 2021109220A RU 2021109220 A RU2021109220 A RU 2021109220A RU 2778208 C1 RU2778208 C1 RU 2778208C1
- Authority
- RU
- Russia
- Prior art keywords
- user
- data
- server
- module
- events
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title abstract description 3
- 238000000034 method Methods 0.000 claims abstract description 16
- 230000003542 behavioural Effects 0.000 claims abstract description 8
- 238000010200 validation analysis Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims description 10
- 230000002776 aggregation Effects 0.000 claims description 8
- 238000004220 aggregation Methods 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 5
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000000605 extraction Methods 0.000 claims 1
- 238000005755 formation reaction Methods 0.000 claims 1
- 201000010099 disease Diseases 0.000 abstract 2
- 230000005540 biological transmission Effects 0.000 abstract 1
- 230000000694 effects Effects 0.000 abstract 1
- 239000000126 substance Substances 0.000 abstract 1
- 230000006399 behavior Effects 0.000 description 18
- 210000003128 Head Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000002452 interceptive Effects 0.000 description 2
- 230000001755 vocal Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 210000000887 Face Anatomy 0.000 description 1
- 230000001815 facial Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000001537 neural Effects 0.000 description 1
- 230000003287 optical Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Abstract
Description
Изобретение относится к средствам мониторинга поведения пользователя при взаимодействии с контентом на пользовательском устройстве в процессах онлайн-коммуникаций - во время дистанционного обучения и проведения онлайн-экзаменов, тестирования, определения профессиональных компетенций при собеседовании, проведении научных, деловых мероприятий, для определения внимания и заинтересованности пользователей.The invention relates to means for monitoring user behavior when interacting with content on a user device in online communication processes - during distance learning and conducting online exams, testing, determining professional competencies during interviews, conducting scientific, business events, to determine the attention and interest of users .
Известен способ мониторинга поведения пользователя при взаимодействии с контентом и система для его осуществления (RU 2673010 С1), выбранная в качестве прототипа, в которой проводят сбор первичных данных с пользовательского устройства, извлекают признаки событий поведения пользователя, которые сопоставляют с предварительно заданными на пользовательском устройстве условиями наступления событий поведения пользователя, и, в случае найденного соответствия, передают данные о наступлении события на сервер и сохраняют полученный результат в базе данных.There is a known method for monitoring user behavior when interacting with content and a system for its implementation (RU 2673010 C1), selected as a prototype, in which primary data are collected from the user device, extract signs of user behavior events that are compared with conditions pre-set on the user device occurrence of user behavior events, and, in case of a match, transmit data on the occurrence of the event to the server and store the result in the database.
В данном способе отсутствуют защита от фото и видео подлога при биометрической идентификации пользователя, предобработка данных, механизмы балансировки нагрузки. Так же в данном способе выполнение обработки и хранение части биометрических данных на устройстве пользователя приводит к уязвимостям и возможности несанкционированного доступа к пользовательским данным.In this method, there is no protection against photo and video forgery with biometric user identification, data preprocessing, load balancing mechanisms. Also in this method, the processing and storage of part of the biometric data on the user's device leads to vulnerabilities and the possibility of unauthorized access to user data.
Кроме того, в данном способе отсутствует возможность настройки параметров системы под конкретного пользователя и формат сдачи дисциплины, не обеспечивается гибкость внедрения новых решений, масштабируемость функционала, высокая надежность и отказоустойчивость.In addition, this method lacks the ability to configure system parameters for a specific user and the format of the discipline, does not provide the flexibility to introduce new solutions, functionality scalability, high reliability and fault tolerance.
Эти недостатки устраняются предлагаемым решением.These shortcomings are eliminated by the proposed solution.
Решается задача мониторинга поведения пользователя при взаимодействии с контентом на пользовательском устройстве разработкой масштабируемой программно-аппаратной системы, включающей сервисы предварительной обработки данных для уменьшения объема пользовательских данных на сервере, интеллектуальной фильтрации шумов и повышения информативности сжатого видеосигнала, криптографической защиты пользовательских данных, реализации биометрической верификации пользователя с защитой от фото и видео подлога, балансировки нагрузки при помощи аппаратно-программных методов с целью оптимизации используемых ресурсов, максимизации пропускной способности каналов связи, уменьшения времени отклика сервера.The problem of monitoring user behavior when interacting with content on a user device is solved by developing a scalable software and hardware system that includes data preprocessing services to reduce the amount of user data on the server, intelligent noise filtering and increasing the information content of a compressed video signal, cryptographic protection of user data, and implementation of biometric user verification. with protection against photo and video forgery, load balancing using hardware and software methods in order to optimize the resources used, maximize the throughput of communication channels, reduce server response time.
Технический результат заключается в наличии защиты от фото и видео подлога при идентификации и верификации пользователя, предобработке данных для модуля видеоаналитики, балансировке нагрузки, отсутствии обработки и хранения биометрических данных на устройстве пользователя, наличии настройки параметров системы под конкретного пользователя и формат сдачи дисциплины для управления процессами коммуникаций через электронные пользовательские устройства с целью улучшения качества мониторинга поведения пользователя при взаимодействии с контентом с обеспечением гибкости внедрения новых решений, масштабируемости функционала, высокой надежности и отказоустойчивости.The technical result consists in the presence of protection against photo and video forgery during user identification and verification, pre-processing of data for the video analytics module, load balancing, no processing and storage of biometric data on the user's device, the presence of system settings for a specific user and the discipline delivery format for process management communications through electronic user devices in order to improve the quality of monitoring user behavior when interacting with content, ensuring the flexibility of implementing new solutions, scalability of functionality, high reliability and fault tolerance.
Технический результат достигается тем, что в системе интеллектуального мониторинга поведения пользователя при взаимодействии с контентом, содержащей сервер и связанные с сервером пользовательские устройства, в которой на каждом пользовательском устройстве проводится сбор первичных данных посредством программных и аппаратных средств, извлечение поведенческих событий, агрегация данных и формирование вектора значений признаков событий, на сервере хранится база данных и производится контроль нарушений пользователя сопоставлением вектора признаков с предварительно заданными на пользовательском устройстве условиями наступления событий поведения пользователя, на пользовательских устройствах в блоке сбора данных выполняется настройка параметров системы под конкретного пользователя и формат сдачи дисциплин; сервер содержит модуль валидации видеоданных для защиты от фото и видео подлога, обеспечивающий выявление программной и физической подмены лица при идентификации и верификации пользователя; модуль предобработки данных для модуля видеоаналитики с фильтрацией шумов и анализом регулярности изображений путем сравнения уровней яркости каждого пикселя входных данных для описания окрестности; блок контроля наступления событий по сформированному вектору признаков; блок контроля нагрузки и передачи данных для балансировки нагрузки между клиентом и сервером, обеспечивающий равномерное распределение нагрузки и масштабирование множества клиентов и серверов; сервер осуществляет обработку и хранение биометрических данных с обеспечением криптографической защиты и снижением нагрузки на клиенте; обеспечена гибкость внедрения новых решений, масштабируемость функционала, высокая надежность и отказоустойчивость за счет использования микросервисной архитектуры.The technical result is achieved by the fact that in the system for intelligent monitoring of user behavior when interacting with content, containing a server and user devices associated with the server, in which primary data is collected on each user device by means of software and hardware, behavioral events are extracted, data is aggregated, and event attribute values vector, a database is stored on the server and user violations are monitored by comparing the attribute vector with the conditions for the occurrence of user behavior events pre-set on the user device, on user devices in the data collection unit, the system parameters are configured for a specific user and the format for passing disciplines; the server contains a video data validation module to protect against photo and video forgery, which ensures the detection of software and physical face substitution during user identification and verification; a data preprocessing module for a video analytics module with noise filtering and image regularity analysis by comparing the brightness levels of each pixel of the input data to describe the neighborhood; a block for controlling the occurrence of events according to the generated feature vector; load control and data transfer block for load balancing between the client and the server, ensuring uniform load distribution and scaling of multiple clients and servers; the server processes and stores biometric data with cryptographic protection and reduces the load on the client; provided flexibility in the implementation of new solutions, scalability of functionality, high reliability and fault tolerance through the use of microservice architecture.
Под первичными данными понимаются данные о действиях пользователя, которые совершаются на пользовательском устройстве с использованием его аппаратных и программных средств, биометрические данные пользователя, а также данные об окружающем пространстве. Сбор перечисленных данных может осуществляться в форме текста, графики, аудио и видео, в том числе биометрических данных.Primary data refers to data about user actions that are performed on the user device using its hardware and software, user biometric data, as well as data about the surrounding space. The collection of the listed data can be in the form of text, graphics, audio and video, including biometric data.
Под поведенческими событиями понимаются события о действиях пользователя в системе, включающие подключение дополнительных аппаратных средств, в том числе путем Bluetooth соединения, запуск приложений, поисковых запросов, открытие файлов, смену активного окна, скроллинг, включение/выключение микрофона/видеокамеры на устройстве, а также изменение направления взгляда, угла поворота головы пользователя, появление сторонних лиц в кадре, появление посторонних шумов. При сборе поведенческих событий формируется вектор значений признаков, где каждое событие представляет собой несколько размерностей вектора, который в дальнейшем сопоставляется с предварительно заданными условиями наступления событий поведения пользователя. Извлеченные вектора признаков по каждому типу данных отправляются на GPU сервер, где происходит обработка данных.Behavioral events are understood as events about user actions in the system, including the connection of additional hardware, including through a Bluetooth connection, launching applications, search queries, opening files, changing the active window, scrolling, turning on / off the microphone / video camera on the device, as well as change in the direction of gaze, the angle of rotation of the user's head, the appearance of third-party faces in the frame, the appearance of extraneous noise. When collecting behavioral events, a vector of feature values is formed, where each event represents several dimensions of the vector, which is further compared with predefined conditions for the occurrence of user behavior events. The extracted feature vectors for each data type are sent to the GPU server, where the data is processed.
Под настраиваемыми параметрами системы понимаются события поведения пользователя, которые необходимо отслеживать в соответствии с целями проведения мониторинга и выбор которых осуществляется перед началом процесса онлайн-коммуникаций в блоке сбора данных. Например, можно задать допустимый угол отведения взгляда, поворота головы или исключить мониторинг этих поведенческих событий, разрешить скроллинг и т.д. В соответствии выбранным параметрам информация о наступлении поведенческих событий поступает в блок контроля событий.System configurable parameters are understood as user behavior events that need to be tracked in accordance with the monitoring objectives and which are selected before starting the online communication process in the data collection unit. For example, you can set the allowed angle of looking away, turning the head, or excluding monitoring of these behavioral events, allowing scrolling, etc. In accordance with the selected parameters, information about the occurrence of behavioral events enters the event control unit.
Обработка биометрических данных осуществляется блоком видеоаналитики, в котором при помощи алгоритмов компьютерного зрения, в частности моделей gaze-estimation-adas-0002, facial-landmarks-35-adas-0002, head-pose-estimation-adas-0001, осуществляется идентификация пользователя и анализ направления взгляда. Хранение биометрических данных осуществляется на выделенном сервере с обеспечением криптографической защиты.The processing of biometric data is carried out by a video analytics unit, in which, using computer vision algorithms, in particular, the gaze-estimation-adas-0002, facial-landmarks-35-adas-0002, head-pose-estimation-adas-0001 models, the user is identified and gaze direction analysis. Biometric data is stored on a dedicated server with cryptographic protection.
Процесс выявления фото и видео подлогов, в том числе присутствия программной или физической подмены лица, осуществляется путем применения базовых нейронных сетей SimpleNet. Изображения из трека используются для получения четырех модальностей (2 ранг-пулинга и 2 оптических потока), которые обрабатываются независимыми базовыми сетями SimleNet и в дальнейшем агрегируются полносвязным слоем. Использование данной архитектуры позволяет использовать предложенный алгоритм в режиме реального времени.The process of identifying photo and video fraud, including the presence of software or physical face spoofing, is carried out by using SimpleNet basic neural networks. Images from the track are used to obtain four modalities (2 rank poolings and 2 optical streams), which are processed by independent SimleNet core networks and further aggregated by a fully connected layer. The use of this architecture allows using the proposed algorithm in real time.
Фильтрация шумов с учетом последующего применения алгоритмов детектирования объектов и событий осуществляется модулем предобработки данных с использованием медианного фильтра, где производится предобработка на основе анализа регулярности изображения для поиска важных областей с анализом окрестностей каждого пикселя. При этом сравниваются уровни яркости пиксела и его окрестности.Noise filtering, taking into account the subsequent application of object and event detection algorithms, is carried out by a data preprocessing module using a median filter, where preprocessing is performed based on image regularity analysis to search for important areas with an analysis of the neighborhoods of each pixel. In this case, the brightness levels of the pixel and its surroundings are compared.
Балансировка нагрузки осуществляется за счет комплекса алгоритмов и методов, которые соответствуют транспортному уровню OSI.Load balancing is carried out through a set of algorithms and methods that correspond to the OSI transport layer.
Использование микросервисной архитектуры, в отличие от монолитной архитектуры, где отсутствует изоляция и распределенность между модулями системы, способствует гибкости и масштабируемости, а использование оркестровки позволяет контролировать запуск и остановку контейнеров, группировать их в кластеры и организовывать все процессы, образующие приложение, что способствует высокой надежности и отказоустойчивости за счет управления развертыванием контейнеров и автоматизации обновлений, контроля за состоянием и процедур аварийного переключения.The use of a microservice architecture, in contrast to a monolithic architecture, where there is no isolation and distribution between the system modules, contributes to flexibility and scalability, and the use of orchestration allows you to control the start and stop of containers, group them into clusters and organize all the processes that make up the application, which contributes to high reliability and resiliency by managing container deployments and automating updates, health monitoring, and failover procedures.
Интеллектуальная система работает следующим образом.The intelligent system works as follows.
В виде устройства пользователя могут выступать стационарные компьютеры, ноутбуки, телефоны, планшеты, оснащенные веб-камерой.The user device can be desktop computers, laptops, phones, tablets equipped with a webcam.
На фиг. 1 представлена функциональная схема системы интеллектуального мониторинга, где структурные блоки отдельных микросервисов выделены пунктиром. Она включает блоки сбора данных о выполняемых процессах на устройстве пользователя 1, сбора видеоданных 2, контроля аппаратных подключений 3, агрегации данных 4, контроля нагрузки и передачи данных 5, распределения данных 6, предобработки данных 7, валидации видеоданных 8, биометрической верификации 9, видеоаналитики 10, контроля событий 11, агрегации обработанных данных 12, базы данных 13, подведения итогов и получения результатов 14.In FIG. 1 shows a functional diagram of an intelligent monitoring system, where the structural blocks of individual microservices are highlighted with a dotted line. It includes blocks for collecting data on ongoing processes on the user's
Сбор данных осуществляется с помощью трех блоков. Блок 1 включает в себя модуль контроля запущенных программных процессов и приложений на пользовательском устройстве 15 и модуль контроля событий мыши 16. Данный блок собирает данные о кликах и скроллингах мыши при взаимодействии с контентом, а также контролирует запущенные процессы на устройстве пользователя и передает результаты в модуль агрегации 20. Блок 2, включающий модуль подключения к веб-камере 17, реализует захват изображений с пользовательского устройства на основе средств сбора видеоданных (web-камеры) и получения снимков рабочего стола, и передает захваченные изображения в модуль агрегации данных 20. Блок 3 включает в себя модули сбора данных о Bluetooth-соединениях 18 и контроля сети 19 для проверки стабильности соединения с сервером и сетью Интернет, и передает результаты в модуль агрегации данных 20. Модуль агрегации данных 20 извлекает вектор признаков по каждому типу данных, полученных с пользовательского устройства в результате работы блоков 1, 2, 3, и отправляет вектор признаков на GPU сервер посредством модуля передачи данных 21.Data collection is carried out using three blocks.
Затем данные распределяются модулем 22 на блок контроля событий 11 и модуль предобработки данных 23. Модуль 22 реализован при помощи аппаратно-программных методов и снижает нагрузку на канал связи с уменьшением времени обработки видеоданных.Then the data is distributed by
Блок контроля событий 11 поведения пользователя при работе с техническими устройствами осуществляется с помощью модуля анализа запущенных программных средств 24, модуля анализа Bluetooth-соединений 25, предназначенного для исследований и мониторинга трафика и анализа подключений к пользовательскому устройству, модуля контроля событий мыши 26, позволяющего контролировать клики и скроллинги по странице в зависимости от контента.The
Модуль 23 реализует предобработку данных, выполняя интеллектуальную фильтрацию шумов с учетом последующего применения алгоритмов детектирования объектов и событий, а также сжатие данных видеосигнала без потери важной информации. Далее данные передаются в модуль валидации видео 27.
Модуль валидации видеоданных 27 анализирует видео на основе алгоритма 3d-реконструкции лица на фотографии и оценки карты глубины локальных дескрипторов, выявляет фото и видео подлоги, в том числе присутствие программной (наложения фото и видео) и физической подмены лица, детектируя подлог в режиме реального времени. При успешной валидации кадр попадет в блок биометрической верификации 9, включающий модуль поиска лица 28 на изображении и модуль биометрической верификации 29, который в соответствие с идентификационным номером выполняет верификацию пользователя. Верификация пользователя выполняется в самом начале работы системы и далее через установленный промежуток времени At. Верификация производится с помощью выделения высокоуровневых признаков лица и сравнения их с имеющимися биометрическими данными в БД.The video
После успешной верификации данные передаются в блок видеоаналитики 10, включающий модуль проведения криптографической защиты 30 и модуль анализа невербальных признаков поведения пользователя 31 (отведение взгляда, поворот головы, эмоции) с помощью библиотеки Open VINO™ Toolkit и предобученных глубоких моделей из репозитория Open Model Zoo, дающих выигрыш в скорости обработки данных.After successful verification, the data is transferred to the
Модель глубокого обучения gaze-estimation-adas-0002 на вход получает детектированные с помощью модели facial-landmarks-35-adas-0002 глаза и ориентацию головы по локальным осям xyz, формируя на выходе ненормированный вектор направления взгляда. Кроме того, формируются углы положения головы по осям xyz с помощью модели head-pose-estimation-adas-0001.The gaze-estimation-adas-0002 deep learning model receives as input the eyes detected using the facial-landmarks-35-adas-0002 model and the orientation of the head along the local xyz axes, forming an unnormalized gaze direction vector at the output. In addition, the head position angles along the xyz axes are formed using the head-pose-estimation-adas-0001 model.
Обработанные данные с блока контроля событий 11 для анализа поведения пользователя при работе с техническими устройствами и блока видеоаналитики 10, осуществляющего анализ невербальных признаков поведения, отправляются в модуль агрегации обработанных данных 32, выполняющий контроль совокупности всех групп событий и записывающий все обнаруженные признаки событий в базу данных 33. Модуль подведения итогов и получения результатов 34 позволяет просмотреть результаты мониторинга поведения пользователя на пользовательском устройстве при взаимодействии с контентом, формируя отчет с полной статистикой (видам, количествам и временем выявления признаков событий) по выявленным нарушениям в виде интерактивных графических схем в интерфейсной части системы мониторинга фиг. 2, а также в виде сформированного Excel отчета.The processed data from the
Кроме того, система мониторинга поведения пользователя при возникновении нарушений его взаимодействия с контентом в режиме реального времени выводит всю информацию о нарушениях в виде интерактивных графических схем на экран экзаменатора (лектора).In addition, the system for monitoring user behavior in the event of violations of its interaction with content in real time displays all information about violations in the form of interactive graphic diagrams on the screen of the examiner (lecturer).
Предложенная интеллектуальная система мониторинга поведения пользователя при взаимодействии с контентом, реализованная в виде микросервисов, удовлетворяет требованиям:The proposed intelligent system for monitoring user behavior when interacting with content, implemented as microservices, meets the requirements:
1. Настройки процессов коммуникаций через электронные пользовательские устройства под конкретного пользователя и формат сдачи дисциплины, и может использоваться в прикладных областях онлайн работы.1. Settings for communication processes through electronic user devices for a specific user and the format of passing the discipline, and can be used in applied areas of online work.
2. Масштабирования и наращивания архитектуры системы, что требуется в современных реалиях, когда в образовательных и других организациях ряд процессов переводится в удаленный режим работы с использованием мультимедийных платформ для видео-конференц-связи.2. Scaling and building up the system architecture, which is required in modern realities, when a number of processes in educational and other organizations are transferred to a remote mode of operation using multimedia platforms for video conferencing.
3. Повышает эффективность и производительность процессов мониторинга, анализа, контроля и реализации эффективного управления коммуникационными дистанционными процессами.3. Increases the efficiency and productivity of the processes of monitoring, analysis, control and implementation of effective management of communication remote processes.
4. Обеспечивает повышение надежности принятия решений при мониторинге поведения пользователя при взаимодействии с контентом за счет расширения функционала контроля и возможности подстройки параметров системы как под конкретного пользователя, так и конкретный технический процесс.4. Provides an increase in the reliability of decision-making when monitoring user behavior when interacting with content by expanding the control functionality and the ability to adjust system parameters both for a specific user and a specific technical process.
5. Повышает устойчивость работы системы за счет балансировки нагрузки.5. Improves system stability through load balancing.
6. Обеспечивает биометрическую верификацию пользователей с защитой от фото и видео подлога, а также криптографическую защиту данных для предотвращения несанкционированного доступа к пользовательским данным на сервере.6. Provides biometric user verification with protection against photo and video forgery, as well as cryptographic data protection to prevent unauthorized access to user data on the server.
Claims (1)
Publications (1)
Publication Number | Publication Date |
---|---|
RU2778208C1 true RU2778208C1 (en) | 2022-08-15 |
Family
ID=
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110279228A1 (en) * | 2010-05-12 | 2011-11-17 | Weyond Conferencing LLC | System and Method for Remote Test Administration and Monitoring |
US20140314284A1 (en) * | 2013-02-11 | 2014-10-23 | Emotient | Data acquisition for machine perception systems |
US20140337128A1 (en) * | 2003-07-22 | 2014-11-13 | Google Inc. | Content-targeted advertising using collected user behavior data |
RU2673010C1 (en) * | 2017-09-13 | 2018-11-21 | Дмитрий Владимирович Истомин | Method for monitoring behavior of user during their interaction with content and system for its implementation |
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140337128A1 (en) * | 2003-07-22 | 2014-11-13 | Google Inc. | Content-targeted advertising using collected user behavior data |
US20110279228A1 (en) * | 2010-05-12 | 2011-11-17 | Weyond Conferencing LLC | System and Method for Remote Test Administration and Monitoring |
US20150077259A1 (en) * | 2010-05-12 | 2015-03-19 | Verificient Technologies, Inc. | System and method for remote test administration and monitoring |
US20140314284A1 (en) * | 2013-02-11 | 2014-10-23 | Emotient | Data acquisition for machine perception systems |
RU2673010C1 (en) * | 2017-09-13 | 2018-11-21 | Дмитрий Владимирович Истомин | Method for monitoring behavior of user during their interaction with content and system for its implementation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020211388A1 (en) | Behavior prediction method and device employing prediction model, apparatus, and storage medium | |
CN110869937A (en) | Face image duplication removal method and apparatus, electronic device, storage medium, and program | |
EP3420544B1 (en) | A method and apparatus for conducting surveillance | |
WO2021139324A1 (en) | Image recognition method and apparatus, computer-readable storage medium and electronic device | |
Mitra et al. | A machine learning based approach for deepfake detection in social media through key video frame extraction | |
US11934405B2 (en) | Method for monitoring user behavior when interacting with content and a system for its implementation | |
JP2022048147A5 (en) | ||
EP3761187A1 (en) | Method and apparatus for matching multimedia resource, and storage medium and electronic device | |
CN110263613A (en) | Monitor video processing method and processing device | |
WO2022188697A1 (en) | Biological feature extraction method and apparatus, device, medium, and program product | |
WO2021135138A1 (en) | Target motion trajectory construction method and device, and computer storage medium | |
CN111914811B (en) | Image data processing method, image data processing device, computer equipment and storage medium | |
CN111667275A (en) | User identity identification method, device, equipment and medium thereof | |
WO2022201411A1 (en) | Face authentication application using homomorphic encryption | |
Giorgi et al. | Privacy-Preserving Analysis for Remote Video Anomaly Detection in Real Life Environments. | |
Bouras et al. | An online real-time face recognition system for police purposes | |
RU2778208C1 (en) | System for smart monitoring of user's behavior during interaction with content | |
Liu et al. | Unified frequency-assisted transformer framework for detecting and grounding multi-modal manipulation | |
CN113518061B (en) | Data transmission method, equipment, device, system and medium in face recognition | |
CN110163043B (en) | Face detection method, device, storage medium and electronic device | |
CN111160211A (en) | Education training system based on face recognition | |
Mukhanbet et al. | Hybrid Architecture of Face and Action Recognition Systems for Proctoring on a Graphic Processor | |
Atkins | A testing time for face recognition technology | |
CN113052609B (en) | Security prevention and control method and device for automatic teller machine, electronic equipment and medium | |
Thombare et al. | Exam Proctoring System |