UA141318U - AUTOMATED METHOD OF VERIFICATION OF ELECTRONIC DOCUMENT ACQUISITION - Google Patents

AUTOMATED METHOD OF VERIFICATION OF ELECTRONIC DOCUMENT ACQUISITION Download PDF

Info

Publication number
UA141318U
UA141318U UAU201904742U UAU201904742U UA141318U UA 141318 U UA141318 U UA 141318U UA U201904742 U UAU201904742 U UA U201904742U UA U201904742 U UAU201904742 U UA U201904742U UA 141318 U UA141318 U UA 141318U
Authority
UA
Ukraine
Prior art keywords
subject
data
information
document
multimedia information
Prior art date
Application number
UAU201904742U
Other languages
Ukrainian (uk)
Inventor
Сергій Анатолійович Данилов
Original Assignee
Сергій Анатолійович Данилов
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Сергій Анатолійович Данилов filed Critical Сергій Анатолійович Данилов
Priority to UAU201904742U priority Critical patent/UA141318U/en
Publication of UA141318U publication Critical patent/UA141318U/en

Links

Landscapes

  • Image Analysis (AREA)

Abstract

Автоматизований спосіб верифікації ознайомлення суб'єкта із електронним документом, включає попереднє встановлення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа, що достатній для формування сертифікату підписання електронного документа верифікованим суб'єктом, верифікацію особи суб'єкта на підставі попередньо введених у апаратно-програмний комплекс (АПК) візуальних даних про суб'єкта на початку сеансу надання суб'єкту електронного документа та протягом кожного наступного сеансу надання того ж самого документа тому ж самому суб'єкту, автоматизоване визначення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа верифікованим суб'єктом при наданні електронного документа за всіма сеансами надання одного й того ж документа у системі АПК з використанням технології стеження за очима та із застосуванням штучної нейронної мережі, й у разі, якщо суб'єкт підтверджує завершення сеансу/сеансів ознайомлення із документом та погоджує підписання й якщо визначений обсяг розпізнаної верифікованим суб'єктом інформації, зокрема обсяг прочитаного документа, дорівнює або більший за попередньо встановлений обсяг формують сертифікат підписання документа.Automated method of verification of acquaintance of the subject with the electronic document, includes preliminary establishment of the volume of information recognition, in particular the volume of the read document sufficient for formation of the certificate of signing of the electronic document by the verified subject, verification of the subject on the basis of previously entered (APC) visual data about the subject at the beginning of the session of providing the subject with an electronic document and during each subsequent session of providing the same document to the same subject, automated determination of the scope of information recognition, in particular the volume of the document read by the verified subject providing an electronic document for all sessions of providing the same document in the agro-industrial complex using eye tracking technology and using an artificial neural network, and if the subject confirms the end of the session / sessions of acquaintance with the document and agrees to sign and if determined The amount of information recognized by the verified subject, in particular the volume of the read document, is equal to or greater than the previously set volume of the document signing certificate.

Description

Корисна модель належить до технологій, що залучають засоби й методи стеження за рухом очей суб'єктів і стосується автоматизованого способу верифікації ознайомлення суб'єктом із електронним документом. Дана корисна модель дозволяє встановити, чи був суб'єкт ознайомлений із представленою йому візуальною інформацію, зокрема текстовою інформацією та/або образною інформацією, у якому обсязі, та чи був цей обсяг достатній для підтвердження ознайомлення суб'єкта із змістом текстових фрагментів наданої мультимедійної інформації, чи прочитав суб'єкт представлену інформацію, зокрема чи прочитав суб'єкт текстову інформацію, зокрема інформацію електронного документа.The utility model belongs to technologies that involve means and methods of tracking the movement of subjects' eyes and refers to an automated way of verifying the subject's familiarization with an electronic document. This useful model makes it possible to establish whether the subject was familiarized with the visual information presented to him, in particular textual information and/or pictorial information, in what volume, and whether this volume was sufficient to confirm the subject's familiarization with the content of the text fragments of the provided multimedia information , whether the subject has read the presented information, in particular whether the subject has read the text information, in particular the information of the electronic document.

Корисна модель дозволяє об'єктивно встановити чи прочитав визначений суб'єкт текстову інформацію та у якому обсязі, та чи відповідає це визначеному обсягу, що встановлений як достатній для сприйняття суб'єктом змісту представлених текстових фрагментів у наданій мультимедійній інформації.A useful model allows you to objectively establish whether the specified subject has read the text information and in what volume, and whether this corresponds to the specified volume, which is established as sufficient for the subject's perception of the content of the presented text fragments in the provided multimedia information.

Крім цього, корисна модель стосується способу верифікації ознайомлення із електронним документа, зокрема із залученням способу та/або системи автоматизованого визначення обсягу читання або розпізнавання суб'єктом визначених ділянок при наданні мультимедійної інформації.In addition, the useful model refers to the method of verification of familiarization with the electronic document, in particular, involving the method and/or system of automated determination of the reading volume or recognition by the subject of specified areas when providing multimedia information.

Технології стеження за очима (окулографія, айтрекінг)уу включають визначення певних характеристик руху очей, зокрема визначення точки, на яку спрямований погляд, або координат точки перетинання оптичної осі ока (очного яблука) із площиною визначеного об'єкта, зокрема площиною пристрою, на якому надається/пред'являється певний зоровий подразник.Eye tracking technologies (oculography, eye tracking) include the determination of certain characteristics of eye movement, in particular, the determination of the point to which the gaze is directed, or the coordinates of the point of intersection of the optical axis of the eye (eyeball) with the plane of the specified object, in particular the plane of the device on which a certain visual stimulus is provided/presented.

Застосування систем стеження за очима (айтрекінг або окулографія) у різних галузях й зокрема для визначення читання суб'єктом відомі.The use of eye tracking systems (eye tracking or oculography) in various fields, and in particular for determining the subject's reading, is well known.

У (5 2012/0237084 А1, 20.09.2012 описано спосіб та система для ідентифікації тексту та його положення у візуальному медіа-контенті, наприклад документа, що відображається на моніторі комп'ютера або іншому пристрої відображення, що дозволяють визначити, чи суб'єкт взаємодіяв із текстом, рівень взаємодії суб'єкт із текстом, наприклад, чи розглядав суб'єкт текст, чи читав суб'єкт текст, чи сприйняв суб'єкт текст і зрозумів його або інші види взаємодії суб'єкта із текстом. Визначення здійснюється на основі даних, що отримані з пристрою відстеження ока, при цьому окремо або разом може застосовуватися система визначення емоційної відповіді. У способі передбачено ідентифікацію частини візуального медіа-контенту, що складає текст, визначення положення ідентифікованого тексту візуального медіа-контенту, збирання даних з очей суб'єкта під час перегляду візуального медіа-контенту, щодо розмірів зіниці, мигання та координат погляду, генерування патернів погляду суб'єкта на основі зібраних даних очей, визначення того, чи взаємодіє суб'єкт з ідентифікованим текстом на підставі щонайменше визначеного положення ідентифікованого тексту і генерованого шаблону погляду, визначення рівня взаємодії суб'єкта з ідентифікованим текстом, зокрема визначення того, чи прочитав або ознайомився суб'єкт із ідентифікованим текстом, і визначення емоційної реакції суб'єкта на ідентифікований текст.In (5 2012/0237084 A1, 20.09.2012, a method and system for identifying text and its position in visual media content, such as a document displayed on a computer monitor or other display device, allowing to determine whether the subject interacted with the text, the level of interaction of the subject with the text, for example, whether the subject looked at the text, whether the subject read the text, whether the subject perceived the text and understood it, or other types of interaction of the subject with the text. based on data obtained from an eye tracking device, and an emotional response detection system may be applied separately or together.The method includes identifying a part of visual media content that constitutes text, determining the position of the identified text of the visual media content, collecting data from the eyes of sub subject while viewing visual media content, regarding pupil size, blinking and gaze coordinates, generating subject gaze patterns based on collected eye data hey, determining whether the subject interacts with the identified text based on at least the determined position of the identified text and the generated gaze pattern, determining the level of interaction of the subject with the identified text, in particular determining whether the subject has read or familiarized himself with the identified text, and determining the subject's emotional response to the identified text.

Відомий спосіб підтвердження читання електронного повідомлення користувачем (із застосуванням технології відстеження положення очей під час читання користувачем на електронному пристрої електронного повідомлення, що містить безліч рядків, у якому за ознаками положення очей, зокрема визначення координат положення очей, визначають кількість переглянутих користувачем рядків повідомлення й визначають чи прочитав користувач повідомлення шляхом порівняння кількості рядків, що переглянуті очима, із пороговою кількістю рядків, що базується на множині рядків електронного повідомлення. Крім цього, визначають чи користувач був здивований під час перегляду електронного повідомлення, шляхом порівняння тривалості часу, витраченого оком при перегляді електронного повідомлення, із очікуваною тривалістю часу для відображення наданого електронного повідомлення (05 2016/0094705 А1, 31.03.2016).There is a known method of confirming the reading of an electronic message by the user (using the technology of tracking the position of the eyes during the reading by the user on an electronic device of an electronic message containing many lines, in which the number of lines of the message viewed by the user is determined based on the signs of the position of the eyes, in particular, the determination of the coordinates of the position of the eyes, and whether the user has read the message by comparing the number of lines viewed by the eyes against a threshold number of lines based on the number of lines in the email.In addition, whether the user was surprised while viewing the email is determined by comparing the amount of time the eye spent on the email message, with the expected duration of time for displaying the provided electronic message (05 2016/0094705 A1, 31.03.2016).

Відомі способи включають застосування спеціалізованого обладнання для відстеження руху очей, що не завжди може бути забезпечене поза лабораторними умовами та дослідницькими установами, й особливо у повсякденному житті. При дослідженні рухів очей навіть із залученням спеціально прилаштованої для цього апаратури існує питання вибору даних для подальшої обробки та інтерпретації. Наприклад, у випадку прихованої уваги, що спостерігається на записах руху очей, коли слід погляду та точки фіксації проходять повз реальний об'єкт уваги лише із незначним часом фіксації, виникають труднощі у встановленні однозначного зв'язку між результатами дослідження руху очей та когнітивним процесом конкретного суб'єкта.Known methods include the use of specialized equipment to track eye movements, which cannot always be provided outside of laboratory settings and research facilities, and especially in everyday life. When studying eye movements, even with the involvement of specially adapted equipment, there is a question of data selection for further processing and interpretation. For example, in the case of covert attention observed in eye movement recordings, when the gaze trace and fixation points pass by the real object of attention with only a small fixation time, there are difficulties in establishing an unambiguous relationship between the results of eye movement research and the cognitive process of a specific subject

Хоча відомі різноманітні системи стеження за очима та їх застосування, однак все ще бо існують певні проблеми, з якими люди стикаються під час читання, і кожен вирішує ці проблеми унікальним способом: перечитування складних частин тексту, пошук невідомих слів, записування деталей для запам'ятовування тощо. Автоматизація цих процесів із залученням загальнодоступного та загально використовуваного обладнання, наприклад, щоб відстежувати людське читання, оцінювати швидкість, розрізняти рухи очей та поведінкові реакції при читанні від інших видів діяльності, коментувати фрагменти тексту, що важко читаються або зміст яких не був розпізнаний і т.і., це функції, які можуть бути надзвичайно корисними для людей, яким доводиться опрацьовувати величезні обсяги тексту щодня.Although various eye tracking systems and their applications are known, there are still certain problems that people face when reading, and everyone solves these problems in a unique way: rereading complex parts of the text, looking for unknown words, writing down details to remember etc. Automating these processes with the involvement of publicly available and commonly used equipment, for example, to monitor human reading, assess speed, distinguish eye movements and behavioral responses during reading from other activities, comment on fragments of text that are difficult to read or whose content was not recognized, etc. and., are functions that can be extremely useful for people who have to process huge amounts of text every day.

На даний час відсутні рішення для стандартизованої перевірки та підтвердження процесу обробки візуальної інформації а зокрема читання, із високою точністю на основі не спеціалізованих апаратних засобів, а будь-яких відеопристроїв або веб-камер із залученням принципу відстеження рухів очей.Currently, there are no solutions for standardized verification and confirmation of the process of processing visual information, and in particular reading, with high accuracy based not on specialized hardware, but on any video devices or web cameras involving the principle of tracking eye movements.

Проблема, яка вирішена у межах даної корисної моделі, лежить у сферах, де прийняття рішень суттєво залежить від того, чи справді суб'єкт (людина) ознайомився із представленою інформацією, зокрема прочитав певний документ. Представлена корисна модель дозволяє застосовувати його у таких галузях як освіта, юридично-правова практика, державні сектори тощо.The problem, which is solved within this useful model, lies in areas where decision-making significantly depends on whether the subject (person) has actually familiarized himself with the presented information, in particular, read a certain document. The presented useful model allows its application in such fields as education, legal practice, public sectors, etc.

Метою цієї корисної моделі було надання можливості автоматизованого способу верифікації ознайомлення суб'єкта із електронним документом, та оцінки обсягу розпізнавання суб'єктом інформації та обсягу читання із високою точністю при перегляді мультимедійної інформації на різноманітних пристроях, як наприклад персональний комп'ютер або ноутбук, планшет, смартфон, віртуальний екран або будь-який інший відповідний пристрій або засіб відображення.The purpose of this useful model was to provide an automated way to verify the subject's familiarity with an electronic document, and to estimate the extent of the subject's recognition of information and the extent of reading with high accuracy when viewing multimedia information on various devices, such as a personal computer or laptop, tablet , smartphone, virtual screen or any other suitable display device or medium.

Корисна модель дозволяє у режимі реального часу проводити перевірку ознайомлення суб'єкта із представленою інформацією, визначати її обсяг, визначати розпізнавання суб'єктом текстових ділянок, таблиць, зображень та іншого при наданні мультимедійної інформації, та обсягу інформації, зміст якої був розпізнаний суб'єктом, зокрема перевіряти читання текстових частин у представленій мультимедійній інформації або читання будь-якого електронного документа.The useful model allows in real time to check the subject's familiarization with the presented information, to determine its scope, to determine the subject's recognition of text sections, tables, images and other when providing multimedia information, and the amount of information, the content of which was recognized by the subject , in particular, check the reading of text parts in the presented multimedia information or the reading of any electronic document.

В основу корисної моделі поставлено задачу забезпечити автоматизований спосіб верифікації ознайомлення суб'єкта із електронним документом із високою точністю обсягуThe useful model is based on the task of providing an automated way of verifying the subject's familiarization with an electronic document with high volume accuracy

Зо розпізнавання інформації суб'єктом при наданні мультимедійної інформації, зокрема обсягу придатної до читання інформації, ще краще визначення обсягу прочитаної інформації, за допомогою широко розповсюджених електронних пристроїв, придатних для відображення мультимедійної інформації, відеофіксації, обробки, зберігання та передачі даних, а також забезпечити автоматизований спосіб підписання електронних документів при встановленні, що саме верифікований суб'єкт прочитав визначений обсяг визначеного документу.From the recognition of information by the subject when providing multimedia information, in particular the amount of readable information, it is even better to determine the amount of read information, using widely distributed electronic devices suitable for displaying multimedia information, video recording, processing, storage and transmission of data, as well as to ensure an automated method of signing electronic documents upon establishing that the verified subject has read the specified volume of the specified document.

В першому аспекті корисна модель стосується автоматизованого способу верифікації ознайомлення суб'єкта із електронним документом, який включає попереднє встановлення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа, що достатній для формування сертифікату підписання електронного документа верифікованим суб'єктом, верифікацію особи суб'єкта на підставі попередньо введених у апаратно-програмний комплекс (АПК) візуальних даних про суб'єкта на початку сеансу надання суб'єкту електронного документа та протягом кожного наступного сеансу надання того ж самого документа тому ж самому суб'єкту, визначення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа верифікованим суб'єктом при наданні електронного документа за всіма сеансами надання одного й того ж документа за допомогою технології стеження за очима на АПК й із застосуванням штучної нейронної мережі, й у разі, якщо суб'єкт підтверджує завершення сеансу/сеансів ознайомлення із документом та погоджує підписання й якщо визначений обсяг розпізнаної верифікованим суб'єктом інформації, зокрема обсяг прочитаного документа, дорівнює або більший за попередньо встановлений обсяг формують сертифікат підписання документа.In the first aspect, the useful model refers to an automated method of verifying the subject's familiarization with an electronic document, which includes preliminary establishment of the scope of information recognition, in particular the scope of the read document, which is sufficient for the formation of a certificate of signing of the electronic document by the verified subject, verification of the subject's identity based on visual data about the subject previously entered into the hardware and software complex (APK) at the beginning of the session of providing the subject with an electronic document and during each subsequent session of providing the same document to the same subject, determining the amount of information recognition, in particular, the amount of information read of the document by a verified subject when providing an electronic document for all sessions of providing the same document using eye tracking technology on the APC and using an artificial neural network, and in the event that the subject confirms the completion of the session/sessions of familiarization with the document and agrees signing, and if the specified volume of information recognized by the verified subject, in particular the volume of the read document, is equal to or greater than the pre-set volume, a document signing certificate is formed.

Визначення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа верифікованим суб'єктом у способі підписання електронного документа може бути здійснене за допомогою автоматизованого способу визначення обсягу розпізнавання інформації, при цьому спосіб здійснюють за допомогою системи, що включає: - апаратно-програмний комплекс користувача (АПК-К), у якому поєднані або інтегровані відеопристрій, модуль відображення мультимедійної інформації, модуль прийому та передачі даних, модуль запису з відеопристрою даних відеопотоку, модуль збереження даних, модуль обробки даних, та - віддалений апаратно-програмний комплекс взаємодії із користувачем (АПК-ВК), у якому бо поєднані або інтегровані модуль відображення мультимедійної інформації, модуль прийому та передачі даних, модуль збереження даних, модуль верифікації суб'єкта-користувача, модуль обробки даних, що придатний для роботи та навчання штучної нейронної мережі, а спосіб включає наступні етапи: - у АПК-К проводять калібрування з врахуванням індивідуальних анатомічних параметрів очей при наданні суб'єкту рухливих візуальних стимулів та завдання на стеження; - завантажують мультимедійну інформацію на віддалений АПК-ВК, класифікують фрагменти на структурні елементи за ознаками - текст, зображення, таблиця та інше, передають класифіковану інформацію з віддаленого АПК-ВК до АПК-К та пред'являють її користувачу; - за даними відеопотоку з відеопристрою на АПК-К записують дані руху очей та/або погляду та з врахуванням поведінкових реакцій у вигляді щонайменше мигання очей та/або рухів голови, та/або змін координат попередньо маркованих точок на обличчі, визначають окремі точки погляду у кожний момент часу у координатах площини модулю відображення мультимедійної інформації АПК-К під час надання інформації, та передають отриману інформацію на віддалений АПК-ВК у якому: - встановлюють відповідність між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації, - їз застосуванням штучної нейронної мережі формують дані множини поглядів та встановлюють вірогідність відношення кожного окремого погляду суб'єкта до читання; - агрегують данні множини поглядів у координатну систему класифікованих структурних елементів наданої мультимедійної інформації; - розраховують за кількістю у кожному структурному елементі щільність всіх поглядів й щільність поглядів визначених як читання, та встановлюють відповідні порогові значення для розрахованих щільностей, що відмежовують статистичний шум; - розраховують відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, й встановлюють обсяг розпізнаної інформації суб'єктом, за яким визначають інформацію як прочитану.Determining the scope of information recognition, in particular the scope of the read document by a verified subject in the method of signing an electronic document, can be carried out using an automated method of determining the scope of information recognition, while the method is carried out using a system that includes: - user hardware and software complex (APK- K), in which a video device, a multimedia information display module, a data reception and transmission module, a recording module with a video device of video stream data, a data storage module, a data processing module are combined or integrated, and - a remote hardware and software complex of interaction with the user (APK-VK ), in which a multimedia information display module, a data reception and transmission module, a data storage module, a user subject verification module, a data processing module suitable for the operation and training of an artificial neural network are combined or integrated, and the method includes the following steps : - calibration is carried out at the APC-K taking into account the individual anatomical parameters of the eyes when providing the subject with moving visual stimuli and tracking tasks; - download multimedia information to the remote APC-VK, classify fragments into structural elements according to features - text, image, table, etc., transfer the classified information from the remote APC-VK to the APC-K and present it to the user; - according to the data of the video stream from the video device on the APC-K, they record eye movement and/or gaze data and, taking into account behavioral reactions in the form of at least eye blinking and/or head movements, and/or changes in the coordinates of pre-marked points on the face, determine individual gaze points in each moment of time in the coordinates of the plane of the multimedia information display module of the APC-K during the provision of information, and transmit the received information to the remote APC-VK in which: - establish the correspondence between individual points of view and the fragment of multimedia information provided at this time, - with the use of artificial the neural network forms data from a set of views and establishes the probability of the relation of each individual view of the subject to reading; - aggregate these sets of views into a coordinate system of classified structural elements of the provided multimedia information; - calculate by the number in each structural element the density of all views and the density of views defined as reading, and set appropriate threshold values for the calculated densities that delimit statistical noise; - calculate the ratio of the overlapping area of the area, where the data density of all views and the data density of views defined as reading exceeds the threshold values, to the total area of all structural elements defined in the provided multimedia information, and establish the amount of recognized information by the subject, by which it is determined information as read.

У ще одному аспекті корисної моделі у способі підписання електронного документаIn another aspect, the model is useful in the way of signing an electronic document

Зо визначення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа верифікованим суб'єктом, здійснюють за допомогою автоматизованої системи визначення обсягу розпізнавання інформації, яка включає: а) апаратно-програмний комплекс (АПК) користувача (АПК-К), у якому поєднані або у який інтегровані: ї) пристрій відеофіксації, ії) модуль відображення мультимедійної інформації, ії) модуль прийому та передачі даних, що придатний для прийому та передачі отриманої інформації на віддалений АПК взаємодії із користувачем (АПК-ВК), їм) модуль запису з пристрою відеофіксації даних відеопотоку, що стосуються руху очей та/або погляду, та поведінкових реакцій у вигляді щонайменше мигання очей та/або рухів голови, та/або змін координат попередньо маркованих точок на обличчі, м) модуль збереження даних, мі) модуль обробки даних, що включає: - блок обробки даних відеопотоку з пристрою відеофіксації АПК-К, - блок калібрування параметрів очей при наданні мультимедійної інформації, - блок визначення окремих точок погляду у кожний момент часу у координатах площини модулю відображення мультимедійної інформації під час надання інформації, та б) віддалений АПК взаємодії із користувачем (АПК-ВК), у якому поєднані або у який інтегровані: ї) модуль відображення мультимедійної інформації, і) модуль прийому та передачі даних, що придатний для прийому та передачі отриманої й обробленої інформації на АПК-К, ії) модуль збереження даних, їм) модуль верифікації особи суб'єкта-користувача, м) модуль обробки даних, що придатний для роботи та навчання штучної нейронної мережі, що включає: - блок роботи та навчання штучної нейронної мережі, - блок класифікації фрагментів мультимедійної інформації на структурні елементи за 60 ознаками тексту, зображення, таблиці та інше,To determine the amount of information recognition, in particular, the amount of a document read by a verified subject, is carried out using an automated system to determine the amount of information recognition, which includes: a) the hardware and software complex (APK) of the user (APK-K), which is connected or to which integrated: i) a video recording device, i) a multimedia information display module, i) a data reception and transmission module, suitable for receiving and transmitting the received information to a remote user interface (APK-VK), i) a recording module from a data video recording device video stream related to eye movement and/or gaze, and behavioral reactions in the form of at least eye blinking and/or head movements, and/or changes in the coordinates of pre-marked points on the face, m) data storage module, mi) data processing module, including : - video stream data processing unit from the video recording device APK-K, - eye parameter calibration unit when providing multimedia information, - you unit the value of individual points of view at each moment of time in the coordinates of the plane of the multimedia information display module during the provision of information, and b) a remote user interface (APK-VK), in which the following are connected or integrated: i) a multimedia information display module, and ) data reception and transmission module suitable for reception and transmission of received and processed information on the APC-K, i) data storage module, i) user subject identity verification module, m) data processing module suitable for work and training of an artificial neural network, which includes: - a block of work and training of an artificial neural network, - a block of classification of fragments of multimedia information into structural elements according to 60 features of text, images, tables and others,

- блок обробки даних відеопотоку з пристрою відеофіксації АПК-К, - блок встановлення відповідності між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації; - блок встановлення вірогідності відношення кожного окремого погляду суб'єкта до читання, - блок формування даних множини поглядів та агрегування даних множини поглядів у координатну систему класифікованих структурних елементів наданої мультимедійної інформації, - блок розрахунку за кількістю у кожному структурному елементі щільності даних всіх поглядів й щільності даних поглядів визначених як читання, та встановлення відповідних порогових значень для розрахованих щільностей, що відмежовують статистичний шум, - блок розрахунку відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, - блок встановлення обсягу розпізнаної суб'єктом інформації, - блок встановлення обсягу прочитаної суб'єктом текстової інформації - блок надання статистичної інформації та формування звітів.- a unit for processing video stream data from the video recording device of the APK-K, - a unit for establishing correspondence between individual points of view and the currently provided fragment of multimedia information; - a block for establishing the probability of the relation of each individual view of the subject to reading, - a block for forming data of a set of views and aggregating data of a set of views into a coordinate system of classified structural elements of the provided multimedia information, - a block for calculating the number of data density of all views and density in each structural element data views defined as reading, and setting appropriate threshold values for the calculated densities delimiting statistical noise - a unit for calculating the ratio of the overlap area of the region where the data density of all views and the data density of views defined as reading exceeds the threshold values to the total area of all structural elements defined in the provided multimedia information, - a block for setting the volume of information recognized by the subject, - a block for setting the volume of textual information read by the subject - a block for providing statistical information and generating reports.

Перелік фігурList of figures

Фіг. 1 - Автоматизована система визначення обсягу розпізнавання інформації, де (1) АПК-К, (10) пристрій відеофіксації, (20) модуль відображення мультимедійної інформації, (30) модуль прийому та передачі даних, (50) модуль запису з пристрою відеофіксації даних відеопотоку, (40) модуль збереження даних, (70) модуль обробки даних, (80) блок обробки даних відеопотоку з пристрою відеофіксації АПК-К, (90) блок калібрування параметрів очей, (100) блок визначення окремих точок погляду у кожний момент часу у координатах площини модулю відображення мультимедійної інформації; (2) АПК-ВК, (21) модуль відображення мультимедійної інформації, (31) модуль прийому та передачі даних, (41) модуль збереження даних, (61) модуль верифікації особи суб'єкта-користувача, (71) модуль обробки даних, придатний для роботи та навчання штучної нейронної мережі, (81) блок роботи та навчання штучної нейронної мережі, (91) блок класифікації фрагментів мультимедійної інформації на структурні елементи, (101) блок обробки даних відеопотоку з пристрою відеофіксації АПК-К,Fig. 1 - Automated system for determining the amount of information recognition, where (1) APC-K, (10) a video recording device, (20) a multimedia information display module, (30) a data reception and transmission module, (50) a recording module from a video recording device of video stream data ) coordinates of the plane of the multimedia information display module; (2) APC-VC, (21) multimedia information display module, (31) data reception and transmission module, (41) data storage module, (61) user subject identity verification module, (71) data processing module, suitable for operation and training of an artificial neural network, (81) unit for operation and training of an artificial neural network, (91) unit for classification of multimedia information fragments into structural elements, (101) unit for processing video stream data from the video recording device APK-K,

Зо (111) блок встановлення відповідності між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації, (121) блок встановлення вірогідності відношення кожного окремого погляду суб'єкта до читання, (131) блок формування даних множини поглядів та агрегування даних множини поглядів у координатну систему класифікованих структурних елементів наданої мультимедійної інформації, (141) блок розрахунку за кількістю у кожному структурному елементі щільності даних всіх поглядів й щільності даних поглядів визначених як читання, та встановлення відповідних порогових значень для розрахованих щільностей, (151) блок розрахунку відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, (161) блок встановлення обсягу розпізнаної суб'єктом інформації, (171) блок встановлення обсягу прочитаної суб'єктом текстової інформації, (181) блок надання статистичної інформації та формування звітів.From (111) a block for establishing the correspondence between individual points of view and a fragment of multimedia information provided at this time, (121) a block for establishing the probability of the relationship of each individual view of the subject to reading, (131) a block for forming the data of a set of views and aggregating the data of a set of views in the coordinate system of the classified structural elements of the provided multimedia information, (141) the block for calculating the data density of all views and the data density of the views defined as reading by the amount in each structural element, and setting the corresponding threshold values for the calculated densities, (151) the block for calculating the ratio of the overlapping area of the area , where the data density of all views and the data density of views defined as reading exceeds the threshold values, to the total area of all structural elements defined in the provided multimedia information, (161) unit for setting the volume of information recognized by the subject, (171) unit for setting the volume read sub' object of textual information, (181) block of providing statistical information and generating reports.

Фіг. 2 - Показники у часових серіях.Fig. 2 - Indicators in time series.

Фіг. З - Фільтрування за допомогою ВРОСУ, ЕРОСМУ.Fig. C - Filtering using VROSU, EROSMU.

Фіг. 4 - Фільтрування тільки рухів погляду на екрані.Fig. 4 - Filtering only eye movements on the screen.

Фіг. 5 - Згорткова нейронна мережа, архітектура з 113,006 навчальними параметрами.Fig. 5 - Convolutional Neural Network architecture with 113,006 training parameters.

Фіг. 6 - Класифікація кожної групи фіксацій (спостереження, згруповані за ЕРОСІВ).Fig. 6 - Classification of each group of fixations (observations grouped by EROSIV).

Наявні способи та системи стеження за рухом очей для різноманітних цілей передбачають застосування спеціалізованих відеопристроїв - айтрекерів. Як правило, увага концентрується на визначенні точних координатних положень найменших структурних елементів тексту, зокрема слова, ще краще літери, та на відстеженні траєкторій та основних патернів руху. Існують певні обмеження застосування айтрекерів залежно від методу, на якому базується система, зокрема темної зіниці або світлої зіниці, та суттєвого впливу на отримані дані певних поведінкових реакцій.Available methods and systems for tracking eye movements for various purposes involve the use of specialized video devices - eyetrackers. As a rule, attention is focused on determining the exact coordinate positions of the smallest structural elements of the text, in particular words, even better letters, and on tracking trajectories and basic movement patterns. There are certain limitations to the use of eyetrackers depending on the method on which the system is based, in particular dark pupil or light pupil, and the significant influence on the obtained data of certain behavioral reactions.

Відомі методи не пропонують способів дистанційної обробки даних стеження за рухом очей отриманих від неспеціалізованих для відстеження руху очей пристроїв, зокрема, за допомогою стандартної веб-камери, що можуть бути визначені наприклад як веб-трекінг, або будь-якого відеопристрою, що приєднаний або інтегрований у будь-який електронний пристрій персонального використання, що придатний для отримання, обробки, передачі та,The known methods do not offer methods for remote processing of eye tracking data obtained from non-specialized eye tracking devices, in particular, using a standard web camera, which can be defined for example as web tracking, or any video device attached or integrated to any personal electronic device suitable for receiving, processing, transmitting and,

необов'язково збереження даних, де такий спосіб має високу точність визначення та легкодоступну користувачу.it is not necessary to save data, where this method has a high accuracy of determination and is easily accessible to the user.

Для цілей визначення обсягу розпізнаної та/або прочитаної інформації суб'єктом без залучення спеціалізованого обладнання у цій корисній моделі пропонується поєднати автоматизовану систему налаштованих на виконання певних функцій програмно-апаратних засобів, застосування штучної нейронної мережі (за допомогою навчання якої на первинному етапі створено шаблонні моделі визначення щільності погляду у визначених структурних елементах мультимедійної інформації, зокрема електронного документу, що у подальшому дозволило досягти 96 95 точності у визначенні обсягу розпізнавання наданої мультимедійної інформації та визначенні обсягу прочитаної інформації), та певної послідовності їх застосування, що разом надало інструмент для верифікації ознайомлення суб'єкта із електронним документом.For the purposes of determining the amount of information recognized and/or read by the subject without the involvement of specialized equipment, this useful model proposes to combine an automated system of hardware and software configured to perform certain functions, the use of an artificial neural network (using the training of which template models were created at the initial stage determining the density of gaze in certain structural elements of multimedia information, in particular an electronic document, which later allowed to achieve 96 95 accuracy in determining the amount of recognition of the provided multimedia information and determining the amount of read information), and a certain sequence of their application, which together provided a tool for verifying the familiarization of sub object with an electronic document.

Крім цього, у процесі ознайомлення із електронним документом суб'єкт має можливість відстежувати і зберігати всі матеріали для читання і пов'язані з ними метадані зчитування, здійснювати пошук і фільтрацію вмісту шляхом зчитування параметрів шаблону (наприклад, час і швидкість фіксації дозволяють виділити окремо область інтересу всередині тексту); отримувати після обробки різні аналітичні анотації, отримувати опції допомоги в режимі реального часу під час ознайомлення із вмістом мультимедійної інформації, зокрема читання (наприклад, автоматизований переклад). Система автоматично відстежує рух очей та співставляє їх з інформацією, наприклад текстом на екрані, що дозволяє обробляти шаблони зчитування в реальному часі і зберігати всі метадані для подальшого аналізу.In addition, in the process of familiarization with an electronic document, the subject has the opportunity to track and store all reading materials and associated reading metadata, to search and filter the content by reading template parameters (for example, the time and speed of fixation allow to single out an area of interest within the text); receive various analytical annotations after processing, receive real-time help options when familiarizing with the content of multimedia information, including reading (for example, automated translation). The system automatically tracks eye movements and matches them with information, such as text on the screen, allowing it to process reading patterns in real time and store all metadata for later analysis.

Для вирішення проблеми перевірки читання за допомогою комп'ютерних технологій у заявленій корисній моделі потрібно було перетворити звичайний стандартний відеопристрій, зокрема веб-камеру на пристрій відстеження очей. Для цих потреб було застосовано машинне навчання для побудови системи відстеження погляду очей та розпізнавання специфічних рухів очей під час читання, що разом із введенням нових елементів та вдосконалення відомих, а також за рахунок нових зав'язків та визначеної послідовності дій дозволило ефективно вирішити проблему перевірки читання.To solve the problem of computer-aided reading verification in the claimed utility model, it was necessary to convert a common off-the-shelf video device, in particular a web camera, into an eye tracking device. For these needs, machine learning was applied to build a system for eye gaze tracking and recognition of specific eye movements during reading, which, together with the introduction of new elements and improvement of known ones, as well as due to new connections and a defined sequence of actions, made it possible to effectively solve the problem of reading verification .

Здійснення корисної моделі включає застосування звичайних відеопристроїв, зокремаImplementation of a useful model includes the use of conventional video devices, in particular

Зо підключених, вбудованих або інтегрованих у будь-які електронні пристрої, наприклад планшет, смартфон, ноутбук, персональний комп'ютер або інший відповідний, що вимагає створення пристосованого апаратно-програмного комплексу (АПК), де важливим також є вибір даних для відеофіксації, способу відеофіксації, спосіб їх обробки, передачі та вибір критеріїв для інтерпретації.From connected, built-in or integrated into any electronic devices, for example, a tablet, smartphone, laptop, personal computer or other suitable, which requires the creation of an adapted hardware and software complex (APC), where the selection of data for video recording is also important, the method video recording, the method of their processing, transmission and selection of criteria for interpretation.

На початку була проведена робота щодо аналізу візуальної активності суб'єкта, де за даними погляду класифікували читання/нечитання, виявляли регресії, міжрядкові переходи (5меєр5) та саккади, картували множину окремих поглядів на структурних елементах мультимедійної інформації/документа. Як придатний засіб для цього було використано програму (зокрема як описано, Вопота; В. Спаиб5 М., МеіІпуспик У. Маспіпе І єатіпдAt the beginning, work was carried out on the analysis of the subject's visual activity, where reading/non-reading was classified according to the gaze, regressions, interline transitions (5meyer5) and saccades were detected, and a set of individual gazes was mapped on structural elements of multimedia information/document. As a suitable tool for this, the program was used (in particular, as described, Vopota; V. Spaib5 M., MeiIpuspik U. Maspipe I eatipd

Тесппіднез іп Веадіпу ТгасКіпд. Меєї усиг (ІЗТОВМІ ООК)І / АВ. Вопйота?, М. Снацв, У. МеІпусник. -Tesppidnez ip Veadipu TgasKipd. Meei usyg (IZTOVMI OOK)I / AV. Vopyota?, M. Snatsv, U. MeIpusnyk. -

Веепімеогї Асадету апа АвОіаре рапйпегей ом/йй ОайаНКоої їар5. - Осі 19, 2018 порз//теаіййт.сот/ФВеепімеогагоМир/таспіпе-Ієагтіпд-Іесппідпез-іп-геадіпа-ігасКіпд-тееї-уоиг- аіогуісок-бас7ббавазЗа), для створення якої застосували переважно бібліотеки з відкритим кодом.Veepimeogyi Asadetu apa AvOiare rapypegei om/yy OayaNKooi iar5. - Osi 19, 2018 porz//teaiiyt.sot/FVeepimeogagoMir/taspipe-Ieagtipd-Iespppidpez-ip-geadipa-igasKipd-teei-uoig-aioguisok-bas7bbavazZa), for the creation of which mostly open source libraries were used.

Відомості всіх патентів, опублікованих заявок та посилань, цитованих у цьому описі, включені як посилання що охоплюють всю їх повноту.The details of all patents, published applications and references cited in this specification are incorporated by reference in their entirety.

Збір данихData collection

При зборі даних для відстеження людської діяльності використовували трекер, наприкладWhen collecting data to track human activity, a tracker was used, for example

СаеРоїіпі еує, що дозволило отримати координати погляду з кутом похибки не більше 1-1,5 градусів після калібрування. Під час кожного сеансу програма СаеРоїпі Апаїузів записує відео та зображення на екрані разом з табличними даними про рух погляду.SaeRoiipi eu, which made it possible to obtain gaze coordinates with an error angle of no more than 1-1.5 degrees after calibration. During each session, the SaeRoipi Appaiuziv program records video and on-screen images along with eye movement tabular data.

Весь набір даних складався з 2 частин: 51 часової серії читання та 85 - "нечитання". Кожен учасник дослідження повинний був виконати наступні дії: читати 2-хвилинний текст; знайти конкретну інформацію та речі на зображеннях, дивитися 3-хвилинне відео.The entire data set consisted of 2 parts: 51 reading time series and 85 "non-reading" time series. Each research participant had to perform the following actions: read a 2-minute text; find specific information and things in the pictures, watch a 3-minute video.

Отримані часові серії складаються з декількох стовпців (Фіг. 2): - ЕРОСХ, ЕРОУ - координати екрана, відносно роздільної здатності екрана, алгоритм А - ВРОСХ, ВРОСХУ - координати екрана, відносно роздільної здатності екрана, алгоритм В - ЕРОСІбВ - ідентифікатор фіксації - ФПОГД - тривалість фіксації очей бо - БПОГВ, ФПОГВ - обгрунтованість інформаціїThe obtained time series consists of several columns (Fig. 2): - ЕROSХ, ЕРОУ - screen coordinates, relative to the screen resolution, algorithm A - ВROSХ, VROSХ - screen coordinates, relative to the screen resolution, algorithm B - ЕРОСИбВ - fixation identifier - FPOGD - the duration of fixation of the eyes because - BPOGV, FPOGV - the validity of the information

- ВКІО - ідентифікатор блимання- VKIO - flashing identifier

Попередня обробка даних і вибір функційData preprocessing and feature selection

У ході нашого дослідження ми виявили, що відстежені координати не можуть бути ідеальними. Мигання, переміщення голови, змінне освітлення - всі ці чинники переривають або псують потік даних. Отже було зроблено додаткові кроки, що могли полегшити ситуацію, було прийнято згладжування руху погляду як основний варіант, хоча значення цього підходу має межі. Згладжування виключає одну важливу особливість - мікросакади. Саккади є швидким, одночасним рухом обох очей між двома точками кріплення. Мікросаккади - це рух в межах однієї фіксації, що дає відповідь на те, як користувачі фіксують свій погляд. Хоча згладжування не є ідеальним вибором, коли мова йде про саккади, воно допомагає апроксимувати виявлення слів.In the course of our research, we discovered that the tracked coordinates may not be perfect. Blinking, moving the head, changing lighting - all these factors interrupt or spoil the flow of data. Therefore, additional steps were taken that could alleviate the situation, smoothing the movement of the gaze was adopted as the main option, although the value of this approach has limits. Smoothing eliminates one important feature - microsaccades. Saccades are rapid, simultaneous movements of both eyes between two fixation points. Microsaccades are movements within a single fixation that respond to how users fixate their gaze. Although smoothing is not an ideal choice when it comes to saccades, it helps to approximate word detection.

Ось що означало фільтрування для цих дослідницьких цілей (Фіг. 3, 4): - фільтрування за допомогою ВРОСМ, ЕРОСМУ, - фільтрування тільки рухів погляду на екрані.This is what filtering meant for these research purposes (Figs. 3, 4): - filtering using VROSM, EROSMU, - filtering only eye movements on the screen.

Щоб легко маніпулювати набором даних і моделями тренувань/гестів було обрано вікно обробки часової послідовності шириною у 100 значень (що приблизно відповідає середньому часу для читання однієї площині на папері формату А4). Це призвело до розщеплення всіх наборів даних на 24 568 серій читання і 14 288 серій "нечитання" багатьох часових серій з довжиною у 100 значень, з врахуванням 90 95 перекриття.To easily manipulate the data set and the training/gesture models, a time sequence processing window of 100 values width (which roughly corresponds to the average time to read one plane on A4 paper) was chosen. This resulted in splitting all data sets into 24,568 read series and 14,288 "non-read" series of multiple time series with a length of 100 values, allowing for 90 95 overlap.

Класифікація читання/нечитання.Classification of reading/non-reading.

Далі було використано три основні методи класифікації часових рядів. Було створено три групи функцій: виявлення лінійного тренда для ЕРОСХ, сезонність та загальні характеристики, однак вибрані функції виявилися не інформативними та не описували добре дані.Next, three main methods of time series classification were used. Three sets of features were created: linear trend detection for EROSH, seasonality, and general characteristics, but the selected features were not informative and did not describe the data well.

Наступною була застосована згорткова нейронна мережа. Використовувалися функції ах, ау. Після деякого налаштування було знайдено оптимальну архітектуру з 113,006 навчальними параметрами, див. Фіг. 5. Ця модель давала 96 95 точність на підгрупі тестів і згодом була вибрана як базова модель для подальших досліджень.Next, a convolutional neural network was applied. The functions ah, au were used. After some tuning, the optimal architecture was found with 113,006 training parameters, see Fig. 5. This model gave 96 95 accuracy on a subset of tests and was subsequently selected as the baseline model for further research.

Читання моделей кластеризаціїReading clustering models

Головне завдання полягало у класифікуванні кожної групи фіксацій (спостереження, згруповані за ЕРОСІЮ) як одної з трьох основних патернів: саккади, міжрядкові переходи, регресії (Фіг. 6).The main task was to classify each group of fixations (observations grouped by EROSION) as one of three main patterns: saccades, interline transitions, regressions (Fig. 6).

Основна перешкода, що виявилася на даному етапі, була маркування набору даних, оскільки дані з частотою 60 Гц по суті важко маркувати. Це також виявилося проблемою для кластеризації. Деякі з незначних проблем, які були вирішені, це висока подібність між регресіями та міжрядковими переходами, а також фіксаціями під час скролінгу (5сгоїІїпо), які виявилися викидами. Для виключення фіксацій під час скролінгу використали алгоритм класифікації читання.The main obstacle encountered at this stage was the labeling of the data set, as 60 Hz data is inherently difficult to label. This also proved to be a problem for clustering. Some of the minor issues that have been addressed are high similarity between regressions and line transitions, and scrolling freezes (5sgoiIipo) that were outliers. To exclude fixations during scrolling, a reading classification algorithm was used.

Весь набір даних був відфільтрований лише від точок до саккад. Щоб отримати дані саккад, згрупували точки за ідентифікатором фіксацій (ЕРОСІЮ) і відібрали тільки останнє спостереження з кожної групи. В результаті, всі ідентифіковані саккади були розділені на мінімальні/максимальні значення з наївним алгоритмом уздовж горизонтальної осі, а мінімальні саккади були розділені на групи міжрядкових переходів та регресій. Для досягнення необхідних результатів використали кластеризацію із застосуванням методу К-середніх на трьох основних функціях саккад: проекція міжрядкових переходів по горизонтальній осі, кут міжрядкових переходів по горизонтальній осі та відмінність від попередньої саккади.The entire dataset was filtered from spikes to saccades only. To obtain saccade data, points were grouped by fixation identifier (EROSION) and only the last observation from each group was selected. As a result, all identified saccades were divided into minimum/maximum values with a naive algorithm along the horizontal axis, and minimum saccades were divided into groups of interline transitions and regressions. To achieve the necessary results, we used clustering using the K-means method on three main functions of saccades: the projection of interline transitions along the horizontal axis, the angle of interline transitions along the horizontal axis, and the difference from the previous saccade.

Одним з прикладів автоматизованої обробки мультимедійної інформації є створення цілісного текстового документа з відео у наступній послідовності: ідентифікація статичних кадрів на відео (з пороговим відхиленням між знімками), відокремлення листів (текстових фрагментів) з рамки, наступне об'єднаннняаркушів в єдиному "панорамному" зображенні, відокремлення тексту у відображений документ, виявлення точок інтересу.One of the examples of automated processing of multimedia information is the creation of a complete text document from a video in the following sequence: identification of static frames in the video (with a threshold deviation between the shots), separation of sheets (text fragments) from the frame, subsequent merging of sheets into a single "panoramic" image , separating text into a displayed document, identifying points of interest.

У результаті вдалося отримати модель машинного навчання, здатну з точністю до 97 95 прогнозувати, чи читав/не читав користувач текст протягом 1,6 секунд запису.As a result, it was possible to obtain a machine learning model capable of predicting with 97 95 accuracy whether the user has read/not read the text within 1.6 seconds of recording.

Деякі основні висновки дослідження свідчать, що алгоритм, який спирається на передбачення попередньої моделі машинного навчання (МІ), може враховувати рух погляду (регресії, міжрядкові переходи (змеерз) та саккади) і обчислювати відносну швидкість читання; алгоритм, який надає інформацію про цікавість читача, забезпечує ваговий коефіцієнт для даного слова, що може бути важливим для читача.Some of the main findings of the study show that an algorithm based on the predictions of a previous machine learning (ML) model can account for gaze movement (regressions, interline transitions (zmeerz) and saccades) and calculate relative reading speed; an algorithm that provides information about the reader's interest provides a weighting factor for a given word that may be important to the reader.

Вчені, які досліджують таку поведінку людини, як відстеження погляду, можуть виявити раніше заблоковані області в техніці здоров'я і бізнесу. Як обгрунтовано даним алгоритмом, бо можна зробити прогнози в режимі реального часу, засновані на технологіях спостереження за поглядами, і, можливо, вийти за межі цього з більш науковим застосуванням, яке ніхто не вважав можливим раніше.Scientists who study human behavior such as eye tracking can uncover previously blocked areas in health technology and business. As justified by this algorithm, because it is possible to make real-time predictions based on gaze-tracking technologies, and perhaps go beyond this with more scientific applications that no one thought possible before.

Визначення загальних параметрів читання без чіткого відокремлення тієї частини текстової інформація, що дійсно була прочитана, не дозволяє із високою точністю спрогнозувати або встановити обсяг розпізнаного змісту текстової інформації серед всієї мультимедійної або всієї текстової інформації, важкість її засвоєння, відокремлення особливо важливих за змістом фрагментів тощо.Determining the general parameters of reading without clearly separating that part of the text information that was actually read does not allow to predict or establish with high accuracy the amount of recognized content of text information among all multimedia or all text information, the difficulty of its assimilation, separation of particularly important content fragments, etc.

Із залученням описаного вище було створено автоматизовану систему для кращого здійснення визначення обсягу розпізнавання інформації суб'єктом при наданні мультимедійної інформації, зокрема визначення обсягу прочитування суб'єктом структурних елементів мультимедійної інформації або електронного документа, визначеного, як текст. Вибрані параметри для цільового навчання штучної нейронної мережі дозволяють проводити наступне визначення вірогідності відношення кожного окремого погляду суб'єкта до читання. При цьому, за даними просторових та часових характеристик руху очей з врахуванням поведінкових реакцій можливо розподілити ділянки текстових фрагментів мультимедійної інформації на групи "уважне читання", "оглядове або ознайомлювальне читання", "сканувальне читання" та "скролінг" та відокремити для подальшого аналізу ділянки текстових фрагментів, що виділені як "уважне читання" або власне читання.With the involvement of the above, an automated system was created for better implementation of the determination of the scope of information recognition by the subject when providing multimedia information, in particular determination of the scope of reading by the subject of structural elements of multimedia information or an electronic document defined as text. The selected parameters for targeted training of the artificial neural network allow the following determination of the probability of the relation of each individual view of the subject to reading. At the same time, according to the spatial and temporal characteristics of eye movements, taking into account behavioral reactions, it is possible to divide sections of text fragments of multimedia information into groups of "careful reading", "review or familiarization reading", "scanning reading" and "scrolling" and to separate sections for further analysis text fragments highlighted as "careful reading" or own reading.

Автоматизований спосіб визначення обсягу розпізнавання інформації суб'єктом здійснюють наступним чином.The automated method of determining the amount of information recognition by the subject is carried out as follows.

За допомогою блока калібрування очей (90) у АПК-К (1) проводять калібрування параметрів очей з врахуванням індивідуальних анатомічних параметрів очей при наданні суб'єкту рухливих візуальних стимулів та завдання на стеження. Калібрування може проводитись як одноразово так й кілька- або багаторазово за потребою, зокрема із певною періодичністю або перед кожним сеансом надання суб'єкту мультимедійної інформації.Using the eye calibration unit (90) in the APC-K (1), calibration of the eye parameters is carried out taking into account the individual anatomical parameters of the eyes when providing the subject with moving visual stimuli and tracking tasks. Calibration can be carried out both once and several times as needed, in particular with a certain frequency or before each session of providing multimedia information to the subject.

Зв'язок взаємодії суб'єкта із мультимедійною інформацією підтверджують шляхом верифікації особи суб'єкта у модулі (61), що здійснюють перед наданням суб'єкту мультимедійної інформації на підставі візуальних даних про суб'єкта, які вводять у віддаленийThe connection of the subject's interaction with multimedia information is confirmed by verifying the subject's identity in module (61), which is carried out before providing the subject with multimedia information on the basis of visual data about the subject that is entered into the remote

АПК-ВК, одноразово або кілька- або багаторазово, наприклад із певною періодичністю абоAPC-VK, one-time or several- or repeatedly, for example with a certain periodicity or

Зо перед кожним наступним наданням суб'єкту мультимедійної інформації, або після переривання сеансу перегляду на заздалегідь установлений час перед кожним сеансом надання мультимедійної інформації після такого переривання.Before each subsequent provision of multimedia information to the subject, or after interrupting the viewing session for a predetermined time before each session of providing multimedia information after such an interruption.

Ідентифікація/верифікація особи суб'єкта може відбуватися за рахунок внесення даних про суб'єкта у базу даних модулю збереження даних відповідного пристрою заздалегідь або при першому зверненні суб'єкта до АПК-К.О У подальших сеансах звернення суб'єкта до мультимедійної інформації щодо якої передбачено визначення обсягу розпізнавання та/або прочитання у будь-якому визначеному режимі порівнюють параметри суб'єкта із наявними у базі даних протягом всього періоду сеансу або сеансів обробки інформації суб'єктом. При авторизації у системі при першому зверненні для спрощення механізму ідентифікації/верифікації та скорочення часу на ідентифікацію може бути застосована система входу у систему за допомогою наявних акаунтів, зокрема акаунтів соціальних мереж тощо, що включають аудіо- та або фото- та/або відеофіксовані дані суб'єкта, зокрема його зовнішності, наприклад рис обличчя, тощо.Identification/verification of the subject's identity can be done by entering data about the subject into the database of the data storage module of the corresponding device in advance or when the subject first applies to the APC-K.O. In subsequent sessions of the subject's application to multimedia information about which provides for determining the scope of recognition and/or reading in any specified mode, compares the subject's parameters with those available in the database during the entire period of the subject's information processing session or sessions. During authorization in the system at the first application, in order to simplify the identification/verification mechanism and reduce the time for identification, a system of logging into the system using existing accounts, in particular social network accounts, etc., including audio and or photo and/or video recorded data may be applied object, in particular its appearance, such as facial features, etc.

Після калібрування або до нього, або під час калібрування за допомогою модулю прийому та передачі даних, що придатний для прийому та передачі інформації (31) завантажують мультимедійну інформацію на віддалений АПК-ВК (2) та за допомогою блоку класифікації фрагментів (91) класифікують її фрагменти на структурні елементи за ознаками - текст, зображення, таблиця та інше (уся інша інформація, відмінна від тексту, зображень або таблиць).After calibration, or before it, or during calibration, using the data reception and transmission module, suitable for receiving and transmitting information (31), upload multimedia information to the remote APC-VK (2) and classify it using the fragment classification unit (91) fragments into structural elements according to features - text, image, table, etc. (all other information other than text, images, or tables).

Далі передають класифіковану інформацію з віддаленого АПК-ВК (2) на АПК-К (1) та надають її суб'єкту на модулі відображення мультимедійної інформації (20).Next, the classified information is transferred from the remote APC-VC (2) to the APC-K (1) and provided to the subject on the multimedia information display module (20).

Відображення мультимедійної інформації може відбуватися на будь-якому придатному засобі відображення, наприклад екран телевізора, монітор комп'ютера або ноутбука, дисплей смартфона, дисплей планшета тощо.Multimedia information can be displayed on any suitable display medium, such as a TV screen, a computer or laptop monitor, a smartphone display, a tablet display, etc.

За допомогою пристрою відеофіксації (10) відеопотоку, у модулі запису (50) АПК-К (1) записують дані руху очей та/або погляду з врахуванням поведінкових реакцій у вигляді щонайменше мигання очей та/або рухів голови, та/або змін координат попередньо маркованих точок на обличчі, та у блоку обробки даних відеопотоку (80) модуля обробки даних (70) за допомогою блока визначення окремих точок (100) визначають окремі точки погляду у кожний момент часу у координатах площини модулю відображення мультимедійної інформації (20)Using the video recording device (10) of the video stream, the recording module (50) of the APC-K (1) records eye movement and/or gaze data taking into account behavioral reactions in the form of at least eye blinking and/or head movements, and/or changes in coordinates beforehand marked points on the face, and in the data processing unit of the video stream (80) of the data processing module (70) with the help of the individual point determination unit (100), individual points of view are determined at each moment of time in the coordinates of the plane of the multimedia information display module (20)

АПК-К (1) під час надання мультимедійної інформації.APC-K (1) during the provision of multimedia information.

Важливим є те, що як пристрій відеофіксації застосовують будь-який відеопристрій, що виконаний з можливістю прийняття та передачі відеоданих, зокрема веб-камера або відеокамера, що підключена або інтегрована у АПК-К (1), зокрема може бути застосована підключена до персонального електронного пристрою (персональний комп'ютер, телефон, смартфон, планшет або інший) фото та/або відеокамера або наявна, вбудована у зазначений пристрій, або інше.It is important that any video device capable of receiving and transmitting video data is used as a video recording device, in particular a web camera or a video camera connected or integrated into the APC-K (1), in particular it can be used connected to a personal electronic device (personal computer, phone, smartphone, tablet or other) photo and/or video camera or present, built-in to said device, or otherwise.

Отриману інформацію у будь-який відомий спосіб (дротовий або бездротовий) із застосуванням модулів прийому та передачі даних (30) та (31) передають на віддалений АПК-The received information is transmitted in any known way (wired or wireless) with the use of data reception and transmission modules (30) and (31) to the remote APC-

ВК (2) та далі у модуль обробки даних (71).VK (2) and then to the data processing module (71).

Із застосування блока роботи та навчання штучної нейронної мережі (81) та блока встановлення відповідності (111) виявляють відповідність між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації, далі із застосуванням штучної нейронної мережі блоку (81) формують дані множини поглядів та за допомогою блока встановлення вірогідності (121) визначають вірогідність відношення кожного окремого погляду суб'єкта до читання.With the use of the work and learning unit of the artificial neural network (81) and the matching unit (111), the correspondence between the individual points of view and the currently provided piece of multimedia information is detected, then with the use of the artificial neural network of the unit (81) the data sets of views are formed and with the help of the probability setting block (121), the probability of the relationship of each individual view of the subject to reading is determined.

Зазначені дані множини поглядів агрегують у координатну систему класифікованих структурних елементів наданої мультимедійної інформації у блоку формування та агрегування множини даних погляду (131).The specified data of the set of views are aggregated into the coordinate system of the classified structural elements of the provided multimedia information in the block of formation and aggregation of the set of view data (131).

Далі у модулі обробки даних (71) розраховують у блоку розрахунку (151) за кількістю у кожному структурному елементі щільність даних всіх поглядів й щільність даних поглядів визначених як читання, та встановлюють відповідні порогові значення для розрахованих щільностей, що відмежовують статистичний шум.Further, in the data processing module (71), the data density of all views and the data density of views defined as reading are calculated in the calculation unit (151) according to the number in each structural element, and appropriate threshold values are set for the calculated densities that delimit statistical noise.

Додатково у модулі обробки даних (71), необов'язково у окремому блоці, що пов'язаний із блоками (81)-(181), визначають кількість переходів від визначеного тексту до супутніх матеріалів, зокрема таблиць та/або зображень та час, що витрачається на такі переходи, що враховують при визначенні поведінкових реакцій при читанні та "не читанні".Additionally, in the data processing module (71), optionally in a separate block associated with blocks (81)-(181), determine the number of transitions from the specified text to accompanying materials, in particular tables and/or images, and the time that is spent on such transitions that are taken into account when determining behavioral reactions when reading and "not reading".

Потім у блоці розрахунку відношення площі перекриття області (151) визначають відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, й встановлюють обсяг розпізнаної інформації суб'єктом за допомогою блока (161) встановлення обсягу розпізнаної суб'єктом інформації, після чого за допомогою блока (171) встановлення обсягу прочитаної суб'єктом текстової інформації визначають прочитану інформацію.Then, in the area overlap area ratio calculation block (151), the ratio of the overlap area of the area where the data density of all views and the data density of views defined as reading exceeds the threshold values to the total area of all structural elements defined in the provided multimedia information is determined, and set the amount of information recognized by the subject using block (161) of setting the amount of information recognized by the subject, after which the read information is determined using block (171) of setting the amount of text information read by the subject.

Мультимедійна інформація, яка підлягає обробці суб'єктом, являє собою будь який вид інформації, що придатний для відображення на різноманітних пристроях, й може містити текст або його фрагменти (зокрема наприклад написи, числа), таблиці, зображення, текстові фрагменти без зображень та/або таблиць або із зображеннями та/або таблицями у відомих форматах представлення електронних документів, наприклад являє собою електронний документ, електронну книгу (наприклад, виробничий документ, навчальний матеріал, електронний тестувальний матеріал, розважальний матеріал тощо) та/або відеоінформацію, що містить текстові фрагменти та/або зображення та/або таблиці. Після обробки у блоку (91) завантаженої у АПК-ВК мультимедійної інформації проводять її класифікацію шляхом відділення від всього обсягу контенту фрагментів, що містять ознаки тексту, що являють собою текстові фрагменти, таблиці (із текстовими елементами та числами) та зображення, зокрема, що пов'язані із текстовими та/або табличними фрагментами.Multimedia information to be processed by the subject is any type of information suitable for display on various devices and may contain text or its fragments (in particular, for example, inscriptions, numbers), tables, images, text fragments without images and/ or tables or with images and/or tables in known electronic document presentation formats, for example, is an electronic document, an electronic book (for example, a production document, educational material, electronic testing material, entertainment material, etc.) and/or video information containing text fragments and/or images and/or tables. After processing in block (91), the multimedia information loaded in the APK-VK is classified by separating from the entire volume of content fragments containing text features, which are text fragments, tables (with text elements and numbers) and images, in particular, that associated with text and/or tabular fragments.

Суб'єкту мультимедійна інформація надається у звичайному форматі, але попередня класифікація дозволяє сконцентруватися на поведінкових реакціях та рухах очей у взаємозв'язку із цільовими частинами мультимедійної інформації.Multimedia information is presented to the subject in a conventional format, but preliminary classification allows to focus on behavioral responses and eye movements in relation to target parts of multimedia information.

Віддалений АПК-ВК також забезпечує можливість представлення результатів обробки даних стосовно обсягу розпізнавання та/або прочитання мультимедійної інформації на пристрої відображення (20) користувача у різноманітний спосіб. Обсяг та вид надання цих даних можуть визначатися оператором віддаленого АПК-ВК та/або володільцем цієї мультимедійної інформації та/або користувачем або іншим чином.The remote APC-VC also provides the ability to present the results of data processing regarding the amount of recognition and/or reading of multimedia information on the user's display device (20) in a variety of ways. The scope and type of provision of this data may be determined by the operator of the remote APC-VC and/or the owner of this multimedia information and/or the user or otherwise.

Зокрема, у блоку надання статистичної інформації (181) формують дані щодо поведінки суб'єкта під час читання, зокрема об'єму прочитаної інформації, швидкості читання, складності сприйняття інформації, дані щодо різних аспектів руху очей, та у подальшому на підставі цих даних формують звіт, зокрема сертифікат перевірки читання, зокрема як електронний документ,In particular, in the block for providing statistical information (181), data on the behavior of the subject during reading is generated, in particular, the volume of information read, reading speed, the complexity of information perception, data on various aspects of eye movement, and further, on the basis of this data, the data is generated a report, in particular a proof of reading certificate, in particular as an electronic document,

по завершенню кожного сеансу або серії сеансів надання мультимедійної інформації або її фрагмента.at the end of each session or series of sessions of providing multimedia information or its fragment.

Зокрема, на модулі відображення мультимедійної інформації (20) та/або (21) надають сформований звіт та/або карту у будь-якій візуально прийнятній формі, та/або діаграму, та/або графік або інше, щільності поглядів та/або щільності даних поглядів, визначених як читання, та/або площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, та/або розрахований відсоток переглянутих структурних елементів від загальної кількості структурних елементів при наданні мультимедійної інформації, у яких погляд не був визначений як читання, та/або розрахований відсоток структурних елементів, у яких дані погляду були визначені як читання, від загальної кількості структурних елементів при наданні мультимедійної інформації, та/або розраховане відношення обсягу переглянутих структурних елементів, у яких погляд не був визначений як читання, до обсягу структурних елементів, у яких дані погляду були визначені як читання, при наданні мультимедійної інформації тощо.In particular, the multimedia information display module (20) and/or (21) provides a generated report and/or map in any visually acceptable form, and/or diagram, and/or graph or other, of views density and/or data density of views defined as reading and/or the overlap area of the area where the data density of all views and the data density of views defined as reading exceeds the threshold values, and/or the calculated percentage of viewed structural elements out of the total number of structural elements when providing multimedia information, in in which the gaze was not defined as reading, and/or the calculated percentage of structural elements in which the gaze data was defined as reading, out of the total number of structural elements in the provision of multimedia information, and/or the calculated ratio of the volume of viewed structural elements in which the gaze was not defined as read, to the extent of structural elements in which the view data was defined as read, when provided multimedia information, etc.

Така візуалізація результатів розпізнавання та/або читання мультимедійної інформації та швидкості цих процесів, може відбуватись як по завершенні сеансу надання мультимедійної інформації, так й протягом сеансу по завершенню перегляду певних визначених фрагментів мультимедійної інформації у режимі реального часу. Це є додатковим інструментом контролю процесу розпізнавання та/"або читання для користувача та/або володільця мультимедійної інформації та/або оператора відділеного АПК-ВК та розвивається у ряд додаткових можливостей описаного тут способу та системи.Such visualization of the results of recognition and/or reading of multimedia information and the speed of these processes can occur both at the end of the session of providing multimedia information and during the session at the end of viewing certain defined fragments of multimedia information in real time. This is an additional tool for controlling the process of recognition and/or reading for the user and/or the owner of multimedia information and/or the operator of the separate APC-VC and develops into a number of additional capabilities of the method and system described here.

Застосування підходу машинного навчання робить заявлений спосіб перевірки ознайомлення із мультимедійною інформацією та перевірки читання легко застосовним та стандартним на безлічі пристроїв. Завдяки заявленому способу та системі у режимі реального часу із застосуванням будь-якого засобу відеофіксації можна виявити з 97 95 точністю, чи людина читає в даний момент та розрахувати обсяг дійсно прочитаної інформації.The application of a machine learning approach makes the claimed method of checking the familiarity with multimedia information and checking the reading easily applicable and standard on many devices. Thanks to the declared method and system in real time using any means of video recording, it is possible to detect with 97 95 accuracy whether a person is reading at the moment and calculate the amount of information actually read.

Отримані у такій спосіб данні щодо обсягу та/або швидкості розпізнавання та прочитання інформації дозволяють розширити можливості застосування описаних тут способів та/або систем, що базуються на технології стеження за рухом очей, для різних цілей.The data obtained in this way regarding the volume and/or speed of recognition and reading of information allow to expand the possibilities of using the methods and/or systems described here, based on the technology of tracking the movement of eyes, for various purposes.

Зо Так, з урахуванням можливості чіткої ідентифікації/верифікації особи суб'єкта у зв'язку із конкретною мультимедійною інформацією, наприклад електронним документом, що він переглядає, розпізнає та прочитує, виникає можливість незалежного автоматизованого підтвердження ознайомлення цією особою із документом та підтвердження обсягу прочитаної інформації, що дозволяє із високим ступенем вірогідності стверджувати про глибину когнітивної обробки інформації конкретним суб'єктом. Це є корисним при різноманітних навчальних процесах, при оцінці певних професійних навичок, оцінці дистанційної взаємодії між персоналом всередині одного підприємства або між різними структурами, зокрема державного сектора, у юридичній практиці, тощо. Зв'язок між особою суб'єкта, конкретним електронним документом, із яким він ознайомився, та обсягом прочитаного у цьому документі контенту дозволяє здійснити автоматизовану та легкодоступну сертифікацію щодо прочитаного документа, зокрема шляхом створення сертифікату підписування документу, що може бути застосовано у безлічі галузей.So, taking into account the possibility of clear identification/verification of the subject's identity in connection with specific multimedia information, for example, an electronic document that he views, recognizes and reads, there is a possibility of independent automated confirmation of familiarization with the document by this person and confirmation of the amount of information read , which allows us to state with a high degree of probability the depth of cognitive processing of information by a specific subject. This is useful in various educational processes, in the assessment of certain professional skills, assessment of remote interaction between personnel within the same enterprise or between different structures, in particular the public sector, in legal practice, etc. The connection between the person of the subject, the specific electronic document that he has read, and the amount of content read in this document allows for automated and easily accessible certification of the read document, in particular by creating a document signing certificate, which can be applied in many industries.

Обмін даними між АПК-К та АПК-ВК здійснюється за допомогою дротової або бездротової передачі, при цьому налаштування АПК-ВК дозволяє розширити систему та здійснювати такий обмін даними з множиною АПК-К, а також забезпечує зменшення функціонально-програмного навантаження на АПК-К, всі отримані дані суб'єкта зберігають у модулі збереження даних (41)Data exchange between APC-K and APC-VK is carried out using wired or wireless transmission, while setting up APC-VK allows you to expand the system and carry out such data exchange with multiple APC-K, and also ensures a reduction of the functional and software load on APC-K , all received subject data are stored in the data storage module (41)

АПК-ВК та необов'язково частину даних, зокрема звіти та/або карти та/або сертифікати - у АПК-APC-VC and optionally part of the data, in particular reports and/or maps and/or certificates - in APC-

К.K.

Хоча описані втілення базувалися на переважних варіантах, фахівцям в даній галузі техніки буде зрозуміло, що можуть бути внесені різні зміни у формі і деталях без відхилення від обсягу втілень, охоплених формулою корисної моделі, що додається.While the described embodiments have been based on preferred embodiments, those skilled in the art will appreciate that various changes in form and detail may be made without departing from the scope of the embodiments covered by the appended utility model formula.

Claims (2)

ФОРМУЛА КОРИСНОЇ МОДЕЛІUSEFUL MODEL FORMULA 1. Автоматизований спосіб верифікації ознайомлення суб'єкта із електронним документом, який відрізняється тим, що включає попереднє встановлення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа, що достатній для формування сертифікату підписання електронного документа верифікованим суб'єктом, верифікацію особи суб'єкта на підставі попередньо введених у апаратно-програмний комплекс (АПК) візуальних даних про суб'єкта на початку сеансу надання суб'єкту електронного документа та протягом кожного наступного 60 сеансу надання того ж самого документа тому ж самому суб'єкту, автоматизоване визначення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа верифікованим суб'єктом при наданні електронного документа за всіма сеансами надання одного й того ж документа у системі АПК з використанням технології стеження за очима та із застосуванням штучної нейронної мережі, й у разі, якщо суб'єкт підтверджує завершення сеансу/сеансів ознайомлення із документом та погоджує підписання й якщо визначений обсяг розпізнаної верифікованим суб'єктом інформації, зокрема обсяг прочитаного документа, що дорівнює або більший за попередньо встановлений обсяг, формують сертифікат підписання документа.1. An automated method of verification of the subject's familiarization with the electronic document, which differs in that it includes preliminary establishment of the amount of information recognition, in particular the volume of the read document, which is sufficient for the formation of a certificate of signing of the electronic document by the verified subject, verification of the subject's identity based on visual data about the subject previously entered into the hardware and software complex (APC) at the beginning of the session of providing the subject with an electronic document and during each subsequent 60 sessions of providing the same document to the same subject, automated determination of the scope of information recognition, in particular the volume of the document read by the verified subject when providing an electronic document for all sessions of providing the same document in the APC system using eye tracking technology and using an artificial neural network, and in the event that the subject confirms the completion of the familiarization session/sessions with the document and p approves the signing and if the determined volume of information recognized by the verified subject, in particular the volume of the read document, which is equal to or greater than the preset volume, forms a document signing certificate. 2. Спосіб за п. 1, який відрізняється тим, що визначення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа верифікованим суб'єктом здійснюють за допомогою способу, у якому застосовують систему, що включає: апаратно-програмний комплекс користувача (АПК-К), у якому поєднані або інтегровані пристрій відеофіксації, модуль відображення мультимедійної інформації, модуль прийому та передачі даних, модуль запису з пристрою відеофіксації даних відеопотоку, модуль збереження даних, модуль автоматизованої обробки даних, та віддалений апаратно-програмний комплекс взаємодії із користувачем (АПК-ВК), у якому поєднані або інтегровані модуль візуального надання мультимедійної інформації, модуль прийому та передачі даних, модуль збереження даних, модуль верифікації суб'єкта- користувача, модуль обробки даних, що придатний для роботи та навчання штучної нейронної мережі, й спосіб включає наступні етапи: у АПК-К проводять калібрування параметрів очей при наданні суб'єкту тестової інформації у вигляді рухливих візуальних стимулів; завантажують мультимедійну інформацію на віддалений АПК-ВК та класифікують її фрагменти на структурні елементи за ознаками - текст, зображення, таблиця та інше; передають класифіковану інформацію з віддаленого АПК-ВК на АПК-К та надають її суб'єкту; отримують за допомогою пристрою відеофіксації відеопоток, за даними якого у модулі запису АПК-К записують дані руху очей та/або погляду з врахуванням поведінкових реакцій у вигляді щонайменше мигання очей та/або рухів голови, та/або змін координат попередньо маркованих точок на обличчі, визначають окремі точки погляду у кожний момент часу у координатах площини модулю відображення мультимедійної інформації АПК-К під час надання Зо мультимедійної інформації; передають отриману інформацію на віддалений АПК-ВК, у якому: встановлюють відповідність між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації; із застосуванням штучної нейронної мережі формують дані множини поглядів та встановлюють вірогідність відношення кожного окремого погляду суб'єкта до читання; агрегують зазначені дані множини поглядів у координатну систему класифікованих структурних елементів наданої мультимедійної інформації; розраховують за кількістю у кожному структурному елементі щільність даних всіх поглядів й щільність даних поглядів, визначених як читання, та встановлюють відповідні порогові значення для розрахованих щільностей, що відмежовують статистичний шум; розраховують відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, й встановлюють обсяг розпізнаної інформації суб'єктом, за яким визначають інформацію як прочитану.2. The method according to claim 1, which differs in that the determination of the scope of information recognition, in particular the scope of the read document by the verified subject, is carried out using a method in which a system is used, which includes: user hardware and software complex (APK-K), in which is connected or integrated with a video recording device, a multimedia information display module, a data reception and transmission module, a recording module from a video recording device of video stream data, a data storage module, an automated data processing module, and a remote hardware and software complex of interaction with the user (APK-VK), in which a module for visual presentation of multimedia information, a module for receiving and transmitting data, a module for storing data, a module for verification of a user subject, a module for processing data suitable for the operation and training of an artificial neural network are combined or integrated, and the method includes the following steps: APC-K performs the calibration of the eye parameters when the subject is given a test eye information in the form of moving visual stimuli; upload multimedia information to a remote APK-VK and classify its fragments into structural elements according to features - text, image, table, etc.; transfer classified information from the remote APC-VC to the APC-K and provide it to the subject; receive a video stream with the help of a video recording device, according to which data of eye movements and/or gaze are recorded in the APC-K recording module, taking into account behavioral reactions in the form of at least eye blinking and/or head movements, and/or changes in the coordinates of pre-marked points on the face, determine separate points of view at each moment of time in the coordinates of the plane of the display module of the multimedia information of the APC-K during the provision of multimedia information; transmit the received information to the remote APC-VC, in which: they establish correspondence between individual points of view and the fragment of multimedia information provided at this time; with the use of an artificial neural network, data sets of views are formed and the probability of the relation of each individual view of the subject to reading is established; aggregate the specified data of a set of views into a coordinate system of classified structural elements of the provided multimedia information; calculate by the number in each structural element the data density of all views and the data density of views defined as reading, and set appropriate threshold values for the calculated densities that delimit statistical noise; calculate the ratio of the overlapping area of the area where the data density of all views and the data density of views defined as reading exceeds the threshold values to the total area of all structural elements defined in the provided multimedia information, and set the amount of recognized information by the subject by which the information is determined as read З. Спосіб за п. 2 або 3, який відрізняється тим, що визначення обсягу розпізнавання інформації, зокрема обсягу прочитаного документа верифікованим суб'єктом, здійснюють за допомогою системи, що включає: а) апаратно-програмний комплекс (АПК) користувача (АПК-К), у якому поєднані або у який інтегровані: ї) пристрій відеофіксації, ії) модуль відображення мультимедійної інформації, ії) модуль прийому та передачі даних, що придатний для прийому та передачі отриманої інформації на віддалений АПК взаємодії із користувачем (АПК-ВК), їм) модуль запису з пристрою відеофіксації даних відеопотоку, що стосуються руху очей та/або погляду, та поведінкових реакцій у вигляді щонайменше мигання очей та/або рухів голови, та/або змін координат попередньо маркованих точок на обличчі, м) модуль збереження даних, мі) модуль обробки даних, що включає: 60 блок обробки даних відеопотоку з пристрою відеофіксації АПК-К,Q. The method according to claim 2 or 3, which differs in that the determination of the scope of information recognition, in particular the scope of the document read by the verified subject, is carried out using a system that includes: a) the hardware and software complex (APK) of the user (APK-K ), in which the following are connected or integrated: i) a video recording device, i) a multimedia information display module, i) a data reception and transmission module, suitable for receiving and transmitting the received information to a remote user interface (APK-VK), i) a module for recording from a video recording device video stream data related to eye movements and/or gaze, and behavioral reactions in the form of at least eye blinking and/or head movements, and/or changes in the coordinates of pre-marked points on the face, m) a data storage module, mi) data processing module, which includes: 60 video stream data processing unit from the video recording device APK-K, блок калібрування параметрів очей при наданні мультимедійної інформації, блок визначення окремих точок погляду у кожний момент часу у координатах площини модулю відображення мультимедійної інформації під час надання інформації, та б) віддалений АПК взаємодії із користувачем (АПК-ВК), у якому поєднані або у який інтегровані: ї) модуль відображення мультимедійної інформації, і) модуль прийому та передачі даних, що придатний для прийому та передачі отриманої й обробленої інформації на АПК-К, ії) модуль збереження даних, їм) модуль верифікації особи суб'єкта-користувача, м) модуль обробки даних, що придатний для роботи та навчання штучної нейронної мережі, що включає: блок роботи та навчання штучної нейронної мережі, блок класифікації фрагментів мультимедійної інформації на структурні елементи за ознаками тексту, зображення, таблиці та інше, блок обробки даних відеопотоку з пристрою відеофіксації АПК-К, блок встановлення відповідності між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації; блок встановлення вірогідності відношення кожного окремого погляду суб'єкта до читання, блок формування даних множини поглядів та агрегування даних множини поглядів у координатну систему класифікованих структурних елементів наданої мультимедійної інформації, блок розрахунку за кількістю у кожному структурному елементі щільності даних всіх поглядів й щільності даних поглядів визначених як читання, та встановлення відповідних порогових значень для розрахованих щільностей, що відмежовують статистичний шум, блок розрахунку відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, блок встановлення обсягу розпізнаної суб'єктом інформації, Зо блок встановлення обсягу прочитаної суб'єктом текстової інформації, блок надання статистичної інформації та формування звітів. АПК їж АпК-Ви С МН я вк шен кі 3) ЩІ ! Мережа ! п і І і ін | ще Голов) Іво 90) І | , Е | ! і ! ! ! | і 1 Еeye parameters calibration unit when providing multimedia information, a unit for determining individual points of view at each moment of time in the coordinates of the multimedia information display module plane during information provision, and b) a remote user interaction API (API-VK) in which connected or in which integrated: i) multimedia information display module, i) data reception and transmission module suitable for receiving and transmitting received and processed information on the APC-K, i) data storage module, i) user subject identity verification module, m ) a data processing module suitable for the operation and training of an artificial neural network, which includes: a unit for operation and training of an artificial neural network, a unit for classifying fragments of multimedia information into structural elements based on the characteristics of text, images, tables, etc., a unit for processing video stream data from the device video recording of the APC-K, a block for establishing correspondence between individual points of view and the currently provided fragments entom of multimedia information; the unit for establishing the probability of the relationship of each individual view of the subject to reading, the unit for forming the data of a set of views and aggregating the data of a set of views into the coordinate system of the classified structural elements of the provided multimedia information, the unit for calculating the number in each structural element of the data density of all views and the data density of the defined views as a read, and setting appropriate threshold values for the calculated densities delimiting the statistical noise, a block for calculating the ratio of the overlap area of the region where the data density of all views and the data density of the views defined as a read exceeds the threshold values to the total area of all structural elements defined in the provided multimedia information, the block for setting the amount of information recognized by the subject, the block for setting the amount of textual information read by the subject, the block for providing statistical information and generating reports. APC eat ApK-Vy S MN i vk shen ki 3) SCHHI ! Network! p and I and others | also Head) Ivo 90) I | , E | ! and ! ! ! | and 1 E Фіг. 1Fig. 1 ТМЕСОТТМ ЕН НІНКОФЯЯ БРОБХ РОВУ ОБРОБ БРОБО РРО РОБ ВРОСХ ВРОСУ ВРОСУ ВК ВКОШК ВКРММ фот в об біс небез ро Нюв 6 в в З нлаю омаб оо Зб 0360 2 ї боб о398 1 а що 2 2 нав омав ою нео 06 та 1 ою 1 й що 20 З лю о омею ЗК ОБ 28 о ази Не 1 в 50 Ру й ЗО ог ОЗ МОБ ОБ а о 363 Б 1 8 во Ки я ВРОЦХ, ЕРОСГУ - координати екрану, відносно роздільної здатності скраці влгопим А х ВРОПХ, ВРОЄТУ - координати екраву. віднеєно роздільної златності скрана, алгоритм В 6 БРОНІ - ідевтифікатор фікеації я ФПОГД - зрижалієть фіксації очей 8 БЛОГИ, ФІГ - обуруптованить інформації - ВЖИ - іде афихатор вливаних Фіг. 2 Рухм чий надова чна ма дисплеї : зеюк фруд дякИХх п З Ї З і, «а т ЕВ "й | тет Відфільтоовані даві щи КАК НЕННЯ ШІ ЕК НЕ В ЖЕК; ЕК а У ЕВКВ ща ОБУ У МУ МОВО МЕ ІВ ро. 5 БОМ КК ОХ М ТЕ УЖ КК: 358 КН КВ З зе 5 Я НН ЕНН з ох і. КЗ 3 О З З І У БВ З Е ЕЕ КН НК Її 1 і Я вз Но НАШІ Ех - ши щи - пута пк пах пив дів МасTMESOTTM EN NINKOFYAYA BROBH DUTTER PROCESSING BROBO RRO ROB VROSH VROSU VROSU VK VKOSHK VKRMM fot v ob bis nebez ro Nyuv 6 v v Z nlayu omab oo Zb 0360 2nd bob o398 1 a what 2 2 nav omav oyu neo 06 and 1 oyu 1 th that 20 Z liu omeyu ZK OB 28 o azi Ne 1 in 50 Ru and ZO og OZ MOB OB a o 363 B 1 8 in Ky i VROTXH, EROSGU - coordinates of the screen, relative to the resolution of the reduction vlgopim A x VROPH, VROETU - coordinates screen subtracted from the separate giltness of the screen, the algorithm IN 6 ARMOR - identifier of fication and FPOGD - zrizhaliet eye fixations 8 BLOGS, FIG - obruptovanit information - VZHY - goes afihator of infused Figs. 2 Moving information display: zeyuk frud dyakIHh p Z Я Z i, «а т ЕВ "й | tet Filtered press шки КА НЕНЯ ШИ ЕК НЕ В ЖЕК; ЕК А У ЕВКВ ща BOTH IN MU MOVO ME IV ro. 5 BOM KK OH M TE UZH KK: 358 KN KV Z ze 5 I NN ENN z oh i. KZ 3 O Z Z I U BV Z E EE KN NK Her 1 and I vz No OUR Eh - shi shchi - puta pk pah pyv Virgin Mass Фіг. З Тривалість часзвих серій де МОМ Читання 0лдо3а . Ж Не чизання 000030 В. . А ЩА ї оо0025 в: | С с. х УМХ ЩЕ Кх. АХ оз 5 ШІ ШК щова2о ОЗ ШК . З а Я о. ОО о. г ЖЕЛЖШЕНИИНИМЕИН МИХ КЕ у;Fig. C Duration of frequent series where IOM Readings 0ldo3a. Not itching 000030 V. . A SCHA i oo0025 in: | With p. х УМХ ШЭ Х. АХ оз 5 ШИ ШК штова2о ОЗ ШК . With and I about. O.O. r ЖЕЛЖШШЕНИИНИМЕЙН МИХ КЕ y; і п.ооото ! о о. ; вовюра -0 ОН й 2000 4900 8000 БО 10000 32005and p.oooto! oh oh ; voucher -0 ON and 2000 4900 8000 BO 10000 32005 Фіг. 4Fig. 4 В З ї забої ВаІ 1 ер З) бМевде, 198, 3) сопХіЯ ГО СОДИ. зеннннкнреанехналнннккадннкнакннучнх ошщробє р (Мене 10.) Й іони. і Море, МК З ми: роси з. МаХКООВИВІ р-н - -- М ом: р бМапе, 50. КО (Мене, 50, З свисій Мчч О и ее ЗТ су й шен: | (Крве, хО, Т і нах рообвеїй 5 Махрові - - і т (Мане, 35,7) о вра ої Мене 37 сов сою ре пиво зам і Очовпе, 25, 445) пом ДИН І рик) йхове, 3. АХ раси ж ДРОВ ень - іона ) опе, 15. БЕ Й 0 раб фіМеове М НИ УМ Я СОМИ : свіч З (Мене. 13 2 І І і ожрн у Моне. 33. 2553 тах росій г махроонняТО - - РОБ у (Моле, в, 255) о о пл т жлютвтютютють м'я м м'яячня іриб | (Мове, 5. 288) Дай 1: ДВК рення втттнтннтннетннннтя ий ро (Мове 172) нама: Море 1725) форс г доро мих почав 7 свемнй: З КМене, 3728) І шриб Моне, 173) ска ГК пепхе одне пи романи Щ орі. іЗоле. 2In the battle of VaI 1 er Z) bMevde, 198, 3) sopHiYA HO SODY. zennnnknreanekhnalnnkkadnnknaknnuchnkh oshshcrobye r (I am 10.) And ions. and More, MK Z mi: rosy z. MakHKOOVIVI district - -- M om: r bMape, 50. KO (Mene, 50, Z svysii Mchch O i ee ZT su i shen: | (Krve, xO, T i nah roobveii 5 Mahrovi - - i t (Mane . UM I SOMY: candle Z (Mene. 13 2 I I and oshrn in Monet. 33. 2553 tah rosiy g mahroonniaTO - - ROB y (Mole, v, 255) o o pl t zhlyutvtyutyutyut mya m myaichna iryb | (Move, 5. 288) Give 1: DVK rennya vtttntnntnnetnntya iy ro (Move 172) nama: More 1725) fors g doromyh began 7 svemny: Z KMene, 3728) I shryb Monet, 173) ska GK pephe one pi novels Sh ori iZole. 2 Фіг. 5Fig. 5 4е корегувальна саккада : після зворотного 74 міжрядкового переходу /Міжрядкові переходи 3 т й 1 і пнВамічний . - ; дивамічнии Ффіксаці / пет Ї переліт рон: і пиши І рон З зв | Ї з 7 регресійна . З їх У и в а я шо прогресійна саккала Шк я- дуже короткі (50 ме) фіксації сакхада Ш-- т- ! ви і І , ж шк ї Е і : І -У,4th corrective saccade: after the reverse 74 interline transition / Interline transitions 3 t and 1 and pnVamicny. - ; divamichnii Ffiksatsi / pet I flight ron: and write I ron Z zv | She from 7 is regressive. From their U and v a i sho progressive sakkala Shk i- very short (50 me) fixations of the sakhada Sh-- t-! you and I , same shk i E i : I -U, ла. 0с Основні характеристики рухів очей при читанні, відомі з чисів /ауа!la 0s The main characteristics of eye movements during reading, known from the numbers /ауа! Фіг. 6Fig. 6
UAU201904742U 2019-05-03 2019-05-03 AUTOMATED METHOD OF VERIFICATION OF ELECTRONIC DOCUMENT ACQUISITION UA141318U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
UAU201904742U UA141318U (en) 2019-05-03 2019-05-03 AUTOMATED METHOD OF VERIFICATION OF ELECTRONIC DOCUMENT ACQUISITION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
UAU201904742U UA141318U (en) 2019-05-03 2019-05-03 AUTOMATED METHOD OF VERIFICATION OF ELECTRONIC DOCUMENT ACQUISITION

Publications (1)

Publication Number Publication Date
UA141318U true UA141318U (en) 2020-04-10

Family

ID=71118087

Family Applications (1)

Application Number Title Priority Date Filing Date
UAU201904742U UA141318U (en) 2019-05-03 2019-05-03 AUTOMATED METHOD OF VERIFICATION OF ELECTRONIC DOCUMENT ACQUISITION

Country Status (1)

Country Link
UA (1) UA141318U (en)

Similar Documents

Publication Publication Date Title
Dewan et al. Engagement detection in online learning: a review
Escalante et al. Modeling, recognizing, and explaining apparent personality from videos
Nguyen et al. Hirability in the wild: Analysis of online conversational video resumes
Sanchez-Cortes et al. Emergent leaders through looking and speaking: from audio-visual data to multimodal recognition
Asteriadis et al. Estimation of behavioral user state based on eye gaze and head pose—application in an e-learning environment
Mack et al. Object co-occurrence serves as a contextual cue to guide and facilitate visual search in a natural viewing environment
Foulsham et al. What can saliency models predict about eye movements? Spatial and sequential aspects of fixations during encoding and recognition
Megreya et al. The other-race effect does not rely on memory: Evidence from a matching task
US8600100B2 (en) Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
Burgoon et al. Patterns of nonverbal behavior associated with truth and deception: Illustrations from three experiments
Chan et al. Multimodal learning analytics in a laboratory classroom
Nyman et al. A stab in the dark: The distance threshold of target identification in low light
WO2023041940A1 (en) Gaze-based behavioural monitoring system
Gayet et al. Scenes modulate object processing before interacting with memory templates
Gan et al. A multi-sensor framework for personal presentation analytics
van Driel et al. Capturing and characterizing teachers’ noticing as basis for their classroom management in different career stages: A data paper
Bosch et al. Can computers outperform humans in detecting user zone-outs? Implications for intelligent interfaces
UA141318U (en) AUTOMATED METHOD OF VERIFICATION OF ELECTRONIC DOCUMENT ACQUISITION
Hirt et al. Measuring emotions during learning: lack of coherence between automated facial emotion recognition and emotional experience
Jiang Analysis of Students’ Role Perceptions and their Tendencies in Classroom Education Based on Visual Inspection
JP2022135476A (en) Information processing apparatus and program
UA141317U (en) AUTOMATED METHOD FOR DETERMINING THE SCOPE OF INFORMATION RECOGNITION
Lu et al. Recognition of students’ abnormal behaviors in English learning and analysis of psychological stress based on deep learning
Bennett et al. Looking at faces: autonomous perspective invariant facial gaze analysis
WO2020226603A1 (en) Automated method and system for determining an extent to which information is recognized and automated method for verifying familiarization with an electronic document