UA141317U - AUTOMATED METHOD FOR DETERMINING THE SCOPE OF INFORMATION RECOGNITION - Google Patents

AUTOMATED METHOD FOR DETERMINING THE SCOPE OF INFORMATION RECOGNITION Download PDF

Info

Publication number
UA141317U
UA141317U UAU201904741U UAU201904741U UA141317U UA 141317 U UA141317 U UA 141317U UA U201904741 U UAU201904741 U UA U201904741U UA U201904741 U UAU201904741 U UA U201904741U UA 141317 U UA141317 U UA 141317U
Authority
UA
Ukraine
Prior art keywords
data
multimedia information
subject
reading
information
Prior art date
Application number
UAU201904741U
Other languages
Ukrainian (uk)
Inventor
Сергій Анатолійович Данилов
Original Assignee
Сергій Анатолійович Данилов
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Сергій Анатолійович Данилов filed Critical Сергій Анатолійович Данилов
Priority to UAU201904741U priority Critical patent/UA141317U/en
Publication of UA141317U publication Critical patent/UA141317U/en

Links

Landscapes

  • Image Analysis (AREA)

Abstract

Автоматизований спосіб визначення обсягу розпізнавання інформації суб'єктом при наданні мультимедійної інформації включає надання мультимедійної інформації, фіксацію та обробку даних щодо руху очей суб'єкта із застосуванням пристрою відеофіксації та із застосуванням штучної нейронної мережі визначення обсягу розпізнавання суб'єктом наданої мультимедійної інформації.An automated method of determining the amount of information recognition by the subject when providing multimedia information includes providing multimedia information, recording and processing data on the movement of the subject's eyes using a video capture device and using an artificial neural network to determine the amount of recognition by the subject of multimedia information.

Description

Корисна модель належить до технологій, що залучають засоби й методи стеження за рухом очей суб'єктів і стосується автоматизованого способу визначення обсягу читання або розпізнавання суб'єктом визначених ділянок при наданні мультимедійної інформації. Корисна модель дозволяє встановити, чи був суб'єкт ознайомлений із представленою йому візуальною інформацію, зокрема текстовою інформацією та/або образною інформацією, у якому обсязі, та чи був цей обсяг достатній для підтвердження ознайомлення суб'єкта із змістом текстових фрагментів наданої мультимедійної інформації, чи прочитав суб'єкт представлену інформацію, зокрема чи прочитав суб'єкт текстову інформацію.The useful model belongs to technologies that involve means and methods of tracking the movement of subjects' eyes and refers to an automated way of determining the volume of reading or recognition by the subject of specified areas when providing multimedia information. A useful model allows you to establish whether the subject was familiarized with the visual information presented to him, in particular textual information and/or pictorial information, in what volume, and whether this volume was sufficient to confirm the subject's familiarization with the content of the text fragments of the provided multimedia information, whether the subject has read the presented information, in particular whether the subject has read the textual information.

Корисна модель дозволяє об'єктивно встановити чи прочитав визначений суб'єкт текстову інформацію та у якому обсязі, та чи відповідає це визначеному обсягу, що встановлений як достатній для сприйняття суб'єктом змісту представлених текстових фрагментів у наданій мультимедійній інформації.A useful model allows you to objectively establish whether the specified subject has read the text information and in what volume, and whether this corresponds to the specified volume, which is established as sufficient for the subject's perception of the content of the presented text fragments in the provided multimedia information.

Технології стеження за очима (окулографія, айтрекінг) передбачають визначення певних характеристик руху очей, зокрема визначення точки, на яку спрямований погляд, або координат точки перетинання оптичної осі ока (очного яблука) із площиною визначеного об'єкта, зокрема площиною пристрою, на якому надається/пред'являється певний зоровий подразник.Eye tracking technologies (oculography, eye tracking) involve determining certain characteristics of eye movement, in particular, determining the point at which the gaze is directed, or the coordinates of the point of intersection of the optical axis of the eye (eyeball) with the plane of the specified object, in particular the plane of the device on which the /a certain visual stimulus is presented.

Застосування систем стеження за очима (айтрекінг або окулографія) у різних галузях й зокрема для визначення читання суб'єктом відомі.The use of eye tracking systems (eye tracking or oculography) in various fields, and in particular for determining the subject's reading, is well known.

Відомий спосіб підтвердження читання електронного повідомлення користувачем із застосуванням технології відстеження положення очей під час читання користувачем на електронному пристрої електронного повідомлення, що містить безліч рядків, у якому за ознаками положення очей, зокрема визначення координат положення очей, визначають кількість переглянутих користувачем рядків повідомлення й визначають чи прочитав користувач повідомлення шляхом порівняння кількості рядків, що переглянуті очима, із пороговою кількістю рядків, що базується на множині рядків електронного повідомлення. Крім того, визначають чи користувач був здивований під час перегляду електронного повідомлення, шляхом порівняння тривалості часу, витраченого оком при перегляді електронного повідомлення, із очікуваною тривалістю часу для відображення наданого електронного повідомлення (05 2016/0094705 АТ, 31.03.2016).There is a known method of confirming the reading of an electronic message by a user using eye position tracking technology when the user reads an electronic message containing many lines on an electronic device, in which the number of lines of the message viewed by the user is determined based on the characteristics of the eye position, in particular the determination of the coordinates of the eye position, and it is determined whether the user read the message by comparing the number of lines viewed by eye to a threshold number of lines based on the plurality of lines of the electronic message. In addition, it is determined whether the user was surprised while viewing an electronic message by comparing the duration of time spent by the eye while viewing an electronic message with the expected duration of time for displaying the provided electronic message (05 2016/0094705 AT, 31.03.2016).

Відомий спосіб та система для тестування знань мови користувачем, що дозволяє автоматично визначати рівень володіння мовою із застосуванням технології відстеження погляду користувача під час читання зразку тексту, за допомогою камери (або трекера) для очей, що з'єднана з процесором і виконана з можливістю запису часу фіксації очей для кожного слова зразку тексту, який пред'являють користувачу, і подальшого запису сакадного часу для кожної пари слів, по яких пересувається погляд користувача між фіксаціями, з наступним порівнянням параметрів погляду користувача з параметрами моделі погляду щонайменше одного читача, що має певний відомий рівень володіння мовою, і наступним генеруванням оцінки володіння мовою користувачем на основі результатів порівняння (05 2019/0080623 А! 14.03.2019).A known method and system for testing a user's language knowledge that allows for the automatic determination of language proficiency using the technology of tracking the user's gaze while reading a text sample, using a camera (or eye tracker) connected to a processor and made with the possibility of recording eye fixation time for each word of the text sample presented to the user, and subsequent recording of the saccade time for each pair of words on which the user's gaze moves between fixations, followed by a comparison of the user's gaze parameters with the parameters of the gaze model of at least one reader having a certain the known level of language proficiency, and the subsequent generation of the user's language proficiency assessment based on the results of the comparison (05 2019/0080623 А! 03/14/2019).

У 05 2012/0237084 АТ, 20.09.2012) описані спосіб та система для ідентифікації тексту та його положення у візуальному медіа-контенті, наприклад, документа, що відображається на моніторі комп'ютера або іншому пристрої відображення, що дозволяють визначити, чи суб'єкт взаємодіяв із текстом, рівень взаємодії суб'єкт із текстом, наприклад, чи розглядав суб'єкт текст, чи читав суб'єкт текст, чи сприйняв суб'єкт текст і зрозумів його або інші види взаємодії суб'єкта із текстом. Визначення здійснюється на основі даних, що отримані з пристрою відстеження ока, при цьому окремо або разом може застосовуватися система визначення емоційної відповіді. У способі передбачено ідентифікацію частини візуального медіа-контенту, що складає текст, визначення положення ідентифікованого тексту візуального медіа-контенту, збирання даних з очей суб'єкта під час перегляду візуального медіа-контенту, щодо розмірів зіниці, мигання та координат погляду, генерування патернів погляду суб'єкта на основі зібраних даних очей, визначення того, чи взаємодіє суб'єкт з ідентифікованим текстом на підставі щонайменше визначеного положення ідентифікованого тексту і генерованого шаблону погляду, визначення рівня взаємодії суб'єкта з ідентифікованим текстом, зокрема визначення того, чи прочитав або ознайомився суб'єкт із ідентифікованим текстом, і визначення емоційної реакції суб'єкта на ідентифікований текст.05 2012/0237084 AT, 20.09.2012) describes a method and system for identifying text and its position in visual media content, for example, a document displayed on a computer monitor or other display device, allowing to determine whether sub the subject interacted with the text, the level of the subject's interaction with the text, for example, whether the subject looked at the text, whether the subject read the text, whether the subject perceived the text and understood it, or other types of interaction of the subject with the text. The determination is based on data obtained from the eye tracking device, and the emotional response detection system can be used separately or together. The method provides identification of a part of the visual media content that makes up the text, determining the position of the identified text of the visual media content, collecting data from the subject's eyes while viewing the visual media content, regarding pupil size, blinking and gaze coordinates, generating gaze patterns of the subject based on the collected eye data, determining whether the subject interacts with the identified text based on at least a determined position of the identified text and the generated gaze pattern, determining the level of interaction of the subject with the identified text, in particular, determining whether the subject has read or familiarized the subject with the identified text, and determining the emotional response of the subject to the identified text.

Відомі способи та системи передбачають застосування спеціалізованого обладнання для відстеження руху очей, що не завжди може бути забезпечене поза лабораторними умовами та дослідницькими установами, й особливо у повсякденному житті. При дослідженні рухів очей навіть із залученням спеціально прилаштованої для цього апаратури існує питання вибору бо даних для подальшої обробки та інтерпретації. Наприклад, у випадку прихованої уваги, що спостерігається на записах руху очей, коли слід погляду та точки фіксації проходять повз реальний об'єкт уваги лише із незначним часом фіксації, виникають труднощі у встановленні однозначного зв'язку між результатами дослідження руху очей та когнітивним процесом конкретного суб'єкта.Known methods and systems involve the use of specialized equipment for tracking eye movements, which cannot always be provided outside of laboratory conditions and research institutions, and especially in everyday life. When studying eye movements, even with the involvement of specially adapted equipment, there is a question of data selection for further processing and interpretation. For example, in the case of covert attention observed in eye movement recordings, when the gaze trace and fixation points pass by the real object of attention with only a small fixation time, there are difficulties in establishing an unambiguous relationship between the results of eye movement research and the cognitive process of a specific subject

Хоча відомі різноманітні системи стеження за очима та їх застосування, однак все ще існують певні проблеми, з якими люди стикаються під час читання, і кожен вирішує ці проблеми унікальним способом: перечитування складних частин тексту, пошук невідомих слів, записування деталей для запам'ятовування тощо. Автоматизація цих процесів із залученням загальнодоступного та загально використовуваного обладнання, наприклад, щоб відстежувати людське читання, оцінювати швидкість, розрізняти рухи очей та поведінкові реакції при читанні від інших видів діяльності, коментувати фрагменти тексту, що важко читаються або зміст яких не був розпізнаний і т.і., це функції, які можуть бути надзвичайно корисними для людей, яким доводиться опрацьовувати величезні обсяги тексту щодня.Although various eye tracking systems and their applications are known, there are still certain problems that people face when reading, and everyone solves these problems in a unique way: rereading complex parts of text, looking for unknown words, writing down details to remember, etc. . Automating these processes with the involvement of publicly available and commonly used equipment, for example, to monitor human reading, assess speed, distinguish eye movements and behavioral responses during reading from other activities, comment on fragments of text that are difficult to read or whose content was not recognized, etc. and., are functions that can be extremely useful for people who have to process huge amounts of text every day.

На даний час відсутні рішення для стандартизованої перевірки та підтвердження процесу обробки візуальної інформації, а зокрема читання, із високою точністю на основі не спеціалізованих апаратних засобів, а будь-яких відеопристроїв або веб-камер із залученням принципу від стеження рухів очей.Currently, there are no solutions for standardized verification and confirmation of the process of processing visual information, and in particular reading, with high accuracy based not on specialized hardware, but on any video devices or web cameras involving the principle of tracking eye movements.

Проблема, яка вирішена у межах даної корисної моделі, лежить у сферах, де прийняття рішень суттєво залежить від того, чи справді суб'єкт (людина) ознайомився із представленою інформацією, зокрема прочитав певний документ. Корисна модель може застосовуватись у таких галузях як освіта, юридично-правова практика, державні сектори тощо.The problem, which is solved within this useful model, lies in areas where decision-making significantly depends on whether the subject (person) has actually familiarized himself with the presented information, in particular, read a certain document. A useful model can be applied in such fields as education, legal practice, public sectors, etc.

Задачею корисної моделі було надання можливості автоматизованого визначення та оцінки обсягу розпізнавання суб'єктом інформації та обсягу читання із високою точністю при перегляді мультимедійної інформації на різноманітних пристроях, як наприклад персональний комп'ютер або ноутбук, планшет, смартфон, віртуальний екран або будь-який інший відповідний пристрій або засіб відображення. Корисна модель дозволяє у режимі реального часу проводити перевірку ознайомлення суб'єкта із представленою інформацією, визначення її обсягу, визначення розпізнавання суб'єктом текстових ділянок, таблиць, зображень та іншого при наданні мультимедійної інформації та обсягу інформації, зміст якої був розпізнаний суб'єктом,The purpose of the useful model was to provide the possibility of automated determination and evaluation of the subject's recognition of information and the amount of reading with high accuracy when viewing multimedia information on a variety of devices, such as a personal computer or laptop, tablet, smartphone, virtual screen or any other appropriate display device or medium. The useful model allows in real time to check the subject's familiarization with the presented information, to determine its scope, to determine the subject's recognition of text sections, tables, images, etc. when providing multimedia information and the amount of information, the content of which was recognized by the subject,

Зо зокрема перевірку читання текстових частин у представленій мультимедійній інформації або читання будь-якого електронного документа.In particular, checking the reading of text parts in the presented multimedia information or reading any electronic document.

В основу корисної моделі поставлено задачу забезпечити автоматизований спосіб визначення із високою точністю обсягу розпізнавання інформації суб'єктом при наданні мультимедійної інформації, зокрема обсягу придатної до читання інформації, ще краще визначення обсягу прочитаної інформації, за допомогою широко розповсюджених електронних пристроїв, придатних для відображення мультимедійної інформації, відеофіксації, обробки, зберігання та передачі даних.The useful model is based on the task of providing an automated way of determining with high accuracy the amount of information recognition by the subject when providing multimedia information, in particular the amount of information suitable for reading, even better determining the amount of read information, using widespread electronic devices suitable for displaying multimedia information , video recording, processing, storage and transmission of data.

Поставлена задача вирішується тим, що автоматизованого способу визначення обсягу розпізнавання інформації суб'єктом при наданні мультимедійної інформації, що передбачає надання мультимедійної інформації, фіксацію та обробку даних щодо руху очей суб'єкта із застосуванням відеопристрою та визначення обсягу розпізнавання суб'єктом наданої мультимедійної інформації, згідно з корисною моделлю, спосіб здійснюють за допомогою системи, що включає: - апаратно- програмний комплекс користувача (АПК-К), у якому поєднані або інтегровані відеопристрій, модуль відображення мультимедійної інформації, модуль прийому та передачі даних, модуль запису з відеопристрою даних відеопотоку, модуль збереження даних, модуль обробки даних, та - віддалений апаратно-програмний комплекс взаємодії із користувачем (АПК-ВК), у якому поєднані або інтегровані модуль відображення мультимедійної інформації, модуль прийому та передачі даних, модуль збереження даних, модуль верифікації суб'єкта-користувача, модуль обробки даних, що придатний для роботи та навчання штучної нейронної мережі, а спосіб включає наступні етапи: - у АПК-К проводять калібрування з врахуванням індивідуальних анатомічних параметрів очей при наданні суб'єкту рухливих візуальних стимулів та завдання на стеження; завантажують мультимедійну інформацію на віддалений АПК-ВК, класифікують фрагменти на структурні елементи за ознаками - текст, зображення, таблиця та інше, передають класифіковану інформацію з віддаленого АПК-ВК до АПК-К та пред'являють її користувачу; - за даними відеопотоку з відеопристрою на АПК-К записують дані руху очей та/або погляду та з врахуванням поведінкових реакцій у вигляді щонайменше мигання очей та/або рухів 60 голови, та/або змін координат попередньо маркованих точок на обличчі, визначають окремі точки погляду у кожний момент часу у координатах площини модуля відображення мультимедійної інформації АПК-К під час надання інформації, та передають отриману інформацію на віддалений АПК-ВК у якому: - встановлюють відповідність між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації, - їз застосуванням штучної нейронної мережі формують дані множини поглядів та встановлюють вірогідність відношення кожного окремого погляду суб'єкта до читання; - агрегують дані множини поглядів у координатну систему класифікованих структурних елементів наданої мультимедійної інформації; - розраховують за кількістю у кожному структурному елементі щільність всіх поглядів й щільність поглядів визначених як читання, та встановлюють відповідні порогові значення для розрахованих щільностей, що відмежовують статистичний шум; - розраховують відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, й встановлюють обсяг розпізнаної інформації суб'єктом за яким визначають інформацію як прочитану.The task is solved by the fact that the automated method of determining the scope of information recognition by the subject when providing multimedia information, which involves the provision of multimedia information, recording and processing of data on the movement of the subject's eyes using a video device and determining the scope of recognition by the subject of the provided multimedia information, according to the useful model, the method is carried out using a system that includes: - user hardware and software complex (APK-K), in which a video device is connected or integrated, a multimedia information display module, a data reception and transmission module, a video data recording module from a video device , a data storage module, a data processing module, and - a remote hardware and software complex of interaction with the user (APK-VC), in which a multimedia information display module, a data reception and transmission module, a data storage module, a subject verification module are combined or integrated -user, processing module yes them, which is suitable for the work and training of an artificial neural network, and the method includes the following stages: - in the APC-K, calibration is carried out taking into account the individual anatomical parameters of the eyes when providing the subject with moving visual stimuli and tracking tasks; upload multimedia information to the remote APC-VK, classify fragments into structural elements according to features - text, image, table, etc., transfer the classified information from the remote APC-VK to the APC-K and present it to the user; - according to the data of the video stream from the video device on the APC-K, the data of eye movement and/or gaze are recorded and, taking into account behavioral reactions in the form of at least 60 eye blinks and/or head movements, and/or changes in the coordinates of pre-marked points on the face, individual gaze points are determined at each moment of time in the coordinates of the plane of the multimedia information display module of the APC-K during the provision of information, and transmit the received information to the remote APC-VK in which: - establish the correspondence between individual points of view and the fragment of multimedia information provided at this time, - with the application an artificial neural network forms the data of a set of views and establishes the probability of the relation of each individual view of the subject to reading; - aggregate data from a set of views into a coordinate system of classified structural elements of the provided multimedia information; - calculate by the number in each structural element the density of all views and the density of views defined as reading, and set appropriate threshold values for the calculated densities that delimit statistical noise; - calculate the ratio of the overlapping area of the area, where the data density of all views and the data density of views defined as reading exceeds the threshold values, to the total area of all structural elements defined in the provided multimedia information, and establish the amount of recognized information by the subject by which the information is determined as read

У наступному аспекті корисної моделі мультимедійна інформація, яку пред'являють суб'єкту, являє собою текстові фрагменти без зображень та/або таблиць або із зображеннями та/або таблицями у відомих форматах представлення електронних документів або відеоінформацію, що містить текстові фрагменти та/або зображення, та/або таблиці.In a further aspect of the utility model, the multimedia information presented to the subject is text fragments without images and/or tables or with images and/or tables in known electronic document presentation formats or video information containing text fragments and/or images , and/or tables.

У ще одному аспекті корисної моделі спосіб включає додатковий етап, на якому перед наданням суб'єкту мультимедійної інформації верифікують особу суб'єкта на підставі візуальних даних про суб'єкта, які вводять у віддалений АПК-ВК.In yet another aspect of the utility model, the method includes an additional step in which, before providing multimedia information to the subject, the identity of the subject is verified based on visual data about the subject, which is entered into the remote APC-VC.

У ще одному аспекті корисної моделі спосіб включає верифікацію особи суб'єкта, яку здійснюють перед кожним наступним етапом наданням суб'єкту мультимедійної інформації або електронного документа.In another aspect of the utility model, the method includes verification of the identity of the subject, which is carried out before each subsequent stage of providing the subject with multimedia information or an electronic document.

У ще одному аспекті корисної моделі спосіб передбачає калібрування параметрів очей за визначеними поведінковими реакціями перед кожним етапом наданням суб'єкту мультимедійноїIn yet another aspect of the utility model, the method involves calibrating the eye parameters according to the determined behavioral responses before each step of providing the subject with multimedia

Зо інформації або електронного документа.From information or an electronic document.

У наступному аспекті корисної моделі пристроєм відображення мультимедійної інформації або, наприклад, електронного документа є, зокрема, телевізор, монітор комп'ютера, дисплей смартфона, дисплей планшета або будь-який інший пристрій, що виконаний з можливістю відображення мультимедійної інформації.In a further aspect of the utility model, the device for displaying multimedia information or, for example, an electronic document is, in particular, a television, a computer monitor, a smartphone display, a tablet display, or any other device designed to display multimedia information.

У ще одному аспекті корисної моделі пристроєм відофіксації, що застосовують, є зокрема, веб-камера або відеокамера, що підключена або інтегрована у АПК-К, зокрема у комп'ютер, смартфон, планшет, або будь-який відеопристрій, що виконаний з можливістю прийняття та передачі відеоданих.In yet another aspect of the utility model, the applied video recording device is, in particular, a web camera or a video camera connected or integrated into the APC-K, in particular a computer, smartphone, tablet, or any video device made with the ability reception and transmission of video data.

У наступному аспекті корисної моделі визначають кількість переходів від визначеного тексту до супутніх матеріалів, зокрема таблиць та зображень, та час, витрачений на такі переходи, при наданні мультимедійної інформації, та необов'язково пред'являють на модулі відображення мультимедійної інформації.In the next aspect of the useful model, the number of transitions from the specified text to accompanying materials, in particular tables and images, and the time spent on such transitions are determined when providing multimedia information, and optionally presented on the multimedia information display module.

У ще одному аспекті корисної моделі формують карту щільності даних поглядів та/або щільності даних поглядів, визначених як читання, та/або площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, та необов'язково пред'являють на модулі відображення мультимедійної інформації.In yet another aspect, the useful model forms a map of the data density of views and/or the density of data views defined as reads and/or the overlap area of the region where the data density of all views and the data density of views defined as reads exceeds threshold values, and necessarily present on the multimedia information display module.

У ще одному аспекті корисної моделі розраховують відсоток переглянутих структурних елементів від загальної кількості структурних елементів при наданні мультимедійної інформації, у яких погляд не був визначений як читання, та необов'язково пред'являють на модулі відображення мультимедійної інформації.In yet another aspect of the utility model, the percentage of viewed structural elements out of the total number of structural elements in the presentation of multimedia information, in which the view was not defined as reading, is calculated and optionally displayed on the multimedia display module.

У ще одному аспекті корисної моделі розраховують відсоток структурних елементів, у яких погляд був визначений як читання, від загальної кількості структурних елементів при наданні мультимедійної інформації, та необов'язково пред'являють на модулі відображення мультимедійної інформації.In yet another aspect of the useful model, the percentage of structural elements in which the view was determined to be read is calculated out of the total number of structural elements when providing multimedia information, and optionally displayed on the multimedia information display module.

У наступному аспекті корисної моделі розраховують відношення обсягу переглянутих структурних елементів, у яких погляд не був визначений як читання, до обсягу структурних елементів, у яких погляд був визначений як читання, при наданні мультимедійної інформації, та необов'язково пред'являють на модулі відображення мультимедійної інформації.In a further aspect of the utility model, the ratio of the volume of viewed structural elements, in which the view was not determined as reading, to the volume of structural elements, in which the view was determined as reading, when providing multimedia information, is calculated, and optionally presented on the multimedia display module information

У наступному аспекті корисної моделі після завершення сеансу надання мультимедійної бо інформації або її фрагмента у АПК-ВК формують сертифікат перевірки читання, зокрема як електронний документ-сертифікат перевірки читання, та необов'язково зберігають у модулі збереження даних.In the next aspect of the useful model, after the completion of the session of providing multimedia information or its fragment, a reading verification certificate is formed in APK-VC, in particular as an electronic document-reading verification certificate, and optionally stored in the data storage module.

У наступному аспекті корисної моделі сертифікат перевірки читання завантажують на АПК-К.In the next aspect of the utility model, the read verification certificate is uploaded to the APK-K.

У наступному аспекті винаходом передбачено, що всі отримані дані суб'єкта зберігають у модулі збереження даних АПК-ВК та необов'язково АПК-К.In the next aspect, the invention provides that all received data of the subject is stored in the data storage module APC-VK and optionally APC-K.

Фіг. 1 - Автоматизована система визначення обсягу розпізнавання інформації, де (1) АПК-К, (10) пристрій відеофіксації, (20) модуль відображення мультимедійної інформації, (30) модуль прийому та передачі даних, (50) модуль запису з пристрою відеофіксації даних відеопотоку, (40) модуль збереження даних, (70) модуль обробки даних, (80) блок обробки даних відеопотоку з пристрою відеофіксації АПК-К, (90) блок калібрування параметрів очей, (100) блок визначення окремих точок погляду у кожний момент часу у координатах площини модулю відображення мультимедійної інформації; (2) АПК-ВК, (21) модуль відображення мультимедійної інформації, (31) модуль прийому та передачі даних, (41) модуль збереження даних, (61) модуль верифікації особи суб'єкта-користувача, (71), модуль обробки даних, придатний для роботи та навчання штучної нейронної мережі, (81) блок роботи та навчання штучної нейронної мережі, (91) блок класифікації фрагментів мультимедійної інформації на структурні елементи, (101) блок обробки даних відеопотоку з пристрою відеофіксації АПК-К, (111) блок встановлення відповідності між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації, (121) блок встановлення вірогідності відношення кожного окремого погляду суб'єкта до читання, (131) блок формування даних множини поглядів та агрегування даних множини поглядів у координатну систему класифікованих структурних елементів наданої мультимедійної інформації, (141) блок розрахунку за кількістю у кожному структурному елементі щільності даних всіх поглядів й щільності даних поглядів визначених як читання, та встановлення відповідних порогових значень для розрахованих щільностей, (151) блок розрахунку відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, (161) блок встановлення обсягу розпізнаної суб'єктом інформації, (171) блок встановлення обсягу прочитаної суб'єктом текстової інформації, (181) блок надання статистичної інформації та формування звітів.Fig. 1 - Automated system for determining the amount of information recognition, where (1) APC-K, (10) a video recording device, (20) a multimedia information display module, (30) a data reception and transmission module, (50) a recording module from a video recording device of video stream data ) coordinates of the plane of the multimedia information display module; (2) APC-VC, (21) multimedia information display module, (31) data reception and transmission module, (41) data storage module, (61) user subject identity verification module, (71), data processing module , suitable for artificial neural network operation and training, (81) artificial neural network operation and training unit, (91) multimedia information fragment classification unit into structural elements, (101) video stream data processing unit from the APK-K video recording device, (111) block for establishing the correspondence between individual points of view and a fragment of multimedia information provided at this time, (121) block for establishing the probability of the relation of each individual view of the subject to reading, (131) block for forming the data of a set of views and aggregating the data of a set of views into a coordinate system of classified structural elements of the provided multimedia information, (141) block for calculating the number in each structural element of data density of all views and data density of views defined as reading, and setting the corresponding threshold values for the calculated densities, (151) a unit for calculating the ratio of the overlapping area of the area where the data density of all views and the data density of the views defined as reading exceeds the threshold values to the total area of all structural elements defined in provided multimedia information, (161) block for setting the amount of information recognized by the subject, (171) block for setting the amount of text information read by the subject, (181) block for providing statistical information and generating reports.

Зо Фіг. 2 - Показники у часових серіях.From Fig. 2 - Indicators in time series.

Фіг. З - Фільтрування за допомогою ВРОСУ, ЕРОСМУ.Fig. C - Filtering using VROSU, EROSMU.

Фіг. 4 - Фільтрування тільки рухів погляду на екрані.Fig. 4 - Filtering only eye movements on the screen.

Фіг. 5 - Згорткова нейронна мережа, архітектура з 113,006 навчальними параметрами.Fig. 5 - Convolutional Neural Network architecture with 113,006 training parameters.

Фіг. 6 - Класифікація кожної групи фіксацій (спостереження, згруповані за ЕРОСІВ).Fig. 6 - Classification of each group of fixations (observations grouped by EROSIV).

Докладний опис корисної моделіDetailed description of the useful model

Наявні способи та системи стеження за рухом очей для різноманітних цілей передбачають застосування спеціалізованих відеопристроїв - айтрекерів. Як правило, увага концентрується на визначенні точних координатних положень найменших структурних елементів тексту, зокрема слова, ще краще літери, та на відстеженні траєкторій та основних патернів руху. Існують певні обмеження застосування айтрекерів залежно від методу, на якому базується система, зокрема темної зіниці або світлої зіниці, та суттєвого впливу на отримані дані певних поведінкових реакцій.Available methods and systems for tracking eye movements for various purposes involve the use of specialized video devices - eyetrackers. As a rule, attention is focused on determining the exact coordinate positions of the smallest structural elements of the text, in particular words, even better letters, and on tracking trajectories and basic movement patterns. There are certain limitations to the use of eyetrackers depending on the method on which the system is based, in particular dark pupil or light pupil, and the significant influence on the obtained data of certain behavioral reactions.

Відомі методи не пропонують способів дистанційної обробки даних стеження за рухом очей отриманих від неспеціалізованих для відстеження руху очей пристроїв, зокрема, за допомогою стандартної веб-камери, що можуть бути визначені наприклад як веб-трекінг, або будь-якого відеопристрою, що приєднаний або інтегрований у будь-який електронний пристрій персонального використання, що придатний для отримання, обробки, передачі та, необов'язково збереження даних, де такий спосіб має високу точність визначення та легкодоступну користувачу.The known methods do not offer methods for remote processing of eye tracking data obtained from non-specialized eye tracking devices, in particular, using a standard web camera, which can be defined for example as web tracking, or any video device attached or integrated in any electronic device for personal use, suitable for receiving, processing, transmitting and, optionally, saving data, where such a method has a high accuracy of determination and is easily accessible to the user.

Для цілей визначення обсягу розпізнаної та/або прочитаної інформації суб'єктом без залучення спеціалізованого обладнання у цій корисній моделі пропонується поєднання визначеним способом у автоматизовану систему налаштованих на виконання певних функцій програмно-апаратних засобів, як тут описано. Також для здійснення корисної моделі передбачено застосування штучної нейронної мережі, за допомогою навчання якої на первинному етапі створено шаблонні моделі визначення щільності погляду у визначених структурних елементах мультимедійної інформації, зокрема електронного документу, що у подальшому дозволило досягти 97 95 точності у визначенні обсягу розпізнавання наданої мультимедійної інформації та визначенні обсягу прочитаної інформації.For the purposes of determining the amount of information recognized and/or read by the subject without the involvement of specialized equipment, this useful model proposes the combination in a defined way into an automated system of hardware and software configured to perform certain functions, as described here. Also, for the implementation of a useful model, the use of an artificial neural network is provided, with the help of which training at the initial stage, template models for determining the density of gaze in the defined structural elements of multimedia information, in particular an electronic document, were created, which later made it possible to achieve 97 95 accuracy in determining the amount of recognition of the provided multimedia information and determining the volume of read information.

Описаний спосіб дозволяє суб'єкту-користувачу відстежувати і зберігати всі матеріали для бо читання і пов'язані з ними метадані зчитування, здійснювати пошук і фільтрацію вмісту шляхом зчитування параметрів шаблону (наприклад, час і швидкість фіксації дозволяють виділити окремо область інтересу всередині тексту); отримувати після обробки різні аналітичні анотації, отримувати опції допомоги в режимі реального часу під час ознайомлення із вмістом мультимедійної інформації, зокрема читання (наприклад, автоматизований переклад). У способі автоматично відстежується рух очей та співставляється з інформацією, наприклад текстом на екрані, що дозволяє обробляти шаблони зчитування в реальному часі і зберігати всі метадані для подальшого аналізу.The described method allows the user subject to track and store all materials for bo-reading and associated reading metadata, to search and filter content by reading template parameters (for example, the time and speed of fixation allow to single out the area of interest within the text); receive various analytical annotations after processing, receive real-time help options when familiarizing with the content of multimedia information, including reading (for example, automated translation). The method automatically tracks eye movements and correlates them with information such as text on the screen, allowing for real-time processing of reading patterns and storing all metadata for later analysis.

Для вирішення проблеми перевірки читання за допомогою комп'ютерних технологій у заявленій корисній моделі потрібно було перетворити звичайний стандартний відеопристрій, зокрема веб-камеру на пристрій відстеження очей. Для цих потреб було застосовано машинне навчання для побудови системи відстеження погляду очей та розпізнавання специфічних рухів очей під час читання, що разом із введенням нових елементів та вдосконалення відомих, а також за рахунок нових зав'язків та визначеної послідовності дій дозволило ефективно вирішити проблему перевірки читання.To solve the problem of computer-aided reading verification in the claimed utility model, it was necessary to convert a common off-the-shelf video device, in particular a web camera, into an eye tracking device. For these needs, machine learning was applied to build a system for eye gaze tracking and recognition of specific eye movements during reading, which, together with the introduction of new elements and improvement of known ones, as well as due to new connections and a defined sequence of actions, made it possible to effectively solve the problem of reading verification .

Здійснення корисної моделі передбачає застосування звичайних відеопристроїв, зокрема підключених, вбудованих або інтегрованих у будь-які електронні пристрої, наприклад планшет, смартфон, ноутбук, персональний комп'ютер або інший відповідний, що вимагає створення пристосованого апаратно-програмного комплексу (АПК), де важливим також є вибір даних для відеофіксації, способу відеофіксації, спосіб їх обробки, передачі та вибір критеріїв для інтерпретації.The implementation of a useful model involves the use of conventional video devices, in particular, connected, built-in or integrated into any electronic device, for example, a tablet, smartphone, laptop, personal computer or other suitable, which requires the creation of an adapted hardware and software package (APK), where important there is also the selection of data for video recording, the method of video recording, the method of their processing, transmission and the selection of criteria for interpretation.

На початку була проведена робота щодо аналізу візуальної активності суб'єкта, де за даними погляду класифікували читання/нечитання, виявляли регресії, міжрядкові переходи (5вмеєр5) та сакади, картували множину окремих поглядів на структурних елементах мультимедійної інформації/документа. Як придатний засіб для цього було використано програму Ізокрема як описано, Вопота? В., Спацйв М., МеІпуспик У. Маспніпе І єатіпа Теснпіднев іп Веадіпу Тгаскіпд. Меєї усиг |(ІЗТОВМІ ООК)І / А. Вопота?, М. Спацв, М. МеІпуспик. - ВеєпімеогAt the beginning, work was carried out on the analysis of the subject's visual activity, where reading/non-reading was classified according to the gaze, regressions, interline transitions (5vmeer5) and saccades were detected, and a set of individual gazes was mapped on the structural elements of the multimedia information/document. As a suitable means for this was the Isocrema program as described, Vopota? V., Spatsyv M., MeIpuspik U. Maspnipe I eatipa Tesnpidnev ip Veadipu Tgaskipd. My achievements |(IZTOVMI OOK)I / A. Vopota?, M. Spatsv, M. MeIpuspyk. - Veepimeog

Асадету апа ВшеО їарбе раппегей м/йй о ОайаКоої арх. - Осі 19, 2018 перзв//тедійт.сот/єдВеепНімеогагоМр/тасніпе-Ієагтіпд-їесппідпевз-іп-теадіпд-ігасКіпа-тееї-уоцг- аіогуісок-бас7ббаваззЗа| для створення якої застосували переважно бібліотеки з відкритимAsadetu apa VsheO iarbe rappegei m/yy o OayaKooi arch. - Osi 19, 2018 perzv//tediit.sot/edVeepNimeogagoMr/tasnipe-Ieagtipd-iespppidpevz-ip-teadipd-igasKipa-teei-uotsg- aioguisok-bas7bbavazzZa| for the creation of which mainly open source libraries were used

Зо кодом.With a code.

Відомості всіх патентів, опублікованих заявок та посилань, цитованих у цьому описі, включені як посилання що охоплюють всю їх повноту.The details of all patents, published applications and references cited in this specification are incorporated by reference in their entirety.

Збір данихData collection

При зборі даних для відстеження людської діяльності використовували трекер, наприкладWhen collecting data to track human activity, a tracker was used, for example

СаеРоїіпі еує, що дозволило отримати координати погляду з кутом похибки не більше 1-1,5 градусів після калібрування. Під час кожного сеансу програма СаеРоїпі Апаїузів записує відео та зображення на екрані разом з табличними даними про рух погляду.SaeRoiipi eu, which made it possible to obtain gaze coordinates with an error angle of no more than 1-1.5 degrees after calibration. During each session, the SaeRoipi Appaiuziv program records video and on-screen images along with eye movement tabular data.

Весь набір даних складався з 2 частин: 51 часової серії читання та 85 - "не читання". Кожен учасник дослідження повинний був виконати наступні дії: читати 2-хвилинний текст; знайти конкретну інформацію та речі на зображеннях, дивитися 3-хвилинне відео.The entire data set consisted of 2 parts: 51 read time series and 85 non-read time series. Each research participant had to perform the following actions: read a 2-minute text; find specific information and things in the pictures, watch a 3-minute video.

Отримані часові серії складаються з декількох стовпців (Фіг. 2):The obtained time series consists of several columns (Fig. 2):

ЕРОСХ, ЕРОХУ - координати екрану, відносно роздільної здатності екрана, алгоритм АEROSH, EROHU - screen coordinates, relative to screen resolution, algorithm A

ВРОСХ, ВРОХУ - координати екрану, відносно роздільної здатності екрана, алгоритм ВVROSH, VROHU - screen coordinates, relative to screen resolution, algorithm B

ЕРОІО - ідентифікатор фіксаціїEROIO - fixation identifier

ФПОГД - тривалість фіксації очейFPOGD - eye fixation duration

БПОГВ, ФПОГВ - обгрунтованість інформаціїBPOGV, FPOGV - validity of information

ВКІО - ідентифікатор блиманняVKIO - blink identifier

Попередня обробка даних і вибір функційData preprocessing and feature selection

У ході нашого дослідження ми виявили, що відстежені координати не можуть бути ідеальними. Мигання, переміщення голови, змінне освітлення - всі ці чинники переривають або псують потік даних. Отже було зроблено додаткові кроки, що могли полегшити ситуацію, було прийнято згладжування руху погляду як основний варіант, хоча значення цього підходу має межі. Згладжування виключає одну важливу особливість - мікросакади. Сакади є швидким, одночасним рухом обох очей між двома точками кріплення. Мікросакади - це рух в межах однієї фіксації, що дає відповідь на те, як користувачі фіксують свій погляд. Хоча згладжування не є ідеальним вибором, коли мова йде про сакади, воно допомагає апроксимувати виявлення слів.In the course of our research, we discovered that the tracked coordinates may not be perfect. Blinking, moving the head, changing lighting - all these factors interrupt or spoil the flow of data. Therefore, additional steps were taken that could alleviate the situation, smoothing the movement of the gaze was adopted as the main option, although the value of this approach has limits. Smoothing eliminates one important feature - microsaccades. Saccades are rapid, simultaneous movements of both eyes between two fixation points. Microsaccades are movements within a single fixation that respond to how users fixate their gaze. Although smoothing is not an ideal choice when it comes to saccades, it helps to approximate word detection.

Ось що означало фільтрування для цих дослідницьких цілей (Фіг. 3,4): фільтрування за допомогою ВРОСУ, ЕРОСМУ, фільтрування тільки рухів погляду на екрані.This is what filtering meant for these research purposes (Fig. 3, 4): filtering using VROSU, EROSMU, filtering only the movements of the gaze on the screen.

Щоб легко маніпулювати набором даних і моделями тренувань/гтестів було обрано вікно обробки часової послідовності шириною у 100 значень (що приблизно відповідає середньому часу для читання однієї площині на папері формату А4). Це призвело до розщеплення всіх наборів даних на 24 568 серій читання і 14 288 серій "не читання" багатьох часових серій з довжиною у 100 значень, з врахуванням 90 95 перекриття.In order to easily manipulate the data set and the training/gtest models, a time sequence processing window with a width of 100 values (which roughly corresponds to the average time to read one plane on A4 paper) was chosen. This resulted in splitting all data sets into 24,568 read series and 14,288 "no-read" series of multiple time series with a length of 100 values, allowing for 90 95 overlap.

Класифікація читання/не читанняRead/non-read classification

Далі було використано три основні методи класифікації часових рядів. Було створено три групи функцій: виявлення лінійного тренда для ЕРОСХ, сезонність та загальні характеристики, однак обрані функції виявилися не інформативними та не описували добре дані.Next, three main methods of time series classification were used. Three groups of features were created: detection of a linear trend for EROSH, seasonality and general characteristics, but the selected features were not informative and did not describe the data well.

Наступною була застосована згорткова нейронна мережа. Використовувалися функції ах, ау. Після деякого налаштування було знайдено оптимальну архітектуру з 113,006 навчальними параметрами, див. Фіг. 5. Ця модель давала 96 95 точність на підгрупі тестів і згодом була обрана як базова модель для подальших досліджень.Next, a convolutional neural network was applied. The functions ah, au were used. After some tuning, the optimal architecture was found with 113,006 training parameters, see Fig. 5. This model gave 96 95 accuracy on a subset of tests and was subsequently selected as the baseline model for further research.

Читання моделей кластеризаціїReading clustering models

Головне завдання полягало у класифікуванні кожної групи фіксацій (спостереження, згруповані за ЕРОСІВ) як одну з трьох основних патернів: сакади, міжрядкові переходи, регресії (Фіг. 6).The main task was to classify each group of fixations (observations grouped by EROSIV) as one of three main patterns: saccades, interline transitions, regressions (Fig. 6).

Основна перешкода, що виявилася на даному етапі, була маркування набору даних, оскільки дані з частотою 60 Гц по суті важко маркувати. Це також виявилося проблемою для кластеризації. Деякі з незначних проблем, які були вирішені, це висока подібність між регресіями та міжрядковими переходами, а також фіксаціями під час скролінгу (5сгоїІїпо), які виявилися викидами. Для виключення фіксацій під час скролінгу використали алгоритм класифікації читання.The main obstacle encountered at this stage was the labeling of the data set, as 60 Hz data is inherently difficult to label. This also proved to be a problem for clustering. Some of the minor issues that have been addressed are high similarity between regressions and line transitions, and scrolling freezes (5sgoiIipo) that were outliers. To exclude fixations during scrolling, a reading classification algorithm was used.

Весь набір даних був відфільтрований лише від точок до сакад. Щоб отримати дані сакад, згрупували точки за ідентифікатором фіксацій (ЕРОСІЮ) і відібрали тільки останнє спостереження з кожної групи. В результаті, всі ідентифіковані сакади були розділені на мінімальні/максимальні значення з наївним алгоритмом уздовж горизонтальної осі, а мінімальні сакади були розділені на групи міжрядкових переходів та регресій. Для досягнення необхідних результатів використали кластеризацію із застосуванням методу К-середніх на трьох основнихThe entire dataset was filtered from spikes to saccades only. To obtain saccade data, points were grouped by fixation identifier (EROSION) and only the last observation from each group was selected. As a result, all identified saccades were divided into minimum/maximum values with a naive algorithm along the horizontal axis, and minimum saccades were divided into groups of interline transitions and regressions. To achieve the required results, we used clustering using the K-means method on the three main ones

Зо функціях сакад: проекція міжрядкових переходів по горизонтальній осі, кут міжрядкових переходів по горизонтальній осі та відмінність від попередньої сакади.From the functions of saccades: the projection of interline transitions along the horizontal axis, the angle of interline transitions along the horizontal axis, and the difference from the previous saccade.

Одним з прикладів автоматизованої обробки мультимедійної інформації є створення цілісного текстового документа з відео у наступній послідовності: ідентифікація статичних кадрів на відео (з пороговим відхиленням між знімками), відокремлення листів (текстових фрагментів) з рамки, наступне об'єднані аркушів в єдиному "панорамному" зображенні, відокремлення тексту у відображений документ, виявлення точок інтересу.One of the examples of automated processing of multimedia information is the creation of a complete text document from a video in the following sequence: identification of static frames in the video (with a threshold deviation between the shots), separation of sheets (text fragments) from the frame, then combined sheets into a single "panoramic" images, separating text into a displayed document, identifying points of interest.

У результаті вдалося отримати модель машинного навчання, здатну з точністю до 97 95 прогнозувати, чи читав/не читав користувач текст протягом 1,6 секунд запису.As a result, it was possible to obtain a machine learning model capable of predicting with 97 95 accuracy whether the user has read/not read the text within 1.6 seconds of recording.

Деякі основні висновки дослідження свідчать, що алгоритм, який спирається на передбачення попередньої моделі машинного навчання (МІ), може враховувати рух погляду (регресії, міжрядкові переходи (зу"еерз) та сакади) і обчислювати відносну швидкість читання; алгоритм, який надає інформацію про цікавість читача, забезпечує ваговий коефіцієнт для даного слова, що може бути важливим для читача.Some of the main findings of the study are that an algorithm that relies on the predictions of a prior machine learning (ML) model can account for gaze movement (regressions, interline transitions (interline transitions) and saccades) and calculate relative reading speed; an algorithm that provides information about reader's interest, provides a weight factor for a given word, which may be important for the reader.

Вчені, які досліджують таку поведінку людини, як відстеження погляду, можуть виявити раніше заблоковані області в техніці здоров'я і бізнесу. Як обгрунтовано даним алгоритмом, можна зробити прогнози в режимі реального часу, засновані на технологіях спостереження за поглядами, і, можливо, вийти за межі цього з більш науковим застосуванням, яке ніхто не вважав можливим раніше.Scientists who study human behavior such as eye tracking can uncover previously blocked areas in health technology and business. As evidenced by this algorithm, it is possible to make real-time predictions based on gaze-tracking technologies, and perhaps go beyond that with more scientific applications that no one thought possible before.

Визначення загальних параметрів читання без чіткого відокремлення тієї частини текстової інформація, що дійсно була прочитана, не дозволяє із високою точністю спрогнозувати або встановити обсяг розпізнаного змісту текстової інформації серед всієї мультимедійної або всієї текстової інформації, важкість її засвоєння, відокремлення особливо важливих за змістом фрагментів тощо.Determining the general parameters of reading without clearly separating that part of the text information that was actually read does not allow to predict or establish with high accuracy the amount of recognized content of text information among all multimedia or all text information, the difficulty of its assimilation, separation of particularly important content fragments, etc.

Із залученням описаного вище для найкращого здійснення способу визначення обсягу розпізнавання інформації суб'єктом при наданні мультимедійної інформації, зокрема визначення обсягу прочитування суб'єктом структурних елементів мультимедійної інформації або електронного документа, визначеного як текст, було застосовано автоматизовану систему.With the involvement of the method described above for the best implementation of the method of determining the amount of information recognition by the subject when providing multimedia information, in particular, determining the amount of reading by the subject of structural elements of multimedia information or an electronic document defined as text, an automated system was applied.

Обрані параметри для цільового навчання штучної нейронної мережі дозволяють проводити наступне визначення вірогідності відношення кожного окремого погляду суб'єкта до читання. 60 При цьому, за даними просторових та часових характеристик руху очей з врахуванням поведінкових реакцій можливо розподілити ділянки текстових фрагментів мультимедійної інформації на групи "уважне читання", "оглядове або ознайомлювальне читання", "сканувальне читання" та "скролінг" та відокремити для подальшого аналізу ділянки текстових фрагментів, що виділені як "уважне читання" або власне читання.The selected parameters for targeted training of the artificial neural network allow the following determination of the probability of the relation of each individual view of the subject to reading. 60 At the same time, according to the spatial and temporal characteristics of eye movements, taking into account behavioral reactions, it is possible to divide sections of text fragments of multimedia information into groups of "careful reading", "review or familiarization reading", "scanning reading" and "scrolling" and separate them for further analysis areas of text fragments highlighted as "careful reading" or proper reading.

Автоматизований спосіб визначення обсягу розпізнавання інформації суб'єктом здійснюють наступним чином.The automated method of determining the amount of information recognition by the subject is carried out as follows.

За допомогою блоку калібрування очей (90) у АПК-К (1) проводять калібрування параметрів очей з врахуванням індивідуальних анатомічних параметрів очей при наданні суб'єкту рухливих візуальних стимулів та завдання на стеження. Калібрування може проводитись як одноразово так й кілька - або багаторазово за потребою, зокрема із певною періодичністю або перед кожним сеансом надання суб'єкту мультимедійної інформації.Using the eye calibration unit (90) in the APC-K (1), calibration of the eye parameters is carried out taking into account the individual anatomical parameters of the eyes when providing the subject with moving visual stimuli and tracking tasks. Calibration can be carried out both once and several times - or repeatedly as needed, in particular with a certain frequency or before each session of providing multimedia information to the subject.

Зв'язок взаємодії суб'єкта із мультимедійною інформацією підтверджують шляхом верифікації особи суб'єкта у модулі (61), що здійснюють перед наданням суб'єкту мультимедійної інформації на підставі візуальних даних про суб'єкта, які вводять у віддаленийThe connection of the subject's interaction with multimedia information is confirmed by verifying the subject's identity in module (61), which is carried out before providing the subject with multimedia information on the basis of visual data about the subject that is entered into the remote

АПК-ВК, одноразово або кілька - або багаторазово, наприклад із певною періодичністю або перед кожним наступним наданням суб'єкту мультимедійної інформації, або після переривання сеансу перегляду на заздалегідь установлений час перед кожним сеансом надання мультимедійної інформації після такого переривання.APC-VC, once or several - or repeatedly, for example with a certain frequency or before each subsequent provision of multimedia information to the subject, or after interrupting the viewing session for a predetermined time before each session of providing multimedia information after such an interruption.

Ідентифікація/верифікація особи суб'єкта може відбуватися за рахунок внесення даних про суб'єкта у базу даних модулю збереження даних відповідного пристрою заздалегідь або при першому зверненні суб'єкта до АПК-К.О У подальших сеансах звернення суб'єкта до мультимедійної інформації щодо якої передбачено визначення обсягу розпізнавання та/або прочитання у будь-якому визначеному режимі порівнюють параметри суб'єкта із наявними у базі даних протягом всього періоду сеансу або сеансів обробки інформації суб'єктом. При авторизації у системі при першому зверненні для спрощення механізму ідентифікації/верифікації та скорочення часу на ідентифікацію може бути застосована система входу у систему за допомогою наявних акаунтів, зокрема акаунтів соціальних мереж тощо, що включають аудіо - та або фото - та/або відеофіксовані дані суб'єкта, зокрема його зовнішності, наприклад рис обличчя, тощо.Identification/verification of the subject's identity can be done by entering data about the subject into the database of the data storage module of the corresponding device in advance or when the subject first applies to the APC-K.O. In subsequent sessions of the subject's application to multimedia information about which provides for determining the scope of recognition and/or reading in any specified mode, compares the subject's parameters with those available in the database during the entire period of the subject's information processing session or sessions. When authorizing in the system on the first visit, in order to simplify the identification/verification mechanism and reduce the time for identification, a system of logging into the system using existing accounts, in particular social network accounts, etc., including audio and/or photo and/or video recorded data may be applied object, in particular its appearance, such as facial features, etc.

Зо Після калібрування або до нього, або під час калібрування за допомогою модулю прийому та передачі даних, що придатний для прийому та передачі інформації (31) завантажують мультимедійну інформацію на віддалений АПК-ВК (2) та за допомогою блоку класифікації фрагментів (91) класифікують її фрагменти на структурні елементи за ознаками - текст, зображення, таблиця та інше (уся інша інформація, відмінна від тексту, зображень або таблиць).After calibration, or before it, or during calibration, using the data reception and transmission module, which is suitable for receiving and transmitting information (31), upload multimedia information to the remote APC-VK (2) and use the fragment classification unit (91) to classify its fragments into structural elements by characteristics - text, image, table, etc. (all other information other than text, images, or tables).

Далі передають класифіковану інформацію з віддаленого АПК-ВК (2) на АПК-К (1) та надають її суб'єкту на модулі відображення мультимедійної інформації (20).Next, the classified information is transferred from the remote APC-VC (2) to the APC-K (1) and provided to the subject on the multimedia information display module (20).

Відображення мультимедійної інформації може відбуватися на будь-якому придатному засобі відображення, наприклад екран телевізора, монітор комп'ютера або ноутбука, дисплей смартфона, дисплей планшета тощо.Multimedia information can be displayed on any suitable display medium, such as a TV screen, a computer or laptop monitor, a smartphone display, a tablet display, etc.

За допомогою пристрою відеофіксації (10) відеопотоку, у модулі запису (50) АПК-К (1) записують дані руху очей та/або погляду з врахуванням поведінкових реакцій у вигляді щонайменше мигання очей та/або рухів голови, та/або змін координат попередньо маркованих точок на обличчі, та у блоку обробки даних відеопотоку (80) модуля обробки даних (70) за допомогою блоку визначення окремих точок (100) визначають окремі точки погляду у кожний момент часу у координатах площини модулю відображення мультимедійної інформації (20)Using the video recording device (10) of the video stream, the recording module (50) of the APC-K (1) records eye movement and/or gaze data taking into account behavioral reactions in the form of at least eye blinking and/or head movements, and/or changes in coordinates beforehand marked points on the face, and in the data processing unit of the video stream (80) of the data processing module (70) with the help of the individual point determination unit (100), individual points of view are determined at each moment of time in the coordinates of the plane of the multimedia information display module (20)

АПК-К (1) під час надання мультимедійної інформації.APC-K (1) during the provision of multimedia information.

Важливим є те, що як пристрій відеофіксації застосовують будь-який відеопристрій, що виконаний з можливістю прийняття та передачі відеоданих, зокрема веб - камера або відеокамера, що підключена або інтегрована у АПК-К (1), зокрема може бути застосована підключена до персонального електронного пристрою (персональний комп'ютер, телефон, смартфон, планшет або інший) фото та/або відеокамера або наявна, вбудована у зазначений пристрій, або інше.It is important that any video device capable of receiving and transmitting video data is used as a video recording device, in particular a web camera or a video camera connected or integrated into the APC-K (1), in particular it can be used connected to a personal electronic device (personal computer, phone, smartphone, tablet or other) photo and/or video camera or present, built-in to said device, or otherwise.

Отриману інформацію у будь-який відомий спосіб (дротовий або бездротовий) із застосуванням модулів прийому та передачі даних (30) та (31) передають на віддалений АПК-The received information is transmitted in any known way (wired or wireless) with the use of data reception and transmission modules (30) and (31) to the remote APC-

ВК (2) та далі у модуль обробки даних (71).VK (2) and then to the data processing module (71).

Із застосування блоку роботи та навчання штучної нейронної мережі (81) та блоку встановлення відповідності (111) виявляють відповідність між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації, далі із застосуванням штучної бо нейронної мережі блоку (81) формують дані множини поглядів та за допомогою блока встановлення вірогідності (121) визначають вірогідність відношення кожного окремого погляду суб'єкта до читання.With the use of the work and training unit of the artificial neural network (81) and the matching unit (111), the correspondence between the individual points of view and the currently provided piece of multimedia information is detected, then with the use of the artificial neural network of the unit (81) they form the given set of views and with the help of the probability setting block (121), the probability of the relation of each individual view of the subject to reading is determined.

Зазначені дані множини поглядів агрегують у координатну систему класифікованих структурних елементів наданої мультимедійної інформації у блоку формування та агрегування множини даних погляду (131).The specified data of the set of views are aggregated into the coordinate system of the classified structural elements of the provided multimedia information in the block of formation and aggregation of the set of view data (131).

Далі у модулі обробки даних (71) розраховують у блоку розрахунку (151) за кількістю у кожному структурному елементі щільність даних всіх поглядів й щільність даних поглядів визначених як читання, та встановлюють відповідні порогові значення для розрахованих щільностей, що відмежовують статистичний шум.Further, in the data processing module (71), the data density of all views and the data density of views defined as reading are calculated in the calculation unit (151) according to the number in each structural element, and appropriate threshold values are set for the calculated densities that delimit statistical noise.

Додатково у модулі обробки даних (71), необов'язково у окремому блоці, що пов'язаний із блоками (81)-(181), визначають кількість переходів від визначеного тексту до супутніх матеріалів, зокрема таблиць та/або зображень та час, що витрачається на такі переходи, що враховують при визначенні поведінкових реакцій при читанні та "не читанні".Additionally, in the data processing module (71), optionally in a separate block associated with blocks (81)-(181), determine the number of transitions from the specified text to accompanying materials, in particular tables and/or images, and the time that is spent on such transitions that are taken into account when determining behavioral reactions when reading and "not reading".

Потім у блоці розрахунку відношення площі перекриття області (151) визначають відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, й встановлюють обсяг розпізнаної інформації суб'єктом за допомогою блока (161) встановлення обсягу розпізнаної суб'єктом інформації, після чого за допомогою блоку (171) встановлення обсягу прочитаної суб'єктом текстової інформації визначають прочитану інформацію.Then, in the area overlap area ratio calculation block (151), the ratio of the overlap area of the area where the data density of all views and the data density of views defined as reading exceeds the threshold values to the total area of all structural elements defined in the provided multimedia information is determined, and set the amount of information recognized by the subject using block (161) of setting the amount of information recognized by the subject, after which the read information is determined using block (171) of setting the amount of text information read by the subject.

Мультимедійна інформація, яка підлягає обробці суб'єктом, являє собою будь який вид інформації, що придатний для відображення на різноманітних пристроях, й може містити текст або його фрагменти (зокрема наприклад написи, числа), таблиці, зображення, текстові фрагменти без зображень та/або таблиць або із зображеннями та/або таблицями у відомих форматах представлення електронних документів, наприклад являє собою електронний документ, електронну книгу (наприклад, виробничий документ, навчальний матеріал, електронний тестувальний матеріал, розважальний матеріал тощо) та/або відеоінформацію, що містить текстові фрагменти та/або зображення та/або таблиці. Після обробки у блоку (91) завантаженої у АПК-ВК мультимедійної інформації проводять її класифікацію шляхомMultimedia information to be processed by the subject is any type of information suitable for display on various devices and may contain text or its fragments (in particular, for example, inscriptions, numbers), tables, images, text fragments without images and/ or tables or with images and/or tables in known electronic document presentation formats, for example, is an electronic document, an electronic book (for example, a production document, educational material, electronic testing material, entertainment material, etc.) and/or video information containing text fragments and/or images and/or tables. After processing in the block (91) the multimedia information loaded in the APC-VC, it is classified by

Зо відділення від всього обсягу контенту фрагментів, що містять ознаки тексту, що являють собою текстові фрагменти, таблиці (із текстовими елементами та числами) та зображення, зокрема, що пов'язані із текстовими та/або табличними фрагментами.From the separation from the entire content of fragments containing text features, which are text fragments, tables (with text elements and numbers) and images, in particular, related to text and/or table fragments.

Суб'єкту мультимедійна інформація надається у звичайному форматі, але попередня класифікація дозволяє сконцентруватися на поведінкових реакціях та рухах очей у взаємозв'язку із цільовими частинами мультимедійної інформації.Multimedia information is presented to the subject in a conventional format, but preliminary classification allows to focus on behavioral responses and eye movements in relation to target parts of multimedia information.

Віддалений АПК-ВК додатково забезпечує можливість представлення результатів обробки даних стосовно обсягу розпізнавання та/або прочитання мультимедійної інформації на пристрої відображення (20) користувача у різноманітний спосіб. Обсяг та вид надання цих даних можуть визначатися оператором віддаленого АПК-ВК та/або володільцем цієї мультимедійної інформації та/або користувачем або іншим чином.The remote APC-VC additionally provides the ability to present the results of data processing regarding the amount of recognition and/or reading of multimedia information on the user's display device (20) in a variety of ways. The scope and type of provision of this data may be determined by the operator of the remote APC-VC and/or the owner of this multimedia information and/or the user or otherwise.

Зокрема, у блоку надання статистичної інформації (181) формують дані щодо поведінки суб'єкта під час читання, зокрема об'єму прочитаної інформації, швидкісті читання, складністі сприйняття інформації, дані щодо різних аспектів руху очей, та у подальшому на підставі цих даних формують звіт, зокрема сертифікат перевірки читання, зокрема як електронний документ, після завершення кожного сеансу або серії сеансів надання мультимедійної інформації або її фрагмента.In particular, in the block of providing statistical information (181), data on the subject's behavior during reading is generated, in particular the amount of information read, reading speed, the complexity of information perception, data on various aspects of eye movement, and further on the basis of these data, the a report, in particular a certificate of reading verification, in particular as an electronic document, after the completion of each session or series of sessions of providing multimedia information or its fragment.

Зокрема, на модулі відображення мультимедійної інформації (20) та/або (21) надають сформований звіт та/або карту у будь-якій візуально прийнятній формі, та/або діаграму, та/або графік або інше, щільності поглядів та/або щільності даних поглядів, визначених як читання, та/або площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, та/або розрахований відсоток переглянутих структурних елементів від загальної кількості структурних елементів при наданні мультимедійної інформації, у яких погляд не був визначений як читання, та/або розрахований відсоток структурних елементів, у яких дані погляду були визначені як читання, від загальної кількості структурних елементів при наданні мультимедійної інформації, та/"або розраховане відношення обсягу переглянутих структурних елементів, у яких погляд не був визначений як читання, до обсягу структурних елементів, у яких дані погляду були визначені як читання, при наданні мультимедійної інформації тощо.In particular, the multimedia information display module (20) and/or (21) provides a generated report and/or map in any visually acceptable form, and/or diagram, and/or graph or other, of views density and/or data density of views defined as reading and/or the overlap area of the area where the data density of all views and the data density of views defined as reading exceeds the threshold values, and/or the calculated percentage of viewed structural elements out of the total number of structural elements when providing multimedia information, in in which the gaze was not defined as reading, and/or the calculated percentage of structural elements in which the gaze data was defined as reading, from the total number of structural elements in the provision of multimedia information, and/or the calculated ratio of the volume of viewed structural elements in which the gaze was not was defined as a read, to the extent of the structural elements in which the view data was defined as a read, provided and multimedia information, etc.

Така візуалізація результатів розпізнавання та/або читання мультимедійної інформації та бо швидкості цих процесів, може відбуватись як після завершення сеансу надання мультимедійної інформації, так й протягом сеансу після завершення перегляду певних визначених фрагментів мультимедійної інформації у режимі реального часу. Це є додатковим інструментом контролю процесу розпізнавання та/"або читання для користувача та/або володільця мультимедійної інформації та/або оператора відділеного АПК-ВК та розвивається у ряд додаткових можливостей описаного тут способу та системи.Such visualization of the results of recognition and/or reading of multimedia information and the speed of these processes can occur both after the end of the session of providing multimedia information, and during the session after the end of viewing certain defined fragments of multimedia information in real time. This is an additional tool for controlling the process of recognition and/or reading for the user and/or the owner of multimedia information and/or the operator of the separate APC-VC and develops into a number of additional capabilities of the method and system described here.

Обмін даними між АПК-К та АПК-ВК здійснюється за допомогою дротової або бездротової передачі, при цьому налаштування АПК-ВК дозволяє розширити систему та здійснювати такий обмін даними з множиною АПК-К, а також забезпечує зменшення функціонально-програмного навантаження на АПК-К, всі отримані дані суб'єкта зберігають у модулі збереження даних (41)Data exchange between APC-K and APC-VK is carried out using wired or wireless transmission, while setting up APC-VK allows you to expand the system and carry out such data exchange with multiple APC-K, and also ensures a reduction of the functional and software load on APC-K , all received subject data are stored in the data storage module (41)

АПК-ВК та необов'язково частину даних, зокрема звіти та/або карти та/або сертифікати - у АПК-APC-VC and optionally part of the data, in particular reports and/or maps and/or certificates - in APC-

К.K.

Застосування підходу машинного навчання робить заявлений спосіб перевірки ознайомлення із мультимедійною інформацією та перевірки читання легко застосовним та стандартним на безлічі пристроїв. Завдяки заявленому способу та системі у режимі реального часу із застосуванням будь-якого засобу відеофіксації можна виявити з 97 95 точністю, чи людина читає в даний момент та розрахувати обсяг дійсно прочитаної інформації.The application of a machine learning approach makes the claimed method of checking the familiarity with multimedia information and checking the reading easily applicable and standard on many devices. Thanks to the declared method and system in real time using any means of video recording, it is possible to detect with 97 95 accuracy whether a person is reading at the moment and calculate the amount of information actually read.

Отримані у такій спосіб дані щодо обсягу та/або швидкості розпізнавання та прочитання інформації дозволяють розширити можливості застосування описаних тут способів та/або систем, що базуються на технології стеження за рухом очей, для різних цілей.The data obtained in this way regarding the amount and/or speed of recognition and reading of information allow to expand the possibilities of using the methods and/or systems described here, based on eye tracking technology, for various purposes.

Так, з урахуванням можливості чіткої ідентифікації/верифікації особи суб'єкта у зв'язку із конкретною мультимедійною інформацією, наприклад електронним документом, що він переглядає, розпізнає та прочитує, виникає можливість незалежного автоматизованого підтвердження ознайомлення цією особою із документом та підтвердження обсягу прочитаної інформації, що дозволяє із високим ступенем вірогідності стверджувати про глибину когнітивної обробки інформації конкретним суб'єктом. Це є корисним при різноманітних навчальних процесах, при оцінці певних професійних навичок, оцінці дистанційної взаємодії між персоналом всередині одного підприємства або між різними структурами, зокрема державного сектору, у юридичній практиці, тощо. Крім того, зв'язок між особою суб'єкта, конкретним електронним документом, із яким він ознайомився, та обсягом прочитаного у цьому документі контентуThus, taking into account the possibility of clear identification/verification of the person of the subject in connection with specific multimedia information, for example, an electronic document that he views, recognizes and reads, there is a possibility of independent automated confirmation of familiarization with the document by this person and confirmation of the amount of information read, which allows with a high degree of probability to assert the depth of cognitive processing of information by a specific subject. This is useful in various educational processes, in the assessment of certain professional skills, assessment of remote interaction between personnel within the same enterprise or between different structures, in particular the public sector, in legal practice, etc. In addition, the relationship between the person of the subject, the specific electronic document with which he got acquainted, and the amount of content read in this document

Зо дозволяє здійснити автоматизовану та легкодоступну сертифікацію щодо прочитаного документа, зокрема шляхом створення сертифікату підписування документу, що може бути застосовано у безлічі галузей.Zo allows for automated and easily accessible certification of a read document, in particular by creating a document signing certificate, which can be used in many industries.

Хоча описані втілення базувалися на переважних варіантах, фахівцям в даній галузі техніки буде зрозуміло, що можуть бути внесені різні зміни у формі і деталях без відхилення від обсягу втілень, охоплених формулою корисної моделі, що додається.While the described embodiments have been based on preferred embodiments, those skilled in the art will appreciate that various changes in form and detail may be made without departing from the scope of the embodiments covered by the appended utility model formula.

Claims (15)

ФОРМУЛА КОРИСНОЇ МОДЕЛІUSEFUL MODEL FORMULA 1. Автоматизований спосіб визначення обсягу розпізнавання інформації суб'єктом при наданні мультимедійної інформації, що передбачає надання мультимедійної інформації, фіксацію та обробку даних щодо руху очей суб'єкта із застосуванням пристрою відеофіксації та визначення обсягу розпізнавання суб'єктом наданої мультимедійної інформації, який відрізняється тим, що спосіб здійснюють за допомогою системи, що включає: - апаратно-програмний комплекс користувача (АПК-К), у якому поєднані або інтегровані пристрій відеофіксації, модуль відображення мультимедійної інформації, модуль прийому та передачі даних, модуль запису з пристрою відеофіксації даних відеопотоку, модуль збереження даних, модуль автоматизованої обробки даних, та - віддалений апаратно-програмний комплекс взаємодії із користувачем (АПК-ВК), у якому поєднані або інтегровані модуль візуального надання мультимедійної інформації, модуль прийому та передачі даних, модуль збереження даних, модуль верифікації суб'єкта- користувача, модуль обробки даних, що придатний для роботи та навчання штучної нейронної мережі, й спосіб включає наступні етапи: - у АПК-К проводять калібрування параметрів очей при наданні суб'єкту тестової інформації у вигляді рухливих візуальних стимулів; - завантажують мультимедійну інформацію на віддалений АПК-ВК та класифікують її фрагменти на структурні елементи за ознаками - текст, зображення, таблиця та інше; - передають класифіковану інформацію з віддаленого АПК-ВК на АПК-К та надають її суб'єкту; - отримують за допомогою пристрою відеофіксації відеопоток, за даними якого у модулі запису АПК-К записують дані руху очей та/або погляду з врахуванням поведінкових реакцій у вигляді бо щонайменше мигання очей та/або рухів голови, та/або змін координат попередньо маркованих точок на обличчі, визначають окремі точки погляду у кожний момент часу у координатах площини модуля відображення мультимедійної інформації АПК-К під час надання мультимедійної інформації; передають отриману інформацію на віддалений АПК-ВК, у якому: - встановлюють відповідність між окремими точками погляду та наданим у цей час фрагментом мультимедійної інформації; - із застосуванням штучної нейронної мережі формують дані множини поглядів та встановлюють вірогідність відношення кожного окремого погляду суб'єкта до читання; - агрегують зазначені дані множини поглядів у координатну систему класифікованих структурних елементів наданої мультимедійної інформації; - розраховують за кількістю у кожному структурному елементі щільність даних всіх поглядів й щільність даних поглядів, визначених як читання, та встановлюють відповідні порогові значення для розрахованих щільностей, що відмежовують статистичний шум; - розраховують відношення площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, до загальної площі всіх структурних елементів, визначених у наданій мультимедійній інформації, й встановлюють обсяг розпізнаної інформації суб'єктом, за яким визначають інформацію як прочитану.1. Automated method of determining the amount of information recognition by the subject when providing multimedia information, which involves providing multimedia information, recording and processing data on the subject's eye movements using a video recording device and determining the amount of recognition of the provided multimedia information by the subject, which differs in that , that the method is carried out using a system that includes: - user hardware and software complex (APK-K), in which a video recording device, a multimedia information display module, a data reception and transmission module, a recording module from a video recording device of video stream data are combined or integrated, a data storage module, an automated data processing module, and - a remote hardware and software complex of interaction with the user (APK-VK), in which a module for visual provision of multimedia information, a data reception and transmission module, a data storage module, a sub-verification module are combined or integrated user object, fashion l data processing, which is suitable for the work and training of an artificial neural network, and the method includes the following stages: - in the APC-K calibration of eye parameters is carried out while providing the subject with test information in the form of moving visual stimuli; - download multimedia information to a remote APK-VK and classify its fragments into structural elements according to features - text, image, table, etc.; - transfer classified information from the remote APC-VC to APC-K and provide it to the subject; - receive a video stream with the help of a video recording device, according to the data of which the data of eye movements and/or gaze are recorded in the APC-K recording module, taking into account behavioral reactions in the form of at least eye blinking and/or head movements, and/or changes in the coordinates of pre-marked points on on the face, determine separate points of view at each moment of time in the coordinates of the plane of the multimedia information display module of the APC-K during the provision of multimedia information; transmit the received information to the remote APC-VC, in which: - establish correspondence between individual points of view and the currently provided fragment of multimedia information; - with the use of an artificial neural network, data sets of views are formed and the probability of the relationship of each individual view of the subject to reading is established; - aggregate the indicated data of a set of views into a coordinate system of classified structural elements of the provided multimedia information; - calculate the data density of all views and the data density of views defined as reading by the number in each structural element, and set appropriate threshold values for the calculated densities that delimit statistical noise; - calculate the ratio of the overlapping area of the area, where the data density of all views and the data density of views defined as reading exceeds the threshold values, to the total area of all structural elements defined in the provided multimedia information, and establish the amount of recognized information by the subject, by which it is determined information as read. 2. Спосіб за п. 1, який відрізняється тим, що мультимедійна інформація, що надають суб'єкту, являє собою електронний документ, текстові фрагменти без зображень та/або таблиць або із зображеннями та/або таблицями у відомих форматах представлення електронних документів та/або відеоінформацію, що містить текстові фрагменти та/або зображення, та/або таблиці.2. The method according to claim 1, which is characterized by the fact that the multimedia information provided to the subject is an electronic document, text fragments without images and/or tables or with images and/or tables in known formats for presenting electronic documents and/or video information containing text fragments and/or images and/or tables. З. Спосіб за п. 1 або 2, який відрізняється тим, що включає додатковий етап, на якому за допомогою модулю верифікації перед наданням суб'єкту мультимедійної інформації верифікують особу суб'єкта на підставі візуальних даних про суб'єкта, які вводять у віддалений АПК-ВК.C. The method according to claim 1 or 2, which differs in that it includes an additional step, in which, with the help of a verification module, before providing multimedia information to the subject, the identity of the subject is verified on the basis of visual data about the subject, which are entered into the remote APC -VK. 4. Спосіб за п. 3, який відрізняється тим, що верифікацію особи суб'єкта здійснюють перед кожним наступним наданням суб'єкту мультимедійної інформації або електронного документа.4. The method according to claim 3, which differs in that the subject's identity is verified before each subsequent provision of multimedia information or an electronic document to the subject. 5. Спосіб за будь-яким одним з пп. 1-4, який відрізняється тим, що калібрування параметрів очей та визначених поведінкових реакцій проводять перед кожним сеансом надання суб'єкту Зо мультимедійної інформації.5. The method according to any one of claims 1-4, which is characterized by the fact that the calibration of eye parameters and determined behavioral reactions is carried out before each session of providing multimedia information to the subject Zo. 6. Спосіб за будь-яким одним з пп. 1-5, який відрізняється тим, що модулем відображення мультимедійної інформації є, зокрема, екран телевізора, монітор комп'ютера, дисплей смартфона, дисплей планшета або будь-який інший пристрій, що виконаний з можливістю надання мультимедійної інформації.6. The method according to any one of claims 1-5, which is characterized by the fact that the multimedia information display module is, in particular, a TV screen, a computer monitor, a smartphone display, a tablet display or any other device made of possibility of providing multimedia information. 7. Спосіб за будь-яким одним з пп. 1-6, який відрізняється тим, що пристроєм відеофіксації є, зокрема, веб-камера або відеокамера, що підключена або інтегрована у АПК-К, зокрема у комп'ютер, смартфон, планшет або будь-який відеопристрій, що виконаний з можливістю прийняття та передачі відеоданих.7. The method according to any one of claims 1-6, which is characterized by the fact that the video recording device is, in particular, a web camera or a video camera that is connected or integrated in the APC-K, in particular in a computer, smartphone, tablet or any video device designed to receive and transmit video data. 8. Спосіб за будь-яким одним з пп. 1-7, який відрізняється тим, що формують карту щільності поглядів та/або щільності даних поглядів, визначених як читання, та/"або площі перекриття області, де щільність даних всіх поглядів і щільність даних поглядів, визначених як читання, перевищує порогові значення, та необов'язково надають на модулі відображення мультимедійної інформації.8. The method according to any one of claims 1-7, which is characterized by forming a map of the density of views and/or the data density of views defined as reading and/or the overlap area of the region where the data density of all views and the data density of views defined as reading exceeds the threshold values, and does not necessarily provide multimedia information on the display module. 9. Спосіб за будь-яким одним з пп. 1-8, який відрізняється тим, що розраховують відсоток переглянутих структурних елементів від загальної кількості структурних елементів при наданні мультимедійної інформації, у яких погляд не був визначений як читання, та необов'язково надають на модулі відображення мультимедійної інформації.9. The method according to any one of claims 1-8, which is characterized by the fact that the percentage of viewed structural elements is calculated from the total number of structural elements when providing multimedia information, in which the view was not defined as reading, and optionally provided on the module display of multimedia information. 10. Спосіб за будь-яким одним з пп. 1-8, який відрізняється тим, що розраховують відсоток структурних елементів, у яких дані погляду були визначені як читання, від загальної кількості структурних елементів при наданні мультимедійної інформації, та необов'язково надають на модулі відображення мультимедійної інформації.10. The method according to any one of claims 1-8, which is characterized by the fact that the percentage of structural elements in which the gaze data was determined as reading is calculated from the total number of structural elements when providing multimedia information, and is optionally provided on the module display of multimedia information. 11. Спосіб за будь-яким одним з пп. 9-10, який відрізняється тим, що розраховують відношення обсягу переглянутих структурних елементів, у яких погляд не був визначений як читання, до обсягу структурних елементів, у яких дані погляду були визначені як читання, при наданні мультимедійної інформації та необов'язково надають на модулі відображення мультимедійної інформації.11. The method according to any one of claims 9-10, which is characterized by calculating the ratio of the volume of viewed structural elements in which the view was not determined as reading to the volume of structural elements in which the view data was determined as reading, when provision of multimedia information and optionally provide multimedia information display on the module. 12. Спосіб за будь-яким одним з пп. 1-11, який відрізняється тим, що після завершення сеансу надання мультимедійної інформації або її фрагмента у модулі обробки даних АПК-ВК формують сертифікат перевірки читання, зокрема як електронний документ, та необов'язково 60 зберігають у модулі збереження даних.12. The method according to any one of claims 1-11, which is characterized by the fact that after the completion of the session of providing multimedia information or its fragment in the data processing module of the APC-VK, a reading verification certificate is formed, in particular as an electronic document, and optionally 60 stored in the data storage module. 13. Спосіб за п. 12, який відрізняється тим, що сертифікат перевірки читання завантажують на АПК-К.13. The method according to claim 12, which differs in that the reading verification certificate is uploaded to the APK-K. 14. Спосіб за будь-яким одним з пп. 1-13, який відрізняється тим, що всі отримані дані суб'єкта зберігають у модулі збереження даних АПК-ВК та необов'язково у АПК-К. Автоматиловзцо састома видзназення обся х розпізнавация інформанії Й ТАНОК САВК-ВК що » ! С «05 со ще ї / й Гі мережа і НЕК14. The method according to any one of claims 1-13, which differs in that all received data of the subject is stored in the data storage module of the APC-VK and optionally in the APC-K. Automatic recognition system of all information and DANCE SAVC-VK that » ! C "05 so y / y Gi network and NEK Щ. ! . . І ; і 5 о 1, ві 039 ЩЕ і рі ! х ї ЩЕ г | І ; і і , ів шЩ по) ви і Ти ще ЩЕ ще ЩО ; ТЕО ОІВ БРОСХ РОВУ ОБРОБ ЯРОВО ТВОЄЮ РОЗМ ВО ВВОБУ ВБОСУ БК ЯКО ВКРШЯ ша НН ї алое она одів ма 095 23 1 п28953 омею її о 8а 2 2 ни вза ех МАВ 0 2 Р о30300 3966 З о що а З дою фо о маю 0 ре Бо Нам З ГУ 56 І й чв3Іо 335 ОЗ в 026357 Ко о оо ен їв ГУ КІ - ВРОБШХ, ЕРСКУУ «координати екрану, відносна роздільної здатності екрана, загоряим А « ВРОШХ, ВРУ - координати екрану, відносно роздільної зватності екрана, вягорстм В - ЕРОСТНІ - ідемтиднкатор фіксанії я ФПЛОГД - тривалість фікозц і ачей я БОГ. ФПОГВ - обгрунтованість формації 6 ВК - ідензацінкатов панмацняSh.! . . And and 5 at 1, vi 039 MORE and more! x i STILL g | And и и , ив шЩ po) you and You still SHE still SHO ; TEO OIV BROSH ROV PROCESS YAROVO WITH YOUR COMMUNICATION IN VVOBU VBOSU BK AS WRKSHYA sha NN and aloe she dressed ma 095 23 1 claim 28953 omeyu her o 8a 2 2 ni vza eh MAV 0 2 R o30300 3966 I have 0 re Bo Nam Z GU 56 I i chv3Io 335 OZ v 026357 Ko o oo en yiv GU KI - VROBSHX, ERSKUU "coordinates of the screen, relative to the resolution of the screen, zagoryaim A " VROSHX, VRU - coordinates of the screen, relative to the resolution of the screen, vyagorstm V - EROSTNI - idemtidnkator of fixation i FPLOGD - duration of fikotz and achei i BOG. FPOGV - validity of formation 6 VC - idenzatsinkatov panmatsnya Фіг. 2 у зкою рай даних пт З ; є о Відфльцювані дані ІЗ І: зе В. Ха й ЦЕ Зах МІ ЩІ ШНЕК ЕЕ НИ ІЗ ї КІ Я. її ЕІ ЕЕ» Не КК ЕЕ ЕЕ КК НН ЖЕ НЕ КК КА | п ОО та А ТА наче ко ках Зіяо ща МТУ -Fig. 2 in the paradise of data pt Z ; There are o Reflected data from I: ze V. Ha y CE Zach MI SCHI SHNEK EE NI IZ i KI I. her EI EE» Ne KK EE EE KK NN ZHE NE KK KA | ОО and А TA наче коках Ziyao shcha MTU - Фіг. ЗFig. WITH Ганзалість часових «ерій Бех Ж Чатвиня оораз5 ЩО хажєс Не чвтанни оаюЗо ВЕ . ПІ о ПЕЖО щих ТХ 0лобго о ШЕ ОВУ З ЩО 0 ЖеКоевое пово ШЕ Ш ЛАК оо ШЕ З по Мо а їх - алое її ж До ВОДНЕ ние ОМ де Ше с ооо 00 СС БОНН у МКК ШЕ Ех о.2обо5 о о с ні Є . . по З ПЕН у Х Кох КЕ ЗО ОХ б.од00о - КТ М 0 2 ЯК 5 вВо0 НО акHansality of temporal "eras Beh Z Chatvynya ooraz5 ЧО хажёс Ne чвтанны оаюЗо VE . PI o PEJO shchih TH 0lobgo o SHE OVU Z SCHO 0 ZheKoevoe povo SHE SH LAK oo SHE Z po Mo a ih - aloe her same To VODNE nie OM de She s ooo 00 SS BONN in MKK SHE Eh o.2obo5 o o s no IS . . by Z PEN in X Koch KE ZO OH b.od00o - KT M 0 2 JAK 5 vVo0 NO ak Фіг. 4 зі це щі . нк Шчове, МЮУ самій сомів ; сеї (Мене. 100, б. шоти 1: Махровве З шум. | (еве Ю.М пах розвнаїй | МіІхРОВННЯЇІ фетр - т й і ери: | (Меле 50. 36)Fig. 4 of these things. nk Shchove, MYUU of the most catfish; sei (Mene. 100, b. shot 1: Makhrovve Z shum. | (eve Yu.M pah razvnaiy | MiIkhROVNNYAII fetr - t y i ery: | (Mele 50. 36) с. шу: | (ове, 50, 36) сивіЯ У СТЬ фронт сем р ОмМоре ТА Й р оф ярок (Мем. ТТ ах, РООВНУ 2. МаХРОИВЦО. фен рання, соб: р (Міень 35.72) й я саме. ЗХ. копія Ж СоЙКІВ нене то рмак р Мове. 223 І сови Ме 25) мах фчайщенй А ОМаХРасВИхіЮ еру рон р Мен, КА Й вір: з аве, 15, 14) свій Ясно - 7 рик З Моме. with. shu: | (ove, 50, 36) siviYA U ST front sem r OmMore TA Y r of yarok (Mem. TT ah, ROOVNU 2. MahROIVTSO. fen early, sob: r (Mien 35.72) and myself. ХХ. copy of Z SOIKIV nene then rmak r Move. 223 And sovy Me 25) mah fchayscheny A OMakhRasVIhiYu eru ron r Men, KA Y believe: from ave, 15, 14) own Clearly - 7 rik Z Mome. 15, ЗЯЙ) ! Ї | Мопе 122158 івах російвзій А Махкоовво Ю с - пе т жінкою й охоче итет ето ечеюе чено й ; щури | бове о. ШМанею 1 БІАНеД. реф етттятттолнлояннняя опер ої Майте, КТ в і Н сворар: г гор ; т ЯМете. ТАЙ Н і Шрі попе, 1724) і дере є. Юелее і т і ок ро (чере,15, ZAY) ! I | Mope 122158 ivakh rosiivziy A Makhkoovvo Yu s - pe t woman and willingly itet eto echeyue cheno y; rats | bove o. Shmaneu 1 BIANeD. Ref. t YaMete. TAY N and Sri Pope, 1724) and there is. Yuelee and t i ok ro (chere, Фіг. 5Fig. 5 4 корегувальна саккада сля зворотного . . А міжрядкового переходу /МІЖрядкові нереходи ле Т , динамічним фі ксаці х переліт КЗ : ; пл г з ши регресійна |і Р щй і й сосок й це січні АЖ а тевламії що прогресійна саккада Ат я- дуже короткі (50 ме) фіксації саккада Ше зов 1с т Ос Основні характеристики рухів очей при читанні, відомі з часів /аув!4 corrective saccade from the reverse side. . A of the inter-line transition / INTER-LINE disturbances is T, dynamic fixation of the short-circuit flight: ; pl g z shi regressive |i R schyi and nipple and this is January АХ and tevlamiya that progressive saccade At я- very short (50 me) saccade fixations She zov 1s t Os The main characteristics of eye movements during reading, known since the times of /auv! Фіг. 6Fig. 6
UAU201904741U 2019-05-03 2019-05-03 AUTOMATED METHOD FOR DETERMINING THE SCOPE OF INFORMATION RECOGNITION UA141317U (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
UAU201904741U UA141317U (en) 2019-05-03 2019-05-03 AUTOMATED METHOD FOR DETERMINING THE SCOPE OF INFORMATION RECOGNITION

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
UAU201904741U UA141317U (en) 2019-05-03 2019-05-03 AUTOMATED METHOD FOR DETERMINING THE SCOPE OF INFORMATION RECOGNITION

Publications (1)

Publication Number Publication Date
UA141317U true UA141317U (en) 2020-04-10

Family

ID=71118083

Family Applications (1)

Application Number Title Priority Date Filing Date
UAU201904741U UA141317U (en) 2019-05-03 2019-05-03 AUTOMATED METHOD FOR DETERMINING THE SCOPE OF INFORMATION RECOGNITION

Country Status (1)

Country Link
UA (1) UA141317U (en)

Similar Documents

Publication Publication Date Title
Dewan et al. Engagement detection in online learning: a review
Zaletelj et al. Predicting students’ attention in the classroom from Kinect facial and body features
Mathe et al. Actions in the eye: Dynamic gaze datasets and learnt saliency models for visual recognition
Asteriadis et al. Estimation of behavioral user state based on eye gaze and head pose—application in an e-learning environment
Mack et al. Object co-occurrence serves as a contextual cue to guide and facilitate visual search in a natural viewing environment
CN111046823A (en) Student classroom participation degree analysis system based on classroom video
CN110674664A (en) Visual attention recognition method and system, storage medium and processor
Wang et al. Automated student engagement monitoring and evaluation during learning in the wild
Nguyen et al. Gaze-based notetaking for learning from lecture videos
WO2023041940A1 (en) Gaze-based behavioural monitoring system
Gupta et al. A multimodal facial cues based engagement detection system in e-learning context using deep learning approach
Bosch et al. Can computers outperform humans in detecting user zone-outs? Implications for intelligent interfaces
Shah et al. Assessment of student attentiveness to e-learning by monitoring behavioural elements
Singh et al. A robust, real-time camera-based eye gaze tracking system to analyze users’ visual attention using deep learning
Yi et al. Real time learning evaluation based on gaze tracking
Jayawardena et al. Automated filtering of eye gaze metrics from dynamic areas of interest
UA141317U (en) AUTOMATED METHOD FOR DETERMINING THE SCOPE OF INFORMATION RECOGNITION
JP2022135476A (en) Information processing apparatus and program
Fekry et al. Automatic detection for students behaviors in a group presentation
CN112005248A (en) Computing device attention determination
UA141318U (en) AUTOMATED METHOD OF VERIFICATION OF ELECTRONIC DOCUMENT ACQUISITION
Bennett et al. Looking at faces: autonomous perspective invariant facial gaze analysis
Harteis et al. Do We Betray Errors Beforehand? The Use of Eye Tracking, Automated Face Recognition and Computer Algorithms to Analyse Learning from Errors.
WO2020226603A1 (en) Automated method and system for determining an extent to which information is recognized and automated method for verifying familiarization with an electronic document
Chaabouni et al. Impact of saliency and gaze features on visual control: Gaze-saliency interest estimator