RU2712417C1 - Method and system for recognizing faces and constructing a route using augmented reality tool - Google Patents

Method and system for recognizing faces and constructing a route using augmented reality tool Download PDF

Info

Publication number
RU2712417C1
RU2712417C1 RU2019105772A RU2019105772A RU2712417C1 RU 2712417 C1 RU2712417 C1 RU 2712417C1 RU 2019105772 A RU2019105772 A RU 2019105772A RU 2019105772 A RU2019105772 A RU 2019105772A RU 2712417 C1 RU2712417 C1 RU 2712417C1
Authority
RU
Russia
Prior art keywords
face
image
augmented reality
space
person
Prior art date
Application number
RU2019105772A
Other languages
Russian (ru)
Inventor
Дмитрий Сергеевич Кудияров
Александр Викторович Балашов
Александр Сергеевич Евграшин
Original Assignee
Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) filed Critical Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк)
Priority to RU2019105772A priority Critical patent/RU2712417C1/en
Priority to PCT/RU2019/000136 priority patent/WO2020176008A1/en
Priority to EA201990537A priority patent/EA038335B1/en
Application granted granted Critical
Publication of RU2712417C1 publication Critical patent/RU2712417C1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B15/00Identifying, scaring or incapacitating burglars, thieves or intruders, e.g. by explosives

Abstract

FIELD: computer engineering.
SUBSTANCE: this technical solution, in general, relates to computer engineering. Method includes the following steps: obtaining a video stream from one video stream source with a space area image; capturing video stream frames when one person's image is detected on them; determining the position and size of the face image on each captured frame; determining the image quality of the face image on the captured frames, on which the face image size is higher than the predetermined threshold values; selecting a face image with a maximum image quality of the face; calculating a vector characterizing features of the face image, based on the selected face image; comparing the calculated vector with the stored image vectors in the database (DB); based on the results of comparing the calculated vector with the stored vectors, assigning to the person an access parameter which determines the permission to be in the space region; displaying access parameter to image display device.
EFFECT: reduced time of people search in places of mass congestion of people or large multi-storey buildings, in which these people should not be located, and higher accuracy of persons identification.
11 cl, 4 dwg

Description

ОБЛАСТЬ ТЕХНИКИFIELD OF TECHNOLOGY

[001] Данное техническое решение, в общем, относится к области вычислительной техники, а в частности к способам и системам для распознавания лиц с помощью очков дополненной реальности с интегрированной камерой или с использованием комплекса систем, обеспечивающих видеонаблюдение.[001] This technical solution, in General, relates to the field of computer technology, and in particular to methods and systems for facial recognition using augmented reality glasses with an integrated camera or using a complex of systems that provide video surveillance.

УРОВЕНЬ ТЕХНИКИBACKGROUND

[002] В настоящее время существует проблема идентификации преступников среди массового скопления людей, например, в общественных местах или на публичных мероприятиях. Сотрудники охраны не всегда способны без использования дополнительной техники идентифицировать преступника. Это может быть связано с различными факторами, например, визуально внешность человека с течением времени может сильно изменяться из-за отращивания/сбривания бороды, изменения прически или цвета глаз и т.д. Так же может присутствовать человеческий фактор - утомляемость, приводящая к рассеиванию внимания.[002] Currently, there is a problem of identifying criminals among a large crowd of people, for example, in public places or at public events. Security guards are not always able to identify the perpetrator without using additional equipment. This may be due to various factors, for example, visually a person’s appearance can change greatly over time due to the growth / shaving of a beard, changes in hair style or eye color, etc. There may also be a human factor - fatigue, which leads to dispersal of attention.

[003] Системы биометрической идентификации по лицу позволяют распознать лицо человека, несмотря на вышеперечисленные возможные изменения внешности. Существуют системы, включающие в себя очки дополненной реальности со встроенной камерой, интегрированные с системой идентификации по биометрии лица, но такая система позволяет решить проблему локально, только в месте нахождения сотрудника охраны. В помещениях с большой площадью, например, на стадионах, такое решение не является эффективным. Анализ предшествующего уровня техники позволяет сделать вывод о неэффективности и в некоторых случаях о невозможности применения предшествующих технологий, недостатки которых решаются настоящим изобретением.[003] Biometric facial identification systems make it possible to recognize a person’s face, despite the aforementioned possible changes in appearance. There are systems that include augmented reality glasses with a built-in camera, integrated with a face biometric identification system, but such a system allows you to solve the problem locally, only at the location of the security officer. In rooms with a large area, for example, in stadiums, such a solution is not effective. Analysis of the prior art allows us to conclude that inefficiency and, in some cases, the impossibility of using previous technologies, the disadvantages of which are solved by the present invention.

СУЩНОСТЬ ТЕХНИЧЕСКОГО РЕШЕНИЯESSENCE OF TECHNICAL SOLUTION

[004] Технической проблемой или задачей, поставленной в данном техническом решении, является создание надежного способа биометрического распознавания лиц с помощью средств дополненной реальности, а также системы для реализации способа. Дополнительной задачей является визуальное отображение классифицированных людей на дисплее очков дополненной реальности и построение маршрута до детектированного объекта с использованием технологий indoor-навигации.[004] A technical problem or task set in this technical solution is to create a reliable method for biometric facial recognition using augmented reality tools, as well as a system for implementing the method. An additional task is the visual display of classified people on the augmented reality glasses display and the construction of a route to the detected object using indoor navigation technologies.

[005] Техническим результатом, достигаемым при решении вышеуказанной технической задачи, является снижение времени поиска людей в местах массового скопления людей или больших многоэтажных зданий, в которых данные люди не должны находиться, и повышение точности идентификации лиц. После детектирования таких людей заявленная система позволяет построить маршрут до сегмента внутри помещения, в котором находится зафиксированное лицо, что сокращает время задержания.[005] The technical result achieved by solving the above technical problem is to reduce the time people search in crowded places or large multi-storey buildings in which these people should not be, and to increase the accuracy of face identification. After detecting such people, the claimed system allows you to build a route to the indoor segment in which the fixed person is located, which reduces the time of detention.

[006] Указанный технический результат достигается благодаря осуществлению способа распознавания лиц в видеопотоке, выполняемый по меньшей мере одним вычислительным устройством, содержащего этапы, на которых: получают видеопоток от по меньшей мере одного источника видеопотока с изображением области пространства;[006] The specified technical result is achieved through the implementation of a method for recognizing faces in a video stream, performed by at least one computing device, comprising the steps of: receiving a video stream from at least one source of the video stream with an image of a region of space;

- захватывают кадры видеопотока при обнаружении на них изображения по меньшей мере одного лица;- capture frames of the video stream upon detection of images of at least one face on them;

- определяют положение и размер изображения лица на каждом захваченном кадре;- determine the position and size of the face image on each captured frame;

- определяют показатели качества изображения лица на захваченных кадрах, на которых размер изображения лица выше заранее заданных пороговых значений;- determine the quality indicators of the image of the face on the captured frames, on which the size of the face image is higher than the predetermined threshold values;

- выбирают изображение лица с максимальным показателем качества изображения лица;- choose a face image with a maximum face image quality indicator;

- рассчитывают вектор, характеризующий признаки изображения лица, на основе выбранного изображения лица;- calculate a vector characterizing the features of the image of the face, based on the selected image of the face;

- сравнивают рассчитанный вектор с сохраненными векторами изображений в базе данных (БД);- comparing the calculated vector with the stored image vectors in the database (DB);

- на основе результатов сравнения рассчитанного вектора с сохраненными векторами присваивают лицу параметр доступа, определяющий разрешение на нахождение в области пространства;- based on the results of comparing the calculated vector with the stored vectors, an access parameter is defined for the person that determines the permission to be in the space region;

- выводят параметр доступа на устройство отображения изображения.- outputting the access parameter to the image display device.

[007] В одном из частных примеров осуществления способа устройство отображения изображения представляет собой устройство дополненной реальности, причем параметр доступа выводят в режиме дополненной реальности.[007] In one particular embodiment of the method, the image display device is an augmented reality device, the access parameter being output in augmented reality mode.

[008] В другом частном примере осуществления способа дополнительно задают область интереса для поступающих кадров видеопотока, при этом захватывают только те кадры видеопотока, на которых изображение лица попадает в заданную область интереса.[008] In another particular embodiment of the method, an area of interest is additionally set for incoming frames of the video stream, while only those frames of the video stream are captured in which the face image falls into the specified area of interest.

[009] В другом частном примере осуществления способа после захвата кадров видеопотока при обнаружении на них изображения по меньшей мере одного лица дополнительно выполняют этап, на котором:[009] In another particular embodiment of the method, after capturing frames of a video stream upon detection of images of at least one face, they additionally perform the step of:

- определяют наличие изображения человека в кадре, изображение лица которого было обнаружено, причем для определения наличия изображения человека в кадре определяют наличие в кадре: изображения плеч в соответствующей изображению лица области или изображения тела человека.- determine the presence of the image of a person in the frame, the image of the face of which was detected, and to determine the presence of the image of a person in the frame, determine the presence in the frame: image of the shoulders in the corresponding face image of the area or image of the human body.

[0010] В другом частном примере осуществления способа показатели качества изображения лица определяются на основе по меньшей мере одного параметра лица:[0010] In another particular embodiment of the method, facial image quality indicators are determined based on at least one face parameter:

- поворота головы (в градусах) по каждой из трех осей вращения наклон вверх/вниз относительно горизонтальной оси;- rotation of the head (in degrees) along each of the three axes of rotation, tilt up / down relative to the horizontal axis;

- наклона влево/вправо относительно вертикальной оси;- tilt left / right relative to the vertical axis;

- поворота относительно вертикальной оси.- rotation about a vertical axis.

[0011] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых:[0011] In another particular embodiment of the method, steps are further performed in which:

- определяют местоположение лица с назначенным параметром доступа, указывающим на то, что у лица нет разрешения находиться в области пространства;- determine the location of the person with the assigned access parameter, indicating that the person does not have permission to be in the area of space;

- определяют по меньшей мере одно устройство дополненной реальности, расположенное наиболее близко к упомянутой области пространства;- determine at least one augmented reality device located closest to the mentioned area of space;

- формируют маршрут из области пространства, в которой размещено данное устройство дополненной реальности, до области пространства, в которой находится упомянутое лицо;- form a route from the region of space in which this device of augmented reality is located, to the region of space in which the said person is located;

- отображают маршрут на устройстве дополненной реальности в режиме дополненной реальности.- display the route on the augmented reality device in augmented reality mode.

[0012] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых:[0012] In another particular embodiment of the method, steps are further performed in which:

- отслеживают перемещение устройства дополненной реальности в режиме реального времени;- track the movement of the augmented reality device in real time;

- корректируют маршрут в случае отклонения траектории движения устройства дополненной реальности от сформированного ранее маршрута.- adjust the route in case of deviation of the trajectory of the augmented reality device from the previously formed route.

[0013] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых:[0013] In another particular embodiment of the method, steps are further performed in which:

- при достижении устройства дополненной реальности области пространства, в которой находится упомянутое лицо, анализирует в реальном времени входящий видеопоток от камеры устройства дополненной реальности для определения наличия в кадрах видеопотока по меньшей мере одного лица;- upon reaching the augmented reality device, the area of the space in which the said person is located, analyzes in real time the incoming video stream from the camera of the augmented reality device to determine the presence of at least one face in the video stream frames;

- выводят в заданную область дисплея устройства дополненной реальности в режиме дополненной реальности информацию о том, что у лица, находящегося в поле зрения сотрудника в AR-очках, нет разрешения находиться в области пространства в соответствии с присвоенным параметром доступа.- display in the specified area of the display of the augmented reality device in augmented reality mode information that the person in the field of vision of the employee with AR glasses does not have permission to be in the space in accordance with the assigned access parameter.

[0014] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых:[0014] In another particular embodiment of the method, steps are further performed in which:

- определяют местоположение лица в области пространства и местоположение по меньшей мере одного устройства дополненной реальности;- determine the location of the person in the field of space and the location of at least one augmented reality device;

- преобразуют данные о местоположениях лица и устройства дополненной реальности в координаты в 3D модели пространства;- convert data on the locations of the face and augmented reality device into coordinates in a 3D model of space;

- определяют маршрут в 3D модели пространства от местоположения устройства дополненной реальности до упомянутого лица;- determine the route in the 3D model of space from the location of the augmented reality device to the mentioned person;

- формируют указатель траектории движения по маршруту в 3D модели пространства и выводят его на дисплей устройства дополненной реальности в режиме дополненной реальности для навигации сотрудника с устройством дополненной реальности до области, пространства, в котором находится упомянутое лицо, по маршруту, сформированному в 3D модели пространства.- form a pointer to the trajectory of movement along the route in the 3D model of space and display it on the display of the augmented reality device in augmented reality mode to navigate the employee with the augmented reality device to the area, space in which the mentioned person is located, along the route formed in the 3D space model.

[0015] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых формируют в 3D модели пространства указатель лица в соответствии с его расположением в 3D модели пространства и выводят упомянутый указатель на дисплей устройства дополненной реальности в режиме дополненной реальности, когда лицо находится в области видимости сотрудника с устройством дополненной реальности, для указания на лицо в области пространства.[0015] In another particular embodiment of the method, steps are further performed in which a face indicator is formed in the 3D space model in accordance with its location in the 3D space model and the aforementioned pointer is displayed on the augmented reality device display in the augmented reality mode when the face is in the region employee visibility with augmented reality device, to indicate a person in the field of space.

[0016] В другом предпочтительном варианте осуществления заявленного решения представлена система распознавания лиц в видеопотоке, содержащая по меньшей мере одно вычислительное устройство и по меньшей мере одну память, содержащую машиночитаемые инструкции, которые при их исполнении по меньшей мере одним вычислительным устройством выполняют вышеуказанный способ.[0016] In another preferred embodiment of the claimed solution, there is provided a facial recognition system in a video stream comprising at least one computing device and at least one memory containing machine-readable instructions that, when executed by at least one computing device, perform the above method.

КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS

[0017] Признаки и преимущества настоящего изобретения станут очевидными из приводимого ниже подробного описания изобретения и прилагаемых чертежей, на которых:[0017] The features and advantages of the present invention will become apparent from the following detailed description of the invention and the accompanying drawings, in which:

[0018] На Фиг. 1 представлен пример реализации устройства распознавания лиц.[0018] In FIG. 1 shows an example implementation of a face recognition device.

[0019] На Фиг. 2 представлен пример реализации системы для распознавания лиц с помощью средства дополненной реальности.[0019] FIG. Figure 2 shows an example implementation of a system for recognizing faces using augmented reality.

[0020] На Фиг. 3 представлен пример области интереса на изображении.[0020] In FIG. 3 shows an example of a region of interest in an image.

[0021] На Фиг. 4 представлен пример общего вида вычислительного устройства распознавания лиц.[0021] In FIG. 4 is an example of a general view of a face recognition computing device.

ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯDETAILED DESCRIPTION OF THE INVENTION

[0022] Ниже будут описаны понятия и термины, необходимые для понимания данного технического решения.[0022] The concepts and terms necessary for understanding this technical solution will be described below.

[0023] В данном техническом решении под системой подразумевается, в том числе компьютерная система, ЭВМ (электронно-вычислительная машина), ЧПУ (числовое программное управление), ПЛК (программируемый логический контроллер), компьютеризированные системы управления и любые другие устройства, способные выполнять заданную, четко определенную последовательность операций (действий, инструкций).[0023] In this technical solution, a system is meant, including a computer system, a computer (electronic computer), CNC (numerical program control), PLC (programmable logic controller), computerized control systems, and any other devices that can perform a given , a clearly defined sequence of operations (actions, instructions).

[0024] Под устройством обработки команд подразумевается электронный блок либо интегральная схема (микропроцессор), исполняющая машинные инструкции (программы).[0024] An instruction processing device is understood to mean an electronic unit or an integrated circuit (microprocessor) executing machine instructions (programs).

[0025] Устройство обработки команд считывает и выполняет машинные инструкции (программы) с одного или более устройств хранения данных. В роли устройства хранения данных могут выступать, но не ограничиваясь, жесткие диски (HDD), флеш-память, ПЗУ (постоянное запоминающее устройство), твердотельные накопители (SSD), оптические приводы.[0025] The command processing device reads and executes machine instructions (programs) from one or more data storage devices. Hard drives (HDD), flash memory, ROM (read-only memory), solid state drives (SSD), optical drives can act as storage devices.

[0026] Программа - последовательность инструкций, предназначенных для исполнения устройством управления вычислительной машины или устройством обработки команд.[0026] A program is a sequence of instructions for execution by a computer control device or an instruction processing device.

[0027] В соответствии со схемой, приведенной на Фиг. 1, система распознавания лиц с помощью средства дополненной реальности содержит источник видеопотока 1, устройство распознавания лиц 10 и устройство дополненной реальности 20.[0027] In accordance with the circuit of FIG. 1, a face recognition system using augmented reality means comprises a video stream source 1, a face recognition device 10 and an augmented reality device 20.

[0028] Источником видеопотока 1 может являться внешняя камера видеонаблюдения (USB или IP) или интегрированная в устройство дополненной реальности камера. В качестве камер видеонаблюдения (иногда - видеокамер) могут применяться различные типы камер, в частности PTZ-камеры, IP-камеры, стационарные антивандальные камеры, камера кругового обзора и т.п., не ограничиваясь. Камера должна быть настроена на передачу видеопотока в устройство распознавания лиц 10, выполненное на базе по меньшей мере одного вычислительного устройства, например, сервера, который может находиться в облаке данных с развернутой платформой биометрической идентификации 11. Источник видеопотока 1, в частности камера видеонаблюдения или AR-очки, и устройство распознавания лиц 10 могут взаимодействовать для передачи данных по проводной и/или беспроводной связи с использованием протоколов передачи данных Socket и/или WebSocket, и/или WCF, и/или REST, и/или HTTP и WebSocket и пр.[0028] The source of the video stream 1 may be an external surveillance camera (USB or IP) or an integrated camera in an augmented reality device. Various types of cameras can be used as surveillance cameras (sometimes video cameras), in particular PTZ cameras, IP cameras, stationary anti-vandal cameras, all-round cameras, etc., without limitation. The camera must be configured to transmit the video stream to the face recognition device 10, made on the basis of at least one computing device, for example, a server, which can be in the data cloud with a biometric identification platform 11. The source of the video stream 1, in particular a surveillance camera or AR the points and the face recognition device 10 can interact to transmit data over wired and / or wireless communications using Socket and / or WebSocket, and / or WCF, and / or REST, and / or whether HTTP and WebSocket, etc.

[0029] В общем виде (см. Фиг. 4) устройство (300) распознавания лиц содержит объединенные общей шиной информационного обмена один или несколько процессоров (301), средства памяти, такие как ОЗУ (302) и ПЗУ (303), интерфейсы ввода/вывода (304), устройства ввода/вывода (305), и устройство для сетевого взаимодействия (306).[0029] In a general view (see FIG. 4), the face recognition device (300) comprises one or more processors (301) combined by a common data bus, memory means such as RAM (302) and ROM (303), input interfaces I / O (304), input / output devices (305), and a device for network communication (306).

[0030] Процессор (301) (или несколько процессоров, многоядерный процессор и т.п.) может выбираться из ассортимента устройств, широко применяемых в настоящее время, например, таких производителей, как: Intel™, AMD™, Apple™, Samsung Exynos™, MediaTEK™, Qualcomm Snapdragon™ и т.п. Под процессором или одним из используемых процессоров в системе (300) также необходимо учитывать графический процессор, например, GPU NVIDIA или Graphcore, тип которых также является пригодным для полного или частичного выполнения способа (100), а также может применяться для обучения и применения моделей машинного обучения в различных информационных системах.[0030] A processor (301) (or multiple processors, a multi-core processor, and the like) can be selected from a variety of devices that are currently widely used, for example, manufacturers such as Intel ™, AMD ™, Apple ™, Samsung Exynos ™, MediaTEK ™, Qualcomm Snapdragon ™, etc. Under a processor or one of the processors used in the system (300), it is also necessary to take into account a graphic processor, for example, an NVIDIA or Graphcore GPU, the type of which is also suitable for the full or partial execution of method (100), and can also be used for training and application of machine models training in various information systems.

[0031] ОЗУ (302) представляет собой оперативную память и предназначено для хранения исполняемых процессором (301) машиночитаемых инструкций для выполнения необходимых операций по логической обработке данных. ОЗУ (302), как правило, содержит исполняемые инструкции операционной системы и соответствующих программных компонент (приложения, программные модули и т.п.). При этом в качестве ОЗУ (302) может выступать доступный объем памяти графической карты или графического процессора.[0031] RAM (302) is a random access memory and is intended to store machine-readable instructions executed by the processor (301) to perform the necessary operations for logical data processing. RAM (302), as a rule, contains executable instructions of the operating system and corresponding software components (applications, program modules, etc.). In this case, the available memory capacity of the graphics card or graphics processor may act as RAM (302).

[0032] ПЗУ (303) представляет собой одно или более устройств постоянного хранения данных, например, жесткий диск (HDD), твердотельный накопитель данных (SSD), флэш-память (EEPROM, NAND и т.п.), оптические носители информации (CD-R/RW, DVD-R/RW, BlueRay Disc, MD) и др.[0032] The ROM (303) is one or more permanent storage devices, for example, a hard disk drive (HDD), a solid state drive (SSD), flash memory (EEPROM, NAND, etc.), optical storage media ( CD-R / RW, DVD-R / RW, BlueRay Disc, MD), etc.

[0033] Для организации работы компонентов системы (300) и организации работы внешних подключаемых устройств применяются различные виды интерфейсов ввода/вывода (304). Выбор соответствующих интерфейсов зависит от конкретного исполнения вычислительного устройства, которые могут представлять собой, не ограничиваясь: PCI, AGP, PS/2, IrDa, FireWire, LPT, COM, SATA, IDE, Lightning, USB (2.0, 3.0, 3.1, micro, mini, type C), TRS/Audio jack (2.5, 3.5, 6.35), HDMI, DVI, VGA, Display Port, RJ45, RS232 и т.п.[0033] To organize the operation of system components (300) and organize the operation of external connected devices, various types of input / output interfaces (304) are used. The choice of appropriate interfaces depends on the particular computing device, which can be, but not limited to: PCI, AGP, PS / 2, IrDa, FireWire, LPT, COM, SATA, IDE, Lightning, USB (2.0, 3.0, 3.1, micro, mini, type C), TRS / Audio jack (2.5, 3.5, 6.35), HDMI, DVI, VGA, Display Port, RJ45, RS232, etc.

[0034] Для обеспечения взаимодействия пользователя с вычислительной системой (300) применяются различные средства (305) ввода/вывода информации, например, клавиатура, дисплей (монитор), сенсорный дисплей, тач-пад, джойстик, манипулятор мышь, световое перо, стилус, сенсорная панель, трекбол, динамики, микрофон, средства дополненной реальности, оптические сенсоры, планшет, световые индикаторы, проектор, камера, средства биометрической идентификации (сканер сетчатки глаза, сканер отпечатков пальцев, модуль распознавания голоса) и т.п.[0034] To ensure user interaction with the computing system (300), various means (305) for inputting / outputting information are used, for example, a keyboard, a display (monitor), a touch screen, a touch pad, a joystick, a mouse, a light pen, a stylus, touch panel, trackball, speakers, microphone, augmented reality, optical sensors, tablet, light indicators, projector, camera, biometric identification tools (retina scanner, fingerprint scanner, voice recognition module), etc.

[0035] Средство сетевого взаимодействия (306) обеспечивает передачу данных посредством внутренней или внешней вычислительной сети, например, Интранет, Интернет, ЛВС и т.п.В качестве одного или более средств (306) может использоваться, но не ограничиваться: Ethernet карта, GSM модем, GPRS модем, LTE модем, 5G модем, модуль спутниковой связи, NFC модуль, Bluetooth и/или BLE модуль, Wi-Fi модуль и др.[0035] The network interaction tool (306) provides data transmission via an internal or external computer network, for example, an Intranet, the Internet, a LAN, etc. As one or more means (306), but not limited to: an Ethernet card, GSM modem, GPRS modem, LTE modem, 5G modem, satellite communications module, NFC module, Bluetooth and / or BLE module, Wi-Fi module, etc.

[0036] Дополнительно могут применяться также средства спутниковой навигации в составе системы (300), например, GPS, ГЛОНАСС, BeiDou, Galileo.[0036] Additionally, satellite navigation aids as part of system (300), for example, GPS, GLONASS, BeiDou, Galileo, can also be used.

[0037] Конкретный выбор элементов устройства (300) для реализации различных программно-аппаратных решений может варьироваться с сохранением обеспечиваемого требуемого функционала.[0037] The specific selection of device elements (300) for implementing various hardware and software solutions may vary while maintaining the required functionality.

[0038] Устройство распознавания лиц 10, в частном варианте его реализации, также включает платформу биометрической идентификации 11, базу данных (БД) дескрипторов идентифицируемых лиц 12, модуль 13 построения маршрута и модуль 14 формирования уведомлений. Платформа биометрической идентификации 11 определяет положение и размер всех лиц, присутствующих на входном видеопотоке. Каждому зафиксированному лицу присваивается показатель качества изображения, на основе которого автоматически выбирают лучшие изображения для дальнейшей обработки. Показатель соответствия для любой пары изображений лиц определяется евклидовым расстоянием соответствующих дескрипторов лиц. Низкие значения евклидова расстояния указывают на высокую схожесть двух изображений одного и того же человека. В этом случае приложению, установленному на AR-очках, отправляется ответ в формате JSON с информацией о распознанном человеке в следующем виде:[0038] The face recognition device 10, in a particular embodiment, also includes a biometric identification platform 11, a database (DB) of identifiable persons descriptors 12, a route building module 13, and a notification generation module 14. The biometric identification platform 11 determines the position and size of all persons present on the input video stream. Each fixed face is assigned an indicator of image quality, based on which the best images are automatically selected for further processing. The correspondence index for any pair of face images is determined by the Euclidean distance of the corresponding face descriptors. Low values of the Euclidean distance indicate a high similarity of two images of the same person. In this case, the application installed on the AR glasses is sent a response in JSON format with information about the recognized person in the following form:

{"name": "Иванов О.В.", "color": "red", "article": 191.5, "info": "Особо опасен"}{"name": "Ivanov OV," color ":" red "," article ": 191.5," info ":" Particularly dangerous "}

[0039] Под показателем соответствия понимается сравнение «один ко многим», т.е. изображение с камеры сравнивается со множеством изображений в БД 12. Каждое выравненное изображение лица далее обрабатывается для получения дескриптора лица при помощи глубинных нейронных сетей (Deep Neural Networks или DNN). Дескрипторы лиц - это числовые векторы, суммирующие характерные признаки лица. Ключевым свойством дескрипторов является их близкое сходство для изображений одного и того же человека, и сильное различие для изображений разных людей. Таким образом, дескрипторы лиц зависят только от индивидуальных особенностей конкретного человека, изменения изображений из-за смены точек съемки, освещения, прически и возраста игнорируются. Каждый дескриптор имеет множество точек, которое может быть облаком точек. Измеряется расстояние между соответствующими точками в разных дескрипторах, затем суммируются для получения числового вектора -дескриптора лица.[0039] A compliance indicator refers to a one-to-many comparison, i.e. the image from the camera is compared with many images in the database 12. Each aligned face image is further processed to obtain a face descriptor using deep neural networks (Deep Neural Networks or DNN). Face descriptors are numerical vectors that summarize the characteristic features of a face. A key property of descriptors is their close similarity for images of the same person, and a strong difference for images of different people. Thus, face descriptors depend only on the individual characteristics of a particular person, changes in images due to changing shooting points, lighting, hairstyles and age are ignored. Each descriptor has many points, which can be a cloud of points. The distance between the corresponding points in different descriptors is measured, then they are summed to obtain a numerical face descriptor vector.

[0040] Модуль 13 построения маршрута и модуль 14 формирования уведомлений могут быть реализованы на базе по меньшей мере одного устройства обработки команд, такого как процессор или микроконтроллер, выполненные в программно-аппаратной части таким образом, чтобы выполнять приписанные данным модулям ниже функций. Также модуль 13 построения маршрута может быть реализован на базе программно-аппаратных вычислительных средств устройства дополненной реальности 20 и размещаться непосредственно в архитектуре устройства дополненной реальности 20.[0040] The route building module 13 and the notification generating module 14 may be implemented on the basis of at least one command processing device, such as a processor or microcontroller, executed in the firmware in such a way as to perform the functions assigned to these modules below. Also, the module 13 constructing the route can be implemented on the basis of software and hardware computing means of the augmented reality device 20 and can be placed directly in the architecture of the augmented reality device 20.

[0041] Web-интерфейс устройства распознавания лиц 10 позволяет редактировать описание и добавлять новые лица в базу данных 12, а также метки черного списка (стоп-листа), указывающие на то, что данный человек находится в «черном списке». Взаимодействие клиента с серверной частью устройства распознавания лиц 10 осуществляется по протоколу HTTP или HTTPS.[0041] The web interface of the face recognition device 10 allows you to edit the description and add new faces to the database 12, as well as blacklist (stop list) marks indicating that the person is in the blacklist. The interaction of the client with the server side of the face recognition device 10 is carried out using the HTTP or HTTPS protocol.

[0042] Устройство дополненной реальности 20 является средством вывода информации, в качестве которого может использоваться любое известное устройство, выполненное с возможностью отображения информации о физический и цифровых объектах в реальном времени, в том числе: очки дополненной реальности (или AR-очки) (например, Hololens или Magic Leap), гарнитура mixed reality (MR) или вычислительное устройство (смартфон/планшет/фаблет/ноутбук и пр.) с соответствующим ПО, позволяющим накладывать изображения цифровых объектов на изображения реального мира или виртуальной модели реального мира. В окне запущенного приложения отображается исходная фотография лица, находящаяся в БД, фотография лица с захваченного кадра и информация об идентифицированном человеке. Так же может отображаться маршрут до зоны, в которой было зафиксировано распознанное лицо.[0042] The augmented reality device 20 is an information output means, which can be any known device configured to display information about physical and digital objects in real time, including: augmented reality glasses (or AR glasses) (for example , Hololens or Magic Leap), a mixed reality headset (MR) or a computing device (smartphone / tablet / phablet / laptop, etc.) with appropriate software that allows you to overlay images of digital objects on real-world images or virtual Second model of the real world. The window of the launched application displays the original face photo in the database, a face photo from the captured frame, and information about the identified person. The route to the zone in which the recognized face was recorded can also be displayed.

[0043] По результатам исследования были сформулированы возможные векторы развития прототипа, позволяющие устранить выявленные недостатки и ограничения, усовершенствовать прототип, сделав его более функциональным и удобным в использовании.[0043] Based on the results of the study, potential vectors for the development of the prototype were formulated to eliminate the identified shortcomings and limitations, to improve the prototype, making it more functional and convenient to use.

[0044] Первый вектор предполагает преодоление основного ограничения -расстояния до объекта распознавания и низкое быстродействие вычислительных устройств без пересмотра архитектуры решения. Для увеличения расстояния до объекта распознавания можно использовать длиннофокусные камеры с высоким разрешением. В случае использования камер с длиннофокусными объективами (телеобъективами) архитектура системы следующая. Камера с телеобъективом передает изображение на вычислительное устройство (компьютер, сервер и т.п.).[0044] The first vector involves overcoming the main limitation of the distance to the recognition object and the low speed of computing devices without revising the architecture of the solution. To increase the distance to the recognition object, you can use long-focus cameras with high resolution. In the case of using cameras with telephoto lenses, the system architecture is as follows. A camera with a telephoto lens transmits the image to a computing device (computer, server, etc.).

[0045] На вычислительном устройстве установлено приложение, позволяющее находить лица в захваченных кадрах и перенаправлять данные в реальном времени на устройство с биометрической платформой идентификации по лицу. AR-очки дополненной реальности с запущенным приложением отображают информацию о распознанных лицах и прокладывают маршрут до распознанного человека.[0045] An application is installed on the computing device to locate faces in captured frames and redirect real-time data to a device with a biometric face recognition platform. AR glasses of augmented reality with the running application display information about recognized faces and plot a route to the recognized person.

[0046] Для решения проблемы с производительностью необходима оптимизация ОС устройств. Так же возможно увеличение производительности за счет добавления/замены аппаратных составляющих очков.[0046] To solve the performance problem, device OS optimization is required. It is also possible to increase productivity by adding / replacing the hardware components of the glasses.

[0047] В данном техническом решении возможна реализация нескольких вариантов для повышения производительности за счет аппаратной части:[0047] In this technical solution, it is possible to implement several options for increasing productivity due to hardware:

- использование интегральной схемы специального назначения (например, интегральная схема специального назначения ASIC), которая предназначена для решения конкретной задачи.- the use of a special purpose integrated circuit (for example, an ASIC special purpose integrated circuit), which is designed to solve a specific problem.

- увеличение вычислительной мощности устройства дополненной реальности за счет увеличения количества RAM (возможно использование более быстрой), использования более производительных CPU или GPU. Второй вектор позволяет помимо основной проблемы также оптимизировать UX и упростить задачи сотрудников силовых органов при работе в местах массового скопления людей. Выявление злоумышленников в массовых скоплениях людей доставляет большие трудности, даже если нарушитель был замечен, отследить его перемещение среди массы людей является сложной задачей.- Increasing the computing power of the augmented reality device by increasing the number of RAM (it is possible to use faster), using more productive CPUs or GPUs. The second vector allows, in addition to the main problem, also to optimize the UX and simplify the tasks of law enforcement officers when working in crowded places. The identification of intruders in mass crowds is very difficult, even if the intruder was noticed, tracking its movement among the mass of people is a difficult task.

[0048] Эту проблему позволяет решить построение интегрированной AR+CCTV системы, включающей:[0048] This problem can be solved by building an integrated AR + CCTV system, including:

Figure 00000001
идентификацию лиц в местах скопления людей длиннофокусными камерами CCTV и системой видеоаналитики;
Figure 00000001
face identification in crowded places with long-focus CCTV cameras and video analytics system;

Figure 00000001
оповещение сотрудников в очках AR о выявлении нарушителя и указание направления к нему (навигация по GPS и/или маякам);
Figure 00000001
notification of employees in AR glasses about the identification of the intruder and an indication of the direction to him (navigation on GPS and / or beacons);

Figure 00000001
быструю идентификацию личности с использованием устройства дополненной реальности.
Figure 00000001
quick identification using an augmented reality device.

[0049] Closed Circuit Television (CCTV) расшифровывается как «система телевидения замкнутого контура» и под этим термином подразумевается комплекс устройств, обеспечивающих видеонаблюдение. CCTV система, может состоять из множества камер, направленных в различные области пространства контролируемой зоны, при этом передавая изображения на сервер с установленным приложением face stream, где происходит поиск лиц в захваченных кадрах и передача их на сервер распознавания.[0049] Closed Circuit Television (CCTV) stands for “Closed Circuit Television System,” and this term refers to a set of devices that provide video surveillance. A CCTV system can consist of many cameras directed to different areas of the controlled area space, while transmitting images to a server with the face stream application installed, where people are searched for in captured frames and transferred to a recognition server.

[0050] Каждой области, покрываемой камерами CCTV, ставятся в однозначное соответствие географические координаты этой зоны для последующего построения маршрута.[0050] Each area covered by CCTV cameras is uniquely associated with the geographical coordinates of this area for the subsequent construction of the route.

[0051] На открытых площадках может использоваться GPS-навигация. Для создания системы навигации на очках дополненной реальности, работающих на базе ОС Android может использоваться GooglePlayserviceslocationAPIs, который позволяет получить доступ к встроенной в вычислительный модуль очков GPS системе. Затем проложить маршрут от места нахождения пользователя очков до зоны, в которой находится идентифицированный объект.[0051] In open areas, GPS navigation may be used. To create a navigation system on augmented reality glasses running on the Android OS, GooglePlayserviceslocationAPIs can be used, which allows you to access the GPS system built into the computing module of the glasses. Then lay a route from the user's location to the area in which the identified object is located.

[0052] Для построения маршрута внутри помещения могут использоваться системы indoor-навигации, например, способ навигации по Bluetooth-маячкам. Этот способ заключается в размещении на периметре помещения специальных датчиков, которые и обеспечивают получение данных о месторасположении пользователя очков относительно зоны, в которой зафиксирован объект. Местоположение вычисляется путем сравнения измеряемых в реальном времени мощностей сигнала от окружающих Bluetooth точек с заранее измеренными значениями, привязанными к карте помещения. Более плотное размещение датчиков, позволяет повысить точность локализации пользователя очков и место нахождения объекта. Пример реализации навигации, базирующейся на этой технологии - система iBeacon от компании Apple.[0052] Indoor navigation systems, for example, a method for navigating Bluetooth beacons, can be used to construct the route indoors. This method consists in placing special sensors on the perimeter of the room, which provide data on the user's location of the glasses relative to the zone in which the object is fixed. The location is calculated by comparing the measured in real time signal powers from the surrounding Bluetooth points with pre-measured values tied to a room map. More dense placement of sensors allows to increase the accuracy of the user's localization of glasses and the location of the object. An example of implementing navigation based on this technology is Apple's iBeacon system.

[0053] Также для построения маршрута внутри помещения может использоваться indoor-навигации по QR-кодам. При таком способе навигации строится 3D модель помещения, в которой закрепляется QR-код в определенном месте этой модели и в помещении. Для того, чтобы пользователю очков локализоваться в 3D модели помещения, ему нужно отсканировать QR-код камерой очков в помещении.[0053] Also, indoor navigation by QR codes can be used to construct the indoor route. With this method of navigation, a 3D model of the room is built, in which a QR code is fixed in a certain place of this model and in the room. In order for the glasses user to be localized in the 3D model of the room, he needs to scan the QR code with the glasses camera in the room.

[0054] Далее будет описана работа устройства распознавания лиц 10 со ссылкой на Фиг. 2 на примере AR-очков в качестве устройства дополненной реальности.[0054] Next, the operation of the face recognition device 10 will be described with reference to FIG. 2 using AR glasses as an augmented reality device.

[0055] В соответствии с заложенным программно-аппаратным алгоритмом по меньшей мере одна камера 100, которая является источником видеопотока 1 и входит в состав CCTV, осуществляет съемку заданной ей области пространства 110. Камера 100 может быть расположения в любом удобном для обзора области пространства 110, например, установлена на потолке, стене и пр.[0055] In accordance with the embedded software and hardware algorithm, at least one camera 100, which is the source of the video stream 1 and is part of the CCTV, captures a given area of space 110. The camera 100 can be located in any convenient for viewing area of space 110 for example, mounted on a ceiling, wall, etc.

[0056] Изображение области пространства с камеры 100 в виде видеопотока поступает в устройство распознавания лиц 10, которое анализирует в реальном времени входящий видеопоток для определения наличия в кадрах видеопотока изображения по меньшей мере одного лица 101. Вместе с изображение от камеры 100 в устройство 10 также может поступать идентификатор камеры 100. Дополнительно в устройство распознавания лиц 10 также может поступать видеопоток от камеры AR-очков 20 и их идентификатор, например, МАС-адрес.[0056] The image of the space region from the camera 100 in the form of a video stream is supplied to the face recognition device 10, which analyzes the incoming video stream in real time to determine if at least one face 101 is present in the frames of the video stream. Together with the image from the camera 100, the device 10 also the identifier of the camera 100 can be received. Additionally, a video stream from the camera of AR glasses 20 and their identifier, for example, the MAC address, can also be received in the face recognition device 10.

[0057] При обнаружении на поступающих кадрах видеопотока изображения по меньшей мере одного лица 101 устройство распознавания лиц 10 захватывает данные кадры видеопотока и направляет их в виде последовательности n кадров в платформу биометрической идентификации 11 для идентификации лица 101.[0057] When at least one face 101 is detected on the incoming video stream frames, the face recognition device 10 captures these frames of the video stream and sends them as a sequence of n frames to the biometric identification platform 11 to identify the face 101.

[0058] В устройстве распознавания лиц 10 может быть задана область интереса на поступающих кадрах видеопотока. Область интереса задается в пикселях как массив вида [х, у, ширина, высота], где (х, у) - координаты верхней левой точки области интереса. Система координат на изображении задается аналогично рисунку на Фиг. 3. При значениях ширины и высоты, равных '0', областью интереса считается весь кадр. Соответственно, в такой реализации заявленного решения устройство распознавания лиц 10 будет осуществлять захват только тех кадров видеопотока, на которых изображение лица 101 попадает в заданную область интереса. Например, в качестве области интереса может быть выбрана область размещения турникетов. Таким образом, захват будет осуществляться только тех изображений лиц, которые находятся в области размещения турникетов.[0058] In the face recognition device 10, an area of interest in the incoming frames of the video stream can be set. The region of interest is specified in pixels as an array of the form [x, y, width, height], where (x, y) are the coordinates of the upper left point of the region of interest. The coordinate system in the image is set similarly to the figure in FIG. 3. If the width and height are equal to '0', the entire frame is considered the area of interest. Accordingly, in such an implementation of the claimed solution, the face recognition device 10 will capture only those frames of the video stream in which the image of the face 101 falls into a given region of interest. For example, the area of the turnstile placement can be selected as the area of interest. Thus, capture will be carried out only of those images of persons who are in the area of the turnstile.

[0059] Также дополнительно устройство распознавания лиц 10 может быть выполнено с возможностью определения наличия изображения человека в кадре, изображение лица 101 которого было обнаружено. Для определения наличия изображения человека в кадре устройство 10 после обнаружения изображения лица определяет наличие в кадре изображения плеч в соответствующей изображению лица области или изображения тела человека. После того, как устройство 10 определило наличие человека в кадре, изображение лица 101 которого было определено, осуществляется захват кадров видеопотока для их передачи в виде последовательности n кадров в платформу биометрической идентификации 11 для идентификации человека в кадре.[0059] Also, in addition, the face recognition device 10 may be configured to determine the presence of an image of a person in the frame, the image of the face 101 of which has been detected. To determine the presence of a person’s image in the frame, the device 10 after detecting the face image determines the presence in the frame of the image of the shoulders in the corresponding face image of the area or image of the human body. After the device 10 has determined the presence of a person in the frame whose face image 101 has been determined, the frames of the video stream are captured for transmission in the form of a sequence of n frames to the biometric identification platform 11 for identifying the person in the frame.

[0060] Платформа биометрической идентификации 11 определяет положение и размер изображения лица 101 на каждом входном захваченном кадре в последовательности n кадров, на котором данное изображение лица 101 распознано. Если на захваченных n кадрах определены дополнительные изображения лиц, то платформа 11 также может определять размеры и положение всех изображений лиц описанным ниже образом. На основе данных о положении лиц платформа 11 отслеживает изображение лица 101 на захваченных n кадрах.[0060] The biometric identification platform 11 determines the position and size of the face image 101 on each input captured frame in a sequence of n frames in which this face image 101 is recognized. If additional images of faces are defined on captured n frames, then the platform 11 can also determine the sizes and position of all face images in the manner described below. Based on the face position data, the platform 11 tracks the face image 101 on captured n frames.

[0061] Размеры изображений лиц 101 на захваченных n кадрах платформа биометрической идентификации 11 сравнивает с заранее заданными пользователем пороговыми значениями размеров изображений лиц и если размеры изображения лица 101 на захваченном кадре больше заранее заданного порогового значения, то упомянутая платформа 11 переходит к этапу определения параметров лица на основе изображения лица на захваченном кадре, в частности, параметров: поворота головы (в градусах) по каждой из трех осей вращения наклон вверх/вниз относительно горизонтальной оси; наклона влево/вправо относительно вертикальной оси; поворота относительно вертикальной оси. Для изображений лиц, размер которых меньше заранее заданного порогового значения, упомянутые параметры не определяются.[0061] The sizes of the face images 101 on the captured n frames, the biometric identification platform 11 compares with the threshold values for the size of the face images, and if the sizes of the face image 101 on the captured frame are larger than the predetermined threshold value, the said platform 11 proceeds to the step of determining face parameters based on the image of the face on the captured frame, in particular, the parameters: head rotation (in degrees) along each of the three rotation axes, tilt up / down relatively horizontally oh axis; tilt left / right relative to the vertical axis; rotation about a vertical axis. For images of faces whose size is less than a predetermined threshold value, the mentioned parameters are not determined.

[0062] Определенные платформой 11 параметры изображения лица 101 на захваченном кадре сравниваются с заранее заданными пороговыми значениями параметров лиц и на основе величины отклонения определенных на предыдущем шаге параметров изображения лица от заданных пороговыми значений параметров платформа 11 присваивает изображению лица 101 показатель качества изображения лица, причем чем ниже величина отклонения, тем выше показатель качества изображения лица. Для повышения точности идентификации лица 101 для дальнейшего анализа платформа 11 выбирает то изображение лица 101, у которого показатель качества является максимальным.[0062] The face image parameters determined by platform 11 of the face 101 on the captured frame are compared with predetermined threshold parameters of the face parameters and based on the deviation of the face image parameters determined in the previous step from the threshold settings of the parameters, the platform 11 assigns a face image quality indicator to the face image 101, wherein the lower the deviation, the higher the face image quality indicator. To increase the accuracy of identification of the face 101 for further analysis, the platform 11 selects the image of the face 101, in which the quality indicator is the maximum.

[0063] Соответственно, если в видеопотоке обнаружены дополнительные изображения лиц, помимо изображения лица 101, попадающие в область интереса, то они могут быть также обработаны описанным выше способом для определения дополнительных изображений лиц, у которых показатель качества будет являться максимальным.[0063] Accordingly, if additional face images are found in the video stream, besides the face image 101 that fall into the area of interest, they can also be processed in the manner described above to determine additional face images for which the quality indicator will be the maximum.

[0064] Далее на основе изображения лица 101, у которого показатель качества является максимальным, платформа биометрической идентификации 11 известными из уровня техники методами осуществляет построение облака точек лица и рассчитывает вектор, характеризующий признаки изображения лица 101 (далее вектор лица 101). Полученный вектор платформа 11 сравнивает с заранее сохраненными векторами изображений в БД 12. Каждому заранее сохраненному вектору изображения в БД 12 назначена соответствующая идентификационная информация личности человека, на основе изображения лица, которого данный вектор изображения был рассчитан. Идентификационной информацией может быть, например, данные паспорта, фотография лица и т.д. Также БД 12 может содержать информацию, например, метку черного списка (стоп-листа), указывающую на то, что данный человек находится в «черном списке» (стоп-листе), например, в связи с тем, что он является злоумышленником или нарушителем.[0064] Further, based on the image of the face 101, in which the quality indicator is maximum, the biometric identification platform 11, using methods known in the art, constructs a point cloud of faces and calculates a vector characterizing the features of the face 101 image (hereinafter, the face 101 vector). The platform 11 compares the obtained vector with the pre-stored image vectors in the database 12. Each pre-stored image vector in the database 12 is assigned the corresponding identification information of the person based on the image of the person whose given image vector was calculated. Identification information may be, for example, passport data, photograph of a person, etc. Also, DB 12 may contain information, for example, a black list (stop list) label indicating that the person is on the black list (stop list), for example, due to the fact that he is an attacker or an intruder .

[0065] Если вектор, характеризующий признаки изображения лица 101, совпал с вектором изображения, сохранным в БД 12, то платформа биометрической идентификации 11 определяет изображение лица 101 как распознанное/идентифицированное. Далее платформа 11 обращается к БД 12 для извлечения идентификационной информации личности человека 101 в соответствии с вектором изображения из БД 12, с которым вектор лица 101 совпал, и проверки наличия метки черного списка для определения параметров доступа человека 101 в область пространства 110, снимаемой камерой, в соответствии с заранее заданным классификатором.[0065] If the vector characterizing the features of the image of the face 101 coincides with the image vector stored in the database 12, then the biometric identification platform 11 determines the image of the face 101 as recognized / identified. Next, the platform 11 refers to the database 12 to retrieve the identity information of the person 101 in accordance with the image vector from the database 12 with which the face vector 101 matches, and check the presence of the blacklist mark to determine the access parameters of the person 101 in the area of space 110 captured by the camera, in accordance with a predefined classifier.

[0066] Если метка черного списка содержится в БД 12, то платформа 11 назначает лицу 101 параметр доступа, указывающий на то, что у лица 101 нет разрешения находиться в области пространства 110, в частности, классификатор «черного списка». Если метка черного списка в БД 12 отсутствует, то платформа 11 назначает лицу 101 параметр доступа, указывающий на то, что у лица 101 есть разрешение находиться в области пространства 110, в частности, классификатор белого списка. Таким образом, устройство распознавания лиц 10 присваивает лицу 101 параметры доступа, определяющие разрешение на нахождение в области пространства 110, на основе полученного с камеры 100 изображения лица 101.[0066] If the blacklist label is contained in the database 12, then the platform 11 assigns the access parameter to the face 101 indicating that the face 101 does not have permission to be in the area of space 110, in particular the blacklist classifier. If the blacklist label in the database 12 is absent, then the platform 11 assigns an access parameter to the face 101, indicating that the face 101 has permission to be in the area of space 110, in particular, the white list classifier. Thus, the face recognition device 10 assigns access parameters to the face 101, which determine the permission to be in the area of space 110, based on the image of the face 101 received from the camera 100.

[0067] Результаты сравнения векторов, в частности идентификационная информация и параметры доступа могут быть выведены устройством 10 на средства вывода изображений, например, на дисплей пользователя устройство распознавания лиц 10 вместе с указателем на изображение лица 101 на выводимых в реальном времени кадрах видеопотока, например, в формате JSON с информацией о распознанном человеке.[0067] The results of the comparison of vectors, in particular identification information and access parameters, can be output by the device 10 to image output means, for example, a face recognition device 10 together with a pointer to a face image 101 on real-time output frames of a video stream, for example, in JSON format with information about the recognized person.

[0068] Если вектор, характеризующий признаки изображения лица 101, не совпал ни с одним вектором изображения, сохранным в БД 12, то платформа биометрической идентификации 11 определяет изображение лица 101 как нераспознанное/неидентифицированное и назначает лицу 101 параметр доступа, указывающий на то, что у лица 101 нет разрешения находиться в области пространства 110. Результаты сравнения векторов, в частности информация о том, что изображение лица 101 не распознано, и параметр доступа также могут быть выведены на устройство отображения изображения, например, дисплей пользователя устройства распознавания лиц 10 или устройства дополненной реальности, в частности, на стекла AR-очков 20, в формате JSON с информацией о распознанном человеке.[0068] If the vector characterizing the features of the image of the face 101 did not match any image vector stored in the database 12, then the biometric identification platform 11 determines the image of the face 101 as unrecognized / unidentified and assigns the access parameter 101 to the face indicating that the person 101 does not have permission to be in the area of space 110. The results of the comparison of vectors, in particular the information that the image of the face 101 is not recognized, and the access parameter can also be output to the image display device, for example, a user display of a face recognition device 10 or augmented reality device, in particular, on glasses of AR glasses 20, in JSON format with information about a recognized person.

[0069] Таким образом, поскольку для формирования вектора, характеризующего признаки изображения лица 101, используют только лишь изображение лица 101, у которого показатель качества является максимальным, а не весь кадр видеопотока, повышается скорость обработки изображения лица 101, снижается время и повышается точность идентификации лиц и их классификации для определения параметров доступа.[0069] Thus, since for the formation of a vector characterizing the features of the image of the face 101, only the image of the face 101 is used, in which the quality indicator is maximum, and not the entire frame of the video stream, the processing speed of the image of the face 101 increases, the time decreases and the identification accuracy increases persons and their classification for determining access parameters.

[0070] Далее устройство распознавания лиц 10 переходит к этапам определения местоположения лица 101 с назначенным параметром доступа, указывающим на то, что у лица 101 нет разрешения находиться в области пространства 110 (т.е. изображение лица которого не было распознано или было определено, что лицо на распознанном изображении находится в «черном списке»), и построению до данного лица 101 маршрута. Для построения маршрута устройство распознавания лиц 10 может быть дополнительно оснащена модулем 13 построения маршрута до лица 101, который идентифицирует камеру 100, посредством которой было получено изображение лица 101, и извлекает географические координаты области пространства 110, находящейся в зоне съемки камеры 100. Географические координаты области пространства 110 могут быть извлечены модулем 13 из БД 12 на основе идентификатора камеры, либо запрошены известными из уровня техники методами у соответствующей камеры 100, от которой поступил кадр с изображением лица 101.[0070] Next, the face recognition device 10 proceeds to the steps of determining the location of the face 101 with the assigned access parameter indicating that the face 101 does not have permission to be in the area of space 110 (i.e., the face image of which was not recognized or was determined, that the face in the recognized image is in the "black list"), and the construction of 101 routes to this person. To build a route, the face recognition device 10 can be additionally equipped with a module 13 for building a route to the face 101, which identifies the camera 100, by which the image of the face 101 was obtained, and retrieves the geographical coordinates of the area of space 110 located in the shooting area of the camera 100. The geographical coordinates of the area spaces 110 can be extracted by the module 13 from the database 12 based on the camera identifier, or requested by methods known from the prior art from the corresponding camera 100, from which frame with the face 101.

[0071] Также для построения маршрута устройство распознавания лиц 10 может быть выполнено с возможностью определения местоположения лица 101, изображение лица которого было распознано. Например, команда на построение такого маршрута может быть направлена от пользователя на устройство 10, который посредством устройства ввода/вывода информации выбирает лицо, которое было распознано на изображении для построения до него маршрута.[0071] Also for constructing a route, the face recognition device 10 may be configured to determine the location of the face 101 whose face image has been recognized. For example, a command to build such a route can be sent from the user to the device 10, which, using the information input / output device, selects a person who was recognized in the image to build a route to it.

[0072] Далее модуль 13 построения маршрута определяет, находится ли по меньшей мере один сотрудник в AR-очках 20 в области пространства 110 на основе информации о местоположении AR-очков 20, полученной с помощью датчика системы навигации, например, GPS приемо-передатчика, или Bluetooth-маячка, встроенного в очки AR-очки 20. Считывание Bluetooth-маячка может осуществляться посредством устройства считывания Bluetooth-маячков 111, установленного в области пространства 110 или в области пространства, в которой находится сотрудник в AR-очках 20.[0072] Further, the route building module 13 determines whether at least one employee in the AR glasses 20 is located in the area of the space 110 based on the location information of the AR glasses 20 obtained using a navigation system sensor, for example, a GPS transceiver, or a Bluetooth beacon integrated in the AR glasses 20. Reading the Bluetooth beacon can be carried out using a Bluetooth beacon reader 111 installed in the area of space 110 or in the space in which the employee in the AR glasses 20 is located.

[0073] Определять местоположение AR-очков 20 модуль 13 построения маршрута может также посредством считывания с помощью камеры AR-очков 20 размещенных в различных областях пространства QR-коды. Информация QR-кода поступает в модуль 13 построения маршрута, который на основе поступившей информации определяет местоположении AR-очков 20.[0073] To determine the location of the AR glasses 20, the route building module 13 can also, by means of reading the camera of AR glasses 20 located in different areas of the space, QR codes. The information of the QR code enters the route building module 13, which, based on the received information, determines the location of the AR glasses 20.

[0074] Если по меньшей мере одни AR-очки 20 находятся в области пространства 110, то модуль 13 построения маршрута направляет команду на модуль 14 формирования уведомлений, в соответствии с которой модуль 14 формирует уведомление для AR-очков 20, находящихся в области пространства 110, содержащее информацию о том, что в данной области расположения AR-очков 20 находится лицо с назначенным параметром доступа, указывающим на то, что у лица нет разрешения находиться в области пространства 110 в связи с тем, что оно нераспознанно или находится в «черном списке». Дополнительно упомянутое уведомление может включать указание на сканирование с помощью камеры AR-очков 20 области пространства 110 для захвата изображения упомянутого лица 101. Сформированное уведомление, например, в формате JSON с информацией о распознанном человеке, направляется модулем 14 на AR-очки 20 для вывода уведомления на стекла AR-очков в режиме дополненной реальности известными из уровня техники методами.[0074] If at least one AR glasses 20 are in the region of space 110, then the route building module 13 sends a command to the notification generation module 14, according to which the module 14 generates a notification for the AR glasses 20 located in the region of the space 110 containing information that in this location area of the AR-glasses 20 there is a person with an assigned access parameter, indicating that the person does not have permission to be in the area of space 110 due to the fact that he is unrecognized or is in the “black list” ". Additionally, the notification may include an indication that the AR-glasses 20 will scan the area of space 110 to capture the image of the mentioned person 101. For example, the generated notification, in JSON format with information about the recognized person, is sent by the module 14 to the AR-glasses 20 to display a notification on glasses of AR glasses in augmented reality mode using methods known from the prior art.

[0075] Если модуль 13 построения маршрута определил, что в области пространства 110 нет сотрудника в AR-очках 20, то модуль 13 по поступающим на него данным о местоположении от всех AR-очков определяет по меньшей мере одни AR-очки, расположенные наиболее близко к области пространства 110. На основе данных о местоположении AR-очков модуль 13 формирует маршрут из области пространства, в которой размещены данные AR-очки, до области пространства 110, в которой находится нераспознанное или находящееся в черном списке лицо 101, и передает его в модуль 14 формирования уведомлений, который формирует уведомление о том, что в области пространства 110 находится лицо 101. Сформированные уведомление и маршрут также направляются модулем 14 на AR-очки для их отображения на стеклах AR[0075] If the route building module 13 determines that there is no employee in the AR glasses 20 in the area of space 110, then the module 13 determines at least one AR glasses located closest to the location data from all AR glasses to the area of space 110. Based on the location data of the AR glasses, module 13 generates a route from the area of space in which the AR glasses are located to the area of space 110 where the face 101 is unrecognized or blacklisted, and transfers it to forming module 14 notification, which generates a notification that in the space 110 is face 101. Formed notice and route are also sent to the module 14 on the AR-glasses to display them on the glass AR

- очков (т.е. дисплей устройства дополненной реальности) в режиме дополненной реальности известными из уровня техники методами.- glasses (i.e. augmented reality device display) in augmented reality mode using methods known from the prior art.

[0076] Размещение модуля 13 формирования маршрута и модуля 14 формирования уведомлений в устройстве распознавания лиц 10 позволяет снизить вычислительную нагрузку на вычислительные средства AR-очков 20. Однако в альтернативном варианте реализации заявленного решения для снижения вычислительной нагрузки на устройство распознавания лиц 10 модуль 13 формирования маршрута и модуль 14 формирования уведомлений могут быть размещены в архитектуре AR-очков 20. Соответственно, устройство распознавания лиц 10: идентифицирует камеру 100, посредством которой было получено изображение лица 101; извлекает географические координаты области пространства 110 на основе идентификатора камеры 100; определяет по меньшей мере одни AR-очки, расположенные наиболее близко к области пространства 110; и направляет упомянутые координаты в модуль 13 формирования маршрута, размещенный в архитектуре AR-очков 20. Также поскольку по каналу связи между модулем 13 и устройством 10 передаются только лишь координаты, а не маршрут целиком, то увеличивается пропуская способность канала связи между AR-очками 20 и устройство распознавания лиц 10.[0076] Placing the route generating module 13 and the notification generating module 14 in the face recognition device 10 allows to reduce the computing load on the computing means of the AR glasses 20. However, in an alternative embodiment of the claimed solution to reduce the computing load on the face recognition device 10, the route forming module 13 and the notification generating unit 14 can be placed in the architecture of the AR glasses 20. Accordingly, the face recognition device 10: identifies a camera 100 by which ylo obtained face image 101; retrieves the geographical coordinates of the area of space 110 based on the identifier of the camera 100; determines at least one AR glasses located closest to the area of space 110; and sends the mentioned coordinates to the route generation module 13 located in the architecture of the AR glasses 20. Also, since only the coordinates and not the entire route are transmitted through the communication channel between the module 13 and the device 10, the transmission capacity of the communication channel between the AR glasses 20 increases and face recognition device 10.

[0077] При получении географических координат области пространства 110 модуль 13 формирования маршрута определяет местоположение AR-очков 20 с помощью датчика системы навигации, Bluetooth-маячка или с помощью считанных посредством AR-очков QR-кода и направляет команды на модуль 14 формирования уведомлений для вывода на стекла AR-очков, находящихся в области пространства 110, уведомления, содержащего информацию о том, что в данной области расположения AR-очков 20 находится нераспознанное или находящееся в «черном списке» лицо 101, либо вывода на стекла AR-очков (т.е. дисплей устройства дополненной реальности) уведомления о том, что в области пространства 110 находится лицо 101, если AR-очки 20 не располагаются в области пространства 110, и информацию о маршруте из области пространства, в которой размещены данные AR-очки, до области пространства 110, в которой находится нераспознанное или находящееся в черном списке лицо 101.[0077] Upon receiving the geographical coordinates of the area of space 110, the route generating unit 13 determines the location of the AR glasses 20 using a navigation system sensor, a Bluetooth beacon, or using a QR code read through the AR glasses and sends commands to the notification generating module 14 for output on glasses of AR-glasses located in the area of space 110, a notification containing information that in this area of location of AR-glasses 20 there is an unrecognized or “blacklisted” person 101, or output to glasses of AR-glasses in (i.e., the display of the augmented reality device) notifications that a face 101 is in the area of space 110 if the AR glasses 20 are not located in the area of space 110, and route information from the area of space in which the AR- data is located glasses, to the area of space 110, in which an unrecognized or blacklisted person 101 is located.

[0078] В процессе перемещения сотрудника в AR-очках по маршруту следования до области пространства 110 модуль 13 построения маршрута может быть выполнен с возможностью отслеживать траекторию движения устройства дополненной реальности, в частности перемещение AR-очков, в режиме реального времени по поступающей от них информации о местоположении и корректировать маршрут в случае отклонения траектории движения устройства дополненной реальности от сформированного ранее маршрута.[0078] During the movement of the employee in the AR glasses along the route to the area of space 110, the route building module 13 can be configured to track the trajectory of the augmented reality device, in particular the movement of AR glasses in real time from the information received from them about the location and adjust the route in case of deviation of the trajectory of the augmented reality device from the previously formed route.

[0079] При достижении данного сотрудника конечной точки маршрута - области пространства 110 модуль 14 направляет на AR-очки уведомление, содержащее информацию о том, что в данной области расположения AR-очков находится нераспознанное или находящееся в черном списке лицо 101, а также, при необходимости, указание на сканирование с помощью камеры AR-очков области пространства 110.[0079] When this employee reaches the end point of the route — space area 110, module 14 sends a notification to AR glasses containing information that an unrecognized or blacklisted person 101 is in this AR glasses location, as well as if necessary, an indication of scanning using the AR-glasses camera in the area of space 110.

[0080] После того, как модуль 13 построения маршрута направил уведомление на AR-очки 20, указывающее на то, что в данной области расположения AR-очков 20 находится лицо 101, устройство распознавания лиц 10 анализирует в реальном времени входящий видеопоток от камеры AR-очков 20 для определения наличия в кадрах видеопотока по меньшей мере одного лица 101 описанным ранее способом.[0080] After the route building module 13 sent a notification to the AR glasses 20, indicating that the face 101 is in the location area of the AR glasses 20, the face recognition device 10 analyzes the incoming video stream from the AR- camera in real time points 20 for determining the presence in the frames of the video stream of at least one face 101 as previously described.

[0081] При обнаружении на кадрах видеопотока от камеры AR-очков 20 изображения по меньшей мере одного лица система распознавания лиц 10 захватывает данные кадры видеопотока и направляет их в виде последовательности n кадров в платформу биометрической идентификации 11. Платформа биометрической идентификации 11 обрабатывает поступившие кадры описанным ранее способом для расчета вектора, характеризующего признаки изображения лица 101.[0081] When at least one face is detected on the frames of the video stream from the camera of the AR glasses 20, the face recognition system 10 captures these frames of the video stream and sends them as a sequence of n frames to the biometric identification platform 11. The biometric identification platform 11 processes the received frames as described previously a method for calculating a vector characterizing the features of the face image 101.

[0082] При обнаружении на кадрах видеопотока от камеры AR-очков 20 изображения по меньшей мере одного лица система распознавания лиц 10 захватывает данные кадры видеопотока и направляет их в виде последовательности n кадров в платформу биометрической идентификации 11. Платформа биометрической идентификации 11 обрабатывает поступившие кадры описанным ранее способом для расчета вектора, характеризующего признаки изображения лица 101. Полученный на предыдущем этапе вектор платформа 11 сравнивает с ранее полученным вектором, характеризующим признаки изображения лица 101. При совпадении векторов платформа биометрической идентификации 11 направляет соответствующую команду в модуль 14 формирования уведомлений для формирования и вывода на стекла AR-очков 20 уведомления о том, что лицо 101 является нераспознанным или находящимся в черном списке лицом. Уведомление выводится известными из уровня техники методами в заданную область стекол AR-очков 20 (т.е. дисплея устройства дополненной реальности) в режиме дополненной реальности вместе с информацией о том, что лицо, находящееся в поле зрения сотрудника в AR-очках 20, является нераспознанным лицом 101 или лицом, находящимся в «черном списке».[0082] When at least one face is detected on the frames of the video stream from the camera of the AR glasses 20, the face recognition system 10 captures these frames of the video stream and sends them as a sequence of n frames to the biometric identification platform 11. The biometric identification platform 11 processes the received frames as described previously, a method for calculating a vector characterizing the features of the face image 101. The platform 11 obtained at the previous stage compares with the previously obtained vector characterizing the prize Aki face image 101. When the coincidence of vectors of biometric identification platform 11 sends a corresponding command to the module 14 generating notifications to generate and output on the AR-20 points notification windows that face 101 is unrecognized or who are blacklisted entity. The notification is output by methods known from the prior art to a predetermined region of the glasses of AR glasses 20 (i.e., the display of the augmented reality device) in augmented reality mode along with information that the person in the field of view of the employee in AR glasses 20 is unrecognized person 101 or a person on the “black list”.

[0083] Дополнительно устройство распознавания лиц 10 может быть выполнено с возможностью определения местоположения лица 101 в области пространства 110. Соответственно, после того, как устройство распознавания лиц 10 определило наличие в области пространства 110 лица 101, у которого нет разрешения находиться в области пространства 110, устройство 10 посредством платформы биометрической идентификации 11 определяет известными из уровня техники методами местоположение лица 101 в области пространства 110, например, посредством определения расположения изображения лица 101 относительно по меньшей мере одного объекта на изображении, местоположение которого в области пространства 110 заранее известны и заданы в устройстве распознавания лиц 10. Полученные данные местоположения лица 101 в области пространства 110 преобразуются в координаты лица 101 в 3D модели пространства, модель которого заранее создана и сохранена в БД 12.[0083] Further, the face recognition device 10 may be configured to determine the location of the face 101 in the area of the space 110. Accordingly, after the face recognition 10 determines the presence in the area of the space 110 of the face 101 that does not have permission to be in the area of the space 110 , the device 10, by means of the biometric identification platform 11, determines, by methods known from the prior art, the location of the face 101 in the region of space 110, for example, by determining the location images of the face 101 with respect to at least one object in the image whose location in the area of space 110 is previously known and set in the face recognition device 10. The obtained location data of the face 101 in the area of space 110 are converted to the coordinates of the face 101 in a 3D model of the space, the model of which is previously created and saved in database 12.

[0084] Также определение местоположения лица 101 в области пространства 110 может осуществляться следующим образом. После того, как устройство распознавания лиц 10 определило наличие в области пространства 110 лица 101, у которого нет разрешения находиться в области пространства 110, модуль 13 построения маршрута на основе идентификатора камеры извлекает из БД 12 информацию о местоположении камеры и покрываемой ей области пространства 110. На основе информации о местоположении камеры модуль 13 определяет координаты камеры в 3D-модели пространства и проецирует покрываемую камеру область пространства в точку на 3D-модели. Координаты полученной точки на 3D-модели определяются модулем 13 как координаты лица 101 в 3D модели пространства.[0084] Also, the location of the face 101 in the area of space 110 can be carried out as follows. After the face recognition device 10 has determined the presence in the region of the space 110 of the face 101, which does not have permission to be in the region of the space 110, the route building module 13, based on the camera identifier, extracts from the database 12 information about the location of the camera and the area of the space 110 covered by it. Based on the information about the location of the camera, module 13 determines the coordinates of the camera in the 3D model of space and projects the area of space to be covered by the camera to a point on the 3D model. The coordinates of the obtained point on the 3D model are determined by module 13 as the coordinates of the face 101 in the 3D space model.

[0085] Полученные координаты лица 101 в 3D модели пространства передаются в модуль 13 построения маршрута, который также преобразует данные о местоположении AR-очков 20 в координаты очков в 3D модели пространства для локализации AR-очков 20 в 3D модели пространства. Далее модуль 13 построения маршрута на основе полученных координат лица 101 и координат очков в 3D модели пространства определяет маршрут в 3D модели пространства от местоположения AR-очков 20 до лица 101 и формирует указатель траектории движения по маршруту в 3D модели пространства. Сформированный указатель траектории движения по маршруту в 3D модели пространства направляется в модуль 14 формирования уведомлений и выводится на стекла AR-очков 20 (т.е. дисплея устройства дополненной реальности) в режиме дополненной реальности в соответствии с местоположением AR-очков 20 для навигации сотрудника в AR-очках 20 до области пространства 110 по маршруту, сформированному в 3D модели пространства.[0085] The obtained coordinates of the face 101 in the 3D space model are transmitted to the route building module 13, which also converts the location data of the AR glasses 20 into the coordinates of the glasses in the 3D space model to localize the AR glasses 20 in the 3D space model. Next, the route building module 13, based on the obtained coordinates of the face 101 and the coordinates of the glasses in the 3D space model, determines the route in the 3D space model from the location of the AR glasses 20 to the face 101 and generates a route path indicator in the 3D space model. The generated path indicator in the 3D space model is sent to the notification generation module 14 and displayed on the glasses of AR glasses 20 (i.e., the display of the augmented reality device) in augmented reality mode in accordance with the location of the AR glasses 20 for the employee’s navigation in AR-glasses 20 to the area of space 110 along the route formed in the 3D model of space.

[0086] Также модуль 14 формирования уведомлений может быть выполнен с возможностью формирования в 3D модели пространства 2D или 3D указателя лица 101 в соответствии с его расположением в 3D модели пространства. Указатель лица 101 размещается согласно определенным ранее координатам лица 101 в 3D модели пространства и выводится модулем 14 на стекла AR-очков 20 в режиме дополненной реальности, когда лицо 101 находится в области видимости сотрудника в AR-очках 20, для указания на лицо 101 в области пространства 110.[0086] Also, the notification generation module 14 may be configured to generate a 2D or 3D face indicator 101 in the 3D model of the space in accordance with its location in the 3D space model. The face indicator 101 is placed according to the previously determined coordinates of the face 101 in the 3D space model and is displayed by the module 14 on the glasses of AR glasses 20 in augmented reality mode when face 101 is in the employee’s field of view in AR glasses 20 to indicate face 101 in the area space 110.

[0087] Таким образом, за счет того, что заявленная система выполнена с возможность формирования маршрута до места фиксации камерами лица 101, у которого нет разрешения находиться в области пространства 110, обеспечивается оперативное детектирование и идентификацию человека, и повышается скорость задержания нарушителей. Также представленная система обладает простой конструкцией, вследствие которой повышается надежность работы системы.[0087] Thus, due to the fact that the claimed system is made with the possibility of forming a route to the place of fixing by the cameras of the person 101, who does not have permission to be in the area of space 110, operational detection and identification of a person is ensured, and the speed of detention of violators is increased. Also, the presented system has a simple design, due to which the reliability of the system increases.

[0088] Модификации и улучшения вышеописанных вариантов осуществления настоящего технического решения будут ясны специалистам в данной области техники. Предшествующее описание представлено только в качестве примера и не несет никаких ограничений. Таким образом, объем настоящего технического решения ограничен только объемом прилагаемой формулы изобретения.[0088] Modifications and improvements to the above described embodiments of the present technical solution will be apparent to those skilled in the art. The preceding description is provided as an example only and is not subject to any restrictions. Thus, the scope of the present technical solution is limited only by the scope of the attached claims.

Claims (37)

1. Способ распознавания лиц в видеопотоке, выполняемый по меньшей мере одним вычислительным устройством, содержащий этапы, на которых:1. A method for recognizing faces in a video stream, performed by at least one computing device, comprising the steps of: - получают видеопоток от по меньшей мере одного источника видеопотока с изображением области пространства;- receive a video stream from at least one source of a video stream with an image of a region of space; - захватывают кадры видеопотока при обнаружении на них изображения по меньшей мере одного лица;- capture frames of the video stream upon detection of images of at least one face on them; - определяют положение и размер изображения лица на каждом захваченном кадре;- determine the position and size of the face image on each captured frame; - определяют показатели качества изображения лица на захваченных кадрах, на которых размер изображения лица выше заранее заданных пороговых значений;- determine the quality indicators of the image of the face on the captured frames, on which the size of the face image is higher than the predetermined threshold values; - выбирают изображение лица с максимальным показателем качества изображения лица;- choose a face image with a maximum face image quality indicator; - рассчитывают вектор, характеризующий признаки изображения лица, на основе выбранного изображения лица;- calculate a vector characterizing the features of the image of the face, based on the selected image of the face; - сравнивают рассчитанный вектор с сохраненными векторами изображений в базе данных (БД);- comparing the calculated vector with the stored image vectors in the database (DB); - на основе результатов сравнения рассчитанного вектора с сохраненными векторами присваивают лицу параметр доступа, определяющий разрешение на нахождение в области пространства;- based on the results of comparing the calculated vector with the stored vectors, an access parameter is defined for the person that determines the permission to be in the space region; - выводят параметр доступа на устройство отображения изображения.- outputting the access parameter to the image display device. 2. Способ по п. 1, отличающийся тем, что устройство отображения изображения представляет собой устройство дополненной реальности, причем параметр доступа выводят в режиме дополненной реальности в формате JSON с информацией о распознанном или нераспознанном человеке.2. The method according to p. 1, characterized in that the image display device is an augmented reality device, wherein the access parameter is output in augmented reality mode in JSON format with information about a recognized or unrecognized person. 3. Способ по п. 1, отличающийся тем, что дополнительно содержит этап, на котором задают область интереса для поступающих кадров видеопотока, при этом захватывают только те кадры видеопотока, на которых изображение лица попадает в заданную область интереса.3. The method according to p. 1, characterized in that it further comprises the step of setting the area of interest for the incoming frames of the video stream, while capturing only those frames of the video stream in which the face image falls into the specified area of interest. 4. Способ по п. 1, отличающийся тем, что после захвата кадров видеопотока при обнаружении на них изображения по меньшей мере одного лица дополнительно выполняют этап, на котором:4. The method according to p. 1, characterized in that after capturing frames of the video stream upon detection of images of at least one face, they additionally perform the step of: - определяют наличие изображения человека в кадре, изображение лица которого было обнаружено, причем для определения наличия изображения человека в кадре определяют наличие в кадре: изображения плеч в соответствующей изображению лица области или изображения тела человека.- determine the presence of the image of a person in the frame, the image of the face of which was detected, and to determine the presence of the image of a person in the frame, determine the presence in the frame: image of the shoulders in the corresponding face image of the area or image of the human body. 5. Способ по п. 1, отличающийся тем, что показатели качества изображения лица определяются на основе по меньшей мере одного параметра лица:5. The method according to claim 1, characterized in that the facial image quality indicators are determined based on at least one face parameter: - поворота головы (в градусах) по каждой из трех осей вращения наклон вверх/вниз относительно горизонтальной оси;- rotation of the head (in degrees) along each of the three axes of rotation, tilt up / down relative to the horizontal axis; - наклона влево/вправо относительно вертикальной оси;- tilt left / right relative to the vertical axis; - поворота относительно вертикальной оси.- rotation about a vertical axis. 6. Способ по п. 1, отличающийся тем, что дополнительно содержит этапы, на которых:6. The method according to p. 1, characterized in that it further comprises stages in which: - определяют местоположение лица с назначенным параметром доступа, указывающим на то, что у лица нет разрешения находиться в области пространства;- determine the location of the person with the assigned access parameter, indicating that the person does not have permission to be in the area of space; - определяют по меньшей мере одно устройство дополненной реальности, расположенное наиболее близко к упомянутой области пространства;- determine at least one augmented reality device located closest to the mentioned area of space; - формируют маршрут из области пространства, в которой размещено данное устройство дополненной реальности, до области пространства, в которой находится упомянутое лицо;- form a route from the region of space in which this device of augmented reality is located, to the region of space in which the said person is located; - отображают маршрут на устройстве дополненной реальности в режиме дополненной реальности.- display the route on the augmented reality device in augmented reality mode. 7. Способ по п. 6, отличающийся тем, что дополнительно содержит этапы, на которых:7. The method according to p. 6, characterized in that it further comprises stages in which: - отслеживают перемещение устройства дополненной реальности в режиме реального времени;- track the movement of the augmented reality device in real time; - корректируют маршрут в случае отклонения траектории движения устройства дополненной реальности от сформированного ранее маршрута.- adjust the route in case of deviation of the trajectory of the augmented reality device from the previously formed route. 8. Способ по п. 6, отличающийся тем, что дополнительно содержит этапы, на которых:8. The method according to p. 6, characterized in that it further comprises stages in which: - при достижении устройства дополненной реальности области пространства, в которой находится упомянутое лицо, анализируют в реальном времени входящий видеопоток от камеры устройства дополненной реальности для определения наличия в кадрах видеопотока по меньшей мере одного лица;- when the augmented reality device reaches the area of space in which the said person is located, the incoming video stream from the camera of the augmented reality device is analyzed in real time to determine if there is at least one face in the video stream frames; - выводят в заданную область дисплея устройства дополненной реальности в режиме дополненной реальности информацию о том, что у лица, находящегося в поле зрения сотрудника в AR-очках, нет разрешения находиться в области пространства в соответствии с присвоенным параметром доступа.- display in the specified area of the display of the augmented reality device in augmented reality mode information that the person in the field of vision of the employee with AR glasses does not have permission to be in the space in accordance with the assigned access parameter. 9. Способ по п. 1, отличающийся тем, что дополнительно содержит этапы, на которых:9. The method according to p. 1, characterized in that it further comprises stages in which: - определяют местоположение лица в области пространства и местоположение по меньшей мере одного устройства дополненной реальности;- determine the location of the person in the field of space and the location of at least one augmented reality device; - преобразуют данные о местоположениях лица и устройства дополненной реальности в координаты в 3D модели пространства;- convert data on the locations of the face and augmented reality device into coordinates in a 3D model of space; - определяют маршрут в 3D модели пространства от местоположения устройства дополненной реальности до упомянутого лица;- determine the route in the 3D model of space from the location of the augmented reality device to the mentioned person; - формируют указатель траектории движения по маршруту в 3D модели пространства и выводят его на дисплей устройства дополненной реальности в режиме дополненной реальности для навигации сотрудника с устройством дополненной реальности до области пространства, в котором находится упомянутое лицо, по маршруту, сформированному в 3D модели пространства.- they form a pointer to the trajectory of movement along the route in the 3D model of space and display it on the display of the augmented reality device in augmented reality mode to navigate the employee with the augmented reality device to the area of space in which the mentioned person is located along the route formed in the 3D space model. 10. Способ по п. 9, отличающийся тем, что дополнительно содержит этапы, на которых:10. The method according to p. 9, characterized in that it further comprises stages in which: - формируют в 3D модели пространства указатель лица в соответствии с его расположением в 3D модели пространства и выводят упомянутый указатель на дисплей устройства дополненной реальности в режиме дополненной реальности, когда лицо находится в области видимости сотрудника с устройством дополненной реальности, для указания на лицо в области пространства.- form in the 3D model of space a face indicator in accordance with its location in the 3D model of space and display the aforementioned pointer on the augmented reality device display in augmented reality mode when the person is in the area of visibility of an employee with the augmented reality device to indicate a person in the space region . 11. Система распознавания лиц в видеопотоке, содержащая по меньшей мере одно вычислительное устройство и по меньшей мере одну память, содержащую машиночитаемые инструкции, которые при их исполнении по меньшей мере одним вычислительным устройством выполняют способ по любому из пп. 1-10.11. A system for recognizing faces in a video stream comprising at least one computing device and at least one memory containing machine-readable instructions that, when executed by at least one computing device, perform the method according to any one of claims. 1-10.
RU2019105772A 2019-02-28 2019-02-28 Method and system for recognizing faces and constructing a route using augmented reality tool RU2712417C1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
RU2019105772A RU2712417C1 (en) 2019-02-28 2019-02-28 Method and system for recognizing faces and constructing a route using augmented reality tool
PCT/RU2019/000136 WO2020176008A1 (en) 2019-02-28 2019-02-28 Method and system for facial recognition and route mapping
EA201990537A EA038335B1 (en) 2019-02-28 2019-03-19 Method and system of face recognition and building of routes using augmented reality tool

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2019105772A RU2712417C1 (en) 2019-02-28 2019-02-28 Method and system for recognizing faces and constructing a route using augmented reality tool

Publications (1)

Publication Number Publication Date
RU2712417C1 true RU2712417C1 (en) 2020-01-28

Family

ID=69625108

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2019105772A RU2712417C1 (en) 2019-02-28 2019-02-28 Method and system for recognizing faces and constructing a route using augmented reality tool

Country Status (3)

Country Link
EA (1) EA038335B1 (en)
RU (1) RU2712417C1 (en)
WO (1) WO2020176008A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2796646C1 (en) * 2022-07-26 2023-05-29 Общество с ограниченной ответственностью "Видеофор" (ООО "Видеофор") Integrated safety in water bodies
WO2024025442A3 (en) * 2022-07-26 2024-03-21 Общество с ограниченной ответственностью "Видеофор" (ООО "Видеофор") Integrated security system for bodies of water

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030215114A1 (en) * 2002-05-15 2003-11-20 Biocom, Llc Identity verification system
US20050063566A1 (en) * 2001-10-17 2005-03-24 Beek Gary A . Van Face imaging system for recordal and automated identity confirmation
RU2431191C2 (en) * 2009-01-27 2011-10-10 Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) Method for personal identification through digital facial image
CN102360421B (en) * 2011-10-19 2014-05-28 苏州大学 Face identification method and system based on video streaming
US20150023602A1 (en) * 2013-07-19 2015-01-22 Kamil Wnuk Fast recognition algorithm processing, systems and methods
RU2621633C2 (en) * 2011-10-28 2017-06-06 Мэджик Лип, Инк. System and method for augmented and virtual reality

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6494143B1 (en) * 2001-06-28 2002-12-17 Alexander Bolonkin Bolonkin's method movement of vehicles and installation for it

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050063566A1 (en) * 2001-10-17 2005-03-24 Beek Gary A . Van Face imaging system for recordal and automated identity confirmation
US20030215114A1 (en) * 2002-05-15 2003-11-20 Biocom, Llc Identity verification system
RU2431191C2 (en) * 2009-01-27 2011-10-10 Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) Method for personal identification through digital facial image
CN102360421B (en) * 2011-10-19 2014-05-28 苏州大学 Face identification method and system based on video streaming
RU2621633C2 (en) * 2011-10-28 2017-06-06 Мэджик Лип, Инк. System and method for augmented and virtual reality
US20150023602A1 (en) * 2013-07-19 2015-01-22 Kamil Wnuk Fast recognition algorithm processing, systems and methods

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2796646C1 (en) * 2022-07-26 2023-05-29 Общество с ограниченной ответственностью "Видеофор" (ООО "Видеофор") Integrated safety in water bodies
WO2024025442A3 (en) * 2022-07-26 2024-03-21 Общество с ограниченной ответственностью "Видеофор" (ООО "Видеофор") Integrated security system for bodies of water

Also Published As

Publication number Publication date
WO2020176008A1 (en) 2020-09-03
EA038335B1 (en) 2021-08-11
EA201990537A1 (en) 2020-08-31

Similar Documents

Publication Publication Date Title
US11735018B2 (en) Security system with face recognition
US11580753B2 (en) License plate detection and recognition system
CN109583285B (en) Object recognition method
KR102152318B1 (en) Tracking system that can trace object's movement path
JP6525229B1 (en) Digital search security system, method and program
CN105659200B (en) For showing the method, apparatus and system of graphic user interface
US20180053352A1 (en) Occluding augmented reality content or thermal imagery for simultaneous display
CN109740444B (en) People flow information display method and related product
TW202026948A (en) Methods and devices for biological testing and storage medium thereof
US11288954B2 (en) Tracking and alerting traffic management system using IoT for smart city
CN109766779A (en) It hovers personal identification method and Related product
KR101181967B1 (en) 3D street view system using identification information.
US11263472B2 (en) On-demand visual analysis focalized on salient events
CN110555876B (en) Method and apparatus for determining position
RU2713876C1 (en) Method and system for detecting alarm events when interacting with self-service device
RU2712417C1 (en) Method and system for recognizing faces and constructing a route using augmented reality tool
CN112906610A (en) Method for living body detection, electronic circuit, electronic apparatus, and medium
KR20150086840A (en) Apparatus and control method for mobile device using multiple cameras
US9911237B1 (en) Image processing techniques for self-captured images
CN117461309A (en) Misaligned viewpoint mitigation for computer stereoscopic vision
KR101702452B1 (en) A method and a system for providing cctv image applied augmented reality
JP7000935B2 (en) Information processing equipment, information processing system, information processing method and program
US20230013117A1 (en) Identity recognition utilizing face-associated body characteristics
US20220366727A1 (en) Identity recognition utilizing face-associated body characteristics
Behara et al. Towards autonomous surveillance in real world environments