RU2712417C1 - Method and system for recognizing faces and constructing a route using augmented reality tool - Google Patents
Method and system for recognizing faces and constructing a route using augmented reality tool Download PDFInfo
- Publication number
- RU2712417C1 RU2712417C1 RU2019105772A RU2019105772A RU2712417C1 RU 2712417 C1 RU2712417 C1 RU 2712417C1 RU 2019105772 A RU2019105772 A RU 2019105772A RU 2019105772 A RU2019105772 A RU 2019105772A RU 2712417 C1 RU2712417 C1 RU 2712417C1
- Authority
- RU
- Russia
- Prior art keywords
- face
- image
- augmented reality
- space
- person
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B15/00—Identifying, scaring or incapacitating burglars, thieves or intruders, e.g. by explosives
Abstract
Description
ОБЛАСТЬ ТЕХНИКИFIELD OF TECHNOLOGY
[001] Данное техническое решение, в общем, относится к области вычислительной техники, а в частности к способам и системам для распознавания лиц с помощью очков дополненной реальности с интегрированной камерой или с использованием комплекса систем, обеспечивающих видеонаблюдение.[001] This technical solution, in General, relates to the field of computer technology, and in particular to methods and systems for facial recognition using augmented reality glasses with an integrated camera or using a complex of systems that provide video surveillance.
УРОВЕНЬ ТЕХНИКИBACKGROUND
[002] В настоящее время существует проблема идентификации преступников среди массового скопления людей, например, в общественных местах или на публичных мероприятиях. Сотрудники охраны не всегда способны без использования дополнительной техники идентифицировать преступника. Это может быть связано с различными факторами, например, визуально внешность человека с течением времени может сильно изменяться из-за отращивания/сбривания бороды, изменения прически или цвета глаз и т.д. Так же может присутствовать человеческий фактор - утомляемость, приводящая к рассеиванию внимания.[002] Currently, there is a problem of identifying criminals among a large crowd of people, for example, in public places or at public events. Security guards are not always able to identify the perpetrator without using additional equipment. This may be due to various factors, for example, visually a person’s appearance can change greatly over time due to the growth / shaving of a beard, changes in hair style or eye color, etc. There may also be a human factor - fatigue, which leads to dispersal of attention.
[003] Системы биометрической идентификации по лицу позволяют распознать лицо человека, несмотря на вышеперечисленные возможные изменения внешности. Существуют системы, включающие в себя очки дополненной реальности со встроенной камерой, интегрированные с системой идентификации по биометрии лица, но такая система позволяет решить проблему локально, только в месте нахождения сотрудника охраны. В помещениях с большой площадью, например, на стадионах, такое решение не является эффективным. Анализ предшествующего уровня техники позволяет сделать вывод о неэффективности и в некоторых случаях о невозможности применения предшествующих технологий, недостатки которых решаются настоящим изобретением.[003] Biometric facial identification systems make it possible to recognize a person’s face, despite the aforementioned possible changes in appearance. There are systems that include augmented reality glasses with a built-in camera, integrated with a face biometric identification system, but such a system allows you to solve the problem locally, only at the location of the security officer. In rooms with a large area, for example, in stadiums, such a solution is not effective. Analysis of the prior art allows us to conclude that inefficiency and, in some cases, the impossibility of using previous technologies, the disadvantages of which are solved by the present invention.
СУЩНОСТЬ ТЕХНИЧЕСКОГО РЕШЕНИЯESSENCE OF TECHNICAL SOLUTION
[004] Технической проблемой или задачей, поставленной в данном техническом решении, является создание надежного способа биометрического распознавания лиц с помощью средств дополненной реальности, а также системы для реализации способа. Дополнительной задачей является визуальное отображение классифицированных людей на дисплее очков дополненной реальности и построение маршрута до детектированного объекта с использованием технологий indoor-навигации.[004] A technical problem or task set in this technical solution is to create a reliable method for biometric facial recognition using augmented reality tools, as well as a system for implementing the method. An additional task is the visual display of classified people on the augmented reality glasses display and the construction of a route to the detected object using indoor navigation technologies.
[005] Техническим результатом, достигаемым при решении вышеуказанной технической задачи, является снижение времени поиска людей в местах массового скопления людей или больших многоэтажных зданий, в которых данные люди не должны находиться, и повышение точности идентификации лиц. После детектирования таких людей заявленная система позволяет построить маршрут до сегмента внутри помещения, в котором находится зафиксированное лицо, что сокращает время задержания.[005] The technical result achieved by solving the above technical problem is to reduce the time people search in crowded places or large multi-storey buildings in which these people should not be, and to increase the accuracy of face identification. After detecting such people, the claimed system allows you to build a route to the indoor segment in which the fixed person is located, which reduces the time of detention.
[006] Указанный технический результат достигается благодаря осуществлению способа распознавания лиц в видеопотоке, выполняемый по меньшей мере одним вычислительным устройством, содержащего этапы, на которых: получают видеопоток от по меньшей мере одного источника видеопотока с изображением области пространства;[006] The specified technical result is achieved through the implementation of a method for recognizing faces in a video stream, performed by at least one computing device, comprising the steps of: receiving a video stream from at least one source of the video stream with an image of a region of space;
- захватывают кадры видеопотока при обнаружении на них изображения по меньшей мере одного лица;- capture frames of the video stream upon detection of images of at least one face on them;
- определяют положение и размер изображения лица на каждом захваченном кадре;- determine the position and size of the face image on each captured frame;
- определяют показатели качества изображения лица на захваченных кадрах, на которых размер изображения лица выше заранее заданных пороговых значений;- determine the quality indicators of the image of the face on the captured frames, on which the size of the face image is higher than the predetermined threshold values;
- выбирают изображение лица с максимальным показателем качества изображения лица;- choose a face image with a maximum face image quality indicator;
- рассчитывают вектор, характеризующий признаки изображения лица, на основе выбранного изображения лица;- calculate a vector characterizing the features of the image of the face, based on the selected image of the face;
- сравнивают рассчитанный вектор с сохраненными векторами изображений в базе данных (БД);- comparing the calculated vector with the stored image vectors in the database (DB);
- на основе результатов сравнения рассчитанного вектора с сохраненными векторами присваивают лицу параметр доступа, определяющий разрешение на нахождение в области пространства;- based on the results of comparing the calculated vector with the stored vectors, an access parameter is defined for the person that determines the permission to be in the space region;
- выводят параметр доступа на устройство отображения изображения.- outputting the access parameter to the image display device.
[007] В одном из частных примеров осуществления способа устройство отображения изображения представляет собой устройство дополненной реальности, причем параметр доступа выводят в режиме дополненной реальности.[007] In one particular embodiment of the method, the image display device is an augmented reality device, the access parameter being output in augmented reality mode.
[008] В другом частном примере осуществления способа дополнительно задают область интереса для поступающих кадров видеопотока, при этом захватывают только те кадры видеопотока, на которых изображение лица попадает в заданную область интереса.[008] In another particular embodiment of the method, an area of interest is additionally set for incoming frames of the video stream, while only those frames of the video stream are captured in which the face image falls into the specified area of interest.
[009] В другом частном примере осуществления способа после захвата кадров видеопотока при обнаружении на них изображения по меньшей мере одного лица дополнительно выполняют этап, на котором:[009] In another particular embodiment of the method, after capturing frames of a video stream upon detection of images of at least one face, they additionally perform the step of:
- определяют наличие изображения человека в кадре, изображение лица которого было обнаружено, причем для определения наличия изображения человека в кадре определяют наличие в кадре: изображения плеч в соответствующей изображению лица области или изображения тела человека.- determine the presence of the image of a person in the frame, the image of the face of which was detected, and to determine the presence of the image of a person in the frame, determine the presence in the frame: image of the shoulders in the corresponding face image of the area or image of the human body.
[0010] В другом частном примере осуществления способа показатели качества изображения лица определяются на основе по меньшей мере одного параметра лица:[0010] In another particular embodiment of the method, facial image quality indicators are determined based on at least one face parameter:
- поворота головы (в градусах) по каждой из трех осей вращения наклон вверх/вниз относительно горизонтальной оси;- rotation of the head (in degrees) along each of the three axes of rotation, tilt up / down relative to the horizontal axis;
- наклона влево/вправо относительно вертикальной оси;- tilt left / right relative to the vertical axis;
- поворота относительно вертикальной оси.- rotation about a vertical axis.
[0011] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых:[0011] In another particular embodiment of the method, steps are further performed in which:
- определяют местоположение лица с назначенным параметром доступа, указывающим на то, что у лица нет разрешения находиться в области пространства;- determine the location of the person with the assigned access parameter, indicating that the person does not have permission to be in the area of space;
- определяют по меньшей мере одно устройство дополненной реальности, расположенное наиболее близко к упомянутой области пространства;- determine at least one augmented reality device located closest to the mentioned area of space;
- формируют маршрут из области пространства, в которой размещено данное устройство дополненной реальности, до области пространства, в которой находится упомянутое лицо;- form a route from the region of space in which this device of augmented reality is located, to the region of space in which the said person is located;
- отображают маршрут на устройстве дополненной реальности в режиме дополненной реальности.- display the route on the augmented reality device in augmented reality mode.
[0012] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых:[0012] In another particular embodiment of the method, steps are further performed in which:
- отслеживают перемещение устройства дополненной реальности в режиме реального времени;- track the movement of the augmented reality device in real time;
- корректируют маршрут в случае отклонения траектории движения устройства дополненной реальности от сформированного ранее маршрута.- adjust the route in case of deviation of the trajectory of the augmented reality device from the previously formed route.
[0013] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых:[0013] In another particular embodiment of the method, steps are further performed in which:
- при достижении устройства дополненной реальности области пространства, в которой находится упомянутое лицо, анализирует в реальном времени входящий видеопоток от камеры устройства дополненной реальности для определения наличия в кадрах видеопотока по меньшей мере одного лица;- upon reaching the augmented reality device, the area of the space in which the said person is located, analyzes in real time the incoming video stream from the camera of the augmented reality device to determine the presence of at least one face in the video stream frames;
- выводят в заданную область дисплея устройства дополненной реальности в режиме дополненной реальности информацию о том, что у лица, находящегося в поле зрения сотрудника в AR-очках, нет разрешения находиться в области пространства в соответствии с присвоенным параметром доступа.- display in the specified area of the display of the augmented reality device in augmented reality mode information that the person in the field of vision of the employee with AR glasses does not have permission to be in the space in accordance with the assigned access parameter.
[0014] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых:[0014] In another particular embodiment of the method, steps are further performed in which:
- определяют местоположение лица в области пространства и местоположение по меньшей мере одного устройства дополненной реальности;- determine the location of the person in the field of space and the location of at least one augmented reality device;
- преобразуют данные о местоположениях лица и устройства дополненной реальности в координаты в 3D модели пространства;- convert data on the locations of the face and augmented reality device into coordinates in a 3D model of space;
- определяют маршрут в 3D модели пространства от местоположения устройства дополненной реальности до упомянутого лица;- determine the route in the 3D model of space from the location of the augmented reality device to the mentioned person;
- формируют указатель траектории движения по маршруту в 3D модели пространства и выводят его на дисплей устройства дополненной реальности в режиме дополненной реальности для навигации сотрудника с устройством дополненной реальности до области, пространства, в котором находится упомянутое лицо, по маршруту, сформированному в 3D модели пространства.- form a pointer to the trajectory of movement along the route in the 3D model of space and display it on the display of the augmented reality device in augmented reality mode to navigate the employee with the augmented reality device to the area, space in which the mentioned person is located, along the route formed in the 3D space model.
[0015] В другом частном примере осуществления способа дополнительно выполняют этапы, на которых формируют в 3D модели пространства указатель лица в соответствии с его расположением в 3D модели пространства и выводят упомянутый указатель на дисплей устройства дополненной реальности в режиме дополненной реальности, когда лицо находится в области видимости сотрудника с устройством дополненной реальности, для указания на лицо в области пространства.[0015] In another particular embodiment of the method, steps are further performed in which a face indicator is formed in the 3D space model in accordance with its location in the 3D space model and the aforementioned pointer is displayed on the augmented reality device display in the augmented reality mode when the face is in the region employee visibility with augmented reality device, to indicate a person in the field of space.
[0016] В другом предпочтительном варианте осуществления заявленного решения представлена система распознавания лиц в видеопотоке, содержащая по меньшей мере одно вычислительное устройство и по меньшей мере одну память, содержащую машиночитаемые инструкции, которые при их исполнении по меньшей мере одним вычислительным устройством выполняют вышеуказанный способ.[0016] In another preferred embodiment of the claimed solution, there is provided a facial recognition system in a video stream comprising at least one computing device and at least one memory containing machine-readable instructions that, when executed by at least one computing device, perform the above method.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS
[0017] Признаки и преимущества настоящего изобретения станут очевидными из приводимого ниже подробного описания изобретения и прилагаемых чертежей, на которых:[0017] The features and advantages of the present invention will become apparent from the following detailed description of the invention and the accompanying drawings, in which:
[0018] На Фиг. 1 представлен пример реализации устройства распознавания лиц.[0018] In FIG. 1 shows an example implementation of a face recognition device.
[0019] На Фиг. 2 представлен пример реализации системы для распознавания лиц с помощью средства дополненной реальности.[0019] FIG. Figure 2 shows an example implementation of a system for recognizing faces using augmented reality.
[0020] На Фиг. 3 представлен пример области интереса на изображении.[0020] In FIG. 3 shows an example of a region of interest in an image.
[0021] На Фиг. 4 представлен пример общего вида вычислительного устройства распознавания лиц.[0021] In FIG. 4 is an example of a general view of a face recognition computing device.
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯDETAILED DESCRIPTION OF THE INVENTION
[0022] Ниже будут описаны понятия и термины, необходимые для понимания данного технического решения.[0022] The concepts and terms necessary for understanding this technical solution will be described below.
[0023] В данном техническом решении под системой подразумевается, в том числе компьютерная система, ЭВМ (электронно-вычислительная машина), ЧПУ (числовое программное управление), ПЛК (программируемый логический контроллер), компьютеризированные системы управления и любые другие устройства, способные выполнять заданную, четко определенную последовательность операций (действий, инструкций).[0023] In this technical solution, a system is meant, including a computer system, a computer (electronic computer), CNC (numerical program control), PLC (programmable logic controller), computerized control systems, and any other devices that can perform a given , a clearly defined sequence of operations (actions, instructions).
[0024] Под устройством обработки команд подразумевается электронный блок либо интегральная схема (микропроцессор), исполняющая машинные инструкции (программы).[0024] An instruction processing device is understood to mean an electronic unit or an integrated circuit (microprocessor) executing machine instructions (programs).
[0025] Устройство обработки команд считывает и выполняет машинные инструкции (программы) с одного или более устройств хранения данных. В роли устройства хранения данных могут выступать, но не ограничиваясь, жесткие диски (HDD), флеш-память, ПЗУ (постоянное запоминающее устройство), твердотельные накопители (SSD), оптические приводы.[0025] The command processing device reads and executes machine instructions (programs) from one or more data storage devices. Hard drives (HDD), flash memory, ROM (read-only memory), solid state drives (SSD), optical drives can act as storage devices.
[0026] Программа - последовательность инструкций, предназначенных для исполнения устройством управления вычислительной машины или устройством обработки команд.[0026] A program is a sequence of instructions for execution by a computer control device or an instruction processing device.
[0027] В соответствии со схемой, приведенной на Фиг. 1, система распознавания лиц с помощью средства дополненной реальности содержит источник видеопотока 1, устройство распознавания лиц 10 и устройство дополненной реальности 20.[0027] In accordance with the circuit of FIG. 1, a face recognition system using augmented reality means comprises a video stream source 1, a
[0028] Источником видеопотока 1 может являться внешняя камера видеонаблюдения (USB или IP) или интегрированная в устройство дополненной реальности камера. В качестве камер видеонаблюдения (иногда - видеокамер) могут применяться различные типы камер, в частности PTZ-камеры, IP-камеры, стационарные антивандальные камеры, камера кругового обзора и т.п., не ограничиваясь. Камера должна быть настроена на передачу видеопотока в устройство распознавания лиц 10, выполненное на базе по меньшей мере одного вычислительного устройства, например, сервера, который может находиться в облаке данных с развернутой платформой биометрической идентификации 11. Источник видеопотока 1, в частности камера видеонаблюдения или AR-очки, и устройство распознавания лиц 10 могут взаимодействовать для передачи данных по проводной и/или беспроводной связи с использованием протоколов передачи данных Socket и/или WebSocket, и/или WCF, и/или REST, и/или HTTP и WebSocket и пр.[0028] The source of the video stream 1 may be an external surveillance camera (USB or IP) or an integrated camera in an augmented reality device. Various types of cameras can be used as surveillance cameras (sometimes video cameras), in particular PTZ cameras, IP cameras, stationary anti-vandal cameras, all-round cameras, etc., without limitation. The camera must be configured to transmit the video stream to the
[0029] В общем виде (см. Фиг. 4) устройство (300) распознавания лиц содержит объединенные общей шиной информационного обмена один или несколько процессоров (301), средства памяти, такие как ОЗУ (302) и ПЗУ (303), интерфейсы ввода/вывода (304), устройства ввода/вывода (305), и устройство для сетевого взаимодействия (306).[0029] In a general view (see FIG. 4), the face recognition device (300) comprises one or more processors (301) combined by a common data bus, memory means such as RAM (302) and ROM (303), input interfaces I / O (304), input / output devices (305), and a device for network communication (306).
[0030] Процессор (301) (или несколько процессоров, многоядерный процессор и т.п.) может выбираться из ассортимента устройств, широко применяемых в настоящее время, например, таких производителей, как: Intel™, AMD™, Apple™, Samsung Exynos™, MediaTEK™, Qualcomm Snapdragon™ и т.п. Под процессором или одним из используемых процессоров в системе (300) также необходимо учитывать графический процессор, например, GPU NVIDIA или Graphcore, тип которых также является пригодным для полного или частичного выполнения способа (100), а также может применяться для обучения и применения моделей машинного обучения в различных информационных системах.[0030] A processor (301) (or multiple processors, a multi-core processor, and the like) can be selected from a variety of devices that are currently widely used, for example, manufacturers such as Intel ™, AMD ™, Apple ™, Samsung Exynos ™, MediaTEK ™, Qualcomm Snapdragon ™, etc. Under a processor or one of the processors used in the system (300), it is also necessary to take into account a graphic processor, for example, an NVIDIA or Graphcore GPU, the type of which is also suitable for the full or partial execution of method (100), and can also be used for training and application of machine models training in various information systems.
[0031] ОЗУ (302) представляет собой оперативную память и предназначено для хранения исполняемых процессором (301) машиночитаемых инструкций для выполнения необходимых операций по логической обработке данных. ОЗУ (302), как правило, содержит исполняемые инструкции операционной системы и соответствующих программных компонент (приложения, программные модули и т.п.). При этом в качестве ОЗУ (302) может выступать доступный объем памяти графической карты или графического процессора.[0031] RAM (302) is a random access memory and is intended to store machine-readable instructions executed by the processor (301) to perform the necessary operations for logical data processing. RAM (302), as a rule, contains executable instructions of the operating system and corresponding software components (applications, program modules, etc.). In this case, the available memory capacity of the graphics card or graphics processor may act as RAM (302).
[0032] ПЗУ (303) представляет собой одно или более устройств постоянного хранения данных, например, жесткий диск (HDD), твердотельный накопитель данных (SSD), флэш-память (EEPROM, NAND и т.п.), оптические носители информации (CD-R/RW, DVD-R/RW, BlueRay Disc, MD) и др.[0032] The ROM (303) is one or more permanent storage devices, for example, a hard disk drive (HDD), a solid state drive (SSD), flash memory (EEPROM, NAND, etc.), optical storage media ( CD-R / RW, DVD-R / RW, BlueRay Disc, MD), etc.
[0033] Для организации работы компонентов системы (300) и организации работы внешних подключаемых устройств применяются различные виды интерфейсов ввода/вывода (304). Выбор соответствующих интерфейсов зависит от конкретного исполнения вычислительного устройства, которые могут представлять собой, не ограничиваясь: PCI, AGP, PS/2, IrDa, FireWire, LPT, COM, SATA, IDE, Lightning, USB (2.0, 3.0, 3.1, micro, mini, type C), TRS/Audio jack (2.5, 3.5, 6.35), HDMI, DVI, VGA, Display Port, RJ45, RS232 и т.п.[0033] To organize the operation of system components (300) and organize the operation of external connected devices, various types of input / output interfaces (304) are used. The choice of appropriate interfaces depends on the particular computing device, which can be, but not limited to: PCI, AGP, PS / 2, IrDa, FireWire, LPT, COM, SATA, IDE, Lightning, USB (2.0, 3.0, 3.1, micro, mini, type C), TRS / Audio jack (2.5, 3.5, 6.35), HDMI, DVI, VGA, Display Port, RJ45, RS232, etc.
[0034] Для обеспечения взаимодействия пользователя с вычислительной системой (300) применяются различные средства (305) ввода/вывода информации, например, клавиатура, дисплей (монитор), сенсорный дисплей, тач-пад, джойстик, манипулятор мышь, световое перо, стилус, сенсорная панель, трекбол, динамики, микрофон, средства дополненной реальности, оптические сенсоры, планшет, световые индикаторы, проектор, камера, средства биометрической идентификации (сканер сетчатки глаза, сканер отпечатков пальцев, модуль распознавания голоса) и т.п.[0034] To ensure user interaction with the computing system (300), various means (305) for inputting / outputting information are used, for example, a keyboard, a display (monitor), a touch screen, a touch pad, a joystick, a mouse, a light pen, a stylus, touch panel, trackball, speakers, microphone, augmented reality, optical sensors, tablet, light indicators, projector, camera, biometric identification tools (retina scanner, fingerprint scanner, voice recognition module), etc.
[0035] Средство сетевого взаимодействия (306) обеспечивает передачу данных посредством внутренней или внешней вычислительной сети, например, Интранет, Интернет, ЛВС и т.п.В качестве одного или более средств (306) может использоваться, но не ограничиваться: Ethernet карта, GSM модем, GPRS модем, LTE модем, 5G модем, модуль спутниковой связи, NFC модуль, Bluetooth и/или BLE модуль, Wi-Fi модуль и др.[0035] The network interaction tool (306) provides data transmission via an internal or external computer network, for example, an Intranet, the Internet, a LAN, etc. As one or more means (306), but not limited to: an Ethernet card, GSM modem, GPRS modem, LTE modem, 5G modem, satellite communications module, NFC module, Bluetooth and / or BLE module, Wi-Fi module, etc.
[0036] Дополнительно могут применяться также средства спутниковой навигации в составе системы (300), например, GPS, ГЛОНАСС, BeiDou, Galileo.[0036] Additionally, satellite navigation aids as part of system (300), for example, GPS, GLONASS, BeiDou, Galileo, can also be used.
[0037] Конкретный выбор элементов устройства (300) для реализации различных программно-аппаратных решений может варьироваться с сохранением обеспечиваемого требуемого функционала.[0037] The specific selection of device elements (300) for implementing various hardware and software solutions may vary while maintaining the required functionality.
[0038] Устройство распознавания лиц 10, в частном варианте его реализации, также включает платформу биометрической идентификации 11, базу данных (БД) дескрипторов идентифицируемых лиц 12, модуль 13 построения маршрута и модуль 14 формирования уведомлений. Платформа биометрической идентификации 11 определяет положение и размер всех лиц, присутствующих на входном видеопотоке. Каждому зафиксированному лицу присваивается показатель качества изображения, на основе которого автоматически выбирают лучшие изображения для дальнейшей обработки. Показатель соответствия для любой пары изображений лиц определяется евклидовым расстоянием соответствующих дескрипторов лиц. Низкие значения евклидова расстояния указывают на высокую схожесть двух изображений одного и того же человека. В этом случае приложению, установленному на AR-очках, отправляется ответ в формате JSON с информацией о распознанном человеке в следующем виде:[0038] The
{"name": "Иванов О.В.", "color": "red", "article": 191.5, "info": "Особо опасен"}{"name": "Ivanov OV," color ":" red "," article ": 191.5," info ":" Particularly dangerous "}
[0039] Под показателем соответствия понимается сравнение «один ко многим», т.е. изображение с камеры сравнивается со множеством изображений в БД 12. Каждое выравненное изображение лица далее обрабатывается для получения дескриптора лица при помощи глубинных нейронных сетей (Deep Neural Networks или DNN). Дескрипторы лиц - это числовые векторы, суммирующие характерные признаки лица. Ключевым свойством дескрипторов является их близкое сходство для изображений одного и того же человека, и сильное различие для изображений разных людей. Таким образом, дескрипторы лиц зависят только от индивидуальных особенностей конкретного человека, изменения изображений из-за смены точек съемки, освещения, прически и возраста игнорируются. Каждый дескриптор имеет множество точек, которое может быть облаком точек. Измеряется расстояние между соответствующими точками в разных дескрипторах, затем суммируются для получения числового вектора -дескриптора лица.[0039] A compliance indicator refers to a one-to-many comparison, i.e. the image from the camera is compared with many images in the
[0040] Модуль 13 построения маршрута и модуль 14 формирования уведомлений могут быть реализованы на базе по меньшей мере одного устройства обработки команд, такого как процессор или микроконтроллер, выполненные в программно-аппаратной части таким образом, чтобы выполнять приписанные данным модулям ниже функций. Также модуль 13 построения маршрута может быть реализован на базе программно-аппаратных вычислительных средств устройства дополненной реальности 20 и размещаться непосредственно в архитектуре устройства дополненной реальности 20.[0040] The
[0041] Web-интерфейс устройства распознавания лиц 10 позволяет редактировать описание и добавлять новые лица в базу данных 12, а также метки черного списка (стоп-листа), указывающие на то, что данный человек находится в «черном списке». Взаимодействие клиента с серверной частью устройства распознавания лиц 10 осуществляется по протоколу HTTP или HTTPS.[0041] The web interface of the
[0042] Устройство дополненной реальности 20 является средством вывода информации, в качестве которого может использоваться любое известное устройство, выполненное с возможностью отображения информации о физический и цифровых объектах в реальном времени, в том числе: очки дополненной реальности (или AR-очки) (например, Hololens или Magic Leap), гарнитура mixed reality (MR) или вычислительное устройство (смартфон/планшет/фаблет/ноутбук и пр.) с соответствующим ПО, позволяющим накладывать изображения цифровых объектов на изображения реального мира или виртуальной модели реального мира. В окне запущенного приложения отображается исходная фотография лица, находящаяся в БД, фотография лица с захваченного кадра и информация об идентифицированном человеке. Так же может отображаться маршрут до зоны, в которой было зафиксировано распознанное лицо.[0042] The augmented
[0043] По результатам исследования были сформулированы возможные векторы развития прототипа, позволяющие устранить выявленные недостатки и ограничения, усовершенствовать прототип, сделав его более функциональным и удобным в использовании.[0043] Based on the results of the study, potential vectors for the development of the prototype were formulated to eliminate the identified shortcomings and limitations, to improve the prototype, making it more functional and convenient to use.
[0044] Первый вектор предполагает преодоление основного ограничения -расстояния до объекта распознавания и низкое быстродействие вычислительных устройств без пересмотра архитектуры решения. Для увеличения расстояния до объекта распознавания можно использовать длиннофокусные камеры с высоким разрешением. В случае использования камер с длиннофокусными объективами (телеобъективами) архитектура системы следующая. Камера с телеобъективом передает изображение на вычислительное устройство (компьютер, сервер и т.п.).[0044] The first vector involves overcoming the main limitation of the distance to the recognition object and the low speed of computing devices without revising the architecture of the solution. To increase the distance to the recognition object, you can use long-focus cameras with high resolution. In the case of using cameras with telephoto lenses, the system architecture is as follows. A camera with a telephoto lens transmits the image to a computing device (computer, server, etc.).
[0045] На вычислительном устройстве установлено приложение, позволяющее находить лица в захваченных кадрах и перенаправлять данные в реальном времени на устройство с биометрической платформой идентификации по лицу. AR-очки дополненной реальности с запущенным приложением отображают информацию о распознанных лицах и прокладывают маршрут до распознанного человека.[0045] An application is installed on the computing device to locate faces in captured frames and redirect real-time data to a device with a biometric face recognition platform. AR glasses of augmented reality with the running application display information about recognized faces and plot a route to the recognized person.
[0046] Для решения проблемы с производительностью необходима оптимизация ОС устройств. Так же возможно увеличение производительности за счет добавления/замены аппаратных составляющих очков.[0046] To solve the performance problem, device OS optimization is required. It is also possible to increase productivity by adding / replacing the hardware components of the glasses.
[0047] В данном техническом решении возможна реализация нескольких вариантов для повышения производительности за счет аппаратной части:[0047] In this technical solution, it is possible to implement several options for increasing productivity due to hardware:
- использование интегральной схемы специального назначения (например, интегральная схема специального назначения ASIC), которая предназначена для решения конкретной задачи.- the use of a special purpose integrated circuit (for example, an ASIC special purpose integrated circuit), which is designed to solve a specific problem.
- увеличение вычислительной мощности устройства дополненной реальности за счет увеличения количества RAM (возможно использование более быстрой), использования более производительных CPU или GPU. Второй вектор позволяет помимо основной проблемы также оптимизировать UX и упростить задачи сотрудников силовых органов при работе в местах массового скопления людей. Выявление злоумышленников в массовых скоплениях людей доставляет большие трудности, даже если нарушитель был замечен, отследить его перемещение среди массы людей является сложной задачей.- Increasing the computing power of the augmented reality device by increasing the number of RAM (it is possible to use faster), using more productive CPUs or GPUs. The second vector allows, in addition to the main problem, also to optimize the UX and simplify the tasks of law enforcement officers when working in crowded places. The identification of intruders in mass crowds is very difficult, even if the intruder was noticed, tracking its movement among the mass of people is a difficult task.
[0048] Эту проблему позволяет решить построение интегрированной AR+CCTV системы, включающей:[0048] This problem can be solved by building an integrated AR + CCTV system, including:
идентификацию лиц в местах скопления людей длиннофокусными камерами CCTV и системой видеоаналитики; face identification in crowded places with long-focus CCTV cameras and video analytics system;
оповещение сотрудников в очках AR о выявлении нарушителя и указание направления к нему (навигация по GPS и/или маякам); notification of employees in AR glasses about the identification of the intruder and an indication of the direction to him (navigation on GPS and / or beacons);
быструю идентификацию личности с использованием устройства дополненной реальности. quick identification using an augmented reality device.
[0049] Closed Circuit Television (CCTV) расшифровывается как «система телевидения замкнутого контура» и под этим термином подразумевается комплекс устройств, обеспечивающих видеонаблюдение. CCTV система, может состоять из множества камер, направленных в различные области пространства контролируемой зоны, при этом передавая изображения на сервер с установленным приложением face stream, где происходит поиск лиц в захваченных кадрах и передача их на сервер распознавания.[0049] Closed Circuit Television (CCTV) stands for “Closed Circuit Television System,” and this term refers to a set of devices that provide video surveillance. A CCTV system can consist of many cameras directed to different areas of the controlled area space, while transmitting images to a server with the face stream application installed, where people are searched for in captured frames and transferred to a recognition server.
[0050] Каждой области, покрываемой камерами CCTV, ставятся в однозначное соответствие географические координаты этой зоны для последующего построения маршрута.[0050] Each area covered by CCTV cameras is uniquely associated with the geographical coordinates of this area for the subsequent construction of the route.
[0051] На открытых площадках может использоваться GPS-навигация. Для создания системы навигации на очках дополненной реальности, работающих на базе ОС Android может использоваться GooglePlayserviceslocationAPIs, который позволяет получить доступ к встроенной в вычислительный модуль очков GPS системе. Затем проложить маршрут от места нахождения пользователя очков до зоны, в которой находится идентифицированный объект.[0051] In open areas, GPS navigation may be used. To create a navigation system on augmented reality glasses running on the Android OS, GooglePlayserviceslocationAPIs can be used, which allows you to access the GPS system built into the computing module of the glasses. Then lay a route from the user's location to the area in which the identified object is located.
[0052] Для построения маршрута внутри помещения могут использоваться системы indoor-навигации, например, способ навигации по Bluetooth-маячкам. Этот способ заключается в размещении на периметре помещения специальных датчиков, которые и обеспечивают получение данных о месторасположении пользователя очков относительно зоны, в которой зафиксирован объект. Местоположение вычисляется путем сравнения измеряемых в реальном времени мощностей сигнала от окружающих Bluetooth точек с заранее измеренными значениями, привязанными к карте помещения. Более плотное размещение датчиков, позволяет повысить точность локализации пользователя очков и место нахождения объекта. Пример реализации навигации, базирующейся на этой технологии - система iBeacon от компании Apple.[0052] Indoor navigation systems, for example, a method for navigating Bluetooth beacons, can be used to construct the route indoors. This method consists in placing special sensors on the perimeter of the room, which provide data on the user's location of the glasses relative to the zone in which the object is fixed. The location is calculated by comparing the measured in real time signal powers from the surrounding Bluetooth points with pre-measured values tied to a room map. More dense placement of sensors allows to increase the accuracy of the user's localization of glasses and the location of the object. An example of implementing navigation based on this technology is Apple's iBeacon system.
[0053] Также для построения маршрута внутри помещения может использоваться indoor-навигации по QR-кодам. При таком способе навигации строится 3D модель помещения, в которой закрепляется QR-код в определенном месте этой модели и в помещении. Для того, чтобы пользователю очков локализоваться в 3D модели помещения, ему нужно отсканировать QR-код камерой очков в помещении.[0053] Also, indoor navigation by QR codes can be used to construct the indoor route. With this method of navigation, a 3D model of the room is built, in which a QR code is fixed in a certain place of this model and in the room. In order for the glasses user to be localized in the 3D model of the room, he needs to scan the QR code with the glasses camera in the room.
[0054] Далее будет описана работа устройства распознавания лиц 10 со ссылкой на Фиг. 2 на примере AR-очков в качестве устройства дополненной реальности.[0054] Next, the operation of the
[0055] В соответствии с заложенным программно-аппаратным алгоритмом по меньшей мере одна камера 100, которая является источником видеопотока 1 и входит в состав CCTV, осуществляет съемку заданной ей области пространства 110. Камера 100 может быть расположения в любом удобном для обзора области пространства 110, например, установлена на потолке, стене и пр.[0055] In accordance with the embedded software and hardware algorithm, at least one
[0056] Изображение области пространства с камеры 100 в виде видеопотока поступает в устройство распознавания лиц 10, которое анализирует в реальном времени входящий видеопоток для определения наличия в кадрах видеопотока изображения по меньшей мере одного лица 101. Вместе с изображение от камеры 100 в устройство 10 также может поступать идентификатор камеры 100. Дополнительно в устройство распознавания лиц 10 также может поступать видеопоток от камеры AR-очков 20 и их идентификатор, например, МАС-адрес.[0056] The image of the space region from the
[0057] При обнаружении на поступающих кадрах видеопотока изображения по меньшей мере одного лица 101 устройство распознавания лиц 10 захватывает данные кадры видеопотока и направляет их в виде последовательности n кадров в платформу биометрической идентификации 11 для идентификации лица 101.[0057] When at least one
[0058] В устройстве распознавания лиц 10 может быть задана область интереса на поступающих кадрах видеопотока. Область интереса задается в пикселях как массив вида [х, у, ширина, высота], где (х, у) - координаты верхней левой точки области интереса. Система координат на изображении задается аналогично рисунку на Фиг. 3. При значениях ширины и высоты, равных '0', областью интереса считается весь кадр. Соответственно, в такой реализации заявленного решения устройство распознавания лиц 10 будет осуществлять захват только тех кадров видеопотока, на которых изображение лица 101 попадает в заданную область интереса. Например, в качестве области интереса может быть выбрана область размещения турникетов. Таким образом, захват будет осуществляться только тех изображений лиц, которые находятся в области размещения турникетов.[0058] In the
[0059] Также дополнительно устройство распознавания лиц 10 может быть выполнено с возможностью определения наличия изображения человека в кадре, изображение лица 101 которого было обнаружено. Для определения наличия изображения человека в кадре устройство 10 после обнаружения изображения лица определяет наличие в кадре изображения плеч в соответствующей изображению лица области или изображения тела человека. После того, как устройство 10 определило наличие человека в кадре, изображение лица 101 которого было определено, осуществляется захват кадров видеопотока для их передачи в виде последовательности n кадров в платформу биометрической идентификации 11 для идентификации человека в кадре.[0059] Also, in addition, the
[0060] Платформа биометрической идентификации 11 определяет положение и размер изображения лица 101 на каждом входном захваченном кадре в последовательности n кадров, на котором данное изображение лица 101 распознано. Если на захваченных n кадрах определены дополнительные изображения лиц, то платформа 11 также может определять размеры и положение всех изображений лиц описанным ниже образом. На основе данных о положении лиц платформа 11 отслеживает изображение лица 101 на захваченных n кадрах.[0060] The
[0061] Размеры изображений лиц 101 на захваченных n кадрах платформа биометрической идентификации 11 сравнивает с заранее заданными пользователем пороговыми значениями размеров изображений лиц и если размеры изображения лица 101 на захваченном кадре больше заранее заданного порогового значения, то упомянутая платформа 11 переходит к этапу определения параметров лица на основе изображения лица на захваченном кадре, в частности, параметров: поворота головы (в градусах) по каждой из трех осей вращения наклон вверх/вниз относительно горизонтальной оси; наклона влево/вправо относительно вертикальной оси; поворота относительно вертикальной оси. Для изображений лиц, размер которых меньше заранее заданного порогового значения, упомянутые параметры не определяются.[0061] The sizes of the
[0062] Определенные платформой 11 параметры изображения лица 101 на захваченном кадре сравниваются с заранее заданными пороговыми значениями параметров лиц и на основе величины отклонения определенных на предыдущем шаге параметров изображения лица от заданных пороговыми значений параметров платформа 11 присваивает изображению лица 101 показатель качества изображения лица, причем чем ниже величина отклонения, тем выше показатель качества изображения лица. Для повышения точности идентификации лица 101 для дальнейшего анализа платформа 11 выбирает то изображение лица 101, у которого показатель качества является максимальным.[0062] The face image parameters determined by
[0063] Соответственно, если в видеопотоке обнаружены дополнительные изображения лиц, помимо изображения лица 101, попадающие в область интереса, то они могут быть также обработаны описанным выше способом для определения дополнительных изображений лиц, у которых показатель качества будет являться максимальным.[0063] Accordingly, if additional face images are found in the video stream, besides the
[0064] Далее на основе изображения лица 101, у которого показатель качества является максимальным, платформа биометрической идентификации 11 известными из уровня техники методами осуществляет построение облака точек лица и рассчитывает вектор, характеризующий признаки изображения лица 101 (далее вектор лица 101). Полученный вектор платформа 11 сравнивает с заранее сохраненными векторами изображений в БД 12. Каждому заранее сохраненному вектору изображения в БД 12 назначена соответствующая идентификационная информация личности человека, на основе изображения лица, которого данный вектор изображения был рассчитан. Идентификационной информацией может быть, например, данные паспорта, фотография лица и т.д. Также БД 12 может содержать информацию, например, метку черного списка (стоп-листа), указывающую на то, что данный человек находится в «черном списке» (стоп-листе), например, в связи с тем, что он является злоумышленником или нарушителем.[0064] Further, based on the image of the
[0065] Если вектор, характеризующий признаки изображения лица 101, совпал с вектором изображения, сохранным в БД 12, то платформа биометрической идентификации 11 определяет изображение лица 101 как распознанное/идентифицированное. Далее платформа 11 обращается к БД 12 для извлечения идентификационной информации личности человека 101 в соответствии с вектором изображения из БД 12, с которым вектор лица 101 совпал, и проверки наличия метки черного списка для определения параметров доступа человека 101 в область пространства 110, снимаемой камерой, в соответствии с заранее заданным классификатором.[0065] If the vector characterizing the features of the image of the
[0066] Если метка черного списка содержится в БД 12, то платформа 11 назначает лицу 101 параметр доступа, указывающий на то, что у лица 101 нет разрешения находиться в области пространства 110, в частности, классификатор «черного списка». Если метка черного списка в БД 12 отсутствует, то платформа 11 назначает лицу 101 параметр доступа, указывающий на то, что у лица 101 есть разрешение находиться в области пространства 110, в частности, классификатор белого списка. Таким образом, устройство распознавания лиц 10 присваивает лицу 101 параметры доступа, определяющие разрешение на нахождение в области пространства 110, на основе полученного с камеры 100 изображения лица 101.[0066] If the blacklist label is contained in the
[0067] Результаты сравнения векторов, в частности идентификационная информация и параметры доступа могут быть выведены устройством 10 на средства вывода изображений, например, на дисплей пользователя устройство распознавания лиц 10 вместе с указателем на изображение лица 101 на выводимых в реальном времени кадрах видеопотока, например, в формате JSON с информацией о распознанном человеке.[0067] The results of the comparison of vectors, in particular identification information and access parameters, can be output by the
[0068] Если вектор, характеризующий признаки изображения лица 101, не совпал ни с одним вектором изображения, сохранным в БД 12, то платформа биометрической идентификации 11 определяет изображение лица 101 как нераспознанное/неидентифицированное и назначает лицу 101 параметр доступа, указывающий на то, что у лица 101 нет разрешения находиться в области пространства 110. Результаты сравнения векторов, в частности информация о том, что изображение лица 101 не распознано, и параметр доступа также могут быть выведены на устройство отображения изображения, например, дисплей пользователя устройства распознавания лиц 10 или устройства дополненной реальности, в частности, на стекла AR-очков 20, в формате JSON с информацией о распознанном человеке.[0068] If the vector characterizing the features of the image of the
[0069] Таким образом, поскольку для формирования вектора, характеризующего признаки изображения лица 101, используют только лишь изображение лица 101, у которого показатель качества является максимальным, а не весь кадр видеопотока, повышается скорость обработки изображения лица 101, снижается время и повышается точность идентификации лиц и их классификации для определения параметров доступа.[0069] Thus, since for the formation of a vector characterizing the features of the image of the
[0070] Далее устройство распознавания лиц 10 переходит к этапам определения местоположения лица 101 с назначенным параметром доступа, указывающим на то, что у лица 101 нет разрешения находиться в области пространства 110 (т.е. изображение лица которого не было распознано или было определено, что лицо на распознанном изображении находится в «черном списке»), и построению до данного лица 101 маршрута. Для построения маршрута устройство распознавания лиц 10 может быть дополнительно оснащена модулем 13 построения маршрута до лица 101, который идентифицирует камеру 100, посредством которой было получено изображение лица 101, и извлекает географические координаты области пространства 110, находящейся в зоне съемки камеры 100. Географические координаты области пространства 110 могут быть извлечены модулем 13 из БД 12 на основе идентификатора камеры, либо запрошены известными из уровня техники методами у соответствующей камеры 100, от которой поступил кадр с изображением лица 101.[0070] Next, the
[0071] Также для построения маршрута устройство распознавания лиц 10 может быть выполнено с возможностью определения местоположения лица 101, изображение лица которого было распознано. Например, команда на построение такого маршрута может быть направлена от пользователя на устройство 10, который посредством устройства ввода/вывода информации выбирает лицо, которое было распознано на изображении для построения до него маршрута.[0071] Also for constructing a route, the
[0072] Далее модуль 13 построения маршрута определяет, находится ли по меньшей мере один сотрудник в AR-очках 20 в области пространства 110 на основе информации о местоположении AR-очков 20, полученной с помощью датчика системы навигации, например, GPS приемо-передатчика, или Bluetooth-маячка, встроенного в очки AR-очки 20. Считывание Bluetooth-маячка может осуществляться посредством устройства считывания Bluetooth-маячков 111, установленного в области пространства 110 или в области пространства, в которой находится сотрудник в AR-очках 20.[0072] Further, the
[0073] Определять местоположение AR-очков 20 модуль 13 построения маршрута может также посредством считывания с помощью камеры AR-очков 20 размещенных в различных областях пространства QR-коды. Информация QR-кода поступает в модуль 13 построения маршрута, который на основе поступившей информации определяет местоположении AR-очков 20.[0073] To determine the location of the
[0074] Если по меньшей мере одни AR-очки 20 находятся в области пространства 110, то модуль 13 построения маршрута направляет команду на модуль 14 формирования уведомлений, в соответствии с которой модуль 14 формирует уведомление для AR-очков 20, находящихся в области пространства 110, содержащее информацию о том, что в данной области расположения AR-очков 20 находится лицо с назначенным параметром доступа, указывающим на то, что у лица нет разрешения находиться в области пространства 110 в связи с тем, что оно нераспознанно или находится в «черном списке». Дополнительно упомянутое уведомление может включать указание на сканирование с помощью камеры AR-очков 20 области пространства 110 для захвата изображения упомянутого лица 101. Сформированное уведомление, например, в формате JSON с информацией о распознанном человеке, направляется модулем 14 на AR-очки 20 для вывода уведомления на стекла AR-очков в режиме дополненной реальности известными из уровня техники методами.[0074] If at least one
[0075] Если модуль 13 построения маршрута определил, что в области пространства 110 нет сотрудника в AR-очках 20, то модуль 13 по поступающим на него данным о местоположении от всех AR-очков определяет по меньшей мере одни AR-очки, расположенные наиболее близко к области пространства 110. На основе данных о местоположении AR-очков модуль 13 формирует маршрут из области пространства, в которой размещены данные AR-очки, до области пространства 110, в которой находится нераспознанное или находящееся в черном списке лицо 101, и передает его в модуль 14 формирования уведомлений, который формирует уведомление о том, что в области пространства 110 находится лицо 101. Сформированные уведомление и маршрут также направляются модулем 14 на AR-очки для их отображения на стеклах AR[0075] If the
- очков (т.е. дисплей устройства дополненной реальности) в режиме дополненной реальности известными из уровня техники методами.- glasses (i.e. augmented reality device display) in augmented reality mode using methods known from the prior art.
[0076] Размещение модуля 13 формирования маршрута и модуля 14 формирования уведомлений в устройстве распознавания лиц 10 позволяет снизить вычислительную нагрузку на вычислительные средства AR-очков 20. Однако в альтернативном варианте реализации заявленного решения для снижения вычислительной нагрузки на устройство распознавания лиц 10 модуль 13 формирования маршрута и модуль 14 формирования уведомлений могут быть размещены в архитектуре AR-очков 20. Соответственно, устройство распознавания лиц 10: идентифицирует камеру 100, посредством которой было получено изображение лица 101; извлекает географические координаты области пространства 110 на основе идентификатора камеры 100; определяет по меньшей мере одни AR-очки, расположенные наиболее близко к области пространства 110; и направляет упомянутые координаты в модуль 13 формирования маршрута, размещенный в архитектуре AR-очков 20. Также поскольку по каналу связи между модулем 13 и устройством 10 передаются только лишь координаты, а не маршрут целиком, то увеличивается пропуская способность канала связи между AR-очками 20 и устройство распознавания лиц 10.[0076] Placing the
[0077] При получении географических координат области пространства 110 модуль 13 формирования маршрута определяет местоположение AR-очков 20 с помощью датчика системы навигации, Bluetooth-маячка или с помощью считанных посредством AR-очков QR-кода и направляет команды на модуль 14 формирования уведомлений для вывода на стекла AR-очков, находящихся в области пространства 110, уведомления, содержащего информацию о том, что в данной области расположения AR-очков 20 находится нераспознанное или находящееся в «черном списке» лицо 101, либо вывода на стекла AR-очков (т.е. дисплей устройства дополненной реальности) уведомления о том, что в области пространства 110 находится лицо 101, если AR-очки 20 не располагаются в области пространства 110, и информацию о маршруте из области пространства, в которой размещены данные AR-очки, до области пространства 110, в которой находится нераспознанное или находящееся в черном списке лицо 101.[0077] Upon receiving the geographical coordinates of the area of
[0078] В процессе перемещения сотрудника в AR-очках по маршруту следования до области пространства 110 модуль 13 построения маршрута может быть выполнен с возможностью отслеживать траекторию движения устройства дополненной реальности, в частности перемещение AR-очков, в режиме реального времени по поступающей от них информации о местоположении и корректировать маршрут в случае отклонения траектории движения устройства дополненной реальности от сформированного ранее маршрута.[0078] During the movement of the employee in the AR glasses along the route to the area of
[0079] При достижении данного сотрудника конечной точки маршрута - области пространства 110 модуль 14 направляет на AR-очки уведомление, содержащее информацию о том, что в данной области расположения AR-очков находится нераспознанное или находящееся в черном списке лицо 101, а также, при необходимости, указание на сканирование с помощью камеры AR-очков области пространства 110.[0079] When this employee reaches the end point of the route —
[0080] После того, как модуль 13 построения маршрута направил уведомление на AR-очки 20, указывающее на то, что в данной области расположения AR-очков 20 находится лицо 101, устройство распознавания лиц 10 анализирует в реальном времени входящий видеопоток от камеры AR-очков 20 для определения наличия в кадрах видеопотока по меньшей мере одного лица 101 описанным ранее способом.[0080] After the
[0081] При обнаружении на кадрах видеопотока от камеры AR-очков 20 изображения по меньшей мере одного лица система распознавания лиц 10 захватывает данные кадры видеопотока и направляет их в виде последовательности n кадров в платформу биометрической идентификации 11. Платформа биометрической идентификации 11 обрабатывает поступившие кадры описанным ранее способом для расчета вектора, характеризующего признаки изображения лица 101.[0081] When at least one face is detected on the frames of the video stream from the camera of the
[0082] При обнаружении на кадрах видеопотока от камеры AR-очков 20 изображения по меньшей мере одного лица система распознавания лиц 10 захватывает данные кадры видеопотока и направляет их в виде последовательности n кадров в платформу биометрической идентификации 11. Платформа биометрической идентификации 11 обрабатывает поступившие кадры описанным ранее способом для расчета вектора, характеризующего признаки изображения лица 101. Полученный на предыдущем этапе вектор платформа 11 сравнивает с ранее полученным вектором, характеризующим признаки изображения лица 101. При совпадении векторов платформа биометрической идентификации 11 направляет соответствующую команду в модуль 14 формирования уведомлений для формирования и вывода на стекла AR-очков 20 уведомления о том, что лицо 101 является нераспознанным или находящимся в черном списке лицом. Уведомление выводится известными из уровня техники методами в заданную область стекол AR-очков 20 (т.е. дисплея устройства дополненной реальности) в режиме дополненной реальности вместе с информацией о том, что лицо, находящееся в поле зрения сотрудника в AR-очках 20, является нераспознанным лицом 101 или лицом, находящимся в «черном списке».[0082] When at least one face is detected on the frames of the video stream from the camera of the
[0083] Дополнительно устройство распознавания лиц 10 может быть выполнено с возможностью определения местоположения лица 101 в области пространства 110. Соответственно, после того, как устройство распознавания лиц 10 определило наличие в области пространства 110 лица 101, у которого нет разрешения находиться в области пространства 110, устройство 10 посредством платформы биометрической идентификации 11 определяет известными из уровня техники методами местоположение лица 101 в области пространства 110, например, посредством определения расположения изображения лица 101 относительно по меньшей мере одного объекта на изображении, местоположение которого в области пространства 110 заранее известны и заданы в устройстве распознавания лиц 10. Полученные данные местоположения лица 101 в области пространства 110 преобразуются в координаты лица 101 в 3D модели пространства, модель которого заранее создана и сохранена в БД 12.[0083] Further, the
[0084] Также определение местоположения лица 101 в области пространства 110 может осуществляться следующим образом. После того, как устройство распознавания лиц 10 определило наличие в области пространства 110 лица 101, у которого нет разрешения находиться в области пространства 110, модуль 13 построения маршрута на основе идентификатора камеры извлекает из БД 12 информацию о местоположении камеры и покрываемой ей области пространства 110. На основе информации о местоположении камеры модуль 13 определяет координаты камеры в 3D-модели пространства и проецирует покрываемую камеру область пространства в точку на 3D-модели. Координаты полученной точки на 3D-модели определяются модулем 13 как координаты лица 101 в 3D модели пространства.[0084] Also, the location of the
[0085] Полученные координаты лица 101 в 3D модели пространства передаются в модуль 13 построения маршрута, который также преобразует данные о местоположении AR-очков 20 в координаты очков в 3D модели пространства для локализации AR-очков 20 в 3D модели пространства. Далее модуль 13 построения маршрута на основе полученных координат лица 101 и координат очков в 3D модели пространства определяет маршрут в 3D модели пространства от местоположения AR-очков 20 до лица 101 и формирует указатель траектории движения по маршруту в 3D модели пространства. Сформированный указатель траектории движения по маршруту в 3D модели пространства направляется в модуль 14 формирования уведомлений и выводится на стекла AR-очков 20 (т.е. дисплея устройства дополненной реальности) в режиме дополненной реальности в соответствии с местоположением AR-очков 20 для навигации сотрудника в AR-очках 20 до области пространства 110 по маршруту, сформированному в 3D модели пространства.[0085] The obtained coordinates of the
[0086] Также модуль 14 формирования уведомлений может быть выполнен с возможностью формирования в 3D модели пространства 2D или 3D указателя лица 101 в соответствии с его расположением в 3D модели пространства. Указатель лица 101 размещается согласно определенным ранее координатам лица 101 в 3D модели пространства и выводится модулем 14 на стекла AR-очков 20 в режиме дополненной реальности, когда лицо 101 находится в области видимости сотрудника в AR-очках 20, для указания на лицо 101 в области пространства 110.[0086] Also, the
[0087] Таким образом, за счет того, что заявленная система выполнена с возможность формирования маршрута до места фиксации камерами лица 101, у которого нет разрешения находиться в области пространства 110, обеспечивается оперативное детектирование и идентификацию человека, и повышается скорость задержания нарушителей. Также представленная система обладает простой конструкцией, вследствие которой повышается надежность работы системы.[0087] Thus, due to the fact that the claimed system is made with the possibility of forming a route to the place of fixing by the cameras of the
[0088] Модификации и улучшения вышеописанных вариантов осуществления настоящего технического решения будут ясны специалистам в данной области техники. Предшествующее описание представлено только в качестве примера и не несет никаких ограничений. Таким образом, объем настоящего технического решения ограничен только объемом прилагаемой формулы изобретения.[0088] Modifications and improvements to the above described embodiments of the present technical solution will be apparent to those skilled in the art. The preceding description is provided as an example only and is not subject to any restrictions. Thus, the scope of the present technical solution is limited only by the scope of the attached claims.
Claims (37)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019105772A RU2712417C1 (en) | 2019-02-28 | 2019-02-28 | Method and system for recognizing faces and constructing a route using augmented reality tool |
PCT/RU2019/000136 WO2020176008A1 (en) | 2019-02-28 | 2019-02-28 | Method and system for facial recognition and route mapping |
EA201990537A EA038335B1 (en) | 2019-02-28 | 2019-03-19 | Method and system of face recognition and building of routes using augmented reality tool |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2019105772A RU2712417C1 (en) | 2019-02-28 | 2019-02-28 | Method and system for recognizing faces and constructing a route using augmented reality tool |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2712417C1 true RU2712417C1 (en) | 2020-01-28 |
Family
ID=69625108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2019105772A RU2712417C1 (en) | 2019-02-28 | 2019-02-28 | Method and system for recognizing faces and constructing a route using augmented reality tool |
Country Status (3)
Country | Link |
---|---|
EA (1) | EA038335B1 (en) |
RU (1) | RU2712417C1 (en) |
WO (1) | WO2020176008A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2796646C1 (en) * | 2022-07-26 | 2023-05-29 | Общество с ограниченной ответственностью "Видеофор" (ООО "Видеофор") | Integrated safety in water bodies |
WO2024025442A3 (en) * | 2022-07-26 | 2024-03-21 | Общество с ограниченной ответственностью "Видеофор" (ООО "Видеофор") | Integrated security system for bodies of water |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030215114A1 (en) * | 2002-05-15 | 2003-11-20 | Biocom, Llc | Identity verification system |
US20050063566A1 (en) * | 2001-10-17 | 2005-03-24 | Beek Gary A . Van | Face imaging system for recordal and automated identity confirmation |
RU2431191C2 (en) * | 2009-01-27 | 2011-10-10 | Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) | Method for personal identification through digital facial image |
CN102360421B (en) * | 2011-10-19 | 2014-05-28 | 苏州大学 | Face identification method and system based on video streaming |
US20150023602A1 (en) * | 2013-07-19 | 2015-01-22 | Kamil Wnuk | Fast recognition algorithm processing, systems and methods |
RU2621633C2 (en) * | 2011-10-28 | 2017-06-06 | Мэджик Лип, Инк. | System and method for augmented and virtual reality |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6494143B1 (en) * | 2001-06-28 | 2002-12-17 | Alexander Bolonkin | Bolonkin's method movement of vehicles and installation for it |
-
2019
- 2019-02-28 RU RU2019105772A patent/RU2712417C1/en active
- 2019-02-28 WO PCT/RU2019/000136 patent/WO2020176008A1/en active Application Filing
- 2019-03-19 EA EA201990537A patent/EA038335B1/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050063566A1 (en) * | 2001-10-17 | 2005-03-24 | Beek Gary A . Van | Face imaging system for recordal and automated identity confirmation |
US20030215114A1 (en) * | 2002-05-15 | 2003-11-20 | Biocom, Llc | Identity verification system |
RU2431191C2 (en) * | 2009-01-27 | 2011-10-10 | Государственное образовательное учреждение высшего профессионального образования Академия Федеральной службы охраны Российской Федерации (Академия ФСО России) | Method for personal identification through digital facial image |
CN102360421B (en) * | 2011-10-19 | 2014-05-28 | 苏州大学 | Face identification method and system based on video streaming |
RU2621633C2 (en) * | 2011-10-28 | 2017-06-06 | Мэджик Лип, Инк. | System and method for augmented and virtual reality |
US20150023602A1 (en) * | 2013-07-19 | 2015-01-22 | Kamil Wnuk | Fast recognition algorithm processing, systems and methods |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2796646C1 (en) * | 2022-07-26 | 2023-05-29 | Общество с ограниченной ответственностью "Видеофор" (ООО "Видеофор") | Integrated safety in water bodies |
WO2024025442A3 (en) * | 2022-07-26 | 2024-03-21 | Общество с ограниченной ответственностью "Видеофор" (ООО "Видеофор") | Integrated security system for bodies of water |
Also Published As
Publication number | Publication date |
---|---|
WO2020176008A1 (en) | 2020-09-03 |
EA038335B1 (en) | 2021-08-11 |
EA201990537A1 (en) | 2020-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11735018B2 (en) | Security system with face recognition | |
US11580753B2 (en) | License plate detection and recognition system | |
CN109583285B (en) | Object recognition method | |
KR102152318B1 (en) | Tracking system that can trace object's movement path | |
JP6525229B1 (en) | Digital search security system, method and program | |
CN105659200B (en) | For showing the method, apparatus and system of graphic user interface | |
US20180053352A1 (en) | Occluding augmented reality content or thermal imagery for simultaneous display | |
CN109740444B (en) | People flow information display method and related product | |
TW202026948A (en) | Methods and devices for biological testing and storage medium thereof | |
US11288954B2 (en) | Tracking and alerting traffic management system using IoT for smart city | |
CN109766779A (en) | It hovers personal identification method and Related product | |
KR101181967B1 (en) | 3D street view system using identification information. | |
US11263472B2 (en) | On-demand visual analysis focalized on salient events | |
CN110555876B (en) | Method and apparatus for determining position | |
RU2713876C1 (en) | Method and system for detecting alarm events when interacting with self-service device | |
RU2712417C1 (en) | Method and system for recognizing faces and constructing a route using augmented reality tool | |
CN112906610A (en) | Method for living body detection, electronic circuit, electronic apparatus, and medium | |
KR20150086840A (en) | Apparatus and control method for mobile device using multiple cameras | |
US9911237B1 (en) | Image processing techniques for self-captured images | |
CN117461309A (en) | Misaligned viewpoint mitigation for computer stereoscopic vision | |
KR101702452B1 (en) | A method and a system for providing cctv image applied augmented reality | |
JP7000935B2 (en) | Information processing equipment, information processing system, information processing method and program | |
US20230013117A1 (en) | Identity recognition utilizing face-associated body characteristics | |
US20220366727A1 (en) | Identity recognition utilizing face-associated body characteristics | |
Behara et al. | Towards autonomous surveillance in real world environments |