RU2644525C2 - Method and system of identifying a living person in the sequence of images by identifying a pulse at separate parts of a face - Google Patents

Method and system of identifying a living person in the sequence of images by identifying a pulse at separate parts of a face Download PDF

Info

Publication number
RU2644525C2
RU2644525C2 RU2016114489A RU2016114489A RU2644525C2 RU 2644525 C2 RU2644525 C2 RU 2644525C2 RU 2016114489 A RU2016114489 A RU 2016114489A RU 2016114489 A RU2016114489 A RU 2016114489A RU 2644525 C2 RU2644525 C2 RU 2644525C2
Authority
RU
Russia
Prior art keywords
image
sequence
face
frames
segments
Prior art date
Application number
RU2016114489A
Other languages
Russian (ru)
Other versions
RU2016114489A (en
Inventor
Кирилл Вадимович Косолапов
Дмитрий Викторович Свалов
Георгий Григорьевич Сафин
Original Assignee
ООО "КосМосГруп"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ООО "КосМосГруп" filed Critical ООО "КосМосГруп"
Priority to RU2016114489A priority Critical patent/RU2644525C2/en
Publication of RU2016114489A publication Critical patent/RU2016114489A/en
Application granted granted Critical
Publication of RU2644525C2 publication Critical patent/RU2644525C2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

FIELD: computer engineering.
SUBSTANCE: invention relates to computer engineering and specifically to image processing systems. Method of identifying a living person on a sequence of frames by detecting the pulse in individual areas of a person's face contains: obtaining a sequence of frames; highlighting a person's face in the image of each frame; splitting the area of the image of the selected face into segments in the form of a grid, and more than half of the image is divided into cells that differ in area by no more than twice; carrying out the temporal and spatial filtering of the face image segments obtained in the previous step; determining the presence of periodicity in changing the magnitude of the brightness of image segments in the entire sequence of frames, which indicates the presence of a pulse; determination of the correspondence between the periodicity of the variation in the luminance of segments and the pulse rate of a person; making a decision about the presence of a living person in the case of coincidence of the periodicity of the change in the magnitude of the brightness of image segments to the pulse rate of a living object.
EFFECT: technical result is to increase the accuracy of identifying a living person on the sequence of personnel.
21 cl, 11 dwg

Description

ОБЛАСТЬ ТЕХНИКИFIELD OF TECHNOLOGY

[0001] Изобретение относится к вычислительной технике, в частности к способам и системам выявления живого человека путем выявления пульса на отдельных участках лица человека.[0001] The invention relates to computer technology, in particular to methods and systems for detecting a living person by detecting a pulse in certain areas of a person's face.

УРОВЕНЬ ТЕХНИКИBACKGROUND

[0002] Современные системы контроля доступа используют биометрическую информацию о человеке для идентификации зарегистрированных пользователей и запрещения доступа несанкционированным пользователям.[0002] Modern access control systems use biometric information about a person to identify registered users and deny access to unauthorized users.

[0003] Одной из особенностей развития современного общества является возрастающая потребность в ограничении доступа к различным объектам, например офисам, складам, банкоматам, военным объектам. Это связано с необходимостью обеспечения безопасности данных объектов, предотвращения краж интеллектуальной собственности и товаров.[0003] One of the features of the development of modern society is the growing need to restrict access to various facilities, such as offices, warehouses, ATMs, military facilities. This is due to the need to ensure the security of these objects, to prevent theft of intellectual property and goods.

[0004] Широко применяемые ранее охранные системы, основанные на присутствии человека, например охранника, на входе в охраняемую зону или использующие системы видеонаблюдения, данные с которых также анализируются человеком, становятся дорогостоящими и не обеспечивают необходимую степень надежности. Именно в связи с указанными недостатками во многих государственных и частных организациях широкое распространение получили системы, основанные на идентификационных магнитных и смарт-картах. Карта содержит информацию, идентифицирующую использующего ее пользователя. Сканер, находящийся на входе в охраняемое помещение, считывает данную информацию и принимает решение о предоставлении пользователю доступа в помещение. Существенным недостатком таких систем является возможность использования карты злоумышленником, например, он может ее украсть.[0004] Previously widely used security systems based on the presence of a person, such as a security guard, at the entrance to a protected area or using video surveillance systems, the data from which are also analyzed by a person, become expensive and do not provide the necessary degree of reliability. It is in connection with these shortcomings in many public and private organizations that systems based on identification magnetic and smart cards have become widespread. The card contains information identifying the user using it. The scanner located at the entrance to the secure room reads this information and makes a decision on providing the user access to the room. A significant drawback of such systems is the ability to use the card by an attacker, for example, he can steal it.

[0005] Биометрические системы являются одним из наиболее перспективных решений, лишенных указанных недостатков. Такие системы основываются на анализе биометрической информации о пользователе: черт лица, голосе, жестах, отпечатках пальцев и т.п. Биометрические параметры пользователя, автоматически считанные системой, сравниваются с шаблонами, хранящимися в базе данных. Если один из шаблонов соответствует полученным данным, то пользователь считается идентифицированным и ему разрешается доступ.[0005] Biometric systems are one of the most promising solutions devoid of these disadvantages. Such systems are based on the analysis of biometric information about the user: facial features, voice, gestures, fingerprints, etc. User biometric parameters automatically read by the system are compared with templates stored in the database. If one of the templates matches the received data, then the user is considered identified and he is allowed access.

[0006] Современные биометрические системы основываются на анализе следующих биометрических параметров человека: лица, голоса, радужки глаз, жестов. Другие типы параметров либо не обеспечивают достаточную точность идентификации пользователя, либо требуют контакта со считывающим устройством (как в случае с отпечатками пальцев).[0006] Modern biometric systems are based on the analysis of the following biometric parameters of a person: face, voice, iris, gestures. Other types of parameters either do not provide sufficient accuracy for user identification or require contact with a reader (as is the case with fingerprints).

[0007] Вместе с тем существующим биометрическим системам присущ ряд недостатков, допускающих возможность несанкционированного доступа в охраняемую область.[0007] However, existing biometric systems have a number of disadvantages that allow unauthorized access to a protected area.

[0008] Из уровня техники известен ближайший аналог патент №2316051 «Способ и система автоматической проверки присутствия лица живого человека в биометрических системах безопасности», патентообладатель: САМСУНГ ЭЛЕКТРОНИКС, опубликован: 27.01.2008.[0008] The closest analogue to patent No. 2316051 “Method and system for automatically checking the presence of a living person in biometric security systems”, patent holder: SAMSUNG ELECTRONICS, published: 01/27/2008.

[0009] Изобретение относится к системам безопасности и контроля. Его использование позволяет получить технический результат в виде повышения надежности и скорости в детектировании попытки несанкционированного доступа к объекту. Это достигается за счет того, что в качестве основного механизма используют выявление лица живого человека и детектирование несанкционированных пользователей, присутствующих рядом с зарегистрированным пользователем. В изобретении используются методы слежения за трехмерным объектом, приведенным к первой нормализованной форме лица, при этом применяют быстрый метод измерения и сравнения мимики лица с шаблоном, а также методы детекции локальных черт и представления лица в трех различных нормализованных формах. Помимо этого, используют быстрый метод измерения и сравнения с шаблоном такой поведенческой биометрической характеристики как фонемная подпись, получаемая в результате выполнения пользователем команд системы.[0009] The invention relates to safety and control systems. Its use allows to obtain a technical result in the form of increasing reliability and speed in detecting attempts of unauthorized access to an object. This is achieved due to the fact that as the main mechanism they use the detection of the face of a living person and the detection of unauthorized users present next to the registered user. The invention uses methods for tracking a three-dimensional object reduced to the first normalized face shape, using a quick method for measuring and comparing facial expressions with a template, as well as methods for detecting local features and representing the face in three different normalized forms. In addition, they use a quick method of measuring and comparing with a template such a behavioral biometric characteristic as a phoneme signature obtained as a result of user executing system commands.

[00010] Недостатком данного технического является то, что фиксируется только наличие на изображении образа лица и присущих ему физических аспектов, таких как мимика. Данный способ не позволяет отличить сгенерированный образ от изображения реального живого объекта.[00010] The disadvantage of this technical is that it fixes only the presence on the image of the image of the face and its inherent physical aspects, such as facial expressions. This method does not allow to distinguish the generated image from the image of a real living object.

[00011] Также из уровня техники известны решения, предлагающие алгоритмы и системы контроля, основанные на анализе двумерных изображений лица человека (см. опубликованные патенты США №6633655 и №6681032). Данные системы используют видеокамеры для захвата изображений лица, реализуют выделение областей лица и вычисляют их характеристики, которые сравниваются с шаблонами, хранящимися в базе данных. Такие системы обрабатывают 2D модели лица человека и тем самым позволяют получить несанкционированный доступ путем предоставления видеокамерам фотографии зарегистрированного пользователя.[00011] Also known from the prior art are solutions offering algorithms and control systems based on the analysis of two-dimensional images of a human face (see published US patents Nos. 6,633,655 and 6,681,032). These systems use video cameras to capture face images, realize the allocation of facial areas and calculate their characteristics, which are compared with templates stored in the database. Such systems process 2D models of a person’s face and thereby make it possible to gain unauthorized access by providing cameras with photos of a registered user.

СУЩНОСТЬ ТЕХНИЧЕСКОГО РЕШЕНИЯESSENCE OF TECHNICAL SOLUTION

[00012] Данное техническое решение направлено на устранение недостатков, присущих существующим решениям.[00012] This technical solution is aimed at eliminating the disadvantages inherent in existing solutions.

[00013] Технической проблемой заявляемого изобретения является создание способа и системы распознавания биометрической информации путем определения пульса на отдельных участках изображения живого человека при помощи усиления малых изменений цвета на изображении. Часто для целей идентификации используются биометрические данные, а с целью дополнительной защищенности используются биометрические данные, изменяющиеся в динамике, такие как мимика. Но даже такой подход не обеспечивает всеобъемлющую защиту. Решением является определение пульса на конкретных участках изображения при изменении мимики лица, что позволяет сделать вывод о том, что на изображении реальный человек, а не сгенерированное изображение.[00013] The technical problem of the claimed invention is the creation of a method and system for recognizing biometric information by determining the heart rate in individual parts of an image of a living person by amplifying small color changes in the image. Often, biometric data are used for identification purposes, and biometric data that changes in dynamics, such as facial expressions, is used for added security. But even this approach does not provide comprehensive protection. The solution is to determine the heart rate in specific areas of the image when changing facial expressions, which allows us to conclude that the image is a real person, not a generated image.

[00014] Техническим результатом, проявляющимся при решении указанной технической проблемы, является повышение возможности выявления живого человека.[00014] The technical result manifested in solving the specified technical problem is to increase the possibility of identifying a living person.

[00015] Имеющиеся в уровне техники решения не позволяют отличить сгенерированное изображение от реального изображения живого объекта. В то время как предлагаемый способ позволяет отличить сгенерированное изображение от реального объекта с вероятностью 90-97% в зависимости от внешних условий (например, освещенности).[00015] Available in the prior art solutions do not allow to distinguish the generated image from the real image of a living object. While the proposed method allows to distinguish the generated image from the real object with a probability of 90-97% depending on external conditions (for example, illumination).

[00016] Указанный технический результат достигается благодаря способу выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека, в котором получают последовательность кадров; выделяют лицо человека на изображении каждого кадра; разбивают площадь изображения выделенного лица на сегменты в виде сетки; проводят временную и пространственную фильтрацию сегментов изображения лица, полученных на предыдущем шаге; определяют наличие периодичности в изменении величины яркости сегментов изображений во всей последовательности кадров, которая свидетельствует о наличии пульса; определяют соответствие периодичности изменения величины яркости сегментов частоте пульса человека; принимают решении о наличии живого человека в случае совпадения периодичности изменения величины яркости сегментов изображения и частоты пульса живого объекта.[00016] The indicated technical result is achieved due to the method for detecting a living person in a sequence of frames by detecting a pulse in separate parts of a person’s face in which a sequence of frames is obtained; distinguish a person’s face in the image of each frame; break the image area of the selected face into segments in the form of a grid; conduct temporary and spatial filtering of the face image segments obtained in the previous step; determine the presence of periodicity in changing the brightness of image segments in the entire sequence of frames, which indicates the presence of a pulse; determine the correspondence of the periodicity of changes in the magnitude of the brightness of the segments to the pulse rate of a person; make a decision on the presence of a living person in case of coincidence of the periodicity of the change in the brightness value of the image segments and the pulse rate of a living object.

[00017] В некоторых вариантах осуществления получают последовательность кадров в виде потокового видео, поступающего от источника видеоданных в реальном масштабе времени, или из хранилища с локального видеосервера, или центрального сервера.[00017] In some embodiments, a sequence of frames is obtained in the form of streaming video coming from a real-time video source or from storage from a local video server or central server.

[00018] В некоторых вариантах осуществления получают последовательность кадров по потоковому протоколу реального времени RTSP и/или RTMP и/или HLS и/или DASH.[00018] In some embodiments, a frame sequence is obtained over the real-time streaming protocol RTSP and / or RTMP and / or HLS and / or DASH.

[00019] В некоторых вариантах осуществления получают последовательность кадров в виде списка источников видеоданных различного качества и битрейта.[00019] In some embodiments, a sequence of frames is obtained in the form of a list of video sources of various quality and bit rate.

[00020] В некоторых вариантах осуществления получают последовательность кадров в компрессированном виде при помощи кодера Н.264 и/или VP8 и/или MJPEG и/или JPEG и/или PEG2000.[00020] In some embodiments, a compressed sequence of frames is obtained using an H.264 encoder and / or VP8 and / or MJPEG and / or JPEG and / or PEG2000.

[00021] В некоторых вариантах осуществления получают последовательность кадров по беспроводным сетям, таким как GSM, или CDMA, или LTE, или Wi-Fi.[00021] In some embodiments, a frame sequence is obtained over wireless networks, such as GSM, or CDMA, or LTE, or Wi-Fi.

[00022] В некоторых вариантах осуществления при выделении лица человека на изображении используют метод Виола Джонса, или нейронную сеть, или метод гибкого сравнения на графах, или скрытые марковские модели.[00022] In some embodiments, when isolating a person’s face in an image, the Viola Jones method, or a neural network, or flexible graph comparison method, or hidden Markov models are used.

[00023] В некоторых вариантах осуществления при разбиении площади изображения выделенного лица на сегменты в виде сетки, форма сегмента круглая, или треугольная, или квадратная, или прямоугольная.[00023] In some embodiments, when dividing the image area of the selected face into grid segments, the shape of the segment is round, or triangular, or square, or rectangular.

[00024] В некоторых вариантах осуществления при разбиении площади изображения выделенного лица на сегменты в виде сетки более половины изображения должно быть разделено на ячейки, отличающиеся друг от друга по площади не более чем в два раза.[00024] In some embodiments, when dividing the image area of the selected face into grid segments, more than half of the image should be divided into cells that differ from each other in area by no more than two times.

[00025] В некоторых вариантах осуществления при проведении временной и пространственной фильтрации сегментов изображения лица фильтруются низкие частоты в последовательности кадров и понижается разрешение их вычислительной эффективности.[00025] In some embodiments, when performing temporal and spatial filtering of face image segments, low frequencies are filtered in a sequence of frames and the resolution of their computational efficiency is reduced.

[00026] В некоторых вариантах осуществления при проведении временной и пространственной фильтрации сегментов изображения лица рассчитывают полную пирамиду Лапласа.[00026] In some embodiments, when performing temporal and spatial filtering of face image segments, a full Laplace pyramid is calculated.

[00027] Также указанный технический результат достигается благодаря системе выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека, содержащей: процессор; память для хранения инструкций исполняемых процессором; при этом процессор выполнен с возможностью: получения последовательности кадров; выделения лица человека на изображении каждого кадра; разбивания площади изображения выделенного лица на сегменты в виде сетки; проведения временной и пространственной фильтрации сегментов изображения лица, полученных на предыдущем шаге; определения наличия периодичности в изменении величины яркости сегментов изображений во всей последовательности кадров, которая свидетельствует о наличии пульса; определения соответствия периодичности изменения величины яркости сегментов частоте пульса человека; принятия решения о наличии живого человека в случае совпадения периодичности изменения величины яркости сегментов изображения и частоты пульса живого объекта.[00027] Also, the indicated technical result is achieved thanks to a system for detecting a living person in a sequence of frames by detecting a pulse in separate parts of a person’s face, comprising: a processor; memory for storing instructions executed by the processor; wherein the processor is configured to: obtain a sequence of frames; highlighting the person’s face in the image of each frame; dividing the area of the image of the selected face into segments in the form of a grid; conducting temporal and spatial filtering of face image segments obtained in the previous step; determining the presence of periodicity in changing the brightness value of image segments in the entire sequence of frames, which indicates the presence of a pulse; determine the correspondence of the periodicity of changes in the magnitude of the brightness of the segments to the pulse rate of a person; making decisions on the presence of a living person in case of coincidence of the periodicity of changing the magnitude of the brightness of the image segments and the pulse rate of a living object.

[00028] В некоторых вариантах осуществления процессор является прикладным или графическим.[00028] In some embodiments, the processor is application or graphics.

[00029] В некоторых вариантах осуществления процессор получает последовательность кадров в виде потокового видео, поступающего от источника видеоданных в реальном масштабе времени, или из хранилища с локального видеосервера, или центрального сервера.[00029] In some embodiments, the processor receives a sequence of frames in the form of streaming video coming from a real-time video source or from storage from a local video server or central server.

[00030] В некоторых вариантах осуществления процессор получает последовательность кадров по потоковому протоколу реального времени RTSP и/или RTMP и/или HLS и/или DASH.[00030] In some embodiments, the processor receives a frame sequence over the real-time streaming protocol RTSP and / or RTMP and / or HLS and / or DASH.

[00031] В некоторых вариантах осуществления процессор получает последовательность кадров в виде списка источников видеоданных различного качества и битрейта.[00031] In some embodiments, the processor receives a sequence of frames in the form of a list of video sources of various quality and bit rate.

[00032] В некоторых вариантах осуществления процессор получает последовательность кадров в компрессированном виде при помощи кодера Н.264 и/или VP8 и/или MJPEG и/или JPEG и/или PEG2000.[00032] In some embodiments, the processor receives the sequence of frames in compressed form using an H.264 encoder and / or VP8 and / or MJPEG and / or JPEG and / or PEG2000.

[00033] В некоторых вариантах осуществления процессор получает последовательность кадров по беспроводным сетям, таким как GSM, или CDMA, или LTE, или Wi-Fi.[00033] In some embodiments, the processor receives a frame sequence over wireless networks, such as GSM, or CDMA, or LTE, or Wi-Fi.

[00034] В некоторых вариантах осуществления при выделении процессором лица человека на изображении используют метод Виола Джонса, или нейронную сеть, или метод гибкого сравнения на графах, или скрытые марковские модели.[00034] In some embodiments, when the processor selects a person’s face on the image, use the Viola Jones method, or the neural network, or the method of flexible comparison on graphs, or hidden Markov models.

[00035] В некоторых вариантах осуществления при разбиении процессором площади изображения выделенного лица на сегменты в виде сетки, форма сегмента круглая, или треугольная, или квадратная, или прямоугольная.[00035] In some embodiments, when the processor splits the image area of the selected face into grid segments, the shape of the segment is round, or triangular, or square, or rectangular.

[00036] В некоторых вариантах осуществления при разбиении процессором площади изображения выделенного лица на сегменты в виде сетки более половины изображения должно быть разделено на ячейки, отличающиеся друг от друга по площади не более чем в два раза.[00036] In some embodiments, when the processor splits the image area of the selected face into grid segments, more than half the image should be divided into cells that differ from each other in area by no more than two times.

[00037] В некоторых вариантах осуществления при проведении процессором временной и пространственной фильтрации сегментов изображения лица фильтруются низкие частоты в последовательности кадров и понижается разрешение их вычислительной эффективности.[00037] In some embodiments, when a processor performs temporal and spatial filtering of facial image segments, low frequencies are filtered in a sequence of frames and the resolution of their computational efficiency decreases.

[00038] В некоторых вариантах осуществления при проведении процессором временной и пространственной фильтрации сегментов изображения лица рассчитывают полную пирамиду Лапласа.[00038] In some embodiments, when a processor performs temporal and spatial filtering of face image segments, a full Laplace pyramid is calculated.

КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS

[00039] Признаки и преимущества настоящего изобретения станут очевидными из приводимого ниже подробного описания изобретения и прилагаемых чертежей, на которых:[00039] The features and advantages of the present invention will become apparent from the following detailed description of the invention and the accompanying drawings, in which:

[00040] на Фиг. 1 показан пример осуществления технического решения согласно способу выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека;[00040] in FIG. 1 shows an example of the implementation of a technical solution according to a method for detecting a living person in a sequence of frames by detecting a pulse in separate parts of a person’s face;

[00041] на Фиг. 2 показан принцип работы способа усиления малых изменений в видеопотоке;[00041] in FIG. 2 shows the principle of operation of a method for amplifying small changes in a video stream;

[00042] на Фиг. 3 показана иллюстрация аппроксимации пространственного смещения с использованием временной фильтрации;[00042] in FIG. 3 illustrates an approximation of spatial displacement using temporal filtering;

[00043] на Фиг. 4 показана иллюстрация усиления движения по сигналу 1D для различных пространственных частот;[00043] in FIG. 4 shows an illustration of amplification of motion along a 1D signal for various spatial frequencies;

[00044] на Фиг. 5 показано движение ошибки увеличения;[00044] in FIG. 5 shows the motion of the magnification error;

[00045] на Фиг. 6 показан коэффициент усиления, а, как функция пространственной длины волны, для усиления движения;[00045] in FIG. 6 shows the gain, but, as a function of the spatial wavelength, to enhance the motion;

[00046] на Фиг. 7 показана архитектура сверточной нейронной сети;[00046] in FIG. 7 shows the architecture of a convolutional neural network;

[00047] на Фиг. 8 показан пример разбиения лица человека на сегменты;[00047] in FIG. 8 shows an example of dividing a person’s face into segments;

[00048] на Фиг. 9 показан пример осуществления временной и пространственной фильтрации сегментов изображения лица;[00048] in FIG. 9 shows an example of temporal and spatial filtering of face image segments;

[00049] на Фиг. 10 показан пример осуществления динамики изменения яркости на исследуемых 120 картинках, полученных за 5 секунд (24 кадра в секунду);[00049] in FIG. 10 shows an example of the implementation of the dynamics of changes in brightness on the studied 120 pictures obtained in 5 seconds (24 frames per second);

[00050] на Фиг. 11 показан пример осуществления технического решения согласно системе выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека.[00050] in FIG. 11 shows an example of the implementation of a technical solution according to a system for detecting a living person in a sequence of frames by detecting a pulse in certain areas of a person's face.

ПОДРОБНОЕ ОПИСАНИЕ ТЕХНИЧЕСКОГО РЕШЕНИЯDETAILED DESCRIPTION OF THE TECHNICAL SOLUTION

[00051] Данное техническое решение может быть реализовано на компьютере, в виде системы или машиночитаемого носителя, содержащего инструкции для выполнения вышеупомянутого способа.[00051] This technical solution can be implemented on a computer, in the form of a system or computer-readable medium containing instructions for performing the above method.

[00052] Техническое решение может быть реализовано в виде распределенной компьютерной системы.[00052] The technical solution may be implemented as a distributed computer system.

[00053] В данном решении под системой подразумевается компьютерная система, ЭВМ (электронно-вычислительная машина), ЧПУ (числовое программное управление), ПЛК (программируемый логический контроллер), компьютеризированные системы управления и любые другие устройства, способные выполнять заданную, четко определенную последовательность операций (действий, инструкций).[00053] In this solution, a system means a computer system, a computer (electronic computer), CNC (numerical control), PLC (programmable logic controller), computerized control systems, and any other devices that can perform a given, well-defined sequence of operations (actions, instructions).

[00054] Под устройством обработки команд подразумевается электронный блок либо интегральная схема (микропроцессор), исполняющая машинные инструкции (программы).[00054] An instruction processing device is understood to mean an electronic unit or an integrated circuit (microprocessor) that executes machine instructions (programs).

[00055] Устройство обработки команд считывает и выполняет машинные инструкции (программы) с одного или более устройства хранения данных. В роли устройства хранения данных могут выступать, но не ограничиваясь, жесткие диски (HDD), флеш-память, ПЗУ (постоянное запоминающее устройство), твердотельные накопители (SSD), оптические приводы.[00055] An instruction processing device reads and executes machine instructions (programs) from one or more data storage devices. Hard disk drives (HDD), flash memory, ROM (read only memory), solid state drives (SSD), optical drives can be used as storage devices.

[00056] Программа - последовательность инструкций, предназначенных для исполнения устройством управления вычислительной машины или устройством обработки команд.[00056] A program is a sequence of instructions for execution by a computer control device or an instruction processing device.

[00057] Ниже будут описаны понятия и термины, необходимые для подробного описания и осуществления технического решения.[00057] Below will be described the concepts and terms necessary for a detailed description and implementation of a technical solution.

[00058] Кадр - отдельное ограниченное определенными размерами изображение на фото- или кинопленке, на теле- или киноэкране, отдельный фотографический снимок.[00058] A frame is a single image limited to a certain size on a photo or film, on a television or movie screen, a separate photographic image.

[00059] Полная пирамида Лапласа - математический термин субполосного преобразования сигнала.[00059] The complete Laplace pyramid is a mathematical term for a subband signal transform.

[00060] Сегмент - часть целого, ограниченная в размерах.[00060] A segment is a part of the whole, limited in size.

[00061] Яркость сегмента - количество световой энергии, испускаемой/отражаемой сегментом изображения.[00061] Segment brightness is the amount of light energy emitted / reflected by an image segment.

[00062] Спектральная характеристика - часть спектра белого света, которую излучает, пропускает или поглощает источник излучения, вещество или поверхность[00062] Spectral characteristic - part of the spectrum of white light that is emitted, transmitted or absorbed by a radiation source, substance or surface

[00063] Фильтрация - преобразование сигналов, представленных в цифровой форме.[00063] Filtering is the conversion of signals represented in digital form.

[00064] Пространственная фильтрация - преобразование сигнала во временной области.[00064] Spatial filtering is the transformation of a signal in the time domain.

[00065] Интенсивность изображения - скалярная физическая величина, количественно характеризующая мощность излучения полученного от объекта на изображении.[00065] Image intensity is a scalar physical quantity that quantitatively characterizes the radiation power received from an object in the image.

[00066] Сигнал движения - факт наличия изменения геометрических свойств объекта[00066] Motion signal - the fact of a change in the geometric properties of an object

[00067] Коэффициент усиления - количественная характеристика, показывающая во сколько раз был усилен тот или иной параметр[00067] Gain - a quantitative characteristic showing how many times a particular parameter has been amplified

[00068] Свертка пространственной пирамиды - математическая операция преобразования сигнала для пространственной пирамиды.[00068] Convolution of a spatial pyramid is a mathematical operation for converting a signal for a spatial pyramid.

[00069] Модуляция спектральных компонент - процесс изменения параметров спектральной характеристики[00069] Modulation of spectral components - the process of changing the parameters of the spectral characteristic

[00070] Линейное приближение - приближение произвольной функции с помощью линейной функции[00070] Linear approximation - approximation of an arbitrary function using a linear function

[00071] Согласно заявляемому техническому решению, способ выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека, который показан на Фиг. 1, реализован следующим образом.[00071] According to the claimed technical solution, a method for detecting a living person in a sequence of frames by detecting a pulse in separate parts of a person’s face, which is shown in FIG. 1 is implemented as follows.

[00072] Шаг 101: получают последовательность кадров.[00072] Step 101: obtaining a sequence of frames.

[00073] Последовательность кадров может передаваться в виде потокового видео, поступающего от источника видеоданных в реальном масштабе времени или из хранилища с локального видеосервера или центрального сервера. Для передачи потокового видео могут быть использованы стандартные протоколы RTSP (Real Time Streaming Protocol), RTMP (Real Time Messaging Protocol), HLS (HTTP Live Streaming) и DASH (Dynamic Adaptive Streaming over HTTP). При этом скорость и качество передаваемых видеоданных может автоматически адаптироваться к каналу связи мобильного устройства.[00073] The sequence of frames may be transmitted in the form of streaming video coming from a video source in real time or from storage from a local video server or central server. For streaming video, standard RTSP (Real Time Streaming Protocol), RTMP (Real Time Messaging Protocol), HLS (HTTP Live Streaming) and DASH (Dynamic Adaptive Streaming over HTTP) protocols can be used. At the same time, the speed and quality of the transmitted video data can automatically adapt to the communication channel of the mobile device.

[00074] Последовательность кадров может передаваться в компрессированном виде, например, при помощи кодеров Н.264, VP8, MJPEG, JPEG, JPEG2000.[00074] The frame sequence may be transmitted in compressed form, for example, using H.264, VP8, MJPEG, JPEG, JPEG2000 encoders.

[00075] Последовательность кадров может передаваться в виде отдельных файлов. При этом могут использоваться стандартные контейнеры, например WebM, OGV, MKV, MP4, TS, JPG и др.[00075] The frame sequence may be transmitted as separate files. In this case, standard containers can be used, for example WebM, OGV, MKV, MP4, TS, JPG, etc.

[00076] Последовательность кадров может передаваться в виде списка источников видеоданных различного качества и битрейта, например в формате M3U8.[00076] The frame sequence may be transmitted as a list of video sources of various quality and bit rate, for example, in the M3U8 format.

[00077] Последовательность кадров может передаваться по беспроводным сетям, таким как GSM (Global System for Mobile Communications), CDMA (Code division multiple access), LTE (Long Term Evolution), Wi-Fi (Wireless Fidelity). В некоторых вариантах осуществления настоящего изобретения получение и/или отправка данных осуществляется с использованием нескольких технологий, описанных выше, или технологий приема/передачи данных, которые будут изобретены после подачи заявки на настоящее изобретение.[00077] The frame sequence can be transmitted over wireless networks such as GSM (Global System for Mobile Communications), CDMA (Code division multiple access), LTE (Long Term Evolution), Wi-Fi (Wireless Fidelity). In some embodiments, the implementation of the present invention, the receipt and / or sending of data is carried out using several technologies described above, or technologies for receiving / transmitting data that will be invented after filing the application for the present invention.

[00078] Шаг 102: выделяют лицо человека на изображении каждого кадра.[00078] Step 102: highlighting a person’s face in the image of each frame.

[00079] Выделяют лицо человека на изображении каждого кадра, полученного ранее, посредством алгоритма выделения лица, которым является, но не ограничиваясь, метод Виола Джонса, нейронные сети (Фиг. 7), метод гибкого сравнения на графах, скрытые Марковские модели (CMM, HMM).[00079] A person’s face is identified in the image of each frame obtained earlier by the face extraction algorithm, which is, but not limited to, the Viola Jones method, neural networks (Fig. 7), flexible comparison method on graphs, hidden Markov models (CMM, HMM).

[00080] Шаг 103: разбивают площадь изображения выделенного лица на сегменты в виде сетки.[00080] Step 103: divide the image area of the selected face into grid segments.

[00081] Лицо разбивается на сегменты, которые выбираются путем разбиения изображения лица сеткой, площадь сегмента которой составляет не более одной сотой от площади изображения. Сегменты могут быть любой формы, главным фактором является полное покрытие сегментами лица. Форма ячейки также не принципиальна. При этом более половины изображения должно быть разделено на ячейки отличающиеся друг от друга по площади не более чем в два раза. Вершины сетки могут быть выбраны произвольным образом.[00081] A face is divided into segments that are selected by dividing the face image with a grid whose segment area is not more than one hundredth of the image area. Segments can be of any shape, the main factor is the full coverage of the face segments. The shape of the cell is also not fundamental. Moreover, more than half of the image should be divided into cells that differ from each other in area by no more than two times. The vertices of the grid can be selected arbitrarily.

[00082] Шаг 104: проводят временную и пространственную фильтрацию сегментов изображения лица, полученных на предыдущем шаге.[00082] Step 104: conduct temporary and spatial filtering of the face image segments obtained in the previous step.

[00083] Данный шаг необходим для выделения тонких временных изменений в последовательности кадров, что сочетает в себе пространственную и временную обработку (Фиг. 2). Сначала последовательность кадров раскладывается в различных диапазонах пространственных частот. Диапазоны частот могут быть увеличены, потому что по-другому (а) они могли бы иметь различные отношения сигнал-шум или (б) они могут содержать пространственные частоты, которые не обладают линейным приближением, используемым в нашем алгоритме увеличением движения. В последнем случае уменьшается усиление для этих полос с целью подавления артефактов. Когда цель пространственной обработки просто увеличить временное отношение сигнал-шум путем объединения нескольких пикселей, фильтруются низкие частоты в последовательности кадров и понижается разрешение их вычислительной эффективности. В общем случае, однако, рассчитывается полная пирамида Лапласа.[00083] This step is necessary to highlight subtle temporal changes in the sequence of frames, which combines spatial and temporal processing (Fig. 2). First, the sequence of frames is laid out in different ranges of spatial frequencies. The frequency ranges can be increased, because in a different way (a) they could have different signal-to-noise ratios or (b) they could contain spatial frequencies that do not have the linear approximation used in our algorithm to increase movement. In the latter case, the gain for these bands decreases in order to suppress artifacts. When the goal of spatial processing is simply to increase the temporal signal-to-noise ratio by combining several pixels, low frequencies are filtered in a sequence of frames and the resolution of their computational efficiency is reduced. In the general case, however, the full Laplace pyramid is calculated.

[00084] Отфильтрованные пространственные полосы затем усиливаются в заданное число раз, которое определяется путем ручного или машинного перебора в диапазоне от 0 до 100, до тех пор пока колебания на последовательности кадров не станут различимы, и снова добавляются в исходный сигнал для генерации выходного видео. Выбор временного фильтра может быть настроен для поддержки различных приложений. Затем выполняется временная обработка каждого пространственного диапазона. Рассмотрим временной ряд, соответствующий значению пикселя в полосе частот, и применим полосовой фильтр для извлечения частотных диапазонов, представляющих интерес. Временная обработка является единой для всех пространственных уровней и для всех пикселов в каждом уровне. Затем извлеченный сигнал умножается на коэффициент усиления a. Эта величина может быть задана пользователем и может быть ослаблена автоматически. Далее увеличенный сигнал добавляется к оригиналу, и производится свертка пространственной пирамиды, чтобы получить конечный результат. Поскольку реальные видео в пространстве и времени постоянно и так как описанная выше фильтрация выполняется равномерно для всех пикселей, указанный способ неявно поддерживает принцип пространственно-временной когерентности результатов.[00084] The filtered spatial bands are then amplified by a predetermined number of times, which is determined by manual or machine search in the range from 0 to 100, until the oscillations in the sequence of frames become distinguishable, and again added to the original signal to generate the output video. The choice of a temporary filter can be configured to support various applications. Then, time processing of each spatial range is performed. Consider a time series corresponding to a pixel value in a frequency band, and apply a band-pass filter to extract the frequency ranges of interest. Temporal processing is the same for all spatial levels and for all pixels in each level. Then, the extracted signal is multiplied by the gain a. This value can be set by the user and can be weakened automatically. Next, an enlarged signal is added to the original, and the spatial pyramid is convolved to obtain the final result. Since real videos in space and time are constant and since the filtering described above is performed uniformly for all pixels, this method implicitly supports the principle of spatio-temporal coherence of results.

[00085] Шаг 105: определяют наличие периодичности в изменении величины яркости сегментов изображений во всей последовательности кадров, которая свидетельствует о наличии пульса.[00085] Step 105: determining the presence of periodicity in changing the magnitude of the brightness of image segments in the entire frame sequence, which indicates the presence of a pulse.

[00086] Чтобы объяснить взаимосвязь между временной обработкой и увеличением малых движений, рассмотрим простой случай 1D сигнала, который претерпевает поступательное движение. Этот анализ непосредственно обобщает локально-поступательные движения в 2D. Пусть I (x, t), где I обозначим как интенсивность изображения на позиции x и времени t. Так как изображение подвергается поступательному движению, мы можем выразить наблюдаемые интенсивности по отношению к функции смещения δ(t), так что I(x, t)=F(x+δ(t)) и I(x, 0)=F(x). Целью увеличения движения является синтезирование сигнала с некоторым коэффициентом усиления a.[00086] To explain the relationship between time processing and the increase in small movements, consider a simple case of a 1D signal that undergoes translational motion. This analysis directly generalizes locally translational motion in 2D. Let I (x, t), where I denote the intensity of the image at position x and time t. Since the image undergoes translational motion, we can express the observed intensities with respect to the displacement function δ (t), so that I (x, t) = F (x + δ (t)) and I (x, 0) = F ( x). The purpose of increasing motion is to synthesize a signal with a certain gain a.

[00087]

Figure 00000001
[00087]
Figure 00000001

[00088] Предполагая, что изображение может быть аппроксимировано через разложения первого порядка Тейлора, запишем изображение в момент времени T,F(x+δ(T)) в расширении первого порядка Тейлора по x, как

Figure 00000002
.[00088] Assuming that the image can be approximated through first-order Taylor expansions, we write the image at time T, F (x + δ (T)) in the first-order Taylor extension in x, as
Figure 00000002
.

[00089]

Figure 00000003
[00089]
Figure 00000003

[00090] Пусть B(x.t) является результатом применения широкополосного временного полосового фильтра I(X, T) при любом положении x (выбирая все, кроме F(X) в уравнении 2. Допустим, что сигнал движения δ(T) находится в пределах полосы пропускания полосового фильтра временной области. Тогда у нас есть Df(х)[00090] Let B (xt) be the result of applying the broadband temporary band-pass filter I (X, T) for any position x (selecting all but F (X) in equation 2. Assume that the motion signal δ (T) is within the passband of the time-domain bandpass filter.Then we have Df (x)

[00091]

Figure 00000004
[00091]
Figure 00000004

[00092] В нашем процессе после усиления полосового сигнала добавляем его к I (х, t), в результате чего в обработанном сигнале[00092] In our process, after amplification of the bandpass signal, we add it to I (x, t), as a result of which in the processed signal

[00093]

Figure 00000005
[00093]
Figure 00000005

[00094] После объединения формул 2, 3 и 4 мы имеем[00094] After combining the formulas 2, 3 and 4, we have

[00095]

Figure 00000006
[00095]
Figure 00000006

[00096] Если предположить, что первое разложение Тейлора выполняется для усилений больших возмущений,

Figure 00000007
, можно связать усиление с временным увеличением сигнала движения. Обработать выходной сигнал легко.[00096] Assuming that the first Taylor expansion is performed to amplify large perturbations,
Figure 00000007
, you can associate the gain with a temporary increase in the motion signal. Handling the output is easy.

[00097]

Figure 00000008
[00097]
Figure 00000008

[00098] Это показывает, что обработка увеличивает движение пространственного смещения δ(T) местного образа F(X) в момент времени t при усилении до величины (1+α).[00098] This shows that processing increases the spatial displacement movement δ (T) of the local image F (X) at time t when amplified to a value of (1 + α).

[00099] Этот процесс проиллюстрирован на одной из синусоид на Фиг. 3. Для низкочастотной волны наблюдается косинусоида и характерен относительно небольшой объем.[00099] This process is illustrated in one of the sinusoids in FIG. 3. For a low-frequency wave, a cosine wave is observed and a relatively small volume is characteristic.

[000100] Фиг. 3: временная фильтрация может аппроксимировать пространственное смещение.[000100] FIG. 3: temporal filtering can approximate spatial displacement.

[000101] Этот эффект демонстрируется здесь на сигнале 1D, но в равной степени относится и к сигналам 2D. Входной сигнал отображается в двух моментах времени:

Figure 00000009
в момент времени t и
Figure 00000010
в момент времени
Figure 00000011
.[000101] This effect is demonstrated here on a 1D signal, but equally applies to 2D signals. The input signal is displayed at two points in time:
Figure 00000009
at time t and
Figure 00000010
at time
Figure 00000011
.

[000102] Разложение в ряд первого порядка Тейлора служит хорошим приближением для смещенного сигнала на время

Figure 00000011
. При повышении временной составляющей сигнала по а и последующем добавлении его обратно в I(X, T) мы приближаем эту волну смешения к (1+α)δ. Для полноты рассмотрим более общий случай, когда δ(T) находится не полностью в пределах полосы пропускания временного фильтра. В этом случае пусть δk(T) индексируется по k, представляя различные временные спектральные компоненты δ(t). Каждый δk(t) будет ослабляется временной фильтрацией с коэффициентом γk. Это приводит к полосовому сигналу.[000102] Taylor's first order expansion serves as a good approximation for a biased signal over time
Figure 00000011
. With increasing the time component of the signal with respect to a and then adding it back to I (X, T), we bring this mixing wave closer to (1 + α) δ. For completeness, we consider the more general case when δ (T) is not completely within the bandwidth of the time filter. In this case, let δk (T) be indexed by k, representing various temporal spectral components δ (t). Each δk (t) will be attenuated by time filtering with coefficient γk. This results in a bandpass signal.

[000103]

Figure 00000012
[000103]
Figure 00000012

[000104] Из-за умножения в уравнении 4 получим затухание, при этом временная частота может быть эквивалентно интерпретирована как частотно-зависимое движение с коэффициентом увеличения aK=γkα, в результате чего на выходе движение усиливается.[000104] Due to the multiplication in Equation 4, we get the attenuation, while the temporal frequency can be equivalently interpreted as a frequency-dependent motion with an increase factor aK = γkα, resulting in increased motion at the output.

[000105]

Figure 00000013
[000105]
Figure 00000013

[000106] Результатом, как можно было ожидать для линейного анализа, стало то, что модуляция спектральных компонент движения сигнала становится фактором модуляции при усилении движения ak для каждой временной подзоны δk сигнала движения.[000106] The result, as might be expected for linear analysis, was that the modulation of the spectral components of the signal motion becomes a modulation factor with the amplification of the motion ak for each time subzone δk of the motion signal.

[000107] Шаг 106: определяют соответствие периодичности изменения величины яркости сегментов частоте пульса человека.[000107] Step 106: determine the correspondence of the periodicity of the change in the magnitude of the brightness of the segments to the pulse rate of a person.

[000108] Строится спектральная характеристика, в которой методом полосовой фильтрации выбирается диапазон 0.66-3.33 Гц, который соответствует частоте человеческого пульса 40-200 ударов в минуту. При наличии повторяющихся изменений спектральной мощности в данном диапазоне, при среднем отличии не менее чем на 30% от максимальных значений делается вывод о наличии периодичного изменения, соответствующего по частоте пульсу человека.[000108] A spectral characteristic is constructed in which a bandwidth of 0.66-3.33 Hz is selected by band-pass filtering, which corresponds to a human pulse frequency of 40-200 beats per minute. If there are repeated changes in spectral power in this range, with an average difference of at least 30% from the maximum values, a conclusion is made about the presence of a periodic change corresponding to the human pulse frequency.

[000109] Шаг 107: принимают решении о наличии живого человека в случае совпадения периодичности изменения величины яркости сегментов изображения и частоты пульса живого объекта.[000109] Step 107: decide on the presence of a living person in case of coincidence of the periodicity of the change in the brightness value of the image segments and the pulse rate of the living object.

[000110] Данный вывод делается при выявлении периодичного изменения в последовательности кадров соответствующего по частоте диапазону пульса человека, описанного в шаге 106.[000110] This conclusion is made when detecting a periodic change in the sequence of frames corresponding to the frequency range of the pulse of the person described in step 106.

[000111] Фиг. 11 представляет собой блок-диаграмму, показывающую систему выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека согласно еще одному примеру осуществления изобретения. Например, система 1100 может быть мобильным телефоном, планшетным компьютером, терминалом цифрового вещания, устройством для обмена сообщениями, игровой приставкой, планшетом, медицинским прибором, тренажерным оборудованием и персональным цифровым помощником и т.д.[000111] FIG. 11 is a block diagram showing a system for detecting a living person in a sequence of frames by detecting a pulse in separate areas of a person’s face according to yet another embodiment of the invention. For example, system 1100 may be a mobile phone, tablet computer, digital broadcast terminal, messaging device, game console, tablet, medical device, exercise equipment, and personal digital assistant, etc.

[000112] Ссылаясь на Фигуру 11, система 1100 может включать один или более следующих компонент: компонент 1102 обработки, память 1104, компонент 1106 питания, компонент 1108 мультимедиа, компонент 1110 аудио, интерфейс 1112 ввода/вывода (I/О), сенсорный компонент 1114, компонент 1116 передачи данных.[000112] Referring to Figure 11, a system 1100 may include one or more of the following components: processing component 1102, memory 1104, power component 1106, multimedia component 1108, audio component 1110, input / output (I / O) interface 1112, touch component 1114, data transmission component 1116.

[000113] Компонент 1102 обработки в основном управляет всеми операциями системы 1100, например дисплеем, телефонным звонком, передачей данных, работой камеры и операцией записи. Компонент 1102 обработки может включать в себя один или более процессоров 1118, реализующих инструкции для завершения всех или части шагов из указанных выше способов. Кроме того, компонент 1102 обработки может включать в себя один или более модулей для удобного процесса взаимодействия между компонентами 1102 обработки и другими компонентами. Например, компонент 1102 обработки может включать в себя мультимедийный модуль для удобного облегченного взаимодействия между компонентом 1108 мультимедиа и компонентом 1102 обработки.[000113] The processing component 1102 mainly controls all operations of the system 1100, such as a display, a phone call, data transfer, camera operation, and recording operation. Processing component 1102 may include one or more processors 1118 that implement instructions for completing all or part of the steps of the above methods. In addition, the processing component 1102 may include one or more modules for a convenient interaction process between the processing components 1102 and other components. For example, the processing component 1102 may include a multimedia module for conveniently facilitating interaction between the multimedia component 1108 and the processing component 1102.

[000114] Процессор 1118 может быть прикладным или графическим.[000114] The processor 1118 may be application or graphics.

[000115] Память 1104 выполнена с возможностью хранения различных типов данных для поддержки работы системы 1100. Примеры таких данных включают в себя инструкции из любого приложения или способа, контактные данные, данные адресной книги, сообщения, изображения, видео и т.д. Память 1104 может быть реализована в виде любого типа энергозависимого запоминающего устройства, энергонезависимого запоминающего устройства или их комбинации, например Статического Оперативного Запоминающего Устройства (СОЗУ), Электрически Стираемого Программируемого Постоянного Запоминающего Устройства (ЭСППЗУ), Стираемого Программируемого Постоянного Запоминающего Устройства (СППЗУ), Программируемого Постоянного Запоминающего Устройства (ППЗУ), Постоянного Запоминающего Устройства (ПЗУ), магнитной памяти, флэш-памяти, магнитного или оптического диска.[000115] The memory 1104 is configured to store various types of data to support the operation of the system 1100. Examples of such data include instructions from any application or method, contact data, address book data, messages, images, videos, etc. Memory 1104 may be implemented as any type of non-volatile memory, non-volatile memory, or a combination thereof, for example Static Random Access Memory (RAM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Erasable Programmable Read-Only Memory (EPROM), Programmable Storage Device (EEPROM), Permanent Storage Device (ROM), magnetic memory, flash memory, magnetic or an optical disc.

[000116] Компонент 1106 питания обеспечивает электричеством различные компоненты системы 1100. Компонент 1106 питания может включать систему управления электропитанием, один или более источник питания и другие узлы для генерации, управления и распределения электроэнергии к системе 1100.[000116] Power component 1106 provides electricity to various components of system 1100. Power component 1106 may include a power management system, one or more power supplies, and other nodes for generating, controlling, and distributing power to system 1100.

[000117] Мультимедийный компонент 1108 включает в себя экран, обеспечивающий выходной интерфейс между системой 1100 и пользователем. В некоторых вариантах осуществления экран может быть жидкокристаллическим дисплеем (ЖКД) или сенсорной панелью (СП). Если экран включает в себя сенсорную панель, экран может быть реализован в виде сенсорного экрана для приема входного сигнала от пользователя. Сенсорная панель включает один или более сенсорных датчиков в смысле жестов, прикосновения и скольжения сенсорной панели. Сенсорный датчик может не только чувствовать границу прикосновение или жест перелистывания, но и определять длительность времени и давления, связанных с режимом работы на прикосновении и скольжении. В некоторых вариантах осуществления узел 1208 мультимедиа включает одну фронтальную камеру и/или одну заднюю камеру. Когда система 1100 находится в режиме работы, например режиме съемки или режиме видео, фронтальная камера и/или задняя камера могут получать мультимедиа данные извне. Каждая фронтальная камера и задняя камера может быть одной фиксированной оптической системой объектива или может иметь фокусное расстояние или оптический зум.[000117] The multimedia component 1108 includes a screen providing an output interface between the system 1100 and the user. In some embodiments, the screen may be a liquid crystal display (LCD) or touch panel (SP). If the screen includes a touch panel, the screen may be implemented as a touch screen for receiving an input signal from a user. The touch panel includes one or more touch sensors in the sense of gesturing, touching and sliding the touch panel. The touch sensor can not only feel the boundary of the touch or the gesture of turning over, but also determine the duration of time and pressure associated with the operation mode on touch and sliding. In some embodiments, the multimedia assembly 1208 includes one front camera and / or one rear camera. When the system 1100 is in an operating mode, such as a shooting mode or a video mode, the front camera and / or the rear camera can receive multimedia data from the outside. Each front camera and rear camera may be a single fixed optical system of the lens or may have a focal length or optical zoom.

[000118] Аудиокомпонент 1110 выполнен с возможностью выходного и/или входного аудиосигнала. Например, аудиокомпонент 1110 включает один микрофон (MIC), который выполнен с возможностью получать внешний аудиосигнал, когда система 1100 находится в режиме работы, например режиме вызова, режиме записи и режиме распознавания речи. Полученный аудиосигнал может быть далее сохранен в памяти 1104 или направлен по компоненту 1116 передачи данных. В некоторых вариантах осуществления аудиокомпонент 1110 также включает в себя один динамик, выполненный с возможностью вывода аудиосигнала.[000118] The audio component 1110 is configured to output and / or input an audio signal. For example, the audio component 1110 includes a single microphone (MIC) that is configured to receive an external audio signal when the system 1100 is in an operation mode, such as a call mode, a recording mode, and a speech recognition mode. The received audio signal may be further stored in the memory 1104 or sent through the data transmission component 1116. In some embodiments, the audio component 1110 also includes a single speaker configured to output an audio signal.

[000119] Интерфейс 1112 ввода/вывода обеспечивает интерфейс между компонентом 1102 обработки и периферийным интерфейсным модулем. Вышеуказанным периферийным интерфейсным модулем может быть клавиатура, руль, кнопка и т.д. Кнопка может включать, но не ограничиваясь, кнопку домашней страницы, кнопку регулировки громкости, кнопку включения и кнопку блокировки.[000119] The I / O interface 1112 provides an interface between the processing component 1102 and the peripheral interface module. The above peripheral interface module may be a keyboard, steering wheel, button, etc. A button may include, but is not limited to, a homepage button, a volume button, a power button, and a lock button.

[000120] Сенсорный компонент 1114 содержит один или более сенсоров и выполнен с возможностью обеспечения различных аспектов оценки состояния системы 1100. Например, сенсорный компонент 1114 может обнаружить состояния вкл/выкл устройства 1100, относительное расположение компонентов, например дисплея и кнопочной панели прибора 1100, изменение положения системы 1100 или одного компонента системы 1100, наличие или отсутствие контакта между пользователем и системой 1100, а также ориентацию или ускорение/замедление и изменение температуры системы 1100. Сенсорный компонент 1114 содержит бесконтактный датчик, выполненный с возможностью обнаружения присутствия объекта, находящегося поблизости, когда нет физического контакта. Сенсорный компонент 1114 содержит оптический датчик (например, КМОП или ПЗС-датчик изображения), выполненный с возможностью использования в визуализации приложения. В некоторых вариантах сенсорный компонент 1114 содержит датчик ускорения, датчик гироскопа, магнитный датчик, датчик давления или датчик температуры.[000120] The sensor component 1114 contains one or more sensors and is configured to provide various aspects of assessing the state of the system 1100. For example, the sensor component 1114 can detect on / off states of the device 1100, the relative position of components, such as the display and keypad of the device 1100, change the position of the system 1100 or one component of the system 1100, the presence or absence of contact between the user and the system 1100, as well as the orientation or acceleration / deceleration and temperature change of the system 1100. Sensors component 1114 comprises a proximity sensor configured to detect the presence of an object in the vicinity when there is no physical contact. The sensor component 1114 comprises an optical sensor (e.g., CMOS or CCD image sensor) configured to be used in visualizing an application. In some embodiments, the sensor component 1114 comprises an acceleration sensor, a gyro sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.

[000121] Коммуникационный компонент 1116 выполнен с возможностью облегчения проводной или беспроводной связи между системой 1100 и другими устройствами. Система 1100 может получить доступ к беспроводной сети на основе стандартов связи, таких как Wi-Fi, 2G или 3G, или их комбинации. В одном примерном варианте компонент 1116 передачи данных получает широковещательный сигнал или трансляцию, связанную с ними информацию из внешней широковещательной системы управления через широковещательный канал. В одном варианте осуществления компонент 1116 передачи данных содержит модуль коммуникации ближнего поля (NFC), чтобы облегчить ближнюю связь. Например, модуль NFC может быть основан на технологии радиочастотной идентификации (RFID), технологии ассоциации передачи данных в инфракрасном диапазоне (IrDA), сверхширокополосной (UWB) технологии, Bluetooth (ВТ) технологии и других технологиях.[000121] The communication component 1116 is configured to facilitate wired or wireless communication between the system 1100 and other devices. System 1100 can access a wireless network based on communication standards such as Wi-Fi, 2G, or 3G, or a combination thereof. In one exemplary embodiment, the data transmission component 1116 receives a broadcast signal or broadcast, associated information from an external broadcast control system via a broadcast channel. In one embodiment, the data transmission component 1116 comprises a near field communication (NFC) module to facilitate near field communication. For example, the NFC module can be based on radio frequency identification (RFID) technology, infrared data association technology (IrDA), ultra-wideband (UWB) technology, Bluetooth (BT) technology, and other technologies.

[000122] В примерном варианте осуществления система 1100 может быть реализована посредством одной или более Специализированных Интегральных Схем (СИС), Цифрового Сигнального Процессора (ЦСП), Устройств Цифровой Обработки Сигнала (УЦОС), Программируемого Логического Устройства (ПЛУ), логической микросхемы, программируемой в условиях эксплуатации (ППВМ), контроллера, микроконтроллера, микропроцессора или других электронных компонентов и может быть сконфигурирована для реализации способа выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека.[000122] In an exemplary embodiment, system 1100 can be implemented by one or more Specialized Integrated Circuits (ICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPs), Programmable Logic Devices (PLCs), logic circuits programmed in operating conditions (PPVM), controller, microcontroller, microprocessor or other electronic components and can be configured to implement a method for identifying a living person in a sequence of frames by identifying the pulse in some parts of the human face.

[000123] В примерном варианте осуществления энергонезависимый компьютерно-читаемый носитель содержит также предусмотренные инструкции, например, память 1104 включает инструкции, где инструкции выполняются процессором 1118 системы 1100 для реализации описанных выше способов отображения альбома. Например, энергонезависимым компьютерно-читаемым носителем может быть ПЗУ, оперативное запоминающее устройство (ОЗУ), компакт-диск, магнитная лента, дискеты, оптические устройства хранения данных и тому подобное.[000123] In an exemplary embodiment, the non-volatile computer-readable medium also includes instructions provided, for example, memory 1104 includes instructions where instructions are executed by a processor 1118 of system 1100 to implement the album display methods described above. For example, a non-volatile computer-readable medium may be a ROM, random access memory (RAM), CD, magnetic tape, floppy disks, optical storage devices and the like.

[000124] В указанной системе 1100 процессор выполнен с возможностью:[000124] In the specified system 1100, the processor is configured to:

[000125] получения последовательности кадров;[000125] obtaining a sequence of frames;

[000126] выделения лица человека на изображении каждого кадра;[000126] highlighting a person’s face in the image of each frame;

[000127] разбивания площади изображения выделенного лица на сегменты в виде сетки;[000127] dividing the image area of the selected face into grid segments;

[000128] проведения временной и пространственной фильтрации сегментов изображения лица, полученных на предыдущем шаге;[000128] conducting temporal and spatial filtering of the face image segments obtained in the previous step;

[000129] определения наличия периодичности в изменении величины яркости сегментов изображений во всей последовательности кадров, которая свидетельствует о наличии пульса;[000129] determining the presence of periodicity in changing the brightness value of image segments in the entire sequence of frames, which indicates the presence of a pulse;

[000130] определения соответствия периодичности изменения величины яркости сегментов частоте пульса человека;[000130] determining the correspondence of the periodicity of the change in the magnitude of the brightness of the segments to the human pulse rate;

[000131] принятия решения о наличии живого человека в случае совпадения периодичности изменения величины яркости сегментов изображения и частоты пульса живого объекта.[000131] deciding on the presence of a living person in case of coincidence of the periodicity of the change in the magnitude of the brightness of the image segments and the pulse rate of the living object.

[000132] Подробное описание каждого шага, который выполняется процессором, описан выше при подробном раскрытии способа выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека.[000132] A detailed description of each step that is performed by the processor is described above with a detailed disclosure of a method for detecting a living person in a sequence of frames by detecting a pulse in certain areas of a person's face.

[000133] Специалист в данной области техники может легко понять другие варианты изобретения из рассмотренного описания технического решения. Это изобретение предназначено для того, чтобы покрыть любые варианты, использования или приспособления следующих общих принципов изобретения, включая такие отклонения от настоящего изобретения, которые появляются в пределах известной или обычной практики в уровне техники. Предполагается, что описание и примеры рассматриваются только как примерные, с сущностью и объемом настоящего изобретения, обозначенными формулой изобретения.[000133] A person skilled in the art can easily understand other variations of the invention from the above description of the technical solution. This invention is intended to cover any variations, uses or adaptations of the following general principles of the invention, including those deviations from the present invention that appear within the scope of known or ordinary practice in the art. It is assumed that the description and examples are considered only as exemplary, with the essence and scope of the present invention indicated by the claims.

[000134] Следует принимать во внимание, что настоящее изобретение не ограничивается точными конструкциями, которые были описаны выше и проиллюстрированы на прилагаемых чертежах, и что различные модификации и изменения могут быть сделаны без отхода от области его применения. Предполагается, что объем изобретения ограничен только прилагаемой формулой.[000134] It should be appreciated that the present invention is not limited to the precise constructions described above and illustrated in the accompanying drawings, and that various modifications and changes can be made without departing from its scope. It is intended that the scope of the invention be limited only by the appended claims.

КОНКРЕТНЫЙ ПРИМЕР ОСУЩЕСТВЛЕНИЯSPECIFIC EXAMPLE OF IMPLEMENTATION

[000135] Рассмотрим пример осуществления описанного выше способа выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека.[000135] Consider an example of the implementation of the above method of detecting a living person in a sequence of frames by detecting the pulse in certain areas of the person’s face.

[000136] Получают последовательность из 120 кадров.[000136] A sequence of 120 frames is obtained.

[000137] На каждом из кадров выделяют лицо человека посредством использования метода Виола Джонса, после чего разбивается лицо человека, как показано на Фиг. 8.[000137] On each of the frames, a person’s face is distinguished by using the Viola Jones method, after which the person’s face is broken, as shown in FIG. 8.

[000138] Затем осуществляют временную и пространственную фильтрацию сегментов изображения лица, полученных на предыдущем шаге, показанную на Фиг. 9, получая динамику изменения яркостей пикселей изображения.[000138] Then, temporal and spatial filtering of the face image segments obtained in the previous step shown in FIG. 9, obtaining the dynamics of changing the brightness of the image pixels.

[000139] Проверяют, есть ли периодичность в изменении яркостей каждого пикселя на примере динамики изменения яркости на исследуемых 120 картинках, полученных за 5 секунд (24 кадра в секунду) (Фиг. 10).[000139] Check if there is a periodicity in the brightness of each pixel on the example of the dynamics of brightness in the studied 120 pictures obtained in 5 seconds (24 frames per second) (Fig. 10).

[000140] Из полученной зависимости видно, что есть периодичность с частотой 0.8 Гц. Частота 0.8 Гц соответствует диапазону 0.66-3.33 Гц, что свидетельствует о том, что зафиксирован пульс человека на изображении. Если такая картина изменения динамики яркости наблюдается более чем на 95% сегментов, делается вывод, что на изображении находится лицо живого человека.[000140] From the obtained dependence it is seen that there is a periodicity with a frequency of 0.8 Hz. A frequency of 0.8 Hz corresponds to a range of 0.66-3.33 Hz, which indicates that a person’s pulse is recorded in the image. If such a picture of changes in brightness dynamics is observed in more than 95% of the segments, it is concluded that the face of a living person is on the image.

Claims (38)

1. Способ выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека, содержащий следующие шаги:1. A method for identifying a living person in a sequence of frames by detecting a pulse in certain areas of a person’s face, comprising the following steps: - получают последовательность кадров;- receive a sequence of frames; - выделяют лицо человека на изображении каждого кадра;- highlight the person’s face in the image of each frame; - разбивают площадь изображения выделенного лица на сегменты в виде сетки, причем более половины изображения разделяется на ячейки, отличающиеся друг от друга по площади не более чем в два раза;- divide the image area of the selected face into segments in the form of a grid, more than half of the image is divided into cells that differ from each other in area by no more than two times; - проводят временную и пространственную фильтрацию сегментов изображения лица, полученных на предыдущем шаге;- conduct temporary and spatial filtering of the face image segments obtained in the previous step; - определяют наличие периодичности в изменении величины яркости сегментов изображений во всей последовательности кадров, которая свидетельствует о наличии пульса;- determine the presence of periodicity in changing the brightness of image segments in the entire sequence of frames, which indicates the presence of a pulse; - определяют соответствие периодичности изменения величины яркости сегментов частоте пульса человека;- determine the correspondence of the periodicity of changes in the magnitude of the brightness of the segments to the pulse rate of a person; - принимают решение о наличии живого человека в случае совпадения периодичности изменения величины яркости сегментов изображения и частоты пульса живого объекта.- decide on the presence of a living person in case of coincidence of the periodicity of the change in the magnitude of the brightness of the image segments and the pulse rate of a living object. 2. Способ по п. 1, характеризующийся тем, что получают последовательность кадров в виде потокового видео, поступающего от источника видеоданных в реальном масштабе времени, или из хранилища с локального видеосервера, или центрального сервера.2. The method according to p. 1, characterized in that they receive a sequence of frames in the form of streaming video coming from a video source in real time, or from storage from a local video server, or a central server. 3. Способ по п. 1, характеризующийся тем, что получают последовательность кадров по потоковому протоколу реального времени RTSP, и/или RTMP, и/или HLS, и/или DASH.3. The method according to p. 1, characterized in that they receive a sequence of frames over the real-time streaming protocol RTSP, and / or RTMP, and / or HLS, and / or DASH. 4. Способ по п. 1, характеризующийся тем, что получают последовательность кадров в виде списка источников видеоданных различного качества и битрейта.4. The method according to p. 1, characterized in that they receive a sequence of frames in the form of a list of video sources of various quality and bit rate. 5. Способ по п. 1, характеризующийся тем, что получают последовательность кадров в компрессированном виде при помощи кодера Н.264, и/или VP8, и/или MJPEG, и/или JPEG, и/или JPEG2000.5. The method according to claim 1, characterized in that the sequence of frames in compressed form is obtained using an H.264 encoder, and / or VP8, and / or MJPEG, and / or JPEG, and / or JPEG2000. 6. Способ по п. 1, характеризующийся тем, что получают последовательность кадров по беспроводным сетям, таким как GSM, или CDMA, или LTE, или Wi-Fi.6. The method according to p. 1, characterized in that they receive a sequence of frames over wireless networks, such as GSM, or CDMA, or LTE, or Wi-Fi. 7. Способ по п. 1, характеризующийся тем, что при выделении лица человека на изображении используют метод Виола Джонса, или нейронную сеть, или метод гибкого сравнения на графах, или скрытые марковские модели.7. The method according to claim 1, characterized in that when highlighting a person’s face in the image, use the Viola Jones method, or a neural network, or a method of flexible comparison on graphs, or hidden Markov models. 8. Способ по п. 1, характеризующийся тем, что при разбиении площади изображения выделенного лица на сегменты в виде сетки форма сегмента круглая, или треугольная, или квадратная, или прямоугольная.8. The method according to p. 1, characterized in that when dividing the image area of the selected face into segments in the form of a grid, the shape of the segment is round, or triangular, or square, or rectangular. 9. Способ по п. 1, характеризующийся тем, что при проведении временной и пространственной фильтрации сегментов изображения лица фильтруются низкие частоты в последовательности кадров с понижением их разрешения.9. The method according to p. 1, characterized in that when conducting temporary and spatial filtering of segments of the image of the face low frequencies are filtered in a sequence of frames with a decrease in their resolution. 10. Способ по п. 1, характеризующийся тем, что при проведении временной и пространственной фильтрации сегментов изображения лица рассчитывают полную пирамиду Лапласа.10. The method according to p. 1, characterized in that when conducting temporary and spatial filtering of segments of the image of the face calculate the full Laplace pyramid. 11. Система выявления живого человека на последовательности кадров путем выявления пульса на отдельных участках лица человека, содержащая:11. A system for detecting a living person in a sequence of frames by detecting a pulse in certain areas of a person’s face, containing: - процессор;- processor; - память для хранения инструкций исполняемых процессором,- memory for storing instructions executed by the processor, при этом процессор выполнен с возможностью:wherein the processor is configured to: - получения последовательности кадров;- obtaining a sequence of frames; - выделения лица человека на изображении каждого кадра;- highlighting the person’s face in the image of each frame; - разбивания площади изображения выделенного лица на сегменты в виде сетки, причем более половины изображения разделяется на ячейки, отличающиеся друг от друга по площади не более чем в два раза;- dividing the area of the image of the selected face into segments in the form of a grid, more than half of the image being divided into cells that differ from each other in area by no more than two times; - проведения временной и пространственной фильтрации сегментов изображения лица, полученных на предыдущем шаге;- conducting temporal and spatial filtering of face image segments obtained in the previous step; - определения наличия периодичности в изменении величины яркости сегментов изображений во всей последовательности кадров, которая свидетельствует о наличии пульса;- determining the presence of periodicity in changing the brightness of image segments in the entire sequence of frames, which indicates the presence of a pulse; - определения соответствия периодичности изменения величины яркости сегментов частоте пульса человека;- determine the correspondence of the periodicity of changes in the magnitude of the brightness of the segments to the pulse rate of a person; - принятия решения о наличии живого человека в случае совпадения периодичности изменения величины яркости сегментов изображения частоте пульса живого объекта.- making a decision on the presence of a living person in case of coincidence of the periodicity of the change in the brightness of the image segments with the pulse rate of a living object. 12. Система по п. 11, в которой процессор является прикладным или графическим.12. The system of claim 11, wherein the processor is application or graphics. 13. Система по п. 11, в которой процессор получает последовательность кадров в виде потокового видео, поступающего от источника видеоданных в реальном масштабе времени, или из хранилища с локального видеосервера, или центрального сервера.13. The system of claim 11, wherein the processor receives a sequence of frames in the form of streaming video coming from a video source in real time or from storage from a local video server or central server. 14. Система по п. 11, в которой процессор получает последовательность кадров по потоковому протоколу реального времени RTSP, и/или RTMP, и/или HLS, и/или DASH.14. The system of claim 11, wherein the processor receives a sequence of frames over the real-time streaming protocol RTSP, and / or RTMP, and / or HLS, and / or DASH. 15. Система по п. 11, в которой процессор получает последовательность кадров в виде списка источников видеоданных различного качества и битрейта.15. The system according to claim 11, in which the processor receives a sequence of frames in the form of a list of video sources of various quality and bit rate. 16. Система по п. 11, в которой процессор получает последовательность кадров в компрессированном виде при помощи кодера Н.264, и/или VP8, и/или MJPEG, и/или JPEG, и/или JPEG2000.16. The system of claim 11, wherein the processor receives the sequence of frames in compressed form using an H.264 encoder, and / or VP8, and / or MJPEG, and / or JPEG, and / or JPEG2000. 17. Система по п. 11, в которой процессор получает последовательность кадров по беспроводным сетям, таким как GSM или CDMA или LTE или Wi-Fi.17. The system of claim 11, wherein the processor receives a frame sequence over wireless networks, such as GSM or CDMA or LTE or Wi-Fi. 18. Система по п. 11, в которой при выделении процессором лица человека на изображении используют метод Виола Джонса, или нейронную сеть, или метод гибкого сравнения на графах, или скрытые марковские модели.18. The system according to claim 11, in which, when the processor distinguishes a person’s face in the image, use the Viola Jones method, or a neural network, or the method of flexible comparison on graphs, or hidden Markov models. 19. Система по п. 11, в которой при разбиении процессором площади изображения выделенного лица на сегменты в виде сетки форма сегмента круглая, или треугольная, или квадратная, или прямоугольная.19. The system of claim 11, wherein when the processor breaks the image area of the selected face into segments in the form of a grid, the shape of the segment is round, or triangular, or square, or rectangular. 20. Система по п. 11, в которой при проведении процессором временной и пространственной фильтрации сегментов изображения лица фильтруются низкие частоты в последовательности кадров с понижением их разрешения.20. The system of claim 11, wherein when the processor performs temporal and spatial filtering of the face image segments, low frequencies are filtered in a sequence of frames with a decrease in their resolution. 21. Система по п. 11, в которой при проведении процессором временной и пространственной фильтрации сегментов изображения лица рассчитывают полную пирамиду Лапласа.21. The system according to claim 11, in which when the processor performs temporal and spatial filtering of segments of the image of the face, the full Laplace pyramid is calculated.
RU2016114489A 2016-04-14 2016-04-14 Method and system of identifying a living person in the sequence of images by identifying a pulse at separate parts of a face RU2644525C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2016114489A RU2644525C2 (en) 2016-04-14 2016-04-14 Method and system of identifying a living person in the sequence of images by identifying a pulse at separate parts of a face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2016114489A RU2644525C2 (en) 2016-04-14 2016-04-14 Method and system of identifying a living person in the sequence of images by identifying a pulse at separate parts of a face

Publications (2)

Publication Number Publication Date
RU2016114489A RU2016114489A (en) 2017-10-19
RU2644525C2 true RU2644525C2 (en) 2018-02-12

Family

ID=60120265

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016114489A RU2644525C2 (en) 2016-04-14 2016-04-14 Method and system of identifying a living person in the sequence of images by identifying a pulse at separate parts of a face

Country Status (1)

Country Link
RU (1) RU2644525C2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6141459A (en) * 1997-09-24 2000-10-31 Sarnoff Corporation Method and apparatus for processing image pyramid borders
US20020136448A1 (en) * 1998-07-20 2002-09-26 Lau Technologies. Real-time facial recognition and verification system
US6633655B1 (en) * 1998-09-05 2003-10-14 Sharp Kabushiki Kaisha Method of and apparatus for detecting a human face and observer tracking display
RU2316051C2 (en) * 2005-01-12 2008-01-27 Самсунг Электроникс Ко., Лтд. Method and system for automatically checking presence of a living human face in biometric safety systems
US20150186711A1 (en) * 2012-01-17 2015-07-02 Amazon Technologies, Inc. User authentication through video analysis
US20150381536A1 (en) * 2013-03-07 2015-12-31 Obshestvo S Ogranichennoy Otvetstvennostyu "Sinezis" Method and system for prompt video-data message transfer to personal devices
WO2016006027A1 (en) * 2014-07-07 2016-01-14 富士通株式会社 Pulse wave detection method, pulse wave detection program, and pulse wave detection device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6141459A (en) * 1997-09-24 2000-10-31 Sarnoff Corporation Method and apparatus for processing image pyramid borders
US20020136448A1 (en) * 1998-07-20 2002-09-26 Lau Technologies. Real-time facial recognition and verification system
US6633655B1 (en) * 1998-09-05 2003-10-14 Sharp Kabushiki Kaisha Method of and apparatus for detecting a human face and observer tracking display
RU2316051C2 (en) * 2005-01-12 2008-01-27 Самсунг Электроникс Ко., Лтд. Method and system for automatically checking presence of a living human face in biometric safety systems
US20150186711A1 (en) * 2012-01-17 2015-07-02 Amazon Technologies, Inc. User authentication through video analysis
US20150381536A1 (en) * 2013-03-07 2015-12-31 Obshestvo S Ogranichennoy Otvetstvennostyu "Sinezis" Method and system for prompt video-data message transfer to personal devices
WO2016006027A1 (en) * 2014-07-07 2016-01-14 富士通株式会社 Pulse wave detection method, pulse wave detection program, and pulse wave detection device

Also Published As

Publication number Publication date
RU2016114489A (en) 2017-10-19

Similar Documents

Publication Publication Date Title
KR102079091B1 (en) Terminal and image processing method thereof
WO2021017561A1 (en) Face recognition method and apparatus, electronic device, and storage medium
CN109086645B (en) Face recognition method and device and false user recognition method and device
KR20210047336A (en) Image processing method and apparatus, electronic device and storage medium
JP6134825B2 (en) How to automatically determine the probability of image capture by the terminal using context data
RU2628494C1 (en) Method and device for generating image filter
JP6391708B2 (en) Method and apparatus for acquiring iris image, and iris identification device
WO2017031901A1 (en) Human-face recognition method and apparatus, and terminal
CN108197586A (en) Recognition algorithms and device
WO2017128767A1 (en) Fingerprint template input method and device
KR20210065178A (en) Biometric detection method and device, electronic device and storage medium
US20180307903A1 (en) Sharing Identification Data with Audio/Video Recording and Communication Devices and Local Processing of the Shared Data
JP6964666B2 (en) Multi-beam selection method and equipment
JP2018500707A (en) Fingerprint authentication method and apparatus, program and recording medium
KR20200110642A (en) Image processing method and device, electronic device and storage medium
WO2022099989A1 (en) Liveness identification and access control device control methods, apparatus, electronic device, storage medium, and computer program
CN108363939B (en) Characteristic image acquisition method and device and user authentication method
CN108875544B (en) Face recognition method, device, system and storage medium
CN106980836B (en) Identity verification method and device
CN110019960A (en) Data processing method and device, electronic equipment and storage medium
KR101468381B1 (en) Method and apparatus for detecting fingerprint image
RU2644525C2 (en) Method and system of identifying a living person in the sequence of images by identifying a pulse at separate parts of a face
US20140278238A1 (en) Spectrometer for personal context
CN114882577B (en) Health state identification method and device, electronic equipment and computer readable medium
JP7480841B2 (en) Event management method, event management device, system and program

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20190415