RU161183U1 - HUMAN REGISTRATION AND RECOGNITION 3D DEVICE - Google Patents

HUMAN REGISTRATION AND RECOGNITION 3D DEVICE Download PDF

Info

Publication number
RU161183U1
RU161183U1 RU2015106183/02U RU2015106183U RU161183U1 RU 161183 U1 RU161183 U1 RU 161183U1 RU 2015106183/02 U RU2015106183/02 U RU 2015106183/02U RU 2015106183 U RU2015106183 U RU 2015106183U RU 161183 U1 RU161183 U1 RU 161183U1
Authority
RU
Russia
Prior art keywords
elements
image
projector
camera
paragraphs
Prior art date
Application number
RU2015106183/02U
Other languages
Russian (ru)
Inventor
Андрей Владимирович Климов
Original Assignee
Андрей Владимирович Климов
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Андрей Владимирович Климов filed Critical Андрей Владимирович Климов
Priority to RU2015106183/02U priority Critical patent/RU161183U1/en
Application granted granted Critical
Publication of RU161183U1 publication Critical patent/RU161183U1/en

Links

Images

Abstract

1. Устройство для выполнения 3Д измерений объекта, содержащее проектор с транспарантом изображений и источником света для проецирования на исследуемый объект изображения транспаранта, выполненного в виде совокупности геометрических элементов и камеру для регистрации изображения на объекте, размещенную относительно проектора с образованием триангуляционного угла между центральным лучом проектора и центральным лучом камеры, подключенную к ЭВМ, снабженной средствами хранения проецируемого изображения, записи и анализа искаженного рельефом поверхности исследуемого объекта проецируемого изображения и определения координат и монитор для формирования ЗД изображения объекта, отличающееся тем, что транспарант изображений выполнен в виде ортогональных рядов контрастно выделенных друг от друга двухмерных элементов, каждый из которых выполнен в виде, по меньшей мере, одной из двух разных геометрических форм, причем каждый ряд отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов.2. Устройство по п. 1, отличающееся тем, что элементы имеют постоянную оптическую плотность по всей их площади.3. Устройство по п. 1 или 2, отличающееся тем, что элементы на транспаранте расположены вертикальными и горизонтальными взаимно перпендикулярными рядами.4. Устройство по п. 3, отличающееся тем, что каждый ряд элементов по вертикали и по горизонтали выполнен с одинаковым количеством элементов.5. Устройство по п. 4, отличающееся тем, что элементы выполнены в форме круга, овала или эллипса.6. Устройство по п. 4, отличающееся тем, что элементы выполнены в форме многоугольников в виде квадрата, треугольника, прям1. A device for performing 3D measurements of an object, comprising a projector with an image transparency and a light source for projecting an image of a transparency made in the form of a set of geometric elements onto the object under study, and a camera for recording the image on the object located relative to the projector with the formation of a triangulation angle between the central beam of the projector and the central beam of the camera, connected to a computer equipped with means for storing the projected image, recording and analyzing distorted a surface fin of the studied object of the projected image and determination of coordinates and a monitor for generating a 3D image of the object, characterized in that the transparency of the images is made in the form of orthogonal rows of two-dimensional elements contrasted from each other, each of which is made in the form of at least one of two different geometric shapes, and each row differs from any neighboring row in the arrangement of at least one of the mentioned elements. 2. The device according to claim 1, characterized in that the elements have a constant optical density over their entire area. The device according to claim 1 or 2, characterized in that the elements on the banner are arranged in vertical and horizontal mutually perpendicular rows. The device according to claim 3, characterized in that each row of elements vertically and horizontally is made with the same number of elements. The device according to claim 4, characterized in that the elements are made in the form of a circle, oval or ellipse. 6. The device according to claim 4, characterized in that the elements are made in the form of polygons in the form of a square, triangle, straight

Description

Заявляемая полезная модель относится к области измерительной техники и может быть использовано для визуализации профилей трехмерных объектов методом “структурированной подсветки”, а также для решения задачи распознавания объектов за счет трехмерной регистрации их изображения.The inventive utility model relates to the field of measurement technology and can be used to visualize profiles of three-dimensional objects by the method of “structured illumination”, as well as to solve the problem of recognition of objects due to three-dimensional registration of their image.

Известны способы и устройства, реализующие принцип “структурированной подсветки”, которые используются в трехмерной компьютерной анимации и некоторых других приложениях для регистрации формы поверхности.Known methods and devices that implement the principle of "structured illumination", which are used in three-dimensional computer animation and some other applications for recording surface shapes.

Известен способ и устройство, его реализующее для бесконтактного контроля линейных размеров трехмерных объектов. Способ заключается в том, что последовательно сканируют отдельные контуры поверхности светящейся полосой, реализующей структурированную подсветку, и судят о контролируемых размерах по степени искажения изображения полосы и местоположению полосы в декартовой системе координат. Устройство, реализующее способ, содержит лазер, сканер, объектив, фоторегистратор, и блок обработки информации (WO 98/27514).A known method and device that implements it for contactless control of the linear dimensions of three-dimensional objects. The method consists in sequentially scanning individual surface contours with a luminous strip that implements structured illumination, and judges about the controlled sizes by the degree of distortion of the image of the strip and the location of the strip in the Cartesian coordinate system. A device that implements the method includes a laser, a scanner, a lens, a photographic recorder, and an information processing unit (WO 98/27514).

Недостатком известного устройства является низкая точность и длительное время контроля, связанные с наличием операции и блока сканирования.A disadvantage of the known device is the low accuracy and long monitoring time associated with the presence of the operation and the scanning unit.

Известно устройство для бесконтактного контроля и распознавания поверхностей трехмерных объектов методом структурированной подсветки, содержащее источник оптического излучения и последовательно установленные по ходу излучения транспарант, выполненный с возможностью формирования апериодической линейчатой структуры полос, афокальную оптическую систему для проецирования изображения транспаранта на контролируемую поверхность, приемный объектив, формирующий изображение картины линейчатой структуры, возникающей на поверхности контролируемого объекта, искаженной рельефом поверхности контролируемого объекта, фоторегистратор, преобразующий сформированное приемным объективом изображение в цифровое, вычислительный цифровой электронный блок, пересчитывающий фиксируемые фоторегистратором цифровые изображения в величины координат контролируемой поверхности по формулеA device for contactless control and recognition of surfaces of three-dimensional objects by the method of structured illumination, comprising a source of optical radiation and a banner sequentially installed along the radiation, configured to form an aperiodic line structure of strips, an afocal optical system for projecting a banner image onto a controlled surface, a receiving lens forming image of a pattern of a line structure arising on the surface of a con of the object being monitored, distorted by the relief of the surface of the object being monitored, a photorecorder that converts the image generated by the receiving lens into a digital, computing digital electronic unit that recalculates the digital images recorded by the photorecorder into the coordinates of the surface under control according to the formula

Z=Δy/tgα, где Z - значение высоты профиля поверхности контролируемого объекта в точке с координатами X, Y, пересекаемой какой-либо полосой линейчатой структуры; Y - величина искривления полосы в этой точке; α - угол между направлением излучения от источника оптического изображения и оптической осью объектива, электронный блок сложения цифровых изображений, отличающееся тем, что оно снабжено дополнительными N-1 источниками излучения, каждый из которых отличен по спектральному диапазону излучения от остальных, N-1 транспарантами, каждый из которых отличается от остальных хотя бы на одну полосу, N-1 объективами, установленными за транспарантами, N-1 зеркалами, установленными под углом 45° к оптической оси каждого из N-1 объектива перед второй компонентой афокальной оптической системы, вторыми N-1 зеркалами, установленными за приемным объективом под углом 45°. к оптической оси приемного объектива, N-1 вторичными приемными объективами, каждый из которых установлен за каждым из вторых N-1 зеркал и формирует совместно с приемным объективом изображение картин линейчатой структуры, возникающей на поверхности контролируемого объекта, искаженной рельефом поверхности контролируемого объекта, N-1 фоторегистраторами, каждый из которых имеет область спектральной чувствительности, совпадающую со спектральным диапазоном излучения одного из N-1 источников излучения, N-1 вычислительными цифровыми электронными блоками, электронный блок сложения изображений выполнен с числом входов, равным числу вычислительных цифровых электронных блоков, каждый из входов электронного блока сложения изображений соединен с выходом каждого вычислительного цифрового электронного блока, а число N определяется по формуле N=Log2(L), где L - число пар элементов пространственного разрешения фоторегистратора (RU 2199718).Z = Δy / tgα, where Z is the value of the height of the surface profile of the controlled object at a point with coordinates X, Y, intersected by any strip of a ruled structure; Y is the amount of curvature of the strip at this point; α is the angle between the direction of radiation from the optical image source and the optical axis of the lens, an electronic digital image addition unit, characterized in that it is equipped with additional N-1 radiation sources, each of which is different in the spectral range of radiation from the rest, N-1 transparencies, each of which differs from the rest by at least one strip, N-1 lenses mounted behind banners, N-1 mirrors mounted at an angle of 45 ° to the optical axis of each of the N-1 lenses in front of the second component ntoy afocal optical system, the second N-1 mirrors mounted for receiving the lens at an angle of 45 °. to the optical axis of the receiving lens, N-1 secondary receiving lenses, each of which is installed behind each of the second N-1 mirrors and forms, together with the receiving lens, an image of the patterns of a line structure that appears on the surface of the controlled object, distorted by the relief of the surface of the controlled object, N- 1 photorecorders, each of which has a spectral sensitivity region that matches the radiation spectral range of one of the N-1 radiation sources, N-1 computing digital blocks, the electronic image addition unit is made with the number of inputs equal to the number of digital digital electronic units, each of the inputs of the electronic image addition unit is connected to the output of each digital digital electronic unit, and the number N is determined by the formula N = Log2 (L), where L - the number of pairs of spatial resolution elements of the photorecorder (RU 2199718).

Наиболее близким к заявляемому является устройство, содержащее источник оптического излучения, модулятор, объектив, фоторегистратор, установленный в плоскости изображения объектива, цифровой электронный блок, блок индикации регистрируемого изображения. Вход цифрового электронного блока соединен с выходом фоторегистратора, а выход соединен с управляющим входом модулятора. Данное устройство реализует способ бесконтактного контроля линейных размеров трехмерных объектов, заключающийся в формировании на поверхности контролируемого объекта зондирующей структурированной подсветки путем освещения поверхности контролируемого объекта пучком оптического излучения, пространственно модулированного по интенсивности, регистрации изображения искаженной рельефом поверхности контролируемого объекта структуры зондирующей подсветки и определении высоты рельефа поверхности контролируемого объекта по степени искажения изображения структуры зондирующей подсветки, двух других координат - по положению искажений структуры подсветки в зарегистрированном изображении, управляют модуляцией пучка оптического излучения по двум координатам и спектру, создавая на поверхности контролируемого объекта изображение структурированной подсветки в виде совокупности зон, каждая из которых отлична от остальных (RU 2199716 прототип).Closest to the claimed is a device containing an optical radiation source, a modulator, a lens, a photographic recorder mounted in the plane of the image of the lens, a digital electronic unit, a display unit of the recorded image. The input of the digital electronic unit is connected to the output of the photorecorder, and the output is connected to the control input of the modulator. This device implements a method of contactless control of the linear dimensions of three-dimensional objects, which consists in forming a probing structured illumination on the surface of the controlled object by illuminating the surface of the controlled object with a beam of optical radiation spatially modulated in intensity, recording an image of the surface of the controlled object of the probing illumination distorted by the relief, and determining the height of the surface relief controlled object by degree and sayings of the image of the probe illumination structure, two other coordinates - according to the position of the distortion of the backlight structure in the recorded image, control the modulation of the optical beam in two coordinates and spectrum, creating a structured illumination image on the surface of the controlled object as a set of zones, each of which is different from the others ( RU 2199716 prototype).

Недостатками известного решения является сложность формирования зон структурированной подсветки, пригодной для мелких элементов объекта, тем более, подвижного, низкая точность получаемого изображения из-за неэффективного кодирования изображения и неоптимального взаимного расположения источника излучения и фоторегистратора.The disadvantages of the known solution are the difficulty of forming zones of structured illumination suitable for small elements of an object, especially a mobile one, low accuracy of the resulting image due to inefficient coding of the image and non-optimal relative position of the radiation source and the photo recorder.

Технической задачей заявленной полезной модели является создание эффективного устройства 3Д измерений для идентификации объекта, а также расширение арсенала устройств идентификации объекта и распознавания лица человека.The technical task of the claimed utility model is to create an effective 3D measurement device for identifying an object, as well as expanding the arsenal of devices for identifying an object and recognizing a person's face.

Технический результат, обеспечивающий решение поставленной задачи, состоит в упрощении формирования и возможности нахождения зон структурированной подсветки, выполняемой в виде чередующихся геометрических элементов и образуемых из них фрагментов и столбцов с легко выбираемым количеством элементов, пригодной для измерений мелких деталей объекта - преимущественно лица человека, в том числе, подвижного, повышение точности получаемого изображения благодаря оптимальному кодированию изображения для структурированной подсветки с помощью двух однозначно визуально отличимых друг от друга видов геометрических элементов и фрагментов, и оптимального взаимного расположения источника излучения и фоторегистратора. При этом обеспечивается возможность одновременного распознавания двух лиц и распознавание лица движущегося человека.The technical result that provides a solution to the problem is to simplify the formation and the possibility of finding areas of structured illumination, performed in the form of alternating geometric elements and fragments and columns formed from them with an easily selectable number of elements suitable for measuring small parts of an object - mainly a person’s face, in including mobile, improving the accuracy of the resulting image due to the optimal coding of the image for structured illumination using of two types of geometric elements and fragments that are uniquely visually distinguishable from each other, and the optimal relative position of the radiation source and the photographic recorder. This provides the ability to simultaneously recognize two faces and face recognition of a moving person.

Сущность полезной модели состоит в том, что устройство для выполнения 3Д измерений объекта по вышеизложенному способу содержит проектор с транспарантом изображений и источником света для проецирования на исследуемый объект изображения транспаранта, выполненного в виде совокупности геометрических элементов,, и камеру для регистрации изображения на объекте, размещенную относительно проектора с образованием триангуляционного угла между центральным лучом проектора и центральным лучом камеры, подключенную к ЭВМ, снабженной средствами хранения проецируемого изображения, записи и анализа искаженного рельефом поверхности контролируемого объекта проецируемого изображения и определения координат, а также монитор для формирования 3Д изображения объекта, отличающееся тем, что проектор выполнен с транспарантом изображения виде ортогональных рядов контрастно выделенных друг от друга двухмерных элементов, выполненных каждый в виде, по меньшей мере, одной из двух разных геометрических форм, причем каждый ряд отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов.The essence of the utility model is that a device for performing 3D measurements of an object according to the above method comprises a projector with an image transparency and a light source for projecting a transparency image made in the form of a set of geometric elements onto the object under study, and a camera for recording the image on the object placed relative to the projector with the formation of a triangulation angle between the Central beam of the projector and the Central beam of the camera, connected to a computer equipped with means x injuring the projected image, recording and analyzing the projected image distorted by the relief of the surface of the controlled object and determining the coordinates, as well as a monitor for generating a 3D image of the object, characterized in that the projector is made with an image transparency in the form of orthogonal rows of two-dimensional elements contrasted from each other, made in the form of at least one of two different geometric shapes, and each row differs from any neighboring row in the order of arrangement, at least at least one of the mentioned elements.

Предпочтительно, элементы имеют постоянную оптическую плотность по всей их площади, элементы на транспаранте расположены вертикальными и горизонтальными взаимно перпендикулярными рядами, каждый ряд элементов по вертикали и по горизонтали выполнен с одинаковым количеством элементов, элементы имеют форму из группы круг, овал, эллипс элементы имеют форму многоугольников из группы квадрат, треугольник, прямоугольник, трапецияPreferably, the elements have a constant optical density over their entire area, the elements on the banner are arranged in vertical and horizontal mutually perpendicular rows, each row of elements vertically and horizontally is made with the same number of elements, the elements are in the form of a circle, oval, ellipse elements are shaped polygons from the group square, triangle, rectangle, trapezoid

Предпочтительно, половина элементов выполнена в геометрической форме квадрата, а остальные - в геометрической форме прямоугольника, причем элементы в геометрической форме прямоугольника выполнены с длиной, равной стороне элементов в геометрической форме квадрата.Preferably, half of the elements are made in the geometric shape of a square, and the rest in the geometric shape of a rectangle, and the elements in the geometric shape of a rectangle are made with a length equal to the side of the elements in the geometric shape of a square.

Предпочтительно, процессор ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа столбцов из равного количества элементов каждого ряда проецируемого изображения, а также процессор ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа фрагментов проецируемого изображения, каждый из которых включает несколько строк в одном столбце.Preferably, the computer processor is configured to visually extract and individually analyze columns from an equal number of elements of each row of the projected image, and the computer processor is configured to visually highlight and individually analyze fragments of the projected image, each of which includes several rows in one column.

В частных случаях реализации проектор и камера выполнены с длиннофокусными объективами или проектор и камера выполнены с широкоугольными объективамиIn special cases, the projector and camera are made with long-focus lenses or the projector and camera are made with wide-angle lenses

Предпочтительно, проектор, камера, ЭВМ и монитор размещены в общем корпусе, а расстояние между камерой и проектором выбирается как произведение расстояния от проектора до точки пересечения центральных лучей проектора и камеры на тангенс триангуляционного угла между центральным лучом проектора и центральным лучом камеры. При этом проектор содержит источник излучения, объектив, транспарант с проецируемым изображением геометрических элементов и объектив для проецирования изображения с транспаранта на исследуемый объект, а камера содержит матрицу приемника камеры и объектив, установленный с возможностью проецирования изображения объекта исследования на матрицу приемника камеры.Preferably, the projector, camera, computer and monitor are located in a common housing, and the distance between the camera and the projector is selected as the product of the distance from the projector to the intersection of the central rays of the projector and the camera with the tangent of the triangulation angle between the central beam of the projector and the central beam of the camera. In this case, the projector contains a radiation source, a lens, a banner with a projected image of geometric elements and a lens for projecting an image from a banner onto the object under study, and the camera contains a camera receiver matrix and a lens mounted with the ability to project the image of the object of study onto the camera receiver matrix.

Устройство снабжено модулем беспроводных средств связи из группы: Bluetooth, WiFi, NFC для беспроводной передачи данных на другие устройства коммуникации, и разъемом для подключения внешних съемных накопителей для сохранения и передачи данных на другой компьютер (ЭВМ)., а также батареей для питания ЭВМ, 17, оно снабжено также контроллером для синхронизации источников света излучателя проектора.The device is equipped with a wireless communication module from the group: Bluetooth, WiFi, NFC for wireless data transfer to other communication devices, and a connector for connecting external removable drives to save and transfer data to another computer (computer)., As well as a battery for powering the computer, 17, it is also provided with a controller for synchronizing the light sources of the projector emitter.

Предпочтительно, устройство выполнено в виде моноблочного мобильного 3Д сканера, при этом его оборудование, в том числе, проектор, камера, ЭВМ и монитор, размещены в общем корпусе, снабженном ручкой.Preferably, the device is made in the form of a one-piece mobile 3D scanner, while its equipment, including a projector, a camera, a computer and a monitor, are placed in a common case equipped with a pen.

На чертеже фиг. 1 изображена принципиальная схема устройства для 3Д регистрации и распознавания лица человека, на фиг. 2 - вариант кодирования изображения слайда (транспаранта), на фиг. 3 и 4 - частные случаи реализации устройства по фиг. 1, на фиг. 5 - экран индикации положения человека перед устройством, на фиг. 6 и фиг. 7 - частные случаи формы используемых для кодирования геометрических элементов, проецируемых изображений транспаранта (слайда).In the drawing of FIG. 1 shows a schematic diagram of a device for 3D registration and recognition of a person’s face, FIG. 2 is a variant of encoding a slide image (transparency), in FIG. 3 and 4 are special cases of the implementation of the device of FIG. 1, in FIG. 5 is a screen for indicating the position of a person in front of the device, FIG. 6 and FIG. 7 - special cases of the form used for coding geometric elements, projected images of a banner (slide).

Устройство для выполнения 3Д измерений объекта конструктивно выполнено в виде моноблочного мобильного программируемого компьютерного устройства и содержит размещенные в общем корпусе 13 проектор 5 с объективом 4, транспарантом (слайд, матрица, трафарет) 3 изображений и источником 1 излучения (света) для проецирования на исследуемый объект 9 (и/или 16, 17) заранее известного изображения 10 транспаранта 3, выполненного в виде совокупности геометрических элементов, и камеру 6 с таким же объективом 4 для регистрации изображения 10 на объекте 9 (и/или 16, 17), размещенную относительно проектора с образованием триангуляционного угла α между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6. Камера 6 подключена к вычислительному модулю 7 ЭВМ, снабженной средствами (базой данных) 8 хранения исходного проецируемого изображения 10, записи и анализа принятого камерой 6 искаженного рельефом поверхности контролируемого объекта 9 (и/или 16, 17) изображения и определения координат, а также монитор (экран или дисплей) 26 для формирования 3Д изображения объекта, в частности, демонстрации лица человека. Проектор 5 выполнен с транспарантом (слайдом, трафаретом, или иным модулирующим средством) 3 изображения 10 в виде ортогональных (т.е. взаимно перпендикулярных на плоскости транспаранта 3) вертикальных и горизонтальных (по чертежу) рядов контрастно выделенных друг от друга двухмерных элементов 11, 12. Каждый из элементов 11, 12 выполнен в виде, по меньшей мере, одной из двух разных геометрических форм. Каждый из вертикальных и горизонтальных рядов элементов 11, 12 отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов 11, 12. Объект 9 это высокий человек в рабочей зоне устройства, объект 17 это человек высокого роста, который находится на удаленном расстоянии от устройства и обозначен на фиг. 1 силуэтом лица, объект 16 это человек низкого роста.A device for performing 3D measurements of an object is structurally made in the form of a monoblock mobile programmable computer device and comprises a projector 5 with a lens 4, a transparency (slide, matrix, stencil) of 3 images and a radiation source (light) 1 for projection onto the object under study located in a common housing 13 9 (and / or 16, 17) of the previously known image 10 of the banner 3, made in the form of a set of geometric elements, and a camera 6 with the same lens 4 for recording image 10 on the object 9 (and / or 16, 17) located relative to the projector with the formation of a triangulation angle α between the central beam 18 of the projector 5 and the central beam 19 of the camera 6. The camera 6 is connected to a computer computing module 7 equipped with means (database) 8 for storing the original projected image 10, recording and analyzing the received camera 6 distorted by the relief of the surface of the monitored object 9 (and / or 16, 17) of the image and determine the coordinates, as well as a monitor (screen or display) 26 for forming a 3D image of the object, in particular, demonstrating the human face eka. The projector 5 is made with a banner (slide, stencil, or other modulating means) 3 images 10 in the form of orthogonal (i.e. mutually perpendicular on the plane of the banner 3) vertical and horizontal (according to the drawing) rows of contrasting two-dimensional elements 11, 12. Each of the elements 11, 12 is made in the form of at least one of two different geometric shapes. Each of the vertical and horizontal rows of elements 11, 12 differs from any neighboring row in the arrangement of at least one of the said elements 11, 12. Object 9 is a tall person in the working area of the device, object 17 is a tall person who is on remote distance from the device and is indicated in FIG. 1 face silhouette, object 16 is a man of short stature.

Элементы 11, 12 имеют постоянную оптическую плотность (т.е. равномерную окраску или прозрачность) по всей их площади.Elements 11, 12 have a constant optical density (i.e., uniform color or transparency) over their entire area.

Каждый вертикальный и каждый горизонтальный ряд элементов 11, 12 (по вертикали и по горизонтали) выполнен с одинаковым количеством элементов 11, 12.Each vertical and each horizontal row of elements 11, 12 (vertically and horizontally) is made with the same number of elements 11, 12.

Элементы могут иметь форму из группы круг, овал, эллипс, в других случаях элементы 11, 12 имеют форму многоугольников из группы квадрат, треугольник, прямоугольник, трапеция. Элементы 11, 12 также могут иметь форму комбинации из нескольких геометрических фигур.Elements can be in the form of a circle, oval, ellipse, in other cases, elements 11, 12 are in the form of polygons from the square, triangle, rectangle, trapezoid. Elements 11, 12 may also be in the form of a combination of several geometric shapes.

В случае, изображенном на фиг. 2, половина элементов, например, элементы 12 выполнены в геометрической форме квадрата, а остальные элементы 11 - в геометрической форме прямоугольника.In the case of FIG. 2, half of the elements, for example, the elements 12 are made in the geometric shape of a square, and the remaining elements 11 in the geometric shape of a rectangle.

При этом элементы 11 в геометрической форме прямоугольника выполнены, предпочтительно, с длиной, равной стороне элементов 12 в геометрической форме квадрата.In this case, the elements 11 in the geometric shape of the rectangle are preferably made with a length equal to the side of the elements 12 in the geometric shape of the square.

Вычислительный модуль 7 ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа сплошных вертикальных столбцов 29 из равного количества элементов 11, 12 каждого ряда проецируемого изображения 10. Кроме того, вычислительный модуль 7 (процессор) ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа кодированных фрагментов 27 проецируемого изображения 10, каждый из которых включает несколько строк 28 с элементами 11, 12 из одного вертикального столбца 29. Кодированные фрагменты 27 на фиг. 2 имеют по три горизонтальных строки 28 и по четыре вертикальных ряда (3×4) элементов 11, 12.Computer computing module 7 is configured to visually highlight and individually analyze solid vertical columns 29 from an equal number of elements 11, 12 of each row of the projected image 10. In addition, computer computing module 7 (processor) is configured to visually highlight and individually analyze encoded fragments 27 the projected image 10, each of which includes several rows 28 with elements 11, 12 from one vertical column 29. Coded fragments 27 in FIG. 2 have three horizontal rows 28 and four vertical rows (3 × 4) of elements 11, 12.

Проектор 5 и камера 6 могут быть выполнены с длиннофокусными объективами, согласно фиг. 3, в других случаях реализации устройства проектор 5 и камера 6 выполнены с широкоугольными объективами согласно фиг. 4.The projector 5 and the camera 6 can be made with telephoto lenses, according to FIG. 3, in other implementations, the projector 5 and camera 6 are made with wide-angle lenses according to FIG. four.

Проектор 5, камера 6, вычислительный модуль 7 (процессор) ЭВМ и монитор 23 размещены в общем корпусе 13, а расстояние между камерой 6 и проектором 4 выбирается как произведение расстояния от проектора 5 до точки пересечения центральных лучей 18, 19 проектора 5 и камеры 6 на тангенс триангуляционного угла α между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6.The projector 5, camera 6, computing module 7 (processor), the computer and the monitor 23 are placed in a common housing 13, and the distance between the camera 6 and the projector 4 is selected as the product of the distance from the projector 5 to the intersection of the central rays 18, 19 of the projector 5 and camera 6 the tangent of the triangulation angle α between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.

Проектор 5 включает в себя источник 1 излучения, линзу 2 конденсора, транспарант (слайд, матрица, трафарет) 3 с проецируемым изображением 10 из геометрических элементов 11, 12 и объектив 4 для проецирования изображения 10 с транспаранта 3 на исследуемый объект.The projector 5 includes a radiation source 1, a condenser lens 2, a transparency (slide, matrix, stencil) 3 with a projected image 10 of geometric elements 11, 12 and a lens 4 for projecting the image 10 from the transparency 3 onto the object under study.

Камера 6 включает в себя матрицу приемника (не изображена) и объектив 4, установленный с возможностью проецирования изображения объекта 9 (16, 17) в виде изображений 14, 15 кодированных фрагментов 27, искаженных рельефом поверхности контролируемого объекта 9 (16, 17), принятых на матрицу приемника камеры 6.Camera 6 includes a receiver matrix (not shown) and a lens 4 mounted to project an image of object 9 (16, 17) in the form of images 14, 15 of coded fragments 27 distorted by the surface relief of the controlled object 9 (16, 17), adopted on the matrix of the camera receiver 6.

Проектор 5 устройства 13, как правило, расположен в рабочем помещении на заданной высоте от пола. Центральный луч 18 проектора 5 расположен горизонтально, т.е. параллельно полу. Высота расположения центрального луча 18 проектора 5 относительно пола определяется средним ростом людей, которые будут регистрироваться и распознаваться. На фиг. 3, 4 обозначены S - глубина рабочей зоны, h - высота расположения центрального луча 18 проектора 5 по отношению к полу.The projector 5 of the device 13, as a rule, is located in the working room at a given height from the floor. The central beam 18 of the projector 5 is horizontal, i.e. parallel to the floor. The height of the central beam 18 of the projector 5 relative to the floor is determined by the average height of people who will be registered and recognized. In FIG. 3, 4 are designated S - the depth of the working area, h - the height of the central beam 18 of the projector 5 with respect to the floor.

Высота “h” рассчитывается как средний рост минус 15 см. В таком случае центральный луч 18 проектора 5 должен попадать в середину лица человека среднего роста и одновременно в середину всего диапазона ростов людей, которые будут пользоваться данным устройством. Объектив 4 для проектора 5 и камеры 6 выбирается исходя из расстояния, на котором будут распознаваться люди - объекты 9 (16, 17). Устройство может быть снабжено экраном 26 индикации положения человека перед устройством с делениями 25 для позиционирования объекта (человека) 9 (16, 17) и выполнено с подвижным стилизованным силуэтом 24, показывающим текущее положение человека относительно делений 25.The height “h” is calculated as the average height minus 15 cm. In this case, the central beam 18 of the projector 5 should fall in the middle of the face of a person of average height and at the same time in the middle of the whole range of height of people who will use this device. The lens 4 for the projector 5 and camera 6 is selected based on the distance at which people will be recognized - objects 9 (16, 17). The device can be equipped with a screen 26 for indicating the position of the person in front of the device with divisions 25 for positioning the object (person) 9 (16, 17) and is made with a movable stylized silhouette 24, showing the current position of the person relative to the divisions 25.

Устройство 13 снабжено модулем (не изображен) беспроводных средств связи из группы: Bluetooth, WiFi, NFC для беспроводной передачи данных на другие устройства коммуникации, и разъемом для подключения внешних съемных накопителей для сохранения и передачи данных на другой компьютер (ЭВМ), а также батареей (не изображены) для питания ЭВМ, а также средствами (не изображены) дистанционного управления турникетом 21 и/или дверью 22.The device 13 is equipped with a module (not shown) of wireless communications from the group: Bluetooth, WiFi, NFC for wireless data transfer to other communication devices, and a connector for connecting external removable drives for saving and transferring data to another computer (computer), as well as a battery (not shown) for powering the computer, as well as means (not shown) for remote control of the turnstile 21 and / or door 22.

Устройство снабжено контроллером (не изображен) для синхронизации источников света излучателя проектора.The device is equipped with a controller (not shown) to synchronize the light sources of the projector emitter.

Оборудование устройства, в том числе, проектор 5, камера 6, вычислительный модуль 7 ЭВМ, база 8 данных и монитор 23, размещены в общем корпусе 13, снабженном ручкой (не изображена). Камера 6 и проектор 5 подключены к вычислительному модулю 7, который подключен к базе 8 данных (памяти) и к монитору 23.The equipment of the device, including a projector 5, a camera 6, a computer computing module 7, a database 8 and a monitor 23, are housed in a common housing 13 provided with a handle (not shown). The camera 6 and the projector 5 are connected to the computing module 7, which is connected to the database 8 of the data (memory) and to the monitor 23.

Устройство 3д регистрации и распознавания лица человека функционирует следующим образом.The device 3D registration and facial recognition of a person operates as follows.

Устройство выполняет, преимущественно, построение трехмерной модели лица человека. Устройство сохраняет трехмерные измерения лица в память ЭВМ или базу 8 данных. На лицо (исследуемый объект) 9 (16, 17) с помощью проектора 5 проецируется изображение 10.The device primarily performs the construction of a three-dimensional model of a person’s face. The device saves three-dimensional face measurements in a computer memory or database 8 data. An image 10 is projected onto the face (object under study) 9 (16, 17) using a projector 5.

При этом с помощью проектора 5 проецируют на исследуемый объект 9 (16, 17) заранее известное структурированное изображение 10, регистрируют отраженный объектом 9 (16, 17) свет проектора 5 с помощью камеры 6, размещенной с образованием триангуляционного угла α между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6 и производят с ее помощью регистрацию изображений 14, 15 искаженных рельефом поверхности контролируемого объекта 9 (16, 17) фрагментов 27, с определением высоты рельефа поверхности контролируемого объекта 9 (16, 17) по степени искажения структуры изображения 14, 15, а двух других координат - по положению искажений структуры подсветки в зарегистрированном изображении 14, 15. При этом триангуляционный угол α между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6 выбирают равным арктангенсу отношения расстояния между камерой 6 и проектором 5 к расстоянию от проектора 5 до точки пересечения центральных лучей 18, 19 проектора 5 и камеры 6.In this case, using a projector 5, a previously known structured image 10 is projected onto the object 9 (16, 17) being studied, the light of the projector 5 reflected by object 9 (16, 17) is recorded using a camera 6, which is placed to form a triangulation angle α between the central beam 18 of the projector 5 and the central beam 19 of camera 6 and with its help register images 14, 15 of fragments 27 distorted by the relief of the surface of the controlled object 9 (16, 17), with determining the height of the relief of the surface of the controlled object 9 (16, 17) by the degree of distortion the image structure 14, 15, and two other coordinates - according to the position of the distortion of the backlight structure in the registered image 14, 15. In this case, the triangulation angle α between the central beam 18 of the projector 5 and the central beam 19 of the camera 6 is chosen equal to the arctangent of the ratio of the distance between the camera 6 and the projector 5 to the distance from the projector 5 to the intersection of the central rays 18, 19 of the projector 5 and the camera 6.

Расстояние между камерой 6 и проектором 5 выбирается как произведение расстояния от проектора 5 до точки пересечения центральных лучей 18, 19 проектора 5 и камеры 6 на тангенс триангуляционного угла α между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6.The distance between the camera 6 and the projector 5 is selected as the product of the distance from the projector 5 to the intersection of the central rays 18, 19 of the projector 5 and the camera 6 by the tangent of the triangulation angle α between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.

На изображении 14, 15 камеры 6 определяют продольные координаты центров изображений 14, 15 и вертикальные координаты, как частное от деления продольной координаты на тангенс триангуляционного угла α между центральным лучом 18 проектора 5 и центральными лучом 19 камеры 6.In the image 14, 15 of the chamber 6, the longitudinal coordinates of the centers of the images 14, 15 and the vertical coordinates are determined as the quotient of the division of the longitudinal coordinate by the tangent of the triangulation angle α between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.

При этом проецируют изображение 19 виде ортогональных (взаимно перпендикулярных) вертикальных и горизонтальных (по фиг. 1, 6, 7) рядов контрастно выделенных друг от друга двухмерных элементов 11, 12, выполненных каждый в виде, по меньшей мере, одной из двух разных геометрических форм. Каждый ряд элементов 11, 12 отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов 11, 12. Структурирование изображения 10 выполняют путем визуального выделения и индивидуального анализа (сплошных по высоте изображения 10) вертикальных столбцов 29, состоящих из равного количества горизонтальных строк 28 элементов 11, 12, включающих равное количество последовательно расположенных элементов 11 или 12 из каждого ряда проецируемого изображения 10, а также виртуального оптического выделения и индивидуального анализа фрагментов 27 проецируемого изображения 10, каждый из которых включает несколько строк 28 элементов 11, 12 из одного столбца 29. Элементы 11, 12 проецируемого изображения 10 имеют постоянную оптическую плотность по всей их площади, т.е. окрашены или прозрачны одинаково.At the same time, the image 19 is projected in the form of orthogonal (mutually perpendicular) vertical and horizontal (in FIGS. 1, 6, 7) rows of two-dimensional elements 11, 12 contrastingly separated from each other, each made in the form of at least one of two different geometric forms. Each row of elements 11, 12 differs from any neighboring row in the arrangement of at least one of the said elements 11, 12. Structuring of the image 10 is carried out by visual selection and individual analysis (continuous in height of the image 10) of vertical columns 29, consisting of the number of horizontal rows of 28 elements 11, 12, including an equal number of consecutive elements 11 or 12 from each row of the projected image 10, as well as virtual optical selection and individual analyzing fragments ceiling elements 27, the projected image 10, each of which includes several rows of elements 28, 11, 12 of a column 29. The elements 11, 12 of the projected image 10 have constant absorbance throughout their area, i.e. colored or transparent the same.

Каждый ряд элементов 11, 12 проецируемого изображения 10 по вертикали и по горизонтали выполнен с одинаковым количеством элементов 11, 12.Each row of elements 11, 12 of the projected image 10 vertically and horizontally is made with the same number of elements 11, 12.

Элементы 11, 12 проецируемого изображения 10 могут иметь геометрическую форму из группы круг, овал, эллипс и/или форму многоугольников из группы квадрат, треугольник, прямоугольник, трапеция или комбинированную форму.Elements 11, 12 of the projected image 10 may have a geometric shape from a circle, oval, ellipse and / or polygon shape from a square, triangle, rectangle, trapezoid, or combined shape.

Предпочтительно половина элементов 10 проецируемого изображения выполнена в геометрической форме квадрата, а остальные элементы 11 - в геометрической форме прямоугольника.Preferably, half of the elements 10 of the projected image are made in the geometric shape of a square, and the remaining elements 11 in the geometric shape of a rectangle.

Элементы 11 проецируемого изображения 10 в геометрической форме прямоугольника выполнены с длиной, равной стороне элементов 12 в геометрической форме квадрата.The elements 11 of the projected image 10 in the geometric shape of a rectangle are made with a length equal to the side of the elements 12 in the geometric shape of a square.

Измерения и распознавание лица человека 9 (16, 17) производят с помощью вычислительного модуля 7 ЭВМ, при этом 3Д изображение формируют на мониторе 23 ЭВМ.Measurements and recognition of a person’s face 9 (16, 17) are performed using a computer computing module 7, while a 3D image is formed on a computer monitor 23.

Каждый кодированный фрагмент 27 изображения 10 состоит из элементов 11, 12, которые в целях цифровой обработки принятого камерой 6 изображения структурированной подсветки рассматриваются как “0” и “1”, соответственно. Элемент “0” это прямоугольный элемент 11, у которого длинна в 2 раза больше чем толщина. Элемент “1” имеет ширину в три раза большую, чем у элемента “0” и длину в 2 раза большую, чем ширина элемента “0”. На фиг. 2 изображение слайда 3 представлено в виде негатива с черными элементами 11, 12, на реальном слайде - это прозрачные участки через которые проходит свет от источника 1 света.Each encoded fragment 27 of image 10 consists of elements 11, 12, which, for the purpose of digitally processing the structured backlight image received by camera 6, are considered as “0” and “1”, respectively. Element “0” is a rectangular element 11, which is 2 times longer than its thickness. Element “1” has a width three times greater than that of element “0” and a length 2 times greater than the width of element “0”. In FIG. 2, the image of slide 3 is presented in the form of a negative with black elements 11, 12; on a real slide, these are transparent areas through which light from light source 1 passes.

Таким образом, каждый фрагмент 27 (фиг. 2) на изображении 10 состоит из четырех элементов “0” и “1” расположенных справа налево по горизонтали и трех элементов “0” и “1” расположенных сверху вниз по вертикали. Т.е. каждый фрагмент 27 изображения 10 состоит из четырех вертикальных рядов и трех горизонтальных строк 28. В каждой строке 28 и в каждом вертикальном ряду находятся кодированные элементы “0” и “1”. Т.е каждый кодированный фрагмент 27 изображения 10 состоит из двенадцати элементов “0” или “1”. Изображение виртуально делится на вертикальные столбцы 29 из фрагментов 27. Через каждые четыре столбца фрагментов 27 по горизонтали фрагмент 27 изображения 10 повторяется. По вертикали каждого столбца 29, если на изображении 10 сдвигаться на строчку вниз, каждый фрагмент 27 уникален и не повторяется в своем столбце. Фрагменты 27 изображения 10 образуют последовательность, таким образом, что две строчки 28 каждого следующего в столбце 29 по вертикали фрагмента 27 изображения 10 являются частью предыдущего фрагмента 27. Это целесообразно для более точной расшифровки изображения, принятого камерой 6, потому что часть фрагмента 27 проецируемого изображения 10 может искажаться геометрией объекта 9 (16, 17), от которого отражается спроецированное изображение 10, и на изображении камеры 6 некоторые части фрагментов 27 изображения 10 могут пропадать. При расшифровке удается определенно идентифицировать хотя бы один фрагмент 27 изображения 10, благодаря тому, что фрагменты 27 изображения 10 образуют столбцы 29, в которой две горизонтальные строчки 28 каждого следующего фрагмента 27 являются частью предыдущего фрагмента 27 изображения 10 В результате можно оценить какой именно фрагмент 27 будет расположен сверху или снизу от найденного фрагмента 27 на изображении принятом камерой 6.Thus, each fragment 27 (Fig. 2) in image 10 consists of four elements “0” and “1” located horizontally from right to left and three elements “0” and “1” located vertically from top to bottom. Those. each fragment 27 of image 10 consists of four vertical rows and three horizontal lines 28. In each line 28 and in each vertical row there are coded elements “0” and “1”. That is, each encoded fragment 27 of image 10 consists of twelve elements “0” or “1”. The image is virtually divided into vertical columns 29 from fragments 27. Every four columns of fragments 27 horizontally, fragment 27 of image 10 is repeated. The vertical of each column 29, if you move down a line in image 10, each fragment 27 is unique and does not repeat in its column. Fragments 27 of image 10 form a sequence, so that two lines 28 of each next vertical column 29 in column 29 of image 10 are part of the previous fragment 27. This is useful for more accurate interpretation of the image received by camera 6, because part of fragment 27 of the projected image 10 may be distorted by the geometry of the object 9 (16, 17), from which the projected image 10 is reflected, and on the camera image 6, some parts of the fragments 27 of the image 10 may disappear. When decoding, it is possible to definitely identify at least one fragment 27 of image 10, due to the fact that fragments 27 of image 10 form columns 29, in which two horizontal lines 28 of each next fragment 27 are part of the previous fragment 27 of image 10 As a result, it is possible to evaluate which fragment 27 will be located above or below the found fragment 27 in the image received by the camera 6.

В соответствии с числом возможных сочетаний составляется 216 вариантов фрагментов 27 по четыре элемента 11, 12 в каждой горизонтальной строке (ряду) и по три элемента 11, 12 в каждой вертикальной строке, что образует уникальный, т.е. не разу не повторяющийся фрагмент 27 изображения 10 в столбце 29 из фрагментов 27. Из таких столбцов 29 составлено изображение 10 слайда 3, которое проецируется на объект 9 (16, 17) с помощью проектора 5. В каждом столбце 29 изображения 10 имеются 216 фрагментов 27 и через каждые четыре столбца 29 последовательность из 216 фрагментов 27 повторяется.In accordance with the number of possible combinations, 216 variants of fragments 27 are composed of four elements 11, 12 in each horizontal row (row) and three elements 11, 12 in each vertical row, which forms a unique one, i.e. never repeating fragment 27 of image 10 in column 29 of fragments 27. Of these columns 29, image 10 of slide 3 is compiled, which is projected onto object 9 (16, 17) using a projector 5. In each column 29 of image 10 there are 216 fragments 27 and every four columns 29, the sequence of 216 fragments 27 is repeated.

Уникальные кодированные фрагменты 27 изображения 10 расположены по вертикали друг над другом потому, что из за параллакса между камерой 6 и проектором 5 в вертикальной плоскости фрагмент 27 изображения 10 находятся в разных местах на изображении, полученном с камеры 6 в зависимости от того на каком расстоянии от устройства 13 находится объект 9 (16, 17).The unique coded fragments 27 of the image 10 are arranged vertically one above the other because, due to the parallax between the camera 6 and the projector 5 in the vertical plane, the fragment 27 of the image 10 are located in different places on the image received from the camera 6 depending on the distance from device 13 is the object 9 (16, 17).

Если объект 17 находится дальше от устройства 13, то кодированные фрагменты 27 на смещаются вниз на изображении камеры 6, а если объект находится ближе, то кодированные фрагменты 27 смещаются вверх на изображении, которое принимается камерой 6. Например, если кодированный фрагмент 27 изображения 10 спроецирован на объект 17, то на изображении, полученном с камеры 6, этот кодированный фрагмент 27 проецируется в нижнюю часть изображения камеры 6, на фиг. 1 это можно наблюдать как позицию 15. Если кодированный фрагмент 27 изображения 10 спроецирован на объект 9, а это тот же человек что и объект 17, который подошел ближе к устройству 13, то на изображении камеры 6 мы будем наблюдать его в верхней части изображения на фиг. 1, это можно наблюдать как позицию 14 изображения камеры 6.If the object 17 is further from the device 13, then the encoded fragments 27 are shifted down in the image of the camera 6, and if the object is closer, the encoded fragments 27 are shifted up in the image received by the camera 6. For example, if the encoded fragment 27 of the image 10 is projected on the object 17, then in the image received from the camera 6, this encoded fragment 27 is projected into the lower part of the image of the camera 6, in FIG. 1 this can be observed as position 15. If the encoded fragment 27 of image 10 is projected onto object 9, and this is the same person as object 17, who came closer to device 13, then in the image of camera 6 we will see it in the upper part of the image on FIG. 1, this can be observed as the position 14 of the image of the camera 6.

Таким образом, из соотношения z=y∗tgα можно определять на каком расстоянии находится человек и его лицо, а также части лица человека, т.е. получать 3д изображение лица человека. При расчете 3д изображения вычислительным модулем 7 учитываются также перспективные искажения и дисторсия линз объектива 4.Thus, from the relation z = y ∗ tgα, one can determine at what distance the person and his face are located, as well as parts of the person’s face, i.e. getting a 3D image of a person's face. When calculating the 3D image by the computing module 7, perspective distortions and distortion of the lenses of the lens 4 are also taken into account.

По горизонтали кодированные фрагменты 27 изображения 10 практически не смещаются, так как отсутствует параллакс между камерой 6 и проектором 5 в горизонтальной плоскости.Horizontal encoded fragments 27 of the image 10 are practically not shifted, since there is no parallax between the camera 6 and the projector 5 in the horizontal plane.

На изображении, принимаемом камерой 6, границы элементов 11, 12 и фрагментов 27 физически определяются как пиксели, яркость в которых выше заданного порога. Так как на камере 5 и на проекторе 5 стоят одинаковые объективы 4, то лучи на камере 6 и на проекторе 5 расходятся одинаково, т.е. любой элемент слайда 3 проектора 5, спроецированный на объект 9 (16, 17), занимает одинаковое кол-во пикселей на матрице камеры 6 вне зависимости от расстояния между камерой 6 и объектом 9 (16, 17). Таким образом, элементы 11, 12 (т.е. “0” или “1”) можно различать между собой по количеству рядом стоящих пикселей с яркостью выше пороговой. Например, если толщина элемента “0” занимает на матрице камеры 6 три пикселя, а длинна, соответственно, шесть пикселей, то если наблюдается восемнадцать рядом стоящих пикселей, яркость которых выше пороговой, значит в эту область матрицы камеры 6 спроецирован фрагмент “0”. Соответственно толщина и длина элемента “1” составляют, например (фиг. 2), шесть на шесть пикселей, то 36 рядом стоящих ярких пикселя означают, что это элемент “1”. Также можно определить границы фрагмента 27 как границы ярких пикселей с яркостью выше пороговой, которые расположены рядом с темными пикселями, яркость которых ниже пороговой.In the image received by the camera 6, the boundaries of the elements 11, 12 and fragments 27 are physically defined as pixels whose brightness is above a predetermined threshold. Since the same lenses 4 are located on the camera 5 and on the projector 5, the rays on the camera 6 and on the projector 5 diverge equally, i.e. any element of slide 3 of projector 5 projected onto object 9 (16, 17) takes the same number of pixels on the matrix of camera 6, regardless of the distance between camera 6 and object 9 (16, 17). Thus, the elements 11, 12 (ie, “0” or “1”) can be distinguished from each other by the number of adjacent pixels with a brightness above the threshold. For example, if the thickness of the element “0” occupies three pixels on the matrix of camera 6 and is six pixels long, respectively, then if eighteen adjacent pixels are located, the brightness of which is higher than the threshold, then the fragment “0” is projected into this area of the matrix of camera 6. Accordingly, the thickness and length of the element “1” are, for example (Fig. 2), six by six pixels, then 36 bright pixels adjacent to each other mean that it is the element “1”. You can also define the boundaries of fragment 27 as the boundaries of bright pixels with brightness above the threshold, which are located next to dark pixels whose brightness is below the threshold.

Для увеличения плотности слайда 3 темные промежутки между вертикальными рядами элементов 11, 12 могут быть заполнены элементами “0” как изображено на фиг. 6. В этом случае сначала находят элементы “1”, которые на фиг. 6 состоят из девяти ярких пикселей по вертикали и шести ярких пикселей по горизонтали (54 ярких пикселя, означающих элемент “1”), все остальные яркие группы ярких пикселей считаются элементами “0”.To increase the density of the slide 3, dark spaces between the vertical rows of elements 11, 12 can be filled with elements “0” as shown in FIG. 6. In this case, the elements “1” are first found, which in FIG. 6 consist of nine bright pixels vertically and six bright pixels horizontally (54 bright pixels, meaning element “1”), all other bright groups of bright pixels are considered elements “0”.

В частных случаях реализации, приведенных на фиг. 3, 4, устройство используется для контроля доступа в помещение или учета времени пребывания человека в помещении - например, для учета рабочего времени сотрудникаIn particular cases of the implementation shown in FIG. 3, 4, the device is used to control access to the room or record the time a person is in the room - for example, to record the employee’s working time

В устройстве по фиг. 3 используются длиннофокусные объективы 4 проектора 5 и камеры 6 с таким апертурным углом β (апертурный угол - угол между крайним лучом конического светового пучка на входе (выходе из) оптической системы и ее оптической осью), чтобы на расстоянии от В равном 80 см до A равном 160 см лица людей с ростом от 150 см до 200 см попадали в поле зрения камеры 6. Устройство в корпусе 13 стоит на определенной высоте h, либо на специальной подставке или на турникете и покрывает своим полем зрения весь проход в котором могут находится люди, когда они проходят через проходную в которой организован проход, например, через турникеты 21, автоматические калитки, вертушки или другие ограничивающие проход средства. В этом случае лицо человека 9 (16, 17) может распознаваться комфортно в достаточно большом диапазоне расстояний от устройства и он может идти не останавливаясь перед устройством, потому что за тот период времени что человек 9 (16, 17) находится в рабочей зоне 20 устройства, камера 6 успеет снять и вычислительный модуль 7 обработать несколько кадров которых будет достаточно для распознавания. Например, человек 9 (16, 17) движется со скоростью 5 км в час, т.е. 1,38 метров в секунду этот человек 9 (16, 17) находится в рабочей зоне 20 камеры 6 в течение 0.58 секунды. За это время обычная камера 6, которая работает со скоростью 25 кадров в секунду успевает получить около 13 кадров в которых присутствует изображение человека 9 (16, 17), проходящего через турникет 21, этого достаточно для уверенного распознавания.In the device of FIG. 3, long-focus lenses 4 of the projector 5 and camera 6 are used with such an aperture angle β (the aperture angle is the angle between the extreme beam of the conical light beam at the input (output) of the optical system and its optical axis) so that at a distance from B equal to 80 cm to A equal to 160 cm, people's faces with growth from 150 cm to 200 cm fell into the field of view of camera 6. The device in case 13 stands at a certain height h, either on a special stand or on a turnstile and covers with its field of view the entire passage in which people can be, when they go through pr Khodnev wherein arranged extending, for example, through the turnstiles 21, automatic wicket, turntables or other means limiting passage. In this case, the face of a person 9 (16, 17) can be recognized comfortably in a sufficiently large range of distances from the device and he can go without stopping in front of the device, because for that period of time that person 9 (16, 17) is in the working area 20 of the device , the camera 6 will have time to take off and the computing module 7 will process several frames which will be enough for recognition. For example, person 9 (16, 17) moves at a speed of 5 km per hour, i.e. 1.38 meters per second, this person 9 (16, 17) is in the working area 20 of chamber 6 for 0.58 seconds. During this time, an ordinary camera 6, which works at a speed of 25 frames per second, manages to get about 13 frames in which there is an image of a person 9 (16, 17) passing through the turnstile 21, this is enough for reliable recognition.

В устройстве по фиг. 4 используются широкоугольные объективы 4 проектора 5 и камеры 6, что оптимально для распознавания на небольшом расстоянии от устройства на B расстоянии не дальше вытянутой руки, около 40 см. Это целесообразно в ограниченном пространстве, где проход специально не оборудован. Такое устройство предпочтительно снабжено экраном 26 индикации с делениями 25 для позиционирования объекта (человека) 9 (16, 17) и выполнено с подвижным стилизованным силуэтом 24, показывающим текущее положение человека относительно делений 25.In the device of FIG. 4, wide-angle lenses 4 of the projector 5 and camera 6 are used, which is optimal for recognition at a short distance from the device at a distance no further than an outstretched arm, about 40 cm. This is advisable in a confined space where the passage is not specially equipped. Such a device is preferably provided with a display screen 26 with divisions 25 for positioning the object (person) 9 (16, 17) and is made with a movable stylized silhouette 24, showing the current position of the person relative to the divisions 25.

Корпус 13 устройства может в этом случае висеть рядом с дверью 22 помещения, в которое осуществляется доступ. Рабочая зона устройства в этом случае не велика и для того чтобы человек 9 (16, 17) понимал на правильном расстоянии от устройства он расположен или нет используется экран 26 индикации положения человека перед устройством, с индикацией в с помощью делений 25 шкалы расстояний от устройства и символического силуэта 24 (фиг. 5), который располагается в разных частях шкалы в зависимости от того на каком расстоянии человек стоит от устройства. Если человек близко стоит перед устройством то символический силуэт располагается в верхней части шкалы, если человек отходит далеко от устройства, то силуэт смещается вниз шкалы. Делениями 25 обозначена рабочая зона 20. В этой зоне происходит устойчивое распознавание лица человека.In this case, the device casing 13 may hang next to the door 22 of the accessed room. The working area of the device in this case is not large and so that person 9 (16, 17) understands whether he is located at the correct distance from the device or not, a screen 26 is used to indicate the position of the person in front of the device, with an indication using the divisions 25 of the distance scale from the device and symbolic silhouette 24 (Fig. 5), which is located in different parts of the scale, depending on how far a person is from the device. If a person is standing in front of the device closely, then the symbolic silhouette is located at the top of the scale, if a person moves away from the device, the silhouette moves down the scale. The divisions 25 indicate the working zone 20. In this zone, a stable recognition of the person's face takes place.

Соответствие отсканированной и распознанной трехмерной модели лица производится визуально или машинным способом с предварительно сохраненной трехмерной моделью в базе 8 данных. В том случае, если распознанное лицо имеет право доступа в помещение или на объект, ЭВМ дает команду на освобождение турникета 21 или двери 22 для открывания. В случае, если обнаруженное лицо не имеет право доступа в помещение, ЭВМ блокирует открывание турникета 21 или двери 22, и может формировать сигнал на включение дополнительных сигнализирующих устройств и/или на срабатывание средств сигнализации и/или дополнительных исполнительных механизмов.Correspondence of the scanned and recognized three-dimensional model of the face is done visually or by machine with a previously saved three-dimensional model in the database 8 of the data. In the event that the recognized person has the right to access the premises or the object, the computer gives a command to release the turnstile 21 or door 22 for opening. In case the detected person does not have the right of access to the room, the computer blocks the opening of the turnstile 21 or door 22, and can generate a signal to turn on additional signaling devices and / or to trigger alarm devices and / or additional actuators.

Одновременно осуществляют передачу результатов измерений и распознавания с помощью дополнительно установленных беспроводных средств связи из группы: Bluetooth, WiFi, NFC (не изображено).At the same time, the results of measurements and recognition are transmitted using additionally installed wireless communications from the group: Bluetooth, WiFi, NFC (not shown).

За счет настоящего технического решения достигается упрощение формирования и распознавания зон структурированной подсветки, повышение точности получаемого изображения, распознавание двух лиц и лица движущегося человека.Due to this technical solution, simplification of the formation and recognition of zones of structured illumination, increasing the accuracy of the resulting image, recognition of two faces and faces of a moving person is achieved.

Claims (18)

1. Устройство для выполнения 3Д измерений объекта, содержащее проектор с транспарантом изображений и источником света для проецирования на исследуемый объект изображения транспаранта, выполненного в виде совокупности геометрических элементов и камеру для регистрации изображения на объекте, размещенную относительно проектора с образованием триангуляционного угла между центральным лучом проектора и центральным лучом камеры, подключенную к ЭВМ, снабженной средствами хранения проецируемого изображения, записи и анализа искаженного рельефом поверхности исследуемого объекта проецируемого изображения и определения координат и монитор для формирования ЗД изображения объекта, отличающееся тем, что транспарант изображений выполнен в виде ортогональных рядов контрастно выделенных друг от друга двухмерных элементов, каждый из которых выполнен в виде, по меньшей мере, одной из двух разных геометрических форм, причем каждый ряд отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов.1. A device for performing 3D measurements of an object, comprising a projector with an image transparency and a light source for projecting an image of a transparency made in the form of a set of geometric elements onto the object under study, and a camera for recording the image on the object located relative to the projector with the formation of a triangulation angle between the central beam of the projector and the central beam of the camera, connected to a computer equipped with means for storing the projected image, recording and analyzing distorted a surface fin of the studied object of the projected image and determination of coordinates and a monitor for generating a 3D image of the object, characterized in that the transparency of the images is made in the form of orthogonal rows of two-dimensional elements contrasted from each other, each of which is made in the form of at least one of two different geometric shapes, and each row differs from any neighboring row in the arrangement of at least one of the mentioned elements. 2. Устройство по п. 1, отличающееся тем, что элементы имеют постоянную оптическую плотность по всей их площади.2. The device according to p. 1, characterized in that the elements have a constant optical density over their entire area. 3. Устройство по п. 1 или 2, отличающееся тем, что элементы на транспаранте расположены вертикальными и горизонтальными взаимно перпендикулярными рядами.3. The device according to claim 1 or 2, characterized in that the elements on the banner are arranged in vertical and horizontal mutually perpendicular rows. 4. Устройство по п. 3, отличающееся тем, что каждый ряд элементов по вертикали и по горизонтали выполнен с одинаковым количеством элементов.4. The device according to p. 3, characterized in that each row of elements vertically and horizontally is made with the same number of elements. 5. Устройство по п. 4, отличающееся тем, что элементы выполнены в форме круга, овала или эллипса.5. The device according to p. 4, characterized in that the elements are made in the form of a circle, oval or ellipse. 6. Устройство по п. 4, отличающееся тем, что элементы выполнены в форме многоугольников в виде квадрата, треугольника, прямоугольника или трапеции.6. The device according to claim 4, characterized in that the elements are made in the form of polygons in the form of a square, triangle, rectangle or trapezoid. 7. Устройство по п. 6, отличающееся тем, что половина элементов выполнена в форме квадрата, а остальные - в форме прямоугольника.7. The device according to p. 6, characterized in that half of the elements are made in the form of a square, and the rest in the form of a rectangle. 8. Устройство по п. 7, отличающееся тем, что элементы в форме прямоугольника выполнены с длиной, равной стороне элементов в форме квадрата.8. The device according to claim 7, characterized in that the elements in the form of a rectangle are made with a length equal to the side of the elements in the form of a square. 9. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что процессор ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа9. The device according to any one of paragraphs. 1,2,4-8, characterized in that the computer processor is configured to visually highlight and individual analysis столбцов из равного количества элементов каждого ряда проецируемого изображения.columns of an equal number of elements of each row of the projected image. 10. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что процессор ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа фрагментов проецируемого изображения, каждый из которых включает несколько строк в одном столбце.10. The device according to any one of paragraphs. 1,2,4-8, characterized in that the computer processor is configured to visually highlight and individually analyze fragments of the projected image, each of which includes several rows in one column. 11. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что проектор и камера выполнены с длиннофокусными объективами.11. The device according to any one of paragraphs. 1,2,4-8, characterized in that the projector and camera are made with telephoto lenses. 12. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что проектор и камера выполнены с широкоугольными объективами.12. The device according to any one of paragraphs. 1,2,4-8, characterized in that the projector and camera are made with wide-angle lenses. 13. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что проектор, камера, ЭВМ и монитор размещены в общем корпусе, а расстояние между камерой и проектором выбирается как произведение расстояния от проектора до точки пересечения центральных лучей проектора и камеры на тангенс триангуляционного угла между центральным лучом проектора и центральным лучом камеры.13. The device according to any one of paragraphs. 1,2,4-8, characterized in that the projector, camera, computer and monitor are located in a common housing, and the distance between the camera and the projector is selected as the product of the distance from the projector to the intersection of the central rays of the projector and the camera with the tangent of the triangulation angle between the central projector beam and center camera beam. 14. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что проектор содержит источник излучения, объектив, транспарант с проецируемым изображением геометрических элементов и объектив для проецирования изображения с транспаранта на исследуемый объект.14. The device according to any one of paragraphs. 1,2,4-8, characterized in that the projector contains a radiation source, a lens, a banner with a projected image of geometric elements and a lens for projecting an image from a banner onto the object under study. 15. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что камера содержит матрицу приемника камеры и объектив, установленный с возможностью проецирования изображения объекта исследования на матрицу приемника камеры.15. The device according to any one of paragraphs. 1,2,4-8, characterized in that the camera contains a camera receiver matrix and a lens mounted with the ability to project the image of the object of study on the camera receiver matrix. 16. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что оно снабжено модулем беспроводных средств связи, выбранном из группы: Bluetooth, WiFi, NFC для беспроводной передачи данных на другие устройства коммуникации и разъемом для подключения внешних съемных накопителей для сохранения и передачи данных на другую ЭВМ, а также батареей для питания ЭВМ.16. The device according to any one of paragraphs. 1,2,4-8, characterized in that it is equipped with a wireless communication module selected from the group: Bluetooth, WiFi, NFC for wireless data transfer to other communication devices and a connector for connecting external removable drives for saving and transferring data to another A computer, as well as a battery for powering a computer. 17. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что оно снабжено контроллером для синхронизации источников света излучателя проектора.17. The device according to any one of paragraphs. 1,2,4-8, characterized in that it is equipped with a controller for synchronizing the light sources of the projector emitter. 18. Устройство по любому из пп. 1,2,4-8, отличающееся тем, что оно выполнено в виде моноблочного мобильного 3Д сканера, при этом проектор, камера, ЭВМ и монитор размещены в общем корпусе, снабженном ручкой.
Figure 00000001
18. The device according to any one of paragraphs. 1,2,4-8, characterized in that it is made in the form of a monoblock mobile 3D scanner, while the projector, camera, computer and monitor are placed in a common housing equipped with a handle.
Figure 00000001
RU2015106183/02U 2015-02-25 2015-02-25 HUMAN REGISTRATION AND RECOGNITION 3D DEVICE RU161183U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2015106183/02U RU161183U1 (en) 2015-02-25 2015-02-25 HUMAN REGISTRATION AND RECOGNITION 3D DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2015106183/02U RU161183U1 (en) 2015-02-25 2015-02-25 HUMAN REGISTRATION AND RECOGNITION 3D DEVICE

Publications (1)

Publication Number Publication Date
RU161183U1 true RU161183U1 (en) 2016-04-10

Family

ID=55660001

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2015106183/02U RU161183U1 (en) 2015-02-25 2015-02-25 HUMAN REGISTRATION AND RECOGNITION 3D DEVICE

Country Status (1)

Country Link
RU (1) RU161183U1 (en)

Similar Documents

Publication Publication Date Title
US10706571B2 (en) Imaging device, image processing device, storage medium, and imaging system
KR101605224B1 (en) Method and apparatus for obtaining depth information using optical pattern
US8538166B2 (en) 3D geometric modeling and 3D video content creation
CN100592029C (en) Ranging apparatus
CN103900494B (en) For the homologous points fast matching method of binocular vision 3 D measurement
CN104634276A (en) Three-dimensional measuring system, photographing device, photographing method, depth calculation method and depth calculation device
JP7450558B2 (en) Devices, methods and systems for generating dynamic projection patterns in cameras
CN102829736B (en) Three-dimensional fingerprint sensing system
US20080130015A1 (en) Three-Dimensional Measuring Apparatus, Three-Dimensional Measuring Method, And Three-Dimensional Measuring Program
CN107532885A (en) The depth for the object that Strength Changes in light pattern are used in volume is drawn
CN101482398B (en) Fast three-dimensional appearance measuring method and device
CN104145276A (en) Enhanced contrast for object detection and characterization by optical imaging
CN102959355A (en) Point cloud data processing device, point cloud data processing system, point cloud data processing method, and point cloud data processing program
CN105069789B (en) Structure light dynamic scene depth acquisition methods based on coding grid template
WO2022088886A1 (en) Systems and methods for temperature measurement
CN107860337A (en) Structural light three-dimensional method for reconstructing and device based on array camera
CN104634277A (en) Photographing device, photographing method, three-dimensional measuring system, depth calculation method and depth calculation device
CN108458731B (en) Method and system for visualizing three-dimensional data, machine-readable medium
US20220036118A1 (en) Systems, methods, and media for directly recovering planar surfaces in a scene using structured light
WO2014074003A1 (en) Method for monitoring linear dimensions of three-dimensional objects
JP2003097927A (en) System and method for three dimensional mapping, and structured light barcode pattern used for them
CN106643562A (en) Time domain and space domain hybrid coding based structured light fringe projection method
CN105354825A (en) Intelligent device for automatically identifying position of reading material in read-write scene and application of intelligent device
CN102750698B (en) Texture camera calibration device, texture camera calibration method and geometry correction method of texture image of texture camera
EP3232153B1 (en) Precision hand-held scanner

Legal Events

Date Code Title Description
MM1K Utility model has become invalid (non-payment of fees)

Effective date: 20160301

NF1K Reinstatement of utility model

Effective date: 20161227

PC91 Official registration of the transfer of exclusive right (utility model)

Effective date: 20180706