WO2016137351A1 - Method and device for the 3d registration and recognition of a human face - Google Patents

Method and device for the 3d registration and recognition of a human face Download PDF

Info

Publication number
WO2016137351A1
WO2016137351A1 PCT/RU2015/000117 RU2015000117W WO2016137351A1 WO 2016137351 A1 WO2016137351 A1 WO 2016137351A1 RU 2015000117 W RU2015000117 W RU 2015000117W WO 2016137351 A1 WO2016137351 A1 WO 2016137351A1
Authority
WO
WIPO (PCT)
Prior art keywords
elements
image
projector
camera
projected image
Prior art date
Application number
PCT/RU2015/000117
Other languages
French (fr)
Russian (ru)
Inventor
Андрей Владимирович КЛИМОВ
Original Assignee
Андрей Владимирович КЛИМОВ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Андрей Владимирович КЛИМОВ filed Critical Андрей Владимирович КЛИМОВ
Priority to PCT/RU2015/000117 priority Critical patent/WO2016137351A1/en
Publication of WO2016137351A1 publication Critical patent/WO2016137351A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Definitions

  • the claimed group of inventions relates to the field of measurement technology and can be used to visualize profiles of three-dimensional objects by the method of "structured illumination", as well as to solve the problem of recognition of objects due to three-dimensional registration of their image.
  • structured backlighting which are used in three-dimensional computer animation and some other applications for registering surface shapes.
  • a known method and device that implements it for contactless control of the linear dimensions of three-dimensional objects consist in sequentially scanning individual surface contours with a luminous strip that implements structured illumination, and judges about the controlled sizes by the degree of distortion of the image of the strip and the location of the strip in the Cartesian coordinate system.
  • a device that implements the method includes a laser, a scanner, a lens, a photographic recorder, and an information processing unit (WO 98/27514).
  • a disadvantage of the known device is the low accuracy and long monitoring time associated with the presence of the operation and the scanning unit.
  • a device for contactless control and recognition of surfaces of three-dimensional objects by the method of structured illumination comprising a source of optical radiation and a banner sequentially installed along the radiation, configured to form an aperiodic line structure of strips, an afocal optical system for projecting a banner image onto a controlled surface, a receiving lens forming image of a pattern of a line structure arising on the surface of a con trolled object distorted the surface relief of the controlled object, a photorecorder that converts the image generated by the receiving lens into a digital, computing digital electronic unit that recalculates the digital images recorded by the photorecorder into the coordinates of the controlled surface according to the formula
  • Z Ay / tan ⁇ , where Z is the value of the height profile of the surface of the controlled object at a point with coordinates X, Y, intersected by any strip of a ruled structure; Y is the amount of curvature of the strip at this point; and - the angle between the direction of radiation from the optical image source and the optical axis of the lens, an electronic digital image addition unit, characterized in that it is equipped with additional N-1 radiation sources, each of which is different in the spectral range of radiation from the rest, N-1 transparencies, each of which differs from the rest by at least one strip, N-1 lenses mounted behind banners, N-1 mirrors mounted at an angle of 45 ° to the optical axis of each of the N-1 lenses in front of the second component ntoy afocal optical system, the second N-1 mirrors mounted for receiving the lens at an angle of 45 °.
  • N-1 secondary receiving lenses each of which is installed behind each of the second N-1 mirrors and forms, together with the receiving lens, an image of the patterns of a line structure that appears on the surface of the controlled object, distorted by the relief of the surface of the controlled object
  • N- 1 photorecorders each of which has a spectral sensitivity region that matches the radiation spectral range of one of the N-1 radiation sources
  • a device containing an optical radiation source, a modulator, a lens, a photographic recorder mounted in the plane of the image of the lens, a digital electronic unit, a display unit of the recorded image.
  • the input of the digital electronic unit is connected to the output of the photorecorder, and the output is connected to the control input of the modulator.
  • This device implements a method of contactless control of the linear dimensions of three-dimensional objects, which consists in forming a probing structured illumination on the surface of the controlled object by illuminating the surface of the controlled object with a beam of optical radiation spatially modulated in intensity, recording an image of the surface of the controlled object of the probing illumination distorted by the relief, and determining the height of the surface relief controlled object by degree and sayings of the image of the probe illumination structure, two other coordinates - according to the position of the distortion of the backlight structure in the recorded image, control the modulation of the optical beam in two coordinates and spectrum, creating a structured illumination image on the surface of the controlled object as a set of zones, each of which is different from the others RU 2199716 prototype).
  • the disadvantages of the known solution are the difficulty of forming zones of structured illumination suitable for small elements of an object, especially a mobile one, low accuracy of the resulting image due to inefficient coding of the image and non-optimal relative position of the radiation source and the photo recorder.
  • the technical task of the claimed group of inventions united by a single inventive concept, is to create an effective method and device for 3D measurements to identify an object, as well as expanding the arsenal of methods and devices for identifying an object and recognizing a person's face.
  • the technical result that provides the solution of the problem, the claimed method and device consists in simplifying the formation and the possibility of finding areas of structured illumination, performed in the form of alternating geometric elements, as well as fragments and columns formed from them with an easily selectable number of elements suitable for measuring small parts of an object - mainly a person’s face, including a moving one, increasing the accuracy of the resulting image due to optimal image encoding I for structured illumination with the help of two types of geometric elements and fragments that are uniquely visually distinguishable from each other, and the optimal relative position of the radiation source and the photorecorder. This provides the ability to simultaneously recognize two faces and face recognition of a moving person.
  • the essence of the invention in terms of the method consists in the fact that the proposed method is Zd registration and recognition, in which using the projector projected onto the object under study a predetermined structured image, register the reflected light from the object of the projector using a camera placed to form a triangulation angle between the central beam of the projector and the central beam of the camera, and register the image distorted by the surface topography of the controlled object, with determining the height of the surface topography of the control object in terms of the degree of distortion of the image structure, and two other coordinates - according to the position of distortions of the backlight structure in the registered image, while the image is projected in the form of orthogonal rows of two-dimensional elements contrasted from each other, each made in the form of at least one of two different geometric shapes, and each row differs from any neighboring row in the order of arrangement of at least one of the mentioned elements, and the structuring of this image is performed by it isolation and analysis of the individual vertical columns consisting of horizontal rows comprising an equal number of elements in each row of the projected image
  • the elements of the projected image have a constant optical density over their entire area
  • the elements of the projected image are arranged in vertical and horizontal mutually perpendicular rows, each row of elements of the projected image vertically and horizontally is made with the same number of elements.
  • Elements of the projected image have the shape of a circle, oval, ellipse.
  • the implementation of the projected image elements are in the form of polygons from the group square, triangle, rectangle, trapezoid.
  • half of the elements of the projected image are made in the geometric shape of a square, and the rest in the geometric shape of a rectangle, and the elements of the projected image in the geometric shape of a rectangle are made with a length equal to the side of the elements in the geometric shape of the square.
  • the distance between the camera and the projector is selected as the product of the distance from the projector to the point of intersection of the central rays of the projector and the camera with the tangent of the triangulation angle between the central beam of the projector and the central beam of the camera, measurements and recognition of a person’s face are carried out using a computer, while the 3D image is formed on the computer screen, as well as transmit the results of measurements and recognition using additionally installed wireless communications from the group: Bluetooth, WiFi, NFC.
  • the device for performing ZD measurements of an object comprises a projector with an image transparency and a light source for projecting a transparency image made in the form of a set of geometric elements onto the object under study, and a camera for recording the image on the object located relative to the projector with the formation of a triangulation angle between the Central beam of the projector and the Central beam of the camera, connected to a computer, is equipped with second means storing the projected image, recording and analyzing the projected image surface distorted by the relief of the controlled object and determining the coordinates, as well as a monitor for generating a 3D image of the object, characterized in that the projector is made with an image transparency in the form of orthogonal rows of two-dimensionally contrasting elements made each in in the form of at least one of two different geometric shapes, and each row differs from any neighboring row in the order of arrangement, shey least one of said elements.
  • the elements have a constant optical density over their entire area
  • the elements on the banner are arranged in vertical and horizontal mutually perpendicular rows, each row of elements vertically and horizontally is made with the same number of elements, the elements are in the form of a circle, oval, ellipse elements are shaped polygons from the group square, triangle, rectangle, trapezoid
  • half of the elements are made in the geometric shape of a square, and the rest in the geometric shape of a rectangle, and the elements in the geometric shape of a rectangle are made with a length equal to the side of the elements in the geometric shape of a square.
  • the computer processor is configured to visually extract and individually analyze columns from an equal number of elements of each row of the projected image, and the computer processor is configured to visually highlight and individually analyze fragments of the projected image, each of which includes several rows in one column.
  • the projector and camera are made with long-focus lenses or the projector and camera are made with wide-angle lenses
  • the projector, camera, computer and monitor are located in a common housing, and the distance between the camera and the projector is selected as the product of the distance from the projector to the intersection point of the center projector and camera rays to the tangent of the triangulation angle between the central beam of the projector and the central beam of the camera.
  • the projector contains a radiation source, a lens, a banner with a projected image of geometric elements and a lens for projecting an image from a banner onto the object under study
  • the camera contains a camera receiver matrix and a lens mounted with the ability to project the image of the object of study onto the camera receiver matrix.
  • the device is equipped with a wireless communication module from the group: Bluetooth, WiFi, NFC for wireless data transfer to other communication devices, and a connector for connecting external removable drives to save and transfer data to another computer (computer)., As well as a battery for powering the computer, 17, it is also provided with a controller for synchronizing the light sources of the projector emitter.
  • the device is made in the form of a one-piece mobile ZD scanner, while its equipment, including a projector, a camera, a computer and a monitor, are placed in a common case equipped with a handle.
  • its equipment including a projector, a camera, a computer and a monitor
  • FIG. 1 shows a schematic diagram of a device for implementing a method for performing ZD registration and recognition of a person’s face
  • FIG. 2 shows a variant of encoding an image of a slide (transparency)
  • FIG. 3 and 4 show particular cases of the implementation of the device of FIG. 1
  • FIG. 5 is a screen for indicating the position of a person in front of the device
  • FIG. 6 and FIG. 7 special cases of the form used for coding geometric elements, projected images of a banner (slide).
  • a device for performing ZD measurements of an object is structurally made in the form of a monoblock mobile programmable computer device and comprises a projector 5 with a lens 4, a transparency (slide, matrix, stencil) of 3 images and a radiation source (light) 1 located in a common housing 13 for projecting onto the studied object 9 (and / or 16.17) a pre-known image 10 of a banner 3 made in the form of a set of geometric elements, and a camera 6 with the same lens 4 for recording image 10 on an object 9 (and / or 16.17), placed relative to the projector with the formation of a triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.
  • the camera 6 is connected to a computer computing module 7 equipped with means (database) 8 for storing the original projected image 10, recording and analyzing the image received by the camera 6 of the distorted surface relief of the monitored object 9 (and / or 16.17) and determined coordinates, as well as a monitor (screen or display) 26 for forming a 3D image of an object, in particular, a demonstration of a person's face.
  • the projector 5 is made with a banner (slide, stencil, or other modulating means) 3 images 10 in the form of orthogonal (i.e. mutually perpendicular on the plane of the banner 3) vertical and horizontal (according to the drawing) rows of two-dimensional elements 1 1 contrastly separated from each other ,12.
  • Each of the elements 1 1, 12 is made in the form of at least one of two different geometric shapes.
  • Each of the vertical and horizontal rows of elements 1 1.12 differs from any neighboring row in the arrangement of at least one of the mentioned elements 1 1, 12.
  • Object 9 is a tall person in the working area of the device
  • object 17 is a tall person who is at a remote distance from the device and is indicated in FIG. 1 face silhouette
  • object 16 is a man of short stature.
  • Elements 1 1, 12 have a constant optical density (i.e., uniform color or transparency) over their entire area.
  • Elements can be in the form of a circle, oval, ellipse; in other cases, elements 11,12 have the shape of polygons in the square, triangle, rectangle, trapezoid group. Elements 1 1, 12 may also be in the form of a combination of several geometric shapes. In the case shown in figure 2, half of the elements, for example, the elements 12 are made in the geometric shape of a square, and the remaining elements 1 1 in the geometric shape of a rectangle.
  • the elements 1 1 in the geometric shape of the rectangle are made, preferably, with a length equal to the side of the elements 12 in the geometric shape of the square.
  • the computer computing module 7 is configured to visually isolate and individually analyze solid vertical columns 29 from an equal number of elements 1 1, 12 of each row of the projected image 10.
  • the computer computing module 7 (processor) is configured to visually highlight and individually analyze the encoded fragments 27 of the projected image 10, each of which includes several rows 28 with elements 1 1, 12 from one vertical column 29. Coded fragments 27 in figure 2 have three horizons on line 28 and four vertical rows (3 x 4) of elements 1 1, 12.
  • the projector 5 and the camera 6 can be made with long-focus lenses, according to Fig.3, in other cases, the implementation of the device, the projector 5 and the camera 6 are made with wide-angle lenses according to Fig.4.
  • the projector 5, camera 6, computing module 7 (processor), the computer and the monitor 23 are placed in a common housing 13, and the distance between the camera 6 and the projector 4 is selected as the product of the distance from the projector 5 to the intersection of the central rays 18,19 of the projector 5 and camera 6 the tangent of the triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.
  • the projector 5 includes a radiation source 1, a condenser lens 2, a transparency (slide, matrix, stencil) 3 with a projected image 10 of geometric elements 1 1, 12 and a lens 4 for projecting the image 10 from the transparency 3 onto the object under study.
  • Camera 6 includes a receiver matrix (not shown) and a lens 4 mounted with the ability to project images object 9 (16.17) in the form of images of 14.15 coded fragments 27, distorted by the surface topography of the controlled object 9 (16.17), received on the receiver matrix of the camera 6.
  • the projector 5 of the device 13, as a rule, is located in the working room at a given height from the floor.
  • the central beam 18 of the projector 5 is horizontal, i.e. parallel to the floor.
  • the height of the central beam 18 of the projector 5 relative to the floor is determined by the average height of people who will be registered and recognized.
  • S is the depth of the working area
  • h is the height of the central beam 18 of the projector 5 with respect to the floor.
  • the height "h” is calculated as the average height minus 15 cm.
  • the central beam 18 of the projector 5 should fall in the middle of the face of a person of average height and at the same time in the middle of the whole range of height of people who will use this device.
  • the lens 4 for the projector 5 and camera 6 is selected based on the distance at which people will be recognized - objects 9 (16.17).
  • the device can be equipped with a screen 26 indicating the position of the person in front of the device with divisions 25 for positioning the object (person) 9 (16.17) and is made with a movable stylized silhouette 24, showing the current position of the person relative to the divisions 25.
  • the device 13 is equipped with a module (not shown) of wireless communications from the group: Bluetooth, WiFi, NFC for wireless data transfer to other communication devices, and a connector for connecting external removable drives for saving and transferring data to another computer (computer), as well as a battery (not shown) for powering the computer, as well as means (not shown) for remote control of the turnstile 21 and / or door 22.
  • a module not shown of wireless communications from the group: Bluetooth, WiFi, NFC for wireless data transfer to other communication devices, and a connector for connecting external removable drives for saving and transferring data to another computer (computer), as well as a battery (not shown) for powering the computer, as well as means (not shown) for remote control of the turnstile 21 and / or door 22.
  • the device is equipped with a controller (not shown) to synchronize the light sources of the projector emitter.
  • the equipment of the device including a projector 5, a camera 6, a computer computing module 7, a database 8 and a monitor 23, are housed in a common housing 13 provided with a handle (not shown). Camera 6 and Projector 5 connected to the computing module 7, which is connected to the database 8 data (memory) and to the monitor 23.
  • the device implements the method Zd registration and facial recognition of a person as follows.
  • the device primarily performs the construction of a three-dimensional model of a person’s face.
  • the device saves three-dimensional face measurements in a computer memory or database 8 data.
  • An image 10 is projected onto the face (object under study) 9 (16, 17) using a projector 5.
  • a previously known structured image 10 is projected onto the object 9 (16.17) under study
  • the light of the projector 5 reflected by object 9 (16.17) is recorded using a camera 6, which is placed to form a triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of camera 6 and with its help register images 14.15 of fragments 27 distorted by the relief of the surface of the controlled object 9, determining the height of the relief of the surface of the controlled object 9 (16.17) by the degree of distortion with ruktury images 14,15, and the other two coordinates - position of the backlight structure in the registered image distortion 14.15.
  • the triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6 is chosen equal to the arc tangent of the ratio of the distance between the camera 6 and the projector 5 to the distance from the projector 5 to the intersection of the central beams 18, 19 of the projector 5 and camera 6.
  • the distance between the camera 6 and the projector 5 is selected as the product of the distance from the projector 5 to the intersection point of the central rays 18.19 of the projector 5 and the camera 6 by the tangent of the triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.
  • the longitudinal coordinates of the image centers 14.15 and the vertical coordinates are determined as the quotient of the division of the longitudinal coordinate by the tangent of the triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.
  • the image 19 is projected in the form of orthogonal (mutually perpendicular) vertical and horizontal (in FIGS. 1, 6.7) rows two-dimensional elements 1 1.12 contrastingly separated from each other, each made in the form of at least one of two different geometric shapes.
  • Each row of elements 1 1, 12 differs from any neighboring row in the arrangement of at least one of the mentioned elements 1 1.12 ..
  • Structuring of the image 10 is carried out by visual selection and individual analysis (continuous in height of the image 10) of vertical columns 29, consisting of an equal number of horizontal rows of 28 elements 1 1, 12, including an equal number of consecutive elements 1 1 or 12 from each row of the projected image 10, as well as virtual optical highlighting and individual ualnogo analysis of fragments 27 of the projected image 10, each of which includes several rows of elements 28, 11,12 of one column 29.
  • the elements 11,12 of the projected image 10 have constant optical density over their entire area, i.e. colored or transparent the same.
  • Each row of elements 1 1, 12 of the projected image 10 vertically and horizontally is made with the same number of elements 1 1, 12.
  • Elements 1 1, 12 of the projected image 10 may have a geometric shape from the circle, oval, ellipse and / or polygon shapes from the square, triangle, rectangle, trapezoid, or combined shape.
  • half of the elements 10 of the projected image are made in the geometric shape of a square, and the remaining elements 1 1 in the geometric shape of a rectangle.
  • the elements 11 of the projected image 10 in the geometric shape of a rectangle are made with a length equal to the side of the elements 12 in the geometric shape of a square.
  • Each encoded fragment 27 of image 10 consists of elements 1 1.12, which, for the purpose of digitally processing the structured backlight image received by camera 6, are considered as “0” and “1”, respectively.
  • the element "0” is a rectangular element 1 1, which is 2 times longer than its thickness.
  • Element 1 has a width three times that of element 0 and a length 2 times greater than the width of element 0.
  • the image of slide 3 is presented in the form of a negative with black elements 1 1.12; on a real slide, these are transparent areas through which light from light source 1 passes.
  • each fragment 27 (figure 2) in image 10 consists of four elements “0” and “1” located horizontally from right to left and three elements “0” and “1” located vertically from top to bottom.
  • each fragment 27 of image 10 consists of four vertical rows and three horizontal rows 28. In each row 28 and in each vertical row there are encoded elements “0” and “1”. That is, each encoded fragment 27 of image 10 consists of twelve elements of "0" or "1".
  • the image is virtually divided into vertical columns 29 from fragments 27. Every four columns of fragments 27 horizontally, fragment 27 of image 10 is repeated. The vertical of each column 29, if you move down a line in image 10, each fragment 27 is unique and does not repeat in its column.
  • Fragments 27 of image 10 form a sequence, so that two lines 28 of each next vertical column 29 in column 29 of image 10 are part of the previous fragment 27. This is useful for more accurate interpretation of the image received by camera 6, because part of fragment 27 of the projected image 10 may be distorted by the geometry of the object 9 (16.17), from which the projected image 10 is reflected, and on the camera image 6, some parts of the fragments 27 of the image 10 may disappear.
  • decoding it is possible to definitely identify at least one fragment 27 of image 10, due to the fact that fragments 27 of image 10 form columns 29, in which two horizontal lines 28 of each next fragment 27 are part of the previous fragment 27 images 10 As a result, it is possible to evaluate which particular fragment 27 will be located above or below the found fragment 27 in the image received by the camera 6.
  • 216 variants of fragments 27 are composed of four elements 1 1, 12 in each horizontal row (row) and three elements 1 1, 12 in each vertical row, which forms a unique one, i.e. never repeating fragment 27 of image 10 in column 29 of fragments 27.
  • image 10 of slide 3 is compiled, which is projected onto object 9 (16.17) using a projector 5.
  • each column 29 of image 10 there are 216 fragments 27 and every four columns 29, the sequence of 216 fragments 27 is repeated.
  • the unique coded fragments 27 of the image 10 are arranged vertically one above the other because, due to the parallax between the camera 6 and the projector 5 in the vertical plane, the fragment 27 of the image 10 are located in different places on the image received from the camera 6 depending on the distance from device 13 is an object 9 (16.17).
  • the encoded fragments 27 are shifted down in the image of the camera 6, and if the object is closer, the encoded fragments 27 are shifted up in the image received by the camera 6.
  • the encoded fragment 27 of the image 10 is projected on the object 17, then in the image received from the camera 6, this encoded fragment 27 is projected into the lower part of the image of the camera 6, in FIG. 1 this can be observed as position 15.
  • the encoded fragment 27 of image 10 is projected onto object 9, and this is the same person as object 17, who came closer to device 13, then in the image of camera 6 we will see it in the upper part of the image on FIG. 1, this can be observed as the position 14 of the image of the camera 6.
  • Horizontal encoded fragments 27 of the image 10 are practically not shifted, since there is no parallax between the camera 6 and the projector 5 in the horizontal plane.
  • the boundaries of the elements 1 1.12 and fragments 27 are physically defined as pixels whose brightness is above a predetermined threshold. Since the same lenses 4 are located on the camera 5 and on the projector 5, the rays on the camera 6 and on the projector 5 diverge equally, i.e. any element of slide 3 of projector 5 projected onto object 9 (16.17) takes the same number of pixels on the matrix of camera 6, regardless of the distance between camera 6 and object 9 (16.17). Thus, the elements 11, 12 (ie, “0” or “1”) can be distinguished from each other by the number of adjacent pixels with a brightness above the threshold.
  • the thickness of the element “0” occupies three pixels on the matrix of the camera 6 and is six pixels long, respectively, then if there are eighteen adjacent pixels whose brightness is higher than the threshold, then the fragment “0” is projected into this area of the matrix of the camera 6. Accordingly, the thickness and length of the element “1" are, for example (Fig. 2), six by six pixels, then 36 bright pixels standing next to it mean that this is the element "1". You can also define the boundaries of fragment 27 as the boundaries of bright pixels with brightness above the threshold, which are located next to dark pixels whose brightness is below the threshold.
  • the device is used to control access to the room or to record the time a person is in the room - for example, to record employee’s working time
  • the device of FIG. 3 uses telephoto lenses 4 of the projector 5 and camera 6 with such an aperture angle ⁇ (the aperture angle is the angle between the extreme beam of the conical light beam at the input (output) of the optical system and its optical axis) so that at a distance from B equal to 80cm to A equal to 160cm people’s faces with growth from 150cm to 200cm fell into the field of view of camera 6.
  • the device in case 13 stands at a certain height h, either on a special stand or on a turnstile and covers with its field of view the entire passage in which people can be , when they pass through the passageway in which the passage is organized, for example, through turnstiles 21, automatic gates, turntables or other means restricting the passage.
  • the face of a person 9 (16.17) can be recognized comfortably in a sufficiently large range of distances from the device and he can go without stopping in front of the device, because during that period of time that person 9 (16.17) is in the working area 20 of the device , the camera 6 will have time to take off and the computing module 7 will process several frames which will be enough for recognition.
  • wide-angle lenses 4 of the projector 5 and camera 6 are used, which is optimal for recognition at a short distance from the device at a distance no further than the outstretched arm, about 40 cm. This is advisable in a confined space where the passage is not specially equipped.
  • a device is preferably provided with a display screen 26 with divisions 25 for positioning the object (person) 9 (16.17) and is made with a movable stylized silhouette 24, showing the current position of the person relative to the divisions 25.
  • the device casing 13 may hang next to the door 22 of the accessed room.
  • the working area of the device in this the case is not great and in order for person 9 (16.17) to understand whether he is located at the correct distance from the device or not, a screen 26 is used to indicate the position of the person in front of the device, with an indication using the divisions 25 of the distance scale from the device and the symbolic silhouette 24 (Fig .5), which is located in different parts of the scale, depending on how far the person is from the device. If a person is standing in front of the device closely, then the symbolic silhouette is located at the top of the scale, if a person moves away from the device, the silhouette moves down the scale.
  • the divisions 25 indicate the working zone 20. In this zone, a stable recognition of the person's face takes place.
  • Correspondence of the scanned and recognized three-dimensional model of the face is done visually or by machine with a previously saved three-dimensional model in the database 8 of the data.
  • the computer gives a command to release the turnstile 21 or door 22 for opening.
  • the computer blocks the opening of the turnstile 21 or door 22, and can generate a signal to turn on additional signaling devices and / or to trigger alarm devices and / or additional actuators.
  • the results of measurements and recognition are transmitted using additionally installed wireless communications from the group: Bluetooth, WiFi, NFC (not shown).
  • the present invention is implemented using universal equipment widely used in industry.

Abstract

The claimed invention relates to the field of measurement technology and may be used for visualizing the profiles of three-dimensional objects via a "structured illumination" method, and may also be used for solving the problem of recognizing an object by registering a three-dimensional image thereof. In the claimed 3D registration and recognition method, a projector is used for projecting a set structured image onto an object being studied, a camera is used for registering projector light reflected by the object, an image is registered and the height of the contour of the surface of the object is determined in accordance with the degree of distortion of the image structure, while two other coordinates are determined according to the position of the distortions of the illumination structure; the image is projected in the form of orthogonal rows of elements which have been distinguished from one another, each taking at least one of two different forms; each row differs from a neighboring row by means of the position of one of the elements, and the image is structured by analyzing vertical columns consisting of horizontal lines which include an equal number of elements in each row, and also by analyzing image fragments, each of which includes a few lines from a column.

Description

СПОСОБ И УСТРОЙСТВО ДЛЯ ЗД РЕГИСТРАЦИИ И РАСПОЗНАВАНИЯ  METHOD AND DEVICE FOR ZD REGISTRATION AND RECOGNITION
ЛИЦА ЧЕЛОВЕКА  FACES OF A MAN
Область техники, к которой относится изобретение Заявляемая группа изобретений относится к области измерительной техники и может быть использовано для визуализации профилей трехмерных объектов методом "структурированной подсветки", а также для решения задачи распознавания объектов за счет трехмерной регистрации их изображения. FIELD OF THE INVENTION The claimed group of inventions relates to the field of measurement technology and can be used to visualize profiles of three-dimensional objects by the method of "structured illumination", as well as to solve the problem of recognition of objects due to three-dimensional registration of their image.
Предшествующий уровень техники  State of the art
Известны способы и устройства, реализующие принцип Known methods and devices that implement the principle
"структурированной подсветки", которые используются в трехмерной компьютерной анимации и некоторых других приложениях для регистрации формы поверхности. "structured backlighting", which are used in three-dimensional computer animation and some other applications for registering surface shapes.
Известен способ и устройство, его реализующее, для бесконтактного контроля линейных размеров трехмерных объектов. Способ заключается в том, что последовательно сканируют отдельные контуры поверхности светящейся полосой, реализующей структурированную подсветку, и судят о контролируемых размерах по степени искажения изображения полосы и местоположению полосы в декартовой системе координат. Устройство, реализующее способ, содержит лазер, сканер, объектив, фоторегистратор, и блок обработки информации (WO 98/27514).  A known method and device that implements it for contactless control of the linear dimensions of three-dimensional objects. The method consists in sequentially scanning individual surface contours with a luminous strip that implements structured illumination, and judges about the controlled sizes by the degree of distortion of the image of the strip and the location of the strip in the Cartesian coordinate system. A device that implements the method includes a laser, a scanner, a lens, a photographic recorder, and an information processing unit (WO 98/27514).
Недостатком известного устройства является низкая точность и длительное время контроля, связанные с наличием операции и блока сканирования.  A disadvantage of the known device is the low accuracy and long monitoring time associated with the presence of the operation and the scanning unit.
Известно устройство для бесконтактного контроля и распознавания поверхностей трехмерных объектов методом структурированной подсветки, содержащее источник оптического излучения и последовательно установленные по ходу излучения транспарант, выполненный с возможностью формирования апериодической линейчатой структуры полос, афокальную оптическую систему для проецирования изображения транспаранта на контролируемую поверхность, приемный объектив, формирующий изображение картины линейчатой структуры, возникающей на поверхности контролируемого объекта, искаженной рельефом поверхности контролируемого объекта, фоторегистратор, преобразующий сформированное приемным объективом изображение в цифровое, вычислительный цифровой электронный блок, пересчитывающий фиксируемые фоторегистратором цифровые изображения в величины координат контролируемой поверхности по формуле A device for contactless control and recognition of surfaces of three-dimensional objects by the method of structured illumination, comprising a source of optical radiation and a banner sequentially installed along the radiation, configured to form an aperiodic line structure of strips, an afocal optical system for projecting a banner image onto a controlled surface, a receiving lens forming image of a pattern of a line structure arising on the surface of a con trolled object distorted the surface relief of the controlled object, a photorecorder that converts the image generated by the receiving lens into a digital, computing digital electronic unit that recalculates the digital images recorded by the photorecorder into the coordinates of the controlled surface according to the formula
Z = Ay /tg α , где Z - значение высоты профиля поверхности контролируемого объекта в точке с координатами X, Y, пересекаемой какой- либо полосой линейчатой структуры; Y - величина искривления полосы в этой точке; а - угол между направлением излучения от источника оптического изображения и оптической осью объектива, электронный блок сложения цифровых изображений, отличающееся тем, что оно снабжено дополнительными N-1 источниками излучения, каждый из которых отличен по спектральному диапазону излучения от остальных, N-1 транспарантами, каждый из которых отличается от остальных хотя бы на одну полосу, N-1 объективами, установленными за транспарантами, N-1 зеркалами, установленными под углом 45° к оптической оси каждого из N-1 объектива перед второй компонентой афокальной оптической системы, вторыми N-1 зеркалами, установленными за приемным объективом под углом 45°. к оптической оси приемного объектива, N-1 вторичными приемными объективами, каждый из которых установлен за каждым из вторых N-1 зеркал и формирует совместно с приемным объективом изображение картин линейчатой структуры, возникающей на поверхности контролируемого объекта, искаженной рельефом поверхности контролируемого объекта, N-1 фоторегистраторами, каждый из которых имеет область спектральной чувствительности, совпадающую со спектральным диапазоном излучения одного из N-1 источников излучения, N-1 вычислительными цифровыми электронными блоками, электронный блок сложения изображений выполнен с числом входов, равным числу вычислительных цифровых электронных блоков, каждый из входов электронного блока сложения изображений соединен с выходом каждого вычислительного цифрового электронного блока, а число N определяется по формуле N=Log2(L), где L - число пар элементов пространственного разрешения фоторегистратора (RU 2199718) . Наиболее близким к заявляемому является устройство, содержащее источник оптического излучения, модулятор, объектив, фоторегистратор, установленный в плоскости изображения объектива, цифровой электронный блок, блок индикации регистрируемого изображения. Вход цифрового электронного блока соединен с выходом фоторегистратора, а выход соединен с управляющим входом модулятора. Данное устройство реализует способ бесконтактного контроля линейных размеров трехмерных объектов, заключающийся в формировании на поверхности контролируемого объекта зондирующей структурированной подсветки путем освещения поверхности контролируемого объекта пучком оптического излучения, пространственно модулированного по интенсивности, регистрации изображения искаженной рельефом поверхности контролируемого объекта структуры зондирующей подсветки и определении высоты рельефа поверхности контролируемого объекта по степени искажения изображения структуры зондирующей подсветки, двух других координат - по положению искажений структуры подсветки в зарегистрированном изображении, управляют модуляцией пучка оптического излучения по двум координатам и спектру, создавая на поверхности контролируемого объекта изображение структурированной подсветки в виде совокупности зон, каждая из которых отлична от остальных (RU 2199716 прототип). Z = Ay / tan α, where Z is the value of the height profile of the surface of the controlled object at a point with coordinates X, Y, intersected by any strip of a ruled structure; Y is the amount of curvature of the strip at this point; and - the angle between the direction of radiation from the optical image source and the optical axis of the lens, an electronic digital image addition unit, characterized in that it is equipped with additional N-1 radiation sources, each of which is different in the spectral range of radiation from the rest, N-1 transparencies, each of which differs from the rest by at least one strip, N-1 lenses mounted behind banners, N-1 mirrors mounted at an angle of 45 ° to the optical axis of each of the N-1 lenses in front of the second component ntoy afocal optical system, the second N-1 mirrors mounted for receiving the lens at an angle of 45 °. to the optical axis of the receiving lens, N-1 secondary receiving lenses, each of which is installed behind each of the second N-1 mirrors and forms, together with the receiving lens, an image of the patterns of a line structure that appears on the surface of the controlled object, distorted by the relief of the surface of the controlled object, N- 1 photorecorders, each of which has a spectral sensitivity region that matches the radiation spectral range of one of the N-1 radiation sources, N-1 computing digital blocks, the electronic image addition unit is made with the number of inputs equal to the number of digital digital electronic units, each of the inputs of the electronic image addition unit is connected to the output of each digital digital electronic unit, and the number N is determined by the formula N = Log2 (L), where L - the number of pairs of spatial resolution elements of the photorecorder (RU 2199718). Closest to the claimed is a device containing an optical radiation source, a modulator, a lens, a photographic recorder mounted in the plane of the image of the lens, a digital electronic unit, a display unit of the recorded image. The input of the digital electronic unit is connected to the output of the photorecorder, and the output is connected to the control input of the modulator. This device implements a method of contactless control of the linear dimensions of three-dimensional objects, which consists in forming a probing structured illumination on the surface of the controlled object by illuminating the surface of the controlled object with a beam of optical radiation spatially modulated in intensity, recording an image of the surface of the controlled object of the probing illumination distorted by the relief, and determining the height of the surface relief controlled object by degree and sayings of the image of the probe illumination structure, two other coordinates - according to the position of the distortion of the backlight structure in the recorded image, control the modulation of the optical beam in two coordinates and spectrum, creating a structured illumination image on the surface of the controlled object as a set of zones, each of which is different from the others RU 2199716 prototype).
Недостатками известного решения является сложность формирования зон структурированной подсветки, пригодной для мелких элементов объекта, тем более, подвижного, низкая точность получаемого изображения из-за неэффективного кодирования изображения и неоптимального взаимного расположения источника излучения и фоторегистратора.  The disadvantages of the known solution are the difficulty of forming zones of structured illumination suitable for small elements of an object, especially a mobile one, low accuracy of the resulting image due to inefficient coding of the image and non-optimal relative position of the radiation source and the photo recorder.
Раскрытие сущности изобретения  Disclosure of the invention
Технической задачей заявленной группы изобретений, объединенных единством изобретательского замысла, является создание эффективного способа и устройства ЗД измерений для идентификации объекта, а также расширение арсенала способов и устройств идентификации объекта и распознавания лица человека. Технический результат, обеспечивающий решение поставленной задачи, заявляемыми способом и устройством, состоит в упрощении формирования и возможности нахождения зон структурированной подсветки, выполняемой в виде чередующихся геометрических элементов, а также образуемых из них фрагментов и столбцов с легко выбираемым количеством элементов, пригодной для измерений мелких деталей объекта - преимущественно лица человека, в том числе, подвижного, повышение точности получаемого изображения благодаря оптимальному кодированию изображения для структурированной подсветки с помощью двух однозначно визуально отличимых друг от друга видов геометрических элементов и фрагментов, и оптимального взаимного расположения источника излучения и фоторегистратора. При этом обеспечивается возможность одновременного распознавания двух лиц и распознавание лица движущегося человека. The technical task of the claimed group of inventions, united by a single inventive concept, is to create an effective method and device for 3D measurements to identify an object, as well as expanding the arsenal of methods and devices for identifying an object and recognizing a person's face. The technical result that provides the solution of the problem, the claimed method and device, consists in simplifying the formation and the possibility of finding areas of structured illumination, performed in the form of alternating geometric elements, as well as fragments and columns formed from them with an easily selectable number of elements suitable for measuring small parts of an object - mainly a person’s face, including a moving one, increasing the accuracy of the resulting image due to optimal image encoding I for structured illumination with the help of two types of geometric elements and fragments that are uniquely visually distinguishable from each other, and the optimal relative position of the radiation source and the photorecorder. This provides the ability to simultaneously recognize two faces and face recognition of a moving person.
Сущность изобретения в части способа состоит в том, что предложен способ Зд регистрации и распознавания, при котором с помощью проектора проецируют на исследуемый объект заданное структурированное изображение, регистрируют отраженный объектом свет проектора с помощью, камеры, размещенной с образованием триангуляционного угла между центральным лучом проектора и центральным лучом камеры, и производят регистрацию изображения, искаженного рельефом поверхности контролируемого объекта, с определением высоты рельефа поверхности контролируемого объекта по степени искажения структуры изображения, а двух других координат - по положению искажений структуры подсветки в зарегистрированном изображении, при этом проецируют изображение виде ортогональных рядов контрастно выделенных друг от друга двухмерных элементов, выполненных каждый в виде, по меньшей мере, одной из двух разных геометрических форм, причем каждый ряд отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов, а структурирование этого изображения выполняют путем выделения и индивидуального анализа вертикальных столбцов, состоящих из горизонтальных строк, включающих равное количество элементов каждого ряда проецируемого изображения, а также выделения и индивидуального анализа фрагментов проецируемого изображения, каждый из которых включает несколько строк из одного столбца. The essence of the invention in terms of the method consists in the fact that the proposed method is Zd registration and recognition, in which using the projector projected onto the object under study a predetermined structured image, register the reflected light from the object of the projector using a camera placed to form a triangulation angle between the central beam of the projector and the central beam of the camera, and register the image distorted by the surface topography of the controlled object, with determining the height of the surface topography of the control object in terms of the degree of distortion of the image structure, and two other coordinates - according to the position of distortions of the backlight structure in the registered image, while the image is projected in the form of orthogonal rows of two-dimensional elements contrasted from each other, each made in the form of at least one of two different geometric shapes, and each row differs from any neighboring row in the order of arrangement of at least one of the mentioned elements, and the structuring of this image is performed by it isolation and analysis of the individual vertical columns consisting of horizontal rows comprising an equal number of elements in each row of the projected image, and also individual allocation and analysis of fragments of the projected image, each of which includes several rows from one column.
Предпочтительно, элементы проецируемого изображения имеют постоянную оптическую плотность по всей их площади, элементы проецируемого изображения расположены вертикальными и горизонтальными взаимно перпендикулярными рядами, каждый ряд элементов проецируемого изображения по вертикали и по горизонтали выполнен с одинаковым количеством элементов. Элементы проецируемого изображения имеют форму из группы круг, овал, эллипс. В иных случаях реализации элементы проецируемого изображения имеют форму многоугольников из группы квадрат, треугольник, прямоугольник, трапеция.  Preferably, the elements of the projected image have a constant optical density over their entire area, the elements of the projected image are arranged in vertical and horizontal mutually perpendicular rows, each row of elements of the projected image vertically and horizontally is made with the same number of elements. Elements of the projected image have the shape of a circle, oval, ellipse. In other cases, the implementation of the projected image elements are in the form of polygons from the group square, triangle, rectangle, trapezoid.
Предпочтительно, половина элементов проецируемого изображения выполнена в геометрической форме квадрата, а остальные - в геометрической форме прямоугольника, причем элементы проецируемого изображения в геометрической форме прямоугольника выполнены с длиной, равной стороне элементов в геометрической форме квадрата.  Preferably, half of the elements of the projected image are made in the geometric shape of a square, and the rest in the geometric shape of a rectangle, and the elements of the projected image in the geometric shape of a rectangle are made with a length equal to the side of the elements in the geometric shape of the square.
Как правило, расстояние между камерой и проектором выбирается как произведение расстояния от проектора до точки пересечения центральных лучей проектора и камеры на тангенс триангуляционного угла между центральным лучом проектора и центральным лучом камеры, измерения и распознавание лица человека производят с помощью ЭВМ, при этом ЗД изображение формируют на экране ЭВМ, а также осуществляют передачу результатов измерений и распознавания с помощью дополнительно установленных беспроводных средств связи из группы: Bluetooth, WiFi, NFC.  As a rule, the distance between the camera and the projector is selected as the product of the distance from the projector to the point of intersection of the central rays of the projector and the camera with the tangent of the triangulation angle between the central beam of the projector and the central beam of the camera, measurements and recognition of a person’s face are carried out using a computer, while the 3D image is formed on the computer screen, as well as transmit the results of measurements and recognition using additionally installed wireless communications from the group: Bluetooth, WiFi, NFC.
Сущность изобретения в части устройства состоит в том, что устройство для выполнения ЗД измерений объекта по вышеизложенному способу содержит проектор с транспарантом изображений и источником света для проецирования на исследуемый объект изображения транспаранта, выполненного в виде совокупности геометрических элементов,, и камеру для регистрации изображения на объекте, размещенную относительно проектора с образованием триангуляционного угла между центральным лучом проектора и центральным лучом камеры, подключенную к ЭВМ, снабженной средствами хранения проецируемого изображения, записи и анализа искаженного рельефом поверхности контролируемого объекта проецируемого изображения и определения координат, а также монитор для формирования ЗД изображения объекта, отличающееся тем, что проектор выполнен с транспарантом изображения виде ортогональных рядов контрастно выделенных друг от друга двухмерных элементов, выполненных каждый в виде, по меньшей мере, одной из двух разных геометрических форм, причем каждый ряд отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов. The essence of the invention in terms of the device lies in the fact that the device for performing ZD measurements of an object according to the above method comprises a projector with an image transparency and a light source for projecting a transparency image made in the form of a set of geometric elements onto the object under study, and a camera for recording the image on the object located relative to the projector with the formation of a triangulation angle between the Central beam of the projector and the Central beam of the camera, connected to a computer, is equipped with second means storing the projected image, recording and analyzing the projected image surface distorted by the relief of the controlled object and determining the coordinates, as well as a monitor for generating a 3D image of the object, characterized in that the projector is made with an image transparency in the form of orthogonal rows of two-dimensionally contrasting elements made each in in the form of at least one of two different geometric shapes, and each row differs from any neighboring row in the order of arrangement, shey least one of said elements.
Предпочтительно, элементы имеют постоянную оптическую плотность по всей их площади, элементы на транспаранте расположены вертикальными и горизонтальными взаимно перпендикулярными рядами, каждый ряд элементов по вертикали и по горизонтали выполнен с одинаковым количеством элементов, элементы имеют форму из группы круг, овал, эллипс элементы имеют форму многоугольников из группы квадрат, треугольник, прямоугольник, трапеция  Preferably, the elements have a constant optical density over their entire area, the elements on the banner are arranged in vertical and horizontal mutually perpendicular rows, each row of elements vertically and horizontally is made with the same number of elements, the elements are in the form of a circle, oval, ellipse elements are shaped polygons from the group square, triangle, rectangle, trapezoid
Предпочтительно, половина элементов выполнена в геометрической форме квадрата, а остальные - в геометрической форме прямоугольника, причем элементы в геометрической форме прямоугольника выполнены с длиной, равной стороне элементов в геометрической форме квадрата.  Preferably, half of the elements are made in the geometric shape of a square, and the rest in the geometric shape of a rectangle, and the elements in the geometric shape of a rectangle are made with a length equal to the side of the elements in the geometric shape of a square.
Предпочтительно, процессор ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа столбцов из равного количества элементов каждого ряда проецируемого изображения, а также процессор ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа фрагментов проецируемого изображения, каждый из которых включает несколько строк в одном столбце.  Preferably, the computer processor is configured to visually extract and individually analyze columns from an equal number of elements of each row of the projected image, and the computer processor is configured to visually highlight and individually analyze fragments of the projected image, each of which includes several rows in one column.
В частных случаях реализации проектор и камера выполнены с длиннофокусными объективами или проектор и камера выполнены с широкоугольными объективами  In special cases, the projector and camera are made with long-focus lenses or the projector and camera are made with wide-angle lenses
Предпочтительно, проектор, камера, ЭВМ и монитор размещены в общем корпусе, а расстояние между камерой и проектором выбирается как произведение расстояния от проектора до точки пересечения центральных лучей проектора и камеры на тангенс триангуляционного угла между центральным лучом проектора и центральным лучом камеры. При этом проектор содержит источник излучения, объектив, транспарант с проецируемым изображением геометрических элементов и объектив для проецирования изображения с транспаранта на исследуемый объект, а камера содержит матрицу приемника камеры и объектив, установленный с возможностью проецирования изображения объекта исследования на матрицу приемника камеры. Preferably, the projector, camera, computer and monitor are located in a common housing, and the distance between the camera and the projector is selected as the product of the distance from the projector to the intersection point of the center projector and camera rays to the tangent of the triangulation angle between the central beam of the projector and the central beam of the camera. In this case, the projector contains a radiation source, a lens, a banner with a projected image of geometric elements and a lens for projecting an image from a banner onto the object under study, and the camera contains a camera receiver matrix and a lens mounted with the ability to project the image of the object of study onto the camera receiver matrix.
Устройство снабжено модулем беспроводных средств связи из группы: Bluetooth, WiFi, NFC для беспроводной передачи данных на другие устройства коммуникации, и разъемом для подключения внешних съемных накопителей для сохранения и передачи данных на другой компьютер (ЭВМ)., а также батареей для питания ЭВМ, 17, оно снабжено также контроллером для синхронизации источников света излучателя проектора.  The device is equipped with a wireless communication module from the group: Bluetooth, WiFi, NFC for wireless data transfer to other communication devices, and a connector for connecting external removable drives to save and transfer data to another computer (computer)., As well as a battery for powering the computer, 17, it is also provided with a controller for synchronizing the light sources of the projector emitter.
Предпочтительно, устройство выполнено в виде моноблочного мобильного ЗД сканера, при этом его оборудование, в том числе, проектор, камера, ЭВМ и монитор, размещены в общем корпусе, снабженном ручкой.  Preferably, the device is made in the form of a one-piece mobile ZD scanner, while its equipment, including a projector, a camera, a computer and a monitor, are placed in a common case equipped with a handle.
Перечень чертежей  List of drawings
На чертеже фиг. 1 изображена принципиальная схема устройства для реализации способа выполнения ЗД регистрации и распознавания лица человека, на фиг.2 - вариант кодирования изображения слайда (транспаранта), на фиг.З и 4 - частные случаи реализации устройства по фиг.1, на фиг. 5 - экран индикации положения человека перед устройством, на фиг. 6 и фиг. 7 - частные случаи формы используемых для кодирования геометрических элементов, проецируемых изображений транспаранта (слайда).  In the drawing of FIG. 1 shows a schematic diagram of a device for implementing a method for performing ZD registration and recognition of a person’s face, FIG. 2 shows a variant of encoding an image of a slide (transparency), FIG. 3 and 4 show particular cases of the implementation of the device of FIG. 1, FIG. 5 is a screen for indicating the position of a person in front of the device, FIG. 6 and FIG. 7 - special cases of the form used for coding geometric elements, projected images of a banner (slide).
Предпочтительный вариант осуществления изобретения .Устройство для выполнения ЗД измерений объекта конструктивно выполнено в виде моноблочного мобильного программируемого компьютерного устройства и содержит размещенные в общем корпусе 13 проектор 5 с объективом 4, транспарантом (слайд, матрица, трафарет) 3 изображений и источником 1 излучения (света) для проецирования на исследуемый объект 9 (и/или 16,17) заранее известного изображения 10 транспаранта 3, выполненного в виде совокупности геометрических элементов,, и камеру 6 с таким же объективом 4 для регистрации изображения 10 на объекте 9 (и/или 16,17), размещенную относительно проектора с образованием триангуляционного угла а между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6. Камера 6 подключена к вычислительному модулю 7 ЭВМ, снабженной средствами (базой данных) 8 хранения исходного проецируемого изображения 10, записи и анализа принятого камерой 6 искаженного рельефом поверхности контролируемого объекта 9 (и/или 16,17) изображения и определения координат, а также монитор (экран или дисплей) 26 для формирования ЗД изображения объекта, в частности, демонстрации лица человека. Проектор 5 выполнен с транспарантом (слайдом, трафаретом, или иным модулирующим средством) 3 изображения 10 в виде ортогональных (т.е. взаимно перпендикулярных на плоскости транспаранта 3) вертикальных и горизонтальных (по чертежу) рядов контрастно выделенных друг от друга двухмерных элементов 1 1,12. Каждый из элементов 1 1 ,12 выполнен в виде, по меньшей мере, одной из двух разных геометрических форм. Каждый из вертикальных и горизонтальных рядов элементов 1 1,12 отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов 1 1 ,12. Объект 9 это высокий человек в рабочей зоне устройства, объект 17 это человек высокого роста, который находится на удаленном расстоянии от устройства и обозначен на фиг. 1 силуэтом лица, объект 16 это человек низкого роста. A preferred embodiment of the invention. A device for performing ZD measurements of an object is structurally made in the form of a monoblock mobile programmable computer device and comprises a projector 5 with a lens 4, a transparency (slide, matrix, stencil) of 3 images and a radiation source (light) 1 located in a common housing 13 for projecting onto the studied object 9 (and / or 16.17) a pre-known image 10 of a banner 3 made in the form of a set of geometric elements, and a camera 6 with the same lens 4 for recording image 10 on an object 9 (and / or 16.17), placed relative to the projector with the formation of a triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6. The camera 6 is connected to a computer computing module 7 equipped with means (database) 8 for storing the original projected image 10, recording and analyzing the image received by the camera 6 of the distorted surface relief of the monitored object 9 (and / or 16.17) and determined coordinates, as well as a monitor (screen or display) 26 for forming a 3D image of an object, in particular, a demonstration of a person's face. The projector 5 is made with a banner (slide, stencil, or other modulating means) 3 images 10 in the form of orthogonal (i.e. mutually perpendicular on the plane of the banner 3) vertical and horizontal (according to the drawing) rows of two-dimensional elements 1 1 contrastly separated from each other ,12. Each of the elements 1 1, 12 is made in the form of at least one of two different geometric shapes. Each of the vertical and horizontal rows of elements 1 1.12 differs from any neighboring row in the arrangement of at least one of the mentioned elements 1 1, 12. Object 9 is a tall person in the working area of the device, object 17 is a tall person who is at a remote distance from the device and is indicated in FIG. 1 face silhouette, object 16 is a man of short stature.
Элементы 1 1 ,12 имеют постоянную оптическую плотность (т.е. равномерную окраску или прозрачность) по всей их площади.  Elements 1 1, 12 have a constant optical density (i.e., uniform color or transparency) over their entire area.
Каждый вертикальный и каждый горизонтальный ряд элементов 1 1 ,12 Each vertical and each horizontal row of elements 1 1, 12
(по вертикали и по горизонтали) выполнен с одинаковым количеством элементов 1 1,12. (vertical and horizontal) is made with the same number of elements 1 1.12.
Элементы могут иметь форму из группы круг, овал, эллипс, в других случаях элементы 11,12 имеют форму многоугольников из группы квадрат, треугольник, прямоугольник, трапеция. Элементы 1 1 ,12 также могут иметь форму комбинации из нескольких геометрических фигур. В случае, изображенном на фиг.2, половина элементов, например, элементы 12 выполнены в геометрической форме квадрата, а остальные элементы 1 1 - в геометрической форме прямоугольника. Elements can be in the form of a circle, oval, ellipse; in other cases, elements 11,12 have the shape of polygons in the square, triangle, rectangle, trapezoid group. Elements 1 1, 12 may also be in the form of a combination of several geometric shapes. In the case shown in figure 2, half of the elements, for example, the elements 12 are made in the geometric shape of a square, and the remaining elements 1 1 in the geometric shape of a rectangle.
При этом элементы 1 1 в геометрической форме прямоугольника выполнены, предпочтительно, с длиной, равной стороне элементов 12 в геометрической форме квадрата.  Moreover, the elements 1 1 in the geometric shape of the rectangle are made, preferably, with a length equal to the side of the elements 12 in the geometric shape of the square.
Вычислительный модуль 7 ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа сплошных вертикальных столбцов 29 из равного количества элементов 1 1 ,12 каждого ряда проецируемого изображения 10. Кроме того, вычислительный модуль 7 (процессор) ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа кодированных фрагментов 27 проецируемого изображения 10, каждый из которых включает несколько строк 28 с элементами 1 1 ,12 из одного вертикального столбца 29. Кодированные фрагменты 27 на фиг.2 имеют по три горизонтальных строки 28 и по четыре вертикальных ряда (3 х 4) элементов 1 1 ,12.  The computer computing module 7 is configured to visually isolate and individually analyze solid vertical columns 29 from an equal number of elements 1 1, 12 of each row of the projected image 10. In addition, the computer computing module 7 (processor) is configured to visually highlight and individually analyze the encoded fragments 27 of the projected image 10, each of which includes several rows 28 with elements 1 1, 12 from one vertical column 29. Coded fragments 27 in figure 2 have three horizons on line 28 and four vertical rows (3 x 4) of elements 1 1, 12.
Проектор 5 и камера 6 могут быть выполнены с длиннофокусными объективами, согласно фиг.З, в других случаях реализации устройства проектор 5 и камера 6 выполнены с широкоугольными объективами согласно фиг.4.  The projector 5 and the camera 6 can be made with long-focus lenses, according to Fig.3, in other cases, the implementation of the device, the projector 5 and the camera 6 are made with wide-angle lenses according to Fig.4.
Проектор 5, камера 6, вычислительный модуль 7 (процессор) ЭВМ и монитор 23 размещены в общем корпусе 13, а расстояние между камерой 6 и проектором 4 выбирается как произведение расстояния от проектора 5 до точки пересечения центральных лучей 18,19 проектора 5 и камеры 6 на тангенс триангуляционного угла а между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6.  The projector 5, camera 6, computing module 7 (processor), the computer and the monitor 23 are placed in a common housing 13, and the distance between the camera 6 and the projector 4 is selected as the product of the distance from the projector 5 to the intersection of the central rays 18,19 of the projector 5 and camera 6 the tangent of the triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.
Проектор 5 включает в себя источник 1 излучения, линзу 2 конденсора, транспарант (слайд, матрица, трафарет) 3 с проецируемым изображением 10 из геометрических элементов 1 1 ,12 и объектив 4 для проецирования изображения 10 с транспаранта 3 на исследуемый объект.  The projector 5 includes a radiation source 1, a condenser lens 2, a transparency (slide, matrix, stencil) 3 with a projected image 10 of geometric elements 1 1, 12 and a lens 4 for projecting the image 10 from the transparency 3 onto the object under study.
Камера 6 включает в себя матрицу приемника (не изображена) и объектив 4, установленный с возможностью проецирования изображения объекта 9 (16,17) в виде изображений 14,15 кодированных фрагментов 27, искаженных рельефом поверхности контролируемого объекта 9 (16,17), принятых на матрицу приемника камеры 6. Camera 6 includes a receiver matrix (not shown) and a lens 4 mounted with the ability to project images object 9 (16.17) in the form of images of 14.15 coded fragments 27, distorted by the surface topography of the controlled object 9 (16.17), received on the receiver matrix of the camera 6.
Проектор 5 устройства 13, как правило, расположен в рабочем помещении на заданной высоте от пола. Центральный луч 18 проектора 5 расположен горизонтально, т.е. параллельно полу. Высота расположения центрального луча 18 проектора 5 относительно пола определяется средним ростом людей, которые будут регистрироваться и распознаваться. На фиг.3,4 обозначены S - глубина рабочей зоны, h - высота расположения центрального луча 18 проектора 5 по отношению к полу.  The projector 5 of the device 13, as a rule, is located in the working room at a given height from the floor. The central beam 18 of the projector 5 is horizontal, i.e. parallel to the floor. The height of the central beam 18 of the projector 5 relative to the floor is determined by the average height of people who will be registered and recognized. In Fig. 3,4, S is the depth of the working area, h is the height of the central beam 18 of the projector 5 with respect to the floor.
Высота "h" рассчитывается как средний рост минус 15 см. В таком случае центральный луч 18 проектора 5 должен попадать в середину лица человека среднего роста и одновременно в середину всего диапазона ростов людей, которые будут пользоваться данным устройством. Объектив 4 для проектора 5 и камеры 6 выбирается исходя из расстояния, на котором будут распознаваться люди - объекты 9 (16,17). Устройство может быть снабжено экраном 26 индикации положения человека перед устройством с делениями 25 для позиционирования объекта (человека) 9 (16,17) и выполнено с подвижным стилизованным силуэтом 24, показывающим текущее положение человека относительно делений 25.  The height "h" is calculated as the average height minus 15 cm. In this case, the central beam 18 of the projector 5 should fall in the middle of the face of a person of average height and at the same time in the middle of the whole range of height of people who will use this device. The lens 4 for the projector 5 and camera 6 is selected based on the distance at which people will be recognized - objects 9 (16.17). The device can be equipped with a screen 26 indicating the position of the person in front of the device with divisions 25 for positioning the object (person) 9 (16.17) and is made with a movable stylized silhouette 24, showing the current position of the person relative to the divisions 25.
Устройство 13 снабжено модулем (не изображен) беспроводных средств связи из группы: Bluetooth, WiFi, NFC для беспроводной передачи данных на другие устройства коммуникации, и разъемом для подключения внешних съемных накопителей для сохранения и передачи данных на другой компьютер (ЭВМ), а также батареей (не изображены ) для питания ЭВМ, а также средствами (не изображены) дистанционного управления турникетом 21 и/или дверью 22.  The device 13 is equipped with a module (not shown) of wireless communications from the group: Bluetooth, WiFi, NFC for wireless data transfer to other communication devices, and a connector for connecting external removable drives for saving and transferring data to another computer (computer), as well as a battery (not shown) for powering the computer, as well as means (not shown) for remote control of the turnstile 21 and / or door 22.
Устройство снабжено контроллером (не изображен) для синхронизации источников света излучателя проектора.  The device is equipped with a controller (not shown) to synchronize the light sources of the projector emitter.
Оборудование устройства, в том числе, проектор 5, камера 6, вычислительный модуль 7 ЭВМ, база 8 данных и монитор 23, размещены в общем корпусе 13, снабженном ручкой (не изображена). Камера 6 и проектор 5 подключены к вычислительному модулю 7, который подключен к базе 8 данных (памяти) и к монитору 23. The equipment of the device, including a projector 5, a camera 6, a computer computing module 7, a database 8 and a monitor 23, are housed in a common housing 13 provided with a handle (not shown). Camera 6 and Projector 5 connected to the computing module 7, which is connected to the database 8 data (memory) and to the monitor 23.
Устройство реализует способ Зд регистрации и распознавания лица человека следующим образом.  The device implements the method Zd registration and facial recognition of a person as follows.
Устройство выполняет, преимущественно, построение трехмерной модели лица человека. Устройство сохраняет трехмерные измерения лица в память ЭВМ или базу 8 данных. На лицо (исследуемый объект) 9 (16, 17) с помощью проектора 5 проецируется изображение 10.  The device primarily performs the construction of a three-dimensional model of a person’s face. The device saves three-dimensional face measurements in a computer memory or database 8 data. An image 10 is projected onto the face (object under study) 9 (16, 17) using a projector 5.
При этом с помощью проектора 5 проецируют на исследуемый объект 9 (16,17) заранее известное структурированное изображение 10, регистрируют отраженный объектом 9 (16,17) свет проектора 5 с помощью камеры 6, размещенной с образованием триангуляционного угла а между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6 и производят с ее помощью регистрацию изображений 14,15 искаженных рельефом поверхности контролируемого объекта 9 (16,17) фрагментов 27, с определением высоты рельефа поверхности контролируемого объекта 9 (16,17) по степени искажения структуры изображения 14,15, а двух других координат - по положению искажений структуры подсветки в зарегистрированном изображении 14,15. При этом триангуляционный угол а между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6 выбирают равным арктангенсу отношения расстояния между камерой 6 и проектором 5 к расстоянию от проектора 5 до точки пересечения центральных лучей 18, 19 проектора 5 и камеры 6.  In this case, using a projector 5, a previously known structured image 10 is projected onto the object 9 (16.17) under study, the light of the projector 5 reflected by object 9 (16.17) is recorded using a camera 6, which is placed to form a triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of camera 6 and with its help register images 14.15 of fragments 27 distorted by the relief of the surface of the controlled object 9, determining the height of the relief of the surface of the controlled object 9 (16.17) by the degree of distortion with ruktury images 14,15, and the other two coordinates - position of the backlight structure in the registered image distortion 14.15. In this case, the triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6 is chosen equal to the arc tangent of the ratio of the distance between the camera 6 and the projector 5 to the distance from the projector 5 to the intersection of the central beams 18, 19 of the projector 5 and camera 6.
Расстояние между камерой 6 и проектором 5 выбирается как произведение расстояния от проектора 5 до точки пересечения центральных лучей 18,19 проектора 5 и камеры 6 на тангенс триангуляционного угла а между центральным лучом 18 проектора 5 и центральным лучом 19 камеры 6.  The distance between the camera 6 and the projector 5 is selected as the product of the distance from the projector 5 to the intersection point of the central rays 18.19 of the projector 5 and the camera 6 by the tangent of the triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.
На изображении 14,15 камеры 6 определяют продольные координаты центров изображений 14,15 и вертикальные координаты, как частное от деления продольной координаты на тангенс триангуляционного угла а между центральным лучом 18 проектора 5 и центральными лучом 19 камеры 6.  In the image 14.15 of the camera 6, the longitudinal coordinates of the image centers 14.15 and the vertical coordinates are determined as the quotient of the division of the longitudinal coordinate by the tangent of the triangulation angle a between the central beam 18 of the projector 5 and the central beam 19 of the camera 6.
При этом проецируют изображение 19 виде ортогональных (взаимно перпендикулярных) вертикальных и горизонтальных (по фиг.1 ,6,7) рядов контрастно выделенных друг от друга двухмерных элементов 1 1,12, выполненных каждый в виде, по меньшей мере, одной из двух разных геометрических форм. Каждый ряд элементов 1 1 ,12 отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов 1 1,12.. Структурирование изображения 10 выполняют путем визуального выделения и индивидуального анализа (сплошных по высоте изображения 10) вертикальных столбцов 29, состоящих из равного количества горизонтальных строк 28 элементов 1 1 ,12, включающих равное количество последовательно расположенных элементов 1 1 или 12 из каждого ряда проецируемого изображения 10, а также виртуального оптического выделения и индивидуального анализа фрагментов 27 проецируемого изображения 10, каждый из которых включает несколько строк 28 элементов 11,12 из одного столбца 29. Элементы 11,12 проецируемого изображения 10 имеют постоянную оптическую плотность по всей их площади, т.е. окрашены или прозрачны одинаково. At the same time, the image 19 is projected in the form of orthogonal (mutually perpendicular) vertical and horizontal (in FIGS. 1, 6.7) rows two-dimensional elements 1 1.12 contrastingly separated from each other, each made in the form of at least one of two different geometric shapes. Each row of elements 1 1, 12 differs from any neighboring row in the arrangement of at least one of the mentioned elements 1 1.12 .. Structuring of the image 10 is carried out by visual selection and individual analysis (continuous in height of the image 10) of vertical columns 29, consisting of an equal number of horizontal rows of 28 elements 1 1, 12, including an equal number of consecutive elements 1 1 or 12 from each row of the projected image 10, as well as virtual optical highlighting and individual ualnogo analysis of fragments 27 of the projected image 10, each of which includes several rows of elements 28, 11,12 of one column 29. The elements 11,12 of the projected image 10 have constant optical density over their entire area, i.e. colored or transparent the same.
Каждый ряд элементов 1 1 ,12 проецируемого изображения 10 по вертикали и по горизонтали выполнен с одинаковым количеством элементов 1 1 ,12.  Each row of elements 1 1, 12 of the projected image 10 vertically and horizontally is made with the same number of elements 1 1, 12.
Элементы 1 1 ,12 проецируемого изображения 10 могут иметь геометрическую форму из группы круг, овал, эллипс и/или форму многоугольников из группы квадрат, треугольник, прямоугольник, трапеция или комбинированную форму.  Elements 1 1, 12 of the projected image 10 may have a geometric shape from the circle, oval, ellipse and / or polygon shapes from the square, triangle, rectangle, trapezoid, or combined shape.
Предпочтительно половина элементов 10 проецируемого изображения выполнена в геометрической форме квадрата, а остальные элементы 1 1 - в геометрической форме прямоугольника.  Preferably, half of the elements 10 of the projected image are made in the geometric shape of a square, and the remaining elements 1 1 in the geometric shape of a rectangle.
Элементы 11 проецируемого изображения 10 в геометрической форме прямоугольника выполнены с длиной, равной стороне элементов 12 в геометрической форме квадрата.  The elements 11 of the projected image 10 in the geometric shape of a rectangle are made with a length equal to the side of the elements 12 in the geometric shape of a square.
Измерения и распознавание лица человека 9 (16,17) производят с помощью вычислительного модуля 7 ЭВМ, при этом ЗД изображение формируют на мониторе 23 ЭВМ. Каждый кодированный фрагмент 27 изображения 10 состоит из элементов 1 1,12, которые в целях цифровой обработки принятого камерой 6 изображения структурированной подсветки рассматриваются как "0" и "1 ", соответственно. Элемент "0" это прямоугольный элемент 1 1 , у которого длинна в 2 раза больше чем толщина. Элемент " 1 " имеет ширину в три раза большую, чем у элемента "0" и длину в 2 раза большую, чем ширина элемента "0". На фиг. 2 изображение слайда 3 представлено в виде негатива с черными элементами 1 1,12, на реальном слайде - это прозрачные участки через которые проходит свет от источника 1 света. Measurements and recognition of a person’s face 9 (16.17) are carried out using a computer computing module 7, while the 3D image is formed on a computer monitor 23. Each encoded fragment 27 of image 10 consists of elements 1 1.12, which, for the purpose of digitally processing the structured backlight image received by camera 6, are considered as “0” and “1”, respectively. The element "0" is a rectangular element 1 1, which is 2 times longer than its thickness. Element 1 has a width three times that of element 0 and a length 2 times greater than the width of element 0. In FIG. 2, the image of slide 3 is presented in the form of a negative with black elements 1 1.12; on a real slide, these are transparent areas through which light from light source 1 passes.
Таким образом, каждый фрагмент 27 (фиг.2) на изображении 10 состоит из четырех элементов "0" и " 1 " расположенных справа налево по горизонтали и трех элементов "0" и " 1 " расположенных сверху вниз по вертикали. Т.е. каждый фрагмент 27 изображения 10 состоит из четырех вертикальных рядов и трех горизонтальных строк 28. В каждой строке 28 и в каждом вертикальном ряду находятся кодированные элементы "0" и " 1 ". Т.е каждый кодированный фрагмент 27 изображения 10 состоит из двенадцати элементов "0" или " 1 ". Изображение виртуально делится на вертикальные столбцы 29 из фрагментов 27. Через каждые четыре столбца фрагментов 27 по горизонтали фрагмент 27 изображения 10 повторяется. По вертикали каждого столбца 29, если на изображении 10 сдвигаться на строчку вниз, каждый фрагмент 27 уникален и не повторяется в своем столбце. Фрагменты 27 изображения 10 образуют последовательность, таким образом, что две строчки 28 каждого следующего в столбце 29 по вертикали фрагмента 27 изображения 10 являются частью предыдущего фрагмента 27. Это целесообразно для более точной расшифровки изображения, принятого камерой 6, потому что часть фрагмента 27 проецируемого изображения 10 может искажаться геометрией объекта 9 (16,17), от которого отражается спроецированное изображение 10, и на изображении камеры 6 некоторые части фрагментов 27 изображения 10 могут пропадать. При расшифровке удается определенно идентифицировать хотя бы один фрагмент 27 изображения 10, благодаря тому, что фрагменты 27 изображения 10 образуют столбцы 29, в которой две горизонтальные строчки 28 каждого следующего фрагмента 27 являются частью предыдущего фрагмента 27 изображения 10 В результате можно оценить какой именно фрагмент 27 будет расположен сверху или снизу от найденного фрагмента 27 на изображении принятом камерой 6. Thus, each fragment 27 (figure 2) in image 10 consists of four elements "0" and "1" located horizontally from right to left and three elements "0" and "1" located vertically from top to bottom. Those. each fragment 27 of image 10 consists of four vertical rows and three horizontal rows 28. In each row 28 and in each vertical row there are encoded elements “0” and “1”. That is, each encoded fragment 27 of image 10 consists of twelve elements of "0" or "1". The image is virtually divided into vertical columns 29 from fragments 27. Every four columns of fragments 27 horizontally, fragment 27 of image 10 is repeated. The vertical of each column 29, if you move down a line in image 10, each fragment 27 is unique and does not repeat in its column. Fragments 27 of image 10 form a sequence, so that two lines 28 of each next vertical column 29 in column 29 of image 10 are part of the previous fragment 27. This is useful for more accurate interpretation of the image received by camera 6, because part of fragment 27 of the projected image 10 may be distorted by the geometry of the object 9 (16.17), from which the projected image 10 is reflected, and on the camera image 6, some parts of the fragments 27 of the image 10 may disappear. When decoding, it is possible to definitely identify at least one fragment 27 of image 10, due to the fact that fragments 27 of image 10 form columns 29, in which two horizontal lines 28 of each next fragment 27 are part of the previous fragment 27 images 10 As a result, it is possible to evaluate which particular fragment 27 will be located above or below the found fragment 27 in the image received by the camera 6.
В соответствии с числом возможных сочетаний составляется 216 вариантов фрагментов 27 по четыре элемента 1 1 ,12 в каждой горизонтальной строке (ряду) и по три элемента 1 1 , 12 в каждой вертикальной строке, что образует уникальный, т.е. не разу не повторяющийся фрагмент 27 изображения 10 в столбце 29 из фрагментов 27. Из таких столбцов 29 составлено изображение 10 слайда 3, которое проецируется на объект 9 (16,17) с помощью проектора 5. В каждом столбце 29 изображения 10 имеются 216 фрагментов 27 и через каждые четыре столбца 29 последовательность из 216 фрагментов 27 повторяется.  In accordance with the number of possible combinations, 216 variants of fragments 27 are composed of four elements 1 1, 12 in each horizontal row (row) and three elements 1 1, 12 in each vertical row, which forms a unique one, i.e. never repeating fragment 27 of image 10 in column 29 of fragments 27. Of these columns 29, image 10 of slide 3 is compiled, which is projected onto object 9 (16.17) using a projector 5. In each column 29 of image 10 there are 216 fragments 27 and every four columns 29, the sequence of 216 fragments 27 is repeated.
Уникальные кодированные фрагменты 27 изображения 10 расположены по вертикали друг над другом потому, что из за параллакса между камерой 6 и проектором 5 в вертикальной плоскости фрагмент 27 изображения 10 находятся в разных местах на изображении, полученном с камеры 6 в зависимости от того на каком расстоянии от устройства 13 находится объект 9 (16,17).  The unique coded fragments 27 of the image 10 are arranged vertically one above the other because, due to the parallax between the camera 6 and the projector 5 in the vertical plane, the fragment 27 of the image 10 are located in different places on the image received from the camera 6 depending on the distance from device 13 is an object 9 (16.17).
Если объект 17 находится дальше от устройства 13, то кодированные фрагменты 27 на смещаются вниз на изображении камеры 6, а если объект находится ближе, то кодированные фрагменты 27 смещаются вверх на изображении, которое принимается камерой 6. Например, если кодированный фрагмент 27 изображения 10 спроецирован на объект 17, то на изображении, полученном с камеры 6, этот кодированный фрагмент 27 проецируется в нижнюю часть изображения камеры 6, на фиг. 1 это можно наблюдать как позицию 15. Если кодированный фрагмент 27 изображения 10 спроецирован на объект 9, а это тот же человек что и объект 17, который подошел ближе к устройству 13, то на изображении камеры 6 мы будем наблюдать его в верхней части изображения на фиг. 1 , это можно наблюдать как позицию 14 изображения камеры 6.  If the object 17 is further from the device 13, then the encoded fragments 27 are shifted down in the image of the camera 6, and if the object is closer, the encoded fragments 27 are shifted up in the image received by the camera 6. For example, if the encoded fragment 27 of the image 10 is projected on the object 17, then in the image received from the camera 6, this encoded fragment 27 is projected into the lower part of the image of the camera 6, in FIG. 1 this can be observed as position 15. If the encoded fragment 27 of image 10 is projected onto object 9, and this is the same person as object 17, who came closer to device 13, then in the image of camera 6 we will see it in the upper part of the image on FIG. 1, this can be observed as the position 14 of the image of the camera 6.
Таким образом, из соотношения z= y*tg а можно определять на каком расстоянии находится человек и его лицо, а также части лица человека, т.е. получать Зд изображение лица человека. При расчете Зд изображения вычислительным модулем 7 учитываются также перспективные искажения и дисторсия линз объектива 4. Thus, from the relation z = y * tg a, one can determine at what distance the person and his face are located, as well as parts of the person’s face, i.e. getting a rear face image of a man. When calculating the rear image Computing module 7 also takes into account the perspective distortion and distortion of the lenses of the lens 4.
По горизонтали кодированные фрагменты 27 изображения 10 практически не смещаются, так как отсутствует параллакс между камерой 6 и проектором 5 в горизонтальной плоскости.  Horizontal encoded fragments 27 of the image 10 are practically not shifted, since there is no parallax between the camera 6 and the projector 5 in the horizontal plane.
На изображении, принимаемом камерой 6, границы элементов 1 1,12 и фрагментов 27 физически определяются как пиксели, яркость в которых выше заданного порога. Так как на камере 5 и на проекторе 5 стоят одинаковые объективы 4, то лучи на камере 6 и на проекторе 5 расходятся одинаково, т.е. любой элемент слайда 3 проектора 5, спроецированный на объект 9 (16,17), занимает одинаковое кол-во пикселей на матрице камеры 6 вне зависимости от расстояния между камерой 6 и объектом 9 (16,17). Таким образом, элементы 11 ,12 (т.е. "0" или "1 ") можно различать между собой по количеству рядом стоящих пикселей с яркостью выше пороговой. Например, если толщина элемента "0" занимает на матрице камеры 6 три пикселя, а длинна, соответственно, шесть пикселей, то если наблюдается восемнадцать рядом стоящих пикселей, яркость которых выше пороговой, значит в эту область матрицы камеры 6 спроецирован фрагмент "0". Соответственно толщина и длина элемента " 1 " составляют, например (фиг.2), шесть на шесть пикселей, то 36 рядом стоящих ярких пикселя означают, что это элемент "1 ". Также можно определить границы фрагмента 27 как границы ярких пикселей с яркостью выше пороговой, которые расположены рядом с темными пикселями, яркость которых ниже пороговой.  In the image received by the camera 6, the boundaries of the elements 1 1.12 and fragments 27 are physically defined as pixels whose brightness is above a predetermined threshold. Since the same lenses 4 are located on the camera 5 and on the projector 5, the rays on the camera 6 and on the projector 5 diverge equally, i.e. any element of slide 3 of projector 5 projected onto object 9 (16.17) takes the same number of pixels on the matrix of camera 6, regardless of the distance between camera 6 and object 9 (16.17). Thus, the elements 11, 12 (ie, “0” or “1”) can be distinguished from each other by the number of adjacent pixels with a brightness above the threshold. For example, if the thickness of the element “0” occupies three pixels on the matrix of the camera 6 and is six pixels long, respectively, then if there are eighteen adjacent pixels whose brightness is higher than the threshold, then the fragment “0” is projected into this area of the matrix of the camera 6. Accordingly, the thickness and length of the element "1" are, for example (Fig. 2), six by six pixels, then 36 bright pixels standing next to it mean that this is the element "1". You can also define the boundaries of fragment 27 as the boundaries of bright pixels with brightness above the threshold, which are located next to dark pixels whose brightness is below the threshold.
Для увеличения плотности слайда 3 темные промежутки между вертикальными рядами элементов 1 1 ,12 могут быть заполнены элементами "0" как изображено на фиг. 6. В этом случае сначала находят элементы " 1 ", которые на фиг.6 состоят из девяти ярких пикселей по вертикали и шести ярких пикселей по горизонтали (54 ярких пикселя, означающих элемент " 1 "), все остальные яркие группы ярких пикселей считаются элементами "0".  To increase the density of the slide 3, dark spaces between the vertical rows of elements 1 1, 12 can be filled with elements "0" as shown in FIG. 6. In this case, first find the elements "1", which in Fig.6 consist of nine bright pixels vertically and six bright pixels horizontally (54 bright pixels, meaning element "1"), all other bright groups of bright pixels are considered elements "0".
В частных случаях реализации, приведенных на фиг.3,4, устройство используется для контроля доступа в помещение или учета времени пребывания человека в помещении - например, для учета рабочего времени сотрудника В устройстве по фиг.З используются длиннофокусные объективы 4 проектора 5 и камеры 6 с таким апертурным углом β (апертурный угол - угол между крайним лучом конического светового пучка на входе (выходе из) оптической системы и ее оптической осью), чтобы на расстоянии от В равном 80см до А равном 160см лица людей с ростом от 150см до 200см попадали в поле зрения камеры 6. Устройство в корпусе 13 стоит на определенной высоте h, либо на специальной подставке или на турникете и покрывает своим полем зрения весь проход в котором могут находится люди, когда они проходят через проходную в которой организован проход, например, через турникеты 21, автоматические калитки, вертушки или другие ограничивающие проход средства. В этом случае лицо человека 9 (16,17) может распознаваться комфортно в достаточно большом диапазоне расстояний от устройства и он может идти не останавливаясь перед устройством, потому что за тот период времени что человек 9 (16,17) находится в рабочей зоне 20 устройства, камера 6 успеет снять и вычислительный модуль 7 обработать несколько кадров которых будет достаточно для распознавания. Например, человек 9 (16,17) движется со скоростью 5 км в час, т.е. 1 ,38 метров в секунду этот человек 9 (16,17) находится в рабочей зоне 20 камеры 6 в течение 0.58 секунды. За это время обычная камера 6, которая работает со скоростью 25 кадров в секунду успевает получить около 13 кадров в которых присутствует изображение человека 9 (16,17), проходящего через турникет 21, этого достаточно для уверенного распознавания. In special cases of implementation, shown in figure 3.4, the device is used to control access to the room or to record the time a person is in the room - for example, to record employee’s working time The device of FIG. 3 uses telephoto lenses 4 of the projector 5 and camera 6 with such an aperture angle β (the aperture angle is the angle between the extreme beam of the conical light beam at the input (output) of the optical system and its optical axis) so that at a distance from B equal to 80cm to A equal to 160cm people’s faces with growth from 150cm to 200cm fell into the field of view of camera 6. The device in case 13 stands at a certain height h, either on a special stand or on a turnstile and covers with its field of view the entire passage in which people can be , when they pass through the passageway in which the passage is organized, for example, through turnstiles 21, automatic gates, turntables or other means restricting the passage. In this case, the face of a person 9 (16.17) can be recognized comfortably in a sufficiently large range of distances from the device and he can go without stopping in front of the device, because during that period of time that person 9 (16.17) is in the working area 20 of the device , the camera 6 will have time to take off and the computing module 7 will process several frames which will be enough for recognition. For example, person 9 (16.17) moves at a speed of 5 km per hour, i.e. 1, 38 meters per second, this person 9 (16.17) is in the working area 20 of chamber 6 for 0.58 seconds. During this time, an ordinary camera 6, which works at a speed of 25 frames per second, manages to get about 13 frames in which there is an image of a person 9 (16.17) passing through the turnstile 21, this is enough for reliable recognition.
В устройстве по фиг.4 используются широкоугольные объективы 4 проектора 5 и камеры 6, что оптимально для распознавания на небольшом расстоянии от устройства на В расстоянии не дальше вытянутой руки, около 40 см. Это целесообразно в ограниченном пространстве, где проход специально не оборудован. Такое устройство предпочтительно снабжено экраном 26 индикации с делениями 25 для позиционирования объекта (человека) 9 (16,17) и выполнено с подвижным стилизованным силуэтом 24, показывающим текущее положение человека относительно делений 25.  In the device of FIG. 4, wide-angle lenses 4 of the projector 5 and camera 6 are used, which is optimal for recognition at a short distance from the device at a distance no further than the outstretched arm, about 40 cm. This is advisable in a confined space where the passage is not specially equipped. Such a device is preferably provided with a display screen 26 with divisions 25 for positioning the object (person) 9 (16.17) and is made with a movable stylized silhouette 24, showing the current position of the person relative to the divisions 25.
Корпус 13 устройства может в этом случае висеть рядом с дверью 22 помещения, в которое осуществляется доступ. Рабочая зона устройства в этом случае не велика и для того чтобы человек 9 (16,17) понимал на правильном расстоянии от устройства он расположен или нет используется экран 26 индикации положения человека перед устройством, с индикацией в с помощью делений 25 шкалы расстояний от устройства и символического силуэта 24 (фиг. 5), который располагается в разных частях шкалы в зависимости от того на каком расстоянии человек стоит от устройства. Если человек близко стоит перед устройством то символический силуэт располагается в верхней части шкалы, если человек отходит далеко от устройства, то силуэт смещается вниз шкалы. Делениями 25 обозначена рабочая зона 20. В этой зоне происходит устойчивое распознавание лица человека. In this case, the device casing 13 may hang next to the door 22 of the accessed room. The working area of the device in this the case is not great and in order for person 9 (16.17) to understand whether he is located at the correct distance from the device or not, a screen 26 is used to indicate the position of the person in front of the device, with an indication using the divisions 25 of the distance scale from the device and the symbolic silhouette 24 (Fig .5), which is located in different parts of the scale, depending on how far the person is from the device. If a person is standing in front of the device closely, then the symbolic silhouette is located at the top of the scale, if a person moves away from the device, the silhouette moves down the scale. The divisions 25 indicate the working zone 20. In this zone, a stable recognition of the person's face takes place.
Соответствие отсканированной и распознанной трехмерной модели лица производится визуально или машинным способом с предварительно сохраненной трехмерной моделью в базе 8 данных. В том случае, если распознанное лицо имеет право доступа в помещение или на объект, ЭВМ дает команду на освобождение турникета 21 или двери 22 для открывания. В случае, если обнаруженное лицо не имеет право доступа в помещение, ЭВМ блокирует открывание турникета 21 или двери 22, и может формировать сигнал на включение дополнительных сигнализирующих устройств и/или на срабатывание средств сигнализации и/или дополнительных исполнительных механизмов.  Correspondence of the scanned and recognized three-dimensional model of the face is done visually or by machine with a previously saved three-dimensional model in the database 8 of the data. In the event that the recognized person has the right to access the premises or the object, the computer gives a command to release the turnstile 21 or door 22 for opening. In case the detected person does not have the right of access to the room, the computer blocks the opening of the turnstile 21 or door 22, and can generate a signal to turn on additional signaling devices and / or to trigger alarm devices and / or additional actuators.
Одновременно осуществляют передачу результатов измерений и распознавания с помощью дополнительно установленных беспроводных средств связи из группы: Bluetooth, WiFi, NFC (не изображено).  At the same time, the results of measurements and recognition are transmitted using additionally installed wireless communications from the group: Bluetooth, WiFi, NFC (not shown).
За счет использования настоящей группы изобретений достигается упрощение формирования и распознавания зон структурированной подсветки, повышение точности получаемого изображения, распознавание двух лиц и лица движущегося человека.  Through the use of this group of inventions, simplification of the formation and recognition of zones of structured illumination, increasing the accuracy of the image obtained, recognition of two faces and faces of a moving person is achieved.
Промышленная применимость  Industrial applicability
Настоящее изобретение реализуется с помощью универсального оборудования, широко распространенного в промышленности.  The present invention is implemented using universal equipment widely used in industry.

Claims

Формула изобретения Claim
1. Способ Зд регистрации и распознавания, при котором с помощью проектора проецируют на исследуемый объект заданное структурированное изображение, регистрируют отраженный объектом свет проектора с помощью, камеры, размещенной с образованием триангуляционного угла между центральным лучом проектора и центральным лучом камеры, и производят регистрацию изображения, искаженного рельефом поверхности контролируемого объекта, с определением высоты рельефа поверхности исследуемого объекта по степени искажения структуры изображения, а двух других координат - по положению искажений структуры подсветки в зарегистрированном изображении, отличающийся тем, что проецируют изображение виде ортогональных рядов контрастно выделенных друг от друга двухмерных элементов, выполненных каждый в виде, по меньшей мере, одной из двух разных геометрических форм, причем каждый ряд отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов, а структурирование этого изображения выполняют путем выделения и индивидуального анализа вертикальных столбцов, состоящих из горизонтальных строк, включающих равное количество элементов каждого ряда проецируемого изображения, а также выделения и индивидуального анализа фрагментов проецируемого изображения, каждый из которых включает несколько строк из одного столбца.  1. The method of registration and recognition, in which, using a projector, a predetermined structured image is projected onto the object to be studied, the projector’s light reflected by the object is recorded using a camera placed to form a triangulation angle between the central beam of the projector and the central beam of the camera, and the image is recorded, distorted by the relief of the surface of the controlled object, with the determination of the height of the relief of the surface of the investigated object by the degree of distortion of the image structure, and two other coordinates - according to the position of distortion of the backlight structure in the registered image, characterized in that the image is projected in the form of orthogonal rows of two-dimensional elements contrasted from each other, each made in the form of at least one of two different geometric shapes, and each row differs from of any adjacent row by the arrangement of at least one of the mentioned elements, and the structuring of this image is performed by isolating and individual analysis of vertical tolbtsov consisting of horizontal rows comprising an equal number of elements in each row of the projected image, as well as the isolation and analysis of individual fragments of the projected image, each of which comprises multiple rows of a single column.
2. Способ по п.1 , отличающийся тем, что элементы проецируемого изображения имеют постоянную оптическую плотность по всей их площади.  2. The method according to claim 1, characterized in that the elements of the projected image have a constant optical density over their entire area.
3. Способ по любому из п. п.1 ,2, отличающийся тем, что элементы проецируемого изображения расположены вертикальными и горизонтальными взаимно перпендикулярными рядами.  3. The method according to any one of p. 1, 2, characterized in that the elements of the projected image are arranged in vertical and horizontal mutually perpendicular rows.
4. Способ по п.З, отличающийся тем, что каждый ряд элементов проецируемого изображения по вертикали и по горизонтали выполнен с одинаковым количеством элементов.  4. The method according to p. 3, characterized in that each row of elements of the projected image vertically and horizontally is made with the same number of elements.
5. Способ по п.4, отличающийся тем, что элементы проецируемого изображения имеют форму из группы круг, овал, эллипс. 5. The method according to claim 4, characterized in that the elements of the projected image have the shape of a circle, oval, ellipse.
6. Способ по п.4, отличающийся тем, что элементы проецируемого изображения имеют форму многоугольников из группы квадрат, треугольник, прямоугольник, трапеция 6. The method according to claim 4, characterized in that the elements of the projected image are in the form of polygons from the group square, triangle, rectangle, trapezoid
7. Способ по п.6, отличающийся тем, что половина элементов проецируемого изображения выполнена в геометрической форме квадрата, а остальные - в геометрической форме прямоугольника.  7. The method according to claim 6, characterized in that half of the elements of the projected image are made in the geometric shape of a square, and the rest in the geometric shape of a rectangle.
8. Способ по п.7, отличающийся тем, что элементы проецируемого изображения в геометрической форме прямоугольника выполнены с длиной, равной стороне элементов в геометрической форме квадрата.  8. The method according to claim 7, characterized in that the elements of the projected image in the geometric shape of the rectangle are made with a length equal to the side of the elements in the geometric shape of the square.
9. Способ по любому из п. п.1,2,4-8, отличающийся тем, что расстояние между камерой и проектором выбирается как произведение расстояния от проектора до точки пересечения центральных лучей проектора и камеры на тангенс триангуляционного угла между центральным лучом проектора и центральным лучом камеры.  9. The method according to any one of p. 1,2,4-8, characterized in that the distance between the camera and the projector is selected as the product of the distance from the projector to the intersection of the central rays of the projector and the camera with the tangent of the triangulation angle between the central beam of the projector and the central beam of the camera.
10. Способ по любому из п. п.1 ,2,4-8, отличающийся тем, что измерения и распознавание лица человека производят с помощью ЭВМ, при этом ЗД изображение формируют на экране ЭВМ.  10. The method according to any one of p. 1, 2,4-8, characterized in that the measurement and recognition of a person's face is carried out using a computer, while the ZD image is formed on the computer screen.
11. Способ по любому из п.п.1,2,4-8, отличающийся тем, что осуществляют передачу результатов измерений и распознавания с помощью дополнительно установленных беспроводных средств связи из группы: Bluetooth, WiFi, NFC.  11. The method according to any one of claims 1, 2, 4-8, characterized in that the measurement and recognition results are transmitted using additionally installed wireless communications from the group: Bluetooth, WiFi, NFC.
12. Устройство для выполнения ЗД измерений объекта по изложенному в п. п.1-1 1 способу, содержащее проектор с транспарантом изображений и источником света для проецирования на исследуемый объект изображения транспаранта, выполненного в виде совокупности геометрических элементов,, и камеру для регистрации изображения на объекте, размещенную относительно проектора с образованием триангуляционного угла между центральным лучом проектора и центральным лучом камеры, подключенную к ЭВМ, снабженной средствами хранения проецируемого изображения, записи и анализа искаженного рельефом поверхности исследуемого объекта проецируемого изображения и определения координат, а также монитор для формирования ЗД изображения объекта, отличающееся тем, что проектор выполнен с транспарантом изображения виде ортогональных рядов контрастно выделенных друг от друга двухмерных элементов, выполненных каждый в виде, по меньшей мере, одной из двух разных геометрических форм, причем каждый ряд отличается от любого соседнего ряда порядком расположения, по меньшей мере, одного из упомянутых элементов. 12. A device for performing ZD measurements of an object according to the method set forth in clause 1-1-1, comprising a projector with an image transparency and a light source for projecting a transparency image made in the form of a set of geometric elements onto the object under study, and a camera for image registration on an object located relative to the projector with the formation of a triangulation angle between the central beam of the projector and the central beam of the camera, connected to a computer equipped with means for storing the projected image I, recording and analysis of the projected image distorted by the relief of the surface of the studied object and determining the coordinates, as well as a monitor for generating a 3D image of the object, characterized in that the projector made with an image transparency in the form of orthogonal rows of two-dimensional elements contrastingly separated from each other, each made in the form of at least one of two different geometric shapes, and each row differs from any adjacent row in the arrangement of at least one of the said elements .
13. Устройство по п.12, отличающееся тем, что элементы имеют постоянную оптическую плотность по всей их площади.  13. The device according to p. 12, characterized in that the elements have a constant optical density over their entire area.
14. Устройство по любому из п.п.12,13, отличающееся тем, что элементы на транспаранте расположены вертикальными и горизонтальными взаимно перпендикулярными рядами, причем каждый ряд элементов по вертикали и по горизонтали выполнен с одинаковым количеством элементов.  14. The device according to any one of paragraphs.12,13, characterized in that the elements on the banner are arranged in vertical and horizontal mutually perpendicular rows, each row of elements vertically and horizontally made with the same number of elements.
15. Устройство по п.14, отличающееся тем, что элементы имеют форму из группы круг, овал, эллипс, квадрат, треугольник, прямоугольник, трапеция.  15. The device according to 14, characterized in that the elements have the shape of a group of circle, oval, ellipse, square, triangle, rectangle, trapezoid.
16. Устройство по п.15, отличающееся тем, что половина элементов выполнена в геометрической форме квадрата, а остальные - в геометрической форме прямоугольника, причем элементы в геометрической форме прямоугольника выполнены с длиной, равной стороне элементов в геометрической форме квадрата.  16. The device according to p. 15, characterized in that half of the elements are made in the geometric shape of a square, and the rest in the geometric shape of a rectangle, and the elements in the geometric shape of a rectangle are made with a length equal to the side of the elements in the geometric shape of a square.
17. Устройство по любому из п. п.12, 13, 15, 16, отличающееся тем, что процессор ЭВМ выполнен с возможностью визуального выделения и индивидуального анализа столбцов из равного количества элементов каждого ряда проецируемого изображения, а также с возможностью визуального выделения и индивидуального анализа фрагментов проецируемого изображения, каждый из которых включает несколько строк в одном столбце.  17. The device according to any one of p. 12, 13, 15, 16, characterized in that the computer processor is configured to visually highlight and individually analyze columns from an equal number of elements of each row of the projected image, as well as the ability to visually and individually analysis of fragments of the projected image, each of which includes several rows in one column.
18. Устройство по любому из п.п.12, 13,1 , 16, отличающееся тем, что проектор и камера выполнены с длиннофокусными объективами  18. The device according to any one of p. 12, 13,1, 16, characterized in that the projector and camera are made with telephoto lenses
19. Устройство по любому из п.п.12,13,15,16, отличающееся тем, что проектор и камера выполнены с широкоугольными объективами  19. Device according to any one of p. 12,13,15,16, characterized in that the projector and camera are made with wide-angle lenses
20. Устройство по любому из п.п.12,13,15,16, отличающееся тем, что оно выполнено в виде моноблочного мобильного ЗД сканера, при этом его оборудование, в том числе, проектор, камера, ЭВМ и монитор, размещены в общем корпусе, снабженном ручкой, а расстояние между камерой и проектором выбирается как произведение расстояния от проектора до точки пересечения центральных лучей проектора и камеры на тангенс триангуляционного угла между центральным лучом проектора и центральным лучом камеры. 20. The device according to any one of p. 12,13,15,16, characterized in that it is made in the form of a monoblock mobile ZD scanner, while its equipment, including a projector, camera, computer and monitor, are located in a common housing equipped with a handle, and the distance between the camera and the projector is selected as the product of the distance from the projector to the intersection of the central rays of the projector and the camera with the tangent of the triangulation angle between the central beam of the projector and the central beam of the camera.
21. Устройство по любому из п. п.12,13,15,16, отличающееся тем, что проектор содержит источник излучения, объектив, транспарант с проецируемым изображением геометрических элементов и объектив для проецирования изображения с транспаранта на исследуемый объект, а камера содержит матрицу приемника камеры и объектив, установленный с возможностью проецирования изображения объекта исследования на матрицу приемника камеры.  21. The device according to any one of p. 12,13,15,16, characterized in that the projector contains a radiation source, a lens, a banner with a projected image of geometric elements and a lens for projecting an image from a banner onto the object under study, and the camera contains a matrix camera receiver and a lens mounted with the ability to project the image of the object of study on the matrix of the camera receiver.
22. Устройство по любому из п. п.12, 13, 15, 16, отличающееся тем, что оно снабжено модулем беспроводных средств связи из группы: Bluetooth, WiFi, NFC для беспроводной передачи данных на другие устройства коммуникации, и разъемом для подключения внешних съемных накопителей для сохранения и передачи данных на другой компьютер (ЭВМ)., а также батареей для питания ЭВМ.  22. The device according to any one of p. 12, 13, 15, 16, characterized in that it is equipped with a wireless communication module from the group: Bluetooth, WiFi, NFC for wireless data transmission to other communication devices, and a connector for connecting external removable drives for saving and transferring data to another computer (computer)., as well as a battery for powering the computer.
23. Устройство по любому из п.п.12,13,15,16, отличающееся тем, что снабжено контроллером для синхронизации источников света излучателя проектора.  23. A device according to any one of claims 12,13,15,16, characterized in that it is equipped with a controller for synchronizing light sources of the projector emitter.
PCT/RU2015/000117 2015-02-25 2015-02-25 Method and device for the 3d registration and recognition of a human face WO2016137351A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/RU2015/000117 WO2016137351A1 (en) 2015-02-25 2015-02-25 Method and device for the 3d registration and recognition of a human face

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2015/000117 WO2016137351A1 (en) 2015-02-25 2015-02-25 Method and device for the 3d registration and recognition of a human face

Publications (1)

Publication Number Publication Date
WO2016137351A1 true WO2016137351A1 (en) 2016-09-01

Family

ID=56788850

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2015/000117 WO2016137351A1 (en) 2015-02-25 2015-02-25 Method and device for the 3d registration and recognition of a human face

Country Status (1)

Country Link
WO (1) WO2016137351A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000070303A1 (en) * 1999-05-14 2000-11-23 3Dmetrics, Incorporated Color structured light 3d-imaging system
RU2199716C2 (en) * 2001-01-31 2003-02-27 "А4 Визион Са" Method for controlling linear dimensions of spatial objects
US20090221874A1 (en) * 2005-11-28 2009-09-03 3Shape A/S Coded structure light
EP2690397A1 (en) * 2012-07-25 2014-01-29 Google Inc. Use of color and intensity modulation of pixel displays in 3D-shape measurement

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000070303A1 (en) * 1999-05-14 2000-11-23 3Dmetrics, Incorporated Color structured light 3d-imaging system
RU2199716C2 (en) * 2001-01-31 2003-02-27 "А4 Визион Са" Method for controlling linear dimensions of spatial objects
US20090221874A1 (en) * 2005-11-28 2009-09-03 3Shape A/S Coded structure light
EP2690397A1 (en) * 2012-07-25 2014-01-29 Google Inc. Use of color and intensity modulation of pixel displays in 3D-shape measurement

Similar Documents

Publication Publication Date Title
CN100592029C (en) Ranging apparatus
CN101627280B (en) 3d geometric modeling and 3d video content creation
CN1655197B (en) Monitor
CN104634276A (en) Three-dimensional measuring system, photographing device, photographing method, depth calculation method and depth calculation device
EP3801366B1 (en) Device, method and system for generating dynamic projection patterns in a camera
US10648789B2 (en) Method for monitoring linear dimensions of three-dimensional objects
CN102760234A (en) Depth image acquisition device, system and method
CN107532885A (en) The depth for the object that Strength Changes in light pattern are used in volume is drawn
CN101482398B (en) Fast three-dimensional appearance measuring method and device
CN102829736B (en) Three-dimensional fingerprint sensing system
CN103154868A (en) Laser scanning projector device for interactive screen applications
US20120092680A1 (en) Methods and apparatus for real-time digitization of three-dimensional scenes
CN103900494A (en) Homologous point rapid matching method used for binocular vision three-dimensional measurement
CN105354825B (en) The intelligent apparatus of reading matter position and its application in automatic identification read-write scene
CN108458731B (en) Method and system for visualizing three-dimensional data, machine-readable medium
CA3019021A1 (en) A point of sale terminal
EP3706076A1 (en) Method and device to determine the dimensions and distance of a number of objects in an environment
KR20120129275A (en) A 3D distance measuring system for restoring a 3D image using a code line
CN105354822A (en) Intelligent apparatus for automatically identifying position of read-write element in read-write scene and application
CN109724531A (en) 360 ° of contour measuring methods
US6369879B1 (en) Method and apparatus for determining the coordinates of an object
RU161183U1 (en) HUMAN REGISTRATION AND RECOGNITION 3D DEVICE
US20160349045A1 (en) A method of measurement of linear dimensions of three-dimensional objects
CN106442539B (en) Utilize the method for image information measurement Surface Flaw
WO2016137351A1 (en) Method and device for the 3d registration and recognition of a human face

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15883500

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15883500

Country of ref document: EP

Kind code of ref document: A1