RU2004123248A - SYSTEM AND METHOD OF TRACKING OBJECT - Google Patents

SYSTEM AND METHOD OF TRACKING OBJECT Download PDF

Info

Publication number
RU2004123248A
RU2004123248A RU2004123248/09A RU2004123248A RU2004123248A RU 2004123248 A RU2004123248 A RU 2004123248A RU 2004123248/09 A RU2004123248/09 A RU 2004123248/09A RU 2004123248 A RU2004123248 A RU 2004123248A RU 2004123248 A RU2004123248 A RU 2004123248A
Authority
RU
Russia
Prior art keywords
face
tracking
image
namely
angles
Prior art date
Application number
RU2004123248/09A
Other languages
Russian (ru)
Other versions
RU2370817C2 (en
Inventor
Ванг Джин МУН (KR)
Ванг Джин МУН
Александр Борисович МУРЫНИН (RU)
Александр Борисович Мурынин
Петр Валерьевич БАЗАНОВ (RU)
Петр Валерьевич Базанов
Виктор Дмитриевич Кузнецов (RU)
Виктор Дмитриевич Кузнецов
Светлана Юрьевна Фаткина (RU)
Светлана Юрьевна Фаткина
Юнг Джин ЛИ (KR)
Юнг Джин ЛИ
Хе Куан ЯНГ (KR)
Хе Куан ЯНГ
Original Assignee
Самсунг Электроникс Ко., Лтд. (KR)
Самсунг Электроникс Ко., Лтд.
Корпорация С1 (Kr)
Корпорация С1
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. (KR), Самсунг Электроникс Ко., Лтд., Корпорация С1 (Kr), Корпорация С1 filed Critical Самсунг Электроникс Ко., Лтд. (KR)
Priority to RU2004123248/09A priority Critical patent/RU2370817C2/en
Publication of RU2004123248A publication Critical patent/RU2004123248A/en
Application granted granted Critical
Publication of RU2370817C2 publication Critical patent/RU2370817C2/en

Links

Claims (12)

1. Способ отслеживания объекта посредством детектирования, слежения и определения ракурса лица человека в зоне наблюдения, состоящий в том, что определяют наличие человека в зоне наблюдения с помощью двух и более разнесенных видеокамер с заранее известным их расположением; определяют положение головы в зоне наблюдения, используя априорные данные о геометрических размерах и определенном способе позиционирования лица человека; выделяют область лица и положение элементов, таких как брови, глаза, нос, рот, на найденном лице; производят одновременное слежение за тремя типами объектов на лице, а именно точки, области, граф, на основе априорных и найденных данных реконструируют 3D модель лица; в случае достаточной полноты и целостности информативных признаков полученной 3D модели лица проводят расчет углов, определяющих ориентацию головы в пространстве; в случае, если найденный ракурс является достаточно представительным и отличается от ракурсов на предыдущих кадрах, производят распознавание лица на основе наиболее репрезентативных кадров изображения.1. The method of tracking an object by detecting, tracking and determining the angle of a person’s face in the observation zone, which consists in determining the presence of a person in the observation zone using two or more spaced cameras with a known location; determine the position of the head in the observation area using a priori data on the geometric dimensions and a specific method of positioning a person’s face; distinguish the area of the face and the position of elements, such as eyebrows, eyes, nose, mouth, on the found face; simultaneously tracking three types of objects on the face, namely, points, areas, graphs; on the basis of a priori and found data, they reconstruct a 3D model of the face; in the case of sufficient completeness and integrity of informative features of the obtained 3D model of the face, angles are calculated that determine the orientation of the head in space; if the found angle is representative enough and differs from the angles in the previous frames, face recognition is performed based on the most representative image frames. 2. Способ по п.1, отличающийся тем, что для детектирования изображения головы человека и ее удаленности от видеокамеры производят трехмерную стереореконструкцию зоны наблюдения и формируют объекты - кандидаты, соответствующие по форме голове человека.2. The method according to claim 1, characterized in that for detecting the image of the human head and its distance from the video camera, a three-dimensional stereo reconstruction of the observation area is made and objects are formed that are candidates corresponding in shape to the human head. 3. Способ по п.1, отличающийся тем, что для быстрого детектирования области лица осуществляют два типа независимого анализа изображений стереопары: анализ изображений в целом с помощью горизонтальных и вертикальных проекций гистограммы яркости и анализ локально-частотных свойств изображения в результате вейвлет преобразования изображения.3. The method according to claim 1, characterized in that for the fast detection of the face region, two types of independent image analysis of a stereo pair are carried out: image analysis as a whole using horizontal and vertical projections of the brightness histogram and analysis of the local-frequency image properties as a result of the image wavelet transform. 4. Способ по п.1, отличающийся тем, что для более устойчивого детектирования и слежения производят сегментацию области лица по совокупности признаков и точно локализуют точки и области интереса, а также на основе априорных данных о лице, ракурсах и способе позиционирования определяют структуру графа лица.4. The method according to claim 1, characterized in that for more stable detection and tracking, the face region is segmented according to the totality of features and the points and areas of interest are precisely localized, and the face graph structure is determined on the basis of a priori data on the face, angles and positioning method . 5. Способ по п.1, отличающийся тем, что осуществляют координацию и контроль потоков слежения за тремя типами геометрических объектов -точки, области, граф, где подачу кадров изображений в каждый поток слежения производят на разной частоте - медленной, средней, быстрой.5. The method according to claim 1, characterized in that they coordinate and control the tracking flows of three types of geometric objects — points, regions, and graphs, where the image frames are fed into each tracking stream at a different frequency — slow, medium, fast. 6. Способ по п.1, отличающийся тем, что для контроля за тремя типами слежения используют блок распределения заданий, устанавливающий приоритет и частоту работы потоков слежения, а также определенный целевой порядок выполнения задач слежения, где порядок и стратегия планирования работы блока распределения заданий выбирают исходя из целевых установок биометрической системы, а именно точность, скорость, надежность, и ограничений на видеосъемку, а именно, размер зоны обнаружения, световые ограничения, наличие сложных фонов, наличие перекрывающихся лиц, способ позиционирования лица перед видеокамерой.6. The method according to claim 1, characterized in that for monitoring the three types of tracking, a task distribution unit is used that sets the priority and frequency of operation of the tracking flows, as well as a specific target order for performing tracking tasks, where the order and strategy for planning the work of the task distribution unit based on the target settings of the biometric system, namely the accuracy, speed, reliability, and restrictions on video shooting, namely, the size of the detection zone, light restrictions, the presence of complex backgrounds, the presence of overlap faces, a method of positioning the face in front of the camcorder. 7. Способ по п.1, отличающийся тем, что осуществляют оценку геометрического центра 3D модели лица или головы на основе стереореконструкции и привлечения информации об отслеживаемых чертах лица, а именно точки, области, граф.7. The method according to claim 1, characterized in that they evaluate the geometric center of the 3D model of the face or head based on stereo reconstruction and attracting information about the traced facial features, namely, points, regions, and graph. 8. Способ по п.1, отличающийся тем, что для определения ракурса и вычисления углов ориентации головы, а именно наклон, кивок, поворот, используют координаты найденного геометрического центра головы и координаты отслеживаемых черт лица, полученные по текущему и предыдущим кадрам.8. The method according to claim 1, characterized in that to determine the angle and calculate the orientation angles of the head, namely, tilt, nod, turn, use the coordinates of the found geometric center of the head and the coordinates of the traced facial features obtained from the current and previous frames. 9. Способ по п.1, отличающийся тем, что для обеспечения слежения за объектами в мало освещенных условиях обеспечивают автоматическую адаптацию параметров, исключающую использование информации о цвете, заменяя ее на градиентную фильтрацию и вейвлет преобразование полутоновых изображений с последующим восстановлением карты глубины изображения.9. The method according to claim 1, characterized in that to ensure tracking of objects in dimly lit conditions provide automatic adaptation of parameters that exclude the use of color information, replacing it with gradient filtering and wavelet transform of grayscale images with subsequent restoration of the image depth map. 10. Способ по п.1, отличающийся тем, что распознавание лица производят по выборке наиболее представительных ракурсов, определяемых ограничениями на углы ориентации лица.10. The method according to claim 1, characterized in that face recognition is performed by sampling the most representative angles determined by restrictions on the angles of orientation of the face. 11. Система отслеживания объекта в зоне наблюдения, содержащая устройство считывания изображения лица, выход которого соединен с устройством детектирования трехмерных объектов, выход которого соединен с устройством детектирования и слежения за двумерными объектами, выход которого соединен с устройством распознавания нормализованных объектов.11. An object tracking system in the observation zone comprising a face image reader, the output of which is connected to a three-dimensional object detection device, the output of which is connected to a two-dimensional object detection and tracking device, the output of which is connected to a normalized object recognition device. 12. Система по п.11, отличающаяся тем, что устройство детектирования и слежения за двумерными объектами состоит из блока сегментации и координации детектирования и слежения за чертами объекта, соединенного быстрыми каналами с параллельными независимыми блоками слежения, а именно блоком отслеживания точек интереса, блоком отслеживания областей интереса, блоком отслеживания графа лица, где каждый из блоков производит доступ на чтение и запись к разделяемому блоку данных - 3D модели лица, а также блока оценки ракурса, соединенного с устройством детектирования трехмерных объектов, что позволяет производить более детальную стереореконструкцию 3D модели лица, а также определять полноту, целостность, ракурс и представительность 3D модели.12. The system according to claim 11, characterized in that the device for detecting and tracking two-dimensional objects consists of a segmentation and coordination unit for detecting and tracking features of an object connected by fast channels with parallel independent tracking units, namely, a point of interest tracking unit, a tracking unit areas of interest, by the face graph tracking unit, where each of the blocks provides read and write access to a shared data block - a 3D model of the face, as well as an angle evaluation unit connected to devices m detecting three-dimensional objects, which allows more detailed stereo reconstruction 3D face model, as well as to determine the completeness, integrity, and view 3D models of representation.
RU2004123248/09A 2004-07-29 2004-07-29 System and method for object tracking RU2370817C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2004123248/09A RU2370817C2 (en) 2004-07-29 2004-07-29 System and method for object tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2004123248/09A RU2370817C2 (en) 2004-07-29 2004-07-29 System and method for object tracking

Publications (2)

Publication Number Publication Date
RU2004123248A true RU2004123248A (en) 2006-02-27
RU2370817C2 RU2370817C2 (en) 2009-10-20

Family

ID=36114003

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2004123248/09A RU2370817C2 (en) 2004-07-29 2004-07-29 System and method for object tracking

Country Status (1)

Country Link
RU (1) RU2370817C2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2549165C2 (en) * 2009-09-11 2015-04-20 Сони Корпорейшн Display device and control method
RU2553061C2 (en) * 2009-09-15 2015-06-10 Сони Корпорейшн Display and control thereof
RU2684189C2 (en) * 2013-06-25 2019-04-04 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Adaptive event recognition
CN111144198A (en) * 2019-11-11 2020-05-12 珠海格力电器股份有限公司 Control method of intelligent support and intelligent support

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5925186B2 (en) * 2011-03-17 2016-05-25 キヤノン株式会社 Imaging apparatus and control method thereof
RU2458397C1 (en) * 2011-03-23 2012-08-10 Федеральное государственное военное образовательное учреждение высшего профессионального образования "Военный авиационный инженерный университет" (г. Воронеж) Министерства обороны Российской Федерации Method of searching for and recognising objects on digital images
CN103430214B (en) 2011-03-28 2016-10-26 日本电气株式会社 Personnel tracking equipment and personnel tracking method
RU2488882C1 (en) * 2012-01-19 2013-07-27 Общество с ограниченной ответственностью "Вокорд СофтЛаб" Method of personal identification
RU2484529C1 (en) * 2012-03-21 2013-06-10 Общество с ограниченной ответственностью "Синезис" Method of ranking video data
RU2582853C2 (en) * 2012-06-29 2016-04-27 Общество с ограниченной ответственностью "Системы Компьютерного зрения" Device for determining distance and speed of objects based on stereo approach
BR112015001861B1 (en) * 2012-07-27 2022-05-31 Nissan Motor Co., Ltd Three-dimensional object detection device
MY158375A (en) * 2012-07-27 2016-09-26 Nissan Motor Three-dimensional object detection device, three-dimensional object detection method
CN105468144B (en) * 2015-11-17 2019-02-12 小米科技有限责任公司 Smart machine control method and device
RU2634225C1 (en) 2016-06-20 2017-10-24 Общество с ограниченной ответственностью "САТЕЛЛИТ ИННОВАЦИЯ" (ООО "САТЕЛЛИТ") Methods and systems for searching object in video stream
US11450070B2 (en) 2018-06-20 2022-09-20 Hewlett-Packard Development Company, L.P. Alerts of mixed reality devices
WO2019245550A1 (en) * 2018-06-20 2019-12-26 Hewlett-Packard Development Company, L.P. Alerts of mixed reality devices

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2549165C2 (en) * 2009-09-11 2015-04-20 Сони Корпорейшн Display device and control method
RU2553061C2 (en) * 2009-09-15 2015-06-10 Сони Корпорейшн Display and control thereof
RU2684189C2 (en) * 2013-06-25 2019-04-04 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Adaptive event recognition
CN111144198A (en) * 2019-11-11 2020-05-12 珠海格力电器股份有限公司 Control method of intelligent support and intelligent support

Also Published As

Publication number Publication date
RU2370817C2 (en) 2009-10-20

Similar Documents

Publication Publication Date Title
EP3141151B1 (en) Determination of a currently treated body portion of a user
CN104933414B (en) A kind of living body faces detection method based on WLD-TOP
RU2004123248A (en) SYSTEM AND METHOD OF TRACKING OBJECT
CN103443804B (en) Method of facial landmark detection
CN102959355A (en) Point cloud data processing device, point cloud data processing system, point cloud data processing method, and point cloud data processing program
CN111524080A (en) Face skin feature identification method, terminal and computer equipment
CN108304828B (en) Three-dimensional living body face recognition device and method
CN106372629A (en) Living body detection method and device
CN108876835A (en) Depth information detection method, device and system and storage medium
KR20160029629A (en) Method and apparatus for face recognition
KR20090037275A (en) Detecting apparatus of human component and method of the same
JP2014048962A (en) Image processor, image processing method and program
US11037319B2 (en) Contaminant detection and bird risk management at airports
CN109035307B (en) Set area target tracking method and system based on natural light binocular vision
CN109002800A (en) The real-time identification mechanism of objective and recognition methods based on Multi-sensor Fusion
JP3732757B2 (en) Image recognition method and image recognition apparatus
Shieh et al. Fast facial detection by depth map analysis
US7653219B2 (en) System and method for image attribute recording an analysis for biometric applications
Shreve Automatic macro-and micro-facial expression spotting and applications
Paletta et al. Facts-a computer vision system for 3d recovery and semantic mapping of human factors
Jiménez et al. Face tracking and pose estimation with automatic three-dimensional model construction
Macedo et al. A markerless augmented reality approach based on real-time 3d reconstruction using kinect
US11676357B2 (en) Modification of projected structured light based on identified points within captured image
Paletta et al. An integrated system for 3D gaze recovery and semantic analysis of human attention
Verschae et al. A multi-camera system for underwater real-time 3D fish detection and tracking

Legal Events

Date Code Title Description
FA92 Acknowledgement of application withdrawn (lack of supplementary materials submitted)

Effective date: 20051116

FZ9A Application not withdrawn (correction of the notice of withdrawal)

Effective date: 20060117

FA92 Acknowledgement of application withdrawn (lack of supplementary materials submitted)

Effective date: 20080428

FZ9A Application not withdrawn (correction of the notice of withdrawal)

Effective date: 20090423

MM4A The patent is invalid due to non-payment of fees

Effective date: 20120730

NF4A Reinstatement of patent

Effective date: 20140510

PC41 Official registration of the transfer of exclusive right

Effective date: 20140805

MM4A The patent is invalid due to non-payment of fees

Effective date: 20190730