KR101554677B1 - System for sensoring body behavior - Google Patents

System for sensoring body behavior Download PDF

Info

Publication number
KR101554677B1
KR101554677B1 KR1020140043730A KR20140043730A KR101554677B1 KR 101554677 B1 KR101554677 B1 KR 101554677B1 KR 1020140043730 A KR1020140043730 A KR 1020140043730A KR 20140043730 A KR20140043730 A KR 20140043730A KR 101554677 B1 KR101554677 B1 KR 101554677B1
Authority
KR
South Korea
Prior art keywords
joint
independent
skeleton image
inter
information
Prior art date
Application number
KR1020140043730A
Other languages
Korean (ko)
Inventor
남윤영
김동욱
김용석
Original Assignee
주식회사 제론헬스케어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제론헬스케어 filed Critical 주식회사 제론헬스케어
Priority to KR1020140043730A priority Critical patent/KR101554677B1/en
Application granted granted Critical
Publication of KR101554677B1 publication Critical patent/KR101554677B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

The present invention relates to a system for recognizing a physical behavior using an RGB-depth (RGBD) camera, including: an RGBD camera unit for detecting information on each joint of a human body and a skeleton image by extracting three-dimensional depth data of each imaging subject; a joint analysis unit for extracting a movement path of the joint and the skeleton image from the information on each joint of the human body and the skeleton image detected from the RGBD camera unit; and a main server including an activity determination unit for determining a behavior type of the correspondent imaging subject by comparing a stored behavior example DB in which a physical behavior type is presorted by movement path information on the joint and the skeleton image analyzed in the joint analysis unit, and a movement property of each joint of the human body and a skeleton movement. According to the present invention, provided is the system for recognizing a physical behavior which can instantly and accurately realize information on a current behavior type of each person at an imaging place.

Description

신체 행동 인지 시스템{SYSTEM FOR SENSORING BODY BEHAVIOR}[0001] SYSTEM FOR SENSORING BODY BEHAVIOR [0002]

본 발명은 신체 행동 인지 시스템에 관한 것으로, 보다 상세하게는 촬영 장소에서 각 사람의 현재 행동의 종류에 대한 정보가 즉각적이고 정확하게 파악되어 제공될 수 있도록 하는 신체 행동 인지 시스템에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a body behavior recognition system, and more particularly, to a body behavior recognition system that allows information on a current type of a person to be instantly and accurately grasped and provided at a photographing place.

본 발명은 신체 행동 인지 시스템에 관한 것이다.The present invention relates to a body behavior awareness system.

기존에는 도로나 공항 또는 지하철 등 공공장소에 설치된 CCTV 등을 이용하여 촬영된 이미지를 담당자가 직접 눈으로 확인하며 특정 행동 내지 주시 행동에 대한 관찰을 수행하는 시스템만이 제공되고 있다.In the past, only a system has been provided in which a person in charge can visually confirm an image photographed using a CCTV installed in a public place such as a road, an airport or a subway, and observe specific actions or observing behaviors.

그러나, 상술한 기존의 시스템만으로는 특정 테러와 관련될 수 있는 각종 행위나 자살 또는 폭행 등과 관련될 수 있는 각종 행위에 대한 모든 관찰이 실질적으로 불가능하고, 그에 관한 즉각적인 관찰이 불가능하여 현실적인 사고 예방이 불가능한 문제가 있다.However, with the above-mentioned existing system, it is impossible to observe all kinds of behaviors that may be related to specific terrorism or related to suicide or assault, and it is not possible to observe it immediately, there is a problem.

또한, 기존의 시스템은 사후 조사의 경우에도, 많은 인력과 시간 및 비용이 소요되는 문제가 있다.
In addition, the existing system has a problem that it requires a lot of manpower, time, and cost even in the case of post-survey.

본 발명의 배경이 되는 기술은 대한민국 등록특허공보 제0336440호 등에 개시되어 있으나, 상술한 문제점에 대한 해결책은 제시되고 있지 못하는 실정이다.
Although the technique as a background of the present invention is disclosed in Korean Patent Registration No. 0336440, a solution to the above-mentioned problems is not presented.

상술한 문제점을 해결하기 위해 안출된 본 발명의 목적은 신체 각각의 조인트 및 뼈대 이미지 정보를 검출하는 RGBD(RGB-Depth) 카메라부와 검출된 조인트 및 뼈대 이미지 정보로부터 신체의 행동 종류를 판단하는 메인 서버를 포함함으로써, 촬영 장소에서 각 사람의 현재 행동의 종류에 대한 정보가 즉각적이고 정확하게 파악되어 제공될 수 있도록 하는 신체 행동 인지 시스템을 제공하기 위한 것이다.SUMMARY OF THE INVENTION It is an object of the present invention, which is devised to solve the above-mentioned problems, to provide an image processing apparatus, comprising: an RGBD (RGB-Depth) camera section for detecting joint and skeleton image information of each body; The present invention is intended to provide a body behavior awareness system that enables information on the kind of each person's current behavior to be instantly and accurately grasped and provided at a shooting place by including a server.

또한, 독립된 신체를 구성하는 독립 신체에 대한 조인트 및 뼈대 이미지 정보를 판단하는 독립 객체 판단부와 독립 객체 판단부에서 판단된 독립된 신체 각각의 조인트와 뼈대의 이동 경로를 분석하고 독립된 신체간 상호 연동 여부를 판단하는 객체간 상호작용 판단부를 더 포함함으로써, 촬영되는 장소에서 2 이상의 사람에 의한 상호 연동되는 행동까지도 즉각적이고 정확하게 파악되어 제공될 수 있도록 하는 신체 행동 인지 시스템을 제공하기 위함이다.
In addition, the independent object determination unit for determining the joint and skeleton image information for the independent body constituting the independent body and the movement path of the joint and the skeleton of the independent body determined by the independent object determination unit are analyzed, and the independent inter- The present invention also provides a system for recognizing a body behavior, which can instantaneously and precisely grasp the interactions between two or more persons at a scene where they are photographed.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 촬영 대상 객체 각각의 3차원 깊이(Depth) 데이터를 추출하여 신체 각각의 조인트 및 뼈대 이미지 정보를 검출하는 RGBD(RGB-Depth) 카메라부; 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 조인트와 뼈대 이미지의 이동 경로를 분석하여 추출하는 조인트 분석부와, 상기 조인트 분석부에서 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 신체 행동 종류가 기 분류되어 저장된 행동예시 DB를 비교하여 대응되는 촬영 대상 객체의 행동 종류를 판단하는 액티비티 판단부를 포함하는 메인 서버; 를 포함하고, 상기 조인트 분석부는, 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 기 설정된 조인트 및 뼈대 사이의 결합 거리와 연동 관계로부터 독립된 신체를 구성하는 독립 신체에 대한 조인트 및 뼈대 이미지 정보를 판단하는 독립 객체 판단부와, 상기 독립 객체 판단부에서 판단된 독립된 신체 각각의 조인트와 뼈대의 이동 경로를 분석하고 독립된 신체간 상호 연동 여부를 판단하는 객체간 상호작용 판단부를 더 포함하고, 상기 독립 객체 판단부에서 판단된 독립 신체 각각에 대해 상기 조인트와 뼈대 이미지의 이동 경로를 개별적으로 분석하여 추출하고, 상기 행동예시 DB에는, 2 이상의 독립된 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 상기 독립된 신체간 연동 행동 종류가 더 분류되어 저장되며, 상기 액티비티 판단부는, 상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 상기 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 상기 행동예시 DB를 비교하여 대응되는 연동 행동 종류를 더 판단하는 것을 특징으로 하며, 상기 행동예시 DB에는, 기 설정된 3차원 좌표계의 기준점을 기준으로 2 이상의 독립된 신체 각각의 얼굴 벡터좌표의 변화에 따른 상호 행동 종류가 더 분류되어 저장되고, 상기 조인트 분석부는, 상기 독립 객체 판단부에서 상기 신체 각각의 조인트 및 뼈대 이미지 정보로부터 머리의 얼굴 정보를 더 분석하여 추출하도록 하고, 상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상기 기 설정된 3차원 좌표계의 기준점을 기준으로 상기 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보를 더 추출하고, 상기 액티비티 판단부는, 상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보와 상기 행동예시 DB를 비교하여 대응되는 상호 행동 종류를 더 판단하는 것을 특징으로 한다.According to an aspect of the present invention, an RGBD (Depth) camera section for extracting three-dimensional depth data of each object to be imaged and detecting joint and skeleton image information of each body, ; A joint analyzer for analyzing and extracting a movement path of a joint and a skeleton image from the joint and skeleton image information of each of the bodies detected by the RGBD camera unit; a joint analyzer for analyzing the movement path information of the joint and the skeleton image analyzed by the joint analyzer, A main server including an activity judging unit for judging a behavior type of a corresponding object to be photographed by comparing a behavior behavior DB of the type of physical behavior according to the movement characteristics of each joint and skeletal movement; Wherein the joint analyzing unit is configured to determine joints and skeleton image information of each of the bodies detected by the RGBD camera unit, joints and skeletons for an independent body constituting an independent body from an interlocking relationship with predetermined joints and skeletons, And an inter-object interaction determination unit for analyzing the movement paths of the joints and the skeletons of each of the independent bodies determined by the independent object determination unit and determining whether the inter-body interactions are independent, , And the motion path of the joint and the skeleton image is individually analyzed and extracted for each of the independent bodies determined by the independent object determination unit, and the behavior example DB stores the movement characteristics of joints and skeleton movements of two or more independent bodies The independent inter-bodily interactions are further classified and stored , The activity determining unit may determine that the interactions between the bodies are independent of each other in the inter-object interaction determining unit, the moving path information of the analyzed joints and the skeleton images of each independent body determined to be interlocked, The behavioral example DB further includes a mutual behavior type according to a change in the face vector coordinate of each of two or more independent bodies based on a reference point of a predetermined three dimensional coordinate system And the joint analyzer further analyzes and extracts facial information of the head from the joint and skeleton image information of each of the bodies by the independent object determiner, and the inter- If it is determined that the interlocking operation is performed, the reference point of the predetermined three- The activity determination unit may further extract information on change in vector coordinates of faces of each of the determined independent bodies, and when the determination unit determines that the inter-subject interactions are independent in the inter-object interaction determination unit, And comparing the change information of the vector coordinates of each face with the behavior example DB to further determine the kind of mutual action corresponding thereto.

이때, 상기 조인트 분석부는, 기 설정된 3차원 좌표계의 기준점을 기준으로, 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보의 이동 경로에 대한 3차원 좌표값들을 추출하고, 상기 추출된 상기 신체 각각의 조인트 및 뼈대 이미지 정보의 3차원 좌표값들을 기준으로 상기 이동 경로 정보를 추출하는 것을 특징으로 한다.At this time, the joint analyzing unit extracts three-dimensional coordinate values of a moving path of joint and skeleton image information of each of the bodies detected by the RGBD camera unit based on a reference point of a predetermined three-dimensional coordinate system, And extracts the movement route information based on three-dimensional coordinate values of joint and skeleton image information of each body.

삭제delete

삭제delete

이상 살펴본 바와 같은 본 발명에 따르면, 촬영 장소에서 각 사람의 현재 행동의 종류에 대한 정보가 즉각적이고 정확하게 파악되어 제공될 수 있는 신체 행동 인지 시스템을 제공할 수 있다.As described above, according to the present invention, it is possible to provide a body behavior perception system in which information on the type of the current behavior of each person at the shooting location can be immediately and accurately grasped and provided.

또한, 본 발명에 따르면 촬영되는 장소에서 2 이상의 사람에 의한 상호 연동되는 행동까지도 즉각적이고 정확하게 파악되어 제공될 수 있는 신체 행동 인지 시스템을 제공할 수 있다.
In addition, according to the present invention, it is possible to provide a body behavior perception system capable of instantly and precisely grasping and providing even interoperable behaviors by two or more persons at a scene of photographing.

도 1은 본 발명의 바람직한 실시예에 의한 신체 행동 인지 시스템의 전체 구성을 나타내기 위한 블록 구성도이다.
도 2는 2 이상의 사람에 대한 상호 연동 행동까지 파악할 수 있도록 하는 객체 판단부를 포함한 전체 블록 구성도이다.
도 3의 (a)는 RGBD 카메라부에 의해 촬영된 가공 전 이미지에 대한 예시도이고, 도 3의 (b)는 2 객체, 즉 2 사람에 대한 깊이 데이터에 따른 이미지 정보에 대한 예시도이며, 도 3의 (c)는 2 사람에 대한 각각의 조인트 및 뼈대 이미지 정보에 대한 예시도이다.
도 4의 (a)는 신체의 관절과 뼈대 분류에 대한 기준이 되는 예시도이고, 도 4의 (b)는 도 4의 (a)에 따라 추출된 2 사람의 조인트 및 뼈대 이미지 정보에 대한 예시도이다.
도 5는 본 발명에 대한 전체적인 시스템을 구성하는 블록 구성의 예시도이다.
도 6은 신체 조인트 정보에 대한 예시 분류표이다.
도 7 내지 도 11은 각각, 2 사람의 관계에서 얼굴 벡터좌표의 변화에 따른 상호 행동 종류 5가지에 대한 예시를 나타내기 위한 예시도이다.
FIG. 1 is a block diagram illustrating an overall configuration of a body motion perception system according to a preferred embodiment of the present invention. Referring to FIG.
FIG. 2 is a block diagram of an entire block including an object determination unit that allows a user to grasp interworking behavior for two or more persons.
FIG. 3 (a) is an exemplary view of a pre-processing image captured by the RGBD camera unit, FIG. 3 (b) is an exemplary view of image information according to depth data for two objects, Figure 3 (c) is an illustration of each joint and skeleton image information for two persons.
FIG. 4A is an example of a standard for the joint and skeleton classification of the body, FIG. 4B is an example of two joints and skeleton image information extracted according to FIG. 4A, .
5 is an exemplary diagram of a block configuration constituting an overall system for the present invention.
6 is an exemplary classification table for body joint information.
FIGS. 7 to 11 are diagrams for illustrating examples of five types of mutual actions according to changes in face vector coordinates in a two-person relationship; FIG.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings.

그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다 The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

이하, 본 발명의 실시예들에 의하여 [발명의 명칭]을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.DETAILED DESCRIPTION OF THE INVENTION Hereinafter, the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 실시예에 의한 신체 행동 인지 시스템의 전체 구성을 나타내기 위한 블록 구성도이고, 도 2는 2 이상의 사람에 대한 상호 연동 행동까지 파악할 수 있도록 하는 객체 판단부를 포함한 전체 블록 구성도이다.FIG. 1 is a block diagram illustrating an overall configuration of a body motion perception system according to a preferred embodiment of the present invention. FIG. 2 is a block diagram of an overall block configuration including an object determination unit .

도 3의 (a)는 RGBD 카메라부에 의해 촬영된 가공 전 이미지에 대한 예시도이고, 도 3의 (b)는 2 객체, 즉 2 사람에 대한 깊이 데이터에 따른 이미지 정보에 대한 예시도이며, 도 3의 (c)는 2 사람에 대한 각각의 조인트 및 뼈대 이미지 정보에 대한 예시도이다.FIG. 3 (a) is an exemplary view of a pre-processing image captured by the RGBD camera unit, FIG. 3 (b) is an exemplary view of image information according to depth data for two objects, Figure 3 (c) is an illustration of each joint and skeleton image information for two persons.

도 4의 (a)는 신체의 관절과 뼈대 분류에 대한 기준이 되는 예시도이고, 도 4의 (b)는 도 4의 (a)에 따라 추출된 2 사람의 조인트 및 뼈대 이미지 정보에 대한 예시도이다.FIG. 4A is an example of a standard for the joint and skeleton classification of the body, FIG. 4B is an example of two joints and skeleton image information extracted according to FIG. 4A, .

도 5는 본 발명에 대한 전체적인 시스템을 구성하는 블록 구성의 예시도이고, 도 6은 신체 조인트 정보에 대한 예시 분류표이다.FIG. 5 is an exemplary view of a block configuration that constitutes the overall system of the present invention, and FIG. 6 is an exemplary classification table of body joint information.

도 7 내지 도 11은 각각, 2 사람의 관계에서 얼굴 벡터좌표의 변화에 따른 상호 행동 종류 5가지에 대한 예시를 나타내기 위한 예시도이다.FIGS. 7 to 11 are diagrams for illustrating an example of five kinds of mutual actions according to changes in face vector coordinates in a two-person relationship; FIG.

본 발명의 바람직한 실시예에 따른 신체 행동 인지 시스템은 촬영 대상 객체 각각의 3차원 깊이(Depth) 데이터를 추출하여 신체 각각의 조인트 및 뼈대 이미지 정보를 검출하는 RGBD(RGB-Depth) 카메라부(100)와, 상기 RGBD 카메라부(100)에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 조인트와 뼈대 이미지의 이동 경로를 분석하여 추출하는 조인트 분석부와(210), 상기 조인트 분석부(210)에서 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 신체 행동 종류가 기 분류되어 저장된 행동예시 DB(230)를 비교하여 대응되는 촬영 대상 객체의 행동 종류를 판단하는 액티비티 판단부(220)를 포함하는 메인 서버(200)를 포함한다.The body behavior recognition system according to the preferred embodiment of the present invention includes an RGBD (Depth-of-RGB) camera unit 100 for extracting three-dimensional depth data of each object to be imaged and detecting joint and skeleton image information of each body, A joint analysis unit 210 for analyzing and extracting a movement path of a joint and a skeleton image from the joint and skeleton image information of each of the bodies detected by the RGBD camera unit 100, The type of behavior is classified according to movement path information of joints and skeleton images and movement characteristics of joints and skeleton movements of the body, And an activity determination unit 220. The main server 200 includes an activity determination unit 220,

즉, 본 발명에 따른 신체 행동 인지 시스템은 RGBD 카메라부(100)와 메인서버(200)를 포함한다.That is, the body motion recognition system according to the present invention includes the RGBD camera unit 100 and the main server 200.

상기 RGBD 카메라부(100)는 RGBD(RED, GREEN, BLUE, DEPTH) 카메라로, RGBD 센서들을 갖는 3D 이미징 카메라로 획득되는 깊이 데이터를 갖는 이미지로부터, 신체의 조인트와 뼈대 정보를 추정할 수 있는 수단이다.The RGBD camera unit 100 is an RGBD (RED, GREEN, BLUE, DEPTH) camera that can measure the joint and skeleton information of a body from an image having depth data obtained by a 3D imaging camera having RGBD sensors to be.

상기 RGBD 카메라부(100)는 촬영부(110), 배경 추출부(120), 빼대 추출부(130) 및 조인트 분할 추출부(140) 등을 포함한다.The RGBD camera unit 100 includes a photographing unit 110, a background extraction unit 120, a subtraction unit 130, and a joint division extraction unit 140.

상기 촬영부(110)는 RGBD 센서들을 이용하여 일반 CCTV 카메라와 같이 지하철이나 쇼핑몰 등에 존재하는 배경 공간과 사람을 촬영하는 수단이고, 상기 배경 추출부(120)는 촬영 이미지 중 배경에 해당되는 이미지를 추출 제거하는 수단이다.The photographing unit 110 is a means for photographing a background space and a person existing in a subway or a shopping mall, such as a general CCTV camera using RGBD sensors. The background extracting unit 120 extracts an image corresponding to the background It is a means to extract and remove.

상기 뼈대 추출부(130)와 조인트 분할 추출부(140)는 상기 배경이 제거되고 사람의 신체만으로 이루어지고 깊이 데이터를 갖는 이미지로부터 신체의 조인트와 뼈대 정보를 추출하는 수단이다.The skeleton extractor 130 and the joint split extractor 140 are means for extracting joints and skeleton information of a body from an image having the background removed and composed of only a human body and having depth data.

즉, 상기 RGBD 카메라부(100)에 의해, 촬영된 이미지 중 배경 이미지가 제거된 후 신체의 조인트와 뼈대 이미지만으로 구성된 조인트 및 뼈대 이미지 정보가 검출된다. 즉, 상기 RGBD 카메라부(100)는 상기 깊이 데이터를 갖는 신체의 조인트 및 뼈대 이미지로부터, 기 설정된 이미지 프로세서에 의해 신체를 구성하는 조인트 및 뼈대 정보를 검출한다.That is, after the background image is removed from the photographed images, the joint and skeleton image information including only the body joint and the skeleton image is detected by the RGBD camera unit 100. That is, the RGBD camera unit 100 detects joint and skeleton information constituting the body by a predetermined image processor from joints and skeleton images of the body having the depth data.

이때, 상술한 조인트 및 뼈대 이미지 정보 검출에 과해서는 기존의 RGBD 카메라에 의한 조인트 및 뼈대 이미지 검출 과정과 같으므로 이에 관한 구체적인 설명은 생략하도록 한다.Here, the above-described joint and skeleton image information detection is the same as the conventional joint and skeleton image detection process by the RGBD camera, so a detailed description thereof will be omitted.

상기 메인 서버(200)는 조인트 분석부(210)와 액티비티 판단부(220) 및 행동예시 DB(230)를 포함한다.The main server 200 includes a joint analysis unit 210, an activity determination unit 220, and a behavior example DB 230.

상기 메인 서버(200)는 상기 RGBD 카메라부(100)로부터 조인트 및 뼈대 이미지 정보를 전송받고, 그 조인트 및 뼈대의 이미지만에 의한 움직임, 즉 조인트 및 뼈대 이미지의 이동 경로를 분석하여 상기 행동예시 DB(230)에 기 저장된 신체의 각 행동과 분석된 조인트 및 뼈대 이미지의 이동 경로를 비교하여 촬영된 사람의 행동 특성을 판단하는 수단이다.The main server 200 receives joint and skeleton image information from the RGBD camera unit 100 and analyzes movement of joints and skeletons based on images only, that is, movement paths of joints and skeleton images, And comparing the behavior of the body previously stored in the joint 230 and the movement path of the analyzed joint and skeleton images to determine the behavior characteristics of the person who is photographed.

보다 구체적으로, 상기 조인트 분석부(210)는 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 조인트와 뼈대 이미지의 이동 경로를 분석하여 추출하는 수단으로, 조인트 및 뼈대 이미지의 움직임을 분석하는 수단이다.More specifically, the joint analyzer 210 analyzes and extracts the movement path of the joint and the skeleton image from the joint and skeleton image information of each body detected by the RGBD camera, It is a means of analysis.

상기 행동예시 DB(230)는 신체의 조인트와 뼈대의 이동 경로에 따라 신체 행동 종류가 각각 기 분류되어 저장된 DB이다.The behavior example DB 230 is a DB that stores the types of physical behavior classified according to the body joint and the movement path of the skeleton.

즉, 상기 행동예시 DB(230)에는 신체 행동에 따른 조인트와 뼈대의 이동 경로에 대한 데이터들이 신체 행동별로 각각 저장된다.That is, in the behavior example DB 230, data on the movement path of the joint and the skeleton according to the body behavior are stored for each of the body actions.

상기 액티비티 판단부(220)는 상기 조인트 분석부에서 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 상기 행동예시 DB(230)의 데이터들, 즉 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 신체 행동 종류가 기 분류되어 저장된 행동예시 DB(230)를 비교하여, 상기 RGBD 카메라부(100)에서 촬영되어 검출된 조인트 및 뼈대 이미지의 이동 경로로부터 상기 RGBD 카메라부(100)에서 촬영된 사람의 행동 종류를 판단하는 수단이다.The activity determining unit 220 determines the activity based on the movement path information of the joint and the skeleton image analyzed by the joint analysis unit and the data of the behavior example DB 230, The action types DBD230 and DBDD230 are compared with each other and a behavior type of the person photographed by the RGBD camera unit 100 from the movement path of the joint and skeleton images photographed and detected by the RGBD camera unit 100 .

이때, 상기 조인트 분석부(210)는, 기 설정된 3차원 좌표계의 기준점을 기준으로, 상기 RGBD 카메라부(100)에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보의 이동 경로에 대한 3차원 좌표값들을 추출하고, 상기 추출된 상기 신체 각각의 조인트 및 뼈대 이미지 정보의 3차원 좌표값들을 기준으로 상기 이동 경로 정보를 추출한다.At this time, the joint analyzer 210 determines the three-dimensional coordinate values of the movement path of the joint and skeleton image information of each body detected by the RGBD camera unit 100, based on the reference point of the predetermined three-dimensional coordinate system And extracts the movement route information based on the three-dimensional coordinate values of the joint and skeleton image information of each of the extracted bodies.

즉, 상기 RGBD 카메라부(100)에서 검출된 조인트 및 뼈대 이미지 각각을 기 설정된 3차원 좌표계 상의 좌표로 분석하여, 각 조인트와 뼈대의 이동 경로를 분석한다.That is, each of the joint and skeleton images detected by the RGBD camera unit 100 is analyzed as coordinates on a predetermined three-dimensional coordinate system, and the movement path of each joint and the skeleton is analyzed.

상기 조인트 분석부(210)는 독립 객체 판단부(214)와 객체간 상호작용 판단부(215)를 더 포함한다.The joint analysis unit 210 further includes an independent object determination unit 214 and an object interaction determination unit 215.

상기 독립 객체 판단부(214)는 상기 RGBD 카메라부(100)에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 기 설정된 조인트 및 뼈대 사이의 결합 거리와 연동 관계로부터 독립된 신체를 구성하는 독립 신체에 대한 조인트 및 뼈대 이미지 정보를 판단하는 수단이다.The independent object determination unit 214 determines an independent object based on joint distance and skeleton between the joint and skeleton image information of each body detected by the RGBD camera unit 100, Joint and skeleton image information.

즉, 상기 독립 객체 판단부(214)는 상기 RGBD 카메라부(100)에서 촬영된 조인트 및 뼈대 이미지 정보에 2 이상의 사람에 대한 조인트 및 뼈대 이미지 정보가 포함된 경우, 2 이상의 사람 각각에 대한 신체의 조인트 및 뼈대 이미지 정보를 개별적으로 분리하여 각 독립 신체 각각에 대한 조인트와 뼈대 이미지의 이동 경로를 개별적으로 분석하도록 한다.That is, when the joint and skeleton image information photographed by the RGBD camera unit 100 includes joint and skeleton image information for two or more persons, the independent object determination unit 214 determines that the body and / Separate the joint and skeleton image information separately to analyze the movement path of the joint and skeleton image separately for each independent body.

상기 객체간 상호작용 판단부(215)는 상기 독립 객체 판단부(214)에서 판단된 독립된 신체 각각의 조인트와 뼈대의 이동 경로를 분석하고 독립된 신체간 상호 연동 여부를 판단하는 수단이다.The inter-object interaction determination unit 215 analyzes the movement paths of joints and skeletons of each of the independent bodies determined by the independent object determination unit 214, and determines whether or not the inter-body interactions are independent.

즉, 상기 객체간 상호작용 판단부(215)는 상기 RGBD 카메라부(100)에서 검출된 조인트 및 뼈대 이미지 정보에 2 이상의 독립된 신체별 조인트 및 뼈대 이미지 정보로부터 각 이동경로를 분석하고, 2 이상의 신체가 상호 연동하는 지 여부, 예컨대 서로 악수 등 인사를 하거나, 포옹을 하거나 물건을 주고받는 등의 상호 연동 여부를 판단한다.That is, the inter-object interaction determination unit 215 analyzes each movement path from two or more independent body-based joint and skeleton image information in the joint and skeleton image information detected by the RGBD camera unit 100, Whether they interact with each other, such as greeting each other, hugging each other, exchanging goods, or the like.

이때, 상기 행동예시 DB(230)에는 2 이상의 독립된 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 상기 독립된 신체간 연동 행동 종류가 더 분류되어 저장된다.At this time, the behavioral example database 230 further stores the independent inter-bodily interactions according to the movement characteristics of joints and skeletal movements of two or more independent bodies.

이때, 상기 조인트 부석부(210)는 상기 독립 객체 판단부에서 판단된 독립 신체 각각에 대해 상기 조인트와 뼈대 이미지의 이동 경로를 개별적으로 분석하여 추출할 것이다.At this time, the joint pivot unit 210 will individually analyze and extract the movement path of the joint and the skeleton image for each independent body determined by the independent object determination unit.

또한, 상기 액티비티 판단부(220)는 상기 객체간 상호작용 판단부(215)에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 상기 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 상기 행동예시 DB(230)를 비교하여 대응되는 연동 행동 종류를 더 판단한다.If it is determined that the inter-object interactions are independent in the inter-object interaction determination unit 215, the activity determination unit 220 determines that the inter-object interactions between the analyzed joints and the skeleton image movement path Information is compared with the action example DB 230 to further determine the corresponding interlocking behavior type.

이때, 상기 행동예시 DB(230)에는 기 설정된 3차원 좌표계의 기준점을 기준으로 2 이상의 독립된 신체 각각의 얼굴 벡터좌표의 변화에 따른 상호 행동 종류가 더 분류되어 저장되는 것이 바람직하다.At this time, it is preferable that the behavior example DB 230 further stores the mutual action types according to the change of the face vector coordinates of two or more independent bodies based on the reference point of the predetermined three-dimensional coordinate system.

즉, 상기 행동예시 DB(230)에는 2 이상의 사람이 서로 악수 등 인사를 하거나, 포옹을 하거나 물건을 주고받는 등 상호 연동 각각의 경우에 대한, 2 이상의 사람의 얼굴 벡터좌표의 변화 데이터가 각 상호 연동의 종류별로 기 저장된다.That is, in the action example DB 230, change data of face vector coordinates of two or more persons for each mutual interlock, such as two or more persons hailing each other, hugging each other, hugging, It is stored by type of interlocking.

이때, 상기 조인트 분석부(210)는, 상기 독립 객체 판단부(214)에서 상기 신체 각각의 조인트 및 뼈대 이미지 정보로부터 머리의 얼굴 정보를 더 분석하여 추출하도록 하고, 상기 객체간 상호작용 판단부(215)에서 독립된 신체간 상호 연동으로 판단된 경우, 상기 기 설정된 3차원 좌표계의 기준점을 기준으로 상기 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보를 더 추출한다.At this time, the joint analyzer 210 further analyzes and extracts facial information of the head from the joint and skeleton image information of each body by the independent object determiner 214, and the inter- 215, the change information of the vector coordinates of the face of each of the determined independent bodies is further extracted based on the reference point of the predetermined three-dimensional coordinate system.

또한, 상기 액티비티 판단부(220)는, 상기 객체간 상호작용 판단부(215)에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보와 상기 행동예시 DB(230)를 비교하여 대응되는 상호 행동 종류를 더 판단한다.In addition, when the inter-object interaction determining unit 215 determines that the inter-body interworking is independent, the activity determining unit 220 determines that the inter-object inter- The action example DB 230 is compared with each other and the corresponding mutual action type is further determined.

즉, 본 발명에 따른 신체 행동 인지 시스템은, RGBD 카메라부(100)에서 검출된 각 신체의 조인트 및 뼈대 이미지 정보로부터, 각 신체의 조인트와 뼈대의 이동 경로로부터 각 신체의 행동 종류를 판단하고, 2 이상의 신체가 상호 연동하는 행동을 하는 경우, 그 상호 연동의 종류까지 파악하도록 함으로써, 공항이나 지하철 또는 공공장소 등에서 사람들의 행동으로부터 특정 위험 행동 또는 특정 주시 행동을 즉각적으로 판단하여 제공될 수 있도록 한다.
That is, the body motion perception system according to the present invention determines the type of behavior of each body from joints and skeleton movement paths of each body from the joint and skeleton image information of each body detected by the RGBD camera unit 100, If two or more bodies perform mutually interdependent actions, the type of mutual interdependence can be grasped so that they can be instantly judged by a person's behavior in an airport, subway or public place, .

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the foregoing detailed description, and all changes or modifications derived from the meaning and scope of the claims and the equivalents thereof are included in the scope of the present invention Should be interpreted.

100: RGBD 카메라부 110: 촬영부
120: 배경 추출부 130: 뼈대 추출부
140: 조인트 분할 추출부 200: 메인 서버
210: 조인트 분석부 211: 조인트 움직임 분석부
212: 조인트 행동 탐지부 213: 객체 판독부
214: 독립 객체 판단부 215: 객체간 상호작용 판단부]
220: 액티비티 판단부 230: 행동예시 DB
100: RGBD camera unit 110:
120: background extraction unit 130: skeleton extraction unit
140: joint split extraction unit 200: main server
210: joint analysis unit 211: joint motion analysis unit
212: joint behavior detection unit 213: object reading unit
214: Independent object deciding unit 215: Inter-object deciding unit)
220: activity determining unit 230: action example DB

Claims (4)

촬영 대상 객체 각각의 3차원 깊이(Depth) 데이터를 추출하여 신체 각각의 조인트 및 뼈대 이미지 정보를 검출하는 RGBD(RGB-Depth) 카메라부;
상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 조인트와 뼈대 이미지의 이동 경로를 분석하여 추출하는 조인트 분석부와, 상기 조인트 분석부에서 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 신체 행동 종류가 기 분류되어 저장된 행동예시 DB를 비교하여 대응되는 촬영 대상 객체의 행동 종류를 판단하는 액티비티 판단부를 포함하는 메인 서버; 를 포함하고,
상기 조인트 분석부는,
상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 기 설정된 조인트 및 뼈대 사이의 결합 거리와 연동 관계로부터 독립된 신체를 구성하는 독립 신체에 대한 조인트 및 뼈대 이미지 정보를 판단하는 독립 객체 판단부와,
상기 독립 객체 판단부에서 판단된 독립된 신체 각각의 조인트와 뼈대의 이동 경로를 분석하고 독립된 신체간 상호 연동 여부를 판단하는 객체간 상호작용 판단부를 더 포함하고,
상기 독립 객체 판단부에서 판단된 독립 신체 각각에 대해 상기 조인트와 뼈대 이미지의 이동 경로를 개별적으로 분석하여 추출하고,
상기 행동예시 DB에는,
2 이상의 독립된 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 상기 독립된 신체간 연동 행동 종류가 더 분류되어 저장되며,
상기 액티비티 판단부는,
상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 상기 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 상기 행동예시 DB를 비교하여 대응되는 연동 행동 종류를 더 판단하는 것을 특징으로 하며,
상기 행동예시 DB에는,
기 설정된 3차원 좌표계의 기준점을 기준으로 2 이상의 독립된 신체 각각의 얼굴 벡터좌표의 변화에 따른 상호 행동 종류가 더 분류되어 저장되고,
상기 조인트 분석부는,
상기 독립 객체 판단부에서 상기 신체 각각의 조인트 및 뼈대 이미지 정보로부터 머리의 얼굴 정보를 더 분석하여 추출하도록 하고,
상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상기 기 설정된 3차원 좌표계의 기준점을 기준으로 상기 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보를 더 추출하고,
상기 액티비티 판단부는,
상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보와 상기 행동예시 DB를 비교하여 대응되는 상호 행동 종류를 더 판단하는 것을 특징으로 하는 RGBD 카메라를 이용한 신체 행동 인지 시스템.
An RGBD (Depth-of-RGB) camera unit for extracting three-dimensional depth data of each object to be imaged and detecting joint and skeleton image information of each body;
A joint analyzer for analyzing and extracting a movement path of a joint and a skeleton image from the joint and skeleton image information of each of the bodies detected by the RGBD camera unit; a joint analyzer for analyzing the movement path information of the joint and the skeleton image analyzed by the joint analyzer, A main server including an activity judging unit for judging a behavior type of a corresponding object to be photographed by comparing a behavior behavior DB of the type of physical behavior according to movement characteristics of each joint and skeletal movement, Lt; / RTI >
Wherein the joint analyzer comprises:
An independent object judging unit for judging joint and skeleton image information for an independent body constituting an independent body from a joint distance and an interlocking relation between predetermined joints and skeletons from the joint and skeleton image information of each body detected by the RGBD camera unit, Wow,
Further comprising an inter-object interaction determiner for analyzing the movement paths of joints and skeletons of each of the independent bodies determined by the independent object determiner and determining whether the inter-
Extracting and analyzing movement paths of the joint and the skeleton image separately for each independent body determined by the independent object determination unit,
In the action example DB,
The independent inter-bodily interactions are further classified and stored according to the movement characteristics of joints and skeletal movements of two or more independent bodies,
The activity judging unit judges,
When the inter-object interaction judging unit judges that inter-body interactions are independent, it compares the analyzed joints and the movement route information of the skeleton image of each independent body judged to be interlinked with the behavior example DB, And further judges the type thereof,
In the action example DB,
The mutual action types according to the changes of the face vector coordinates of two or more independent bodies are further classified and stored based on the reference point of the predetermined three dimensional coordinate system,
Wherein the joint analyzer comprises:
The independent object determination unit further analyzes and extracts facial information of the head from the joint and skeleton image information of each of the bodies,
Wherein when the inter-object interaction determining unit determines that inter-body interactions are independent, it further extracts change information of the vector coordinates of each of the determined independent bodies based on the reference point of the predetermined three-dimensional coordinate system,
The activity judging unit judges,
When the inter-object interaction determining unit determines that the inter-body interworking is independent, the information on the change in the vector coordinates of the respective faces of the independent bodies judged to be mutually interrelated is compared with the behavioral example DB, Wherein the body motion recognition system uses an RGBD camera.
제 1 항에 있어서,
상기 조인트 분석부는,
기 설정된 3차원 좌표계의 기준점을 기준으로, 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보의 이동 경로에 대한 3차원 좌표값들을 추출하고,
상기 추출된 상기 신체 각각의 조인트 및 뼈대 이미지 정보의 3차원 좌표값들을 기준으로 상기 이동 경로 정보를 추출하는 것을 특징으로 하는 RGBD 카메라를 이용한 신체 행동 인지 시스템.
The method according to claim 1,
Wherein the joint analyzer comprises:
Extracting three-dimensional coordinate values of the movement path of the joint and skeleton image information of each of the bodies detected by the RGBD camera unit on the basis of the reference point of the predetermined three-dimensional coordinate system,
And extracting the movement path information based on three-dimensional coordinate values of joint and skeleton image information of each of the extracted bodies.
삭제delete 삭제delete
KR1020140043730A 2014-04-11 2014-04-11 System for sensoring body behavior KR101554677B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140043730A KR101554677B1 (en) 2014-04-11 2014-04-11 System for sensoring body behavior

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140043730A KR101554677B1 (en) 2014-04-11 2014-04-11 System for sensoring body behavior

Publications (1)

Publication Number Publication Date
KR101554677B1 true KR101554677B1 (en) 2015-10-01

Family

ID=54338386

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140043730A KR101554677B1 (en) 2014-04-11 2014-04-11 System for sensoring body behavior

Country Status (1)

Country Link
KR (1) KR101554677B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108846348A (en) * 2018-06-07 2018-11-20 四川大学 A kind of Human bodys' response method based on three-dimensional skeleton character
KR20190128500A (en) * 2018-05-08 2019-11-18 한국전자통신연구원 Method and apparatus for detecting garbage dumping action in real time on video surveillance system
KR102075403B1 (en) * 2018-10-01 2020-02-10 선문대학교 산학협력단 Balance evaluation and training method of standing posture using rgbd camera and system comprising the same
KR102154720B1 (en) * 2019-08-06 2020-09-10 농업협동조합중앙회 METHOD FOR IDENTIFYING PURCHASER OF ITEMs ON SHELVES IN A STORE, AND ELECTRONIC APPARATUS THEREOF

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Borges, Paulo Vinicius Koerich, Nicola Conci, and Andrea Cavallaro. "Video-based human behavior understanding: a survey." Circuits and Systems for Video Technology, IEEE Tr. 23.11 (2013): 1993-2008.
K. Yun, et al. "Two-person interaction detection using body-pose features and multiple instance learning," CVPRW, 2012 IEEE Computer Society Conference on, 2012.*
Rota, Paolo, Nicola Conci, and Nicu Sebe. "Real time detection of social interactions in surveillance video." Computer vision-ECCV 2012. Workshops and demonstrations. Springer Berlin Heidelberg, 2012.

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190128500A (en) * 2018-05-08 2019-11-18 한국전자통신연구원 Method and apparatus for detecting garbage dumping action in real time on video surveillance system
KR102153591B1 (en) * 2018-05-08 2020-09-09 한국전자통신연구원 Method and apparatus for detecting garbage dumping action in real time on video surveillance system
US11048942B2 (en) 2018-05-08 2021-06-29 Electronics And Telecommunications Research Institute Method and apparatus for detecting a garbage dumping action in real time on video surveillance system
CN108846348A (en) * 2018-06-07 2018-11-20 四川大学 A kind of Human bodys' response method based on three-dimensional skeleton character
KR102075403B1 (en) * 2018-10-01 2020-02-10 선문대학교 산학협력단 Balance evaluation and training method of standing posture using rgbd camera and system comprising the same
KR102154720B1 (en) * 2019-08-06 2020-09-10 농업협동조합중앙회 METHOD FOR IDENTIFYING PURCHASER OF ITEMs ON SHELVES IN A STORE, AND ELECTRONIC APPARATUS THEREOF

Similar Documents

Publication Publication Date Title
JP4177826B2 (en) Image processing apparatus and image processing method
JP6700752B2 (en) Position detecting device, position detecting method and program
KR101355974B1 (en) Method and devices for tracking multiple object
KR101554677B1 (en) System for sensoring body behavior
US9710960B2 (en) Closed-form 3D model generation of non-rigid complex objects from incomplete and noisy scans
AU2015203771B2 (en) A method and apparatus for surveillance
US10063843B2 (en) Image processing apparatus and image processing method for estimating three-dimensional position of object in image
KR101608889B1 (en) Monitoring system and method for queue
KR20170077444A (en) System and method for recognizing human pose
JP2013235580A (en) Video analysis
KR101592262B1 (en) System for unifying camera image files
JP6647489B1 (en) Suspicious body / abnormal body detection device
JP6290760B2 (en) Work similarity calculation method, apparatus and program
JP6638723B2 (en) Image analysis device, image analysis method, and image analysis program
CN110580708B (en) Rapid movement detection method and device and electronic equipment
JP2004301607A (en) Moving object detection device, moving object detection method, and moving object detection program
JP2009211122A (en) Image processor and object estimation program
CN111832450B (en) Knife holding detection method based on image recognition
KR20120091970A (en) System, device and method for object image registration, and recording medium having the method recorded thereon
JP5679456B2 (en) Human detection device, human detection method, and human detection program
JP6606340B2 (en) Image detection apparatus, image detection method, and program
Kosmopoulos et al. Fusion of color and depth video for human behavior recognition in an assistive environment
Wan et al. Stereo vision tracking system
Raju et al. Cognitive object recognition system (CORS)
Castrillón-Santana et al. People semantic description and re-identification from point cloud geometry

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180830

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190910

Year of fee payment: 5