KR101955596B1 - System and method for tracking human using two depth images - Google Patents

System and method for tracking human using two depth images Download PDF

Info

Publication number
KR101955596B1
KR101955596B1 KR1020170084102A KR20170084102A KR101955596B1 KR 101955596 B1 KR101955596 B1 KR 101955596B1 KR 1020170084102 A KR1020170084102 A KR 1020170084102A KR 20170084102 A KR20170084102 A KR 20170084102A KR 101955596 B1 KR101955596 B1 KR 101955596B1
Authority
KR
South Korea
Prior art keywords
human body
depth image
determined
target area
intersection
Prior art date
Application number
KR1020170084102A
Other languages
Korean (ko)
Other versions
KR20190004044A (en
Inventor
송승찬
임경돈
Original Assignee
송승찬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 송승찬 filed Critical 송승찬
Priority to KR1020170084102A priority Critical patent/KR101955596B1/en
Publication of KR20190004044A publication Critical patent/KR20190004044A/en
Application granted granted Critical
Publication of KR101955596B1 publication Critical patent/KR101955596B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 2개의 깊이 영상을 이용하는 인체 추적 시스템 및 방법을 제공한다. 상기 시스템은, 소정의 목표 구역을 측면에서 비스듬히 바라보는 제1 깊이 센서; 상기 목표 구역을 수직으로 내려다 바라보는 제2 깊이 센서; 상기 제1 깊이 센서에 의한 제1 깊이 영상으로부터 탐지된 제1 물체가 인체로 판정되면 상기 제1 물체의 상기 목표 구역 내에서의 위치를 판정하여 제1 위치로 설정하고, 상기 제2 깊이 센서에 의한 제2 깊이 영상으로부터 탐지된 제2 물체가 인체로 판정되면 상기 제2 물체의 상기 목표 구역 내에서의 위치를 판정하여 제2 위치로 설정하고, 상기 제1 위치와 상기 제2 위치를 서로 비교하여 동일한 위치로 판정되는 경우에 상기 제1 물체와 상기 제2 물체를 인체로 확정하는 기능을 수행하는 분석 장치;를 포함한다. The present invention provides a human tracking system and method using two depth images. The system comprises: a first depth sensor for viewing a predetermined target area at an angle from a side; A second depth sensor for looking down the target area vertically; Wherein the position of the first object in the target area is determined and set to the first position when the first object detected from the first depth image by the first depth sensor is determined as a human body, Determines the position of the second object in the target area and sets it to the second position when the second object detected from the second depth image by the second depth image is determined to be the human body and compares the first position and the second position with each other And determining the first object and the second object as a human body when it is determined that the first object and the second object are at the same position.

Description

2개의 깊이 영상을 이용하는 인체 추적 시스템 및 방법{SYSTEM AND METHOD FOR TRACKING HUMAN USING TWO DEPTH IMAGES}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a system and method for tracking two depth images,

본 발명은 목표 구역을 촬영한 깊이 영상으로부터 인체를 탐지하여 추적하는 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for detecting and tracking a human body from a depth image of a target area.

최근 RGB 카메라와 깊이(depth) 센서를 결합한 깊이 센서 카메라가 보급되고 있다. 또한, 깊이 센서 카메라에 의해 생성된 깊이 영상을 분석하여 사물의 형상 및 거리를 인식할 수 있으며, 사물의 형상 및 이동을 분석하여, 인식된 사물이 인체인지 식별하는 기술이 개발되고 있다. Recently, a depth sensor camera combining RGB camera and depth sensor is popular. In addition, techniques for recognizing the human body by recognizing the shape and the distance of the object by analyzing the depth image generated by the depth sensor camera and analyzing the shape and movement of the object have been developed.

특히, 깊이 영상으로부터 인체의 관절에 해당하는 뼈대(skeleton) 모형이 식별되면 인체가 탐지된 것으로 결정할 수 있다. 그리고, 더 나아가, 뼈대 모형의 움직임을 인식하여 인체의 움직임을 식별할 수 있게 된다. In particular, if a skeleton model corresponding to the joints of the human body is identified from the depth image, it can be determined that the human body has been detected. Furthermore, the movement of the human body can be recognized by recognizing the motion of the skeletal model.

이와 관련한 종래 기술로서, 등록특허공보 제10-1636171호(명칭: 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템)를 들 수 있다. As a related art related to this, Japanese Patent Application Laid-Open No. 10-1636171 entitled Skeleton tracking method and skeleton tracking system using the same, can be mentioned.

상기 종래 기술에서는, N개의 뎁스(depth) 센서 카메라들로부터 복수의 관절들을 갖는 임의의 인체에 대한 N개의 촬영 정보들을 생성하는 단계(단, N은 2 이상의 정수임), 상기 촬영 정보들로부터 상기 관절들 각각에서의 N개의 위치 정보들을 추출하는 단계, 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산하는 단계, 및 상기 관절들 각각에 대한 통합 위치 정보를 이용하여 상기 인체에 대한 스켈레톤(skeleton) 모형을 형성하는 단계를 포함한다. 이와 같이, 상기 관절들 각각에서의 N개의 위치 정보들로부터 상기 관절들 각각에 대한 통합 위치 정보를 계산하는 것을 개시하고 있다.In the above conventional technique, N photographing information for an arbitrary human body having a plurality of joints from N depth sensor cameras (N is an integer equal to or greater than 2) is generated from the photographing information, Extracting N positional information from each of the joints, calculating integrated position information for each of the joints from N positional information in each of the joints, To form a skeleton model for the human body. Thus, it is disclosed to calculate the combined position information for each of the joints from the N positional information in each of the joints.

이와 같은 종래 기술에서는, 2이상인 N개의 뎁스 센서 카메라들을 이용하므로 필요한 장비의 개수가 많아서 시스템 구성 비용이 높고, 정보 처리 부담이 크다. 또한, 뼈대 모형을 식별할 수 있다고 하여 그 사물이 인체라고 확정하는 것은 무리가 있다. In such a conventional technique, since N depth sensor cameras of 2 or more are used, the number of necessary equipments is large, the system configuration cost is high, and information processing burden is large. Also, it is impossible to determine the object as a human body because it can identify the skeletal model.

따라서, 사물과 인체가 혼재된 특정의 목표 구역에서 촬영으로 생성된 깊이 영상으로부터 사물과 인체를 정확하게 구분하기 위한 더욱 개선된 방법이 필요하다. Therefore, there is a need for a more improved method for precisely distinguishing between objects and human bodies from depth images generated by shooting in a specific target area in which objects and human bodies are mixed.

또한, 목표 구역에서 인체의 움직임을 더 정확하게 식별하고, 식별된 인체와 사물과의 위치관계를 분석할 필요성이 대두하고 있다. In addition, there is a need to more accurately identify the movement of the human body in the target area, and to analyze the positional relationship between the human body and the object identified.

따라서, 본 발명은, 상술한 바와 같은 문제점을 해결하기 위하여, 사물과 인체가 혼재된 깊이 영상에서 인체를 정확하게 식별하기 위한 방법 및 그 방법을 실행하는 시스템을 제공하고자 한다. SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a method for accurately identifying a human body in a depth image in which objects and a human body are mixed, and a system for implementing the method, in order to solve the above problems.

또한, 본 발명은, 식별된 인체의 움직임을 식별할 수 있는 방법 및 그 방법을 실행하는 시스템을 제공하고자 한다. The present invention also provides a method for identifying the motion of the identified human body and a system for executing the method.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 따른 2개의 깊이 영상을 이용하는 인체 추적 시스템은, 소정의 목표 구역을 측면에서 비스듬히 바라보는 제1 깊이 센서; 상기 목표 구역을 수직으로 내려다 바라보는 제2 깊이 센서; 상기 제1 깊이 센서에 의한 제1 깊이 영상으로부터 탐지된 제1 물체가 인체로 판정되면 상기 제1 물체의 상기 목표 구역 내에서의 위치를 판정하여 제1 위치로 설정하고, 상기 제2 깊이 센서에 의한 제2 깊이 영상으로부터 탐지된 제2 물체가 인체로 판정되면 상기 제2 물체의 상기 목표 구역 내에서의 위치를 판정하여 제2 위치로 설정하고, 상기 제1 위치와 상기 제2 위치를 서로 비교하여 동일한 위치로 판정되는 경우에 상기 제1 물체와 상기 제2 물체를 인체로 확정하는 기능을 수행하는 분석 장치를 포함한다. According to an aspect of the present invention, there is provided a human body tracking system using two depth images, including: a first depth sensor for viewing a predetermined target area obliquely from a side; A second depth sensor for looking down the target area vertically; Wherein the position of the first object in the target area is determined and set to the first position when the first object detected from the first depth image by the first depth sensor is determined as a human body, Determines the position of the second object in the target area and sets it to the second position when the second object detected from the second depth image by the second depth image is determined to be the human body and compares the first position and the second position with each other And determining the first object and the second object as the human body when it is determined that the first and second objects are at the same position.

여기서, 상기 제1 깊이 영상으로부터 탐지된 제1 물체의 형태를 특정의 알고리즘으로 분석하여 인체의 뼈대 구조가 획득되는 경우에 상기 제1 물체를 인체로 판정할 수 있다. 더욱, 상기 알고리즘은, NiTE 라이브러리에 의한 처리를 포함하는 것을 특징으로 한다. Here, when the shape of the first object detected from the first depth image is analyzed by a specific algorithm, and the skeleton structure of the human body is acquired, the first object can be determined as a human body. Further, the algorithm is characterized by including processing by a NiTE library.

또한, 상기 분석 장치는, 상기 제2 깊이 영상에서 탐지된 제2 물체의 형상이 반구형의 머리 형상과 상기 머리 형상으로부터 연장된 어깨 형상을 포함하는 경우에 인체로 판정할 수 있다. 더욱, 상기 제2 깊이 센서는, 소정의 기준 거리 이내에서 탐지되는 형상을 감지하도록 오프셋이 설정되고, 상기 기준 거리는 상기 목표 구역에 진입할 수 있는 인체의 머리 및 어깨를 가장 잘 탐지할 수 있는 거리로 설정되는 것을 특징으로 한다. 또는, 상기 제2 깊이 센서는, 제1축 방향을 따라 선 형태로 전방을 스캔하여 제1 선 영상을 생성하고, 제2축 방향으로 이동한 위치에서 다시 상기 제1축 방향을 따라 제2 선 영상을 생성하는 방식으로 상기 목표 구역을 스캔하도록 구성되고, 상기 분석 장치는 상기 선 영상들의 하나 또는 복수를 이용하여 물체 탐지 및 인체 판정을 수행할 수 있다. In addition, the analyzing apparatus can determine the human body when the shape of the second object detected in the second depth image includes a hemispherical head shape and a shoulder shape extending from the head shape. Further, the second depth sensor is offset by an offset so as to detect a shape detected within a predetermined reference distance, and the reference distance is a distance that can best detect the head and shoulders of the human body, Is set. Alternatively, the second depth sensor scans forward in a linear form along the first axis direction to generate a first line image, and at a position shifted in the second axis direction, And the analyzing device can perform object detection and human determination using one or more of the line images.

또한, 상기 분석 장치는, 상기 제1 물체 및 상기 제2 물체가 인체로 확정되면, 상기 제1 위치 및 상기 제2 위치 중 적어도 하나를 이용하여 상기 확정된 인체의 상기 목표 구역 내에서의 이동을 추적하는 기능, 및 상기 뼈대 구조를 이용하여 상기 확정된 인체의 제스처를 추적하는 기능을 더 수행할 수 있다. In addition, the analyzing apparatus may further include: a determination unit configured to determine, when the first object and the second object are determined as a human body, to use the at least one of the first position and the second position to move the determined human body in the target area And a function of tracking the determined gesture of the human body using the skeleton structure.

또한, 상기 제1 위치와 상기 제2 위치를 서로 비교하는 것은, 상기 제2 깊이 영상에서 상기 목표 구역을 4개의 꼭지점(A2, B2, C2, D2)을 갖는 사각 형태로 정의하고, 상기 사각 형태를 제2 좌표 평면으로 하고, 상기 제2 위치(xb, yb)의 상기 사각 형태의 각 변에 대한 교점(a2, b2, c2, d2)을 정의하고, 상기 각 변의 길이에 대한 위치의 퍼센티지를 계산하여 상기 교점 각각의 좌표(a2(tx,0), b2(1,ty), c2(tx,1), d2(0,ty))를 결정하고, 상기 제1 깊이 영상 전체를 제1 좌표 평면으로 하고, 상기 제1 좌표 평면에서 상기 목표 구역의 4개의 꼭지점들 각자에 대응하는 꼭지점들(A1, B1, C1, D1)을 설정하여 변형 목표 구역을 정의하고, 상기 설정된 꼭지점들 각자의 좌표(A1(x1,y1), B1(x2,y2), C1(x3,y3), D1(x4,y4))를 결정하고, (수학식 1)을 이용하여, 상기 교점(a2, b2, c2, d2)을 상기 변형 목표 구역의 각 변에서의 위치(a1, b1, c1, d1)로 변환하여 해당하는 좌표를 결정하고, (수학식 2)를 이용하여, 교점(a1)과 교점(c1)을 연결한 직선(L1)의 식과 교점(b1)과 교점(d1)을 연결한 직선(L2)의 식을 구하고, (수학식 3)을 이용하여 상기 직선들(L1, L2)의 교차점(Pc)을 결정하고, 상기 제1 좌표 평면에서 상기 제1 위치(Pa)의 좌표(Px,Py)를 결정하고, 상기 결정된 교치점(Pc)의 위치와 상기 제1 위치(Pa)의 위치를 비교할 수 있다. The comparison of the first position and the second position may further include defining the target region as a rectangular shape having four vertexes (A2, B2, C2, D2) in the second depth image, (A2, b2, c2, d2) for each side of the square shape of the second position (xb, yb) is defined as a second coordinate plane, and the percentage of the position with respect to the length of each side (1, ty), c2 (tx, 1), d2 (0, ty)) of each of the intersection points and calculates the entire first depth image as a first coordinate (A1, B1, C1, D1) corresponding to each of the four vertexes of the target area in the first coordinate plane to define a transformation target area, and the coordinate of each of the set vertexes (X2, y2), C1 (x3, y3), and D1 (x4, y4) , d2) of the deformed target zones (A1, b1, c1, d1) on the side of the intersection a1 and the intersection c1 are determined and the coordinates of the straight line L1 connecting the intersection a1 and the intersection c1 are calculated by using the formula The formula of the straight line L2 connecting the intersection b1 and the intersection d1 is obtained and the intersection Pc of the straight lines L1 and L2 is determined using the formula 3, The coordinates Px and Py of the first position Pa in the plane can be determined and the position of the determined interchange point Pc and the position of the first position Pa can be compared.

(수학식 1) (1)

Figure 112017063415797-pat00001
Figure 112017063415797-pat00001

Figure 112017063415797-pat00002
Figure 112017063415797-pat00002

Figure 112017063415797-pat00003
Figure 112017063415797-pat00003

Figure 112017063415797-pat00004
Figure 112017063415797-pat00004

(수학식 2)(2)

Figure 112017063415797-pat00005
Figure 112017063415797-pat00005

Figure 112017063415797-pat00006
Figure 112017063415797-pat00006

(수학식 3)(3)

Figure 112017063415797-pat00007
Figure 112017063415797-pat00007

또한, 본 발명의 또하나의 실시예에 따르면, 소정의 목표 구역을 측면에서 비스듬히 바라보는 제1 깊이 센서에 의해 제1 깊이 영상을 획득하는 단계; 상기 제1 깊이 영상으로부터 제1 물체가 탐지되고 상기 탐지된 제1 물체가 인체로 판정되면, 상기 제1 물체의 상기 목표 구역 내에서의 위치를 판정하여 제1 위치로 설정하는 단계; 상기 목표 구역을 수직으로 내려다 바라보는 제2 깊이 센서에 의해 제2 깊이 영상을 획득하는 단계; 상기 제2 깊이 영상으로부터 제2 물체가 탐지되고 상기 탐지된 제2 물체가 인체로 판정되면, 상기 제2 물체의 상기 목표 구역 내에서의 위치를 판정하여 제2 위치로 설정하는 단계; 상기 제1 위치와 상기 제2 위치를 서로 비교하여 동일한 위치로 판정되는 경우에 상기 제1 물체와 상기 제2 물체를 인체로 확정하는 단계를 포함하는, 2개의 깊이 영상을 이용하는 인체 추적 방법이 제공된다.Further, according to another embodiment of the present invention, there is provided a method of acquiring a first depth image, the method comprising: acquiring a first depth image by a first depth sensor that obliquely faces a predetermined target area at a side; Determining a position of the first object within the target area and setting the first object to a first position if the first object is detected from the first depth image and the detected first object is determined to be human; Obtaining a second depth image by a second depth sensor viewing the target area vertically; Determining a position of the second object in the target area and setting it to a second position if a second object is detected from the second depth image and the detected second object is determined to be a human body; And determining the first object and the second object as the human body when the first position and the second position are compared with each other to determine the same position, the human body tracking method using two depth images is provided do.

여기서, 상기 제1 물체가 인체인지 판정하는 것은, 상기 제1 깊이 영상으로부터 탐지된 상기 제1 물체의 형태를 특정의 알고리즘으로 분석하여 인체의 뼈대 구조가 획득되는 경우에 인체로 판정하는 것을 더 포함하고, 및 상기 제2 물체가 인체인지 판정하는 것은, 상기 제2 깊이 영상에서 탐지된 상기 제2 물체의 형상이 반구형의 머리 형상과 상기 머리 형상으로부터 연장된 어깨 형상을 포함하는 경우에 상기 제2 물체를 인체로 판정하는 것을 더 포함할 수 있다. The determining whether the first object is a human body may further include determining the human body when the skeletal structure of the human body is acquired by analyzing the shape of the first object detected from the first depth image using a specific algorithm And determining whether the second object is a human being is determined when the shape of the second object detected in the second depth image includes a hemispherical head shape and a shoulder shape extending from the head shape, And determining that the object is a human body.

또한, 상기 제1 위치와 상기 제2 위치를 서로 비교하는 것은, 상기 제2 깊이 영상에서 상기 목표 구역을 4개의 꼭지점(A2, B2, C2, D2)을 갖는 사각 형태로 정의하고, 상기 사각 형태를 제2 좌표 평면으로 하고, 상기 제2 위치(xb, yb)의 상기 사각 형태의 각 변에 대한 교점(a2, b2, c2, d2)을 정의하고, 상기 각 변의 길이에 대한 위치의 퍼센티지를 계산하여 상기 교점 각각의 좌표(a2(tx,0), b2(1,ty), c2(tx,1), d2(0,ty))를 결정하고, 상기 제1 깊이 영상 전체를 좌표 평면으로 하고, 상기 제1 좌표 평면에서 상기 목표 구역의 4개의 꼭지점들 각자에 대응하는 꼭지점들(A1, B1, C1, D1)을 설정하여 변형 목표 구역을 정의하고, 상기 설정된 꼭지점들 각자의 좌표(A1(x1,y1), B1(x2,y2), C1(x3,y3), D1(x4,y4))를 결정하고, (수학식 1)을 이용하여, 상기 교점(a2, b2, c2, d2)을 상기 변형 목표 구역의 각 변에서의 위치(a1, b1, c1, d1)로 변환하여 해당하는 좌표를 결정하고, (수학식 2)를 이용하여, 교점(a1)과 교점(c1)을 연결한 직선(L1)의 식과 교점(b1)과 교점(d1)을 연결한 직선(L2)의 식을 구하고, (수학식 3)을 이용하여 상기 직선들(L1, L2)의 교차점(Pc)을 결정하고, 상기 제1 좌표 평면에서 상기 제1 위치(Pa)의 좌표를 결정하고, 상기 결정된 교차점(Pc)의 위치와 상기 제1 위치(Pa)의 위치를 비교하는 것을 포함할 수 있다. The comparison of the first position and the second position may further include defining the target region as a rectangular shape having four vertexes (A2, B2, C2, D2) in the second depth image, (A2, b2, c2, d2) for each side of the square shape of the second position (xb, yb) is defined as a second coordinate plane, and the percentage of the position with respect to the length of each side (1, ty), c2 (tx, 1), d2 (0, ty)) of each of the intersection points and determines the entire first depth image as a coordinate plane (A1, B1, C1, D1) corresponding to each of the four vertices of the target area in the first coordinate plane to define a transformation target area, and the coordinates (A1 (x2, y2), C1 (x3, y3), and D1 (x4, y4) ) To each side of the deformation target zone (A1, b1, c1, d1) to determine the corresponding coordinates. Using the formula (2), the intersection (a1) and the intersection (c1) (L2) connecting the intersection (d1) and the intersection (d1) of the straight lines (L1, L2) is determined and the intersection Pc of the straight lines (L1, L2) And determining a coordinate of the first position Pa and comparing the position of the determined intersection Pc with the position of the first position Pa.

상술한 바와 같은 구성을 포함하는 본 발명은, 사물과 인체가 혼재된 깊이 영상에서도 인체를 정확하게 식별할 수 있다. INDUSTRIAL APPLICABILITY The present invention including the above-described structure can accurately identify a human body even in a depth image in which objects and a human body are mixed.

또한, 본 발명은, 식별된 인체의 움직임을 식별할 수 있다. 이로써, 인체에 발생할 수 있는 위험 상황을 미연에 감지하여 경보할 수 있게 된다. Further, the present invention can identify the motion of the identified human body. As a result, it is possible to detect and alert the dangerous situation that may occur to the human body.

도 1은 본 발명의 일 실시예에 따른, 2개의 깊이 영상을 이용하는 인체 추적 시스템의 구성을 도시한다.
도 2는 본 발명에 따른 2개의 깊이 영상을 이용하는 인체 추적 방법의 전체 흐름도이다.
도 3은 제1 깊이 영상으로부터 탐지된 제1 물체가 인체인지 판정하는 절차를 설명하는 흐름도이다.
도 4는 도 3의 인체 판정 절차의 구현예를 도시한다.
도 5는 제2 깊이 영상으로부터 탐지된 제2 물체가 인체인지 판정하는 절차를 설명하는 흐름도이다.
도 6은 도 5의 절차를 구현하는 예를 설명하는 도면이다.
도 7은 제2 깊이 영상의 좌표평면과 제1 깊이 영상의 좌표평면에 매칭하는 방법을 설명하기 위한 도면이다.
도 8은, 상술한 바와 같은 제1 위치와 제2 위치를 비교하는 절차를 구현하는 예를 도시한 도면이다.
도 9는 각 목표 구역에서 인체로 판정된 물체의 위치를 지정하는 방법을 도시한다.
도 10은 인체의 이동을 추적하는 절차를 설명하는 도면이다.
1 shows a configuration of a human tracking system using two depth images, according to an embodiment of the present invention.
2 is an overall flowchart of a human body tracking method using two depth images according to the present invention.
3 is a flowchart illustrating a procedure for determining whether a first object detected from a first depth image is a human body.
Fig. 4 shows an embodiment of the human determination procedure of Fig.
5 is a flowchart illustrating a procedure for determining whether a second object detected from the second depth image is a human body.
Fig. 6 is a diagram for explaining an example of implementing the procedure of Fig. 5; Fig.
7 is a diagram for explaining a method of matching the coordinate plane of the second depth image and the coordinate plane of the first depth image.
8 is a diagram showing an example of implementing a procedure for comparing the first position and the second position as described above.
FIG. 9 shows a method of specifying the position of an object determined to be human in each target area.
Fig. 10 is a diagram for explaining a procedure for tracking the movement of the human body.

이하, 첨부된 도면을 참조하여 본 발명에 따른 2개의 깊이 영상을 이용하는 인체 추적 시스템 및 방법의 바람직한 실시예를 설명한다. 참고로, 본 발명의 각 구성 요소를 지칭하는 용어들은 그 기능을 고려하여 예시적으로 명명된 것이므로, 용어 자체에 의하여 본 발명의 기술 내용을 예측하고 한정하여 이해해서는 아니 될 것이다.Hereinafter, a preferred embodiment of a human tracking system and method using two depth images according to the present invention will be described with reference to the accompanying drawings. For the sake of reference, terms referring to the respective elements of the present invention have been exemplarily named in consideration of their functions, and therefore, the terms of the present invention should not be predicted and limited in terms of the term itself.

먼저, 도 1을 참조하여, 본 발명의 일 실시예에 따른, 2개의 깊이 영상을 이용하는 인체 추적 시스템의 구성을 설명한다. 도면을 참조하면, 본 발명의 인체 추적 시스템은 소정의 목표 구역을 스캔한 2개의 깊이 영상을 생성하기 위한 2개의 깊이 센서(110, 120)(제1 깊이 센서 및 제2 깊이 센서)와, 2개의 깊이 영상으로부터 인체를 탐지하고 탐지된 인체의 움직임 및 제스처를 분석하고 추적하는 분석 장치(200)를 포함한다. First, a configuration of a human tracking system using two depth images according to an embodiment of the present invention will be described with reference to FIG. Referring to the drawings, the human tracking system of the present invention includes two depth sensors 110 and 120 (a first depth sensor and a second depth sensor) for generating two depth images of a predetermined target area, And an analyzer 200 for detecting a human body from the depth images and analyzing and tracking the detected movement and gestures of the human body.

목표 구역(Z)은, 인체의 존재, 이동 및 제스처를 탐지할 대상 영역이다. 또한, 목표 구역에는 인체뿐만 아니라 사물도 배치될 수 있으며, 인체와 사물의 위치관계(예를 들면, 인체가 사물에 대하여 접근하거나 사물이 인체를 향하여 접근하는 이동 관계, 등)가 탐지되는 영역이다. The target zone Z is the area to be detected for presence, movement and gesture of the human body. In addition, not only a human body but also objects can be placed in the target area, and the positional relationship between the human body and the object (for example, a human body approaching an object or a moving object approaching a human body, etc.) .

이러한 목표 구역(Z)은 주로 바닥에 설정될 수 있으나, 측벽면 또는 특정 높이의 공중에 설정될 수도 있다. 또한, 목표 구역(Z)은 삼각형, 사각형 등 복수의 꼭지점에 의한 다각형 형태로 설정될 수 있다. 또는, 임의의 형태의 영역으로 설정될 수 있으며, 설정된 영역 내부 또는 외부에 소정의 좌표축을 설정하기 위한 적어도 하나의 기준점이 정의될 수도 있다. 본 발명에서는 4개의 꼭지점을 갖는 직사각 형상으로 목표 구역이 설정된 것으로 하여 설명한다. This target zone Z may be set mainly at the bottom, but may also be set at the sidewall surface or at a specific height. Further, the target zone Z may be set as a polygonal shape by a plurality of vertexes such as a triangle, a square, and the like. Alternatively, it may be set to any type of area, and at least one reference point for setting a predetermined coordinate axis inside or outside the set area may be defined. In the present invention, it is assumed that the target area is set to a rectangular shape having four vertexes.

제1 깊이 센서(110)는, 목표 구역(Z)을 측면에서 비스듬하게 바라보도록 설치될 수 있다. 즉, 제1 깊이 센서(110)는 목표 구역을 향하는 임의의 측벽면에 설치되거나 거치대에 설치되거나, 천장에 설치될 수 있다. 또한, 제1 깊이 센서(110)는 목표 구역(Z)에 나타날 수 있는 인체(H) 또는 사물(T)의 전체를 촬영할 수 있도록 화각 및 초점이 조정될 수 있다. The first depth sensor 110 may be installed to obliquely look at the target zone Z from the side. That is, the first depth sensor 110 may be installed on any sidewall facing the target area, installed on a cradle, or installed on the ceiling. The first depth sensor 110 may adjust the angle of view and the focus so that the whole of the human body H or the object T that may appear in the target zone Z can be photographed.

또한, 제1 깊이 센서(110)는 병렬 배치된 복수 개의 카메라를 포함할 수 있으며, 제1 깊이 영상은 스테레오 영상으로부터 생성될 수도 있다. Also, the first depth sensor 110 may include a plurality of cameras arranged in parallel, and the first depth image may be generated from a stereo image.

제1 깊이 센서(110)에 의해 생성된 제1 깊이 영상은 분석 장치(200)로 전송될 수 있다. The first depth image generated by the first depth sensor 110 may be transmitted to the analysis apparatus 200.

제2 깊이 센서(120)는, 목표 구역(Z)을 천장에서 아래로 특히 목표 구역의 중심을 수직으로 내려다 바라보도록 배치되어 운용될 수 있다. 제2 깊이 센서(120)는 임의의 제1축 방향을 따라 선 형태로 전방을 스캔하여 제1 선 영상을 생성하고, 제2축 방향으로 소정 간격만큼 이동한 위치에서 다시 제1축 방향을 따라 제2 선 영상을 생성할 수 있으며, 이러한 선 영상을 계속 반복하여 생성함으로써 목표 구역(Z)의 전체를 스캔하도록 구성될 수 있다. The second depth sensor 120 can be disposed and operated so as to look down the target zone Z from the ceiling down, especially the center of the target zone. The second depth sensor 120 scans forward in a linear form along a first axis direction to generate a first line image and moves along a first axis direction at a position shifted by a predetermined distance in a second axis direction It is possible to generate the second line image and to continuously scan the entire target area Z by repeatedly generating the line image.

생성되는 각각의 선 영상은 실시간으로 분석 장치로 전송될 수 있다. Each generated line image can be transmitted to the analyzer in real time.

한편, 제2 깊이 센서(120)는 소정 거리 이내에 위치하는 물체까지만 거리 측정을 수행하도록 오프셋이 설정될 수 있다. 예를 들면, 제2 깊이 센서(120)로부터 목표 구역(Z)의 바닥까지의 거리가 3m인 경우에 오프셋을 2m로 설정한다면, 바닥으로부터 1m 이상이고 3m 이하에 있는 물체의 형상만을 감지할 수 있게 될 것이다. 더욱, 목표 구역(Z)을 걸어서 이동하는 인체를 탐지하고자 한다면, 오프셋을 1.5m로 설정할 수 있으며, 이로써, 서있는 인체의 머리 형상 및 어깨 형상을 포함하는 선 영상을 더 잘 획득할 수 있게 될 것이다. On the other hand, the second depth sensor 120 can be offset to perform distance measurement only to an object located within a predetermined distance. For example, if the distance from the second depth sensor 120 to the bottom of the target zone Z is 3 m, if the offset is set to 2 m, only the shape of the object 1 m or more and 3 m or less from the floor Will be. Further, if it is desired to detect a moving human body walking on the target zone Z, the offset can be set to 1.5 m, thereby obtaining a better line image including the standing head and shoulder shape of the standing human body .

분석 장치(200)는, 입력되는 제1 깊이 영상과 제2 깊이 영상(또는, 선 영상)을 각각 분석하여 제1 물체 및/또는 제2 물체를 탐지하는 기능, 탐지된 제1 물체 및/또는 제2 물체가 인체인지 판정하는 기능을 수행할 수 있다. 또한, 판정된 인체의 목표 구역 내에서의 위치 및 이동, 제스처를 분석하는 기능을 수행할 수 있다. The analyzer 200 analyzes the input first depth image and the second depth image (or line image), respectively, to detect the first object and / or the second object, the detected first object and / It is possible to perform a function of determining whether the second object is a human body. It is also possible to perform the function of analyzing the position, movement and gesture of the determined human body in the target area.

한편, 분석 장치(200)에는 제어 장치(201)가 제공될 수 있다. 제어 장치(201)는 본 시스템과 운용자와의 인터페이스를 제공할 수 있다. On the other hand, the analysis apparatus 200 may be provided with a control apparatus 201. The control device 201 can provide an interface between the present system and the operator.

도 2는 본 발명에 따른 2개의 깊이 영상을 이용하는 인체 추적 방법의 전체 흐름도이다. 도시된 방법은 상기한 2개의 깊이 영상을 이용하는 인체 추적 시스템에 의해 실행될 수 있다. 2 is an overall flowchart of a human body tracking method using two depth images according to the present invention. The illustrated method can be performed by a human tracking system using the above two depth images.

분석 장치(200)는, 인체 추적 시스템에 포함된 제1 깊이 센서(110)로부터 소정의 목표 구역을 측면에서 비스듬히 바라본 제1 깊이 영상을 획득한다(S110). 이어서, 획득된 제1 깊이 영상으로부터 제1 물체가 존재하는지를 탐지한다(S120). 제1 깊이 영상으로부터 제1 물체가 탐지되면, 탐지된 제1 물체가 인체인지를 분석한다(S130). 만일, 제1 물체가 인체인 것으로 판정되면, 제1 물체(또는 인체)의 목표 구역 내에서의 위치를 계산하고, 계산된 위치를 제1 위치(Pa)로 설정한다(S140). The analysis apparatus 200 obtains a first depth image obliquely viewed from a side of the predetermined target area from the first depth sensor 110 included in the human body tracking system (S110). Subsequently, it is detected whether the first object exists from the obtained first depth image (S120). If the first object is detected from the first depth image, it is analyzed whether the detected first object is human (S130). If it is determined that the first object is a human body, the position of the first object (or human body) in the target area is calculated, and the calculated position is set to the first position Pa (S140).

한편, 분석 장치(200)는 시스템에 포함된 제2 깊이 센서(120)로부터 상기 목표 구역(Z)을 수직으로 내려다 바라보는 제2 깊이 영상을 획득한다(S210). 여기서, 제1 깊이 영상을 획득하여 처리하는 절차(단계(S110) 내지 단계(S140)의 절차들)와 제2 깊이 영상을 획득하여 처리하는 절차(단계(S210) 내지 단계(S240)의 절차들)는 병렬로 동시에 또는 교대로 이루어질 수 있다. Meanwhile, the analysis apparatus 200 acquires a second depth image looking vertically down the target zone Z from the second depth sensor 120 included in the system (S210). Here, the procedure (steps S110 to S140) for acquiring and processing the first depth image and the procedure for acquiring and processing the second depth image (steps S210 to S240) ) May be performed simultaneously or alternately in parallel.

제2 깊이 영상은 목표 구역(Z)에 대한 제1축 방향의 선 영상을 포함할 수 있다. 분석 장치(200)는, 획득한 제2 깊이 영상(또는 선 영상)을 분석하여 제2 물체를 탐지하고(S220), 탐지된 제2 물체가 인체인지를 분석한다(S230). 제2 물체가 인체인 것으로 판정되면, 제2 물체(또는 인체)의 목표 구역 내에서의 위치를 계산할 수 있으며, 계산된 위치를 제2 위치(Pb)로 설정한다(S240). The second depth image may include a line image in the first axis direction with respect to the target zone Z. [ The analysis apparatus 200 analyzes the obtained second depth image (or line image) to detect a second object (S220), and analyzes whether the detected second object is a human body (S230). If it is determined that the second object is a human body, the position of the second object (or human body) in the target area can be calculated, and the calculated position is set to the second position Pb (S240).

분석 장치(200)는, 인체로 판정된 제1 물체의 제1 위치(Pa)와 인체로 판정된 제2 물체의 제2 위치(Pb)를 각각 식별하였으면, 제1 위치(Pa)와 제2 위치(Pb)가 같은 위치인지 비교한다(S150). 만일, 제1 위치(Pa)와 제2 위치(Pb)가 동일한 위치, 또는, 소정의 범위 내에 있으면(S160), 제1 물체와 제2 물체가 동일한 인체를 나타내는 것으로 간주하고, 제1 물체 및 제2 물체를 인체로 확정할 수 있다(S170). 그리고, 인체로 확정된 경우에는, 확정된 인체의 위치, 이동, 제스처의 트래킹을 개시한다(S180). 상기 절차들은 다시 처음으로 리턴하여 계속 반복될 수 있다(S190). When the first position Pa of the first object determined as the human body and the second position Pb of the second object determined as the human body are respectively identified, It is determined whether the position Pb is the same position (S150). If the first position Pa and the second position Pb are at the same position or within a predetermined range (S160), it is assumed that the first object and the second object represent the same human body, The second object can be determined as a human body (S170). When it is determined to be the human body, the position, movement, and tracking of the determined human body are started (S180). The above procedures can be repeatedly returned to the beginning and then repeated (S190).

다른 실시예에서, 분석 장치(200)는, 제2 깊이 영상으로부터 제2 물체를 탐지하고 탐지된 제2 물체가 인체인지 판정한다. 만일 제2 물체가 인체로 판정되었으면, 제2 물체의 목표 구역 내에서의 위치(Pb, 즉, 제2 위치)를 제1 깊이 영상에서의 위치로 변환한다(Pc). 한편, 분석 장치(200)는, 제1 깊이 영상으로부터 제1 물체를 탐지하여 인체인지 판정할 수 있으며, 인체로 판정된 제1 물체의 위치(Pa, 즉, 제1 위치)를 계산한다. 그리고, 변환된 상기 위치(Pc)와 제1 위치(Pa)가 동일한지를 비교하여 인체로 확정할 수도 있다. In another embodiment, the analysis apparatus 200 detects a second object from the second depth image and determines whether the detected second object is human. If the second object is determined to be human, the position (Pb, i.e., the second position) in the target area of the second object is converted to the position in the first depth image (Pc). On the other hand, the analysis apparatus 200 can detect the first object from the first depth image to determine whether the object is a human, and calculates the position (Pa, i.e., the first position) of the first object determined to be human. It is also possible to determine whether the converted position Pc and the first position Pa are the same and confirm the human body.

상기 방법의 각 절차/단계에 대하여는, 아래에서 더욱 상세하게 설명한다. Each procedure / step of the method is described in more detail below.

도 3은 제1 깊이 영상으로부터 제1 물체를 탐지한 경우에, 탐지된 제1 물체가 인체인지 판정하는 절차를 설명하는 흐름도이다. 제1 깊이 영상은 목표 구역(Z)을 비스듬히 바라본 영상이다. 따라서, 제1 깊이 센서에 의해서는 인체의 전체가 촬영될 수 있다. 제1 깊이 영상으로부터 인체의 전체 형상을 판단하여 인체를 판정하기 위한 알고리즘이 필요하다. 3 is a flowchart illustrating a procedure for determining whether a detected first object is a human body when a first object is detected from the first depth image. The first depth image is an image obliquely viewing the target zone Z. Therefore, the whole of the human body can be photographed by the first depth sensor. An algorithm for determining the human body by judging the entire shape of the human body from the first depth image is required.

먼저, 제1 깊이 영상으로부터 목표 구역(Z)의 벽 또는 바닥 이외의 소정의 물체가 존재하는지 탐지할 수 있으며(S120), 탐지된 물체(즉, 제1 물체)의 형상을 특정의 알고리즘을 사용하여 분석함으로써 인체의 뼈대 모형이 구성되는지 판단할 수 있다(S122). 만일, 인체의 뼈대 모형이 구성되었다면(S124), 상기 제1 물체를 인체로서 판정할 수 있다(S130). 이때의 인체로의 판정은 확정이 아니라, 임시적 판정일 수 있다(즉, 단계(S150) 내지 단계(S170)를 통해 인체인지 확정됨). 한편, 단계(S124)에서, 인체의 뼈대 모형이 구성되지 않았다면, 제1 물체는 사물인 것으로 판정하고, 절차는 단계(S110)로 리턴하여 또다른 물체가 촬영되었는지 탐지하게 된다. First, it is possible to detect whether or not a predetermined object other than the wall or floor of the target zone Z exists from the first depth image (S120), and the shape of the detected object (i.e., the first object) (S122). Then, it is determined whether a skeleton model of the human body is formed. If a skeleton model of the human body is configured (S124), the first object can be determined as a human body (S130). The determination to the human body at this time is not definite but may be a provisional determination (that is, the human body is confirmed through steps S150 to S170). On the other hand, in step S124, if the skeletal model of the human body is not configured, it is determined that the first object is an object, and the procedure returns to step S110 to detect whether another object has been photographed.

도 4는 도 3의 인체 판정 절차의 구현예를 도시한다. 여기서, 제1 깊이 영상은 목표 구역을 비스듬히 바라본 영상이므로, 직사각형 평면 형태의 목표 구역이(도 7 참조) 사다리꼴 형상으로 변형되어 보여질 수 있다. Fig. 4 shows an embodiment of the human determination procedure of Fig. Here, since the first depth image is an image obtained by obliquely viewing the target area, the target area in the form of a rectangular plane can be deformed into a trapezoid shape (see FIG. 7).

도 4(a)의 제1 깊이 영상에는, 목표 구역(Z)에서 박스 형태의 사물(T)과 1명의 인체(H)가 함께 촬영되었다. 분석 장치(200)는 사물(T)과 인체(H)를 식별하고 제1 물체로서 설정할 수 있다. 한편, 탐지된 2개의 제1 물체 각각에 대한 영상을 임의의 알고리즘, 예를 들면, NiTE 알고리즘으로 분석하면, 도 4(b)와 같이, 박스 형상의 뼈대 모형(TS)과, 팔다리와 관절들을 포함하는 인체 뼈대 모형(HS)를 얻을 수 있다. 분석 장치(200)는 인체 뼈대 모형(HS)을 인식하고 해당하는 제1 물체(H)를 인체로 판정하게 된다. In the first depth image of FIG. 4 (a), a box-shaped object T and one human body H are simultaneously photographed in the target zone Z. FIG. The analysis apparatus 200 can identify the object T and the human body H and set them as the first object. On the other hand, if an image of each of the two detected first objects is analyzed by an arbitrary algorithm, for example, a NiTE algorithm, a box-shaped skeletal model (TS), limbs and joints The human skeletal model (HS) can be obtained. The analyzer 200 recognizes the human skeleton model HS and determines the corresponding first object H as a human body.

한편, 인체를 판정하는 NiTE 알고리즘은, 사물의 형상으로부터 인체의 뼈대 모형을 추출하는 널리 알려진 알고리즘이다. 하지만, 본 발명에서는 인체의 뼈대 모형을 분석하는 데에 상기 NiTE 알고리즘으로 한정하는 것이 아니며, 공지된 다른 알고리즘을 선택하여 활용할 수 있을뿐만 아니라 추후 개발될 수 있는 다른 알고리즘을 활용할 수 있을 것으로 이해되어야 한다. On the other hand, the NiTE algorithm for determining a human body is a well-known algorithm for extracting a skeletal model of a human body from the shape of an object. However, it should be understood that the present invention is not limited to the NiTE algorithm for analyzing the skeletal model of the human body, and it is understood that it is possible to utilize other algorithms that can be developed as well as selecting other known algorithms .

다음, 도 5는 제2 깊이 영상으로부터 제2 물체를 탐지한 경우에, 탐지된 제2 물체가 인체인지 판정하는 절차를 설명하는 흐름도이다. 또한, 도 6은 도 5의 절차가 구현되는 예를 보여주는 도면이다. Next, FIG. 5 is a flowchart for explaining a procedure for determining whether the detected second object is a human body when the second object is detected from the second depth image. 6 is a diagram showing an example in which the procedure of FIG. 5 is implemented.

제2 깊이 영상은 목표 구역(Z)을 천장에서 또는 수직으로 아래로 내려다보며 생성된 영상이다. 특히, 제2 깊이 센서(120)는 목표 구역에 대하여 선 형태의 깊이 영상을 생성하므로, 분석 장치(200)는 생성되는 각각의 선 영상들로부터 인체를 탐지하는 알고리즘을 실행한다. The second depth image is generated by looking down the target zone Z from the ceiling or vertically downward. In particular, since the second depth sensor 120 generates a line-shaped depth image with respect to the target area, the analyzer 200 executes an algorithm for detecting the human body from each of the generated line images.

도 6(a)은 목표 구역에 2개의 사물(T1, T2)과 1명의 인체(H)가 존재하는 것을 수직으로 내려다본 모습을 보여준다. 6 (a) shows a vertical view of the presence of two objects T1 and T2 and one human body H in the target area.

도 6(b)은 도 6(a)의 ①, ② 및 ③ 지점에서 획득된 각각의 선 영상의 예시를 보여준다. 여기서, ①, ② 및 ③ 지점의 각각의 사이사이 공간에서도 수많은 선 영상들이 생성될 수 있지만, 도시된 선 영상은 발명을 설명하기 위하여 단지 일부만 선택하여 예시로써 보여주는 것이다. 6 (b) shows an example of the respective line images obtained at points (1), (2) and (3) in FIG. 6 (a). Here, although a number of line images can be generated in the space between each of the points (1), (2), and (3), the line image shown in FIG.

여기서, 제2 깊이 센서(120)는 목표 구역의 바닥으로부터 1.3m의 오프셋을 설정한 것으로 한다. 따라서, ① 지점에 대응하는 선 영상에서는 높이가 0.5m인 물체(T2)가 탐지되지 않았다. Here, it is assumed that the second depth sensor 120 sets an offset of 1.3 m from the bottom of the target zone. Therefore, the object T2 having a height of 0.5 m was not detected in the line image corresponding to (1) point.

한편, ② 지점에 대응하는 선 영상에서는, 높이가 1.5m인 물체(T1)의 박스 형태 상부와, 키가 1.7m인 인체(H)의 상체 형상이 획득되었다. On the other hand, in the line image corresponding to the point (2), the box-shaped upper portion of the object T1 having the height of 1.5 m and the upper body portion of the human body H having the height of 1.7 m were obtained.

③ 지점에서는 물체가 탐지되지 않았다. ③ No object was detected at the point.

이때, 분석 장치(200)는, ② 지점에 대응하는 선 영상에서 2개의 제2 물체(T1, H)를 탐지할 수 있다(S220). 그리고 분석 장치(200)는 탐지된 2개의 제2 물체의 각각의 형태를 분석한다(S222). 수직으로 내려다본 깊이 영상에서 촬영되는 인체(H)의 형상은 주로, 머리 형상과 어깨 형상일 수 있다. 따라서, 분석 장치(200)는, 획득된 선 영상에서 머리 형상과 어깨 형상을 식별하고자 할 것이다(S224). 즉, 반구 형태의 머리 형상과 머리 형상의 대칭되는 양측으로 연장된 어깨 형상이 식별될 때, 인체로 판정할 수 있다(S230). 따라서, 제2 물체(T1)는 인체로 판정되지 않으며, 제2 물체(H)가 인체로 판정될 것이다. 한편, 단계(S224)에서 제2 물체가 인체로 판정되지 않으면 제2 물체는 사물인 것으로 판정하고, 절차는 단계(S210)로 리턴하여 또다른 제2 깊이 영상(또는 선 영상)으로부터 물체가 촬영되었는지 탐지하게 된다. At this time, the analysis apparatus 200 can detect two second objects T1 and H from the line image corresponding to the point (S220). Then, the analysis apparatus 200 analyzes the shape of each of the two detected second objects (S222). The shape of the human body H to be photographed from the depth image viewed vertically may be mainly a head shape and a shoulder shape. Accordingly, the analysis apparatus 200 will attempt to identify the head shape and the shoulder shape in the obtained line image (S224). That is, when the hemispherical head shape and the shoulder shape extending to both sides symmetric to the head shape are identified, the human body can be determined (S230). Therefore, the second object T1 is not judged as a human body, and the second object H will be judged as a human body. On the other hand, if it is determined in step S224 that the second object is not a human body, it is determined that the second object is an object, and the procedure returns to step S210 to acquire an object from another second depth image .

한편, 예를 들면, 4개의 꼭지점을 갖는 직사각형 형태의 목표 구역(Z)을 정의한 경우, 제2 깊이 영상은 목표 구역(Z)을 수직으로 아래로 내려다본 영상이기 때문에 목표 구역이 직사각형 형태로 보일 것이고(Z2, 또는, 제2 목표 구역), 제1 깊이 영상은 목표 구역(Z)을 비스듬하게 바라본 영상이기 때문에 목표 구역이 사다리꼴 형태로 변형되어 보일 것이다(Z1, 또는 제1 목표구역). On the other hand, for example, if a rectangle-shaped target zone Z having four vertexes is defined, the second depth image is an image viewed downward from the target zone Z vertically. Therefore, (Z2, or the second target region), the first depth image is an image obliquely viewing the target region Z, so the target region will appear to be transformed into a trapezoidal shape (Z1, or first target region).

따라서, 제1 깊이 영상에서 획득된 사물 및/또는 인체의 위치와 제2 깊이 영상에서 획득된 사물 및/또는 인체의 위치를 매칭하는 것은 추가적인 처리가 필요하다. 예를 들면, 제1 깊이 영상의 찌그러진 변형된 형상의 목표 구역을 제2 깊이 영상의 직사각 형상으로 변형하고 좌표평면을 일치시키는 절차가 수행되어야 한다. Therefore, matching the position of the object and / or the human body obtained from the first depth image with the position of the object and / or the human body obtained from the second depth image requires additional processing. For example, a procedure for transforming the target area of the distorted deformed shape of the first depth image into the rectangular shape of the second depth image and matching the coordinate plane should be performed.

또는, 제2 깊이 영상에서 목표 구역 내의 인체의 위치인 제2 위치(Pb)를 식별하고, 식별된 제2 위치(Pb)를 제1 깊이 영상의 목표 구역 내의 특정의 지점(Pc)으로 변환하고, 변환된 특정의 지점(Pc)이 제1 깊이 영상에서 식별된 제1 위치(Pa)와 동일한 위치를 가리키는지 또는 소정 범위 이내에 있는지를 판정할 수 있다. 본 발명에서는 본 방법을 사용한다. Or a second position Pb which is the position of the human body in the target area at the second depth image and converts the identified second position Pb to a specific point Pc in the target area of the first depth image , It can be determined whether the converted specific point Pc indicates the same position as the first position Pa identified in the first depth image or within a predetermined range. In the present invention, this method is used.

상기 방법을 도 7을 참조하여 설명한다. 즉, 도 7은, 제2 깊이 영상에서 보여지는 목표 구역(Z2)을 범위로 하는 좌표평면 내의 제2 위치(Pb)를 제1 깊이 영상에서 보여지는 목표 구역 내의 지점(Pc)으로 변환하는 예를 보여준다. This method will be described with reference to Fig. 7 shows an example of converting the second position Pb in the coordinate plane in which the target zone Z2 is seen in the second depth image into a point Pc in the target zone shown in the first depth image Lt; / RTI >

도 7(b)에서는 목표 구역이 4개의 꼭지점 및 변을 갖는 직사각형(예를 들면, 정사각형) 형태로 정의될 수 있고, 이로써 제2 위치가 직교 좌표계로 표현될 수 있음을 보여준다. 한편, 도 7(a)에서는 소정 영역의 바닥에 설정된 목표 구역이 비스듬하게 바라봄에 따라 사다리꼴 형태로 변형되어 보이는 것을 보여준다. In Fig. 7 (b), the target area can be defined as a rectangular (e.g., square) shape having four vertices and sides, thereby indicating that the second position can be expressed in a rectangular coordinate system. In FIG. 7 (a), the target area set at the bottom of the predetermined area is seen to be deformed in a trapezoidal shape as it looks obliquely.

도 7(b)은 목표 구역을 수직으로 아래로 내려다보는 제2 깊이 영상에서 보여지는 제2 목표 구역(Z2)에 대한 각 꼭지점(A2, B2, C2, D2), 제2 목표 구역(Z2)을 구성하는 변, 각 변에 설정된 각 교점(a2, b2, C2, d2), 제2 위치(Pb)를 도시한다. FIG. 7 (b) shows each vertex A2, B2, C2, and D2, a second target zone Z2, and a second target zone Z2 for the second target zone Z2 viewed from the second depth image, (A2, b2, C2, d2) and a second position (Pb) set on each side constituting the side of the first lens group.

제2 깊이 영상에서 목표 구역 내의 임의의 지점의 좌표는, 각 꼭지점(A2, B2, C2, D2)에 의해 생성된 변을 축으로 하고 각 변의 길이를 100%로 하는 비율에 의해 표현될 수 있다. 즉, 도시된 제2 위치(Pb)의 좌표는 Pb(xb,yb) 또는 Pb(tx,ty)로 정의될 수 있다. The coordinates of an arbitrary point in the target area in the second depth image can be expressed by a ratio with the sides generated by the vertexes A2, B2, C2, and D2 as axes and the length of each side as 100% . That is, the coordinates of the illustrated second position Pb may be defined as Pb (xb, yb) or Pb (tx, ty).

따라서, 제2 위치(Pb)의 각 변에 대한 수선의 발(또는 교점)의 좌표는 각각 a2(tx,0), b2(1,ty), c2(tx,1), d2(0,ty)로 결정될 수 있다. Therefore, the coordinates of the foot (or intersection) of the perpendicular to each side of the second position Pb are a2 (tx, 0), b2 (1, ty), c2 ). ≪ / RTI >

한편, 상기 제2 위치(Pb)를 제1 깊이 영상의 목표 구역(Z1)의 위치로 변환시킬 수 있다. On the other hand, the second position Pb can be converted to the position of the target zone Z1 of the first depth image.

도 7(a)은 목표 구역을 비스듬하게 바라보는 제1 깊이 영상에서 비스듬하게 보여지는 제1 목표 구역(Z1) 및 그의 각 꼭지점(A1, B1, C1, D1), 제1 위치(Pa(xa,ya))를 도시한다. 7A shows a first target zone Z1 obliquely viewed from a first depth image obliquely facing the target zone and its respective vertexes A1, B1, C1, D1, a first position Pa (xa , ya).

제1 깊이 영상은 깊이 영상 전체를 제1 좌표 평면으로 정의하고(도 7(a)에서점선을 포함하는 직사각형으로 표시됨), 영상 자체의 좌표축(직교좌표계)을 그대로 활용한다. In the first depth image, the entire depth image is defined as a first coordinate plane (represented by a rectangle including a dotted line in FIG. 7A), and the coordinate axes (orthogonal coordinate system) of the image itself are used as they are.

먼저, 제2 깊이 영상의 제2 목표 구역(Z2)을 구성하는 꼭지점들(A2, B2, C2, D2)의 각각에 대응하는 꼭지점을 제1 깊이 영상에 지정할 수 있다(A1, B1, C1, D1). 지정된 꼭지점들(A1, B1, C1, D1)을 연결한 사다리꼴 형태는 변형된 목표 구역(Z1, 또는 제1 목표 구역)으로 정의된다. 한편, 제1 좌표 평면에서 각 꼭지점들의 좌표가 결정될 수 있다. (A1(x1,y1), B1(x2,y2), C1(x3,y3), D1(x4,y4))First, a vertex corresponding to each of the vertexes A2, B2, C2, and D2 constituting the second target zone Z2 of the second depth image can be assigned to the first depth image (A1, B1, C1, D1). The trapezoidal shape connecting the designated vertices (A1, B1, C1, D1) is defined as a modified target area (Z1, or first target area). On the other hand, the coordinates of each vertex in the first coordinate plane can be determined. (X1, y1), B1 (x2, y2), C1 (x3, y3)

다음, 제2 깊이 영상의 목표 구역(Z2)의 각 변에 설정된 제2 위치(Pb)로부터의 각 교점(a2, b2, c2, d2)을 제1 좌표 평면의 변형된 목표 구역(Z1)의 각 변의 위치(a1, b1, c1, d1)로 변환한다(도 8 참조). 이를 위해, 제1 목표 구역(Z1)의 각 꼭지점들의 좌표와 (수학식 1)이 사용될 수 있다. Next, each of the intersections a2, b2, c2, and d2 from the second position Pb set on each side of the target zone Z2 of the second depth image is moved to the target zone Z1 of the first coordinate plane To the positions a1, b1, c1, and d1 of the respective sides (see Fig. 8). To this end, the coordinates of each vertex of the first target zone Z1 and (Equation 1) may be used.

(수학식 1) (1)

Figure 112017063415797-pat00008
Figure 112017063415797-pat00008

Figure 112017063415797-pat00009
Figure 112017063415797-pat00009

Figure 112017063415797-pat00010
Figure 112017063415797-pat00010

Figure 112017063415797-pat00011
Figure 112017063415797-pat00011

이어서, (수학식 2)를 이용하여, 교점(a1)과 교점(c1)을 연결한 직선(L1)의 식과 교점(b1)과 교점(d1)을 연결한 직선(L2)의 식을 구하고, 구해진 직선들(L1, L2)의 교차점(Pc)을 결정한다. 그리고, 결정된 교차점(Pc)의 좌표와 제1 위치(Pa)의 좌표를 비교하게 되며, 양자가 서로 일치하거나 소정 범위에 있으면, 제2 위치의 물체(즉, 사람인 것으로 임시 판정된 제2 물체)와 제1 위치의 물체(즉, 사람인 것으로 임시 판정된 제1 물체)가 동일한 사람을 가리키는 것으로 판정할 수 있으며, 이로써, 제1 물체 및/또는 제2 물체를 사람으로 확정할 수 있게 된다. Subsequently, the formula of the straight line L1 connecting the intersection a1 and the intersection c1 is obtained by the formula (2), and the formula of the straight line L2 connecting the intersection b1 and the intersection d1 is obtained. And determines the intersection Pc of the obtained straight lines L1 and L2. Then, the coordinates of the determined intersection Pc are compared with the coordinates of the first position Pa. When the two are coincident with each other or within a predetermined range, the object at the second position (i.e., the second object temporarily determined as a person) And the object at the first position (i.e., the first object temporarily determined as a person) indicate the same person, whereby the first object and / or the second object can be determined as a person.

(수학식 2)(2)

Figure 112017063415797-pat00012
Figure 112017063415797-pat00012

Figure 112017063415797-pat00013
Figure 112017063415797-pat00013

(수학식 3)(3)

Figure 112017063415797-pat00014
Figure 112017063415797-pat00014

도 8은, 상술한 바와 같은 제1 위치와 제2 위치를 비교하는 절차를 구현하는 예를 도시한 도면이다. 제1 깊이 영상으로부터 도 8(b)에 도시된 바와 같이 4개의 꼭지점(A2, B2, C2, D2)을 갖는 직사각 형상의 목표 구역(Z2)에서 제2 위치(Pb)가 결정되면, 제2 위치(Pb)의 좌표가 각 변에 대한 퍼센티지로써 결정될 수 있다. 예를 들어, 제2 위치(Pb)의 가로축에 대한 수선의 발의 제2 목표 구역 가로 길이에 대한 비율(tx)이 0.7이고, 세로축에 대한 수선의 발의 제2 목표 구역 세로 길이에 대한 비율(ty)이 0.6으로 설정되었다고 가정한다. 8 is a diagram showing an example of implementing a procedure for comparing the first position and the second position as described above. When the second position Pb is determined from the first depth image in the rectangular target zone Z2 having four vertexes A2, B2, C2, and D2 as shown in FIG. 8 (b) The coordinates of the position Pb can be determined as a percentage of each side. For example, if the ratio tx of the waterline to the transverse axis of the second position Pb to the transverse length of the second target zone is 0.7 and the ratio to the longitudinal length of the waterline to the second target zone length, ty ) Is set to 0.6.

한편, 도 8(a)에 도시된 바와 같은 제1 깊이 영상에서, 변형된 목표 구역(Z1)의 4개의 꼭지점(A1, B1, C1, D1)을 지정할 수 있으며, 각 꼭지점의 좌표가 결정될 수 있다. A1(30,60), B1(70,60), C1(25,90), D1(75,90).On the other hand, in the first depth image as shown in Fig. 8 (a), four vertexes A1, B1, C1, and D1 of the deformed target zone Z1 can be designated and the coordinates of each vertex can be determined have. A1 (30,60), B1 (70,60), C1 (25,90), D1 (75,90).

이어서, (수학식 1)을 이용하여 다음과 같이, 각 교점들(a1, b1, c1, d1)의 좌표를 계산한다. Then, the coordinates of each of the intersections a1, b1, c1, and d1 are calculated as follows using Equation (1).

a1(x,y) = ( (30×0.3)+(70×0.7) , (60×0.3)+(60×0.7) ) = (58,60)(x, y) = ((30 x 0.3) + (70 x 0.7), (60 x 0.3) + (60 x 0.7)

b1(x,y) = ( (70×0.6)+(75×0.4) , (60×0.6)+(90×0.4) ) = (72,72)b1 (x, y) = ((70 x 0.6) + (75 x 0.4), (60 x 0.6)

c1(x,y) = ( (75×0.7)+(25×0.3) , (90×0.3)+(90×0.7) ) = (60,90)(90 x 0.3) + (90 x 0.7)) = (60, 90) c1 (x, y) =

d1(x,y) = ( (25×0.4)+(30×0.6) , (90×0.4)+(60×0.6) ) = (28,72)d1 (x, y) = ((25x0.4) + (30x0.6), (90x0.4) + (60x0.6)) =

이어서, 각 교점들(a1, b1, c1, d1)의 좌표와 (수학식 2)를 이용하여, 세로방향의 직선(L1)의 식과 가로 방향의 직선(L2)의 식을 결정한다. Next, the formula of the straight line L1 in the vertical direction and the formula of the straight line L2 in the horizontal direction are determined by using the coordinates of each of the intersections a1, b1, c1, and d1 and (Formula 2).

L1 : y-60 = {(90-60)/(60-58)}(x-58) ⇒ y=15x-810L1: y-60 = {(90-60) / (60-58)} (x-58) y = 15x-810

L2 : y-72 = {(72-72)/(28-72)}(x-28) ⇒ y=72L2: y-72 = {(72-72) / (28-72)} (x-28) y = 72

다음으로, (수학식 3)을 이용하여 2개의 직선들(L1, L2)의 교점을 구하면, Pc(59,72)를 얻을 수 있다. Next, Pc (59,72) can be obtained by obtaining an intersection point of two straight lines (L1, L2) using (Equation 3).

그리고, 제1 깊이 영상으로부터 인체로 판정된 제1 물체의 제1 위치(Pa)의 좌표(xa,ya)가 (59,72)에 일치하거나, 그로부터 소정 범위의 오차를 가지면서 유사한 경우, 제1 위치의 물체와 제2 위치의 물체를 동일한 인체인 것으로 확정할 수 있게 되는 것이다. When the coordinates (xa, ya) of the first position (Pa) of the first object determined as the human body from the first depth image are similar to each other with an error of a predetermined range from or coinciding with (59,72) It is possible to determine that the object at the first position and the object at the second position are the same human body.

한편, 도 9를 참조하여, 각 목표 구역에서 인체로 판정된 물체의 위치를 지정하는 방법에 대하여 설명한다. 제1 깊이 영상에서의 인체의 위치와 제2 깊이 영상에서의 인체의 위치를 서로 비교하기 위해서는, 각 위치를 특정의 점 또는 영역으로 결정할 필요가 있다. On the other hand, with reference to Fig. 9, a method of specifying the position of an object determined as a human body in each target area will be described. In order to compare the position of the human body in the first depth image with the position of the human body in the second depth image, it is necessary to determine each position as a specific point or area.

제1 깊이 영상에서 판정된 인체(H)는 일반적으로 머리와 2개의 팔과 2개의 손과 몸통의 뼈대 형태를 포함하는 모형(HS)으로 구성될 수 있다. 따라서, 판정된 인체(H)의 위치(Pa)는, 인체 모형의 무게 중심의 위치로써 정해질 수 있으며, 간단하게는 두 다리의 끝 부분의 중점을 인체의 위치로서 결정할 수 있다. 도 9(a)는 인체 뼈대 모형(HS)의 발의 중점을 위치(Pa)로 결정한 것을 보여준다. The human body H determined in the first depth image can generally consist of a model (HS) including a head, two arms, and two hand and trunk skeletal forms. Therefore, the determined position Pa of the human body H can be determined by the position of the center of gravity of the human body model, and simply, the center of the end of the two legs can be determined as the position of the human body. Fig. 9 (a) shows that the center of the foot of the human skeleton model (HS) is determined as the position Pa.

제2 깊이 영상에서 판정된 인체는 일반적으로 반구형의 원기둥 형태로 나타나는 머리 형상과 머리 형상으로부터 양측으로 연장된 원통 형상의 어깨 형상을 포함할 수 있다. 따러서, 판정된 인체의 위치는, 양측 어깨 사이의 중점으로 정해질 수 있다. 도 9(b)는 어깨 형태의 중점을 위치(Pb)로 결정한 것을 보여준다. The human body determined in the second depth image may include a head shape that is generally hemispherical and a cylindrical shape that extends from both sides of the head. Thus, the determined position of the human body can be defined as the midpoint between both shoulders. FIG. 9 (b) shows that the center of the shoulder shape is determined as the position Pb.

추가로, 각 목표 구역(Z1, Z2)은, 도 7 등에 도시된 바와 같이, 복수의 격자단위로 구분될 수 있으며, 각 격자 단위로 상기한 위치 비교 절차가 수행될 수 있다. 만일, 사람으로 판정된 제1 물체의 위치(Pa)가 임의의 격자 내에 있고, 사람으로 판정된 제2 물체의 위치(Pb)가 상기 격자 내에 있다면, 양자는 동일한 사람을 가리키는 것으로 판정할 수 있는 것이다. In addition, each of the target zones Z1 and Z2 may be divided into a plurality of grid units, as shown in FIG. 7 and the like, and the position comparison procedure described above may be performed for each grid unit. If the position Pa of the first object determined as a person is within a certain grid and the position Pb of the second object determined as a person is within the grid, then both can be determined to indicate the same person will be.

도 10은, 인체로 확정된 물체의 위치를 추적함으로써 인체의 이동을 추적하는 것을 설명하는 도면이다. 제1 위치(Pa)와 제2 위치(Pb)가 서로 일치하여 제1 물체 및/또는 제2 물체를 인체로 확정할 수 있으면, 제2 깊이 영상에서 보여지는 제2 목표 구역(Z2)의 좌표 평면을 기준으로 제2 위치(Pb)를 인체의 위치로 확정할 수 있으며, 임의의 시간마다 제2 위치(Pb)의 이동을 계산함으로써 인체의 이동을 추적할 수 있다. Fig. 10 is a diagram for explaining tracking of the movement of the human body by tracking the position of an object fixed to the human body. If the first position Pa and the second position Pb coincide with each other and the first object and / or the second object can be determined as the human body, the coordinates of the second target zone Z2 shown in the second depth image The second position Pb can be determined to be the position of the human body with respect to the plane and the movement of the human body can be tracked by calculating the movement of the second position Pb at an arbitrary time.

도면에서는, 이전에 결정된 제2 위치(Pp)로부터 현재 결정된 제2 위치(Pc) 사이의 변경을 계산함으로써, 인체의 이동 방향 및 속도를 계산할 수 있음을 보여준다. The figure shows that the moving direction and speed of the human body can be calculated by calculating the change between the previously determined second position Pp and the currently determined second position Pc.

한편, 매 순간의 인체의 제스처는, 제1 깊이 영상에서 구성된 뼈대 모형을 참조하여 판단할 수 있으며, 이전의 제스처와 현재의 제스처를 비교함으로써 연속된 제스처를 식별할 수 있게 된다. On the other hand, the gesture of the human body at every moment can be judged by referring to the skeletal model constructed from the first depth image, and the continuous gesture can be identified by comparing the previous gesture with the current gesture.

이와 같은 2개의 깊이 영상을 이용하는 인체 추적 시스템 및 방법에 의하면, NiTE 알고리즘에 의해 뼈대 모형을 구성하는 방식으로 사물과 인체를 1차로 구분하고, 수직으로 내려다보며 머리 형상의 정수리와 어깨까지의 깊이를 탐지하여 사물과 인체를 2차로 구분함으로써, 상호 보완적이면서 정확한 사물과 인체의 구분이 가능하게 된다. According to the human body tracking system and method using the two depth images, the object and the human body are firstly classified by the method of constructing the skeleton model by the NiTE algorithm, and the depth of the head shape and the shoulder By detecting the object and the human body in the second way, it becomes possible to distinguish between the object and the human body which are complementary and accurate.

또한, 목표 구역을 비스듬하게 바라본 영상으로부터 뼈대 모형을 구성하는 경우, 인체의 방향, 자세 또는 위치에 따라서 뼈대를 정확하게 구성하지 못할 수도 있다. 즉, 인체로 정확하게 확정하지 못할 가능성이 있다. In addition, when a skeleton model is constructed from an image obliquely viewed from a target area, the skeleton may not be configured accurately depending on the direction, posture, or position of the human body. That is, there is a possibility that it can not be accurately determined by the human body.

마찬가지로, 목표 구역을 수직으로 내려다본 영상으로부터 머리와 어깨를 탐지하는 경우, 인체의 방향, 자세 또는 위치에 따라서 머리와 어깨를 정확하게 구분하여 식별하지 못할 수도 있다. Likewise, when head and shoulder are detected from the image viewed from the target area vertically, it may not be possible to distinguish between the head and the shoulder according to the direction, posture or position of the human body.

따라서, 단계(S170)에서는, 제1 위치와 제2 위치가 동일 위치가 아니더라도, 즉, 제1 물체가 인체로 판정되었거나 또는 제2 물체가 인체로 판정된 모든 경우에, 각 물체를 인체로 확정하여 다음 처리를 수행할 수도 있을 것이다. Therefore, in step S170, when the first position and the second position are not at the same position, that is, in the case where the first object is determined as a human body, or in all cases where the second object is determined as a human body, And then perform the following processing.

예를 들면, 본 발명에 따른 2개의 깊이 영상을 이용하는 인체 추적 시스템은 공장 및 제조업에서의 사물과 인체의 작업시 충돌 및 안전 사고가 발생할 가능성이 있는 장소에 설치되어 활용될 수 있으므로, 목표 구역에서 인체로 예상되는 물체가 탐지되면(제1 깊이 영상으로부터 인체로 판정되거나 또는 제2 깊이 영상으로부터 인체로 판정된 모든 경우) 탐지된 물체의 위치 변동 및 다른 물체의 접근 등을 지속적으로 감시하도록 구현될 필요가 있으며, 그러한 필요성에 부합할 수 있다. For example, the human tracking system using two depth images according to the present invention can be installed in a place where there is a possibility of a collision and a safety accident at the time of operation of objects and human bodies in factories and manufacturing industries, It is implemented to continuously monitor the positional change of the detected object and the approach of other objects when an object expected to be the human body is detected (all cases where the human body is determined from the first depth image or the human body is determined from the second depth image) There is a need, and it can meet that need.

이상에서 설명된 본 발명의 실시예들은 본 발명의 기술 사상을 예시적으로 보여준 것에 불과하며, 본 발명의 보호 범위는 이하 특허청구범위에 의하여 해석되어야 마땅할 것이다. 또한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것인 바, 본 발명과 균등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The embodiments of the present invention described above are merely illustrative of the technical idea of the present invention, and the scope of protection of the present invention should be interpreted according to the claims. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the essential characteristics thereof, It is to be understood that the invention is not limited thereto.

Claims (11)

소정의 목표 구역을 측면에서 비스듬히 바라보는 제1 깊이 센서;
상기 목표 구역을 수직으로 내려다 바라보는 제2 깊이 센서;
(1) 상기 제1 깊이 센서에 의해 생성된 제1 깊이 영상으로부터 제1 물체를 탐지하고, 탐지된 상기 제1 물체의 형태를 특정의 알고리즘으로 분석하여 인체의 뼈대 구조가 획득되는 경우에 상기 제1 물체를 인체로 판정하고, 인체로 판정된 상기 제1 물체의 상기 목표 구역 내에서의 위치를 판정하여 제1 위치(Pa)로 설정하고, (2) 상기 제2 깊이 센서에 의해 생성된 제2 깊이 영상으로부터 제2 물체를 탐지하고, 탐지된 상기 제2 물체의 형상이 반구형의 머리 형상과 상기 머리 형상으로부터 연장된 어깨 형상을 포함하는 경우에 인체로 판정하고, 인체로 판정된 상기 제2 물체의 상기 목표 구역 내에서의 위치를 판정하여 제2 위치(Pb)로 설정하고, (3) 상기 제1 위치(Pa)와 상기 제2 위치(Pb)를 서로 비교하여 동일한 위치로 판정되는 경우에 상기 제1 물체와 상기 제2 물체를 인체로 확정하는 기능을 수행하는 분석 장치;를 포함하고,

상기 제1 위치(Pa)와 상기 제2 위치(Pb)를 서로 비교하는 것은,
상기 제2 깊이 영상에서 상기 목표 구역을 4개의 꼭지점(A2, B2, C2, D2)을 갖는 사각 형태로 정의하고,
상기 사각 형태를 제2 좌표 평면으로 하고, 상기 제2 위치(Pb)의 상기 사각 형태의 각 변에 대한 교점(a2, b2, c2, d2)을 정의하고, 상기 각 변의 길이에 대한 위치의 퍼센티지를 계산하여 상기 교점 각각의 좌표(a2(tx,0), b2(1,ty), c2(tx,1), d2(0,ty))를 결정하고,
상기 제1 깊이 영상 전체를 제1 좌표 평면으로 하고, 상기 제1 좌표 평면에서 상기 목표 구역의 4개의 꼭지점들 각자에 대응하는 꼭지점들(A1, B1, C1, D1)을 설정하여 변형 목표 구역을 정의하고, 상기 설정된 꼭지점들 각자의 좌표(A1(x1,y1), B1(x2,y2), C1(x3,y3), D1(x4,y4))를 결정하고,
(수학식 1)을 이용하여, 상기 교점(a2, b2, c2, d2)을 상기 변형 목표 구역의 각 변에서의 위치(a1, b1, c1, d1)로 변환하여 해당하는 좌표를 결정하고,
(수학식 1)
Figure 112019501478054-pat00039

Figure 112019501478054-pat00040

Figure 112019501478054-pat00041

Figure 112019501478054-pat00042

(수학식 2)를 이용하여, 교점(a1)과 교점(c1)을 연결한 직선(L1)의 식과 교점(b1)과 교점(d1)을 연결한 직선(L2)의 식을 구하고,
(수학식 2)
Figure 112019501478054-pat00043

Figure 112019501478054-pat00044

(수학식 3)을 이용하여 상기 직선들(L1, L2)의 교차점(Pc)을 결정하고,
(수학식 3)
Figure 112019501478054-pat00045

상기 제1 좌표 평면에서 상기 제1 위치(Pa)의 좌표(xa, ya)를 결정하고,
상기 결정된 교차점(Pc)의 좌표(Px,Py)와 상기 제1 위치(Pa)의 좌표(xa, ya)가 서로 동일하거나 소정 범위의 오차를 가지는 경우에, 상기 제1 위치(Pa)와 상기 제2 위치(Pb)를 동일한 위치로 판정하는 것을 특징으로 하는, 2개의 깊이 영상을 이용하는 인체 추적 시스템.
A first depth sensor for obliquely viewing a predetermined target area from a side;
A second depth sensor for looking down the target area vertically;
(1) detecting a first object from a first depth image generated by the first depth sensor, analyzing a shape of the first object detected by a specific algorithm, and determining, when a skeleton structure of the human body is obtained, (2) determining a position of the first object determined as a human body in the target area by determining a position of the first object (Pa); (2) The second object is detected from the second depth image, and when the detected second object includes a hemispherical head shape and a shoulder shape extending from the head shape, (3) determining whether the first position Pa and the second position Pb are the same by comparing the first position Pa and the second position Pb with each other; The first object and the second water Includes; the analyzing device that performs the function of a fixed body

Comparing the first position Pa and the second position Pb with each other,
The target region is defined as a rectangular shape having four vertexes (A2, B2, C2, D2) at the second depth image,
(A2, b2, c2, d2) for each side of the square shape of the second position (Pb) is defined as the second coordinate plane and the square shape is defined as a second coordinate plane, and a percentage (Tx, 0), b2 (1, ty), c2 (tx, 1), d2 (0, ty)
(A1, B1, C1, D1) corresponding to each of the four vertexes of the target region in the first coordinate plane, thereby forming a transformed target region (X1, y1), B1 (x2, y2), C1 (x3, y3), D1 (x4, y4)) of the set vertexes,
(A1, b1, c1, d1) at each side of the deformed target zone to determine the corresponding coordinates, using the equation (1)
(1)
Figure 112019501478054-pat00039

Figure 112019501478054-pat00040

Figure 112019501478054-pat00041

Figure 112019501478054-pat00042

The formula of the straight line L1 connecting the intersection a1 and the intersection c1 and the formula of the straight line L2 connecting the intersection b1 and the intersection d1 are obtained by using the equation (2)
(2)
Figure 112019501478054-pat00043

Figure 112019501478054-pat00044

The intersection Pc of the straight lines L1 and L2 is determined using the following equation (3)
(3)
Figure 112019501478054-pat00045

Determining coordinates (xa, ya) of the first position (Pa) in the first coordinate plane,
(Pa) and the coordinates (xa, ya) of the first position (Pa) are equal to each other or have an error in a predetermined range, the first position (Pa) And the second position (Pb) is determined to be the same position.
삭제delete 제1항에 있어서,
상기 알고리즘은, NiTE 라이브러리에 의한 처리를 포함하는 것을 특징으로 하는, 2개의 깊이 영상을 이용하는 인체 추적 시스템.
The method according to claim 1,
Characterized in that the algorithm comprises processing by a NiTE library.
삭제delete 제1항에 있어서,
상기 제2 깊이 센서는,
소정의 기준 거리 이내에서 탐지되는 형상을 감지하도록 오프셋이 설정되고,
상기 기준 거리는 상기 목표 구역에 진입할 수 있는 인체의 머리 및 어깨를 가장 잘 탐지할 수 있는 거리로 설정되는 것을 특징으로 하는, 2개의 깊이 영상을 이용하는 인체 추적 시스템.
The method according to claim 1,
Wherein the second depth sensor comprises:
An offset is set so as to detect a shape detected within a predetermined reference distance,
Wherein the reference distance is set to a distance that can best detect the head and shoulders of the human body that can enter the target area.
제1항에 있어서,
상기 제2 깊이 센서는,
제1축 방향을 따라 선 형태로 전방을 스캔하여 제1 선 영상을 생성하고, 제2축 방향으로 이동한 위치에서 다시 상기 제1축 방향을 따라 제2 선 영상을 생성하는 방식으로 상기 목표 구역을 스캔하도록 구성되고,
상기 분석 장치는 상기 선 영상들의 하나 또는 복수를 이용하여 물체 탐지 및 인체 판정을 수행하는 것을 특징으로 하는, 2개의 깊이 영상을 이용하는 인체 추적 시스템.
The method according to claim 1,
Wherein the second depth sensor comprises:
A first line image is generated by scanning forward in a linear form along a first axis direction and a second line image is generated along a first axis direction at a position moved in a second axial direction, To scan,
Wherein the analyzer performs object detection and human determination using one or more of the line images.
제1항에 있어서,
상기 분석 장치는, 상기 제1 물체 및 상기 제2 물체가 인체로 확정되면,
상기 제1 위치 및 상기 제2 위치 중 적어도 하나를 이용하여 상기 확정된 인체의 상기 목표 구역 내에서의 이동을 추적하는 기능, 및
상기 뼈대 구조를 이용하여 상기 확정된 인체의 제스처를 추적하는 기능을 더 수행하는 것을 특징으로 하는, 2개의 깊이 영상을 이용하는 인체 추적 시스템.
The method according to claim 1,
The analyzing apparatus, when the first object and the second object are determined as the human body,
A function of tracking the movement of the defined human body in the target area using at least one of the first position and the second position, and
And further performs a function of tracking the determined gesture of the human body using the skeleton structure.
삭제delete 소정의 목표 구역을 측면에서 비스듬히 바라보는 제1 깊이 센서에 의해 제1 깊이 영상을 획득하는 단계;
상기 제1 깊이 영상으로부터 제1 물체가 탐지되면, 탐지된 상기 제1 물체의 형태를 특정의 알고리즘으로 분석하여 인체의 뼈대 구조가 획득되는 경우에 상기 제1 물체를 인체로 판정하고, 인체로 판정된 상기 제1 물체의 상기 목표 구역 내에서의 위치를 판정하여 제1 위치(Pa)로 설정하는 단계;
상기 목표 구역을 수직으로 내려다 바라보는 제2 깊이 센서에 의해 제2 깊이 영상을 획득하는 단계;
상기 제2 깊이 영상으로부터 제2 물체가 탐지되면, 탐지된 상기 제2 물체의 형상이 반구형의 머리 형상과 상기 머리 형상으로부터 연장된 어깨 형상을 포함하는 경우에 인체로 판정하고, 인체로 판정된 상기 제2 물체의 상기 목표 구역 내에서의 위치를 판정하여 제2 위치(Pb)로 설정하는 단계;
상기 제1 위치(Pa)와 상기 제2 위치(Pb)를 서로 비교하여 동일한 위치로 판정되는 경우에 상기 제1 물체와 상기 제2 물체를 인체로 확정하는 단계;를 포함하고,

상기 제1 위치(Pa)와 상기 제2 위치(Pb)를 서로 비교하는 것은,
상기 제2 깊이 영상에서 상기 목표 구역을 4개의 꼭지점(A2, B2, C2, D2)을 갖는 사각 형태로 정의하고,
상기 사각 형태를 제2 좌표 평면으로 하고, 상기 제2 위치(Pb)의 상기 사각 형태의 각 변에 대한 교점(a2, b2, c2, d2)을 정의하고, 상기 각 변의 길이에 대한 위치의 퍼센티지를 계산하여 상기 교점 각각의 좌표(a2(tx,0), b2(1,ty), c2(tx,1), d2(0,ty))를 결정하고,
상기 제1 깊이 영상 전체를 제1 좌표 평면으로 하고, 상기 제1 좌표 평면에서 상기 목표 구역의 4개의 꼭지점들 각자에 대응하는 꼭지점들(A1, B1, C1, D1)을 설정하여 변형 목표 구역을 정의하고, 상기 설정된 꼭지점들 각자의 좌표(A1(x1,y1), B1(x2,y2), C1(x3,y3), D1(x4,y4))를 결정하고,
(수학식 1)을 이용하여, 상기 교점(a2, b2, c2, d2)을 상기 변형 목표 구역의 각 변에서의 위치(a1, b1, c1, d1)로 변환하여 해당하는 좌표를 결정하고,
(수학식 1)
Figure 112019501478054-pat00046

Figure 112019501478054-pat00047

Figure 112019501478054-pat00048

Figure 112019501478054-pat00049

(수학식 2)를 이용하여, 교점(a1)과 교점(c1)을 연결한 직선(L1)의 식과 교점(b1)과 교점(d1)을 연결한 직선(L2)의 식을 구하고,
(수학식 2)
Figure 112019501478054-pat00050

Figure 112019501478054-pat00051

(수학식 3)을 이용하여 상기 직선들(L1, L2)의 교차점(Pc)을 결정하고,
(수학식 3)
Figure 112019501478054-pat00052

상기 제1 좌표 평면에서 상기 제1 위치(Pa)의 좌표(xa, ya)를 결정하고,
상기 결정된 교차점(Pc)의 좌표(Px,Py)와 상기 제1 위치(Pa)의 좌표(xa, ya)가 서로 동일하거나 소정 범위의 오차를 가지는 경우에, 상기 제1 위치(Pa)와 상기 제2 위치(Pb)를 동일한 위치로 판정하는 것을 더 포함하는, 2개의 깊이 영상을 이용하는 인체 추적 방법.
Obtaining a first depth image by a first depth sensor that obliquely views a predetermined target area at a side view;
When the first object is detected from the first depth image, the shape of the first object detected is analyzed by a specific algorithm to determine the first object as a human body when the skeleton structure of the human body is acquired, Determining a position of the first object in the target area and setting it to a first position (Pa);
Obtaining a second depth image by a second depth sensor viewing the target area vertically;
Determining that the second object is a human body when the detected second object includes a hemispherical head shape and a shoulder shape extending from the head shape when the second object is detected from the second depth image; Determining a position of the second object within the target area and setting it to a second position (Pb);
Determining the first object and the second object as a human body when the first position Pa and the second position Pb are compared with each other to determine the same position,

Comparing the first position Pa and the second position Pb with each other,
The target region is defined as a rectangular shape having four vertexes (A2, B2, C2, D2) at the second depth image,
(A2, b2, c2, d2) for each side of the square shape of the second position (Pb) is defined as the second coordinate plane and the square shape is defined as a second coordinate plane, and a percentage (Tx, 0), b2 (1, ty), c2 (tx, 1), d2 (0, ty)
(A1, B1, C1, D1) corresponding to each of the four vertexes of the target region in the first coordinate plane, thereby forming a transformed target region (X1, y1), B1 (x2, y2), C1 (x3, y3), D1 (x4, y4)) of the set vertexes,
(A1, b1, c1, d1) at each side of the deformed target zone to determine the corresponding coordinates, using the equation (1)
(1)
Figure 112019501478054-pat00046

Figure 112019501478054-pat00047

Figure 112019501478054-pat00048

Figure 112019501478054-pat00049

The formula of the straight line L1 connecting the intersection a1 and the intersection c1 and the formula of the straight line L2 connecting the intersection b1 and the intersection d1 are obtained by using the equation (2)
(2)
Figure 112019501478054-pat00050

Figure 112019501478054-pat00051

The intersection Pc of the straight lines L1 and L2 is determined using the following equation (3)
(3)
Figure 112019501478054-pat00052

Determining coordinates (xa, ya) of the first position (Pa) in the first coordinate plane,
(Pa) and the coordinates (xa, ya) of the first position (Pa) are equal to each other or have an error in a predetermined range, the first position (Pa) Further comprising determining the second position (Pb) to be the same position.
삭제delete 삭제delete
KR1020170084102A 2017-07-03 2017-07-03 System and method for tracking human using two depth images KR101955596B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170084102A KR101955596B1 (en) 2017-07-03 2017-07-03 System and method for tracking human using two depth images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170084102A KR101955596B1 (en) 2017-07-03 2017-07-03 System and method for tracking human using two depth images

Publications (2)

Publication Number Publication Date
KR20190004044A KR20190004044A (en) 2019-01-11
KR101955596B1 true KR101955596B1 (en) 2019-05-30

Family

ID=65028164

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170084102A KR101955596B1 (en) 2017-07-03 2017-07-03 System and method for tracking human using two depth images

Country Status (1)

Country Link
KR (1) KR101955596B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102302733B1 (en) 2021-04-29 2021-09-15 주식회사 스마트해피넷 System for automatically tracking moving target and the method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113965701B (en) * 2021-09-10 2023-11-14 苏州雷格特智能设备股份有限公司 Multi-target space coordinate corresponding binding method based on two depth cameras

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007510335A (en) * 2003-11-04 2007-04-19 キヤノン株式会社 Method for estimating affine relationships between images
KR101448391B1 (en) * 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting system
KR101473234B1 (en) * 2013-10-31 2014-12-16 (주) 골프존 Method and system for displaying an image based on body tracking

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100915880B1 (en) * 2007-12-24 2009-09-07 재단법인대구경북과학기술원 Method for position estimation and apparatus for the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007510335A (en) * 2003-11-04 2007-04-19 キヤノン株式会社 Method for estimating affine relationships between images
KR101448391B1 (en) * 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting system
KR101473234B1 (en) * 2013-10-31 2014-12-16 (주) 골프존 Method and system for displaying an image based on body tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102302733B1 (en) 2021-04-29 2021-09-15 주식회사 스마트해피넷 System for automatically tracking moving target and the method thereof

Also Published As

Publication number Publication date
KR20190004044A (en) 2019-01-11

Similar Documents

Publication Publication Date Title
US20160117824A1 (en) Posture estimation method and robot
KR100773184B1 (en) Autonomously moving robot
US20190007659A1 (en) Sensor for securing a machine
JP4774824B2 (en) Method for confirming measurement target range in three-dimensional measurement processing, method for setting measurement target range, and apparatus for performing each method
KR20080029548A (en) System and method of moving device control based on real environment image
WO2014024364A1 (en) Object detection device, object detection method, and program
KR101565900B1 (en) Device, method for calibration of camera and laser range finder
KR101955596B1 (en) System and method for tracking human using two depth images
KR20140055159A (en) Apparatus and method for detecting obstacle for around view monitoring system
JP2016170610A (en) Three-dimensional model processing device and camera calibration system
JP4042750B2 (en) Image processing apparatus, computer program, and image processing method
EP2372652B1 (en) Method for estimating a plane in a range image and range image camera
US20140119609A1 (en) Image recognizing apparatus and method
US20160005161A1 (en) Robot system
EP3435327A1 (en) Device for detecting road surface state
JPH11257931A (en) Object recognizing device
KR101620580B1 (en) Method and system for dectecting run
US20190313082A1 (en) Apparatus and method for measuring position of stereo camera
KR20090090983A (en) Method for extracting spacial coordimates using multiple cameras image
JP4935769B2 (en) Plane region estimation apparatus and program
JP6581280B1 (en) Monitoring device, monitoring system, monitoring method, monitoring program
Heindl et al. Metric pose estimation for human-machine interaction using monocular vision
CN106233307A (en) Object identifying
Adorni et al. A non-traditional omnidirectional vision system with stereo capabilities for autonomous robots
WO2020158035A1 (en) Object position estimation device and method therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right