KR101554677B1 - System for sensoring body behavior - Google Patents
System for sensoring body behavior Download PDFInfo
- Publication number
- KR101554677B1 KR101554677B1 KR1020140043730A KR20140043730A KR101554677B1 KR 101554677 B1 KR101554677 B1 KR 101554677B1 KR 1020140043730 A KR1020140043730 A KR 1020140043730A KR 20140043730 A KR20140043730 A KR 20140043730A KR 101554677 B1 KR101554677 B1 KR 101554677B1
- Authority
- KR
- South Korea
- Prior art keywords
- joint
- independent
- skeleton image
- inter
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Abstract
Description
본 발명은 신체 행동 인지 시스템에 관한 것으로, 보다 상세하게는 촬영 장소에서 각 사람의 현재 행동의 종류에 대한 정보가 즉각적이고 정확하게 파악되어 제공될 수 있도록 하는 신체 행동 인지 시스템에 관한 것이다.
BACKGROUND OF THE
본 발명은 신체 행동 인지 시스템에 관한 것이다.The present invention relates to a body behavior awareness system.
기존에는 도로나 공항 또는 지하철 등 공공장소에 설치된 CCTV 등을 이용하여 촬영된 이미지를 담당자가 직접 눈으로 확인하며 특정 행동 내지 주시 행동에 대한 관찰을 수행하는 시스템만이 제공되고 있다.In the past, only a system has been provided in which a person in charge can visually confirm an image photographed using a CCTV installed in a public place such as a road, an airport or a subway, and observe specific actions or observing behaviors.
그러나, 상술한 기존의 시스템만으로는 특정 테러와 관련될 수 있는 각종 행위나 자살 또는 폭행 등과 관련될 수 있는 각종 행위에 대한 모든 관찰이 실질적으로 불가능하고, 그에 관한 즉각적인 관찰이 불가능하여 현실적인 사고 예방이 불가능한 문제가 있다.However, with the above-mentioned existing system, it is impossible to observe all kinds of behaviors that may be related to specific terrorism or related to suicide or assault, and it is not possible to observe it immediately, there is a problem.
또한, 기존의 시스템은 사후 조사의 경우에도, 많은 인력과 시간 및 비용이 소요되는 문제가 있다.
In addition, the existing system has a problem that it requires a lot of manpower, time, and cost even in the case of post-survey.
본 발명의 배경이 되는 기술은 대한민국 등록특허공보 제0336440호 등에 개시되어 있으나, 상술한 문제점에 대한 해결책은 제시되고 있지 못하는 실정이다.
Although the technique as a background of the present invention is disclosed in Korean Patent Registration No. 0336440, a solution to the above-mentioned problems is not presented.
상술한 문제점을 해결하기 위해 안출된 본 발명의 목적은 신체 각각의 조인트 및 뼈대 이미지 정보를 검출하는 RGBD(RGB-Depth) 카메라부와 검출된 조인트 및 뼈대 이미지 정보로부터 신체의 행동 종류를 판단하는 메인 서버를 포함함으로써, 촬영 장소에서 각 사람의 현재 행동의 종류에 대한 정보가 즉각적이고 정확하게 파악되어 제공될 수 있도록 하는 신체 행동 인지 시스템을 제공하기 위한 것이다.SUMMARY OF THE INVENTION It is an object of the present invention, which is devised to solve the above-mentioned problems, to provide an image processing apparatus, comprising: an RGBD (RGB-Depth) camera section for detecting joint and skeleton image information of each body; The present invention is intended to provide a body behavior awareness system that enables information on the kind of each person's current behavior to be instantly and accurately grasped and provided at a shooting place by including a server.
또한, 독립된 신체를 구성하는 독립 신체에 대한 조인트 및 뼈대 이미지 정보를 판단하는 독립 객체 판단부와 독립 객체 판단부에서 판단된 독립된 신체 각각의 조인트와 뼈대의 이동 경로를 분석하고 독립된 신체간 상호 연동 여부를 판단하는 객체간 상호작용 판단부를 더 포함함으로써, 촬영되는 장소에서 2 이상의 사람에 의한 상호 연동되는 행동까지도 즉각적이고 정확하게 파악되어 제공될 수 있도록 하는 신체 행동 인지 시스템을 제공하기 위함이다.
In addition, the independent object determination unit for determining the joint and skeleton image information for the independent body constituting the independent body and the movement path of the joint and the skeleton of the independent body determined by the independent object determination unit are analyzed, and the independent inter- The present invention also provides a system for recognizing a body behavior, which can instantaneously and precisely grasp the interactions between two or more persons at a scene where they are photographed.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 촬영 대상 객체 각각의 3차원 깊이(Depth) 데이터를 추출하여 신체 각각의 조인트 및 뼈대 이미지 정보를 검출하는 RGBD(RGB-Depth) 카메라부; 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 조인트와 뼈대 이미지의 이동 경로를 분석하여 추출하는 조인트 분석부와, 상기 조인트 분석부에서 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 신체 행동 종류가 기 분류되어 저장된 행동예시 DB를 비교하여 대응되는 촬영 대상 객체의 행동 종류를 판단하는 액티비티 판단부를 포함하는 메인 서버; 를 포함하고, 상기 조인트 분석부는, 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 기 설정된 조인트 및 뼈대 사이의 결합 거리와 연동 관계로부터 독립된 신체를 구성하는 독립 신체에 대한 조인트 및 뼈대 이미지 정보를 판단하는 독립 객체 판단부와, 상기 독립 객체 판단부에서 판단된 독립된 신체 각각의 조인트와 뼈대의 이동 경로를 분석하고 독립된 신체간 상호 연동 여부를 판단하는 객체간 상호작용 판단부를 더 포함하고, 상기 독립 객체 판단부에서 판단된 독립 신체 각각에 대해 상기 조인트와 뼈대 이미지의 이동 경로를 개별적으로 분석하여 추출하고, 상기 행동예시 DB에는, 2 이상의 독립된 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 상기 독립된 신체간 연동 행동 종류가 더 분류되어 저장되며, 상기 액티비티 판단부는, 상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 상기 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 상기 행동예시 DB를 비교하여 대응되는 연동 행동 종류를 더 판단하는 것을 특징으로 하며, 상기 행동예시 DB에는, 기 설정된 3차원 좌표계의 기준점을 기준으로 2 이상의 독립된 신체 각각의 얼굴 벡터좌표의 변화에 따른 상호 행동 종류가 더 분류되어 저장되고, 상기 조인트 분석부는, 상기 독립 객체 판단부에서 상기 신체 각각의 조인트 및 뼈대 이미지 정보로부터 머리의 얼굴 정보를 더 분석하여 추출하도록 하고, 상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상기 기 설정된 3차원 좌표계의 기준점을 기준으로 상기 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보를 더 추출하고, 상기 액티비티 판단부는, 상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보와 상기 행동예시 DB를 비교하여 대응되는 상호 행동 종류를 더 판단하는 것을 특징으로 한다.According to an aspect of the present invention, an RGBD (Depth) camera section for extracting three-dimensional depth data of each object to be imaged and detecting joint and skeleton image information of each body, ; A joint analyzer for analyzing and extracting a movement path of a joint and a skeleton image from the joint and skeleton image information of each of the bodies detected by the RGBD camera unit; a joint analyzer for analyzing the movement path information of the joint and the skeleton image analyzed by the joint analyzer, A main server including an activity judging unit for judging a behavior type of a corresponding object to be photographed by comparing a behavior behavior DB of the type of physical behavior according to the movement characteristics of each joint and skeletal movement; Wherein the joint analyzing unit is configured to determine joints and skeleton image information of each of the bodies detected by the RGBD camera unit, joints and skeletons for an independent body constituting an independent body from an interlocking relationship with predetermined joints and skeletons, And an inter-object interaction determination unit for analyzing the movement paths of the joints and the skeletons of each of the independent bodies determined by the independent object determination unit and determining whether the inter-body interactions are independent, , And the motion path of the joint and the skeleton image is individually analyzed and extracted for each of the independent bodies determined by the independent object determination unit, and the behavior example DB stores the movement characteristics of joints and skeleton movements of two or more independent bodies The independent inter-bodily interactions are further classified and stored , The activity determining unit may determine that the interactions between the bodies are independent of each other in the inter-object interaction determining unit, the moving path information of the analyzed joints and the skeleton images of each independent body determined to be interlocked, The behavioral example DB further includes a mutual behavior type according to a change in the face vector coordinate of each of two or more independent bodies based on a reference point of a predetermined three dimensional coordinate system And the joint analyzer further analyzes and extracts facial information of the head from the joint and skeleton image information of each of the bodies by the independent object determiner, and the inter- If it is determined that the interlocking operation is performed, the reference point of the predetermined three- The activity determination unit may further extract information on change in vector coordinates of faces of each of the determined independent bodies, and when the determination unit determines that the inter-subject interactions are independent in the inter-object interaction determination unit, And comparing the change information of the vector coordinates of each face with the behavior example DB to further determine the kind of mutual action corresponding thereto.
이때, 상기 조인트 분석부는, 기 설정된 3차원 좌표계의 기준점을 기준으로, 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보의 이동 경로에 대한 3차원 좌표값들을 추출하고, 상기 추출된 상기 신체 각각의 조인트 및 뼈대 이미지 정보의 3차원 좌표값들을 기준으로 상기 이동 경로 정보를 추출하는 것을 특징으로 한다.At this time, the joint analyzing unit extracts three-dimensional coordinate values of a moving path of joint and skeleton image information of each of the bodies detected by the RGBD camera unit based on a reference point of a predetermined three-dimensional coordinate system, And extracts the movement route information based on three-dimensional coordinate values of joint and skeleton image information of each body.
삭제delete
삭제delete
이상 살펴본 바와 같은 본 발명에 따르면, 촬영 장소에서 각 사람의 현재 행동의 종류에 대한 정보가 즉각적이고 정확하게 파악되어 제공될 수 있는 신체 행동 인지 시스템을 제공할 수 있다.As described above, according to the present invention, it is possible to provide a body behavior perception system in which information on the type of the current behavior of each person at the shooting location can be immediately and accurately grasped and provided.
또한, 본 발명에 따르면 촬영되는 장소에서 2 이상의 사람에 의한 상호 연동되는 행동까지도 즉각적이고 정확하게 파악되어 제공될 수 있는 신체 행동 인지 시스템을 제공할 수 있다.
In addition, according to the present invention, it is possible to provide a body behavior perception system capable of instantly and precisely grasping and providing even interoperable behaviors by two or more persons at a scene of photographing.
도 1은 본 발명의 바람직한 실시예에 의한 신체 행동 인지 시스템의 전체 구성을 나타내기 위한 블록 구성도이다.
도 2는 2 이상의 사람에 대한 상호 연동 행동까지 파악할 수 있도록 하는 객체 판단부를 포함한 전체 블록 구성도이다.
도 3의 (a)는 RGBD 카메라부에 의해 촬영된 가공 전 이미지에 대한 예시도이고, 도 3의 (b)는 2 객체, 즉 2 사람에 대한 깊이 데이터에 따른 이미지 정보에 대한 예시도이며, 도 3의 (c)는 2 사람에 대한 각각의 조인트 및 뼈대 이미지 정보에 대한 예시도이다.
도 4의 (a)는 신체의 관절과 뼈대 분류에 대한 기준이 되는 예시도이고, 도 4의 (b)는 도 4의 (a)에 따라 추출된 2 사람의 조인트 및 뼈대 이미지 정보에 대한 예시도이다.
도 5는 본 발명에 대한 전체적인 시스템을 구성하는 블록 구성의 예시도이다.
도 6은 신체 조인트 정보에 대한 예시 분류표이다.
도 7 내지 도 11은 각각, 2 사람의 관계에서 얼굴 벡터좌표의 변화에 따른 상호 행동 종류 5가지에 대한 예시를 나타내기 위한 예시도이다.FIG. 1 is a block diagram illustrating an overall configuration of a body motion perception system according to a preferred embodiment of the present invention. Referring to FIG.
FIG. 2 is a block diagram of an entire block including an object determination unit that allows a user to grasp interworking behavior for two or more persons.
FIG. 3 (a) is an exemplary view of a pre-processing image captured by the RGBD camera unit, FIG. 3 (b) is an exemplary view of image information according to depth data for two objects, Figure 3 (c) is an illustration of each joint and skeleton image information for two persons.
FIG. 4A is an example of a standard for the joint and skeleton classification of the body, FIG. 4B is an example of two joints and skeleton image information extracted according to FIG. 4A, .
5 is an exemplary diagram of a block configuration constituting an overall system for the present invention.
6 is an exemplary classification table for body joint information.
FIGS. 7 to 11 are diagrams for illustrating examples of five types of mutual actions according to changes in face vector coordinates in a two-person relationship; FIG.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다 The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
이하, 본 발명의 실시예들에 의하여 [발명의 명칭]을 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.DETAILED DESCRIPTION OF THE INVENTION Hereinafter, the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 바람직한 실시예에 의한 신체 행동 인지 시스템의 전체 구성을 나타내기 위한 블록 구성도이고, 도 2는 2 이상의 사람에 대한 상호 연동 행동까지 파악할 수 있도록 하는 객체 판단부를 포함한 전체 블록 구성도이다.FIG. 1 is a block diagram illustrating an overall configuration of a body motion perception system according to a preferred embodiment of the present invention. FIG. 2 is a block diagram of an overall block configuration including an object determination unit .
도 3의 (a)는 RGBD 카메라부에 의해 촬영된 가공 전 이미지에 대한 예시도이고, 도 3의 (b)는 2 객체, 즉 2 사람에 대한 깊이 데이터에 따른 이미지 정보에 대한 예시도이며, 도 3의 (c)는 2 사람에 대한 각각의 조인트 및 뼈대 이미지 정보에 대한 예시도이다.FIG. 3 (a) is an exemplary view of a pre-processing image captured by the RGBD camera unit, FIG. 3 (b) is an exemplary view of image information according to depth data for two objects, Figure 3 (c) is an illustration of each joint and skeleton image information for two persons.
도 4의 (a)는 신체의 관절과 뼈대 분류에 대한 기준이 되는 예시도이고, 도 4의 (b)는 도 4의 (a)에 따라 추출된 2 사람의 조인트 및 뼈대 이미지 정보에 대한 예시도이다.FIG. 4A is an example of a standard for the joint and skeleton classification of the body, FIG. 4B is an example of two joints and skeleton image information extracted according to FIG. 4A, .
도 5는 본 발명에 대한 전체적인 시스템을 구성하는 블록 구성의 예시도이고, 도 6은 신체 조인트 정보에 대한 예시 분류표이다.FIG. 5 is an exemplary view of a block configuration that constitutes the overall system of the present invention, and FIG. 6 is an exemplary classification table of body joint information.
도 7 내지 도 11은 각각, 2 사람의 관계에서 얼굴 벡터좌표의 변화에 따른 상호 행동 종류 5가지에 대한 예시를 나타내기 위한 예시도이다.FIGS. 7 to 11 are diagrams for illustrating an example of five kinds of mutual actions according to changes in face vector coordinates in a two-person relationship; FIG.
본 발명의 바람직한 실시예에 따른 신체 행동 인지 시스템은 촬영 대상 객체 각각의 3차원 깊이(Depth) 데이터를 추출하여 신체 각각의 조인트 및 뼈대 이미지 정보를 검출하는 RGBD(RGB-Depth) 카메라부(100)와, 상기 RGBD 카메라부(100)에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 조인트와 뼈대 이미지의 이동 경로를 분석하여 추출하는 조인트 분석부와(210), 상기 조인트 분석부(210)에서 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 신체 행동 종류가 기 분류되어 저장된 행동예시 DB(230)를 비교하여 대응되는 촬영 대상 객체의 행동 종류를 판단하는 액티비티 판단부(220)를 포함하는 메인 서버(200)를 포함한다.The body behavior recognition system according to the preferred embodiment of the present invention includes an RGBD (Depth-of-RGB)
즉, 본 발명에 따른 신체 행동 인지 시스템은 RGBD 카메라부(100)와 메인서버(200)를 포함한다.That is, the body motion recognition system according to the present invention includes the
상기 RGBD 카메라부(100)는 RGBD(RED, GREEN, BLUE, DEPTH) 카메라로, RGBD 센서들을 갖는 3D 이미징 카메라로 획득되는 깊이 데이터를 갖는 이미지로부터, 신체의 조인트와 뼈대 정보를 추정할 수 있는 수단이다.The
상기 RGBD 카메라부(100)는 촬영부(110), 배경 추출부(120), 빼대 추출부(130) 및 조인트 분할 추출부(140) 등을 포함한다.The
상기 촬영부(110)는 RGBD 센서들을 이용하여 일반 CCTV 카메라와 같이 지하철이나 쇼핑몰 등에 존재하는 배경 공간과 사람을 촬영하는 수단이고, 상기 배경 추출부(120)는 촬영 이미지 중 배경에 해당되는 이미지를 추출 제거하는 수단이다.The photographing
상기 뼈대 추출부(130)와 조인트 분할 추출부(140)는 상기 배경이 제거되고 사람의 신체만으로 이루어지고 깊이 데이터를 갖는 이미지로부터 신체의 조인트와 뼈대 정보를 추출하는 수단이다.The
즉, 상기 RGBD 카메라부(100)에 의해, 촬영된 이미지 중 배경 이미지가 제거된 후 신체의 조인트와 뼈대 이미지만으로 구성된 조인트 및 뼈대 이미지 정보가 검출된다. 즉, 상기 RGBD 카메라부(100)는 상기 깊이 데이터를 갖는 신체의 조인트 및 뼈대 이미지로부터, 기 설정된 이미지 프로세서에 의해 신체를 구성하는 조인트 및 뼈대 정보를 검출한다.That is, after the background image is removed from the photographed images, the joint and skeleton image information including only the body joint and the skeleton image is detected by the
이때, 상술한 조인트 및 뼈대 이미지 정보 검출에 과해서는 기존의 RGBD 카메라에 의한 조인트 및 뼈대 이미지 검출 과정과 같으므로 이에 관한 구체적인 설명은 생략하도록 한다.Here, the above-described joint and skeleton image information detection is the same as the conventional joint and skeleton image detection process by the RGBD camera, so a detailed description thereof will be omitted.
상기 메인 서버(200)는 조인트 분석부(210)와 액티비티 판단부(220) 및 행동예시 DB(230)를 포함한다.The
상기 메인 서버(200)는 상기 RGBD 카메라부(100)로부터 조인트 및 뼈대 이미지 정보를 전송받고, 그 조인트 및 뼈대의 이미지만에 의한 움직임, 즉 조인트 및 뼈대 이미지의 이동 경로를 분석하여 상기 행동예시 DB(230)에 기 저장된 신체의 각 행동과 분석된 조인트 및 뼈대 이미지의 이동 경로를 비교하여 촬영된 사람의 행동 특성을 판단하는 수단이다.The
보다 구체적으로, 상기 조인트 분석부(210)는 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 조인트와 뼈대 이미지의 이동 경로를 분석하여 추출하는 수단으로, 조인트 및 뼈대 이미지의 움직임을 분석하는 수단이다.More specifically, the
상기 행동예시 DB(230)는 신체의 조인트와 뼈대의 이동 경로에 따라 신체 행동 종류가 각각 기 분류되어 저장된 DB이다.The
즉, 상기 행동예시 DB(230)에는 신체 행동에 따른 조인트와 뼈대의 이동 경로에 대한 데이터들이 신체 행동별로 각각 저장된다.That is, in the
상기 액티비티 판단부(220)는 상기 조인트 분석부에서 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 상기 행동예시 DB(230)의 데이터들, 즉 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 신체 행동 종류가 기 분류되어 저장된 행동예시 DB(230)를 비교하여, 상기 RGBD 카메라부(100)에서 촬영되어 검출된 조인트 및 뼈대 이미지의 이동 경로로부터 상기 RGBD 카메라부(100)에서 촬영된 사람의 행동 종류를 판단하는 수단이다.The
이때, 상기 조인트 분석부(210)는, 기 설정된 3차원 좌표계의 기준점을 기준으로, 상기 RGBD 카메라부(100)에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보의 이동 경로에 대한 3차원 좌표값들을 추출하고, 상기 추출된 상기 신체 각각의 조인트 및 뼈대 이미지 정보의 3차원 좌표값들을 기준으로 상기 이동 경로 정보를 추출한다.At this time, the
즉, 상기 RGBD 카메라부(100)에서 검출된 조인트 및 뼈대 이미지 각각을 기 설정된 3차원 좌표계 상의 좌표로 분석하여, 각 조인트와 뼈대의 이동 경로를 분석한다.That is, each of the joint and skeleton images detected by the
상기 조인트 분석부(210)는 독립 객체 판단부(214)와 객체간 상호작용 판단부(215)를 더 포함한다.The
상기 독립 객체 판단부(214)는 상기 RGBD 카메라부(100)에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 기 설정된 조인트 및 뼈대 사이의 결합 거리와 연동 관계로부터 독립된 신체를 구성하는 독립 신체에 대한 조인트 및 뼈대 이미지 정보를 판단하는 수단이다.The independent
즉, 상기 독립 객체 판단부(214)는 상기 RGBD 카메라부(100)에서 촬영된 조인트 및 뼈대 이미지 정보에 2 이상의 사람에 대한 조인트 및 뼈대 이미지 정보가 포함된 경우, 2 이상의 사람 각각에 대한 신체의 조인트 및 뼈대 이미지 정보를 개별적으로 분리하여 각 독립 신체 각각에 대한 조인트와 뼈대 이미지의 이동 경로를 개별적으로 분석하도록 한다.That is, when the joint and skeleton image information photographed by the
상기 객체간 상호작용 판단부(215)는 상기 독립 객체 판단부(214)에서 판단된 독립된 신체 각각의 조인트와 뼈대의 이동 경로를 분석하고 독립된 신체간 상호 연동 여부를 판단하는 수단이다.The inter-object
즉, 상기 객체간 상호작용 판단부(215)는 상기 RGBD 카메라부(100)에서 검출된 조인트 및 뼈대 이미지 정보에 2 이상의 독립된 신체별 조인트 및 뼈대 이미지 정보로부터 각 이동경로를 분석하고, 2 이상의 신체가 상호 연동하는 지 여부, 예컨대 서로 악수 등 인사를 하거나, 포옹을 하거나 물건을 주고받는 등의 상호 연동 여부를 판단한다.That is, the inter-object
이때, 상기 행동예시 DB(230)에는 2 이상의 독립된 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 상기 독립된 신체간 연동 행동 종류가 더 분류되어 저장된다.At this time, the
이때, 상기 조인트 부석부(210)는 상기 독립 객체 판단부에서 판단된 독립 신체 각각에 대해 상기 조인트와 뼈대 이미지의 이동 경로를 개별적으로 분석하여 추출할 것이다.At this time, the
또한, 상기 액티비티 판단부(220)는 상기 객체간 상호작용 판단부(215)에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 상기 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 상기 행동예시 DB(230)를 비교하여 대응되는 연동 행동 종류를 더 판단한다.If it is determined that the inter-object interactions are independent in the inter-object
이때, 상기 행동예시 DB(230)에는 기 설정된 3차원 좌표계의 기준점을 기준으로 2 이상의 독립된 신체 각각의 얼굴 벡터좌표의 변화에 따른 상호 행동 종류가 더 분류되어 저장되는 것이 바람직하다.At this time, it is preferable that the
즉, 상기 행동예시 DB(230)에는 2 이상의 사람이 서로 악수 등 인사를 하거나, 포옹을 하거나 물건을 주고받는 등 상호 연동 각각의 경우에 대한, 2 이상의 사람의 얼굴 벡터좌표의 변화 데이터가 각 상호 연동의 종류별로 기 저장된다.That is, in the
이때, 상기 조인트 분석부(210)는, 상기 독립 객체 판단부(214)에서 상기 신체 각각의 조인트 및 뼈대 이미지 정보로부터 머리의 얼굴 정보를 더 분석하여 추출하도록 하고, 상기 객체간 상호작용 판단부(215)에서 독립된 신체간 상호 연동으로 판단된 경우, 상기 기 설정된 3차원 좌표계의 기준점을 기준으로 상기 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보를 더 추출한다.At this time, the
또한, 상기 액티비티 판단부(220)는, 상기 객체간 상호작용 판단부(215)에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보와 상기 행동예시 DB(230)를 비교하여 대응되는 상호 행동 종류를 더 판단한다.In addition, when the inter-object
즉, 본 발명에 따른 신체 행동 인지 시스템은, RGBD 카메라부(100)에서 검출된 각 신체의 조인트 및 뼈대 이미지 정보로부터, 각 신체의 조인트와 뼈대의 이동 경로로부터 각 신체의 행동 종류를 판단하고, 2 이상의 신체가 상호 연동하는 행동을 하는 경우, 그 상호 연동의 종류까지 파악하도록 함으로써, 공항이나 지하철 또는 공공장소 등에서 사람들의 행동으로부터 특정 위험 행동 또는 특정 주시 행동을 즉각적으로 판단하여 제공될 수 있도록 한다.
That is, the body motion perception system according to the present invention determines the type of behavior of each body from joints and skeleton movement paths of each body from the joint and skeleton image information of each body detected by the
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the foregoing detailed description, and all changes or modifications derived from the meaning and scope of the claims and the equivalents thereof are included in the scope of the present invention Should be interpreted.
100: RGBD 카메라부 110: 촬영부
120: 배경 추출부 130: 뼈대 추출부
140: 조인트 분할 추출부 200: 메인 서버
210: 조인트 분석부 211: 조인트 움직임 분석부
212: 조인트 행동 탐지부 213: 객체 판독부
214: 독립 객체 판단부 215: 객체간 상호작용 판단부]
220: 액티비티 판단부 230: 행동예시 DB100: RGBD camera unit 110:
120: background extraction unit 130: skeleton extraction unit
140: joint split extraction unit 200: main server
210: joint analysis unit 211: joint motion analysis unit
212: joint behavior detection unit 213: object reading unit
214: Independent object deciding unit 215: Inter-object deciding unit)
220: activity determining unit 230: action example DB
Claims (4)
상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 조인트와 뼈대 이미지의 이동 경로를 분석하여 추출하는 조인트 분석부와, 상기 조인트 분석부에서 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 신체 행동 종류가 기 분류되어 저장된 행동예시 DB를 비교하여 대응되는 촬영 대상 객체의 행동 종류를 판단하는 액티비티 판단부를 포함하는 메인 서버; 를 포함하고,
상기 조인트 분석부는,
상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보로부터 기 설정된 조인트 및 뼈대 사이의 결합 거리와 연동 관계로부터 독립된 신체를 구성하는 독립 신체에 대한 조인트 및 뼈대 이미지 정보를 판단하는 독립 객체 판단부와,
상기 독립 객체 판단부에서 판단된 독립된 신체 각각의 조인트와 뼈대의 이동 경로를 분석하고 독립된 신체간 상호 연동 여부를 판단하는 객체간 상호작용 판단부를 더 포함하고,
상기 독립 객체 판단부에서 판단된 독립 신체 각각에 대해 상기 조인트와 뼈대 이미지의 이동 경로를 개별적으로 분석하여 추출하고,
상기 행동예시 DB에는,
2 이상의 독립된 신체 각각의 조인트 및 뼈대 움직임의 이동 특성에 따라 상기 독립된 신체간 연동 행동 종류가 더 분류되어 저장되며,
상기 액티비티 판단부는,
상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 상기 분석된 조인트와 뼈대 이미지의 이동 경로 정보와 상기 행동예시 DB를 비교하여 대응되는 연동 행동 종류를 더 판단하는 것을 특징으로 하며,
상기 행동예시 DB에는,
기 설정된 3차원 좌표계의 기준점을 기준으로 2 이상의 독립된 신체 각각의 얼굴 벡터좌표의 변화에 따른 상호 행동 종류가 더 분류되어 저장되고,
상기 조인트 분석부는,
상기 독립 객체 판단부에서 상기 신체 각각의 조인트 및 뼈대 이미지 정보로부터 머리의 얼굴 정보를 더 분석하여 추출하도록 하고,
상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상기 기 설정된 3차원 좌표계의 기준점을 기준으로 상기 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보를 더 추출하고,
상기 액티비티 판단부는,
상기 객체간 상호작용 판단부에서 독립된 신체간 상호 연동으로 판단된 경우, 상호 연동으로 판단된 독립된 신체 각각의 얼굴에 대한 벡터좌표의 변화 정보와 상기 행동예시 DB를 비교하여 대응되는 상호 행동 종류를 더 판단하는 것을 특징으로 하는 RGBD 카메라를 이용한 신체 행동 인지 시스템.
An RGBD (Depth-of-RGB) camera unit for extracting three-dimensional depth data of each object to be imaged and detecting joint and skeleton image information of each body;
A joint analyzer for analyzing and extracting a movement path of a joint and a skeleton image from the joint and skeleton image information of each of the bodies detected by the RGBD camera unit; a joint analyzer for analyzing the movement path information of the joint and the skeleton image analyzed by the joint analyzer, A main server including an activity judging unit for judging a behavior type of a corresponding object to be photographed by comparing a behavior behavior DB of the type of physical behavior according to movement characteristics of each joint and skeletal movement, Lt; / RTI >
Wherein the joint analyzer comprises:
An independent object judging unit for judging joint and skeleton image information for an independent body constituting an independent body from a joint distance and an interlocking relation between predetermined joints and skeletons from the joint and skeleton image information of each body detected by the RGBD camera unit, Wow,
Further comprising an inter-object interaction determiner for analyzing the movement paths of joints and skeletons of each of the independent bodies determined by the independent object determiner and determining whether the inter-
Extracting and analyzing movement paths of the joint and the skeleton image separately for each independent body determined by the independent object determination unit,
In the action example DB,
The independent inter-bodily interactions are further classified and stored according to the movement characteristics of joints and skeletal movements of two or more independent bodies,
The activity judging unit judges,
When the inter-object interaction judging unit judges that inter-body interactions are independent, it compares the analyzed joints and the movement route information of the skeleton image of each independent body judged to be interlinked with the behavior example DB, And further judges the type thereof,
In the action example DB,
The mutual action types according to the changes of the face vector coordinates of two or more independent bodies are further classified and stored based on the reference point of the predetermined three dimensional coordinate system,
Wherein the joint analyzer comprises:
The independent object determination unit further analyzes and extracts facial information of the head from the joint and skeleton image information of each of the bodies,
Wherein when the inter-object interaction determining unit determines that inter-body interactions are independent, it further extracts change information of the vector coordinates of each of the determined independent bodies based on the reference point of the predetermined three-dimensional coordinate system,
The activity judging unit judges,
When the inter-object interaction determining unit determines that the inter-body interworking is independent, the information on the change in the vector coordinates of the respective faces of the independent bodies judged to be mutually interrelated is compared with the behavioral example DB, Wherein the body motion recognition system uses an RGBD camera.
상기 조인트 분석부는,
기 설정된 3차원 좌표계의 기준점을 기준으로, 상기 RGBD 카메라부에서 검출된 신체 각각의 조인트 및 뼈대 이미지 정보의 이동 경로에 대한 3차원 좌표값들을 추출하고,
상기 추출된 상기 신체 각각의 조인트 및 뼈대 이미지 정보의 3차원 좌표값들을 기준으로 상기 이동 경로 정보를 추출하는 것을 특징으로 하는 RGBD 카메라를 이용한 신체 행동 인지 시스템.
The method according to claim 1,
Wherein the joint analyzer comprises:
Extracting three-dimensional coordinate values of the movement path of the joint and skeleton image information of each of the bodies detected by the RGBD camera unit on the basis of the reference point of the predetermined three-dimensional coordinate system,
And extracting the movement path information based on three-dimensional coordinate values of joint and skeleton image information of each of the extracted bodies.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140043730A KR101554677B1 (en) | 2014-04-11 | 2014-04-11 | System for sensoring body behavior |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140043730A KR101554677B1 (en) | 2014-04-11 | 2014-04-11 | System for sensoring body behavior |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101554677B1 true KR101554677B1 (en) | 2015-10-01 |
Family
ID=54338386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140043730A KR101554677B1 (en) | 2014-04-11 | 2014-04-11 | System for sensoring body behavior |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101554677B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108846348A (en) * | 2018-06-07 | 2018-11-20 | 四川大学 | A kind of Human bodys' response method based on three-dimensional skeleton character |
KR20190128500A (en) * | 2018-05-08 | 2019-11-18 | 한국전자통신연구원 | Method and apparatus for detecting garbage dumping action in real time on video surveillance system |
KR102075403B1 (en) * | 2018-10-01 | 2020-02-10 | 선문대학교 산학협력단 | Balance evaluation and training method of standing posture using rgbd camera and system comprising the same |
KR102154720B1 (en) * | 2019-08-06 | 2020-09-10 | 농업협동조합중앙회 | METHOD FOR IDENTIFYING PURCHASER OF ITEMs ON SHELVES IN A STORE, AND ELECTRONIC APPARATUS THEREOF |
-
2014
- 2014-04-11 KR KR1020140043730A patent/KR101554677B1/en active IP Right Grant
Non-Patent Citations (3)
Title |
---|
Borges, Paulo Vinicius Koerich, Nicola Conci, and Andrea Cavallaro. "Video-based human behavior understanding: a survey." Circuits and Systems for Video Technology, IEEE Tr. 23.11 (2013): 1993-2008. |
K. Yun, et al. "Two-person interaction detection using body-pose features and multiple instance learning," CVPRW, 2012 IEEE Computer Society Conference on, 2012.* |
Rota, Paolo, Nicola Conci, and Nicu Sebe. "Real time detection of social interactions in surveillance video." Computer vision-ECCV 2012. Workshops and demonstrations. Springer Berlin Heidelberg, 2012. |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190128500A (en) * | 2018-05-08 | 2019-11-18 | 한국전자통신연구원 | Method and apparatus for detecting garbage dumping action in real time on video surveillance system |
KR102153591B1 (en) * | 2018-05-08 | 2020-09-09 | 한국전자통신연구원 | Method and apparatus for detecting garbage dumping action in real time on video surveillance system |
US11048942B2 (en) | 2018-05-08 | 2021-06-29 | Electronics And Telecommunications Research Institute | Method and apparatus for detecting a garbage dumping action in real time on video surveillance system |
CN108846348A (en) * | 2018-06-07 | 2018-11-20 | 四川大学 | A kind of Human bodys' response method based on three-dimensional skeleton character |
KR102075403B1 (en) * | 2018-10-01 | 2020-02-10 | 선문대학교 산학협력단 | Balance evaluation and training method of standing posture using rgbd camera and system comprising the same |
KR102154720B1 (en) * | 2019-08-06 | 2020-09-10 | 농업협동조합중앙회 | METHOD FOR IDENTIFYING PURCHASER OF ITEMs ON SHELVES IN A STORE, AND ELECTRONIC APPARATUS THEREOF |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4177826B2 (en) | Image processing apparatus and image processing method | |
JP6700752B2 (en) | Position detecting device, position detecting method and program | |
KR101355974B1 (en) | Method and devices for tracking multiple object | |
KR101554677B1 (en) | System for sensoring body behavior | |
US9710960B2 (en) | Closed-form 3D model generation of non-rigid complex objects from incomplete and noisy scans | |
AU2015203771B2 (en) | A method and apparatus for surveillance | |
US10063843B2 (en) | Image processing apparatus and image processing method for estimating three-dimensional position of object in image | |
KR101608889B1 (en) | Monitoring system and method for queue | |
KR20170077444A (en) | System and method for recognizing human pose | |
JP2013235580A (en) | Video analysis | |
KR101592262B1 (en) | System for unifying camera image files | |
JP6647489B1 (en) | Suspicious body / abnormal body detection device | |
JP6290760B2 (en) | Work similarity calculation method, apparatus and program | |
JP6638723B2 (en) | Image analysis device, image analysis method, and image analysis program | |
CN110580708B (en) | Rapid movement detection method and device and electronic equipment | |
JP2004301607A (en) | Moving object detection device, moving object detection method, and moving object detection program | |
JP2009211122A (en) | Image processor and object estimation program | |
CN111832450B (en) | Knife holding detection method based on image recognition | |
KR20120091970A (en) | System, device and method for object image registration, and recording medium having the method recorded thereon | |
JP5679456B2 (en) | Human detection device, human detection method, and human detection program | |
JP6606340B2 (en) | Image detection apparatus, image detection method, and program | |
Kosmopoulos et al. | Fusion of color and depth video for human behavior recognition in an assistive environment | |
Wan et al. | Stereo vision tracking system | |
Raju et al. | Cognitive object recognition system (CORS) | |
Castrillón-Santana et al. | People semantic description and re-identification from point cloud geometry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180830 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190910 Year of fee payment: 5 |