KR20110111662A - Background modeling method for detecting target object silhouette - Google Patents
Background modeling method for detecting target object silhouette Download PDFInfo
- Publication number
- KR20110111662A KR20110111662A KR1020100030844A KR20100030844A KR20110111662A KR 20110111662 A KR20110111662 A KR 20110111662A KR 1020100030844 A KR1020100030844 A KR 1020100030844A KR 20100030844 A KR20100030844 A KR 20100030844A KR 20110111662 A KR20110111662 A KR 20110111662A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- background
- motion
- area
- region
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
영상으로부터 배경 영상을 모델링할 수 있는 배경 모델링 방법이 제공된다. 배경 모델링 방법은, 획득된 영상에서 객체의 모션 발생 영역 및 객체의 전신 영역을 검출하여 객체 영역을 출력하는 단계, 영상으로부터 객체 영역을 제외한 배경 영상을 생성하여 출력하는 단계 및 영상과 배경 영상의 차이에 기초하여 객체 실루엣을 검출하여 출력하는 단계를 포함한다.A background modeling method capable of modeling a background image from an image is provided. In the background modeling method, detecting the motion generating area of the object and the whole body area of the object from the obtained image and outputting the object area, generating and outputting a background image excluding the object area from the image and the difference between the image and the background image Detecting and outputting an object silhouette based on the;
Description
본 발명은 실내 로봇 환경에서의 배경 모델링 기술에 관한 것으로, 보다 상세하게는 실내에서의 로봇 이동 및 조명 변환 등의 환경 변화에도 빠르게 적응할 수 있으며, 사람의 이동 및 정지에 상관없이 안정적으로 배경을 모델링 할 수 있는 배경 모델링 방법에 관한 것이다.The present invention relates to a background modeling technique in an indoor robot environment. More specifically, the present invention can quickly adapt to environmental changes such as robot movement and lighting conversion in a room, and stably model a background regardless of a person's movement and stoppage. A background modeling method that can be done.
본 발명은 지식경제부의 IT원천기술개발사업 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-037-01, 과제명: u-로봇 HRI 솔루션 및 핵심 소자 기술 개발].The present invention is derived from the research conducted as part of the IT source technology development project of the Ministry of Knowledge Economy [Task Management Number: 2008-F-037-01, Task name: u-robot HRI solution and core device technology development].
영상 내에서 관심 객체(target object)를 추출하기 위한 기술은 많은 분야에서 오랫동안 연구되어 왔으며 기술의 종류 또한 매우 다양하다. 이러한 기술들 중에서 객체가 존재하지 않는 배경 영상과 객체가 존재하는 현재 영상과의 차를 통한 배경 분리 기법(background subtraction)은 빠르고 안정적으로 객체의 실루엣(형태)을 분리해 낼 수 있다는 점에서 많은 응용에서 널리 사용되는 기법이다. Techniques for extracting a target object from an image have been studied for a long time in many fields, and the types of techniques are also very diverse. Among these technologies, the background subtraction through the difference between the background image without an object and the current image with an object can quickly and stably separate the silhouette (shape) of the object. It is a widely used technique.
로봇 분야에서도 상호작용하고자 하는 사람의 위치를 파악하거나 사용자의 제스처 및 행동을 인식하기 위한 기반 기술로서 사람의 실루엣을 검출할 수 있는 배경 분리 기법을 사용하곤 한다.In the robot field, a background separation technique that detects a person's silhouette is used as a base technology for locating a person to interact with or recognizing a user's gestures and actions.
로봇 분야에서 배경 분리 기법을 사용하기 위해서는 객체가 존재하지 않는 배경 영상을 생성하고, 이를 지속적으로 갱신하고 유지할 수 있는 배경 모델링 기술이 반드시 필요하다. In order to use the background separation technique in the robot field, a background modeling technique is required to generate a background image without an object, and to continuously update and maintain it.
그러나, 종래의 배경 모델링 기술은 영상 내의 특정 픽셀 위치에서 배경 영역에 해당되는 픽셀 값이 객체 영역에 해당되는 픽셀 값보다 더 오래 나타난다는 것을 기본 가정으로 접근하고 있기 때문에, 배경을 갱신하는 속도와 객체가 이동하는 속도의 차이에 의한 문제가 발생한다.
However, the conventional background modeling technique approaches the basic assumption that the pixel value corresponding to the background region appears longer than the pixel value corresponding to the object region at a specific pixel position in the image. The problem arises due to the difference in the speed at which it moves.
본 발명이 해결하고자 하는 과제는, 실내 환경 변화에 빠르게 대처할 수 있으며, 안정적으로 배경을 모델링 할 수 있는 배경 모델링 방법을 제공하고자 하는데 있다.The problem to be solved by the present invention is to provide a background modeling method that can quickly cope with changes in the indoor environment, and can model the background stably.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 배경 모델링 방법은, 획득된 영상에서 객체의 모션 발생 영역 및 객체의 전신 영역을 검출하여 객체 영역을 출력하는 단계, 영상으로부터 객체 영역을 제외한 배경 영상을 생성하여 출력하는 단계 및 영상과 배경 영상의 차이에 기초하여 객체 실루엣을 검출하여 출력하는 단계를 포함한다.In the background modeling method according to an embodiment of the present invention for solving the above problems, the step of detecting the motion generating region and the whole body region of the object in the obtained image outputting the object region, the background excluding the object region from the image Generating and outputting an image; and detecting and outputting an object silhouette based on a difference between the image and the background image.
본 발명의 배경 모델링 방법은, 실내 로봇 환경에서 급격한 환경 변화, 예를 들어 로봇 이동 또는 객체 이동에 따른 환경 변화에 빠르게 대처하면서도 객체의 이동 또는 정지에 상관없이 영상으로부터 배경을 모델링할 수 있는 효과가 있다.The background modeling method of the present invention has an effect of rapidly modeling a background from an image regardless of the movement or stationary of an object while quickly coping with an environmental change caused by a rapid environmental change, for example, a robot movement or an object movement in an indoor robot environment. have.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 배경 모델링 장치의 개략적인 구성도이다.
도 2는 도 1에 도시된 객체 검출부의 개략적인 구성도이다.
도 3은 도 1에 도시된 배경 모델링 장치의 배경 모델링 동작의 흐름도이다.
도 4 내지 도 10은 배경 모델링 동작에 따른 실시예를 나타내는 도면들이다. BRIEF DESCRIPTION OF THE DRAWINGS In order to better understand the drawings cited in the detailed description of the invention, a brief description of each drawing is provided.
1 is a schematic diagram of a background modeling apparatus according to an embodiment of the present invention.
FIG. 2 is a schematic configuration diagram of the object detector illustrated in FIG. 1.
3 is a flowchart of a background modeling operation of the background modeling apparatus illustrated in FIG. 1.
4 to 10 are diagrams illustrating an embodiment according to a background modeling operation.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시 예에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 실시 예를 예시하는 첨부도면 및 첨부도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the embodiments of the present invention, reference should be made to the accompanying drawings that illustrate embodiments of the present invention.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.
도 1은 본 발명의 일 실시예에 따른 배경 모델링 장치의 개략적인 구성도이고, 도 2는 도 1에 도시된 객체 검출부의 개략적인 구성도이다.FIG. 1 is a schematic diagram of a background modeling apparatus according to an embodiment of the present invention, and FIG. 2 is a schematic diagram of an object detector shown in FIG. 1.
도 1을 참조하면, 본 발명에 따른 배경 모델링 장치(1)는 영상 입력부(10), 배경 모델링부(20) 및 실루엣(형태) 검출부(30)를 포함할 수 있다.Referring to FIG. 1, the
영상 입력부(10)는 실내에서 이동하는 로봇(미도시)에 구비된 카메라 등으로부터 촬영된 영상(IM)을 획득하여 배경 모델링부(20)로 출력할 수 있다.The
배경 모델링부(20)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 배경을 모델링하여 출력할 수 있다.The background modeling unit 20 may model and output a background from an image IM provided from the
도 1 및 도 2를 참조하면, 배경 모델링부(20)는 객체 검출부(110) 및 배경 생성부(150)를 포함할 수 있다.1 and 2, the background modeling unit 20 may include an
객체 검출부(110)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 객체, 예컨대 사람이 존재하는 영역, 즉 객체 영역(TA)을 추정하여 출력할 수 있다.The
객체 검출부(110)는 모션 검출부(120), 전신 영역 검출부(130) 및 믹서(140)를 포함할 수 있다.The
모션 검출부(120)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 사람의 모션을 검출하여 제1 객체 영역(Ta)을 추정하여 출력할 수 있다. The
여기서, 모션 검출부(120)는 인접하는 영상간에 사람의 모션이 적을 때에도 안정적으로 객체 영역을 추정하기 위하여 영상 입력부(10)로부터 제공된 동일한 공간에서의 다수의 영상들로부터 사람의 모션을 검출할 수 있다.Here, the
모션 검출부(120)는 모션 맵 생성부(121) 및 모션 영역 설정부(123)를 포함할 수 있다.The
모션 맵 생성부(121)는 영상 입력부(10)로부터 제공된 하나 이상의 영상(IM)으로부터 사람의 모션이 발생된 영역을 픽셀 단위로 표시하여 모션 맵을 생성하고, 이를 출력할 수 있다.The
모션 영역 설정부(123)는 모션 맵 생성부(121)로부터 출력된 모션 맵에 기초하여 픽셀 단위의 모션을 블록 단위의 영역으로 검출하고, 검출된 블록 단위의 영역으로부터 모션 영역을 설정하여 출력할 수 있다.The motion
모션 검출부(120)는 설정된 모션 영역으로부터 제1 객체 영역(Ta)을 추정하여 출력할 수 있다.The
전신 영역 검출부(130)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 사람의 전신 영역을 검출하여 제2 객체 영역(Tb)을 추정하여 출력할 수 있다.The whole
전신 영역 검출부(130)는 얼굴 기반 전신 영역 설정부(131) 및 형상 기반 전신 영역 설정부(133)를 포함할 수 있다.The whole body
얼굴 기반 전신 영역 설정부(131)는 영상(IM)으로부터 사람의 얼굴 영역을 검출하고, 검출된 얼굴 영역에 기초하여 사람의 전신 영역을 설정하여 출력할 수 있다.The face-based whole body
형상 기반 전신 영역 설정부(133)는 영상(IM)으로부터 사람의 오메가 형상(Ω), 예컨대 사람의 머리와 어깨를 잇는 윤곽선의 형태에 따른 형상 영역을 검출하고, 검출된 오메가 형상 영역에 기초하여 사람의 전신 영역을 설정하여 출력할 수 있다.The shape-based whole body
전신 영역 검출부(130)는 설정된 사람의 전신 영역에 기초하여 제2 객체 영역(Tb)을 추정하여 출력할 수 있다.The whole body
믹서(140)는 모션 검출부(120) 및 전신 영역 검출부(130)로부터 각각 출력된 제1 객체 영역(Ta)과 제2 객체 영역(Tb)을 믹싱하여 영상(IM)에서의 객체 영역(TA)을 출력할 수 있다.The
배경 생성부(150)는 객체 검출부(110)로부터 출력된 객체 영역(TA)에 기초하여 영상(IM)으로부터 객체 영역(TA)을 제외한 나머지 영역을 배경 영상(IM)으로 생성하여 출력할 수 있다.The
다시 도 1을 참조하면, 실루엣 검출부(30)는 배경 모델링부(20)로부터 출력된 배경 영상(IM)에 기초하여 영상 입력부(10)로부터 제공된 영상(IM)에서 실제 객체, 즉 사람의 실제 실루엣(TG)을 분리하여 검출할 수 있다.
Referring back to FIG. 1, the
도 3은 도 1에 도시된 배경 모델링 장치의 배경 모델링 동작의 흐름도이고, 도 4 내지 도 10은 배경 모델링 동작에 따른 실시예를 나타내는 도면들이다. 3 is a flowchart illustrating a background modeling operation of the background modeling apparatus illustrated in FIG. 1, and FIGS. 4 to 10 are views illustrating an embodiment according to the background modeling operation.
도 1 내지 도 3을 참조하면, 배경 모델링 장치(1)의 영상 입력부(10)는 외부 장치, 즉 로봇의 카메라 등으로부터 촬영된 영상(IM)을 획득할 수 있다(S10). 1 to 3, the
여기서, 영상 입력부(10)는 동일한 공간에서 연속적으로 촬영된 다수의 영상들을 획득할 수도 있다.Here, the
배경 모델링 장치(1)의 모션 맵 생성부(121)는 영상 입력부(10)로부터 제공된 하나 이상의 영상(IM)으로부터 객체, 즉 사람에 의해 모션이 발생한 영역을 픽셀 단위로 표시하여 모션 맵을 생성할 수 있다.The
또한, 배경 모델링 장치(1)의 모션 영역 설정부(123)는 모션 맵 생성부(121)로부터 출력된 모션 맵으로부터 블록 단위의 모션 영역을 설정하여 출력할 수 있다(S30).In addition, the motion
예컨대, 도 2 및 도 4를 참조하면, 모션 맵 생성부(121)는 도 4의 (a) 내지 도 4의 (e)와 같은 다수의 영상(IM)으로부터 도 4의 (f)와 같은 모션 맵을 생성하여 출력할 수 있다. 여기서, 도 4의 (e)는 현재 시점에서의 영상이다.For example, referring to FIGS. 2 and 4, the
구체적으로, 모션 맵 생성부(121)는 현재 영상 (e)와 이전 영상 (a) 내지 (d)와의 차이값이 가장 큰 픽셀 값(M(x, y))을 하기의 [수학식1]을 이용하여 산출할 수 있다. In detail, the
이어, 산출된 픽셀 값(M(x, y))가 미리 설정된 임계치보다 크면 모션으로 간주하고, 임계치보다 작으면 배경으로 간주할 수 있다.Subsequently, when the calculated pixel value M (x, y) is larger than a preset threshold, it may be regarded as motion, and if smaller than the threshold, it may be regarded as a background.
[수학식1][Equation 1]
여기서, It(x,y)는 현재 영상의 픽셀 값, It - 1(x,y)는 이전 영상의 픽셀 값을 의미한다.Here, I t (x, y) means a pixel value of the current image, and I t - 1 (x, y) means a pixel value of the previous image.
또한, 도 2 및 도 5를 참조하면, 모션 맵 생성부(121)가 도 5의 (a)와 같은 영상(IM)으로부터 모션 맵을 생성한 후, 모션 영역 설정부(123)는 생성된 모션 맵으로부터 모션 영역을 분리하기 위하여 도 5의 (b)와 같이 연결 요소 분석을 수행할 수 있다. 2 and 5, after the
여기서, 모션 영역 설정부(123)는 모션 맵으로부터 연결 요소 분석을 수행할 때 각각의 연결 요소들 중에서 가까운 거리에 있는 연결 요소들을 서로 병합할 수 있다.Here, the motion
이어, 도 5의 (c)와 같이 모션 영역을 설정하여 출력할 수 있다. 여기서, 모션 영역 설정부(123)는 설정된 모션 영역에 사람에 의해 발생될 수 있는 그림자의 영역을 포함하기 위하여 모션 영역의 하단 경계는 이미지의 높이로 설정할 수 있다.Subsequently, as shown in FIG. 5C, the motion region may be set and output. Here, the motion
다시 도 1 내지 도 3을 참조하면, 모션 검출부(120)는 설정된 모션 영역으로부터 사람의 위치를 추정하여 제1 객체 영역(Ta)을 출력할 수 있다.Referring back to FIGS. 1 to 3, the
한편, 배경 모델링 장치(1)의 얼굴 기반 전신 영역 설정부(131)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 사람의 얼굴 영역을 검출하고, 검출된 얼굴 영역에 기초하여 사람의 전신 영역을 설정하여 출력할 수 있다(S40).Meanwhile, the face-based whole body
또한, 배경 모델링 장치(1)의 형상 기반 전신 영역 설정부(133)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 사람의 오메가 형상 영역을 검출하고, 검출된 오메가 형상 영역에 기초하여 사람의 전신 영역을 설정하여 출력할 수 있다(S40).In addition, the shape-based whole body
예컨대, 도 2 및 도 6을 참조하면, 얼굴 기반 전신 영역 설정부(131)는 도 6의 (a)와 같이 사람의 얼굴이 보이는 영상(IM)에서 도 6의 (b)와 같이 사람의 얼굴 영역을 검출할 수 있다.For example, referring to FIGS. 2 and 6, the face-based whole body
이때, 얼굴 기반 전신 영역 설정부(131)는 얼굴 검출기(미도시)를 이용하여 사람의 얼굴 영역을 검출할 수 있다. In this case, the face-based whole body
여기서, 얼굴 검출기는 외형 기반(appearance-based) 패턴 인식 방법의 하나인 AdaBoost 알고리즘을 사용할 수 있다.Here, the face detector may use the AdaBoost algorithm, which is one of appearance-based pattern recognition methods.
얼굴 기반 전신 영역 설정부(131)는 검출된 사람의 얼굴 영역의 위치 및 크기를 기초로 하여 도 6의 (b)와 같이 사람의 전신 영역을 설정할 수 있다. The face-based whole body
또한, 도 2 및 도 7을 참조하면, 형상 기반 전신 영역 설정부(133)는 도 7의 (a)와 같이 사람의 얼굴이 안보이거나 또는 원거리에 위치하여 얼굴 검출이 불가능한 영상(IM)인 경우에, 도 7의 (b)와 같이 영상(IM)으로부터 오메가 형상 영역을 검출할 수 있다. Also, referring to FIGS. 2 and 7, when the shape-based whole body
이를 위하여 형상 기반 전신 영역 설정부(133)는 오메가 형상 검출기(미도시)를 포함할 수 있고, 오메가 형상 검출기는 AdaBoost 알고리즘을 사용할 수 있다. 여기서, 오메가 형상이란 사람의 머리와 어깨를 잇는 윤곽선이 오메가(Ω) 형상을 닮은 것으로부터 정의된 형상이다.To this end, the shape-based whole body
형상 기반 전신 영역 설정부(133)는 검출된 오메가 형상 영역의 위치 및 크기를 기초로 하여 도 7의 (b)와 같이 사람의 전신 영역을 설정할 수 있다. The shape-based whole body
다시 도 1 내지 도 3을 참조하면, 전신 영역 검출부(130)는 설정된 사람의 전신 영역으로부터 사람의 위치 및 크기를 추정하여 제2 객체 영역(Tb)을 출력할 수 있다.Referring back to FIGS. 1 to 3, the whole-
믹서(140)는 도 8의 (b)와 같이 모션 검출부(120)로부터 출력된 제1 객체 영역(Ta)과 전신 영역 검출부(130)로부터 출력된 제2 객체 영역(Tb)을 믹싱하여 최종적으로 영상(IM)에서 사람이 존재하는 영역, 즉 객체 영역(TA)을 출력할 수 있다.The
배경 생성부(120)는 객체 검출부(110)로부터 출력된 객체 영역(TA)에 기초하여 영상(IM)으로부터 객체 영역(TA)이 제외된 배경 영상(IM)을 생성하여 출력할 수 있다(S50).The
한편, 배경 생성부(120)는 하기의 [수학식 2]와 [수학식3]으로부터 배경 영상(IM)을 갱신하여 출력할 수도 있다. Meanwhile, the
[수학식 2]는 입력된 영상에 대하여 배경으로 판단되는 픽셀에 대한 배경 영상(IM)을 갱신하는 수식이고, [수학식 3]은 입력된 영상에 대하여 객체 영역(TA)으로 판단된 픽셀에 대한 배경 영상(IM)을 갱신하는 수식이다.[Equation 2] is an equation for updating the background image IM for the pixel determined as the background of the input image, and [Equation 3] is applied to the pixel determined as the object area TA for the input image. A formula for updating the background image IM.
[수학식 2][Equation 2]
[수학식 3] &Quot; (3) "
여기서, Bt + 1(x,y)는 새로 갱신될 배경 영상의 픽셀 값, Bt(x,y)는 현재 배경 영상의 픽셀 값, It(x,y)는 현재 입력 영상의 픽셀 값 및 α는 배경 갱신 속도를 조절하는 상수 값을 의미한다.Here, B t + 1 (x, y) is the pixel value of the newly updated background image, B t (x, y) is the pixel value of the current background image, and I t (x, y) is the pixel value of the current input image. And α denotes a constant value for adjusting the background update rate.
그리고, 실루엣 검출부(30)는 배경 생성부(120)로부터 출력된 배경 영상(IM)에 기초하여 영상(IM)으로부터 실제 객체의 실루엣(TG)을 검출하여 출력할 수 있다(S60).The
도 2 및 도 9를 참조하면, 실루엣 검출부(30)는 영상(IM)에서 이동 상태의 사람의 실루엣(TG)을 검출할 수 있다.2 and 9, the
예컨대, 도 9의 (a)와 같이 사람이 움직이는 영상(IM)에서, 배경 모델링부(20)의 객체 검출부(110)는 도 9의 (b)와 같이 객체 영역(TA)을 출력할 수 있고, 배경 생성부(120)는 도 9의 (c)와 같은 배경 영상(IM)을 생성할 수 있다.For example, in the moving image IM as shown in FIG. 9A, the
이때, 실루엣 검출부(30)는 도 9의 (a)와 (c)의 차분으로부터 도 9의 (d)와 같이 영상(IM) 내의 사람의 실제 실루엣(TG)을 검출하여 출력할 수 있다.At this time, the
또한, 도 2 및 도 10을 참조하면, 실루엣 검출부(30)는 영상(IM)에서 정지 상태의 사람의 실루엣(TG)을 검출할 수도 있다.2 and 10, the
예컨대, 도 10의 (a)와 같이 사람이 정지 상태인 영상(IM)에서, 배경 모델링부(20)의 객체 검출부(110)는 도 10의 (b)와 같이 객체 영역(TA)을 출력할 수 있고, 배경 생성부(120)는 도 10의 (c)와 같은 배경 영상(IM)을 생성할 수 있다.For example, in an image IM in which a person is stationary as shown in FIG. 10A, the
이때, 실루엣 검출부(30)는 도 10의 (a)와 (c)의 차분으로부터 도 10의 (d)와 같이 영상(IM) 내의 사람의 실제 실루엣(TG)을 검출하여 출력할 수 있다.
In this case, the
본 발명의 내용은 도면에 도시된 일 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
Although the contents of the present invention have been described with reference to one embodiment shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. will be. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
1: 배경 모델링 장치 10: 영상 입력부
20: 배경 모델링부 30: 실루엣 검출부
110: 객체 검출부 120: 모션 검출부
130: 전신 영역 검출부 150: 배경 생성부1: background modeling apparatus 10: image input unit
20: background modeling unit 30: silhouette detection unit
110: object detection unit 120: motion detection unit
130: whole body area detection unit 150: background generation unit
Claims (1)
상기 영상으로부터 상기 객체 영역을 제외한 배경 영상을 생성하여 출력하는 단계; 및
상기 영상과 상기 배경 영상의 차이에 기초하여 객체 실루엣을 검출하여 출력하는 단계를 포함하는 배경 모델링 방법.
Detecting the motion generating region and the whole body region of the object from the obtained image and outputting the object region;
Generating and outputting a background image excluding the object area from the image; And
And detecting and outputting an object silhouette based on a difference between the image and the background image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100030844A KR20110111662A (en) | 2010-04-05 | 2010-04-05 | Background modeling method for detecting target object silhouette |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100030844A KR20110111662A (en) | 2010-04-05 | 2010-04-05 | Background modeling method for detecting target object silhouette |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110111662A true KR20110111662A (en) | 2011-10-12 |
Family
ID=45027642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100030844A KR20110111662A (en) | 2010-04-05 | 2010-04-05 | Background modeling method for detecting target object silhouette |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110111662A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101460902B1 (en) * | 2013-07-03 | 2014-11-20 | 한국과학기술원 | Intelligent black box systems and methods for car theft symptoms sensing |
US9807300B2 (en) | 2014-11-14 | 2017-10-31 | Samsung Electronics Co., Ltd. | Display apparatus for generating a background image and control method thereof |
US10373357B2 (en) | 2015-04-10 | 2019-08-06 | Samsung Electronics Co., Ltd. | Device and method for displaying screen based on event |
-
2010
- 2010-04-05 KR KR1020100030844A patent/KR20110111662A/en not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101460902B1 (en) * | 2013-07-03 | 2014-11-20 | 한국과학기술원 | Intelligent black box systems and methods for car theft symptoms sensing |
US9807300B2 (en) | 2014-11-14 | 2017-10-31 | Samsung Electronics Co., Ltd. | Display apparatus for generating a background image and control method thereof |
US10373357B2 (en) | 2015-04-10 | 2019-08-06 | Samsung Electronics Co., Ltd. | Device and method for displaying screen based on event |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10740652B2 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
Schwarz et al. | Estimating human 3d pose from time-of-flight images based on geodesic distances and optical flow | |
KR101355974B1 (en) | Method and devices for tracking multiple object | |
Schwarz et al. | Human skeleton tracking from depth data using geodesic distances and optical flow | |
US8351646B2 (en) | Human pose estimation and tracking using label assignment | |
CN103995747B (en) | Distributed pedestrian detecting system and method based on mobile robot platform | |
CN104834887B (en) | Move pedestrian's representation method, recognition methods and its device | |
WO2017119940A1 (en) | Hand gesture recognition for cursor control | |
US20210209793A1 (en) | Object tracking device, object tracking method, and object tracking program | |
CN104063677A (en) | Equipment used for estimating human body posture and method thereof | |
CN106033601A (en) | Method and apparatus for detecting abnormal situation | |
KR102371127B1 (en) | Gesture Recognition Method and Processing System using Skeleton Length Information | |
JP6219101B2 (en) | Video surveillance system, video surveillance method, video surveillance system construction method | |
JP2018120283A (en) | Information processing device, information processing method and program | |
KR20140040527A (en) | Method and apparatus for detecting information of body skeleton and body region from image | |
Darujati et al. | Facial motion capture with 3D active appearance models | |
KR20110111662A (en) | Background modeling method for detecting target object silhouette | |
Ghidoni et al. | A multi-viewpoint feature-based re-identification system driven by skeleton keypoints | |
CN104978583A (en) | Person action recognition method and person action recognition device | |
Arai et al. | Autonomous control of eye based electric wheel chair with obstacle avoidance and shortest path finding based on Dijkstra algorithm | |
JP2017033556A (en) | Image processing method and electronic apparatus | |
CN203630717U (en) | Interaction system based on a plurality of light inertial navigation sensing input devices | |
Tran et al. | Action recognition in the frequency domain | |
Kong et al. | Essential human body points tracking using kalman filter | |
Qin et al. | Body motion detection technology in video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |