KR20110111662A - Background modeling method for detecting target object silhouette - Google Patents

Background modeling method for detecting target object silhouette Download PDF

Info

Publication number
KR20110111662A
KR20110111662A KR1020100030844A KR20100030844A KR20110111662A KR 20110111662 A KR20110111662 A KR 20110111662A KR 1020100030844 A KR1020100030844 A KR 1020100030844A KR 20100030844 A KR20100030844 A KR 20100030844A KR 20110111662 A KR20110111662 A KR 20110111662A
Authority
KR
South Korea
Prior art keywords
image
background
motion
area
region
Prior art date
Application number
KR1020100030844A
Other languages
Korean (ko)
Inventor
김도형
윤우한
이재연
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020100030844A priority Critical patent/KR20110111662A/en
Publication of KR20110111662A publication Critical patent/KR20110111662A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

영상으로부터 배경 영상을 모델링할 수 있는 배경 모델링 방법이 제공된다. 배경 모델링 방법은, 획득된 영상에서 객체의 모션 발생 영역 및 객체의 전신 영역을 검출하여 객체 영역을 출력하는 단계, 영상으로부터 객체 영역을 제외한 배경 영상을 생성하여 출력하는 단계 및 영상과 배경 영상의 차이에 기초하여 객체 실루엣을 검출하여 출력하는 단계를 포함한다.A background modeling method capable of modeling a background image from an image is provided. In the background modeling method, detecting the motion generating area of the object and the whole body area of the object from the obtained image and outputting the object area, generating and outputting a background image excluding the object area from the image and the difference between the image and the background image Detecting and outputting an object silhouette based on the;

Description

객체 형태 검출을 위한 배경 모델링 방법{Background modeling method for detecting target object silhouette}Background modeling method for detecting target object silhouette}

본 발명은 실내 로봇 환경에서의 배경 모델링 기술에 관한 것으로, 보다 상세하게는 실내에서의 로봇 이동 및 조명 변환 등의 환경 변화에도 빠르게 적응할 수 있으며, 사람의 이동 및 정지에 상관없이 안정적으로 배경을 모델링 할 수 있는 배경 모델링 방법에 관한 것이다.The present invention relates to a background modeling technique in an indoor robot environment. More specifically, the present invention can quickly adapt to environmental changes such as robot movement and lighting conversion in a room, and stably model a background regardless of a person's movement and stoppage. A background modeling method that can be done.

본 발명은 지식경제부의 IT원천기술개발사업 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-037-01, 과제명: u-로봇 HRI 솔루션 및 핵심 소자 기술 개발].The present invention is derived from the research conducted as part of the IT source technology development project of the Ministry of Knowledge Economy [Task Management Number: 2008-F-037-01, Task name: u-robot HRI solution and core device technology development].

영상 내에서 관심 객체(target object)를 추출하기 위한 기술은 많은 분야에서 오랫동안 연구되어 왔으며 기술의 종류 또한 매우 다양하다. 이러한 기술들 중에서 객체가 존재하지 않는 배경 영상과 객체가 존재하는 현재 영상과의 차를 통한 배경 분리 기법(background subtraction)은 빠르고 안정적으로 객체의 실루엣(형태)을 분리해 낼 수 있다는 점에서 많은 응용에서 널리 사용되는 기법이다. Techniques for extracting a target object from an image have been studied for a long time in many fields, and the types of techniques are also very diverse. Among these technologies, the background subtraction through the difference between the background image without an object and the current image with an object can quickly and stably separate the silhouette (shape) of the object. It is a widely used technique.

로봇 분야에서도 상호작용하고자 하는 사람의 위치를 파악하거나 사용자의 제스처 및 행동을 인식하기 위한 기반 기술로서 사람의 실루엣을 검출할 수 있는 배경 분리 기법을 사용하곤 한다.In the robot field, a background separation technique that detects a person's silhouette is used as a base technology for locating a person to interact with or recognizing a user's gestures and actions.

로봇 분야에서 배경 분리 기법을 사용하기 위해서는 객체가 존재하지 않는 배경 영상을 생성하고, 이를 지속적으로 갱신하고 유지할 수 있는 배경 모델링 기술이 반드시 필요하다. In order to use the background separation technique in the robot field, a background modeling technique is required to generate a background image without an object, and to continuously update and maintain it.

그러나, 종래의 배경 모델링 기술은 영상 내의 특정 픽셀 위치에서 배경 영역에 해당되는 픽셀 값이 객체 영역에 해당되는 픽셀 값보다 더 오래 나타난다는 것을 기본 가정으로 접근하고 있기 때문에, 배경을 갱신하는 속도와 객체가 이동하는 속도의 차이에 의한 문제가 발생한다.
However, the conventional background modeling technique approaches the basic assumption that the pixel value corresponding to the background region appears longer than the pixel value corresponding to the object region at a specific pixel position in the image. The problem arises due to the difference in the speed at which it moves.

본 발명이 해결하고자 하는 과제는, 실내 환경 변화에 빠르게 대처할 수 있으며, 안정적으로 배경을 모델링 할 수 있는 배경 모델링 방법을 제공하고자 하는데 있다.The problem to be solved by the present invention is to provide a background modeling method that can quickly cope with changes in the indoor environment, and can model the background stably.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 배경 모델링 방법은, 획득된 영상에서 객체의 모션 발생 영역 및 객체의 전신 영역을 검출하여 객체 영역을 출력하는 단계, 영상으로부터 객체 영역을 제외한 배경 영상을 생성하여 출력하는 단계 및 영상과 배경 영상의 차이에 기초하여 객체 실루엣을 검출하여 출력하는 단계를 포함한다.In the background modeling method according to an embodiment of the present invention for solving the above problems, the step of detecting the motion generating region and the whole body region of the object in the obtained image outputting the object region, the background excluding the object region from the image Generating and outputting an image; and detecting and outputting an object silhouette based on a difference between the image and the background image.

본 발명의 배경 모델링 방법은, 실내 로봇 환경에서 급격한 환경 변화, 예를 들어 로봇 이동 또는 객체 이동에 따른 환경 변화에 빠르게 대처하면서도 객체의 이동 또는 정지에 상관없이 영상으로부터 배경을 모델링할 수 있는 효과가 있다.The background modeling method of the present invention has an effect of rapidly modeling a background from an image regardless of the movement or stationary of an object while quickly coping with an environmental change caused by a rapid environmental change, for example, a robot movement or an object movement in an indoor robot environment. have.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 배경 모델링 장치의 개략적인 구성도이다.
도 2는 도 1에 도시된 객체 검출부의 개략적인 구성도이다.
도 3은 도 1에 도시된 배경 모델링 장치의 배경 모델링 동작의 흐름도이다.
도 4 내지 도 10은 배경 모델링 동작에 따른 실시예를 나타내는 도면들이다.
BRIEF DESCRIPTION OF THE DRAWINGS In order to better understand the drawings cited in the detailed description of the invention, a brief description of each drawing is provided.
1 is a schematic diagram of a background modeling apparatus according to an embodiment of the present invention.
FIG. 2 is a schematic configuration diagram of the object detector illustrated in FIG. 1.
3 is a flowchart of a background modeling operation of the background modeling apparatus illustrated in FIG. 1.
4 to 10 are diagrams illustrating an embodiment according to a background modeling operation.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시 예에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 실시 예를 예시하는 첨부도면 및 첨부도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the embodiments of the present invention, reference should be made to the accompanying drawings that illustrate embodiments of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.

도 1은 본 발명의 일 실시예에 따른 배경 모델링 장치의 개략적인 구성도이고, 도 2는 도 1에 도시된 객체 검출부의 개략적인 구성도이다.FIG. 1 is a schematic diagram of a background modeling apparatus according to an embodiment of the present invention, and FIG. 2 is a schematic diagram of an object detector shown in FIG. 1.

도 1을 참조하면, 본 발명에 따른 배경 모델링 장치(1)는 영상 입력부(10), 배경 모델링부(20) 및 실루엣(형태) 검출부(30)를 포함할 수 있다.Referring to FIG. 1, the background modeling apparatus 1 according to the present invention may include an image input unit 10, a background modeling unit 20, and a silhouette (form) detector 30.

영상 입력부(10)는 실내에서 이동하는 로봇(미도시)에 구비된 카메라 등으로부터 촬영된 영상(IM)을 획득하여 배경 모델링부(20)로 출력할 수 있다.The image input unit 10 may obtain an image IM photographed from a camera provided in a robot (not shown) moving indoors and output the image IM to the background modeling unit 20.

배경 모델링부(20)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 배경을 모델링하여 출력할 수 있다.The background modeling unit 20 may model and output a background from an image IM provided from the image input unit 10.

도 1 및 도 2를 참조하면, 배경 모델링부(20)는 객체 검출부(110) 및 배경 생성부(150)를 포함할 수 있다.1 and 2, the background modeling unit 20 may include an object detector 110 and a background generator 150.

객체 검출부(110)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 객체, 예컨대 사람이 존재하는 영역, 즉 객체 영역(TA)을 추정하여 출력할 수 있다.The object detector 110 may estimate and output an area in which an object, for example, a person exists, that is, an object area TA, from the image IM provided from the image input unit 10.

객체 검출부(110)는 모션 검출부(120), 전신 영역 검출부(130) 및 믹서(140)를 포함할 수 있다.The object detector 110 may include a motion detector 120, a whole body region detector 130, and a mixer 140.

모션 검출부(120)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 사람의 모션을 검출하여 제1 객체 영역(Ta)을 추정하여 출력할 수 있다. The motion detector 120 may detect a motion of a person from the image IM provided from the image input unit 10 and estimate and output the first object area Ta.

여기서, 모션 검출부(120)는 인접하는 영상간에 사람의 모션이 적을 때에도 안정적으로 객체 영역을 추정하기 위하여 영상 입력부(10)로부터 제공된 동일한 공간에서의 다수의 영상들로부터 사람의 모션을 검출할 수 있다.Here, the motion detector 120 may detect the motion of the person from a plurality of images in the same space provided from the image input unit 10 to stably estimate the object region even when there is little motion between the adjacent images. .

모션 검출부(120)는 모션 맵 생성부(121) 및 모션 영역 설정부(123)를 포함할 수 있다.The motion detector 120 may include a motion map generator 121 and a motion region setting unit 123.

모션 맵 생성부(121)는 영상 입력부(10)로부터 제공된 하나 이상의 영상(IM)으로부터 사람의 모션이 발생된 영역을 픽셀 단위로 표시하여 모션 맵을 생성하고, 이를 출력할 수 있다.The motion map generator 121 may generate a motion map by displaying a region where a human motion is generated in units of pixels from one or more images IM provided from the image input unit 10, and output the motion map.

모션 영역 설정부(123)는 모션 맵 생성부(121)로부터 출력된 모션 맵에 기초하여 픽셀 단위의 모션을 블록 단위의 영역으로 검출하고, 검출된 블록 단위의 영역으로부터 모션 영역을 설정하여 출력할 수 있다.The motion region setting unit 123 detects a pixel unit motion as a block unit region based on the motion map output from the motion map generator 121, and sets and outputs a motion region from the detected block unit region. Can be.

모션 검출부(120)는 설정된 모션 영역으로부터 제1 객체 영역(Ta)을 추정하여 출력할 수 있다.The motion detector 120 may estimate and output the first object area Ta from the set motion area.

전신 영역 검출부(130)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 사람의 전신 영역을 검출하여 제2 객체 영역(Tb)을 추정하여 출력할 수 있다.The whole body area detector 130 may detect the whole body area of the person from the image IM provided from the image input unit 10, and estimate and output the second object area Tb.

전신 영역 검출부(130)는 얼굴 기반 전신 영역 설정부(131) 및 형상 기반 전신 영역 설정부(133)를 포함할 수 있다.The whole body area detection unit 130 may include a face-based whole body area setting unit 131 and a shape-based whole body area setting unit 133.

얼굴 기반 전신 영역 설정부(131)는 영상(IM)으로부터 사람의 얼굴 영역을 검출하고, 검출된 얼굴 영역에 기초하여 사람의 전신 영역을 설정하여 출력할 수 있다.The face-based whole body area setting unit 131 may detect a face area of the person from the image IM, and set and output the whole body area of the person based on the detected face area.

형상 기반 전신 영역 설정부(133)는 영상(IM)으로부터 사람의 오메가 형상(Ω), 예컨대 사람의 머리와 어깨를 잇는 윤곽선의 형태에 따른 형상 영역을 검출하고, 검출된 오메가 형상 영역에 기초하여 사람의 전신 영역을 설정하여 출력할 수 있다.The shape-based whole body area setting unit 133 detects an omega shape of a person from the image IM, for example, a shape area according to a shape of an outline connecting the head and shoulders of the person and based on the detected omega shape area. You can print the whole body area of the person.

전신 영역 검출부(130)는 설정된 사람의 전신 영역에 기초하여 제2 객체 영역(Tb)을 추정하여 출력할 수 있다.The whole body area detection unit 130 may estimate and output the second object area Tb based on the set whole body area of the person.

믹서(140)는 모션 검출부(120) 및 전신 영역 검출부(130)로부터 각각 출력된 제1 객체 영역(Ta)과 제2 객체 영역(Tb)을 믹싱하여 영상(IM)에서의 객체 영역(TA)을 출력할 수 있다.The mixer 140 mixes the first object area Ta and the second object area Tb output from the motion detector 120 and the full-body area detector 130, respectively, and then the object area TA in the image IM. You can output

배경 생성부(150)는 객체 검출부(110)로부터 출력된 객체 영역(TA)에 기초하여 영상(IM)으로부터 객체 영역(TA)을 제외한 나머지 영역을 배경 영상(IM)으로 생성하여 출력할 수 있다.The background generator 150 may generate and output a remaining region excluding the object region TA from the image IM as the background image IM based on the object region TA output from the object detector 110. .

다시 도 1을 참조하면, 실루엣 검출부(30)는 배경 모델링부(20)로부터 출력된 배경 영상(IM)에 기초하여 영상 입력부(10)로부터 제공된 영상(IM)에서 실제 객체, 즉 사람의 실제 실루엣(TG)을 분리하여 검출할 수 있다.
Referring back to FIG. 1, the silhouette detector 30 may be a real object, that is, a real silhouette of a person, in an image IM provided from the image input unit 10 based on the background image IM output from the background modeling unit 20. (TG) can be isolated and detected.

도 3은 도 1에 도시된 배경 모델링 장치의 배경 모델링 동작의 흐름도이고, 도 4 내지 도 10은 배경 모델링 동작에 따른 실시예를 나타내는 도면들이다. 3 is a flowchart illustrating a background modeling operation of the background modeling apparatus illustrated in FIG. 1, and FIGS. 4 to 10 are views illustrating an embodiment according to the background modeling operation.

도 1 내지 도 3을 참조하면, 배경 모델링 장치(1)의 영상 입력부(10)는 외부 장치, 즉 로봇의 카메라 등으로부터 촬영된 영상(IM)을 획득할 수 있다(S10). 1 to 3, the image input unit 10 of the background modeling apparatus 1 may acquire an image IM photographed from an external device, that is, a camera of a robot (S10).

여기서, 영상 입력부(10)는 동일한 공간에서 연속적으로 촬영된 다수의 영상들을 획득할 수도 있다.Here, the image input unit 10 may obtain a plurality of images continuously photographed in the same space.

배경 모델링 장치(1)의 모션 맵 생성부(121)는 영상 입력부(10)로부터 제공된 하나 이상의 영상(IM)으로부터 객체, 즉 사람에 의해 모션이 발생한 영역을 픽셀 단위로 표시하여 모션 맵을 생성할 수 있다.The motion map generator 121 of the background modeling apparatus 1 may generate a motion map by displaying, in units of pixels, an area in which motion is generated by an object, that is, a person, from one or more images IM provided from the image input unit 10. Can be.

또한, 배경 모델링 장치(1)의 모션 영역 설정부(123)는 모션 맵 생성부(121)로부터 출력된 모션 맵으로부터 블록 단위의 모션 영역을 설정하여 출력할 수 있다(S30).In addition, the motion region setting unit 123 of the background modeling apparatus 1 may set and output a motion region in units of blocks from the motion map output from the motion map generator 121 (S30).

예컨대, 도 2 및 도 4를 참조하면, 모션 맵 생성부(121)는 도 4의 (a) 내지 도 4의 (e)와 같은 다수의 영상(IM)으로부터 도 4의 (f)와 같은 모션 맵을 생성하여 출력할 수 있다. 여기서, 도 4의 (e)는 현재 시점에서의 영상이다.For example, referring to FIGS. 2 and 4, the motion map generator 121 may perform a motion as shown in FIG. 4F from a plurality of images IM as shown in FIGS. 4A through 4E. You can create and print a map. 4E is an image at the present time.

구체적으로, 모션 맵 생성부(121)는 현재 영상 (e)와 이전 영상 (a) 내지 (d)와의 차이값이 가장 큰 픽셀 값(M(x, y))을 하기의 [수학식1]을 이용하여 산출할 수 있다. In detail, the motion map generator 121 calculates the pixel value M (x, y) having the largest difference between the current image (e) and the previous image (a) to (d). It can be calculated using.

이어, 산출된 픽셀 값(M(x, y))가 미리 설정된 임계치보다 크면 모션으로 간주하고, 임계치보다 작으면 배경으로 간주할 수 있다.Subsequently, when the calculated pixel value M (x, y) is larger than a preset threshold, it may be regarded as motion, and if smaller than the threshold, it may be regarded as a background.

[수학식1][Equation 1]

Figure pat00001
Figure pat00001

여기서, It(x,y)는 현재 영상의 픽셀 값, It - 1(x,y)는 이전 영상의 픽셀 값을 의미한다.Here, I t (x, y) means a pixel value of the current image, and I t - 1 (x, y) means a pixel value of the previous image.

또한, 도 2 및 도 5를 참조하면, 모션 맵 생성부(121)가 도 5의 (a)와 같은 영상(IM)으로부터 모션 맵을 생성한 후, 모션 영역 설정부(123)는 생성된 모션 맵으로부터 모션 영역을 분리하기 위하여 도 5의 (b)와 같이 연결 요소 분석을 수행할 수 있다. 2 and 5, after the motion map generator 121 generates a motion map from the image IM as shown in FIG. 5A, the motion region setting unit 123 generates the generated motion map. In order to separate the motion region from the map, connection element analysis may be performed as shown in FIG.

여기서, 모션 영역 설정부(123)는 모션 맵으로부터 연결 요소 분석을 수행할 때 각각의 연결 요소들 중에서 가까운 거리에 있는 연결 요소들을 서로 병합할 수 있다.Here, the motion region setting unit 123 may merge connection elements at close distances from each of the connection elements when performing the connection element analysis from the motion map.

이어, 도 5의 (c)와 같이 모션 영역을 설정하여 출력할 수 있다. 여기서, 모션 영역 설정부(123)는 설정된 모션 영역에 사람에 의해 발생될 수 있는 그림자의 영역을 포함하기 위하여 모션 영역의 하단 경계는 이미지의 높이로 설정할 수 있다.Subsequently, as shown in FIG. 5C, the motion region may be set and output. Here, the motion region setting unit 123 may set the lower boundary of the motion region to the height of the image in order to include the shadow region that can be generated by a person in the set motion region.

다시 도 1 내지 도 3을 참조하면, 모션 검출부(120)는 설정된 모션 영역으로부터 사람의 위치를 추정하여 제1 객체 영역(Ta)을 출력할 수 있다.Referring back to FIGS. 1 to 3, the motion detector 120 may output the first object area Ta by estimating the position of the person from the set motion area.

한편, 배경 모델링 장치(1)의 얼굴 기반 전신 영역 설정부(131)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 사람의 얼굴 영역을 검출하고, 검출된 얼굴 영역에 기초하여 사람의 전신 영역을 설정하여 출력할 수 있다(S40).Meanwhile, the face-based whole body region setting unit 131 of the background modeling apparatus 1 detects a face region of the person from the image IM provided from the image input unit 10 and based on the detected face region, the whole body region of the person. Can be set and output (S40).

또한, 배경 모델링 장치(1)의 형상 기반 전신 영역 설정부(133)는 영상 입력부(10)로부터 제공된 영상(IM)으로부터 사람의 오메가 형상 영역을 검출하고, 검출된 오메가 형상 영역에 기초하여 사람의 전신 영역을 설정하여 출력할 수 있다(S40).In addition, the shape-based whole body region setting unit 133 of the background modeling apparatus 1 detects an omega shape region of a person from an image IM provided from the image input unit 10, and based on the detected omega shape region, The whole body region may be set and output (S40).

예컨대, 도 2 및 도 6을 참조하면, 얼굴 기반 전신 영역 설정부(131)는 도 6의 (a)와 같이 사람의 얼굴이 보이는 영상(IM)에서 도 6의 (b)와 같이 사람의 얼굴 영역을 검출할 수 있다.For example, referring to FIGS. 2 and 6, the face-based whole body region setting unit 131 may have a face of a person as shown in FIG. 6B in an image IM in which a face of a person is shown as shown in FIG. 6A. The area can be detected.

이때, 얼굴 기반 전신 영역 설정부(131)는 얼굴 검출기(미도시)를 이용하여 사람의 얼굴 영역을 검출할 수 있다. In this case, the face-based whole body area setting unit 131 may detect a face area of a person using a face detector (not shown).

여기서, 얼굴 검출기는 외형 기반(appearance-based) 패턴 인식 방법의 하나인 AdaBoost 알고리즘을 사용할 수 있다.Here, the face detector may use the AdaBoost algorithm, which is one of appearance-based pattern recognition methods.

얼굴 기반 전신 영역 설정부(131)는 검출된 사람의 얼굴 영역의 위치 및 크기를 기초로 하여 도 6의 (b)와 같이 사람의 전신 영역을 설정할 수 있다. The face-based whole body area setting unit 131 may set the whole body area of the person as shown in FIG. 6B based on the detected position and size of the face area of the person.

또한, 도 2 및 도 7을 참조하면, 형상 기반 전신 영역 설정부(133)는 도 7의 (a)와 같이 사람의 얼굴이 안보이거나 또는 원거리에 위치하여 얼굴 검출이 불가능한 영상(IM)인 경우에, 도 7의 (b)와 같이 영상(IM)으로부터 오메가 형상 영역을 검출할 수 있다. Also, referring to FIGS. 2 and 7, when the shape-based whole body area setting unit 133 is an image (IM) in which a face of the human is invisible or is not located at a distance as shown in FIG. In FIG. 7B, an omega-shaped region can be detected from the image IM.

이를 위하여 형상 기반 전신 영역 설정부(133)는 오메가 형상 검출기(미도시)를 포함할 수 있고, 오메가 형상 검출기는 AdaBoost 알고리즘을 사용할 수 있다. 여기서, 오메가 형상이란 사람의 머리와 어깨를 잇는 윤곽선이 오메가(Ω) 형상을 닮은 것으로부터 정의된 형상이다.To this end, the shape-based whole body area setting unit 133 may include an omega shape detector (not shown), and the omega shape detector may use an AdaBoost algorithm. Here, the omega shape is a shape defined from the fact that the contour connecting the head and the shoulder of a person resembles an omega (Ω) shape.

형상 기반 전신 영역 설정부(133)는 검출된 오메가 형상 영역의 위치 및 크기를 기초로 하여 도 7의 (b)와 같이 사람의 전신 영역을 설정할 수 있다. The shape-based whole body area setting unit 133 may set the whole body area of the person as shown in FIG. 7B based on the detected position and size of the omega shape area.

다시 도 1 내지 도 3을 참조하면, 전신 영역 검출부(130)는 설정된 사람의 전신 영역으로부터 사람의 위치 및 크기를 추정하여 제2 객체 영역(Tb)을 출력할 수 있다.Referring back to FIGS. 1 to 3, the whole-body area detector 130 may output the second object area Tb by estimating the position and size of the person from the set whole-body area.

믹서(140)는 도 8의 (b)와 같이 모션 검출부(120)로부터 출력된 제1 객체 영역(Ta)과 전신 영역 검출부(130)로부터 출력된 제2 객체 영역(Tb)을 믹싱하여 최종적으로 영상(IM)에서 사람이 존재하는 영역, 즉 객체 영역(TA)을 출력할 수 있다.The mixer 140 finally mixes the first object area Ta output from the motion detector 120 and the second object area Tb output from the whole body area detector 130 as shown in FIG. 8B. In the image IM, an area in which a person exists, that is, an object area TA may be output.

배경 생성부(120)는 객체 검출부(110)로부터 출력된 객체 영역(TA)에 기초하여 영상(IM)으로부터 객체 영역(TA)이 제외된 배경 영상(IM)을 생성하여 출력할 수 있다(S50).The background generator 120 may generate and output the background image IM from which the object area TA is excluded from the image IM based on the object area TA output from the object detector 110 (S50). ).

한편, 배경 생성부(120)는 하기의 [수학식 2]와 [수학식3]으로부터 배경 영상(IM)을 갱신하여 출력할 수도 있다. Meanwhile, the background generator 120 may update and output the background image IM from Equations 2 and 3 below.

[수학식 2]는 입력된 영상에 대하여 배경으로 판단되는 픽셀에 대한 배경 영상(IM)을 갱신하는 수식이고, [수학식 3]은 입력된 영상에 대하여 객체 영역(TA)으로 판단된 픽셀에 대한 배경 영상(IM)을 갱신하는 수식이다.[Equation 2] is an equation for updating the background image IM for the pixel determined as the background of the input image, and [Equation 3] is applied to the pixel determined as the object area TA for the input image. A formula for updating the background image IM.

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

[수학식 3] &Quot; (3) "

Figure pat00003
Figure pat00003

여기서, Bt + 1(x,y)는 새로 갱신될 배경 영상의 픽셀 값, Bt(x,y)는 현재 배경 영상의 픽셀 값, It(x,y)는 현재 입력 영상의 픽셀 값 및 α는 배경 갱신 속도를 조절하는 상수 값을 의미한다.Here, B t + 1 (x, y) is the pixel value of the newly updated background image, B t (x, y) is the pixel value of the current background image, and I t (x, y) is the pixel value of the current input image. And α denotes a constant value for adjusting the background update rate.

그리고, 실루엣 검출부(30)는 배경 생성부(120)로부터 출력된 배경 영상(IM)에 기초하여 영상(IM)으로부터 실제 객체의 실루엣(TG)을 검출하여 출력할 수 있다(S60).The silhouette detector 30 may detect and output the silhouette TG of the real object from the image IM based on the background image IM output from the background generator 120 (S60).

도 2 및 도 9를 참조하면, 실루엣 검출부(30)는 영상(IM)에서 이동 상태의 사람의 실루엣(TG)을 검출할 수 있다.2 and 9, the silhouette detector 30 may detect a silhouette TG of a person in a moving state from the image IM.

예컨대, 도 9의 (a)와 같이 사람이 움직이는 영상(IM)에서, 배경 모델링부(20)의 객체 검출부(110)는 도 9의 (b)와 같이 객체 영역(TA)을 출력할 수 있고, 배경 생성부(120)는 도 9의 (c)와 같은 배경 영상(IM)을 생성할 수 있다.For example, in the moving image IM as shown in FIG. 9A, the object detector 110 of the background modeling unit 20 may output the object area TA as shown in FIG. 9B. The background generator 120 may generate a background image IM as shown in FIG. 9C.

이때, 실루엣 검출부(30)는 도 9의 (a)와 (c)의 차분으로부터 도 9의 (d)와 같이 영상(IM) 내의 사람의 실제 실루엣(TG)을 검출하여 출력할 수 있다.At this time, the silhouette detector 30 may detect and output the actual silhouette TG of the person in the image IM from the difference between FIGS. 9A and 9C as shown in FIG. 9D.

또한, 도 2 및 도 10을 참조하면, 실루엣 검출부(30)는 영상(IM)에서 정지 상태의 사람의 실루엣(TG)을 검출할 수도 있다.2 and 10, the silhouette detector 30 may detect a silhouette TG of a person in a stationary state from the image IM.

예컨대, 도 10의 (a)와 같이 사람이 정지 상태인 영상(IM)에서, 배경 모델링부(20)의 객체 검출부(110)는 도 10의 (b)와 같이 객체 영역(TA)을 출력할 수 있고, 배경 생성부(120)는 도 10의 (c)와 같은 배경 영상(IM)을 생성할 수 있다.For example, in an image IM in which a person is stationary as shown in FIG. 10A, the object detector 110 of the background modeling unit 20 may output the object area TA as shown in FIG. 10B. In addition, the background generator 120 may generate a background image IM as illustrated in FIG. 10C.

이때, 실루엣 검출부(30)는 도 10의 (a)와 (c)의 차분으로부터 도 10의 (d)와 같이 영상(IM) 내의 사람의 실제 실루엣(TG)을 검출하여 출력할 수 있다.
In this case, the silhouette detector 30 may detect and output the actual silhouette TG of the person in the image IM from the difference between FIGS. 10A and 10C as shown in FIG. 10D.

본 발명의 내용은 도면에 도시된 일 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
Although the contents of the present invention have been described with reference to one embodiment shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. will be. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

1: 배경 모델링 장치 10: 영상 입력부
20: 배경 모델링부 30: 실루엣 검출부
110: 객체 검출부 120: 모션 검출부
130: 전신 영역 검출부 150: 배경 생성부
1: background modeling apparatus 10: image input unit
20: background modeling unit 30: silhouette detection unit
110: object detection unit 120: motion detection unit
130: whole body area detection unit 150: background generation unit

Claims (1)

획득된 영상에서 객체의 모션 발생 영역 및 객체의 전신 영역을 검출하여 객체 영역을 출력하는 단계;
상기 영상으로부터 상기 객체 영역을 제외한 배경 영상을 생성하여 출력하는 단계; 및
상기 영상과 상기 배경 영상의 차이에 기초하여 객체 실루엣을 검출하여 출력하는 단계를 포함하는 배경 모델링 방법.
Detecting the motion generating region and the whole body region of the object from the obtained image and outputting the object region;
Generating and outputting a background image excluding the object area from the image; And
And detecting and outputting an object silhouette based on a difference between the image and the background image.
KR1020100030844A 2010-04-05 2010-04-05 Background modeling method for detecting target object silhouette KR20110111662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100030844A KR20110111662A (en) 2010-04-05 2010-04-05 Background modeling method for detecting target object silhouette

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100030844A KR20110111662A (en) 2010-04-05 2010-04-05 Background modeling method for detecting target object silhouette

Publications (1)

Publication Number Publication Date
KR20110111662A true KR20110111662A (en) 2011-10-12

Family

ID=45027642

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100030844A KR20110111662A (en) 2010-04-05 2010-04-05 Background modeling method for detecting target object silhouette

Country Status (1)

Country Link
KR (1) KR20110111662A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101460902B1 (en) * 2013-07-03 2014-11-20 한국과학기술원 Intelligent black box systems and methods for car theft symptoms sensing
US9807300B2 (en) 2014-11-14 2017-10-31 Samsung Electronics Co., Ltd. Display apparatus for generating a background image and control method thereof
US10373357B2 (en) 2015-04-10 2019-08-06 Samsung Electronics Co., Ltd. Device and method for displaying screen based on event

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101460902B1 (en) * 2013-07-03 2014-11-20 한국과학기술원 Intelligent black box systems and methods for car theft symptoms sensing
US9807300B2 (en) 2014-11-14 2017-10-31 Samsung Electronics Co., Ltd. Display apparatus for generating a background image and control method thereof
US10373357B2 (en) 2015-04-10 2019-08-06 Samsung Electronics Co., Ltd. Device and method for displaying screen based on event

Similar Documents

Publication Publication Date Title
US10740652B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
Schwarz et al. Estimating human 3d pose from time-of-flight images based on geodesic distances and optical flow
KR101355974B1 (en) Method and devices for tracking multiple object
Schwarz et al. Human skeleton tracking from depth data using geodesic distances and optical flow
US8351646B2 (en) Human pose estimation and tracking using label assignment
CN103995747B (en) Distributed pedestrian detecting system and method based on mobile robot platform
CN104834887B (en) Move pedestrian's representation method, recognition methods and its device
WO2017119940A1 (en) Hand gesture recognition for cursor control
US20210209793A1 (en) Object tracking device, object tracking method, and object tracking program
CN104063677A (en) Equipment used for estimating human body posture and method thereof
CN106033601A (en) Method and apparatus for detecting abnormal situation
KR102371127B1 (en) Gesture Recognition Method and Processing System using Skeleton Length Information
JP6219101B2 (en) Video surveillance system, video surveillance method, video surveillance system construction method
JP2018120283A (en) Information processing device, information processing method and program
KR20140040527A (en) Method and apparatus for detecting information of body skeleton and body region from image
Darujati et al. Facial motion capture with 3D active appearance models
KR20110111662A (en) Background modeling method for detecting target object silhouette
Ghidoni et al. A multi-viewpoint feature-based re-identification system driven by skeleton keypoints
CN104978583A (en) Person action recognition method and person action recognition device
Arai et al. Autonomous control of eye based electric wheel chair with obstacle avoidance and shortest path finding based on Dijkstra algorithm
JP2017033556A (en) Image processing method and electronic apparatus
CN203630717U (en) Interaction system based on a plurality of light inertial navigation sensing input devices
Tran et al. Action recognition in the frequency domain
Kong et al. Essential human body points tracking using kalman filter
Qin et al. Body motion detection technology in video

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination