KR20090111939A - Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background - Google Patents

Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background Download PDF

Info

Publication number
KR20090111939A
KR20090111939A KR1020080037563A KR20080037563A KR20090111939A KR 20090111939 A KR20090111939 A KR 20090111939A KR 1020080037563 A KR1020080037563 A KR 1020080037563A KR 20080037563 A KR20080037563 A KR 20080037563A KR 20090111939 A KR20090111939 A KR 20090111939A
Authority
KR
South Korea
Prior art keywords
foreground
background
image
area
probability
Prior art date
Application number
KR1020080037563A
Other languages
Korean (ko)
Other versions
KR101471199B1 (en
Inventor
이주용
변혜란
박희철
서창렬
정학진
장성환
Original Assignee
주식회사 케이티
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티, 연세대학교 산학협력단 filed Critical 주식회사 케이티
Priority to KR1020080037563A priority Critical patent/KR101471199B1/en
Publication of KR20090111939A publication Critical patent/KR20090111939A/en
Application granted granted Critical
Publication of KR101471199B1 publication Critical patent/KR101471199B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A method for dividing an image into a foreground and a background, an apparatus thereof, a method for substituting the divided background and an apparatus thereof are provided to use a foreground probability model generated by accumulating divided images. CONSTITUTION: An apparatus(10) for dividing an image into a foreground and a background receives an image of frame unit obtained from a camera. A background model generating unit(100) generates a background model which will be compared with the received image. A pixel unit dividing unit(110) calculates similarity between the received image and background model in each pixel belonging to the image, and classifies pixels into foreground pixels and background pixels according to the similarity.

Description

영상을 전경과 배경으로 분리하는 방법 및 장치, 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법 및 장치{Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background}Method and apparatus for separating foreground and background from image, method and apparatus for substituting separated background}

본 발명은 영상 처리에 관한 것으로, 보다 상세하게는, 영상을 전경과 배경으로 분리하는 방법 및 장치, 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법 및 장치, 그리고 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체에 관한 것이다. The present invention relates to image processing, and more particularly, to a method and apparatus for separating an image into a foreground and a background, a method and apparatus for replacing a background by separating an image into a foreground and a background, and a program for executing the method. The invention relates to a computer-readable recording medium having recorded thereon.

영상을 전경과 배경으로 분리하는 기술은 비디오 감시, 인간 계수(human counting), 비디오 편집 등을 포함한 다양한 시각 시스템에서 사용된다. 특히 근래에 인터넷 망의 발달과 웹카메라의 등장으로 음성과 영상을 함께 이용한 화상대화가 상용화되고 있는데, 이러한 화상대화에서는 본인이 원하지 않은 많은 부분이 카메라로 노출될 가능성이 있다. 따라서 통신의 주체가 되는 사람과 배경을 분리하여 노출을 원하지 않는 배경을 새로운 배경으로 대체하여 전송함으로써 개인의 사생활을 보호하는 방안이 강구되고 있다. 이러한 배경 대체 기술에 있어서도 영상을 전 경에 해당하는 사람과 배경으로 분리하는 것이 선행되어야 한다. Techniques for separating images into foreground and background are used in a variety of visual systems, including video surveillance, human counting, and video editing. In particular, with the development of the internet network and the emergence of web cameras, video conversations using both voice and video have been commercialized in recent years. Therefore, a method of protecting an individual's privacy by separating a background from a person who is the subject of communication and transmitting a new background is replaced by a background that is not exposed. In such a background replacement technique, the separation of the image into the background and the person corresponding to the foreground should be preceded.

종래의 영상 분리 기술로 배경 차분을 통한 움직이는 객체를 분리하는 방법이 있다. 배경 차분은 현재 이미지를, 일정 기간 동안 정적인 배경으로부터 얻어지는 참조 영상으로부터 동일한 부분을 차분하는 방법이다. 이러한 제거 과정을 거치면, 화면 상에는 단지 움직이는 물체 또는 새로운 물체만이 남게 된다. 실시간 처리는 가능하나 조명변화에 민감하다는 단점이 있으며 배경과 유사한 색상의 옷을 입은 사람이 등장하게 되면 영상 분리가 정확하지 않다는 문제점을 가지고 있다. There is a method of separating a moving object through the background difference with conventional image separation technology. Background difference is a method of difference of the same part from the reference image obtained from the static background for a certain period of time. After this removal process, only moving objects or new objects remain on the screen. Although it is possible to process in real time, it has a disadvantage of being sensitive to changes in lighting, and there is a problem that image separation is not accurate when a person dressed in a color similar to the background appears.

모델 기반의 영상 분리 기술은 사람의 대략적인 위치를 추정하기 위해 칼라정보 이용하여 얼굴영역을 검출한 뒤, 사람의 상반신만 나타난다는 것을 가정하여 사람의 머리와 몸통 모델을 이용하여 영상을 분리해 내는 기술이다. 모델을 이용하는 방법이기 때문에 사람의 상반신이 아닌 전신이 나타나거나 사람이 손을 드는 등의 다양한 자세를 취하였을 때는 영상 분리가 불가능하다는 단점이 있다.Model-based image separation technology detects the face region using color information to estimate the approximate location of a person, and then separates the image using the human head and torso model assuming that only the upper body of the person appears. Technology. Because of the method of using a model, image separation is not possible when various postures such as the whole body appear or the hand is raised, not the upper body of the person.

모션 기반의 영상 분리 기술은 입력영상에서 광류(Optical Flow) 등과 같은 모션 정보를 추출하여 알고리즘을 이용하여 이전 프레임과 현재프레임의 움직임을 추출한다. 추출된 움직임 정보는 배경과 움직이는 사람이 다르게 나타나기 때문에 움직이는 사람의 모션만을 추출하여 영상 분리를 하는 방법이다. 이 기술에 의하면, 사람이 움직이지 않으면 모션 정보가 나타나지 않기 때문에 움직이는 사람만 분리가 가능하며 또한 이전 프레임과 현재프레임의 조명 변화가 존재하지 않는다는 가정을 해야만 모션 정보를 정확히 추출해 낼 수 있기 때문에 약한 조명변화에도 민감하다는 단점이 있다. Motion-based image separation technology extracts motion information such as optical flow from an input image and extracts the movement of previous and current frames using an algorithm. The extracted motion information is a method of separating images by extracting only the motion of a moving person because the background and the moving person appear differently. According to this technology, if the person does not move, the motion information does not appear, so only the moving person can separate it, and the weak information because the motion information can be extracted accurately only by assuming that there is no light change of the previous frame and the current frame. The disadvantage is that it is sensitive to change.

또한, 스테레오 카메라를 이용하여 카메라로부터 물체까지의 거리를 측정하여 물체와 배경을 구별하는 방법이 있는데, 이 방법은 스테레오 카메라, 즉 두 대의 카메라가 필요하기 때문에, 장치의 크기가 커지고, 휴대성이 현저히 떨어지며 비용 면에서도 불리한 단점이 있다.In addition, there is a method of distinguishing the object and the background by measuring the distance from the camera to the object by using a stereo camera. This method requires a stereo camera, that is, two cameras. There is a significant disadvantage and a disadvantage in terms of cost.

본 발명이 이루고자 하는 기술적 과제는 단일 카메라를 이용하여 실시간으로 영상을 전경과 배경으로 정확하게 분리할 수 있는, 영상을 전경과 배경으로 분리하는 방법 및 장치, 그리고 상기 방법을 실행시키기 위한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. The present invention provides a method and apparatus for separating an image into a foreground and a background, which can accurately separate an image into a foreground and a background in real time using a single camera, and a computer-readable method for executing the method. To provide a recording medium.

본 발명이 이루고자 하는 다른 기술적 과제는 단일 카메라를 이용하여 실시간으로 영상을 전경과 배경으로 정확하게 분리하고, 영상의 배경을 다른 배경으로 대체할 수 있는, 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법 및 장치, 그리고 상기 방법을 실행시키기 위한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. Another technical object of the present invention is to accurately separate an image into a foreground and a background in real time using a single camera, and to replace the background by separating the image into the foreground and the background, which can replace the background of the image with another background. A method and apparatus, and a computer readable recording medium for executing the method.

상기 기술적 과제를 해결하기 위하여 본 발명에 따른, 영상을 전경과 배경으로 분리하는 방법은, (a) 입력되는 현재 프레임의 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 단계; (b) 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불 확실한 영역들을 추출하는 단계; (c) 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 단계; 및 (d) 상기 (c) 단계에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, a method of separating an image into a foreground and a background according to the present invention includes (a) comparing an image of an input current frame with a background model, and separating the image into a foreground and a background by a pixel unit. Making; (b) dividing the image into a plurality of regions and extracting unclear regions of the divided regions that are foreground or background regions; (c) classifying the extracted areas into a foreground area and a background area; And (d) correcting the foreground background separation result of the pixels belonging to the extracted areas according to the results classified in step (c).

여기서 상기 방법은, 상기 배경 모델을 생성하는 단계를 더 포함하고, 상기 배경 모델은 전경에 해당하는 물체 또는 사람이 등장하기 이전 프레임까지의 매 프레임마다 학습된 모델을 따를 수 있다.The method may further include generating the background model, wherein the background model may follow a learned model every frame up to a frame before an object or a person corresponding to the foreground appears.

또한, 상기 (a) 단계에서, 화소 단위로 상기 영상과 상기 배경 영상의 유사도를 계산하고, 상기 계산된 유사도를 소정 제1 임계값과 비교함으로써 상기 영상을 전경과 배경으로 분리할 수 있다.In operation (a), the image may be separated into a foreground and a background by calculating a similarity between the image and the background image in pixel units and comparing the calculated similarity with a predetermined first threshold.

또한, 상기 (b) 단계에서, 상기 분할된 영역들 각각에 대하여, 상기 (a) 단계에서 화소 단위로 전경과 배경으로 분리된 결과를 이용하여 전경 영역인지 배경 영역인지 불확실할 확률을 계산하고, 상기 계산된 확률을 소정 제2 임계값과 비교함으로써 상기 불확실할 영역들을 추출할 수 있다.Further, in step (b), for each of the divided regions, the probability of uncertainty as to whether it is a foreground area or a background area is calculated by using the result separated into the foreground and the background by the pixel unit in step (a), The areas to be uncertain may be extracted by comparing the calculated probability with a predetermined second threshold.

또한, 상기 (c) 단계는, (c1) 상기 추출된 영역들 각각에 대하여, 전경 영역일 확률을 계산하는 단계; 및 (c2) 상기 계산된 확률을 소정 제3 임계값과 비교함으로써 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 단계를 포함할 수 있다.In addition, the step (c), (c1) for each of the extracted areas, calculating the probability of the foreground area; And (c2) classifying the extracted areas into a foreground area and a background area by comparing the calculated probability with a predetermined third threshold.

또한, 상기 (a) 단계에서, 화소 단위로 상기 영상과 상기 배경 영상의 유사도를 계산하고, 상기 계산된 유사도를 소정 제1 임계값과 비교함으로써 상기 영상 을 전경과 배경으로 분리하며, 상기 (c1) 단계에서, 상기 계산된 유사도를 이용하여 상기 전경 영역일 확률을 계산할 수 있다.Further, in the step (a), the similarity between the image and the background image is calculated in pixel units, and the image is separated into the foreground and the background by comparing the calculated similarity with a predetermined first threshold value, and (c1). In step), the probability of the foreground area may be calculated using the calculated similarity.

또한, 상기 전경 영역일 확률은 다음 수학식에 따라 구해질 수 있다.In addition, the probability of the foreground area may be calculated according to the following equation.

Figure 112008028898119-PAT00001
Figure 112008028898119-PAT00001

여기서, P Fg (R i )는 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )는 불확실 영역 R i 에서의 전경 화소의 개수를, N Bg (R i )는 불확실 영역 R i 에서의 배경 화소의 개수를 의미한다. Where P Fg (R i ) is the foreground area of the uncertainty region R i , N Fg (R i ) is the number of foreground pixels in the uncertainty area R i , and N Bg (R i ) is the uncertainty area R i Means the number of background pixels.

또한, 상기 방법은, 소정의 과거 프레임으로부터 상기 현재 프레임까지 상기 (a) 단계에서 화소 단위로 전경과 배경으로 분리된 결과 영상을 누적하여 전경 확률 모델을 생성하는 단계를 더 포함하고, 상기 (c1) 단계에서, 상기 생성된 전경 확률 모델을 이용하여 상기 전경 영역일 확률을 계산할 수 있다.The method may further include generating a foreground probability model by accumulating a resultant image separated into a foreground and a background in units of pixels from a predetermined past frame to the current frame in step (a). In step), the probability of the foreground area may be calculated using the generated foreground probability model.

또한, 상기 전경 확률 모델은, 다음 수학식에 따라 표현될 수 있다.In addition, the foreground probability model may be expressed according to the following equation.

Figure 112008028898119-PAT00002
Figure 112008028898119-PAT00002

여기서,

Figure 112008028898119-PAT00003
는 프레임 t의 영상에서 화소 p가 전경 화소일 확률을,
Figure 112008028898119-PAT00004
는 프레임 t-1의 영상에서 화소 p가 전경 화소일 확률을,
Figure 112008028898119-PAT00005
는 프레임 t의 영상에서 화소 p의 전경 분리 결과값을 의미하며,
Figure 112008028898119-PAT00006
는 소정 값이다.here,
Figure 112008028898119-PAT00003
Is the probability that pixel p is a foreground pixel in an image of frame t,
Figure 112008028898119-PAT00004
Is the probability that pixel p is a foreground pixel in the image of frame t-1,
Figure 112008028898119-PAT00005
Represents the foreground separation result of the pixel p in the image of the frame t,
Figure 112008028898119-PAT00006
Is a predetermined value.

또한, 상기 전경 영역일 확률은 다음 수학식에 따라 구해질 수 있다.In addition, the probability of the foreground area may be calculated according to the following equation.

Figure 112008028898119-PAT00007
Figure 112008028898119-PAT00007

여기서, P Fg t (R i )는 현재 프레임인 t번째 프레임에서 불확실 영역 R i 의 전경 영역일 확률을, P Fg t-1 (R i )은 이전 프레임인 t-1번째 프레임에서의 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )N Bg (R i )는 t번째 프레임에서 불확실 영역 R i 의 전경 화소의 개수 및 배경 화소의 개수를 나타낸다. Here, P Fg t (R i ) is the probability of the foreground area of the uncertainty region R i in the t-th frame that is the current frame, and P Fg t-1 (R i ) is the uncertainty area in the t-1 th frame that is the previous frame. For the probability that it is the foreground region of R i , N Fg (R i ) and N Bg (R i ) represent the number of foreground pixels and background pixels of uncertain region R i in the t-th frame.

상기 기술적 과제를 해결하기 위하여 상기된 본 발명에 따른 영상을 전경과 배경으로 분리하는 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In order to solve the above technical problem, there is provided a computer-readable recording medium having recorded thereon a program for executing a method for separating an image according to the present invention into a foreground and a background.

상기 기술적 과제를 해결하기 위하여 본 발명에 따른, 영상을 전경과 배경으로 분리하는 장치는, 입력되는 현재 프레임의 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 화소 단위 분리부; 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 불확실 영역 추출부; 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 영역 단위 분류부; 및 상기 영역 단위 분류부에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하는 보정부를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, an apparatus for separating an image into a foreground and a background according to the present invention includes comparing an image of an input current frame with a background model, and separating the image into a foreground and a background by a pixel unit. Separator; An uncertain region extraction unit for dividing the image into a plurality of regions and extracting regions of uncertainty whether the image is a foreground region or a background region; An area unit classifying unit classifying the extracted areas into a foreground area and a background area; And a correction unit configured to correct a foreground background separation result of pixels belonging to the extracted areas according to the result classified by the area unit classifying unit.

상기 다른 기술적 과제를 해결하기 위하여 본 발명에 따른, 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법은, (a) 입력되는 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 단계; (b) 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 단계; (c) 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 단계; (d) 상기 (c) 단계에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하여, 전경 영상을 출력하는 단계; 및 (e) 상기 전경 영상에 미리 마련된 배경 영상을 합성하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above other technical problem, a method of replacing a background by separating an image into a foreground and a background according to the present invention includes (a) comparing the input image with a background model and displaying the image in the foreground and background in units of pixels. Separating into; (b) dividing the image into a plurality of regions, and extracting regions of uncertainty whether the foreground region or the background region is one of the divided regions; (c) classifying the extracted areas into a foreground area and a background area; (d) correcting a foreground background separation result of pixels belonging to the extracted areas according to the results classified in step (c), and outputting a foreground image; And (e) synthesizing a background image prepared in advance in the foreground image.

여기서, 상기 (e) 단계는, 상기 전경 영상과 상기 배경 영상의 각 컬러채널 값에 따라 상기 배경 영상의 색상을 보정하는 단계를 포함할 수 있다.Here, the step (e) may include correcting the color of the background image according to each color channel value of the foreground image and the background image.

또한, 상기 (e) 단계는, 상기 전경 영상의 색상 정보를 분석하고, 특정 컬러채널에 편중되어 있는지 여부에 따라서 선택적으로, 상기 전경 영상과 배경 영상의 각 컬러채널 값에 따라 상기 배경 영상의 색상을 보정하거나, 상기 배경 영상의 밝기를 보정하는 단계를 포함할 수 있다.In addition, the step (e) is to analyze the color information of the foreground image, and optionally depending on whether or not to be biased in a particular color channel, the color of the background image in accordance with each color channel value of the foreground image and the background image Or correcting the brightness of the background image.

상기 다른 기술적 과제를 해결하기 위하여 상기된 본 발명에 따른 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In order to solve the above other technical problem, there is provided a computer-readable recording medium having recorded thereon a program for executing a method of replacing a background by separating an image according to the present invention into a foreground and a background.

상기 다른 기술적 과제를 해결하기 위하여 본 발명에 따른 영상을 전경과 배경으로 분리하여 배경을 대체하는 장치는, 입력되는 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 화소 단위 분리부; 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 불확실 영역 추출부; 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 영역 단위 분류부; 상기 영역 단위 분류부에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하여, 전경 영상을 출력하는 보정부; 및 상기 전경 영상에 미리 마련된 배경 영상을 합성하는 배경 영상 합성부를 포함하는 것을 특징으로 한다.In order to solve the above other technical problem, an apparatus for replacing a background by separating an image according to the present invention into a foreground and a background includes: comparing the input image with a background model, and separating the image into a foreground and a background in pixel units. Unit separator; An uncertain region extraction unit for dividing the image into a plurality of regions and extracting regions of uncertainty whether the image is a foreground region or a background region; An area unit classifying unit classifying the extracted areas into a foreground area and a background area; A correction unit for correcting a foreground background separation result of pixels belonging to the extracted areas according to the result classified by the area unit classifying unit, and outputting a foreground image; And a background image synthesizer configured to synthesize a background image prepared in advance in the foreground image.

상술한 본 발명에 의하면, 영상을 복수 개의 영역들로 분할하고, 분할된 영역들 중 불확실한 영역들을 전경과 배경으로 분류하여 보정함으로써, 조명의 변화나 전경과 배경에 유사한 색상이 존재하더라도 실시간으로 정확하게 전경과 배경을 분리할 수 있다. 또한, 전경과 배경으로 분리된 결과 영상을 누적하여 생성된 전경 확률 모델을 이용함으로써 더 정확하게 전경과 배경을 분리할 수 있다.According to the present invention described above, by dividing the image into a plurality of areas, and by classifying and correcting the uncertain areas of the divided areas into the foreground and the background, even if there is a change in lighting or similar colors in the foreground and background accurately in real time You can separate foreground and background. In addition, by using the foreground probability model generated by accumulating the resultant image separated into the foreground and the background, the foreground and the background can be separated more accurately.

이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, the substantially identical components are represented by the same reference numerals, and thus redundant description will be omitted. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따른, 영상을 전경과 배경으로 분리하는 장치의 블록도이다. 본 실시예에 따른 전경 배경 분리 장치(10)는, 배경 모델 생성부(100), 화소 단위 분리부(110), 불확실 영역 추출부(120), 영역 단위 분류부(130), 보정부(140)를 포함하여 이루어진다. 전경 배경 분리 장치(10)에는 카메라(미도시)로부터 획득된 프레임 단위의 영상이 입력된다. 1 is a block diagram of an apparatus for separating an image into a foreground and a background according to an embodiment of the present invention. The foreground background separator 10 according to the present exemplary embodiment may include a background model generator 100, a pixel unit separator 110, an uncertain region extractor 120, an area unit classifier 130, and a corrector 140. ) The foreground background separating apparatus 10 receives an image of a frame unit obtained from a camera (not shown).

배경 모델 생성부(100)는, 후술할 화소 단위 분리부(110)가 입력되는 영상을 전경과 배경으로 분리하고자 할 때 입력되는 영상과 비교 대상이 되는 배경 모델을 생성한다. 이때 배경 모델 생성부(100)는, 전경에 해당하는 물체 또는 사람이 영상에 등장하기 이전 프레임까지의 매 프레임마다 모델을 학습하고, 이렇게 학습된 모델을 배경 모델로서 생성하여 저장한다. 도시되지는 않았으나, 본 실시예에 따른 전경 배경 분리 장치(10)에는 상기 배경 모델을 저장하기 위한 저장 수단(미도시)이 포함될 수 있다.The background model generation unit 100 generates a background model to be compared with the input image when the pixel unit separation unit 110 to be described later separates the input image into the foreground and the background. In this case, the background model generator 100 learns a model every frame up to a frame before an object or a person corresponding to the foreground appears in the image, and generates and stores the learned model as a background model. Although not shown, the foreground background separation apparatus 10 according to the present embodiment may include a storage means (not shown) for storing the background model.

이하에서는, 본 발명의 일 실시예에 따른 배경 모델에 관하여 보다 상세히 설명하기로 한다. 본 실시예에 따른 배경 모델에 의하면, 입력 영상 내의 임의의 화소 p는 다음과 같은 4개의 요소,

Figure 112008028898119-PAT00008
로 모델링된다. 여기서,
Figure 112008028898119-PAT00009
는 화소 p에서의 컬러 기댓값을,
Figure 112008028898119-PAT00010
는 컬러값의 표준편차를,
Figure 112008028898119-PAT00011
는 밝기 왜곡의 변화(variation of brightness distortion),
Figure 112008028898119-PAT00012
는 색도 왜곡의 변화(variation of chromaticity distortion)를 의미한다. 밝기 왜곡의 변화와, 색도 왜곡의 변화에 관하여는 논문 [T. Horprasert, D. Harwood, L.S. Davis "A Statistical Approach for Real-time Robust Background Subtraction and Shadow Detection", IEEE Frame Rate Workshop, pp. 1-19, 1999.]에 개시되어 있으므로, 상세한 설명은 생략하기로 한다.Hereinafter, a background model according to an embodiment of the present invention will be described in detail. According to the background model according to the present embodiment, any pixel p in the input image has four elements,
Figure 112008028898119-PAT00008
Is modeled as: here,
Figure 112008028898119-PAT00009
Is the color expected value at pixel p ,
Figure 112008028898119-PAT00010
Is the standard deviation of the color values,
Figure 112008028898119-PAT00011
Is the variation of brightness distortion,
Figure 112008028898119-PAT00012
Means variation of chromaticity distortion. Changes in brightness distortion and changes in chromatic distortion are described in the paper [T. Horprasert, D. Harwood, LS Davis, "A Statistical Approach for Real-time Robust Background Subtraction and Shadow Detection", IEEE Frame Rate Workshop, pp. 1-19, 1999., detailed description thereof will be omitted.

본 실시예에 의하면, 배경 모델 생성부(100)는 영상 내에 물체 또는 사람이 등장하기 전까지 매 프레임마다

Figure 112008028898119-PAT00013
을 계산한다. t번째 프레임에서 계산되는
Figure 112008028898119-PAT00014
Figure 112008028898119-PAT00015
라 표현하면, 예를 들어 N번째 프레임에서 사람이 등장했다면, N-1 번째 프레임까지 계산된
Figure 112008028898119-PAT00016
가 배경 모델로서 생성된다. According to the present exemplary embodiment, the background model generator 100 may perform every frame until an object or a person appears in an image.
Figure 112008028898119-PAT00013
Calculate computed on the t frame
Figure 112008028898119-PAT00014
To
Figure 112008028898119-PAT00015
For example, if a person appeared in the Nth frame, the N-1th frame is calculated.
Figure 112008028898119-PAT00016
Is generated as the background model.

t번째 프레임에 대하여, 화소 p에서의 컬러 기댓값의 벡터

Figure 112008028898119-PAT00017
와 표준편차의 벡터
Figure 112008028898119-PAT00018
는 다음 수학식과 같이, r, g, b 컬러값 각각에 대한 평균 및 표준편차의 성분을 가진다.vector of color expected values in pixel p for the t-th frame
Figure 112008028898119-PAT00017
Vector of standard deviations
Figure 112008028898119-PAT00018
Has the components of the mean and standard deviation for each of the r, g and b color values, as shown in the following equation.

Figure 112008028898119-PAT00019
Figure 112008028898119-PAT00019

Figure 112008028898119-PAT00020
Figure 112008028898119-PAT00020

본 실시예에 의하면, 매 프레임마다 배경 모델을 학습하는 바, t번째 프레임의 영상 내 화소 p에서의 컬러값 i에 대한 평균

Figure 112008028898119-PAT00021
및 표준편차
Figure 112008028898119-PAT00022
는 다음 수학식에 따라 이전 프레임인 t-1 번째 프레임의 평균
Figure 112008028898119-PAT00023
및 표준편차
Figure 112008028898119-PAT00024
를 이용하여 구해질 수 있다.According to the present exemplary embodiment, the background model is trained every frame, and the average of the color value i at pixel p in the image of the t-th frame is obtained.
Figure 112008028898119-PAT00021
And standard deviation
Figure 112008028898119-PAT00022
Is the average of the previous frame, the t-1 th frame, according to the following equation
Figure 112008028898119-PAT00023
And standard deviation
Figure 112008028898119-PAT00024
Can be obtained using

Figure 112008028898119-PAT00025
Figure 112008028898119-PAT00025

Figure 112008028898119-PAT00026
Figure 112008028898119-PAT00026

여기서, 아래첨자 i는 r, g, b 중 어느 하나를,

Figure 112008028898119-PAT00027
는 화소 p에서의 컬러 i의 컬러값을 의미한다. Where the subscript i represents any one of r, g, b,
Figure 112008028898119-PAT00027
Denotes the color value of the color i in the pixel p .

또한, t번째 프레임의 영상 내 화소 p에서의 밝기 왜곡

Figure 112008028898119-PAT00028
와 색도 왜곡
Figure 112008028898119-PAT00029
는 다음 수학식에 따라 구해질 수 있다.Also, the brightness distortion at the pixel p in the image of the t-th frame
Figure 112008028898119-PAT00028
And chromatic distortion
Figure 112008028898119-PAT00029
Can be obtained according to the following equation.

Figure 112008028898119-PAT00030
Figure 112008028898119-PAT00030

이때, t번째 프레임의 영상 내 화소 p에서의 밝기 왜곡의 변화도

Figure 112008028898119-PAT00031
와 색도 왜곡의 변화도
Figure 112008028898119-PAT00032
는 다음 수학식에 따라 이전 프레임인 t-1번째 프레임의 밝기 왜곡 의 변화
Figure 112008028898119-PAT00033
과 색도 왜곡의 변화
Figure 112008028898119-PAT00034
를 이용하여 구해질 수 있다. In this case, the variation of the brightness distortion in the pixel p in the image of the t-th frame
Figure 112008028898119-PAT00031
And chromaticity distortion
Figure 112008028898119-PAT00032
Is the change in brightness distortion of the previous frame, the t-1th frame,
Figure 112008028898119-PAT00033
Of color and chromatic distortion
Figure 112008028898119-PAT00034
Can be obtained using

Figure 112008028898119-PAT00035
Figure 112008028898119-PAT00035

Figure 112008028898119-PAT00036
Figure 112008028898119-PAT00036

배경 모델 생성부(100)에서, 전경에 해당하는 물체 또는 사람이 등장하는 프레임 이전의 프레임까지 상술한 바와 같이 학습된 배경 모델은 저장 수단(미도시)에 저장된다.In the background model generation unit 100, the background model learned as described above up to the frame before the frame in which the object or the person corresponding to the foreground appears is stored in the storage means (not shown).

배경 모델 생성부(100)에 의해 배경 모델이 생성되면, 화소 단위 분리부(110)는 입력되는 프레임의 영상을 배경 모델 생성부(100)에서 생성된 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리한다. 여기서, 입력되는 프레임은 전경에 해당하는 물체 또는 사람이 등장한 프레임 및 그 이후의 프레임들 각각을 의미하며, 화소 단위 분리부(110)는 이들 각 프레임마다의 영상을 배경 모델과 비교하여 화소 단위로 전경과 배경으로 분리한다. 화소 단위로 전경과 배경으로 분리한다는 것은, 다시 말하면 하나의 영상 내의 화소들 각각이 전경에 해당하는지 배경에 해당하는지를 구분하는 것이다. When the background model is generated by the background model generator 100, the pixel unit separator 110 compares an image of an input frame with a background model generated by the background model generator 100, and compares the image in pixel units. Separate into foreground and background. Herein, the input frame refers to a frame in which an object or a person corresponding to the foreground appears and each subsequent frame, and the pixel separating unit 110 compares the image of each frame with the background model in pixel units. Separate into foreground and background. Separating the foreground and the background in pixel units, in other words, distinguishes whether each pixel in an image corresponds to the foreground or the background.

화소 단위 분리부(110)는 입력되는 영상을 배경 모델과 비교하기 위하여 영상에 속하는 각 화소마다, 입력되는 영상과 배경 모델의 유사도를 계산한다. 그리고 이 유사도에 따라서 각 화소를 전경 화소 또는 배경 화소 중 어느 하나로 분류하는데, 예를 들어 유사도가 높으면 배경 화소로, 유사도가 낮으면 전경 화소로 분 류한다. The pixel unit separator 110 calculates a similarity degree between the input image and the background model for each pixel belonging to the image to compare the input image with the background model. According to this similarity, each pixel is classified into either a foreground pixel or a background pixel. For example, each pixel is classified into a background pixel if the similarity is high and a foreground pixel if the similarity is low.

영상 내의 임의의 화소 p에 대한 유사도 l(p)는 밝기 왜곡 분포와 색도 왜곡 분포를 이용하여 다음 수학식에 따라 구해질 수 있다. The similarity l (p) for any pixel p in the image may be obtained according to the following equation using the brightness distortion distribution and the chromatic distortion distribution.

Figure 112008028898119-PAT00037
Figure 112008028898119-PAT00037

여기서,

Figure 112008028898119-PAT00038
는 화소 p에 대한 밝기 왜곡 분포를,
Figure 112008028898119-PAT00039
는 화소 p에 대한 색도 왜곡 분포를 의미하며,
Figure 112008028898119-PAT00040
는 실제적으로 색도 유사도가 밝기 유사도보다 상대적으로 적음을 반영하기 위한 값으로서, 1 이상의 소정 값이다. here,
Figure 112008028898119-PAT00038
Is the brightness distortion distribution for pixel p ,
Figure 112008028898119-PAT00039
Denotes the chromatic distortion distribution for the pixel p ,
Figure 112008028898119-PAT00040
Is a value for reflecting that the chromaticity similarity is actually less than the brightness similarity, and is one or more predetermined values.

상기 밝기 왜곡 분포

Figure 112008028898119-PAT00041
와 색도 왜곡 분포
Figure 112008028898119-PAT00042
는 다음 수학식에 따라 구해질 수 있다. The brightness distortion distribution
Figure 112008028898119-PAT00041
And chromatic distortion distribution
Figure 112008028898119-PAT00042
Can be obtained according to the following equation.

Figure 112008028898119-PAT00043
Figure 112008028898119-PAT00043

Figure 112008028898119-PAT00044
Figure 112008028898119-PAT00044

그리고, 화소 단위 분리부(110)는 상기 유사도를 소정 임계값

Figure 112008028898119-PAT00045
과 비교하고, 비교 결과에 따라 전경 화소 또는 배경 화소로 분류한다. 이는 다음 수학식과 같이 표현될 수 있다.In addition, the pixel unit separator 110 may set the similarity to a predetermined threshold value.
Figure 112008028898119-PAT00045
And classify the image into a foreground pixel or a background pixel according to the comparison result. This can be expressed as the following equation.

Figure 112008028898119-PAT00046
Figure 112008028898119-PAT00046

여기서,

Figure 112008028898119-PAT00047
는 임의의 화소 p가 전경 화소 또는 배경 화소로 분리된 결과를 나타내고, 1은 전경 화소로 분류되었음을, 0은 배경 화소로 분류되었음을 의미한다. here,
Figure 112008028898119-PAT00047
Denotes a result in which an arbitrary pixel p is divided into a foreground pixel or a background pixel, 1 is classified as a foreground pixel, and 0 is classified as a background pixel.

도 2는 상술한 실시예에 따라서 입력 영상이 전경과 배경으로 분리된 결과를 보여준다. 도 2에서, (a)는 상술한 실시예에 따라 생성된 배경 모델에 따른 영상을 나타내고, (b)는 입력된 영상을 나타내며, (c)는 화소 단위로 전경과 배경이 분리된 결과 영상을 나타낸다. (c)에서 흰색으로 표시된 부분이 전경 화소를, 검정색으로 표시된 부분이 배경 화소를 나타낸다.2 illustrates a result of splitting an input image into a foreground and a background according to the above-described embodiment. In FIG. 2, (a) shows an image according to a background model generated according to the above-described embodiment, (b) shows an input image, and (c) shows a result image in which the foreground and background are separated in units of pixels. Indicates. In (c), the part shown in white represents the foreground pixel, and the part shown in black represents the background pixel.

불확실 영역 추출부(120)는 입력 영상을 복수 개의 영역들로 분할하고, 분할된 영역들 중에서 전경 영역인지 배경 영역인지 불확실한 영역들을 추출한다. 그리고 영역 단위 분류부(130)는 불확실 영역 추출부(120)에서 추출된 영역들, 즉 불확실 영역들을 전경 영역과 배경 영역으로 분리한다. The uncertainty region extractor 120 divides the input image into a plurality of regions and extracts regions of uncertainty that are a foreground region or a background region from among the divided regions. The area unit classifier 130 separates the regions extracted by the uncertainty region extractor 120, that is, the uncertainty regions into a foreground region and a background region.

도 2의 (c)를 참조하면, 화소 단위 분리부(110)에서 획득된 전경과 배경이 분리된 결과 영상은, 전경임에도 배경으로, 혹은 배경임에도 전경으로 판단된 부분이 상당히 존재함을 알 수 있다. 이러한 결과는 조명 또는 자연광의 영향으로 전경과 배경의 색이 변하거나, 전경과 배경의 색이 유사한 경우에 더 두드러지게 나타나게 된다. 따라서 불확실 영역 추출부(120)와 영역 단위 분류부(130)가 전경인지 배경인지 불확실한 영역들에 대하여 다시 판단을 하고, 이 결과에 따라 후술하는 보정부(140)가 화소 단위 분리부(110)에서 획득된 전경과 배경이 분리된 결과 영상을 보정한다.Referring to (c) of FIG. 2, it can be seen that the result image obtained by separating the foreground and the background obtained by the pixel unit separator 110 has a portion determined as the foreground as the foreground or the background as the foreground. have. This result is more prominent when the color of the foreground and background changes due to the influence of lighting or natural light, or when the color of the foreground and background is similar. Therefore, the uncertainty region extracting unit 120 and the region unit classifying unit 130 determine whether the foreground or the background is uncertain, and the correction unit 140 which will be described later according to the result is the pixel unit separating unit 110. The resultant image obtained by separating the foreground and background is corrected.

불확실 영역 추출부(120)는 먼저 입력 영상을 복수 개의 영역들로 분할하는데, 이때 예를 들어, Mean-Shift 알고리즘을 사용할 수 있다. Mean-Shift 알고리즘이란, 특정 데이터의 근방에 존재하는 주변 데이터들의 평균 쪽으로 중심을 이동시키면서 유사한 데이터를 군집화하는 알고리즘이다. The uncertainty region extractor 120 first divides the input image into a plurality of regions, for example, using a mean-shift algorithm. Mean-Shift algorithm is an algorithm that clusters similar data while moving the center toward the average of the surrounding data existing in the vicinity of specific data.

그리고, 불확실 영역 추출부(120)는, 분할된 영역들 중에서 전경 영역인지 배경 영역인지 불확실한 영역(이하, 불확실 영역)들을 추출하는데, 이때 화소 단위 분리부(110)에서 각 화소가 전경 또는 배경으로 분리된 결과를 이용한다. 구체적으로 설명하면, 불확실 영역 추출부(120)는 분할된 영역들 각각에 대하여, 해당 영역에 속하는 화소들 각각의 전경 배경 분리 결과를 이용하여 전경 영역인지 배경 영역인지 불확실할 확률(이하, 불확실 확률)을 계산하고, 상기 불확실 확률이 높으면 해당 영역을 불확실 영역으로 분류한다. In addition, the uncertainty region extractor 120 extracts uncertain regions (hereinafter, referred to as uncertainty regions) from among the divided regions, whether the foreground region or the background region, wherein each pixel is divided into the foreground or the background in the pixel unit separator 110. Use separate results. In detail, the uncertainty region extractor 120 may determine whether each of the divided regions is a foreground region or a background region by using a foreground background separation result of each pixel belonging to the region (hereinafter, referred to as uncertainty probability). ) And classify the area as an uncertainty area if the uncertainty probability is high.

여기서, 임의의 영역 R i 에 대한 불확실 확률 P U (R i )는 다음 수학식에 따라 구해질 수 있다. Here, the uncertainty probability P U (R i ) for any region R i may be obtained according to the following equation.

Figure 112008028898119-PAT00048
Figure 112008028898119-PAT00048

여기서, n은 분할된 영역의 개수를,

Figure 112008028898119-PAT00049
는 분할된 영역들의 집 합을, N Fg ( R i )는 영역 R i 에서의 전경 화소의 개수를, N Bg ( R i )는 영역 R i 에서의 배경 화소의 개수를 의미한다. Where n is the number of divided regions,
Figure 112008028898119-PAT00049
Denotes the set of divided regions, N Fg ( R i ) denotes the number of foreground pixels in the region R i , and N Bg ( R i ) denotes the number of background pixels in the region R i .

불확실 영역 추출부(120)는 불확실 확률 P U (R i )를 소정 임계값

Figure 112008028898119-PAT00050
와 비교하고, 비교 결과에 따라 불확실 영역인지 여부를 결정한다. 이는 다음 수학식과 같이 표현될 수 있다.The uncertainty region extractor 120 sets the uncertainty probability P U (R i ) to a predetermined threshold value.
Figure 112008028898119-PAT00050
And determine whether the area is uncertain according to the comparison result. This can be expressed as the following equation.

Figure 112008028898119-PAT00051
Figure 112008028898119-PAT00051

여기서 UR은 해당 영역이 불확실 영역임을, NON_UR은 해당 영역이 불확실 영역이 아님을 나타낸다. 상기 수학식에 따르면, 불확실 확률 P U (R i )가 소정 임계값

Figure 112008028898119-PAT00052
보다 크면 불확실 영역으로, 그렇지 않으면 불확실 영역이 아닌 것으로 결정한다.Here, UR indicates that the region is an uncertain region, and NON_UR indicates that the region is not an uncertain region. According to the above equation, the uncertainty probability P U (R i ) is a predetermined threshold
Figure 112008028898119-PAT00052
If greater, it is determined as the uncertainty area, otherwise it is determined as not the uncertainty area.

영역 단위 분류부(130)는 불확실 영역 추출부(120)에서 추출된 불확실 영역들을 전경 영역과 배경 영역으로 분류한다. 이를 위하여, 영역 단위 분류부(130)는 우선 불확실 영역들 각각에 대하여 해당 영역이 전경 영역일 확률을 계산한다. 이 확률은 해당 영역에 속한 화소들의, 화소 단위 분리부(110)에서 계산된 유사도를 이용하여 다음 수학식에 따라 구해질 수 있다.The area unit classifier 130 classifies the uncertainty regions extracted by the uncertainty region extractor 120 into a foreground region and a background region. To this end, the area unit classifier 130 first calculates the probability that the corresponding area is the foreground area for each of the uncertain areas. This probability may be calculated according to the following equation using the similarity calculated by the pixel unit separator 110 of pixels belonging to the corresponding area.

Figure 112008028898119-PAT00053
Figure 112008028898119-PAT00053

여기서, P Fg (R i )는 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )는 불확실 영역 R i 에서의 전경 화소의 개수를, N Bg (R i )는 불확실 영역 R i 에서의 배경 화소의 개수를 의미한다. Where P Fg (R i ) is the foreground area of the uncertainty region R i , N Fg (R i ) is the number of foreground pixels in the uncertainty area R i , and N Bg (R i ) is the uncertainty area R i Means the number of background pixels.

그리고 영역 단위 분류부(130)는 상기 계산된 확률을 소정 임계값

Figure 112008028898119-PAT00054
와 비교하고, 비교 결과에 따라 전경 영역인지 배경 영역인지를 결정한다. 이는 다음 수학식과 같이 표현될 수 있다.The area unit classifier 130 may determine the calculated probability as a predetermined threshold value.
Figure 112008028898119-PAT00054
And compares the result to the foreground area and the background area. This can be expressed as the following equation.

Figure 112008028898119-PAT00055
Figure 112008028898119-PAT00055

여기서,

Figure 112008028898119-PAT00056
는 불확실 영역 R i 가 전경 영역 또는 배경 영역으로 분류된 결과를 나타내고, 1은 전경 영역으로 분류되었음을, 0은 배경 영역으로 분류되었음을 의미한다. 상기 수학식에 따르면, 전경 영역일 확률 P Fg (R i )가 소정 임계값
Figure 112008028898119-PAT00057
보다 크면, 전경 영역으로, 그렇지 않으면 배경 영역으로 분류한다. here,
Figure 112008028898119-PAT00056
Denotes a result in which the uncertainty region R i is classified as a foreground region or a background region, where 1 is classified as a foreground region and 0 is classified as a background region. According to the above equation, the probability P Fg (R i ) in the foreground region is a predetermined threshold value.
Figure 112008028898119-PAT00057
If greater, it is classified as a foreground area, otherwise it is classified as a background area.

본 실시예에서, 영역 단위 분류부(130)는, 전경 영역일 확률을 계산하고, 이 확률을 소정 임계값과 비교하였으나, 마찬가지의 방식으로 배경 영역일 확률을 계 산하고, 이 확률을 소정 임계값과 비교하는 형태로 구현될 수도 있음은 물론이다. In the present embodiment, the area unit classifier 130 calculates the probability of being the foreground area and compares the probability with a predetermined threshold value, but calculates the probability of the background area in the same manner, and calculates the probability by the predetermined threshold. Of course, it can also be implemented in the form of comparing with a value.

보정부(140)는 영상 내의 화소들 중 불확실 영역들에 속한 화소들의 전경 배경 분리 결과를 영역 단위 분류부(130)에서 분류된 결과에 따라 보정한다. 즉, 화소 단위 분리부(110)에서 전경으로 분류된 화소가 영역 단위 분류부(130)에서 분류된 배경 영역에 속한다면 배경 화소로 보정하고, 화소 단위 분리부(110)에서 배경으로 분류된 화소가 영역 단위 분류부(130)에서 분류된 전경 영역에 속한다면 전경 화소로 보정한다. 그리고 보정부(140)는 분리된 배경을 제거함으로써 전경 영상을 출력한다.The corrector 140 corrects the foreground background separation result of the pixels belonging to the uncertain regions among the pixels in the image according to the result classified by the area unit classifier 130. That is, if the pixel classified as the foreground in the pixel separator 100 is included in the background area classified by the area unit classifier 130, the pixel is classified as the background pixel, and the pixel classified as the background is classified by the pixel divider 110. If is included in the foreground area classified by the area unit classifying unit 130, the correction is made to the foreground pixel. The correction unit 140 outputs the foreground image by removing the separated background.

도 3은 상술한 실시예에 따라 입력 영상이 전경과 배경으로 분리되는 과정을 나타낸다. 도 3에서, (a)는 입력 영상을, (b)는 Mean-Shift 알고리즘을 사용하여 복수 개의 영역들로 분할된 영상을 나타낸다. (c)는 화소 단위로 전경과 배경이 분리된 결과 영상으로서, 흰색으로 표시된 부분이 전경 화소를, 검정색으로 표시된 부분이 배경 화소를 나타낸다. (d)에서는 불확실 영역들을 흰색으로 나타내었고, (e)는 불확실 영역들이 전경 영역과 배경 영역으로 분류된 결과로서, 전경 영역은 붉은색으로, 배경 영역은 파란색으로 나타내었다. (f)는 화소 단위로 전경과 배경이 분리된 결과 영상 (c)를 영역 단위로 전경과 배경으로 분류된 결과 (e)에 따라 보정된 영상을 나타낸다. 3 illustrates a process of separating an input image into a foreground and a background according to the above-described embodiment. In FIG. 3, (a) shows an input image and (b) shows an image divided into a plurality of regions using a Mean-Shift algorithm. (c) shows a result image in which the foreground and the background are separated on a pixel basis, wherein a portion displayed in white represents a foreground pixel and a portion displayed in black represents a background pixel. In (d), the uncertain areas are shown in white, and (e) is a result of the uncertain areas being classified into the foreground area and the background area, and the foreground area is red and the background area is blue. (f) shows an image corrected according to the result (e) of the resultant image (c), which is divided into the foreground and the background by area, in the pixel unit.

도 3의 (c)와 (f)를 참고하면, 전경에 해당하는 사람의 옷 색상이 배경과 유사하여 (c)에서 전경이 전경임에도 배경으로 잘못 판단되는 현상이 두드러지게 나타나는 반면, 보정된 영상 (f)에서는 이러한 문제점이 거의 나타나지 않음을 알 수 있다. Referring to (c) and (f) of FIG. 3, the color of the clothes of the person corresponding to the foreground is similar to the background, so that the phenomenon that is incorrectly judged as the background appears in the foreground in (c), whereas the corrected image In (f), it can be seen that such a problem rarely occurs.

도 4는 본 발명의 다른 실시예에 따른, 영상을 전경과 배경으로 분리하는 장치의 블록도이다. 본 실시예에 따른 전경 배경 분리 장치(20)는, 배경 모델 생성부(100), 화소 단위 분리부(110), 불확실 영역 추출부(120), 영역 단위 분류부(135), 보정부(140), 전경 확률 모델 생성부(145)를 포함하여 이루어진다. 도 1에 도시된 전경 배경 분리 장치와 마찬가지로, 본 실시예에 따른 전경 배경 분리 장치(10)에도 역시 카메라(미도시)로부터 획득된 프레임 단위의 영상이 입력된다. 4 is a block diagram of an apparatus for separating an image into a foreground and a background according to another embodiment of the present invention. The foreground background separator 20 according to the present exemplary embodiment may include a background model generator 100, a pixel unit separator 110, an uncertain region extractor 120, an area unit classifier 135, and a corrector 140. ), The foreground probability model generator 145 is included. Like the foreground background separation apparatus shown in FIG. 1, an image in a frame unit obtained from a camera (not shown) is also input to the foreground background separation apparatus 10 according to the present embodiment.

본 실시예에 따른 전경 배경 분리 장치(20)에서, 배경 모델 생성부(100), 화소 단위 분리부(110), 불확실 영역 추출부(120), 보정부(140)의 동작은 도 1에 관하여 설명된 바와 동일하므로, 설명은 생략하기로 한다.In the foreground background separator 20 according to the present exemplary embodiment, operations of the background model generator 100, the pixel unit separator 110, the uncertainty region extractor 120, and the corrector 140 are described with reference to FIG. 1. Since the description is the same, the description will be omitted.

먼저, 전경 확률 모델 생성부(145)에 관하여 설명한다. 일반적으로 동영상에서 중요한 특징으로 시간에 따라 영상이 변화하지만 인접한 프레임 간의 영상에서 그 차이는 크지 않은 특징이 있다. 따라서, 이전 프레임에서 전경으로 분류되었던 화소들은 현재 프레임에서도 전경으로 분류된 확률이 높다고 볼 수 있다. 전경 확률 모델 생성부(145)는 이러한 특징을 이용, 과거 프레임의 정보를 반영하여 현재 프레임의 영상의 화소들이 전경 화소일 확률을 나타내는 전경 확률 모델을 생성한다. 이를 위하여, 전경 확률 모델 생성(145)는 화소 단위 분리부(110)에서 화소 단위로 전경과 배경으로 분리된 결과 영상을 누적하여 전경 확률 모델을 생성한다. 이러한 전경 확률 모델을 편의상, 시간적 전경 확률 모델(Temporal Foreground Probability Model, TFPM)이라 명명하기로 한다. 시간적 전경 확률 모델은 다음 수 학식과 같이, 이전 프레임의 전경 확률과 현재 프레임의 전경 분리 결과값의 가중치 합으로 표현될 수 있다.First, the foreground probability model generator 145 will be described. In general, an important feature in a video is that the image changes with time, but there is a feature that the difference between the adjacent frames is not large. Therefore, the pixels classified as the foreground in the previous frame have a high probability of being classified as the foreground in the current frame. The foreground probability model generator 145 generates a foreground probability model indicating the probability that the pixels of the image of the current frame are foreground pixels by reflecting the information of the past frame. To this end, the foreground probability model generator 145 generates a foreground probability model by accumulating the resultant image separated into the foreground and the background in the pixel unit separator 110. This foreground probability model will be referred to as a temporal foreground probability model (TPM) for convenience. The temporal foreground probability model may be expressed as a weighted sum of the foreground probability of the previous frame and the foreground separation result of the current frame, as shown in the following equation.

Figure 112008028898119-PAT00058
Figure 112008028898119-PAT00058

Figure 112008028898119-PAT00059
Figure 112008028898119-PAT00059

여기서,

Figure 112008028898119-PAT00060
는 현재 프레임인 t번째 프레임의 영상에서 화소 p가 전경 화소일 확률을,
Figure 112008028898119-PAT00061
는, t-1번째 프레임의 영상에서 화소 p가 전경 화소일 확률을,
Figure 112008028898119-PAT00062
는 t번째 프레임의 영상에 대한 화소 단위 분리부(110)에서 화소 p의 전경 분리 결과값을 의미하며, 0번째 프레임은 영상에 사람이 등장한 프레임이다.here,
Figure 112008028898119-PAT00060
Is the probability that pixel p is a foreground pixel in the image of the t-th frame, which is the current frame,
Figure 112008028898119-PAT00061
Is the probability that the pixel p is the foreground pixel in the image of the t-1th frame,
Figure 112008028898119-PAT00062
Denotes a result of foreground separation of the pixel p in the pixel unit separator 110 for the image of the t-th frame, and the 0-th frame is a frame in which a person appears in the image.

또한,

Figure 112008028898119-PAT00063
는 미리 정의되는 소정 값으로서 0에서 1 사이의 값으로 부여되며, 전경 변화의 정도에 따라 그 값을 달리 정의할 수 있다. 예를 들어, 사람의 움직임이 작은 경우에는 바로 이전 프레임의 영상에 가중치를 비교적 높게 주어야 하므로,
Figure 112008028898119-PAT00064
를 상대적으로 큰 값으로 정의하고, 사람의 움직임이 큰 경우에는 이전 프레임과 현재 프레임의 차이가 크기 때문에 사람의 움직임이 작은 경우에 비해 이전 프레임의 영상에 가중치를 비교적 낮게 주어야 하므로
Figure 112008028898119-PAT00065
를 상대적으로 작은 값으로 정의할 수 있을 것이다. 화상 대화나 화상 회의에서는 사람이 급격하게 움직이는 경우가 적다고 본다면, 본 실시예를 화상 대화나 화상 회의에 적용하고자 할 때
Figure 112008028898119-PAT00066
를 상대적으로 큰 값으로 정의할 수 있을 것이다. Also,
Figure 112008028898119-PAT00063
Is a predefined value which is given as a value between 0 and 1, and may be defined differently according to the degree of foreground change. For example, if the human motion is small, the weight of the image of the previous frame should be relatively high,
Figure 112008028898119-PAT00064
Is defined as a relatively large value, and if the human motion is large, the difference between the previous frame and the current frame is large, so that the weight of the image of the previous frame should be relatively low compared to the case where the human motion is small.
Figure 112008028898119-PAT00065
Can be defined as a relatively small value. Given that there are fewer people moving rapidly in a video chat or video conference, when the present embodiment is to be applied to a video chat or video conference.
Figure 112008028898119-PAT00066
Can be defined as a relatively large value.

도 5는 이러한 시간적 전경 확률 모델을 나타내는 도면으로서, (a)는 프레임 별 입력 영상을, (b)는 상술한 시간적 전경 확률 모델에 따라 구해진 전경 확률에 따른 영상을 나타낸다. 시간적 전경 확률 모델에서는 전경 분리 결과가 계속적으로 누적되는 바, (b)를 참조하면 계속적으로 전경으로 분리되는 부분은 흰색의 농도가 짙게 나타나는 것을 알 수 있으며, 이러한 부분은 다음 프레임에서도 전경일 확률이 높다고 할 수 있다. FIG. 5 is a diagram illustrating such a temporal foreground probability model, wherein (a) shows an input image for each frame and (b) shows an image based on a foreground probability obtained according to the above-described temporal foreground probability model. In the temporal foreground probability model, the result of foreground separation is continuously accumulated. Referring to (b), it can be seen that the portion that is continuously separated by the foreground appears to have a high density of white. can do.

상술한 시간적 전경 확률 모델을 이용하면 전경인 사람의 몸에 홀이 발생하는 등의 문제점을 해결할 수 있는 장점이 있다. 사람의 몸에 홀이 생성된 영역이 매우 작다고 하더라도 사람의 몸이나 머리 부분에 홀이 발생하게 되면, 배경을 다른 영상으로 합성하였을 때 영상을 보는 사람의 눈에 확 띄게 된다. 그러나 상술한 시간적 전경 확률 모델에 따르면 과거의 전경 분리 결과를 누적하여 전경일 확률이 구해지므로 홀이 발생하는 문제점을 해결할 수 있다.Using the temporal foreground probability model described above has the advantage of solving a problem such as the occurrence of a hole in the body of a person in the foreground. Even if a hole is formed in the human body, even if the hole is generated in the human body or the head part, when the background is synthesized into another image, the image is clearly visible to the viewer. However, according to the temporal foreground probability model described above, since the foreground foreground probability is obtained by accumulating past foreground separation results, a problem in which a hole is generated can be solved.

영역 단위 분류부(135)는 도 1에 관하여 설명된 영역 단위 분류부(130)와 마찬가지로, 불확실 영역 추출부(120)에서 추출된 불확실 영역들에 대하여 전경 영역일 확률을 계산하고, 이 확률에 따라 불확실 영역들을 전경 영역 또는 배경 영역으로 분류한다. 다만, 본 실시예에서는 전경 확률 모델 생성부(145)에서 생성된 시간적 전경 확률 모델이, 불확실 영역들에 대한 전경 영역일 확률을 계산하는 데 이용된다. 본 실시예에 따르면, 영역 단위 분류부(135)에서 불확실 영역들 각각에 대하여 해당 영역이 전경 영역일 확률은 다음 수학식에 따라 구해질 수 있다.Like the area unit classifier 130 described with reference to FIG. 1, the area unit classifier 135 calculates a probability of being the foreground area with respect to the uncertain areas extracted by the uncertain area extractor 120, Therefore, the uncertainty areas are classified into a foreground area or a background area. However, in the present exemplary embodiment, the temporal foreground probability model generated by the foreground probability model generator 145 is used to calculate the probability of the foreground region with respect to the uncertainty regions. According to the present exemplary embodiment, the probability that the corresponding area is the foreground area for each of the uncertainty areas in the area unit classifying unit 135 may be calculated according to the following equation.

Figure 112008028898119-PAT00067
Figure 112008028898119-PAT00067

여기서, P Fg t (R i )는 현재 프레임인 t번째 프레임에서 불확실 영역 R i 의 전경 영역일 확률을, P Fg t-1 (R i )은 이전 프레임인 t-1번째 프레임에서의 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )N Bg (R i )는 t번째 프레임에서 불확실 영역 R i 의 전경 화소의 개수 및 배경 화소의 개수를 의미한다. 그리고

Figure 112008028898119-PAT00068
는 상기된 수학식 10에 따른 현재 프레임인 t번째 프레임의 영상에서 화소 p가 전경 화소일 확률을 나타낸다. Here, P Fg t (R i ) is the probability of the foreground area of the uncertainty region R i in the t-th frame that is the current frame, and P Fg t-1 (R i ) is the uncertainty area in the t-1 th frame that is the previous frame. For the probability that it is the foreground region of R i , N Fg (R i ) and N Bg (R i ) mean the number of foreground pixels and background pixels of uncertain region R i in the t-th frame. And
Figure 112008028898119-PAT00068
Denotes the probability that the pixel p is the foreground pixel in the image of the t-th frame which is the current frame according to Equation 10 described above.

도 6은 본 발명의 일 실시예에 따른, 영상을 전경과 배경으로 분리하여 배경을 대체하는 장치의 블록도이다. 본 실시예에 따른 배경 대체 장치는, 전경 배경 분리부(30) 및 배경 영상 합성부(40)를 포함하여 이루어진다.FIG. 6 is a block diagram of an apparatus for replacing an image by separating an image into a foreground and a background according to an embodiment of the present invention. Background replacement apparatus according to the present embodiment comprises a foreground background separator 30 and the background image synthesizer 40.

전경 배경 분리부(30)는 입력 영상을 전경과 배경으로 분리하여, 배경이 제거된 전경 영상을 출력한다. 전경 배경 분리부(30)는 도 1에 관하여 설명된 전경 배경 분리 장치(10) 또는 도 4에 관하여 설명된 전경 배경 분리 장치(20)의 구성 및 동작과 동일하므로, 여기서 설명은 생략하기로 한다. The foreground background separator 30 separates the input image into the foreground and the background, and outputs the foreground image from which the background is removed. The foreground background separator 30 is the same as the configuration and operation of the foreground background separator 10 described with reference to FIG. 1 or the foreground background separator 20 described with reference to FIG. 4, and thus description thereof will be omitted. .

배경 영상 합성부(40)는 전경 배경 분리부(30)에서 출력된 전경 영상에 미리 마련된 대체될 배경 영상을 합성하여, 입력 영상에서 배경이 대체된 영상을 출력한 다. The background image synthesizer 40 synthesizes the background image to be replaced in advance with the foreground image output from the foreground background separator 30, and outputs an image in which the background is replaced from the input image.

단순히 분리된 사람 영상에 새로운 배경 영상을 대체하는 경우, 완전히 다른 조건에서 생성된 두 영상이기 때문에 사람 영역을 가위로 오려 새로운 배경에 붙여놓은 듯한 느낌을 줄 수 있다. 즉, 전경 영상과 대체될 새로운 배경 영상은 완전히 서로 다른 조명 조건에서 촬영된 영상이기 때문에 하나의 영상으로 합성할 경우 각 영상의 전체적인 밝기와 색상이 전혀 달라 자연스러운 하나의 영상으로 보이지 않을 수 있다. 이러한 문제점을 해결하기 위해서는 배경 영상을 전경 영상과 같은 조명 조건에서 촬영한 것처럼 보이기 위한 밝기와 색상에 대한 보정 작업이 필요하다. 따라서 본 실시예에서, 배경 영상 합성부(40)는 전경 영상의 색상 정보를 고려하여, 합성된 배경 영상의 색상 또는 밝기를 보정한다.If a new background image is simply replaced with a separate human image, the two images are created under completely different conditions, so that the human area can be cut with scissors and attached to the new background. That is, since the new background image to be replaced with the foreground image is an image photographed under completely different lighting conditions, when synthesized into one image, the overall brightness and color of each image are completely different and thus may not be viewed as a natural image. To solve this problem, it is necessary to correct brightness and color to make the background image appear to be taken under the same lighting conditions as the foreground image. Therefore, in the present embodiment, the background image synthesizer 40 corrects the color or brightness of the synthesized background image in consideration of the color information of the foreground image.

먼저, 배경 영상의 색상 보정에 관하여 설명한다. 본 실시예에서, 전경 영상과 배경 영상 간의 색상 차이를 보정하기 위해 대각선 모델(diagonal model)을 이용한 색상 변환(color transform) 방법을 사용한다. 대각선 모델을 이용한 색상 보정은 두 영상 내에 서로 대응되는 화소가 존재하지 않아도 색상 보정이 가능하며 속도가 매우 빠르다는 장점이 있다. First, the color correction of the background image will be described. In this embodiment, a color transform method using a diagonal model is used to correct a color difference between the foreground image and the background image. Color correction using the diagonal model has the advantage that color correction is possible even if there is no corresponding pixel in the two images, and the speed is very fast.

대체될 배경의 색상 보정은 다음 수학식에서와 같이 대체될 배경과 대각선 모델 M의 곱으로 나타내어질 수 있다. The color correction of the background to be replaced may be represented by the product of the diagonal model M and the background to be replaced as in the following equation.

Figure 112008028898119-PAT00069
대체될 배경 x M = 보정된 배경,
Figure 112008028898119-PAT00069
Background to be replaced x M = corrected background,

여기서, α, β, γ는 각각 전경 영상과 대체될 배경 영상의 R, G, B 컬러채널의 평균 명암도(intensity)의 비율을 나타내며, 다음 수학식에 따라 구해진다.Here, α, β, and γ denote ratios of average intensity of R, G, and B color channels of the foreground image and the background image to be replaced, respectively, and are obtained according to the following equation.

Figure 112008028898119-PAT00070
Figure 112008028898119-PAT00070

여기서, mean ( R F )mean ( R B )는 각각 전경 영상의 R 컬러채널 값의 평균 및 대체될 배경 영상의 R 컬러채널 값의 평균을 나타낸다. G 컬러채널 및 B 컬러채널에 관하여도 마찬가지이다. Here, mean ( R F ) and mean ( R B ) represent the average of the R color channel values of the foreground image and the R color channel values of the background image to be replaced, respectively. The same applies to the G color channel and the B color channel.

다만, 배경 영상의 색상을 보정하는 경우, 전경 영상의 색상 분포가 특정 컬러채널에 지나치게 편중되어 있다면, 상술한 바와 같이 전경 영상의 컬러채널 값을 고려하여 배경 영상의 색상을 보정하는 것은 좋지 않은 결과를 초래할 수 있다. 예를 들어, 배경 영역이 특정 컬러채널에 편중되도록 보정될 수 있다. 이러한 경우 배경 영역의 색상을 보정하기보다 밝기만 보정하는 것이 더욱 좋은 결과를 나타낼 수 있다. 따라서 본 실시예에서는, 전경 영상의 색상 정보를 분석하고, 색상이 특정 컬러채널에 지나치게 편중되어 있는지 여부에 따라서 선택적으로, 배경 영상의 색상을 보정하거나, 배경 영상의 밝기를 보정한다.However, when the color of the background image is corrected, if the color distribution of the foreground image is too biased in a specific color channel, it is not a good idea to correct the color of the background image in consideration of the color channel value of the foreground image as described above. May result. For example, the background area may be corrected to be biased to a particular color channel. In this case, it is better to correct only the brightness than to correct the color of the background area. Therefore, in the present embodiment, the color information of the foreground image is analyzed, and optionally, the color of the background image is corrected or the brightness of the background image is corrected depending on whether the color is excessively biased in a specific color channel.

도 7은 본 발명의 일 실시예에 따라 배경 영상의 색상 또는 밝기를 선택적으로 보정하는 방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method of selectively correcting color or brightness of a background image according to an embodiment of the present invention.

먼저 610단계에서, 전경 영상 및 대체될 배경 영상의 R, G, B 컬러채널 값의 평균을 각각 계산한다.First, in step 610, the average of the R, G, and B color channel values of the foreground image and the background image to be replaced are respectively calculated.

620단계에서 전경 영상의 색상 분포가 특정 컬러채널에 지나치게 편중되어 있는지 판단한다. 여기서, 특정 컬러채널에 지나치게 편중되어 있는지 여부는 전경 영상의 컬러채널 값의 평균들 중 특정 컬러채널 값의 평균이 소정 임계값보다 큰지 여부에 따라 판단할 수 있다. 또는, 각 컬러채널 값의 평균을 서로 비교하여 그 차이가 소정 임계값보다 큰지 여부에 따라 판단할 수도 있을 것이다. In operation 620, it is determined whether the color distribution of the foreground image is excessively biased in a specific color channel. Here, whether or not the specific color channel is excessively biased may be determined depending on whether the average of the specific color channel value among the averages of the color channel values of the foreground image is greater than a predetermined threshold value. Alternatively, the average of each color channel value may be compared with each other to determine whether the difference is greater than a predetermined threshold.

620단계에서 지나치게 편중되어 있는 것으로 판단되었다면, 630단계로 진행하여 배경 영상의 밝기 보정을 수행한다. 배경 영상의 밝기 보정은, 상기된 수학식 12의 대각선 모델 M을 다음 수학식에 따른 대각선 모델, 즉 성분 α, β, γ가 모두 동일한 값을 가지는 대각선 모델로 치환함으로써 나타내어질 수 있다.If it is determined in step 620 that it is excessively biased, the process proceeds to step 630 to correct the brightness of the background image. The brightness correction of the background image may be represented by replacing the diagonal model M of Equation 12 with a diagonal model according to the following equation, that is, a diagonal model in which all of the components α, β, and γ have the same value.

Figure 112008028898119-PAT00071
Figure 112008028898119-PAT00071

상술한 바와 같이 선택적으로 밝기 보정 또는 색상 보정을 함으로써, 배경 영상 합성 시 발생할 수 있는 배경은 어둡고 전경은 밝아서 발생하는 부자연스러운 문제점 또는 배경과 전경의 색 비율이 다른 경우 발생하는 부자연스러운 문제점 등 이 해결됨으로써 보다 자연스러운 배경 합성이 이루어질 수 있다.As described above, the brightness correction or the color correction is optionally performed to solve the unnatural problem that occurs when the background image is dark and the foreground is bright, or the unnatural problem that occurs when the color ratio between the background and the foreground is different. This allows for more natural background synthesis.

한편, 색과 밝기를 잘 보정하였다고 하더라도 배경과 사람의 경계부분이 부드럽게 처리되지 않으면 사람 영역을 가위로 오려 다른 배경에 붙인 듯한 느낌을 줄 수 있다. 이러한 문제점을 해결하기 위하여, 본 실시예에서 배경 영상 합성부(40)는 전경 영상과 배경 영상의 경계 영역에 블러링 효과를 주어 두 영상의 분리감을 최소화한다. 블러링 효과를 위해 5ㅧ5 마스크를 가지는 가우시안 완곡화 필터를 적용하였으며 가우시안 완곡화 필터의 형식은 다음 수학식에 따라 정의될 수 있다.On the other hand, even if the color and brightness are well corrected, if the boundary between the background and the person is not smoothly processed, the human area can be cut with scissors to give a feeling of being attached to another background. In order to solve this problem, the background image synthesizer 40 in this embodiment minimizes the separation between the two images by blurring the boundary area between the foreground image and the background image. For the blurring effect, a Gaussian smoothing filter with a 5 ㅧ 5 mask is applied, and the type of Gaussian smoothing filter can be defined according to the following equation.

Figure 112008028898119-PAT00072
Figure 112008028898119-PAT00072

가우시안 완곡화 필터의 실시간 적용을 위하여 매번 계산하지 않고 미리 계산된 필터를 사용할 수 있으며, 이러한 필터의 형태를 도 8에 도시하였다. 그리고 필터의 적용 범위는, 전경과 배경으로 분할된 영상에서 에지를 구하고, 팽창 연산을 수행하여 블러링 마스크를 생성함으로써 적용 범위를 제한한다.For real-time application of the Gaussian smoothing filter, a pre-calculated filter may be used without calculating each time, and the shape of such a filter is illustrated in FIG. 8. The application range of the filter limits the application range by obtaining an edge from an image divided into a foreground and a background, and performing an expansion operation to generate a blur mask.

도 9는 블러링 마스크와 가우시안 완곡화 필터가 적용되는 모습을 보여주기위한 도면이다. 도 9에서, (a)는 필터를 사용하지 않은 배경 대체 결과에 따른 영상을, (b)는 필터를 적용하기 위한 블러링 마스크를, (c)는 블러링 마스크를 이용하여 가우시안 완곡화 필터를 적용한 결과에 따른 영상을 나타낸다. FIG. 9 is a diagram illustrating a state in which a blurring mask and a Gaussian smoothing filter are applied. In FIG. 9, (a) shows an image according to a background replacement result without using a filter, (b) shows a blurring mask for applying the filter, and (c) shows a Gaussian smoothing filter using the blurring mask. The image according to the applied result is shown.

도 10은 상술한 본 발명의 실시예에 따라 입력 영상의 배경을 새로운 배경으 로 대체한 결과를 나타낸다. 도 9에서 (a-1), (a-2), (a-3)은 입력 영상을, (b-1), (b-2), (b-3)은 입력 영상의 배경을 새로운 배경으로 대체한 결과를 나타낸다. 10 illustrates a result of replacing the background of the input image with a new background according to the embodiment of the present invention described above. In FIG. 9, (a-1), (a-2), and (a-3) denote input images, and (b-1), (b-2) and (b-3) denote new backgrounds of the input image. Replace with

한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. The computer-readable recording medium may be a magnetic storage medium (for example, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (for example, a CD-ROM, DVD, etc.) and a carrier wave (for example, the Internet). Storage medium).

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.

도 1은 본 발명의 일 실시예에 따른 영상을 전경과 배경으로 분리하는 장치의 블록도이다.1 is a block diagram of an apparatus for separating an image into a foreground and a background according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따라서 입력 영상이 전경과 배경으로 분리된 결과를 보여준다. 2 illustrates a result of splitting an input image into a foreground and a background according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따라 입력 영상이 전경과 배경으로 분리되는 과정을 나타낸다. 3 illustrates a process of separating an input image into a foreground and a background according to an embodiment of the present invention.

도 4는 본 발명의 다른 실시예에 따른 영상을 전경과 배경으로 분리하는 장치의 블록도이다. 4 is a block diagram of an apparatus for separating an image into a foreground and a background according to another embodiment of the present invention.

도 5는 본 발명에 따른 시간적 전경 확률 모델을 나타내는 도면이다.5 is a diagram illustrating a temporal foreground probability model according to the present invention.

도 6은 본 발명의 일 실시예에 따른, 영상을 전경과 배경으로 분리하여 배경을 대체하는 장치의 블록도이다.FIG. 6 is a block diagram of an apparatus for replacing an image by separating an image into a foreground and a background according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따라 배경 영상의 색상 또는 밝기를 선택적으로 보정하는 방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method of selectively correcting color or brightness of a background image according to an embodiment of the present invention.

도 8은 가우시안 완곡화 필터의 실시간 적용을 위하여 미리 계산된 필터의 형태를 나타낸다.8 shows the form of a filter calculated in advance for real-time application of the Gaussian smoothing filter.

도 9는 블러링 마스크와 가우시안 완곡화 필터가 적용되는 모습을 보여주기위한 도면이다. FIG. 9 is a diagram illustrating a state in which a blurring mask and a Gaussian smoothing filter are applied.

도 10은 본 발명의 일 실시예에 따라 입력 영상의 배경을 새로운 배경으로 대체한 결과를 나타낸다.10 illustrates a result of replacing a background of an input image with a new background according to an embodiment of the present invention.

Claims (26)

영상을 전경과 배경으로 분리하는 방법에 있어서,In the method for separating the image into the foreground and background, (a) 입력되는 현재 프레임의 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 단계;(a) comparing the image of the input current frame with the background model and separating the image into a foreground and a background in pixel units; (b) 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 단계;(b) dividing the image into a plurality of regions, and extracting regions of uncertainty whether the foreground region or the background region is one of the divided regions; (c) 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 단계; 및(c) classifying the extracted areas into a foreground area and a background area; And (d) 상기 (c) 단계에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하는 단계를 포함하는 것을 특징으로 하는 전경 배경 분리 방법.and (d) correcting the foreground background separation result of the pixels belonging to the extracted regions according to the results classified in step (c). 제1항에 있어서,The method of claim 1, 상기 배경 모델을 생성하는 단계를 더 포함하고, 상기 배경 모델은 전경에 해당하는 물체 또는 사람이 등장하기 이전 프레임까지의 매 프레임마다 학습된 모델을 따르는 것을 특징으로 하는 전경 배경 분리 방법.Generating the background model, wherein the background model follows a learned model every frame up to a frame before an object or person corresponding to the foreground appears. 제1항에 있어서,The method of claim 1, 상기 (a) 단계는, 화소 단위로 상기 영상과 상기 배경 영상의 유사도를 계산하고, 상기 계산된 유사도를 소정 제1 임계값과 비교함으로써 상기 영상을 전경과 배경으로 분리하는 것을 특징으로 하는 전경 배경 분리 방법.In the step (a), the foreground background may be divided into a foreground and a background by calculating a similarity between the image and the background image in pixel units and comparing the calculated similarity with a predetermined first threshold. Separation method. 제1항에 있어서,The method of claim 1, 상기 (b) 단계는, 상기 분할된 영역들 각각에 대하여, 상기 (a) 단계에서 화소 단위로 전경과 배경으로 분리된 결과를 이용하여 전경 영역인지 배경 영역인지 불확실할 확률을 계산하고, 상기 계산된 확률을 소정 제2 임계값과 비교함으로써 상기 불확실할 영역들을 추출하는 것을 특징으로 하는 전경 배경 분리 방법.In the step (b), for each of the divided areas, the probability of uncertainty as to whether it is a foreground area or a background area is calculated by using the result separated into the foreground and the background by the pixel unit in the step (a), and the calculation is performed. Extracting the areas to be uncertain by comparing the estimated probability with a predetermined second threshold. 제1항에 있어서, 상기 (c) 단계는,The method of claim 1, wherein step (c) comprises: (c1) 상기 추출된 영역들 각각에 대하여, 전경 영역일 확률을 계산하는 단계; 및(c1) for each of the extracted regions, calculating a probability of being a foreground region; And (c2) 상기 계산된 확률을 소정 제3 임계값과 비교함으로써 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 단계를 포함하는 것을 특징으로 하는 전경 배경 분리 방법.(c2) classifying the extracted areas into a foreground area and a background area by comparing the calculated probability with a predetermined third threshold value. 제5항에 있어서,The method of claim 5, 상기 (a) 단계는, 화소 단위로 상기 영상과 상기 배경 영상의 유사도를 계산하고, 상기 계산된 유사도를 소정 제1 임계값과 비교함으로써 상기 영상을 전경과 배경으로 분리하며,In the step (a), the similarity between the image and the background image is calculated in pixel units, and the image is separated into the foreground and the background by comparing the calculated similarity with a predetermined first threshold value. 상기 (c1) 단계는, 상기 계산된 유사도를 이용하여 상기 전경 영역일 확률을 계산하는 것을 특징으로 하는 전경 배경 분리 방법.In the step (c1), the foreground background separation method may be calculated using the calculated similarity. 제6항에 있어서,The method of claim 6, 상기 전경 영역일 확률은 다음 수학식에 따라 구해지는 것을 특징으로 하는 전경 배경 분리 방법.The probability of the foreground area is calculated according to the following equation.
Figure 112008028898119-PAT00073
Figure 112008028898119-PAT00073
여기서, P Fg (R i )는 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )는 불확실 영역 R i 에서의 전경 화소의 개수를, N Bg (R i )는 불확실 영역 R i 에서의 배경 화소의 개수를 의미한다. Where P Fg (R i ) is the foreground area of the uncertainty region R i , N Fg (R i ) is the number of foreground pixels in the uncertainty area R i , and N Bg (R i ) is the uncertainty area R i Means the number of background pixels.
제5항에 있어서,The method of claim 5, 소정의 과거 프레임으로부터 상기 현재 프레임까지 상기 (a) 단계에서 화소 단위로 전경과 배경으로 분리된 결과 영상을 누적하여 전경 확률 모델을 생성하는 단계를 더 포함하고, Generating a foreground probability model by accumulating a resultant image separated into a foreground and a background in pixel units from a predetermined past frame to the current frame in step (a); 상기 (c1) 단계는, 상기 생성된 전경 확률 모델을 이용하여 상기 전경 영역일 확률을 계산하는 것을 특징으로 하는 전경 배경 분리 방법.In the step (c1), the foreground background separation method may be calculated using the generated foreground probability model. 제8항에 있어서,The method of claim 8, 상기 전경 확률 모델은, 다음 수학식에 따라 표현되는 것을 특징으로 하는 전경 배경 분리 방법.The foreground probability model is a foreground background separation method, characterized in that represented by the following equation.
Figure 112008028898119-PAT00074
Figure 112008028898119-PAT00074
여기서,
Figure 112008028898119-PAT00075
는 프레임 t의 영상에서 화소 p가 전경 화소일 확률을,
Figure 112008028898119-PAT00076
는 프레임 t-1의 영상에서 화소 p가 전경 화소일 확률을,
Figure 112008028898119-PAT00077
는 프레임 t의 영상에서 화소 p의 전경 분리 결과값을 의미하며,
Figure 112008028898119-PAT00078
는 소정 값이다.
here,
Figure 112008028898119-PAT00075
Is the probability that pixel p is a foreground pixel in an image of frame t,
Figure 112008028898119-PAT00076
Is the probability that pixel p is a foreground pixel in the image of frame t-1,
Figure 112008028898119-PAT00077
Represents the foreground separation result of the pixel p in the image of the frame t,
Figure 112008028898119-PAT00078
Is a predetermined value.
제9항에 있어서,The method of claim 9, 상기 전경 영역일 확률은 다음 수학식에 따라 구해지는 것을 특징으로 하는 전경 배경 분리 방법.The probability of the foreground area is calculated according to the following equation.
Figure 112008028898119-PAT00079
Figure 112008028898119-PAT00079
여기서, P Fg t (R i )는 현재 프레임인 t번째 프레임에서 불확실 영역 R i 의 전경 영역일 확률을, P Fg t-1 (R i )은 이전 프레임인 t-1번째 프레임에서의 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )N Bg (R i )는 t번째 프레임에서 불확실 영역 R i 의 전경 화소의 개수 및 배경 화소의 개수를 나타낸다. Here, P Fg t (R i ) is the probability of the foreground area of the uncertainty region R i in the t-th frame that is the current frame, and P Fg t-1 (R i ) is the uncertainty area in the t-1 th frame that is the previous frame. For the probability that it is the foreground region of R i , N Fg (R i ) and N Bg (R i ) represent the number of foreground pixels and background pixels of uncertain region R i in the t-th frame.
제1항 내지 제10항 중 어느 한 항에 기재된, 영상을 전경과 배경으로 분리하 는 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method of separating an image into a foreground and a background, according to any one of claims 1 to 10. 영상을 전경과 배경으로 분리하는 장치에 있어서,In the device for separating the image into the foreground and background, 입력되는 현재 프레임의 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 화소 단위 분리부;A pixel unit separator which separates the image into a foreground and a background by pixel by comparing an image of an input current frame with a background model; 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 불확실 영역 추출부;An uncertain region extraction unit for dividing the image into a plurality of regions and extracting regions of uncertainty whether the image is a foreground region or a background region; 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 영역 단위 분류부; 및An area unit classifying unit classifying the extracted areas into a foreground area and a background area; And 상기 영역 단위 분류부에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하는 보정부를 포함하는 것을 특징으로 하는 전경 배경 분리 장치.And a correcting unit configured to correct a foreground background separation result of pixels belonging to the extracted areas according to the result classified by the area unit classifying unit. 제12항에 있어서,The method of claim 12, 상기 배경 모델을 생성하는 배경 모델 생성부를 더 포함하고, 상기 배경 모델은 전경에 해당하는 물체 또는 사람이 등장하기 이전 프레임까지의 매 프레임마다 학습된 모델을 따르는 것을 특징으로 하는 전경 배경 분리 장치.And a background model generator for generating the background model, wherein the background model follows a learned model every frame up to a frame before an object or a person corresponding to the foreground appears. 제12항에 있어서,The method of claim 12, 상기 화소 단위 분리부는, 화소 단위로 상기 영상과 상기 배경 영상의 유사 도를 계산하고, 상기 계산된 유사도를 소정 제1 임계값과 비교함으로써 상기 영상을 전경과 배경으로 분리하는 것을 특징으로 하는 전경 배경 분리 방법.The pixel unit separator may separate the image into a foreground and a background by calculating a similarity degree between the image and the background image in pixel units and comparing the calculated similarity with a predetermined first threshold value. Separation method. 제12항에 있어서,The method of claim 12, 상기 불확실 영역 추출부는, 상기 분할된 영역들 각각에 대하여, 상기 화소 단위 분리부에서 화소 단위로 전경과 배경으로 분리된 결과를 이용하여 전경 영역인지 배경 영역인지 불확실할 확률을 계산하고, 상기 계산된 확률을 소정 제2 임계값과 비교함으로써 상기 불확실할 영역들을 추출하는 것을 특징으로 하는 전경 배경 분리 장치.The uncertainty region extractor calculates a probability of uncertainty whether the image is a foreground region or a background region by using a result obtained by dividing the foreground and the background by the pixel unit in each of the divided regions. And extract areas of uncertainty by comparing a probability with a predetermined second threshold. 제12항에 있어서,The method of claim 12, 상기 영역 단위 분류부는, 상기 추출된 영역들 각각에 대하여, 전경 영역일 확률을 계산하고, 상기 계산된 확률을 소정 제3 임계값과 비교함으로써 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 것을 특징으로 하는 전경 배경 분리 장치.The area unit classifying unit classifies the extracted areas into a foreground area and a background area by calculating a probability of being a foreground area and comparing the calculated probability with a predetermined third threshold value for each of the extracted areas. Featuring foreground background separation devices. 제16항에 있어서,The method of claim 16, 상기 화소 단위 분리부는, 화소 단위로 상기 영상과 상기 배경 영상의 유사도를 계산하고, 상기 계산된 유사도를 소정 제1 임계값과 비교함으로써 상기 영상을 전경과 배경으로 분리하며,The pixel unit separator may divide the image into the foreground and the background by calculating a similarity between the image and the background image in pixel units and comparing the calculated similarity with a predetermined first threshold value. 상기 영역 단위 분류부는, 상기 계산된 유사도를 이용하여 상기 전경 영역일 확률을 계산하는 것을 특징으로 하는 전경 배경 분리 장치.And the area unit classifying unit calculates a probability of the foreground area using the calculated similarity. 제17항에 있어서,The method of claim 17, 상기 전경 영역일 확률은 다음 수학식에 따라 구해지는 것을 특징으로 하는 전경 배경 분리 장치.The foreground background separation apparatus, wherein the probability of the foreground region is calculated according to the following equation.
Figure 112008028898119-PAT00080
Figure 112008028898119-PAT00080
여기서, P Fg (R i )는 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )는 불확실 영역 R i 에서의 전경 화소의 개수를, N Bg (R i )는 불확실 영역 R i 에서의 배경 화소의 개수를 의미한다. Where P Fg (R i ) is the foreground area of the uncertainty region R i , N Fg (R i ) is the number of foreground pixels in the uncertainty area R i , and N Bg (R i ) is the uncertainty area R i Means the number of background pixels.
제16항에 있어서,The method of claim 16, 소정의 과거 프레임으로부터 상기 현재 프레임까지 상기 화소 단위 분리부에서 화소 단위로 전경과 배경으로 분리된 결과 영상을 누적하여 전경 확률 모델을 생성하는 확률 모델 생성부를 더 포함하고, And a probability model generator configured to accumulate a resultant image separated into a foreground and a background by a pixel unit from a predetermined past frame to the current frame to generate a foreground probability model. 상기 영역 단위 분류부는, 상기 생성된 전경 확률 모델을 이용하여 상기 전경 영역일 확률을 계산하는 것을 특징으로 하는 전경 배경 분리 장치.And the area unit classifier calculates a probability of the foreground area by using the generated foreground probability model. 제19항에 있어서,The method of claim 19, 상기 전경 확률 모델은, 다음 수학식에 따라 표현되는 것을 특징으로 하는 전경 배경 분리 장치.The foreground probability model is the foreground background separation apparatus, characterized in that represented by the following equation.
Figure 112008028898119-PAT00081
Figure 112008028898119-PAT00081
여기서,
Figure 112008028898119-PAT00082
는 프레임 t의 영상에서 화소 p가 전경 화소일 확률을,
Figure 112008028898119-PAT00083
는 프레임 t-1의 영상에서 화소 p가 전경 화소일 확률을,
Figure 112008028898119-PAT00084
는 프레임 t의 영상에서 화소 p의 전경 분리 결과값을 의미하며,
Figure 112008028898119-PAT00085
는 소정 값이다.
here,
Figure 112008028898119-PAT00082
Is the probability that pixel p is a foreground pixel in an image of frame t,
Figure 112008028898119-PAT00083
Is the probability that pixel p is a foreground pixel in the image of frame t-1,
Figure 112008028898119-PAT00084
Represents the foreground separation result of the pixel p in the image of the frame t,
Figure 112008028898119-PAT00085
Is a predetermined value.
제20항에 있어서,The method of claim 20, 상기 전경 영역일 확률은 다음 수학식에 따라 구해지는 것을 특징으로 하는 전경 배경 분리 장치.The foreground background separation apparatus, wherein the probability of the foreground region is calculated according to the following equation.
Figure 112008028898119-PAT00086
Figure 112008028898119-PAT00086
여기서, P Fg t (R i )는 현재 프레임인 t번째 프레임에서 불확실 영역 R i 의 전경 영역일 확률을, P Fg t-1 (R i )은 이전 프레임인 t-1번째 프레임에서의 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )N Bg (R i )는 t번째 프레임에서 불확실 영역 R i 의 전경 화소의 개수 및 배경 화소의 개수를 나타낸다. Here, P Fg t (R i ) is the probability of the foreground area of the uncertainty region R i in the t-th frame that is the current frame, and P Fg t-1 (R i ) is the uncertainty area in the t-1 th frame that is the previous frame. For the probability that it is the foreground region of R i , N Fg (R i ) and N Bg (R i ) represent the number of foreground pixels and background pixels of uncertain region R i in the t-th frame.
영상을 전경과 배경으로 분리하여 배경을 대체하는 방법에 있어서,In the method to replace the background by separating the image into the foreground and background, (a) 입력되는 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 단계;(a) comparing the input image with a background model and separating the image into a foreground and a background in pixel units; (b) 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 단계;(b) dividing the image into a plurality of regions, and extracting regions of uncertainty whether the foreground region or the background region is one of the divided regions; (c) 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 단계;(c) classifying the extracted areas into a foreground area and a background area; (d) 상기 (c) 단계에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하여, 전경 영상을 출력하는 단계; 및(d) correcting a foreground background separation result of pixels belonging to the extracted areas according to the results classified in step (c), and outputting a foreground image; And (e) 상기 전경 영상에 미리 마련된 배경 영상을 합성하는 단계를 포함하는 것을 특징으로 하는 배경 대체 방법.and (e) synthesizing the background image prepared in advance on the foreground image. 제22항에 있어서,The method of claim 22, 상기 (e) 단계는, 상기 전경 영상과 상기 배경 영상의 각 컬러채널 값에 따라 상기 배경 영상의 색상을 보정하는 단계를 포함하는 것을 특징으로 하는 배경 대체 장치.The step (e), the background replacement apparatus comprising the step of correcting the color of the background image according to the value of each color channel of the foreground image and the background image. 제22항에 있어서,The method of claim 22, 상기 (e) 단계는, 상기 전경 영상의 색상 정보를 분석하고, 특정 컬러채널에 편중되어 있는지 여부에 따라서 선택적으로, 상기 전경 영상과 배경 영상의 각 컬러채널 값에 따라 상기 배경 영상의 색상을 보정하거나, 상기 배경 영상의 밝기를 보정하는 단계를 포함하는 것을 특징으로 하는 배경 대체 방법.In the step (e), the color information of the foreground image is analyzed, and the color of the background image is selectively corrected according to each color channel value of the foreground image and the background image, depending on whether or not a particular color channel is biased. Or correcting the brightness of the background image. 제22항 내지 제24항 중 어느 한 항에 기재된, 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium according to any one of claims 22 to 24, wherein a program for recording a program for executing a method of replacing a background by separating an image into a foreground and a background is recorded. 영상을 전경과 배경으로 분리하여 배경을 대체하는 장치에 있어서,In the device to replace the background by separating the image into the foreground and background, 입력되는 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 화소 단위 분리부;A pixel unit separator for comparing the input image with the background model and separating the image into a foreground and a background in pixel units; 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 불확실 영역 추출부;An uncertain region extraction unit for dividing the image into a plurality of regions and extracting regions of uncertainty whether the image is a foreground region or a background region; 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 영역 단위 분류부;An area unit classifying unit classifying the extracted areas into a foreground area and a background area; 상기 영역 단위 분류부에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하여, 전경 영상을 출력하는 보정부; 및A correction unit for correcting a foreground background separation result of pixels belonging to the extracted areas according to the result classified by the area unit classifying unit, and outputting a foreground image; And 상기 전경 영상에 미리 마련된 배경 영상을 합성하는 배경 영상 합성부를 포함하는 것을 특징으로 하는 배경 대체 장치.And a background image synthesizer configured to synthesize a background image prepared in advance on the foreground image.
KR1020080037563A 2008-04-23 2008-04-23 Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background KR101471199B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080037563A KR101471199B1 (en) 2008-04-23 2008-04-23 Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080037563A KR101471199B1 (en) 2008-04-23 2008-04-23 Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background

Publications (2)

Publication Number Publication Date
KR20090111939A true KR20090111939A (en) 2009-10-28
KR101471199B1 KR101471199B1 (en) 2014-12-09

Family

ID=41553181

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080037563A KR101471199B1 (en) 2008-04-23 2008-04-23 Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background

Country Status (1)

Country Link
KR (1) KR101471199B1 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119056A (en) * 2010-04-26 2011-11-02 삼성테크윈 주식회사 Apparatus for detecting moving object and method thereof
WO2012020977A2 (en) * 2010-08-10 2012-02-16 삼성전자주식회사 Image processing device and method
KR101158728B1 (en) * 2010-03-31 2012-06-22 한국과학기술원 Real-time Foreground Detection Method
CN102707864A (en) * 2011-03-28 2012-10-03 日电(中国)有限公司 Object segmentation method and system based on mixed marks
KR101297396B1 (en) * 2011-12-28 2013-08-14 충북대학교 산학협력단 Method of shadow removal based on relative similarity
US8842908B2 (en) 2010-12-20 2014-09-23 Samsung Electronics Co., Ltd. Method of separating front view and background and apparatus
US8908967B2 (en) 2012-03-13 2014-12-09 Samsung Techwin Co., Ltd. Image processing method using foreground probability
US9489588B2 (en) 2014-10-15 2016-11-08 Postech Academy-Industry Foundation Matting method for extracting foreground object and apparatus for performing the matting method
KR20160136157A (en) * 2015-05-19 2016-11-29 에스케이텔레콤 주식회사 Method and Apparatus for Segmenting Background Motion Region From Image
KR20170107487A (en) * 2015-02-16 2017-09-25 삼성전자주식회사 Metadata-based image processing method and apparatus
KR20210030466A (en) * 2018-10-23 2021-03-17 삼성전자주식회사 Image acquisition device and control method thereof
KR20220085178A (en) * 2020-12-15 2022-06-22 한국과학기술연구원 Object/region detection and classification system with improved computer memory efficiency
WO2023287250A1 (en) * 2021-07-16 2023-01-19 Samsung Electronics Co., Ltd. Brightness adjustment method and apparatus thereof
US12003859B2 (en) 2021-07-16 2024-06-04 Samsung Electronics Co., Ltd. Brightness adjustment method, and apparatus thereof
WO2024136149A1 (en) * 2022-12-21 2024-06-27 삼성전자 주식회사 Method and device for processing image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090041297A1 (en) * 2005-05-31 2009-02-12 Objectvideo, Inc. Human detection and tracking for security applications

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101158728B1 (en) * 2010-03-31 2012-06-22 한국과학기술원 Real-time Foreground Detection Method
KR20110119056A (en) * 2010-04-26 2011-11-02 삼성테크윈 주식회사 Apparatus for detecting moving object and method thereof
WO2012020977A2 (en) * 2010-08-10 2012-02-16 삼성전자주식회사 Image processing device and method
WO2012020977A3 (en) * 2010-08-10 2012-04-19 삼성전자주식회사 Image processing device and method
US8842908B2 (en) 2010-12-20 2014-09-23 Samsung Electronics Co., Ltd. Method of separating front view and background and apparatus
CN102707864A (en) * 2011-03-28 2012-10-03 日电(中国)有限公司 Object segmentation method and system based on mixed marks
KR101297396B1 (en) * 2011-12-28 2013-08-14 충북대학교 산학협력단 Method of shadow removal based on relative similarity
US8908967B2 (en) 2012-03-13 2014-12-09 Samsung Techwin Co., Ltd. Image processing method using foreground probability
US9489588B2 (en) 2014-10-15 2016-11-08 Postech Academy-Industry Foundation Matting method for extracting foreground object and apparatus for performing the matting method
KR20170107487A (en) * 2015-02-16 2017-09-25 삼성전자주식회사 Metadata-based image processing method and apparatus
US10319085B2 (en) 2015-02-16 2019-06-11 Samsung Electronics Co., Ltd. Metadata-based image processing method and apparatus
KR20160136157A (en) * 2015-05-19 2016-11-29 에스케이텔레콤 주식회사 Method and Apparatus for Segmenting Background Motion Region From Image
KR20210030466A (en) * 2018-10-23 2021-03-17 삼성전자주식회사 Image acquisition device and control method thereof
US11699213B2 (en) 2018-10-23 2023-07-11 Samsung Electronics Co., Ltd. Image-capturing device and method for controlling same
KR20220085178A (en) * 2020-12-15 2022-06-22 한국과학기술연구원 Object/region detection and classification system with improved computer memory efficiency
WO2023287250A1 (en) * 2021-07-16 2023-01-19 Samsung Electronics Co., Ltd. Brightness adjustment method and apparatus thereof
US12003859B2 (en) 2021-07-16 2024-06-04 Samsung Electronics Co., Ltd. Brightness adjustment method, and apparatus thereof
WO2024136149A1 (en) * 2022-12-21 2024-06-27 삼성전자 주식회사 Method and device for processing image

Also Published As

Publication number Publication date
KR101471199B1 (en) 2014-12-09

Similar Documents

Publication Publication Date Title
KR101471199B1 (en) Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background
KR101670282B1 (en) Video matting based on foreground-background constraint propagation
Hillman et al. Alpha channel estimation in high resolution images and image sequences
US20200258196A1 (en) Image processing apparatus, image processing method, and storage medium
KR102142567B1 (en) Image composition apparatus using virtual chroma-key background, method and computer program
Cavallaro et al. Shadow-aware object-based video processing
JP2009031939A (en) Image processing apparatus, method and program
Vosters et al. Background subtraction under sudden illumination changes
US20170116741A1 (en) Apparatus and Methods for Video Foreground-Background Segmentation with Multi-View Spatial Temporal Graph Cuts
CN111815528A (en) Bad weather image classification enhancement method based on convolution model and feature fusion
JP2011054080A (en) Image processing apparatus, method and program
Kim et al. Adaptive patch based convolutional neural network for robust dehazing
CN107154046A (en) A kind of method of video background processing and secret protection
Kim et al. Effective character segmentation for license plate recognition under illumination changing environment
CN102521610B (en) Image filtering method and device
CN110009708B (en) Color development transformation method, system and terminal based on image color segmentation
CN111583357A (en) Object motion image capturing and synthesizing method based on MATLAB system
Wang et al. Robust image chroma-keying: a quadmap approach based on global sampling and local affinity
Arsic et al. Improved lip detection algorithm based on region segmentation and edge detection
Gallego et al. Enhanced bayesian foreground segmentation using brightness and color distortion region-based model for shadow removal
CN104298961B (en) Video method of combination based on Mouth-Shape Recognition
KR20170104825A (en) Method of holl-filling, recording medium and apparatus for performing the method
JP4780564B2 (en) Image processing apparatus, image processing method, and image processing program
JP2000348173A (en) Lip extraction method
Sanmiguel et al. Pixel-based colour contrast for abandoned and stolen object discrimination in video surveillance

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant