KR20090111939A - Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background - Google Patents
Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background Download PDFInfo
- Publication number
- KR20090111939A KR20090111939A KR1020080037563A KR20080037563A KR20090111939A KR 20090111939 A KR20090111939 A KR 20090111939A KR 1020080037563 A KR1020080037563 A KR 1020080037563A KR 20080037563 A KR20080037563 A KR 20080037563A KR 20090111939 A KR20090111939 A KR 20090111939A
- Authority
- KR
- South Korea
- Prior art keywords
- foreground
- background
- image
- area
- probability
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000000926 separation method Methods 0.000 claims description 37
- 238000012937 correction Methods 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000002123 temporal effect Effects 0.000 description 9
- 238000009499 grossing Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 영상 처리에 관한 것으로, 보다 상세하게는, 영상을 전경과 배경으로 분리하는 방법 및 장치, 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법 및 장치, 그리고 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체에 관한 것이다. The present invention relates to image processing, and more particularly, to a method and apparatus for separating an image into a foreground and a background, a method and apparatus for replacing a background by separating an image into a foreground and a background, and a program for executing the method. The invention relates to a computer-readable recording medium having recorded thereon.
영상을 전경과 배경으로 분리하는 기술은 비디오 감시, 인간 계수(human counting), 비디오 편집 등을 포함한 다양한 시각 시스템에서 사용된다. 특히 근래에 인터넷 망의 발달과 웹카메라의 등장으로 음성과 영상을 함께 이용한 화상대화가 상용화되고 있는데, 이러한 화상대화에서는 본인이 원하지 않은 많은 부분이 카메라로 노출될 가능성이 있다. 따라서 통신의 주체가 되는 사람과 배경을 분리하여 노출을 원하지 않는 배경을 새로운 배경으로 대체하여 전송함으로써 개인의 사생활을 보호하는 방안이 강구되고 있다. 이러한 배경 대체 기술에 있어서도 영상을 전 경에 해당하는 사람과 배경으로 분리하는 것이 선행되어야 한다. Techniques for separating images into foreground and background are used in a variety of visual systems, including video surveillance, human counting, and video editing. In particular, with the development of the internet network and the emergence of web cameras, video conversations using both voice and video have been commercialized in recent years. Therefore, a method of protecting an individual's privacy by separating a background from a person who is the subject of communication and transmitting a new background is replaced by a background that is not exposed. In such a background replacement technique, the separation of the image into the background and the person corresponding to the foreground should be preceded.
종래의 영상 분리 기술로 배경 차분을 통한 움직이는 객체를 분리하는 방법이 있다. 배경 차분은 현재 이미지를, 일정 기간 동안 정적인 배경으로부터 얻어지는 참조 영상으로부터 동일한 부분을 차분하는 방법이다. 이러한 제거 과정을 거치면, 화면 상에는 단지 움직이는 물체 또는 새로운 물체만이 남게 된다. 실시간 처리는 가능하나 조명변화에 민감하다는 단점이 있으며 배경과 유사한 색상의 옷을 입은 사람이 등장하게 되면 영상 분리가 정확하지 않다는 문제점을 가지고 있다. There is a method of separating a moving object through the background difference with conventional image separation technology. Background difference is a method of difference of the same part from the reference image obtained from the static background for a certain period of time. After this removal process, only moving objects or new objects remain on the screen. Although it is possible to process in real time, it has a disadvantage of being sensitive to changes in lighting, and there is a problem that image separation is not accurate when a person dressed in a color similar to the background appears.
모델 기반의 영상 분리 기술은 사람의 대략적인 위치를 추정하기 위해 칼라정보 이용하여 얼굴영역을 검출한 뒤, 사람의 상반신만 나타난다는 것을 가정하여 사람의 머리와 몸통 모델을 이용하여 영상을 분리해 내는 기술이다. 모델을 이용하는 방법이기 때문에 사람의 상반신이 아닌 전신이 나타나거나 사람이 손을 드는 등의 다양한 자세를 취하였을 때는 영상 분리가 불가능하다는 단점이 있다.Model-based image separation technology detects the face region using color information to estimate the approximate location of a person, and then separates the image using the human head and torso model assuming that only the upper body of the person appears. Technology. Because of the method of using a model, image separation is not possible when various postures such as the whole body appear or the hand is raised, not the upper body of the person.
모션 기반의 영상 분리 기술은 입력영상에서 광류(Optical Flow) 등과 같은 모션 정보를 추출하여 알고리즘을 이용하여 이전 프레임과 현재프레임의 움직임을 추출한다. 추출된 움직임 정보는 배경과 움직이는 사람이 다르게 나타나기 때문에 움직이는 사람의 모션만을 추출하여 영상 분리를 하는 방법이다. 이 기술에 의하면, 사람이 움직이지 않으면 모션 정보가 나타나지 않기 때문에 움직이는 사람만 분리가 가능하며 또한 이전 프레임과 현재프레임의 조명 변화가 존재하지 않는다는 가정을 해야만 모션 정보를 정확히 추출해 낼 수 있기 때문에 약한 조명변화에도 민감하다는 단점이 있다. Motion-based image separation technology extracts motion information such as optical flow from an input image and extracts the movement of previous and current frames using an algorithm. The extracted motion information is a method of separating images by extracting only the motion of a moving person because the background and the moving person appear differently. According to this technology, if the person does not move, the motion information does not appear, so only the moving person can separate it, and the weak information because the motion information can be extracted accurately only by assuming that there is no light change of the previous frame and the current frame. The disadvantage is that it is sensitive to change.
또한, 스테레오 카메라를 이용하여 카메라로부터 물체까지의 거리를 측정하여 물체와 배경을 구별하는 방법이 있는데, 이 방법은 스테레오 카메라, 즉 두 대의 카메라가 필요하기 때문에, 장치의 크기가 커지고, 휴대성이 현저히 떨어지며 비용 면에서도 불리한 단점이 있다.In addition, there is a method of distinguishing the object and the background by measuring the distance from the camera to the object by using a stereo camera. This method requires a stereo camera, that is, two cameras. There is a significant disadvantage and a disadvantage in terms of cost.
본 발명이 이루고자 하는 기술적 과제는 단일 카메라를 이용하여 실시간으로 영상을 전경과 배경으로 정확하게 분리할 수 있는, 영상을 전경과 배경으로 분리하는 방법 및 장치, 그리고 상기 방법을 실행시키기 위한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. The present invention provides a method and apparatus for separating an image into a foreground and a background, which can accurately separate an image into a foreground and a background in real time using a single camera, and a computer-readable method for executing the method. To provide a recording medium.
본 발명이 이루고자 하는 다른 기술적 과제는 단일 카메라를 이용하여 실시간으로 영상을 전경과 배경으로 정확하게 분리하고, 영상의 배경을 다른 배경으로 대체할 수 있는, 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법 및 장치, 그리고 상기 방법을 실행시키기 위한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. Another technical object of the present invention is to accurately separate an image into a foreground and a background in real time using a single camera, and to replace the background by separating the image into the foreground and the background, which can replace the background of the image with another background. A method and apparatus, and a computer readable recording medium for executing the method.
상기 기술적 과제를 해결하기 위하여 본 발명에 따른, 영상을 전경과 배경으로 분리하는 방법은, (a) 입력되는 현재 프레임의 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 단계; (b) 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불 확실한 영역들을 추출하는 단계; (c) 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 단계; 및 (d) 상기 (c) 단계에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, a method of separating an image into a foreground and a background according to the present invention includes (a) comparing an image of an input current frame with a background model, and separating the image into a foreground and a background by a pixel unit. Making; (b) dividing the image into a plurality of regions and extracting unclear regions of the divided regions that are foreground or background regions; (c) classifying the extracted areas into a foreground area and a background area; And (d) correcting the foreground background separation result of the pixels belonging to the extracted areas according to the results classified in step (c).
여기서 상기 방법은, 상기 배경 모델을 생성하는 단계를 더 포함하고, 상기 배경 모델은 전경에 해당하는 물체 또는 사람이 등장하기 이전 프레임까지의 매 프레임마다 학습된 모델을 따를 수 있다.The method may further include generating the background model, wherein the background model may follow a learned model every frame up to a frame before an object or a person corresponding to the foreground appears.
또한, 상기 (a) 단계에서, 화소 단위로 상기 영상과 상기 배경 영상의 유사도를 계산하고, 상기 계산된 유사도를 소정 제1 임계값과 비교함으로써 상기 영상을 전경과 배경으로 분리할 수 있다.In operation (a), the image may be separated into a foreground and a background by calculating a similarity between the image and the background image in pixel units and comparing the calculated similarity with a predetermined first threshold.
또한, 상기 (b) 단계에서, 상기 분할된 영역들 각각에 대하여, 상기 (a) 단계에서 화소 단위로 전경과 배경으로 분리된 결과를 이용하여 전경 영역인지 배경 영역인지 불확실할 확률을 계산하고, 상기 계산된 확률을 소정 제2 임계값과 비교함으로써 상기 불확실할 영역들을 추출할 수 있다.Further, in step (b), for each of the divided regions, the probability of uncertainty as to whether it is a foreground area or a background area is calculated by using the result separated into the foreground and the background by the pixel unit in step (a), The areas to be uncertain may be extracted by comparing the calculated probability with a predetermined second threshold.
또한, 상기 (c) 단계는, (c1) 상기 추출된 영역들 각각에 대하여, 전경 영역일 확률을 계산하는 단계; 및 (c2) 상기 계산된 확률을 소정 제3 임계값과 비교함으로써 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 단계를 포함할 수 있다.In addition, the step (c), (c1) for each of the extracted areas, calculating the probability of the foreground area; And (c2) classifying the extracted areas into a foreground area and a background area by comparing the calculated probability with a predetermined third threshold.
또한, 상기 (a) 단계에서, 화소 단위로 상기 영상과 상기 배경 영상의 유사도를 계산하고, 상기 계산된 유사도를 소정 제1 임계값과 비교함으로써 상기 영상 을 전경과 배경으로 분리하며, 상기 (c1) 단계에서, 상기 계산된 유사도를 이용하여 상기 전경 영역일 확률을 계산할 수 있다.Further, in the step (a), the similarity between the image and the background image is calculated in pixel units, and the image is separated into the foreground and the background by comparing the calculated similarity with a predetermined first threshold value, and (c1). In step), the probability of the foreground area may be calculated using the calculated similarity.
또한, 상기 전경 영역일 확률은 다음 수학식에 따라 구해질 수 있다.In addition, the probability of the foreground area may be calculated according to the following equation.
여기서, P Fg (R i )는 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )는 불확실 영역 R i 에서의 전경 화소의 개수를, N Bg (R i )는 불확실 영역 R i 에서의 배경 화소의 개수를 의미한다. Where P Fg (R i ) is the foreground area of the uncertainty region R i , N Fg (R i ) is the number of foreground pixels in the uncertainty area R i , and N Bg (R i ) is the uncertainty area R i Means the number of background pixels.
또한, 상기 방법은, 소정의 과거 프레임으로부터 상기 현재 프레임까지 상기 (a) 단계에서 화소 단위로 전경과 배경으로 분리된 결과 영상을 누적하여 전경 확률 모델을 생성하는 단계를 더 포함하고, 상기 (c1) 단계에서, 상기 생성된 전경 확률 모델을 이용하여 상기 전경 영역일 확률을 계산할 수 있다.The method may further include generating a foreground probability model by accumulating a resultant image separated into a foreground and a background in units of pixels from a predetermined past frame to the current frame in step (a). In step), the probability of the foreground area may be calculated using the generated foreground probability model.
또한, 상기 전경 확률 모델은, 다음 수학식에 따라 표현될 수 있다.In addition, the foreground probability model may be expressed according to the following equation.
여기서, 는 프레임 t의 영상에서 화소 p가 전경 화소일 확률을, 는 프레임 t-1의 영상에서 화소 p가 전경 화소일 확률을, 는 프레임 t의 영상에서 화소 p의 전경 분리 결과값을 의미하며, 는 소정 값이다.here, Is the probability that pixel p is a foreground pixel in an image of frame t, Is the probability that pixel p is a foreground pixel in the image of frame t-1, Represents the foreground separation result of the pixel p in the image of the frame t, Is a predetermined value.
또한, 상기 전경 영역일 확률은 다음 수학식에 따라 구해질 수 있다.In addition, the probability of the foreground area may be calculated according to the following equation.
여기서, P Fg t (R i )는 현재 프레임인 t번째 프레임에서 불확실 영역 R i 의 전경 영역일 확률을, P Fg t-1 (R i )은 이전 프레임인 t-1번째 프레임에서의 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i ) 및 N Bg (R i )는 t번째 프레임에서 불확실 영역 R i 의 전경 화소의 개수 및 배경 화소의 개수를 나타낸다. Here, P Fg t (R i ) is the probability of the foreground area of the uncertainty region R i in the t-th frame that is the current frame, and P Fg t-1 (R i ) is the uncertainty area in the t-1 th frame that is the previous frame. For the probability that it is the foreground region of R i , N Fg (R i ) and N Bg (R i ) represent the number of foreground pixels and background pixels of uncertain region R i in the t-th frame.
상기 기술적 과제를 해결하기 위하여 상기된 본 발명에 따른 영상을 전경과 배경으로 분리하는 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In order to solve the above technical problem, there is provided a computer-readable recording medium having recorded thereon a program for executing a method for separating an image according to the present invention into a foreground and a background.
상기 기술적 과제를 해결하기 위하여 본 발명에 따른, 영상을 전경과 배경으로 분리하는 장치는, 입력되는 현재 프레임의 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 화소 단위 분리부; 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 불확실 영역 추출부; 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 영역 단위 분류부; 및 상기 영역 단위 분류부에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하는 보정부를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, an apparatus for separating an image into a foreground and a background according to the present invention includes comparing an image of an input current frame with a background model, and separating the image into a foreground and a background by a pixel unit. Separator; An uncertain region extraction unit for dividing the image into a plurality of regions and extracting regions of uncertainty whether the image is a foreground region or a background region; An area unit classifying unit classifying the extracted areas into a foreground area and a background area; And a correction unit configured to correct a foreground background separation result of pixels belonging to the extracted areas according to the result classified by the area unit classifying unit.
상기 다른 기술적 과제를 해결하기 위하여 본 발명에 따른, 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법은, (a) 입력되는 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 단계; (b) 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 단계; (c) 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 단계; (d) 상기 (c) 단계에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하여, 전경 영상을 출력하는 단계; 및 (e) 상기 전경 영상에 미리 마련된 배경 영상을 합성하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above other technical problem, a method of replacing a background by separating an image into a foreground and a background according to the present invention includes (a) comparing the input image with a background model and displaying the image in the foreground and background in units of pixels. Separating into; (b) dividing the image into a plurality of regions, and extracting regions of uncertainty whether the foreground region or the background region is one of the divided regions; (c) classifying the extracted areas into a foreground area and a background area; (d) correcting a foreground background separation result of pixels belonging to the extracted areas according to the results classified in step (c), and outputting a foreground image; And (e) synthesizing a background image prepared in advance in the foreground image.
여기서, 상기 (e) 단계는, 상기 전경 영상과 상기 배경 영상의 각 컬러채널 값에 따라 상기 배경 영상의 색상을 보정하는 단계를 포함할 수 있다.Here, the step (e) may include correcting the color of the background image according to each color channel value of the foreground image and the background image.
또한, 상기 (e) 단계는, 상기 전경 영상의 색상 정보를 분석하고, 특정 컬러채널에 편중되어 있는지 여부에 따라서 선택적으로, 상기 전경 영상과 배경 영상의 각 컬러채널 값에 따라 상기 배경 영상의 색상을 보정하거나, 상기 배경 영상의 밝기를 보정하는 단계를 포함할 수 있다.In addition, the step (e) is to analyze the color information of the foreground image, and optionally depending on whether or not to be biased in a particular color channel, the color of the background image in accordance with each color channel value of the foreground image and the background image Or correcting the brightness of the background image.
상기 다른 기술적 과제를 해결하기 위하여 상기된 본 발명에 따른 영상을 전경과 배경으로 분리하여 배경을 대체하는 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공한다.In order to solve the above other technical problem, there is provided a computer-readable recording medium having recorded thereon a program for executing a method of replacing a background by separating an image according to the present invention into a foreground and a background.
상기 다른 기술적 과제를 해결하기 위하여 본 발명에 따른 영상을 전경과 배경으로 분리하여 배경을 대체하는 장치는, 입력되는 영상을 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리하는 화소 단위 분리부; 상기 영상을 복수 개의 영역들로 분할하고, 상기 분할된 영역들 중 전경 영역인지 배경 영역인지 불확실한 영역들을 추출하는 불확실 영역 추출부; 상기 추출된 영역들을 전경 영역과 배경 영역으로 분류하는 영역 단위 분류부; 상기 영역 단위 분류부에서 분류된 결과에 따라 상기 추출된 영역들에 속한 화소들의 전경 배경 분리 결과를 보정하여, 전경 영상을 출력하는 보정부; 및 상기 전경 영상에 미리 마련된 배경 영상을 합성하는 배경 영상 합성부를 포함하는 것을 특징으로 한다.In order to solve the above other technical problem, an apparatus for replacing a background by separating an image according to the present invention into a foreground and a background includes: comparing the input image with a background model, and separating the image into a foreground and a background in pixel units. Unit separator; An uncertain region extraction unit for dividing the image into a plurality of regions and extracting regions of uncertainty whether the image is a foreground region or a background region; An area unit classifying unit classifying the extracted areas into a foreground area and a background area; A correction unit for correcting a foreground background separation result of pixels belonging to the extracted areas according to the result classified by the area unit classifying unit, and outputting a foreground image; And a background image synthesizer configured to synthesize a background image prepared in advance in the foreground image.
상술한 본 발명에 의하면, 영상을 복수 개의 영역들로 분할하고, 분할된 영역들 중 불확실한 영역들을 전경과 배경으로 분류하여 보정함으로써, 조명의 변화나 전경과 배경에 유사한 색상이 존재하더라도 실시간으로 정확하게 전경과 배경을 분리할 수 있다. 또한, 전경과 배경으로 분리된 결과 영상을 누적하여 생성된 전경 확률 모델을 이용함으로써 더 정확하게 전경과 배경을 분리할 수 있다.According to the present invention described above, by dividing the image into a plurality of areas, and by classifying and correcting the uncertain areas of the divided areas into the foreground and the background, even if there is a change in lighting or similar colors in the foreground and background accurately in real time You can separate foreground and background. In addition, by using the foreground probability model generated by accumulating the resultant image separated into the foreground and the background, the foreground and the background can be separated more accurately.
이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, the substantially identical components are represented by the same reference numerals, and thus redundant description will be omitted. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
도 1은 본 발명의 일 실시예에 따른, 영상을 전경과 배경으로 분리하는 장치의 블록도이다. 본 실시예에 따른 전경 배경 분리 장치(10)는, 배경 모델 생성부(100), 화소 단위 분리부(110), 불확실 영역 추출부(120), 영역 단위 분류부(130), 보정부(140)를 포함하여 이루어진다. 전경 배경 분리 장치(10)에는 카메라(미도시)로부터 획득된 프레임 단위의 영상이 입력된다. 1 is a block diagram of an apparatus for separating an image into a foreground and a background according to an embodiment of the present invention. The
배경 모델 생성부(100)는, 후술할 화소 단위 분리부(110)가 입력되는 영상을 전경과 배경으로 분리하고자 할 때 입력되는 영상과 비교 대상이 되는 배경 모델을 생성한다. 이때 배경 모델 생성부(100)는, 전경에 해당하는 물체 또는 사람이 영상에 등장하기 이전 프레임까지의 매 프레임마다 모델을 학습하고, 이렇게 학습된 모델을 배경 모델로서 생성하여 저장한다. 도시되지는 않았으나, 본 실시예에 따른 전경 배경 분리 장치(10)에는 상기 배경 모델을 저장하기 위한 저장 수단(미도시)이 포함될 수 있다.The background
이하에서는, 본 발명의 일 실시예에 따른 배경 모델에 관하여 보다 상세히 설명하기로 한다. 본 실시예에 따른 배경 모델에 의하면, 입력 영상 내의 임의의 화소 p는 다음과 같은 4개의 요소, 로 모델링된다. 여기서, 는 화소 p에서의 컬러 기댓값을, 는 컬러값의 표준편차를, 는 밝기 왜곡의 변화(variation of brightness distortion), 는 색도 왜곡의 변화(variation of chromaticity distortion)를 의미한다. 밝기 왜곡의 변화와, 색도 왜곡의 변화에 관하여는 논문 [T. Horprasert, D. Harwood, L.S. Davis "A Statistical Approach for Real-time Robust Background Subtraction and Shadow Detection", IEEE Frame Rate Workshop, pp. 1-19, 1999.]에 개시되어 있으므로, 상세한 설명은 생략하기로 한다.Hereinafter, a background model according to an embodiment of the present invention will be described in detail. According to the background model according to the present embodiment, any pixel p in the input image has four elements, Is modeled as: here, Is the color expected value at pixel p , Is the standard deviation of the color values, Is the variation of brightness distortion, Means variation of chromaticity distortion. Changes in brightness distortion and changes in chromatic distortion are described in the paper [T. Horprasert, D. Harwood, LS Davis, "A Statistical Approach for Real-time Robust Background Subtraction and Shadow Detection", IEEE Frame Rate Workshop, pp. 1-19, 1999., detailed description thereof will be omitted.
본 실시예에 의하면, 배경 모델 생성부(100)는 영상 내에 물체 또는 사람이 등장하기 전까지 매 프레임마다 을 계산한다. t번째 프레임에서 계산되는 를 라 표현하면, 예를 들어 N번째 프레임에서 사람이 등장했다면, N-1 번째 프레임까지 계산된 가 배경 모델로서 생성된다. According to the present exemplary embodiment, the
t번째 프레임에 대하여, 화소 p에서의 컬러 기댓값의 벡터 와 표준편차의 벡터 는 다음 수학식과 같이, r, g, b 컬러값 각각에 대한 평균 및 표준편차의 성분을 가진다.vector of color expected values in pixel p for the t-th frame Vector of standard deviations Has the components of the mean and standard deviation for each of the r, g and b color values, as shown in the following equation.
본 실시예에 의하면, 매 프레임마다 배경 모델을 학습하는 바, t번째 프레임의 영상 내 화소 p에서의 컬러값 i에 대한 평균 및 표준편차 는 다음 수학식에 따라 이전 프레임인 t-1 번째 프레임의 평균 및 표준편차 를 이용하여 구해질 수 있다.According to the present exemplary embodiment, the background model is trained every frame, and the average of the color value i at pixel p in the image of the t-th frame is obtained. And standard deviation Is the average of the previous frame, the t-1 th frame, according to the following equation And standard deviation Can be obtained using
여기서, 아래첨자 i는 r, g, b 중 어느 하나를, 는 화소 p에서의 컬러 i의 컬러값을 의미한다. Where the subscript i represents any one of r, g, b, Denotes the color value of the color i in the pixel p .
또한, t번째 프레임의 영상 내 화소 p에서의 밝기 왜곡 와 색도 왜곡 는 다음 수학식에 따라 구해질 수 있다.Also, the brightness distortion at the pixel p in the image of the t-th frame And chromatic distortion Can be obtained according to the following equation.
이때, t번째 프레임의 영상 내 화소 p에서의 밝기 왜곡의 변화도 와 색도 왜곡의 변화도 는 다음 수학식에 따라 이전 프레임인 t-1번째 프레임의 밝기 왜곡 의 변화 과 색도 왜곡의 변화 를 이용하여 구해질 수 있다. In this case, the variation of the brightness distortion in the pixel p in the image of the t-th frame And chromaticity distortion Is the change in brightness distortion of the previous frame, the t-1th frame, Of color and chromatic distortion Can be obtained using
배경 모델 생성부(100)에서, 전경에 해당하는 물체 또는 사람이 등장하는 프레임 이전의 프레임까지 상술한 바와 같이 학습된 배경 모델은 저장 수단(미도시)에 저장된다.In the background
배경 모델 생성부(100)에 의해 배경 모델이 생성되면, 화소 단위 분리부(110)는 입력되는 프레임의 영상을 배경 모델 생성부(100)에서 생성된 배경 모델과 비교하여, 상기 영상을 화소 단위로 전경과 배경으로 분리한다. 여기서, 입력되는 프레임은 전경에 해당하는 물체 또는 사람이 등장한 프레임 및 그 이후의 프레임들 각각을 의미하며, 화소 단위 분리부(110)는 이들 각 프레임마다의 영상을 배경 모델과 비교하여 화소 단위로 전경과 배경으로 분리한다. 화소 단위로 전경과 배경으로 분리한다는 것은, 다시 말하면 하나의 영상 내의 화소들 각각이 전경에 해당하는지 배경에 해당하는지를 구분하는 것이다. When the background model is generated by the
화소 단위 분리부(110)는 입력되는 영상을 배경 모델과 비교하기 위하여 영상에 속하는 각 화소마다, 입력되는 영상과 배경 모델의 유사도를 계산한다. 그리고 이 유사도에 따라서 각 화소를 전경 화소 또는 배경 화소 중 어느 하나로 분류하는데, 예를 들어 유사도가 높으면 배경 화소로, 유사도가 낮으면 전경 화소로 분 류한다. The
영상 내의 임의의 화소 p에 대한 유사도 l(p)는 밝기 왜곡 분포와 색도 왜곡 분포를 이용하여 다음 수학식에 따라 구해질 수 있다. The similarity l (p) for any pixel p in the image may be obtained according to the following equation using the brightness distortion distribution and the chromatic distortion distribution.
여기서, 는 화소 p에 대한 밝기 왜곡 분포를, 는 화소 p에 대한 색도 왜곡 분포를 의미하며, 는 실제적으로 색도 유사도가 밝기 유사도보다 상대적으로 적음을 반영하기 위한 값으로서, 1 이상의 소정 값이다. here, Is the brightness distortion distribution for pixel p , Denotes the chromatic distortion distribution for the pixel p , Is a value for reflecting that the chromaticity similarity is actually less than the brightness similarity, and is one or more predetermined values.
상기 밝기 왜곡 분포 와 색도 왜곡 분포 는 다음 수학식에 따라 구해질 수 있다. The brightness distortion distribution And chromatic distortion distribution Can be obtained according to the following equation.
그리고, 화소 단위 분리부(110)는 상기 유사도를 소정 임계값 과 비교하고, 비교 결과에 따라 전경 화소 또는 배경 화소로 분류한다. 이는 다음 수학식과 같이 표현될 수 있다.In addition, the
여기서, 는 임의의 화소 p가 전경 화소 또는 배경 화소로 분리된 결과를 나타내고, 1은 전경 화소로 분류되었음을, 0은 배경 화소로 분류되었음을 의미한다. here, Denotes a result in which an arbitrary pixel p is divided into a foreground pixel or a background pixel, 1 is classified as a foreground pixel, and 0 is classified as a background pixel.
도 2는 상술한 실시예에 따라서 입력 영상이 전경과 배경으로 분리된 결과를 보여준다. 도 2에서, (a)는 상술한 실시예에 따라 생성된 배경 모델에 따른 영상을 나타내고, (b)는 입력된 영상을 나타내며, (c)는 화소 단위로 전경과 배경이 분리된 결과 영상을 나타낸다. (c)에서 흰색으로 표시된 부분이 전경 화소를, 검정색으로 표시된 부분이 배경 화소를 나타낸다.2 illustrates a result of splitting an input image into a foreground and a background according to the above-described embodiment. In FIG. 2, (a) shows an image according to a background model generated according to the above-described embodiment, (b) shows an input image, and (c) shows a result image in which the foreground and background are separated in units of pixels. Indicates. In (c), the part shown in white represents the foreground pixel, and the part shown in black represents the background pixel.
불확실 영역 추출부(120)는 입력 영상을 복수 개의 영역들로 분할하고, 분할된 영역들 중에서 전경 영역인지 배경 영역인지 불확실한 영역들을 추출한다. 그리고 영역 단위 분류부(130)는 불확실 영역 추출부(120)에서 추출된 영역들, 즉 불확실 영역들을 전경 영역과 배경 영역으로 분리한다. The
도 2의 (c)를 참조하면, 화소 단위 분리부(110)에서 획득된 전경과 배경이 분리된 결과 영상은, 전경임에도 배경으로, 혹은 배경임에도 전경으로 판단된 부분이 상당히 존재함을 알 수 있다. 이러한 결과는 조명 또는 자연광의 영향으로 전경과 배경의 색이 변하거나, 전경과 배경의 색이 유사한 경우에 더 두드러지게 나타나게 된다. 따라서 불확실 영역 추출부(120)와 영역 단위 분류부(130)가 전경인지 배경인지 불확실한 영역들에 대하여 다시 판단을 하고, 이 결과에 따라 후술하는 보정부(140)가 화소 단위 분리부(110)에서 획득된 전경과 배경이 분리된 결과 영상을 보정한다.Referring to (c) of FIG. 2, it can be seen that the result image obtained by separating the foreground and the background obtained by the
불확실 영역 추출부(120)는 먼저 입력 영상을 복수 개의 영역들로 분할하는데, 이때 예를 들어, Mean-Shift 알고리즘을 사용할 수 있다. Mean-Shift 알고리즘이란, 특정 데이터의 근방에 존재하는 주변 데이터들의 평균 쪽으로 중심을 이동시키면서 유사한 데이터를 군집화하는 알고리즘이다. The
그리고, 불확실 영역 추출부(120)는, 분할된 영역들 중에서 전경 영역인지 배경 영역인지 불확실한 영역(이하, 불확실 영역)들을 추출하는데, 이때 화소 단위 분리부(110)에서 각 화소가 전경 또는 배경으로 분리된 결과를 이용한다. 구체적으로 설명하면, 불확실 영역 추출부(120)는 분할된 영역들 각각에 대하여, 해당 영역에 속하는 화소들 각각의 전경 배경 분리 결과를 이용하여 전경 영역인지 배경 영역인지 불확실할 확률(이하, 불확실 확률)을 계산하고, 상기 불확실 확률이 높으면 해당 영역을 불확실 영역으로 분류한다. In addition, the
여기서, 임의의 영역 R i 에 대한 불확실 확률 P U (R i )는 다음 수학식에 따라 구해질 수 있다. Here, the uncertainty probability P U (R i ) for any region R i may be obtained according to the following equation.
여기서, n은 분할된 영역의 개수를, 는 분할된 영역들의 집 합을, N Fg ( R i )는 영역 R i 에서의 전경 화소의 개수를, N Bg ( R i )는 영역 R i 에서의 배경 화소의 개수를 의미한다. Where n is the number of divided regions, Denotes the set of divided regions, N Fg ( R i ) denotes the number of foreground pixels in the region R i , and N Bg ( R i ) denotes the number of background pixels in the region R i .
불확실 영역 추출부(120)는 불확실 확률 P U (R i )를 소정 임계값 와 비교하고, 비교 결과에 따라 불확실 영역인지 여부를 결정한다. 이는 다음 수학식과 같이 표현될 수 있다.The
여기서 UR은 해당 영역이 불확실 영역임을, NON_UR은 해당 영역이 불확실 영역이 아님을 나타낸다. 상기 수학식에 따르면, 불확실 확률 P U (R i )가 소정 임계값 보다 크면 불확실 영역으로, 그렇지 않으면 불확실 영역이 아닌 것으로 결정한다.Here, UR indicates that the region is an uncertain region, and NON_UR indicates that the region is not an uncertain region. According to the above equation, the uncertainty probability P U (R i ) is a predetermined threshold If greater, it is determined as the uncertainty area, otherwise it is determined as not the uncertainty area.
영역 단위 분류부(130)는 불확실 영역 추출부(120)에서 추출된 불확실 영역들을 전경 영역과 배경 영역으로 분류한다. 이를 위하여, 영역 단위 분류부(130)는 우선 불확실 영역들 각각에 대하여 해당 영역이 전경 영역일 확률을 계산한다. 이 확률은 해당 영역에 속한 화소들의, 화소 단위 분리부(110)에서 계산된 유사도를 이용하여 다음 수학식에 따라 구해질 수 있다.The
여기서, P Fg (R i )는 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i )는 불확실 영역 R i 에서의 전경 화소의 개수를, N Bg (R i )는 불확실 영역 R i 에서의 배경 화소의 개수를 의미한다. Where P Fg (R i ) is the foreground area of the uncertainty region R i , N Fg (R i ) is the number of foreground pixels in the uncertainty area R i , and N Bg (R i ) is the uncertainty area R i Means the number of background pixels.
그리고 영역 단위 분류부(130)는 상기 계산된 확률을 소정 임계값 와 비교하고, 비교 결과에 따라 전경 영역인지 배경 영역인지를 결정한다. 이는 다음 수학식과 같이 표현될 수 있다.The
여기서, 는 불확실 영역 R i 가 전경 영역 또는 배경 영역으로 분류된 결과를 나타내고, 1은 전경 영역으로 분류되었음을, 0은 배경 영역으로 분류되었음을 의미한다. 상기 수학식에 따르면, 전경 영역일 확률 P Fg (R i )가 소정 임계값 보다 크면, 전경 영역으로, 그렇지 않으면 배경 영역으로 분류한다. here, Denotes a result in which the uncertainty region R i is classified as a foreground region or a background region, where 1 is classified as a foreground region and 0 is classified as a background region. According to the above equation, the probability P Fg (R i ) in the foreground region is a predetermined threshold value. If greater, it is classified as a foreground area, otherwise it is classified as a background area.
본 실시예에서, 영역 단위 분류부(130)는, 전경 영역일 확률을 계산하고, 이 확률을 소정 임계값과 비교하였으나, 마찬가지의 방식으로 배경 영역일 확률을 계 산하고, 이 확률을 소정 임계값과 비교하는 형태로 구현될 수도 있음은 물론이다. In the present embodiment, the
보정부(140)는 영상 내의 화소들 중 불확실 영역들에 속한 화소들의 전경 배경 분리 결과를 영역 단위 분류부(130)에서 분류된 결과에 따라 보정한다. 즉, 화소 단위 분리부(110)에서 전경으로 분류된 화소가 영역 단위 분류부(130)에서 분류된 배경 영역에 속한다면 배경 화소로 보정하고, 화소 단위 분리부(110)에서 배경으로 분류된 화소가 영역 단위 분류부(130)에서 분류된 전경 영역에 속한다면 전경 화소로 보정한다. 그리고 보정부(140)는 분리된 배경을 제거함으로써 전경 영상을 출력한다.The
도 3은 상술한 실시예에 따라 입력 영상이 전경과 배경으로 분리되는 과정을 나타낸다. 도 3에서, (a)는 입력 영상을, (b)는 Mean-Shift 알고리즘을 사용하여 복수 개의 영역들로 분할된 영상을 나타낸다. (c)는 화소 단위로 전경과 배경이 분리된 결과 영상으로서, 흰색으로 표시된 부분이 전경 화소를, 검정색으로 표시된 부분이 배경 화소를 나타낸다. (d)에서는 불확실 영역들을 흰색으로 나타내었고, (e)는 불확실 영역들이 전경 영역과 배경 영역으로 분류된 결과로서, 전경 영역은 붉은색으로, 배경 영역은 파란색으로 나타내었다. (f)는 화소 단위로 전경과 배경이 분리된 결과 영상 (c)를 영역 단위로 전경과 배경으로 분류된 결과 (e)에 따라 보정된 영상을 나타낸다. 3 illustrates a process of separating an input image into a foreground and a background according to the above-described embodiment. In FIG. 3, (a) shows an input image and (b) shows an image divided into a plurality of regions using a Mean-Shift algorithm. (c) shows a result image in which the foreground and the background are separated on a pixel basis, wherein a portion displayed in white represents a foreground pixel and a portion displayed in black represents a background pixel. In (d), the uncertain areas are shown in white, and (e) is a result of the uncertain areas being classified into the foreground area and the background area, and the foreground area is red and the background area is blue. (f) shows an image corrected according to the result (e) of the resultant image (c), which is divided into the foreground and the background by area, in the pixel unit.
도 3의 (c)와 (f)를 참고하면, 전경에 해당하는 사람의 옷 색상이 배경과 유사하여 (c)에서 전경이 전경임에도 배경으로 잘못 판단되는 현상이 두드러지게 나타나는 반면, 보정된 영상 (f)에서는 이러한 문제점이 거의 나타나지 않음을 알 수 있다. Referring to (c) and (f) of FIG. 3, the color of the clothes of the person corresponding to the foreground is similar to the background, so that the phenomenon that is incorrectly judged as the background appears in the foreground in (c), whereas the corrected image In (f), it can be seen that such a problem rarely occurs.
도 4는 본 발명의 다른 실시예에 따른, 영상을 전경과 배경으로 분리하는 장치의 블록도이다. 본 실시예에 따른 전경 배경 분리 장치(20)는, 배경 모델 생성부(100), 화소 단위 분리부(110), 불확실 영역 추출부(120), 영역 단위 분류부(135), 보정부(140), 전경 확률 모델 생성부(145)를 포함하여 이루어진다. 도 1에 도시된 전경 배경 분리 장치와 마찬가지로, 본 실시예에 따른 전경 배경 분리 장치(10)에도 역시 카메라(미도시)로부터 획득된 프레임 단위의 영상이 입력된다. 4 is a block diagram of an apparatus for separating an image into a foreground and a background according to another embodiment of the present invention. The
본 실시예에 따른 전경 배경 분리 장치(20)에서, 배경 모델 생성부(100), 화소 단위 분리부(110), 불확실 영역 추출부(120), 보정부(140)의 동작은 도 1에 관하여 설명된 바와 동일하므로, 설명은 생략하기로 한다.In the
먼저, 전경 확률 모델 생성부(145)에 관하여 설명한다. 일반적으로 동영상에서 중요한 특징으로 시간에 따라 영상이 변화하지만 인접한 프레임 간의 영상에서 그 차이는 크지 않은 특징이 있다. 따라서, 이전 프레임에서 전경으로 분류되었던 화소들은 현재 프레임에서도 전경으로 분류된 확률이 높다고 볼 수 있다. 전경 확률 모델 생성부(145)는 이러한 특징을 이용, 과거 프레임의 정보를 반영하여 현재 프레임의 영상의 화소들이 전경 화소일 확률을 나타내는 전경 확률 모델을 생성한다. 이를 위하여, 전경 확률 모델 생성(145)는 화소 단위 분리부(110)에서 화소 단위로 전경과 배경으로 분리된 결과 영상을 누적하여 전경 확률 모델을 생성한다. 이러한 전경 확률 모델을 편의상, 시간적 전경 확률 모델(Temporal Foreground Probability Model, TFPM)이라 명명하기로 한다. 시간적 전경 확률 모델은 다음 수 학식과 같이, 이전 프레임의 전경 확률과 현재 프레임의 전경 분리 결과값의 가중치 합으로 표현될 수 있다.First, the foreground
여기서, 는 현재 프레임인 t번째 프레임의 영상에서 화소 p가 전경 화소일 확률을, 는, t-1번째 프레임의 영상에서 화소 p가 전경 화소일 확률을, 는 t번째 프레임의 영상에 대한 화소 단위 분리부(110)에서 화소 p의 전경 분리 결과값을 의미하며, 0번째 프레임은 영상에 사람이 등장한 프레임이다.here, Is the probability that pixel p is a foreground pixel in the image of the t-th frame, which is the current frame, Is the probability that the pixel p is the foreground pixel in the image of the t-1th frame, Denotes a result of foreground separation of the pixel p in the
또한, 는 미리 정의되는 소정 값으로서 0에서 1 사이의 값으로 부여되며, 전경 변화의 정도에 따라 그 값을 달리 정의할 수 있다. 예를 들어, 사람의 움직임이 작은 경우에는 바로 이전 프레임의 영상에 가중치를 비교적 높게 주어야 하므로, 를 상대적으로 큰 값으로 정의하고, 사람의 움직임이 큰 경우에는 이전 프레임과 현재 프레임의 차이가 크기 때문에 사람의 움직임이 작은 경우에 비해 이전 프레임의 영상에 가중치를 비교적 낮게 주어야 하므로 를 상대적으로 작은 값으로 정의할 수 있을 것이다. 화상 대화나 화상 회의에서는 사람이 급격하게 움직이는 경우가 적다고 본다면, 본 실시예를 화상 대화나 화상 회의에 적용하고자 할 때 를 상대적으로 큰 값으로 정의할 수 있을 것이다. Also, Is a predefined value which is given as a value between 0 and 1, and may be defined differently according to the degree of foreground change. For example, if the human motion is small, the weight of the image of the previous frame should be relatively high, Is defined as a relatively large value, and if the human motion is large, the difference between the previous frame and the current frame is large, so that the weight of the image of the previous frame should be relatively low compared to the case where the human motion is small. Can be defined as a relatively small value. Given that there are fewer people moving rapidly in a video chat or video conference, when the present embodiment is to be applied to a video chat or video conference. Can be defined as a relatively large value.
도 5는 이러한 시간적 전경 확률 모델을 나타내는 도면으로서, (a)는 프레임 별 입력 영상을, (b)는 상술한 시간적 전경 확률 모델에 따라 구해진 전경 확률에 따른 영상을 나타낸다. 시간적 전경 확률 모델에서는 전경 분리 결과가 계속적으로 누적되는 바, (b)를 참조하면 계속적으로 전경으로 분리되는 부분은 흰색의 농도가 짙게 나타나는 것을 알 수 있으며, 이러한 부분은 다음 프레임에서도 전경일 확률이 높다고 할 수 있다. FIG. 5 is a diagram illustrating such a temporal foreground probability model, wherein (a) shows an input image for each frame and (b) shows an image based on a foreground probability obtained according to the above-described temporal foreground probability model. In the temporal foreground probability model, the result of foreground separation is continuously accumulated. Referring to (b), it can be seen that the portion that is continuously separated by the foreground appears to have a high density of white. can do.
상술한 시간적 전경 확률 모델을 이용하면 전경인 사람의 몸에 홀이 발생하는 등의 문제점을 해결할 수 있는 장점이 있다. 사람의 몸에 홀이 생성된 영역이 매우 작다고 하더라도 사람의 몸이나 머리 부분에 홀이 발생하게 되면, 배경을 다른 영상으로 합성하였을 때 영상을 보는 사람의 눈에 확 띄게 된다. 그러나 상술한 시간적 전경 확률 모델에 따르면 과거의 전경 분리 결과를 누적하여 전경일 확률이 구해지므로 홀이 발생하는 문제점을 해결할 수 있다.Using the temporal foreground probability model described above has the advantage of solving a problem such as the occurrence of a hole in the body of a person in the foreground. Even if a hole is formed in the human body, even if the hole is generated in the human body or the head part, when the background is synthesized into another image, the image is clearly visible to the viewer. However, according to the temporal foreground probability model described above, since the foreground foreground probability is obtained by accumulating past foreground separation results, a problem in which a hole is generated can be solved.
영역 단위 분류부(135)는 도 1에 관하여 설명된 영역 단위 분류부(130)와 마찬가지로, 불확실 영역 추출부(120)에서 추출된 불확실 영역들에 대하여 전경 영역일 확률을 계산하고, 이 확률에 따라 불확실 영역들을 전경 영역 또는 배경 영역으로 분류한다. 다만, 본 실시예에서는 전경 확률 모델 생성부(145)에서 생성된 시간적 전경 확률 모델이, 불확실 영역들에 대한 전경 영역일 확률을 계산하는 데 이용된다. 본 실시예에 따르면, 영역 단위 분류부(135)에서 불확실 영역들 각각에 대하여 해당 영역이 전경 영역일 확률은 다음 수학식에 따라 구해질 수 있다.Like the
여기서, P Fg t (R i )는 현재 프레임인 t번째 프레임에서 불확실 영역 R i 의 전경 영역일 확률을, P Fg t-1 (R i )은 이전 프레임인 t-1번째 프레임에서의 불확실 영역 R i 의 전경 영역일 확률을, N Fg (R i ) 및 N Bg (R i )는 t번째 프레임에서 불확실 영역 R i 의 전경 화소의 개수 및 배경 화소의 개수를 의미한다. 그리고 는 상기된 수학식 10에 따른 현재 프레임인 t번째 프레임의 영상에서 화소 p가 전경 화소일 확률을 나타낸다. Here, P Fg t (R i ) is the probability of the foreground area of the uncertainty region R i in the t-th frame that is the current frame, and P Fg t-1 (R i ) is the uncertainty area in the t-1 th frame that is the previous frame. For the probability that it is the foreground region of R i , N Fg (R i ) and N Bg (R i ) mean the number of foreground pixels and background pixels of uncertain region R i in the t-th frame. And Denotes the probability that the pixel p is the foreground pixel in the image of the t-th frame which is the current frame according to
도 6은 본 발명의 일 실시예에 따른, 영상을 전경과 배경으로 분리하여 배경을 대체하는 장치의 블록도이다. 본 실시예에 따른 배경 대체 장치는, 전경 배경 분리부(30) 및 배경 영상 합성부(40)를 포함하여 이루어진다.FIG. 6 is a block diagram of an apparatus for replacing an image by separating an image into a foreground and a background according to an embodiment of the present invention. Background replacement apparatus according to the present embodiment comprises a
전경 배경 분리부(30)는 입력 영상을 전경과 배경으로 분리하여, 배경이 제거된 전경 영상을 출력한다. 전경 배경 분리부(30)는 도 1에 관하여 설명된 전경 배경 분리 장치(10) 또는 도 4에 관하여 설명된 전경 배경 분리 장치(20)의 구성 및 동작과 동일하므로, 여기서 설명은 생략하기로 한다. The
배경 영상 합성부(40)는 전경 배경 분리부(30)에서 출력된 전경 영상에 미리 마련된 대체될 배경 영상을 합성하여, 입력 영상에서 배경이 대체된 영상을 출력한 다. The
단순히 분리된 사람 영상에 새로운 배경 영상을 대체하는 경우, 완전히 다른 조건에서 생성된 두 영상이기 때문에 사람 영역을 가위로 오려 새로운 배경에 붙여놓은 듯한 느낌을 줄 수 있다. 즉, 전경 영상과 대체될 새로운 배경 영상은 완전히 서로 다른 조명 조건에서 촬영된 영상이기 때문에 하나의 영상으로 합성할 경우 각 영상의 전체적인 밝기와 색상이 전혀 달라 자연스러운 하나의 영상으로 보이지 않을 수 있다. 이러한 문제점을 해결하기 위해서는 배경 영상을 전경 영상과 같은 조명 조건에서 촬영한 것처럼 보이기 위한 밝기와 색상에 대한 보정 작업이 필요하다. 따라서 본 실시예에서, 배경 영상 합성부(40)는 전경 영상의 색상 정보를 고려하여, 합성된 배경 영상의 색상 또는 밝기를 보정한다.If a new background image is simply replaced with a separate human image, the two images are created under completely different conditions, so that the human area can be cut with scissors and attached to the new background. That is, since the new background image to be replaced with the foreground image is an image photographed under completely different lighting conditions, when synthesized into one image, the overall brightness and color of each image are completely different and thus may not be viewed as a natural image. To solve this problem, it is necessary to correct brightness and color to make the background image appear to be taken under the same lighting conditions as the foreground image. Therefore, in the present embodiment, the
먼저, 배경 영상의 색상 보정에 관하여 설명한다. 본 실시예에서, 전경 영상과 배경 영상 간의 색상 차이를 보정하기 위해 대각선 모델(diagonal model)을 이용한 색상 변환(color transform) 방법을 사용한다. 대각선 모델을 이용한 색상 보정은 두 영상 내에 서로 대응되는 화소가 존재하지 않아도 색상 보정이 가능하며 속도가 매우 빠르다는 장점이 있다. First, the color correction of the background image will be described. In this embodiment, a color transform method using a diagonal model is used to correct a color difference between the foreground image and the background image. Color correction using the diagonal model has the advantage that color correction is possible even if there is no corresponding pixel in the two images, and the speed is very fast.
대체될 배경의 색상 보정은 다음 수학식에서와 같이 대체될 배경과 대각선 모델 M의 곱으로 나타내어질 수 있다. The color correction of the background to be replaced may be represented by the product of the diagonal model M and the background to be replaced as in the following equation.
여기서, α, β, γ는 각각 전경 영상과 대체될 배경 영상의 R, G, B 컬러채널의 평균 명암도(intensity)의 비율을 나타내며, 다음 수학식에 따라 구해진다.Here, α, β, and γ denote ratios of average intensity of R, G, and B color channels of the foreground image and the background image to be replaced, respectively, and are obtained according to the following equation.
여기서, mean ( R F ) 및 mean ( R B )는 각각 전경 영상의 R 컬러채널 값의 평균 및 대체될 배경 영상의 R 컬러채널 값의 평균을 나타낸다. G 컬러채널 및 B 컬러채널에 관하여도 마찬가지이다. Here, mean ( R F ) and mean ( R B ) represent the average of the R color channel values of the foreground image and the R color channel values of the background image to be replaced, respectively. The same applies to the G color channel and the B color channel.
다만, 배경 영상의 색상을 보정하는 경우, 전경 영상의 색상 분포가 특정 컬러채널에 지나치게 편중되어 있다면, 상술한 바와 같이 전경 영상의 컬러채널 값을 고려하여 배경 영상의 색상을 보정하는 것은 좋지 않은 결과를 초래할 수 있다. 예를 들어, 배경 영역이 특정 컬러채널에 편중되도록 보정될 수 있다. 이러한 경우 배경 영역의 색상을 보정하기보다 밝기만 보정하는 것이 더욱 좋은 결과를 나타낼 수 있다. 따라서 본 실시예에서는, 전경 영상의 색상 정보를 분석하고, 색상이 특정 컬러채널에 지나치게 편중되어 있는지 여부에 따라서 선택적으로, 배경 영상의 색상을 보정하거나, 배경 영상의 밝기를 보정한다.However, when the color of the background image is corrected, if the color distribution of the foreground image is too biased in a specific color channel, it is not a good idea to correct the color of the background image in consideration of the color channel value of the foreground image as described above. May result. For example, the background area may be corrected to be biased to a particular color channel. In this case, it is better to correct only the brightness than to correct the color of the background area. Therefore, in the present embodiment, the color information of the foreground image is analyzed, and optionally, the color of the background image is corrected or the brightness of the background image is corrected depending on whether the color is excessively biased in a specific color channel.
도 7은 본 발명의 일 실시예에 따라 배경 영상의 색상 또는 밝기를 선택적으로 보정하는 방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method of selectively correcting color or brightness of a background image according to an embodiment of the present invention.
먼저 610단계에서, 전경 영상 및 대체될 배경 영상의 R, G, B 컬러채널 값의 평균을 각각 계산한다.First, in
620단계에서 전경 영상의 색상 분포가 특정 컬러채널에 지나치게 편중되어 있는지 판단한다. 여기서, 특정 컬러채널에 지나치게 편중되어 있는지 여부는 전경 영상의 컬러채널 값의 평균들 중 특정 컬러채널 값의 평균이 소정 임계값보다 큰지 여부에 따라 판단할 수 있다. 또는, 각 컬러채널 값의 평균을 서로 비교하여 그 차이가 소정 임계값보다 큰지 여부에 따라 판단할 수도 있을 것이다. In
620단계에서 지나치게 편중되어 있는 것으로 판단되었다면, 630단계로 진행하여 배경 영상의 밝기 보정을 수행한다. 배경 영상의 밝기 보정은, 상기된 수학식 12의 대각선 모델 M을 다음 수학식에 따른 대각선 모델, 즉 성분 α, β, γ가 모두 동일한 값을 가지는 대각선 모델로 치환함으로써 나타내어질 수 있다.If it is determined in
상술한 바와 같이 선택적으로 밝기 보정 또는 색상 보정을 함으로써, 배경 영상 합성 시 발생할 수 있는 배경은 어둡고 전경은 밝아서 발생하는 부자연스러운 문제점 또는 배경과 전경의 색 비율이 다른 경우 발생하는 부자연스러운 문제점 등 이 해결됨으로써 보다 자연스러운 배경 합성이 이루어질 수 있다.As described above, the brightness correction or the color correction is optionally performed to solve the unnatural problem that occurs when the background image is dark and the foreground is bright, or the unnatural problem that occurs when the color ratio between the background and the foreground is different. This allows for more natural background synthesis.
한편, 색과 밝기를 잘 보정하였다고 하더라도 배경과 사람의 경계부분이 부드럽게 처리되지 않으면 사람 영역을 가위로 오려 다른 배경에 붙인 듯한 느낌을 줄 수 있다. 이러한 문제점을 해결하기 위하여, 본 실시예에서 배경 영상 합성부(40)는 전경 영상과 배경 영상의 경계 영역에 블러링 효과를 주어 두 영상의 분리감을 최소화한다. 블러링 효과를 위해 5ㅧ5 마스크를 가지는 가우시안 완곡화 필터를 적용하였으며 가우시안 완곡화 필터의 형식은 다음 수학식에 따라 정의될 수 있다.On the other hand, even if the color and brightness are well corrected, if the boundary between the background and the person is not smoothly processed, the human area can be cut with scissors to give a feeling of being attached to another background. In order to solve this problem, the
가우시안 완곡화 필터의 실시간 적용을 위하여 매번 계산하지 않고 미리 계산된 필터를 사용할 수 있으며, 이러한 필터의 형태를 도 8에 도시하였다. 그리고 필터의 적용 범위는, 전경과 배경으로 분할된 영상에서 에지를 구하고, 팽창 연산을 수행하여 블러링 마스크를 생성함으로써 적용 범위를 제한한다.For real-time application of the Gaussian smoothing filter, a pre-calculated filter may be used without calculating each time, and the shape of such a filter is illustrated in FIG. 8. The application range of the filter limits the application range by obtaining an edge from an image divided into a foreground and a background, and performing an expansion operation to generate a blur mask.
도 9는 블러링 마스크와 가우시안 완곡화 필터가 적용되는 모습을 보여주기위한 도면이다. 도 9에서, (a)는 필터를 사용하지 않은 배경 대체 결과에 따른 영상을, (b)는 필터를 적용하기 위한 블러링 마스크를, (c)는 블러링 마스크를 이용하여 가우시안 완곡화 필터를 적용한 결과에 따른 영상을 나타낸다. FIG. 9 is a diagram illustrating a state in which a blurring mask and a Gaussian smoothing filter are applied. In FIG. 9, (a) shows an image according to a background replacement result without using a filter, (b) shows a blurring mask for applying the filter, and (c) shows a Gaussian smoothing filter using the blurring mask. The image according to the applied result is shown.
도 10은 상술한 본 발명의 실시예에 따라 입력 영상의 배경을 새로운 배경으 로 대체한 결과를 나타낸다. 도 9에서 (a-1), (a-2), (a-3)은 입력 영상을, (b-1), (b-2), (b-3)은 입력 영상의 배경을 새로운 배경으로 대체한 결과를 나타낸다. 10 illustrates a result of replacing the background of the input image with a new background according to the embodiment of the present invention described above. In FIG. 9, (a-1), (a-2), and (a-3) denote input images, and (b-1), (b-2) and (b-3) denote new backgrounds of the input image. Replace with
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. The computer-readable recording medium may be a magnetic storage medium (for example, a ROM, a floppy disk, a hard disk, etc.), an optical reading medium (for example, a CD-ROM, DVD, etc.) and a carrier wave (for example, the Internet). Storage medium).
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
도 1은 본 발명의 일 실시예에 따른 영상을 전경과 배경으로 분리하는 장치의 블록도이다.1 is a block diagram of an apparatus for separating an image into a foreground and a background according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따라서 입력 영상이 전경과 배경으로 분리된 결과를 보여준다. 2 illustrates a result of splitting an input image into a foreground and a background according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따라 입력 영상이 전경과 배경으로 분리되는 과정을 나타낸다. 3 illustrates a process of separating an input image into a foreground and a background according to an embodiment of the present invention.
도 4는 본 발명의 다른 실시예에 따른 영상을 전경과 배경으로 분리하는 장치의 블록도이다. 4 is a block diagram of an apparatus for separating an image into a foreground and a background according to another embodiment of the present invention.
도 5는 본 발명에 따른 시간적 전경 확률 모델을 나타내는 도면이다.5 is a diagram illustrating a temporal foreground probability model according to the present invention.
도 6은 본 발명의 일 실시예에 따른, 영상을 전경과 배경으로 분리하여 배경을 대체하는 장치의 블록도이다.FIG. 6 is a block diagram of an apparatus for replacing an image by separating an image into a foreground and a background according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따라 배경 영상의 색상 또는 밝기를 선택적으로 보정하는 방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method of selectively correcting color or brightness of a background image according to an embodiment of the present invention.
도 8은 가우시안 완곡화 필터의 실시간 적용을 위하여 미리 계산된 필터의 형태를 나타낸다.8 shows the form of a filter calculated in advance for real-time application of the Gaussian smoothing filter.
도 9는 블러링 마스크와 가우시안 완곡화 필터가 적용되는 모습을 보여주기위한 도면이다. FIG. 9 is a diagram illustrating a state in which a blurring mask and a Gaussian smoothing filter are applied.
도 10은 본 발명의 일 실시예에 따라 입력 영상의 배경을 새로운 배경으로 대체한 결과를 나타낸다.10 illustrates a result of replacing a background of an input image with a new background according to an embodiment of the present invention.
Claims (26)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080037563A KR101471199B1 (en) | 2008-04-23 | 2008-04-23 | Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080037563A KR101471199B1 (en) | 2008-04-23 | 2008-04-23 | Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090111939A true KR20090111939A (en) | 2009-10-28 |
KR101471199B1 KR101471199B1 (en) | 2014-12-09 |
Family
ID=41553181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080037563A KR101471199B1 (en) | 2008-04-23 | 2008-04-23 | Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101471199B1 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110119056A (en) * | 2010-04-26 | 2011-11-02 | 삼성테크윈 주식회사 | Apparatus for detecting moving object and method thereof |
WO2012020977A2 (en) * | 2010-08-10 | 2012-02-16 | 삼성전자주식회사 | Image processing device and method |
KR101158728B1 (en) * | 2010-03-31 | 2012-06-22 | 한국과학기술원 | Real-time Foreground Detection Method |
CN102707864A (en) * | 2011-03-28 | 2012-10-03 | 日电(中国)有限公司 | Object segmentation method and system based on mixed marks |
KR101297396B1 (en) * | 2011-12-28 | 2013-08-14 | 충북대학교 산학협력단 | Method of shadow removal based on relative similarity |
US8842908B2 (en) | 2010-12-20 | 2014-09-23 | Samsung Electronics Co., Ltd. | Method of separating front view and background and apparatus |
US8908967B2 (en) | 2012-03-13 | 2014-12-09 | Samsung Techwin Co., Ltd. | Image processing method using foreground probability |
US9489588B2 (en) | 2014-10-15 | 2016-11-08 | Postech Academy-Industry Foundation | Matting method for extracting foreground object and apparatus for performing the matting method |
KR20160136157A (en) * | 2015-05-19 | 2016-11-29 | 에스케이텔레콤 주식회사 | Method and Apparatus for Segmenting Background Motion Region From Image |
KR20170107487A (en) * | 2015-02-16 | 2017-09-25 | 삼성전자주식회사 | Metadata-based image processing method and apparatus |
KR20210030466A (en) * | 2018-10-23 | 2021-03-17 | 삼성전자주식회사 | Image acquisition device and control method thereof |
KR20220085178A (en) * | 2020-12-15 | 2022-06-22 | 한국과학기술연구원 | Object/region detection and classification system with improved computer memory efficiency |
WO2023287250A1 (en) * | 2021-07-16 | 2023-01-19 | Samsung Electronics Co., Ltd. | Brightness adjustment method and apparatus thereof |
US12003859B2 (en) | 2021-07-16 | 2024-06-04 | Samsung Electronics Co., Ltd. | Brightness adjustment method, and apparatus thereof |
WO2024136149A1 (en) * | 2022-12-21 | 2024-06-27 | 삼성전자 주식회사 | Method and device for processing image |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090041297A1 (en) * | 2005-05-31 | 2009-02-12 | Objectvideo, Inc. | Human detection and tracking for security applications |
-
2008
- 2008-04-23 KR KR1020080037563A patent/KR101471199B1/en active IP Right Grant
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101158728B1 (en) * | 2010-03-31 | 2012-06-22 | 한국과학기술원 | Real-time Foreground Detection Method |
KR20110119056A (en) * | 2010-04-26 | 2011-11-02 | 삼성테크윈 주식회사 | Apparatus for detecting moving object and method thereof |
WO2012020977A2 (en) * | 2010-08-10 | 2012-02-16 | 삼성전자주식회사 | Image processing device and method |
WO2012020977A3 (en) * | 2010-08-10 | 2012-04-19 | 삼성전자주식회사 | Image processing device and method |
US8842908B2 (en) | 2010-12-20 | 2014-09-23 | Samsung Electronics Co., Ltd. | Method of separating front view and background and apparatus |
CN102707864A (en) * | 2011-03-28 | 2012-10-03 | 日电(中国)有限公司 | Object segmentation method and system based on mixed marks |
KR101297396B1 (en) * | 2011-12-28 | 2013-08-14 | 충북대학교 산학협력단 | Method of shadow removal based on relative similarity |
US8908967B2 (en) | 2012-03-13 | 2014-12-09 | Samsung Techwin Co., Ltd. | Image processing method using foreground probability |
US9489588B2 (en) | 2014-10-15 | 2016-11-08 | Postech Academy-Industry Foundation | Matting method for extracting foreground object and apparatus for performing the matting method |
KR20170107487A (en) * | 2015-02-16 | 2017-09-25 | 삼성전자주식회사 | Metadata-based image processing method and apparatus |
US10319085B2 (en) | 2015-02-16 | 2019-06-11 | Samsung Electronics Co., Ltd. | Metadata-based image processing method and apparatus |
KR20160136157A (en) * | 2015-05-19 | 2016-11-29 | 에스케이텔레콤 주식회사 | Method and Apparatus for Segmenting Background Motion Region From Image |
KR20210030466A (en) * | 2018-10-23 | 2021-03-17 | 삼성전자주식회사 | Image acquisition device and control method thereof |
US11699213B2 (en) | 2018-10-23 | 2023-07-11 | Samsung Electronics Co., Ltd. | Image-capturing device and method for controlling same |
KR20220085178A (en) * | 2020-12-15 | 2022-06-22 | 한국과학기술연구원 | Object/region detection and classification system with improved computer memory efficiency |
WO2023287250A1 (en) * | 2021-07-16 | 2023-01-19 | Samsung Electronics Co., Ltd. | Brightness adjustment method and apparatus thereof |
US12003859B2 (en) | 2021-07-16 | 2024-06-04 | Samsung Electronics Co., Ltd. | Brightness adjustment method, and apparatus thereof |
WO2024136149A1 (en) * | 2022-12-21 | 2024-06-27 | 삼성전자 주식회사 | Method and device for processing image |
Also Published As
Publication number | Publication date |
---|---|
KR101471199B1 (en) | 2014-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101471199B1 (en) | Method and apparatus for separating foreground and background from image, Method and apparatus for substituting separated background | |
KR101670282B1 (en) | Video matting based on foreground-background constraint propagation | |
Hillman et al. | Alpha channel estimation in high resolution images and image sequences | |
US20200258196A1 (en) | Image processing apparatus, image processing method, and storage medium | |
KR102142567B1 (en) | Image composition apparatus using virtual chroma-key background, method and computer program | |
Cavallaro et al. | Shadow-aware object-based video processing | |
JP2009031939A (en) | Image processing apparatus, method and program | |
Vosters et al. | Background subtraction under sudden illumination changes | |
US20170116741A1 (en) | Apparatus and Methods for Video Foreground-Background Segmentation with Multi-View Spatial Temporal Graph Cuts | |
CN111815528A (en) | Bad weather image classification enhancement method based on convolution model and feature fusion | |
JP2011054080A (en) | Image processing apparatus, method and program | |
Kim et al. | Adaptive patch based convolutional neural network for robust dehazing | |
CN107154046A (en) | A kind of method of video background processing and secret protection | |
Kim et al. | Effective character segmentation for license plate recognition under illumination changing environment | |
CN102521610B (en) | Image filtering method and device | |
CN110009708B (en) | Color development transformation method, system and terminal based on image color segmentation | |
CN111583357A (en) | Object motion image capturing and synthesizing method based on MATLAB system | |
Wang et al. | Robust image chroma-keying: a quadmap approach based on global sampling and local affinity | |
Arsic et al. | Improved lip detection algorithm based on region segmentation and edge detection | |
Gallego et al. | Enhanced bayesian foreground segmentation using brightness and color distortion region-based model for shadow removal | |
CN104298961B (en) | Video method of combination based on Mouth-Shape Recognition | |
KR20170104825A (en) | Method of holl-filling, recording medium and apparatus for performing the method | |
JP4780564B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2000348173A (en) | Lip extraction method | |
Sanmiguel et al. | Pixel-based colour contrast for abandoned and stolen object discrimination in video surveillance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |