KR20170006591A - Method of combining broadcasting image and object image captured by camera, set-top box and system - Google Patents

Method of combining broadcasting image and object image captured by camera, set-top box and system Download PDF

Info

Publication number
KR20170006591A
KR20170006591A KR1020150097432A KR20150097432A KR20170006591A KR 20170006591 A KR20170006591 A KR 20170006591A KR 1020150097432 A KR1020150097432 A KR 1020150097432A KR 20150097432 A KR20150097432 A KR 20150097432A KR 20170006591 A KR20170006591 A KR 20170006591A
Authority
KR
South Korea
Prior art keywords
image
mapped
external device
cloud server
pixel
Prior art date
Application number
KR1020150097432A
Other languages
Korean (ko)
Other versions
KR101932487B1 (en
Inventor
이주철
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020150097432A priority Critical patent/KR101932487B1/en
Publication of KR20170006591A publication Critical patent/KR20170006591A/en
Application granted granted Critical
Publication of KR101932487B1 publication Critical patent/KR101932487B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • H04N5/225
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards

Abstract

An image synthesizing method includes: a step of receiving an image of an object by a camera of a first external device from the first external device; a step of transmitting the image of the object to a server; a step of receiving a matted image, which is obtained by removing a background of the image of the object, from the cloud server; a step of processing a preset area of the matted image to be translucent; and a step of combining the broadcasting image and the matted image.

Description

방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 방법, 셋톱 박스 및 시스템{METHOD OF COMBINING BROADCASTING IMAGE AND OBJECT IMAGE CAPTURED BY CAMERA, SET-TOP BOX AND SYSTEM}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method and apparatus for synthesizing an image of an object received from a broadcast image and a camera, a set-top box and a system,

본 발명은 방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 방법, 셋톱 박스 및 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a broadcast image and a method for compositing images of objects received from a camera, a set-top box and a system.

영상 합성 기술은 다양한 콘텐츠 제작에 필수적인 요소이다. 예를 들면, 콘텐츠에 특수 효과를 적용하기 위하여 영상 합성 기술이 적용될 수 있다.Video synthesis technology is an essential element for various contents production. For example, video composition techniques may be applied to apply special effects to content.

영상을 합성하기 위하여 이미지 내의 객체 추출이 요구되는데, 이미지 내의 객체를 추출하는 알고리즘을 매팅(Matting) 알고리즘이라 한다. 매팅(Matting) 알고리즘은 입력값으로 트라이맵(Foreground, Background, Unknown로 Index)이 일반적으로 요구된다.In order to synthesize images, it is required to extract objects in the image. The algorithm for extracting objects in the image is called a matting algorithm. Matting algorithms generally require a tri-map (Foreground, Background, Unknown Index) as an input value.

종래의 방송 콘텐츠 제작에 이용되는 영상 합성 기술은 크로마키를 이용한 것으로서, 배경에 블루 스크린을 설치하여 객체를 실시간으로 추출하여 추출된 객체를 합성하여 방송을 송출하고 있다.The image synthesis technology used in the conventional broadcast content production uses a chroma key, and a blue screen is installed in the background to extract the object in real time, synthesize the extracted object, and transmit the broadcast.

하지만, 크로마키와 같이 배경에 특정색의 스크림을 설치할 수 없는 환경에서는 이미지 컬러 정보만을 이용한 매팅 기술이 요구되는데, 컬러 정보의 제약으로 성능의 한계가 있다.However, in an environment where a specific color scream can not be installed in the background, such as a chroma key, a matting technique using only image color information is required.

또한, 방송 콘텐츠에 영상을 합성하여 실시간으로 송출시키는 경우에, 단순한 매팅 알고리즘을 이용하는 경우가 많다. 이러한 단순한 매팅 알고리즘은 객체의 경계에서 많은 에러를 발생시키는 문제점이 있다.In addition, a simple matting algorithm is often used in a case where images are synthesized and broadcasted in real time. This simple matting algorithm has a problem of generating a large number of errors at the boundary of an object.

이와 관련하여, 한국공개특허 제2011-0123907호는 IPTV 시스템 및 그의 컨텐츠 제공 방법에 관한 것으로, 셋탑박스가 카메라를 구동하여 영상을 촬영하고, 촬영된 영상에 기 설정된 인식정보가 포함되어 있는지 판단하여 인식정보에 대응하는 고유코드를 컨텐츠 서버로 전송하고, 컨텐츠 서버로부터 촬영된 영상과 연관된 컨텐츠를 수신하고, 해당 컨텐츠와 촬영된 영상을 합성하여 디스플레이 장치에 표시하는 기술을 개시하고 있다.In this regard, Korean Patent Laid-Open Publication No. 2011-0123907 relates to an IPTV system and a content providing method thereof, in which a set-top box drives a camera to take an image, determines whether the captured image includes predetermined recognition information Discloses a technique of transmitting a unique code corresponding to recognition information to a content server, receiving content associated with an image photographed from a content server, synthesizing the content and the photographed image, and displaying the combined content on a display device.

스켈레톤(skeleton) 이미지를 매팅 알고리즘에 이용함으로써, 인바디(In-body) 에러를 보정하는 방법, 셋톱 박스 및 시스템을 제공하고자 한다.We propose a method, a set-top box and a system for correcting in-body errors by using a skeleton image in a matting algorithm.

매팅된 영상을 이원 세그먼테이션(binary segmentation) 결과에 가이던스(Guidance) 이미지를 적용한 가이드(Guided) 필터에 입력함으로써, 매팅된 영상의 각 픽셀마다 세그먼테이션의 강도를 도출하고, 각 픽셀마다 도출된 세그먼테이션의 강도에 기초하여, 각 픽셀마다 블렌딩(Blending) 계수를 할당하여 바운더리(Boundary) 에러를 보정하는 방법, 셋톱 박스 및 시스템을 제공하고자 한다.A mapped image is input to a guided filter to which a guidance image is applied to a binary segmentation result to derive the intensity of segmentation for each pixel of the mapped image and to calculate the intensity of the segmentation derived for each pixel A set-top box, and a system for correcting a boundary error by allocating a blending coefficient to each pixel based on a set of threshold values.

클라우드 서버를 이용하여 실시간으로 매팅 알고리즘을 수행하고, 셋톱 박스에서 실시간으로 방송 영상을 합성하여, 미디어 소비를 공급자 중심에서 사용자 중심으로 바꿀 수 있다.It is possible to change the media consumption from the provider center to the user center by executing the real time matting algorithm using the cloud server and synthesizing the broadcasting image in real time from the set top box.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는 제 1 외부 디바이스의 카메라에 의해 촬영된 객체의 영상을 상기 제 1 외부 디바이스로부터 수신하는 단계, 상기 객체의 영상을 클라우드 서버로 전송하는 단계, 상기 클라우드 서버로부터 상기 객체의 영상의 배경이 제거된 매팅된(Matted) 영상을 수신하는 단계, 상기 매팅된 영상의 기설정된 영역을 반투명 처리하는 단계 및 상기 방송 영상과 상기 매팅된 영상을 합성하는 단계를 포함하는 영상 합성 방법을 제공할 수 있다.According to an aspect of the present invention, there is provided an image processing method including receiving an image of an object photographed by a camera of a first external device from the first external device, Receiving a matted image in which the background of the image of the object is removed from the cloud server, translating a predetermined area of the mapped image into a semi-transparent state, And a step of synthesizing the image.

또한, 본 발명의 다른 실시예는 제 1 외부 디바이스의 카메라에 의해 촬영된 객체의 영상을 상기 제 1 외부 디바이스로부터 수신하는 객체 영상 수신부, 상기 객체의 영상을 클라우드 서버로 전송하는 객체 영상 전송부, 상기 클라우드 서버로부터 상기 객체의 영상의 배경이 제거된 매팅된(Matted) 영상을 수신하는 매팅 영상 수신부, 상기 매팅된 영상의 기설정된 영역을 반투명 처리하는 영상 보정부 및 상기 방송 영상과 상기 매팅된 영상을 합성하는 영상 합성부를 포함하는 셋톱 박스를 제공할 수 있다.According to another embodiment of the present invention, there is provided an image processing apparatus including an object image receiving unit for receiving an image of an object photographed by a camera of a first external device from the first external device, an object image transmitting unit for transmitting the image of the object to a cloud server, A matched image receiving unit for receiving a background image of the object from the cloud server, a matched image receiving unit for semi-transparently processing a predetermined area of the mapped image, And a video synthesizer for synthesizing the set-top box.

또한, 본 발명의 또 다른 실시예는 셋톱 박스 및 클라우드 서버를 포함하는 영상 합성 시스템으로서, 셋톱 박스는 제 1 외부 디바이스의 카메라에 의해 촬영된 객체의 영상을 상기 제 1 외부 디바이스로부터 수신하고, 상기 객체의 영상을 상기 클라우드 서버로 전송하고, 상기 클라우드 서버로부터 수신한 상기 객체의 영상의 배경이 제거된 매팅된(Matted) 영상의 기설정된 영역을 반투명 처리하고, 상기 방송 영상과 상기 매팅된 영상을 합성하도록 구성되고, 상기 클라우드 서버는 상기 셋톱 박스로부터 수신한 객체의 영상의 배경을 제거하여 매팅된 영상을 생성하고, 상기 매팅된 영상을 상기 셋톱 박스로 전송하도록 구성되는 영상 합성 시스템을 제공할 수 있다.Further, another embodiment of the present invention is an image synthesizing system including a set-top box and a cloud server, the set-top box receiving an image of an object photographed by a camera of a first external device from the first external device, And transmitting the image of the object to the cloud server, translucently processing a predetermined area of the matted image from which the background of the image of the object received from the cloud server is removed, The cloud server may generate a mapped image by removing the background of the image of the object received from the set-top box, and transmit the mapped image to the set-top box. have.

스켈레톤(skeleton) 이미지를 매팅 알고리즘에 이용함으로써, 인바디(In-body) 에러를 보정하는 방법, 셋톱 박스 및 시스템을 제공할 수 있다.By using a skeleton image in a matting algorithm, a method, a set-top box and a system for correcting in-body errors can be provided.

매팅된 영상을 이원 세그먼테이션(binary segmentation) 결과에 가이던스(Guidance) 이미지를 적용한 가이드(Guided) 필터에 입력함으로써, 매팅된 영상의 각 픽셀마다 세그먼테이션의 강도를 도출하고, 각 픽셀마다 도출된 세그먼테이션의 강도에 기초하여, 각 픽셀마다 블렌딩(Blending) 계수를 할당하여 바운더리(Boundary) 에러를 보정하는 방법, 셋톱 박스 및 시스템을 제공할 수 있다.A mapped image is input to a guided filter to which a guidance image is applied to a binary segmentation result to derive the intensity of segmentation for each pixel of the mapped image and to calculate the intensity of the segmentation derived for each pixel A set-top box and a system for correcting a boundary error by assigning a blending coefficient to each pixel on the basis of a plurality of pixels.

클라우드 서버를 이용하여 실시간으로 매팅 알고리즘을 수행하고, 셋톱 박스에서 실시간으로 방송 영상을 합성하여, 미디어 소비를 공급자 중심에서 사용자 중심으로 바꿀 수 있다.It is possible to change the media consumption from the provider center to the user center by executing the real time matting algorithm using the cloud server and synthesizing the broadcasting image in real time from the set top box.

도 1은 본 발명의 일 실시예에 따른 영상 합성 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 셋톱 박스의 블록도이다.
도 3은 본 발명의 일 실시예에 따른 제 2 외부 디바이스로부터 수신한 보조 이미지를 이용하여 인바디(In-body) 에러를 보정하는 것을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 가이드(Guided) 필터를 이용하여 바운더리(Boundary) 에러를 보정하는 것을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 바운더리 에러가 보정된 합성 영상을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 제 1 외부 디바이스의 카메라에 의해 촬영된 객체의 영상과 방송 영상을 합성하는 것을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 방법을 나타낸 흐름도이다.
1 is a configuration diagram of a video synthesis system according to an embodiment of the present invention.
2 is a block diagram of a set-top box according to an embodiment of the present invention.
3 is a diagram for explaining correction of an in-body error using an auxiliary image received from a second external device according to an embodiment of the present invention.
4 is a diagram for explaining correction of a boundary error using a guided filter according to an embodiment of the present invention.
5 is a view illustrating a composite image in which a boundary error is corrected according to an embodiment of the present invention.
FIG. 6 is a view for explaining the synthesis of an image of an object photographed by a camera of a first external device and a broadcast image according to an embodiment of the present invention.
7 is a flowchart illustrating a method of composing an image of a broadcast image and an object received from a camera according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "including" an element, it is to be understood that the element may include other elements as well as other elements, And does not preclude the presence or addition of one or more other features, integers, steps, operations, components, parts, or combinations thereof.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In this specification, the term " part " includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be implemented using two or more hardware, or two or more units may be implemented by one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by the terminal or the device may be performed in the server connected to the terminal or the device instead. Similarly, some of the operations or functions described as being performed by the server may also be performed on a terminal or device connected to the server.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상 합성 시스템의 구성도이다. 도 1을 참조하면, 영상 합성 시스템(1)은 셋톱 박스(100), 클라우드 서버(110), 제 1 외부 디바이스(120) 및 제 2 외부 디바이스(130)를 포함할 수 있다.1 is a configuration diagram of a video synthesis system according to an embodiment of the present invention. 1, the image synthesis system 1 may include a set top box 100, a cloud server 110, a first external device 120, and a second external device 130.

셋톱 박스(100)는 제 1 외부 디바이스(120)의 카메라에 의해 촬영된 객체의 영상을 제 1 외부 디바이스(120)로부터 수신할 수 있다. 도 1에 도시한 바와 달리, 제 1 외부 디바이스(120)는 셋톱 박스(100) 자체에 구비되어 있는 카메라일 수 있다. 따라서, 셋톱 박스(100)는 셋톱 박스(100)의 카메라를 통해 객체의 영상을 직접 획득할 수도 있다.The set top box 100 may receive an image of an object photographed by the camera of the first external device 120 from the first external device 120. [ 1, the first external device 120 may be a camera provided in the set-top box 100 itself. Thus, the set-top box 100 may directly acquire an image of an object through the camera of the set-top box 100. [

또한, 셋톱 박스(100)는 제 2 외부 디바이스(130)로부터 객체의 영상에 대한 보조 이미지를 수신할 수 있다. 보조 이미지는 객체의 영상의 정지 프레임 중 적어도 하나에 대한 스켈레톤(skeleton) 이미지일 수 있다.In addition, the set-top box 100 may receive an auxiliary image for an image of an object from the second external device 130. [ The secondary image may be a skeleton image for at least one of the still frames of the object's image.

셋톱 박스(100)는 객체의 영상 및 보조 이미지를 클라우드 서버(110)로 전송할 수 있다.The set-top box 100 may transmit the image of the object and the auxiliary image to the cloud server 110.

셋톱 박스(100)는 클라우드 서버(110)로부터 객체의 영상의 배경이 제거된 매팅된(Matted) 영상을 수신할 수 있다. 클라우드 서버(110)로부터 수신한 매팅된 영상은 보조 이미지에 기초하여 인바디(In-body) 에러가 보정된 영상일 수 있다.The set top box 100 may receive a matted image from which the background of the object image is removed from the cloud server 110. The mapped image received from the cloud server 110 may be an image in which the in-body error is corrected based on the auxiliary image.

인바디 에러란 매팅 알고리즘을 통해 배경을 제거하여 전경만을 획득하는 과정에서, 인바디 영역의 일부가 왜곡되는 것을 말한다.Inbadic error refers to the distortion of a part of the inbuilt area in the process of acquiring only the foreground by removing the background through the matching algorithm.

셋톱 박스(100)는 매팅된 영상의 기설정된 영역을 반투명 처리할 수 있다. 셋톱 박스(100)는 매팅된 영상의 경계 영역을 반투명하게 처리하여 바운더리(Boundary) 에러를 보정할 수 있다.The set-top box 100 can semi-transparently process predetermined areas of the mapped image. The set top box 100 can correct the boundary error by semi-transparently processing the boundary area of the mapped image.

예를 들면, 셋톱 박스(100)는 매팅된 영상을 이원 세그먼테이션(binary segmentation) 결과에 가이던스(Guidance) 이미지를 적용한 가이드(Guided) 필터에 입력함으로써, 매팅된 영상의 각 픽셀마다 세그먼테이션의 강도를 도출하고, 각 픽셀마다 도출된 세그먼테이션의 강도에 기초하여, 각 픽셀마다 블렌딩(Blending) 계수를 할당할 수 있다. For example, the set-top box 100 inputs the mapped image into a guided filter to which a guidance image is applied to a binary segmentation result, thereby calculating the intensity of the segmentation for each pixel of the mapped image , And a blending coefficient may be assigned to each pixel based on the intensity of the segmentation derived for each pixel.

셋톱 박스(100)는 상기 블렌딩 계수에 기초하여 상기 바운더리 에러를 보정할 수 있다. 블렌딩 계수는 세그먼테이션의 강도에 반비례하여 각 픽셀마다 할당될 수 있다. 이와 관련된 구체적인 내용은 도 4를 참조하여 후술하기로 한다.The set-top box 100 may correct the boundary error based on the blending coefficient. The blending coefficients may be assigned to each pixel in inverse proportion to the intensity of the segmentation. Specific details related thereto will be described later with reference to FIG.

셋톱 박스(100)는 방송 영상과 매팅된 영상을 합성할 수 있다. 셋톱 박스(100)는 기설정된 영역이 반투명 처리된 매팅된 영상을 방송 영상에 합성할 수 있다.The set-top box 100 may combine the broadcast image and the mapped image. The set-top box 100 may synthesize a mapped image that has been semi-transparent processed in a preset area into a broadcast image.

클라우드 서버(110)는 셋톱 박스(100)로부터 수신한 객체의 영상의 배경을 제거하여 매팅된 영상을 생성할 수 있다. 클라우드 서버(110)는 매팅 알고리즘을 이용하여 매팅된 영상을 생성함에 있어서, 보조 이미지에 기초하여 인바디(In-body) 에러가 보정된 매팅된 영상을 생성할 수 있다.The cloud server 110 may generate a mapped image by removing the background image of the object received from the set top box 100. [ In generating the mapped image using the matting algorithm, the cloud server 110 may generate a mapped image in which the in-body error is corrected based on the auxiliary image.

예를 들면, 클라우드 서버(110)는 매팅 알고리즘을 수행함에 있어서, 보조 이미지에 기초하여, 스켈레톤 딜레이션(Dilation)을 수행하고, 스켈레톤 딜레이션(Dilation)을 통해 대략의 객체 영역을 추출할 수 있다. 또한, 클라우드 서버(110)는 대략의 객체 영역 및 객체 이미지에 기반하여 생성된 매트 맵을 합성하여 인바디 에러가 보정된 매팅된 영상을 생성할 수 있다.For example, the cloud server 110 may perform a skeleton dilation based on the secondary image and extract an approximate object region through skeleton dilation in performing the matching algorithm . In addition, the cloud server 110 may synthesize the mat-map generated based on the approximate object region and the object image to generate mapped image corrected with the in-bard error.

스켈레톤 딜레이션은 스켈레톤 이미지를 기설정된 범위만큼 팽창 시키는 것일 수 있다.The skeleton dilation may be to expand the skeleton image by a predetermined range.

클라우드 서버(110)는 매팅된 영상을 상기 셋톱 박스(100)로 전송할 수 있다.The cloud server 110 may transmit the mapped image to the settop box 100. [

제 1 외부 디바이스(120)는 제 1 외부 디바이스(120)의 카메라를 통해 촬영된 객체의 영상을 셋톱 박스(100)로 전송할 수 있다. The first external device 120 may transmit the image of the object photographed through the camera of the first external device 120 to the settop box 100.

제 1 외부 디바이스(120)의 일예는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트패드(smartpad), 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다.An example of the first external device 120 is a wireless communication device that is guaranteed to be portable and mobility. The first external device 120 may be a Personal Communication System (PCS), a Global System for Mobile communications (GSM), a Personal Digital Cellular (PDC) , PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication) -2000, CDMA (Code Division Multiple Access) -2000, W-CDMA (W-CDMA), Wibro (Wireless Broadband Internet) smart phones, smartpads, tablet PCs, and the like.

앞서 설명한 바와 같이, 제 1 외부 디바이스(120)는 셋톱 박스(100) 자체에 구비되어 있는 카메라일 수도 있다.As described above, the first external device 120 may be a camera provided in the set-top box 100 itself.

제 2 외부 디바이스(120)는 객체의 영상에 대한 보조 이미지를 셋톱 박스(100)로 전송할 수 있다. 보조 이미지는 객체의 영상의 정지 프레임 중 적어도 하나에 대한 스켈레톤(skeleton) 이미지일 수 있다.The second external device 120 may transmit an auxiliary image for the image of the object to the set top box 100. The secondary image may be a skeleton image for at least one of the still frames of the object's image.

예를 들면, 제 2 외부 디바이스(120)는 객체의 영상의 복수의 정지 프레임 중 적어도 하나를 선택하고, 선택된 정지 프레임에 대한 스켈레톤 이미지를 생성하고, 이를 셋톱 박스(100)로 전송할 수 있다. 스켈레톤 이미지는 클라우드 서버(110)가 객체의 영상의 배경이 제거된 매팅된 영상을 생성함에 있어서, 인바디 에러를 보정하는데 이용될 수 있다.For example, the second external device 120 may select at least one of a plurality of still frames of the image of the object, generate a skeleton image for the selected still frame, and transmit the skeleton image to the set top box 100. The skeleton image may be used by the cloud server 110 to correct the inborn error in generating a mapped image with the background of the image of the object removed.

제 2 외부 디바이스(120)의 일예는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트패드(smartpad), 태블릿 PC, 스마트 워치 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다.An example of the second external device 120 is a wireless communication device that ensures portability and mobility. The second external device 120 may be a personal communication system (PCS), a global system for mobile communications (GSM), a personal digital cellular (PDC) , PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication) -2000, CDMA (Code Division Multiple Access) -2000, W-CDMA (W-CDMA), Wibro (Wireless Broadband Internet) smart phones, smartpads, smartpads, tablet PCs, smart watches, and the like.

도 2는 본 발명의 일 실시예에 따른 셋톱 박스의 블록도이다. 도 2를 참조하면, 셋톱 박스(100)는 객체 영상 수신부(200), 객체 영상 전송부(210), 보조 이미지 수신부(220), 매팅 영상 수신부(230), 영상 보정부(240), 가이드 필터(250), 블렌딩 계수 할당부(260) 및 영상 합성부(270)을 포함할 수 있다.2 is a block diagram of a set-top box according to an embodiment of the present invention. 2, the set-top box 100 includes an object image receiving unit 200, an object image transmitting unit 210, an auxiliary image receiving unit 220, a matting image receiving unit 230, an image correcting unit 240, A blending coefficient assigning unit 260, and an image combining unit 270. [

객체 영상 수신부(200)는 제 1 외부 디바이스(120)의 카메라에 의해 촬영된 객체의 영상을 제 1 외부 디바이스(120)로부터 수신할 수 있다.The object image receiving unit 200 can receive an image of an object photographed by a camera of the first external device 120 from the first external device 120. [

객체 영상 전송부(210)는 객체의 영상을 클라우드 서버(110)로 전송할 수 있다.The object image transmitting unit 210 may transmit the image of the object to the cloud server 110. [

보조 이미지 수신부(220)는 제 2 외부 디바이스(130)로부터 객체의 영상에 대한 보조 이미지를 수신할 수 있다. 보조 이미지는 객체의 영상의 정지 프레임 중 적어도 하나에 대한 스켈레톤(skeleton) 이미지일 수 있다.The auxiliary image receiving unit 220 may receive the auxiliary image for the image of the object from the second external device 130. [ The secondary image may be a skeleton image for at least one of the still frames of the object's image.

객체 영상 전송부(210)는 보조 이미지를 클라우드 서버(110)로 전송할 수 있다.The object image transmitting unit 210 may transmit the auxiliary image to the cloud server 110.

매팅 영상 수신부(230)는 클라우드 서버(110)로부터 객체의 영상의 배경이 제거된 매팅된(Matted) 영상을 수신할 수 있다. 클라우드 서버(110)로부터 수신한 매팅된 영상은 보조 이미지에 기초하여 인바디(In-body) 에러가 보정된 영상일 수 있다.The matting image receiving unit 230 may receive a matted image from which the background of the object image is removed from the cloud server 110. [ The mapped image received from the cloud server 110 may be an image in which the in-body error is corrected based on the auxiliary image.

인바디 에러란 매팅 알고리즘을 통해 배경을 제거하여 전경만을 획득하는 과정에서, 인바디 영역의 일부가 왜곡되는 것을 말한다.Inbadic error refers to the distortion of a part of the inbuilt area in the process of acquiring only the foreground by removing the background through the matching algorithm.

영상 보정부(240)는 매팅된 영상의 기설정된 영역을 반투명 처리할 수 있다. 셋톱 박스(100)는 매팅된 영상의 경계 영역을 반투명하게 처리하여 바운더리(Boundary) 에러를 보정할 수 있다.The image correcting unit 240 may semi-transparently process a predetermined area of the mapped image. The set top box 100 can correct the boundary error by semi-transparently processing the boundary area of the mapped image.

영상 보정부(240)는 가이드 필터(250) 및 블렌딩 계수 할당부(260)를 포함할 수 있다.The image correcting unit 240 may include a guide filter 250 and a blending coefficient assigning unit 260.

가이드 필터(250)는 이원 세그먼테이션(binary segmentation) 결과에 가이던스(Guidance) 이미지를 적용한 것일 수 있다. The guide filter 250 may be one obtained by applying a guidance image to a binary segmentation result.

블렌딩 계수 할당부(260)는 매팅된 영상의 각 픽셀마다 도출된 세그먼테이션의 강도에 기초하여, 각 픽셀마다 블렌딩(Blending) 계수를 할당할 수 있다.The blending coefficient assigning unit 260 may assign a blending coefficient to each pixel based on the intensity of the segmentation derived for each pixel of the mapped image.

예를 들면, 영상 보정부(240)는 매팅된 영상을 가이드(Guided) 필터에 입력함으로써, 매팅된 영상의 각 픽셀마다 세그먼테이션의 강도를 도출하고, 각 픽셀마다 블렌딩(Blending) 계수를 할당할 수 있다. 블렌딩 계수는 세그먼테이션의 강도에 반비례하여 각 픽셀마다 할당될 수 있다. For example, the image correcting unit 240 may input the mapped image into a guided filter to derive the intensity of the segmentation for each pixel of the mapped image, and assign a blending coefficient to each pixel have. The blending coefficients may be assigned to each pixel in inverse proportion to the intensity of the segmentation.

영상 보정부(240)는 상기 블렌딩 계수에 기초하여 상기 바운더리 에러를 보정할 수 있다. 예를 들면, 영상 보정부(240)는 블렌딩 계수가 기설정된 값 이하인 픽셀의 경우, 해당 픽셀에 대한 바운더리 에러 보정을 하지 않고, 블렌딩 계수가 기설정된 값 이상인 픽셀에 대하여, 블렌딩 계수에 비례하여 반투명 계수를 설정하고, 이에 따라 반투명 처리를 할 수 있다.The image correction unit 240 may correct the boundary error based on the blending coefficient. For example, in the case of a pixel having a blending coefficient of a predetermined value or less, the image correcting unit 240 does not perform the boundary error correction for the pixel, and, for a pixel whose blending coefficient is equal to or larger than a predetermined value, The coefficient can be set, and the semi-transparent processing can be performed accordingly.

이에 따라, 객체의 내부에는 바운더리 에러 보정 처리가 수행되지 않고, 객체의 외부에서 에러 보정 처리가 수행될 수 있다. 특히, 객체의 외부에 있어서, 배경에 가까운 픽셀일수록 더 반투명하게 처리할 수 있다.Accordingly, the boundary error correction process is not performed inside the object, and the error correction process can be performed outside the object. In particular, the more pixels outside the object, the closer it is to the background, the more translucent it can be.

따라서, 바운더리 에러를 보정하여, 합성된 영상에서 객체의 영상이 부자연스럽지 않도록 할 수 있다.Therefore, it is possible to correct the boundary error so that the image of the object in the synthesized image is not unnatural.

영상 합성부(270)는 방송 영상과 매팅된 영상을 합성할 수 있다. 셋톱 박스(100)는 기설정된 영역이 반투명 처리된 매팅된 영상을 방송 영상에 합성할 수 있다.The image combining unit 270 may combine the broadcast image and the mapped image. The set-top box 100 may synthesize a mapped image that has been semi-transparent processed in a preset area into a broadcast image.

도 3은 본 발명의 일 실시예에 따른 제 2 외부 디바이스로부터 수신한 보조 이미지를 이용하여 인바디(In-body) 에러를 보정하는 것을 설명하기 위한 도면이다.3 is a diagram for explaining correction of an in-body error using an auxiliary image received from a second external device according to an embodiment of the present invention.

제 2 외부 디바이스(130)는 객체의 영상에 대한 보조 이미지를 셋톱 박스(100)로 전송할 수 있다. 보조 이미지는 객체의 영상의 정지 프레임 중 적어도 하나에 대한 스켈레톤(skeleton) 이미지일 수 있다. 제 2 외부 디바이스(130)는 제 1 외부 디바이스(120)와 연동된 스마트 워치일 수 있다. The second external device 130 may transmit an auxiliary image for the image of the object to the set top box 100. The secondary image may be a skeleton image for at least one of the still frames of the object's image. The second external device 130 may be a smart watch interlocked with the first external device 120.

도 3을 참조하면, 제 2 외부 디바이스(130)는 제 1 외부 디바이스(120)로부터 객체의 영상 또는 객체의 영상 중 적어도 하나의 정지 프레임을 수신하고, 적어도 하나의 정지 프레임에 대한 스켈레톤 이미지(300)를 생성할 수 있다.3, the second external device 130 receives at least one still frame of an image of an object or an object of the object from the first external device 120, and generates a skeleton image 300 Can be generated.

정지 프레임에 대한 스켈레톤 이미지(300)는, 제 2 외부 디바이스(130)가 적어도 하나의 정지 프레임을 출력하고, 사용자로부터 정지 프레임에 대한 스켈레톤 이미지(300)를 수신함으로써 생성될 수 있다.The skeleton image 300 for the still frame can be generated by the second external device 130 outputting at least one still frame and receiving the skeleton image 300 for the still frame from the user.

이에 반해, 제 2 외부 디바이스(130)가 적어도 하나의 정지 프레임에 대한 스켈레톤 이미지(300)를 직접 생성할 수도 있다.In contrast, the second external device 130 may directly generate the skeleton image 300 for at least one still frame.

셋톱 박스(100)가 제 2 외부 디바이스(130)로부터 수신한 스켈레톤 이미지(300)를 전송함으로써, 클라우드 서버(110)가 매팅 알고리즘을 수행함에 있어서, 보조 이미지에 기초하여, 스켈레톤 딜레이션(Dilation)을 수행하고, 스켈레톤 딜레이션을 통해 대략의 객체 영역(320)을 추출할 수 있다. 또한, 클라우드 서버(110)는 대략의 객체 영역(320) 및 객체 이미지에 기반하여 생성된 매트 맵(320)을 합성하여 인바디 에러(330)가 보정된 매팅된 영상을 생성할 수 있다.When the set-top box 100 transmits the skeleton image 300 received from the second external device 130, the cloud server 110 performs a matting algorithm, thereby generating a skeleton delay based on the secondary image, , And extract the approximate object region 320 through the skeleton delays. In addition, the cloud server 110 may generate a mapped image in which the inborn error 330 is corrected by combining the approximate object region 320 and the matmap 320 generated based on the object image.

스켈레톤 딜레이션(310)은 스켈레톤 이미지를 기설정된 범위만큼 팽창 시키는 것일 수 있다.The skeleton dilation 310 may be to expand the skeleton image by a predetermined range.

도 4는 본 발명의 일 실시예에 따른 가이드(Guided) 필터를 이용하여 바운더리(Boundary) 에러를 보정하는 것을 설명하기 위한 도면이다.4 is a diagram for explaining correction of a boundary error using a guided filter according to an embodiment of the present invention.

셋톱 박스(100)는 매팅된 영상의 기설정된 영역을 반투명 처리할 수 있다. 셋톱 박스(100)는 매팅된 영상의 경계 영역을 반투명하게 처리하여 바운더리(Boundary) 에러를 보정할 수 있다.The set-top box 100 can semi-transparently process predetermined areas of the mapped image. The set top box 100 can correct the boundary error by semi-transparently processing the boundary area of the mapped image.

도 4를 참조하면, 셋톱 박스(100)는 매팅된 영상(400)을 이원 세그먼테이션(binary segmentation) 결과에 가이던스(Guidance) 이미지를 적용한 가이드 필터를 이용하여 세그먼테이션의 강도를 도출할 수 있다.Referring to FIG. 4, the set-top box 100 can derive the segmentation intensity using a guide filter in which a guidance image is applied to a binary segmentation result of the mapped image 400. FIG.

또한, 셋톱 박스(100)는 각 픽셀의 세그먼테이션의 강도에 기초하여 각 픽셀마다 블렌딩(Blending) 계수를 할당할 수 있다. 블렌딩 계수는 세그먼테이션의 강도에 반비례하여 각 픽셀마다 할당될 수 있다.In addition, the set-top box 100 can assign a blending coefficient to each pixel based on the intensity of the segmentation of each pixel. The blending coefficients may be assigned to each pixel in inverse proportion to the intensity of the segmentation.

예를 들면, 도 4에 도시된 가이드 필터를 통해 출력된 이미지(410)에 있어서, 내부(420)는 세그먼테이션의 강도가 높게 도출되므로, 낮은 블렌딩 계수가 할당되고, 외부(320)는 세그먼테이션의 강도가 낮게 도출되므로, 높은 블렌딩 계수가 할당될 수 있다.For example, in the image 410 output through the guide filter shown in FIG. 4, the interior 420 is assigned a low blending coefficient because the intensity of the segmentation is high, and the exterior 320 is the intensity of the segmentation Is derived, a high blending coefficient can be assigned.

세그먼테이션의 강도는 0 부터 1 사이의 값에 해당할 수 있고, 각 픽셀마다 상이한 값을 가질 수 있다. 따라서, 각 픽셀의 블렌딩 계수 또한, 각 픽셀마다 상이할 수 있다.The intensity of the segmentation may correspond to a value between 0 and 1, and may have a different value for each pixel. Therefore, the blending coefficient of each pixel may also be different for each pixel.

셋톱 박스(100)는 각 픽셀마다 할당된 블렌딩 계수에 기초하여 상기 바운더리 에러를 보정할 수 있다. 예를 들면, 셋톱 박스(100)는 블렌딩 계수가 기설정된 값 이하인 픽셀의 경우, 해당 픽셀에 대한 바운더리 에러 보정을 하지 않고, 블렌딩 계수가 기설정된 값 이상인 픽셀에 대하여, 블렌딩 계수에 비례하여 반투명 계수를 설정하고, 이에 따라 반투명 처리를 할 수 있다.The set-top box 100 can correct the boundary error based on the blending coefficient assigned to each pixel. For example, in the case of a pixel whose blending coefficient is equal to or less than a preset value, the set-top box 100 does not perform boundary error correction for the pixel, and for a pixel whose blending coefficient is equal to or larger than a predetermined value, And the translucent process can be performed accordingly.

이에 따라, 객체의 내부(420)에는 바운더리 에러 보정 처리가 수행되지 않고, 객체의 외부(430)에서 에러 보정 처리가 수행될 수 있다. 특히, 객체의 외부(430)에 있어서, 배경에 가까운 픽셀일수록 더 반투명하게 처리할 수 있다.Accordingly, the boundary error correction process is not performed on the inner part 420 of the object, and the error correction process can be performed on the outer part 430 of the object. In particular, in the outer portion 430 of the object, pixels closer to the background can be processed more semi-transparently.

따라서, 바운더리 에러를 보정하여, 합성된 영상에서 객체의 영상이 부자연스럽지 않도록 할 수 있다.Therefore, it is possible to correct the boundary error so that the image of the object in the synthesized image is not unnatural.

도 5는 본 발명의 일 실시예에 따른 바운더리 에러가 보정된 합성 영상을 나타낸 도면이다.5 is a view illustrating a composite image in which a boundary error is corrected according to an embodiment of the present invention.

도 5를 참조하면, 도면 부호 500은 방송 영상에 합성된 객체의 영상을 나타낸 것이다. 일반적으로 사용자는 영상을 시청할 때, 도면 부호 510과 같이, 빠른 모션이 존재하는 경우 희미하게 보이는(Blur) 현상에 익숙하다. 따라서, 셋톱 박스(100)가 도면 부호 520과 같이 바운더리 에러를 보정하여 자연스러운 합성 효과를 얻을 수 있다.Referring to FIG. 5, reference numeral 500 denotes an image of an object synthesized in a broadcast image. In general, the user is familiar with blurring phenomenon when fast motion exists, such as reference numeral 510, when viewing an image. Accordingly, the set-top box 100 corrects the boundary error as indicated by reference numeral 520, and a natural synthesis effect can be obtained.

도 6은 본 발명의 일 실시예에 따른 제 1 외부 디바이스의 카메라에 의해 촬영된 객체의 영상과 방송 영상을 합성하는 것을 설명하기 위한 도면이다.FIG. 6 is a view for explaining the synthesis of an image of an object photographed by a camera of a first external device and a broadcast image according to an embodiment of the present invention.

도 6을 참조하면, 사용자가 방송 시청 중, 제 1 외부 디바이스(120)의 카메라를 이용하여 자신의 모습(600)을 촬영하면, 셋톱 박스(100)는 객체의 영상을 클라우드 서버(110)로 전송하고, 클라우드 서버로(120)부터 수신한 매팅된 영상과 방송 영상을 합성할 수 있다.6, when the user photographs his or her own image 600 using the camera of the first external device 120 during the broadcast viewing, the set-top box 100 transmits the image of the object to the cloud server 110 And combines the mapped image and the broadcast image received from the cloud server 120.

따라서, 매팅된 객체의 영상(620)이 방송 화면(610)에 합성될 수 있다. 이러한 과정은 실시간으로 이루어지므로, 사용자의 모든 동작이 방송 영상과 함께 출력될 수 있다.Thus, a video 620 of the mapped object may be composited on the broadcast screen 610. Since this process is performed in real time, all the operations of the user can be output together with the broadcast image.

도 7은 본 발명의 일 실시예에 따른 방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 방법을 나타낸 흐름도이다. 도 7에 도시된 일 실시예에 따른 방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 방법은 도 1에 도시된 시스템에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 7에 도시된 일 실시예에 따라 수행되는 방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 방법에도 적용된다.7 is a flowchart illustrating a method of composing an image of a broadcast image and an object received from a camera according to an embodiment of the present invention. The method of synthesizing the broadcast image according to the embodiment shown in FIG. 7 and the image of the object received from the camera includes the steps of time series processing in the system shown in FIG. Accordingly, the present invention is also applied to a method of synthesizing an image of an object received from a camera and a broadcast image performed according to an embodiment shown in FIG.

도 7을 참조하면, 단계 S700에서, 셋톱 박스(100)는 제 1 외부 디바이스(120)의 카메라에 의해 촬영된 객체의 영상을 상기 제 1 외부 디바이스(120)로부터 수신할 수 있다.Referring to FIG. 7, in step S700, the set-top box 100 can receive an image of an object photographed by a camera of the first external device 120 from the first external device 120. FIG.

단계 S710에서, 셋톱 박스(100)는 객체의 영상을 클라우드 서버(110)로 전송할 수 있다.In step S710, the set-top box 100 may transmit an image of the object to the cloud server 110. [

단계 S720에서, 셋톱 박스(100)는 클라우드 서버(110)로부터 객체의 영상의 배경이 제거된 매팅된(Matted) 영상을 수신할 수 있다.In step S720, the set-top box 100 may receive a matted image from which the background of the image of the object is removed from the cloud server 110. [

단계 S730에서, 셋톱 박스(100)는 매팅된 영상의 기설정된 영역을 반투명 처리할 수 있다.In step S730, the set top box 100 may semi-transparently process a predetermined area of the mapped image.

단계 S740에서, 셋톱 박스(100)는 방송 영상과 상기 매팅된 영상을 합성할 수 있다.In step S740, the set-top box 100 may combine the broadcast image and the mapped image.

도 7을 통해 설명된 방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 방법은 매체에 저장된 컴퓨터 프로그램의 형태로 구현되거나, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. The method of synthesizing the broadcast image and the image of the object received from the camera illustrated in FIG. 7 may be implemented in the form of a computer program stored in a medium or may include a command executable by a computer such as a program module executed by a computer But may also be embodied in the form of a recording medium. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium can include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100: 셋톱 박스
110: 클라우드 서버
120: 제 1 외부 디바이스
130: 제 2 외부 디바이스
100: Set-top box
110: Cloud server
120: first external device
130: second external device

Claims (17)

방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 방법에 있어서,
제 1 외부 디바이스의 카메라에 의해 촬영된 객체의 영상을 상기 제 1 외부 디바이스로부터 수신하는 단계;
상기 객체의 영상을 클라우드 서버로 전송하는 단계;
상기 클라우드 서버로부터 상기 객체의 영상의 배경이 제거된 매팅된(Matted) 영상을 수신하는 단계;
상기 매팅된 영상의 기설정된 영역을 반투명 처리하는 단계; 및
상기 방송 영상과 상기 매팅된 영상을 합성하는 단계
를 포함하는 것인, 영상 합성 방법.
A method for compositing an image of a broadcast image and an object received from a camera,
Receiving an image of an object photographed by a camera of a first external device from the first external device;
Transmitting an image of the object to a cloud server;
Receiving a matted image from which the background of the image of the object is removed from the cloud server;
Translucently processing a predetermined area of the mapped image; And
Synthesizing the broadcast image and the mapped image
And the image synthesis method.
제 1 항에 있어서,
제 2 외부 디바이스로부터 상기 객체의 영상에 대한 보조 이미지를 수신하는 단계; 및
상기 보조 이미지를 상기 클라우드 서버로 전송하는 단계
를 더 포함하는 것인, 영상 합성 방법.
The method according to claim 1,
Receiving an auxiliary image for an image of the object from a second external device; And
Transmitting the secondary image to the cloud server
Further comprising the steps of:
제 2 항에 있어서,
상기 보조 이미지는 상기 객체의 영상의 정지 프레임 중 적어도 하나에 대한 스켈레톤(skeleton) 이미지인 것인, 영상 합성 방법.
3. The method of claim 2,
Wherein the auxiliary image is a skeleton image for at least one of the still frames of the image of the object.
제 2 항에 있어서,
상기 제 2 외부 디바이스는 상기 제 1 외부 디바이스와 연동된 스마트 워치인 것인, 영상 합성 방법.
3. The method of claim 2,
Wherein the second external device is a smart watch interlocked with the first external device.
제 2 항에 있어서,
상기 매팅된 영상은 상기 보조 이미지에 기초하여 인바디(In-body) 에러가 보정된 것인, 영상 합성 방법.
3. The method of claim 2,
Wherein the mapped image is corrected for an in-body error based on the auxiliary image.
제 1 항에 있어서,
상기 매팅된 영상의 기설정된 영역을 반투명 처리하는 단계는
상기 매팅된 영상의 경계 영역을 반투명하게 처리하여 바운더리(Boundary) 에러를 보정하는 단계
를 포함하는 것인, 영상 합성 방법.
The method according to claim 1,
The step of semitransparently processing a predetermined area of the mapped image
A step of correcting a boundary error by semi-transparently processing a border area of the mapped image
And the image synthesis method.
제 6 항에 있어서,
상기 바운더리(Boundary) 에러를 보정하는 단계는
상기 매팅된 영상을 이원 세그먼테이션(binary segmentation) 결과에 가이던스(Guidance) 이미지를 적용한 가이드(Guided) 필터에 입력함으로써, 상기 매팅된 영상의 각 픽셀마다 세그먼테이션의 강도를 도출하는 단계;
상기 각 픽셀마다 도출된 세그먼테이션의 강도에 기초하여, 상기 각 픽셀마다 블렌딩(Blending) 계수를 할당하는 단계
를 포함하는 것인, 영상 합성 방법.
The method according to claim 6,
The step of correcting the boundary error may comprise:
Deriving a segmentation intensity for each pixel of the mapped image by inputting the mapped image into a guided filter to which a guidance image is applied to a binary segmentation result;
Assigning a blending coefficient to each pixel based on the intensity of the segmentation derived for each pixel;
And the image synthesis method.
제 7 항에 있어서,
상기 블렌딩 계수는 상기 세그먼테이션의 강도에 반비례하여 상기 각 픽셀마다 할당되고,
상기 블렌딩 계수에 기초하여 상기 바운더리 에러를 보정하는 것인, 영상 합성 방법.
8. The method of claim 7,
Wherein the blending coefficient is allocated for each pixel in inverse proportion to the intensity of the segmentation,
And corrects the boundary error based on the blending coefficient.
방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 셋톱 박스에 있어서,
제 1 외부 디바이스의 카메라에 의해 촬영된 객체의 영상을 상기 제 1 외부 디바이스로부터 수신하는 객체 영상 수신부;
상기 객체의 영상을 클라우드 서버로 전송하는 객체 영상 전송부;
상기 클라우드 서버로부터 상기 객체의 영상의 배경이 제거된 매팅된(Matted) 영상을 수신하는 매팅 영상 수신부;
상기 매팅된 영상의 기설정된 영역을 반투명 처리하는 영상 보정부; 및
상기 방송 영상과 상기 매팅된 영상을 합성하는 영상 합성부
를 포함하는 것인, 셋톱 박스.
A set-top box for synthesizing a broadcast image and an image of an object received from a camera,
An object image receiving unit receiving an image of an object photographed by a camera of a first external device from the first external device;
An object image transmitting unit for transmitting the image of the object to the cloud server;
A matting image receiving unit receiving a matted image from which the background of the image of the object is removed from the cloud server;
An image correcting part for semitransparently processing a predetermined area of the mapped image; And
And an image synthesizing unit for synthesizing the broadcast image and the mapped image,
Lt; / RTI >
제 9 항에 있어서,
제 2 외부 디바이스로부터 상기 객체의 영상에 대한 보조 이미지를 수신하는 보조 이미지 수신부
를 더 포함하고,
상기 객체 영상 전송부는 상기 보조 이미지를 상기 클라우드 서버로 전송하는 것인, 셋톱 박스.
10. The method of claim 9,
An auxiliary image receiver for receiving an auxiliary image for an image of the object from a second external device;
Further comprising:
And the object image transmitting unit transmits the auxiliary image to the cloud server.
제 10 항에 있어서,
상기 보조 이미지는 상기 객체의 영상의 정지 프레임 중 적어도 하나에 대한 스켈레톤(skeleton) 이미지인 것인, 셋톱 박스.
11. The method of claim 10,
Wherein the secondary image is a skeleton image for at least one of the still frames of the image of the object.
제 10 항에 있어서,
상기 제 2 외부 디바이스는 상기 제 1 외부 디바이스와 연동된 스마트 워치인 것인, 셋톱 박스.
11. The method of claim 10,
And the second external device is a smart watch interlocked with the first external device.
제 10 항에 있어서,
상기 매팅된 영상은 상기 보조 이미지에 기초하여 인바디(In-body) 에러가 보정된 것인, 셋톱 박스.
11. The method of claim 10,
Wherein the mapped image is corrected for an in-body error based on the auxiliary image.
제 9 항에 있어서,
상기 영상 보정부는 상기 매팅된 영상의 경계 영역을 반투명하게 처리하여 바운더리(Boundary) 에러를 보정하는 것인, 셋톱 박스.
10. The method of claim 9,
Wherein the image correction unit corrects a boundary error by semi-transparently processing a boundary area of the mapped image.
제 14 항에 있어서,
상기 영상 보정부는
이원 세그먼테이션(binary segmentation) 결과에 가이던스(Guidance) 이미지를 적용한 가이드(Guided) 필터; 및
상기 매팅된 영상의 각 픽셀마다 도출된 세그먼테이션의 강도에 기초하여, 상기 각 픽셀마다 블렌딩(Blending) 계수를 할당하는 블렌딩 계수 할당부
를 더 포함하고,
상기 영상 보정부는 상기 매팅된 영상을 상기 가이드 필터에 입력함으로써, 상기 매팅된 영상의 각 픽셀마다 세그먼테이션의 강도를 도출하는 것인, 셋톱 박스.
15. The method of claim 14,
The image correction unit
A guided filter to which a guidance image is applied to a binary segmentation result; And
A blending coefficient assigning unit for assigning a blending coefficient to each pixel based on intensity of the segmentation derived for each pixel of the mapped image,
Further comprising:
Wherein the image corrector derives the intensity of segmentation for each pixel of the mapped image by inputting the mapped image into the guide filter.
제 15 항에 있어서,
상기 블렌딩 계수는 상기 세그먼테이션의 강도에 반비례하여 상기 각 픽셀마다 할당되고,
상기 영상 보정부는 상기 블렌딩 계수에 기초하여 상기 바운더리 에러를 보정하는 것인, 셋톱 박스.
16. The method of claim 15,
Wherein the blending coefficient is allocated for each pixel in inverse proportion to the intensity of the segmentation,
Wherein the image correction unit corrects the boundary error based on the blending coefficient.
방송 영상과 카메라로부터 수신한 객체의 영상을 합성하는 시스템에 있어서,
셋톱 박스; 및
클라우드 서버
를 포함하되,
상기 셋톱 박스는,
제 1 외부 디바이스의 카메라에 의해 촬영된 객체의 영상을 상기 제 1 외부 디바이스로부터 수신하고,
상기 객체의 영상을 상기 클라우드 서버로 전송하고,
상기 클라우드 서버로부터 수신한 상기 객체의 영상의 배경이 제거된 매팅된(Matted) 영상의 기설정된 영역을 반투명 처리하고,
상기 방송 영상과 상기 매팅된 영상을 합성하도록 구성되고,
상기 클라우드 서버는,
상기 셋톱 박스로부터 수신한 객체의 영상의 배경을 제거하여 매팅된 영상을 생성하고,
상기 매팅된 영상을 상기 셋톱 박스로 전송하도록 구성되는 것인, 시스템.
A system for synthesizing a broadcast image and an image of an object received from a camera,
Set top box; And
Cloud server
, ≪ / RTI &
The set-
Receiving an image of an object photographed by a camera of the first external device from the first external device,
Transmitting an image of the object to the cloud server,
Translucently processes a predetermined area of a matted image from which the background of the image of the object received from the cloud server is removed,
And to combine the broadcast image and the mapped image,
The cloud server includes:
Generating a mapped image by removing the background of the image of the object received from the set-top box,
And transmit the mapped image to the settop box.
KR1020150097432A 2015-07-08 2015-07-08 Method of combining broadcasting image and object image captured by camera, set-top box and system KR101932487B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150097432A KR101932487B1 (en) 2015-07-08 2015-07-08 Method of combining broadcasting image and object image captured by camera, set-top box and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150097432A KR101932487B1 (en) 2015-07-08 2015-07-08 Method of combining broadcasting image and object image captured by camera, set-top box and system

Publications (2)

Publication Number Publication Date
KR20170006591A true KR20170006591A (en) 2017-01-18
KR101932487B1 KR101932487B1 (en) 2018-12-26

Family

ID=57991845

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150097432A KR101932487B1 (en) 2015-07-08 2015-07-08 Method of combining broadcasting image and object image captured by camera, set-top box and system

Country Status (1)

Country Link
KR (1) KR101932487B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020141808A1 (en) * 2019-01-04 2020-07-09 삼성전자 주식회사 Electronic device and method for editing content of external device
US11151747B2 (en) 2019-03-20 2021-10-19 Kt Corporation Creating video augmented reality using set-top box

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100660490B1 (en) * 2003-02-25 2006-12-22 마이크로소프트 코포레이션 Image blending by guided interpolation
KR20070064895A (en) * 2005-12-19 2007-06-22 에스케이 텔레콤주식회사 System for processing a broadcasting image and a method the same
KR101176649B1 (en) * 2004-08-09 2012-08-23 마이크로소프트 코포레이션 Border matting by dynamic programming

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100660490B1 (en) * 2003-02-25 2006-12-22 마이크로소프트 코포레이션 Image blending by guided interpolation
KR101176649B1 (en) * 2004-08-09 2012-08-23 마이크로소프트 코포레이션 Border matting by dynamic programming
KR20070064895A (en) * 2005-12-19 2007-06-22 에스케이 텔레콤주식회사 System for processing a broadcasting image and a method the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020141808A1 (en) * 2019-01-04 2020-07-09 삼성전자 주식회사 Electronic device and method for editing content of external device
US11810231B2 (en) 2019-01-04 2023-11-07 Samsung Electronics Co., Ltd. Electronic device and method for editing content of external device
US11151747B2 (en) 2019-03-20 2021-10-19 Kt Corporation Creating video augmented reality using set-top box

Also Published As

Publication number Publication date
KR101932487B1 (en) 2018-12-26

Similar Documents

Publication Publication Date Title
US11882369B2 (en) Method and system of lens shading color correction using block matching
US10916036B2 (en) Method and system of generating multi-exposure camera statistics for image processing
US20130242127A1 (en) Image creating device and image creating method
US20070165048A1 (en) Image processing device, image processing method, and image processing program
EP3497668B1 (en) Three hundred sixty degree video stitching
CN111275653A (en) Image denoising method and device
WO2020011112A1 (en) Image processing method and system, readable storage medium, and terminal
JP7100306B2 (en) Object tracking based on user-specified initialization points
US8718376B2 (en) Apparatus and method for enhancing image in portable terminal
CN110651275A (en) System and method for correcting panoramic digital overlay images
KR101932487B1 (en) Method of combining broadcasting image and object image captured by camera, set-top box and system
US11151747B2 (en) Creating video augmented reality using set-top box
US20140064605A1 (en) Image processing apparatus, image processing method, and program
US11051080B2 (en) Method for improving video resolution and video quality, encoder, and decoder
US20220327672A1 (en) Hdr tone mapping based on creative intent metadata and ambient light
US8929652B2 (en) Method and apparatus for processing image
KR20090094793A (en) Method for compositing image(or video)
KR101119067B1 (en) Mobile devices with function of compositing image(or video) and recoding medium
CN109447925B (en) Image processing method and device, storage medium and electronic equipment
CN114519753A (en) Image generation method, system, electronic device, storage medium and product
CN113012051A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
CN112446848A (en) Image processing method and device and electronic equipment
KR20170081361A (en) Video processing method, sep-top box and video processing system
CN116485979B (en) Mapping relation calculation method, color calibration method and electronic equipment
CN103685853A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant