KR102200820B1 - Device and method for providing user interaction service by analysing alpha map - Google Patents

Device and method for providing user interaction service by analysing alpha map Download PDF

Info

Publication number
KR102200820B1
KR102200820B1 KR1020160121361A KR20160121361A KR102200820B1 KR 102200820 B1 KR102200820 B1 KR 102200820B1 KR 1020160121361 A KR1020160121361 A KR 1020160121361A KR 20160121361 A KR20160121361 A KR 20160121361A KR 102200820 B1 KR102200820 B1 KR 102200820B1
Authority
KR
South Korea
Prior art keywords
image
control
alpha
alpha map
value
Prior art date
Application number
KR1020160121361A
Other languages
Korean (ko)
Other versions
KR20180032320A (en
Inventor
정영환
이용범
이주철
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020160121361A priority Critical patent/KR102200820B1/en
Publication of KR20180032320A publication Critical patent/KR20180032320A/en
Application granted granted Critical
Publication of KR102200820B1 publication Critical patent/KR102200820B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

알파맵(Alpha Map) 분석을 통한 양방향 서비스를 제공하는 사용자 단말은 레퍼런스 영상과 실시간 영상을 획득하는 영상 획득부, 레퍼런스 영상과 실시간 영상을 비교하여 실시간 영상의 각 프레임의 알파맵을 생성하는 알파맵 생성부, 알파맵의 알파값을 분석하여 컨트롤 오브젝트를 판단하고, 컨트롤 오브젝트의 알파값을 분석하여 제어 대상 장치에 대한 제어 신호를 생성하는 알파맵 분석부 및 제어 신호를 제어 대상 장치로 전송하는 제어 신호 전송부를 포함할 수 있다. User terminals that provide interactive services through alpha map analysis include an image acquisition unit that acquires a reference image and a real-time image, and an alpha map that generates an alpha map of each frame of the real-time image by comparing the reference image and the real-time image. The generator determines the control object by analyzing the alpha value of the alpha map, the alpha map analysis unit that generates a control signal for the device to be controlled by analyzing the alpha value of the control object, and the control that transmits the control signal to the control target device It may include a signal transmission unit.

Description

알파맵(Alpha Map) 분석을 통한 양방향 서비스를 제공하는 사용자 단말, 셋톱 박스 및 방법{DEVICE AND METHOD FOR PROVIDING USER INTERACTION SERVICE BY ANALYSING ALPHA MAP}User terminals, set-top boxes, and methods that provide interactive services through Alpha Map analysis {DEVICE AND METHOD FOR PROVIDING USER INTERACTION SERVICE BY ANALYSING ALPHA MAP}

본 발명은 알파맵 분석을 통한 양방향 서비스를 제공하는 사용자 단말, 셋톱 박스 및 방법에 관한 것이다.The present invention relates to a user terminal, a set-top box, and a method for providing an interactive service through alpha map analysis.

디지털 영상을 의미 있게 해석하기 위하여 객체 별로 분류하거나 관심 있는 영역으로 나누는 작업을 영상 분류라고 한다. 영상 분류 방법에는 프레임간 비교를 통하여 화소 단위로 가우시안 혼합 모델(Mixture of Gaussian Model)을 생성하여 배경을 분리하는 방법, 베이시안 결정 모델(Bayesian decision Model), 커널 밀도 모델(Kernel density Model) 및 적외선 카메라를 이용하여 객체의 깊이값을 구하고, 이를 통해 객체와 배경을 분리하는 방법 등이 있다.In order to meaningfully interpret a digital image, the work of classifying by object or dividing it into areas of interest is called image classification. Image classification methods include a method of separating the background by generating a Gaussian mixture model in pixel units through comparison between frames, a Bayesian decision model, a kernel density model, and an infrared ray. There is a method of obtaining the depth value of an object using a camera, and separating the object from the background through this.

한편, 일반적인 영상인식 방법은 영상의 명암 변화에 기초하여 영상으로부터 객체의 외곽선을 검출하고, 외곽선으로부터 객체의 특징을 추출하고, 추출된 특징 간의 관계를 파악하여 객체를 인식한다. 하지만, 이러한 영상 인식 방법은 배경의 복잡도에 따라 객체를 추출하기 어렵다는 문제점이 있다.Meanwhile, a general image recognition method recognizes an object by detecting an outline of an object from an image based on a change in contrast of the image, extracting features of the object from the outline, and grasping the relationship between the extracted features. However, this image recognition method has a problem in that it is difficult to extract an object according to the complexity of the background.

이와 관련하여, 한국공개특허 제2012-0071286호에는 주 카메라에 의해 촬영된 대상체의 주영상과 복수의 부 카메라에 의해 촬영된 부영상들을 획득하고, 주영상과 부영상들을 이용하여 주 카메라와 대상체 사이의 거리에 해당하는 깊이값을 추정하고, 추정된 깊이값을 이용하여 주영상의 알파맵을 추정하고, 추정된 알파맵을 이용하여 주영상에서 전경영역을 추출하고, 추출된 전경영역을 이용하여 영상 매팅을 수행하는 구성이 개시되어 있다.In this regard, Korean Patent Application Publication No. 2012-0071286 discloses that a main image of an object photographed by a main camera and sub-images photographed by a plurality of sub-cameras are obtained, and the main camera and the object are Estimate the depth value corresponding to the distance between, estimate the alpha map of the main image using the estimated depth value, extract the foreground region from the main image using the estimated alpha map, and use the extracted foreground region Thus, a configuration for performing image matting is disclosed.

본 발명은 레퍼런스 영상과 실시간 영상을 비교하여 실시간 영상의 각 프레임의 알파맵을 생성하고, 알파맵을 이용하여 실시간 영상의 각 프레임에 대응하는 이미지를 생성하여 이를 셋톱 박스와 같은 제어 대상 장치로 전송하고자 한다. 또한, 알파맵의 알파값 분석을 통해 컨트롤 오브젝트를 판단하고, 컨트롤 오브젝트의 알파값 분석을 통해 셋톱 박스에 대한 제어 신호를 생성하여 이를 셋톱 박스와 같은 제어 대상 장치로 전송하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.The present invention generates an alpha map of each frame of a real-time image by comparing a reference image and a real-time image, generates an image corresponding to each frame of the real-time image using the alpha map, and transmits it to a control target device such as a set-top box. I want to. In addition, a control object is determined through an alpha value analysis of an alpha map, a control signal for a set-top box is generated through an alpha value analysis of the control object, and the signal is transmitted to a control target device such as a set-top box. However, the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 알파맵(Alpha Map) 분석을 통한 양방향 서비스를 제공하는 사용자 단말은 레퍼런스 영상과 실시간 영상을 획득하는 영상 획득부; 상기 레퍼런스 영상과 상기 실시간 영상을 비교하여 상기 실시간 영상의 각 프레임의 알파맵을 생성하는 알파맵 생성부; 상기 알파맵의 알파값을 분석하여 컨트롤 오브젝트를 판단하고, 상기 컨트롤 오브젝트의 알파값을 분석하여 제어 대상 장치에 대한 제어 신호를 생성하는 알파맵 분석부; 및 상기 제어 신호를 상기 제어 대상 장치로 전송하는 제어 신호 전송부를 포함할 수 있다. 상기 제어 대상 장치는 셋톱 박스이고, 상기 제어 신호는 채널 변경 신호 및 볼륨 변경 신호를 포함할 수 있다.As a technical means for achieving the above-described technical problem, a user terminal providing an interactive service through an alpha map analysis according to a first aspect of the present invention includes an image acquisition unit for acquiring a reference image and a real-time image; An alpha map generator for comparing the reference image and the real-time image to generate an alpha map of each frame of the real-time image; An alpha map analyzer configured to analyze an alpha value of the alpha map to determine a control object, and to generate a control signal for a control target device by analyzing the alpha value of the control object; And a control signal transmission unit for transmitting the control signal to the control target device. The control target device is a set-top box, and the control signal may include a channel change signal and a volume change signal.

일예에 있어서, 상기 각 프레임의 알파맵과 원본 이미지를 이미지 처리 서버로 전송하는 알파맵 전송부를 더 포함할 수 있다. 상기 각 프레임의 알파맵과 원본 이미지로부터 생성된 이미지가 상기 제어 대상 장치를 통해 출력 중인 영상 위에 오버레이될 수 있다.In one example, it may further include an alpha map transmission unit for transmitting the alpha map and the original image of each frame to the image processing server. The alpha map of each frame and the image generated from the original image may be overlaid on the image being output through the control target device.

일예에 있어서, 상기 알파맵 분석부는 상기 알파맵을 각 픽셀의 알파값이 제 1 값인 제 1 오브젝트 및 각 픽셀의 알파값이 제 2 값인 제 2 오브젝트로 분류하는 알파맵 분류부를 포함할 수 있다. 상기 알파맵 분류부는 상기 제 1 오브젝트 및 상기 제 2 오브젝트의 위치, 모양 및 크기 중 적어도 하나에 기초하여 상기 제 1 오브젝트 및 상기 제 2 오브젝트 중 하나를 상기 컨트롤 오브젝트로 결정하는 컨트롤 오브젝트 판단부를 더 포함할 수 있다.In one example, the alpha map analyzer may include an alpha map classifier for classifying the alpha map into a first object having an alpha value of each pixel as a first value and a second object having an alpha value of each pixel as a second value. The alpha map classification unit further includes a control object determination unit determining one of the first object and the second object as the control object based on at least one of a location, shape, and size of the first object and the second object. can do.

일예에 있어서, 상기 컨트롤 오브젝트 판단부는 상기 제 1 오브젝트가 상기 제 2 오브젝트의 내부에 위치하는 경우 상기 제 1 오브젝트를 상기 적어도 하나의 컨트롤 오브젝트로 결정할 수 있다. 상기 컨트롤 오브젝트 판단부는 상기 제 1 오브젝트 및 상기 제 2 오브젝트 중 기설정된 범위의 크기에 해당하는 오브젝트를 상기 컨트롤 오브젝트로 결정할 수 있다.In an example, when the first object is located inside the second object, the control object determination unit may determine the first object as the at least one control object. The control object determination unit may determine an object corresponding to a size of a preset range among the first object and the second object as the control object.

일예에 있어서, 상기 알파맵 분석부는 상기 컨트롤 오브젝트의 크기가 기설정된 비율만큼 변한 경우 상기 제어 대상 장치의 제어 신호를 생성할 수 있다. 상기 알파맵 분석부는 상기 컨트롤 오브젝트가 기설정된 영역에 위치하는 경우 상기 제어 대상 장치의 제어 신호를 생성할 수 있다.In an example, when the size of the control object is changed by a preset ratio, the alpha map analyzer may generate a control signal of the control target device. The alpha map analyzer may generate a control signal of the control target device when the control object is located in a preset area.

본 발명의 제 2 측면에 따른 알파맵(Alpha Map)을 통한 양방향 서비스를 제공하는 셋톱 박스는 미디어 서버로부터 컨텐츠 영상을 수신하는 컨텐츠 수신부; 사용자 단말을 통해 촬영된 실시간 영상의 각 프레임의 알파맵(Alpha Map)에 대응하는 이미지를 이미지 처리 서버로부터 수신하는 이미지 수신부; 상기 수신한 이미지를 웹뷰(web view) 브라우져에 디스플레이하고, 상기 웹뷰 브라우져를 상기 컨텐츠 영상이 재생되는 플레이어에 오버레이하는 이미지 출력부; 상기 사용자 단말로부터 제어 신호를 수신하는 제어 신호 수신부; 및 상기 제어 신호에 따라 명령을 수행하는 제어부를 포함하고, 상기 제어 신호는 상기 사용자 단말에 의해 상기 알파맵의 알파값이 분석되어 컨트롤 오브젝트가 판단되고, 상기 컨트롤 오브젝트의 알파값이 분석되어 생성될 수 있다.According to a second aspect of the present invention, a set-top box providing an interactive service through an alpha map includes: a content receiver configured to receive a content image from a media server; An image receiving unit for receiving an image corresponding to an alpha map of each frame of the real-time image captured through the user terminal from the image processing server; An image output unit for displaying the received image on a web view browser and overlaying the web view browser on a player playing the content image; A control signal receiver for receiving a control signal from the user terminal; And a control unit that executes a command according to the control signal, wherein the control signal is generated by analyzing an alpha value of the alpha map by the user terminal to determine a control object, and analyzing the alpha value of the control object. I can.

일예에 있어서, 상기 이미지 출력부는 상기 이미지가 상기 컨텐츠 영상에 투영되도록 상기 웹뷰 브라우져의 투명도를 제어할 수 있다.In one example, the image output unit may control the transparency of the web view browser so that the image is projected onto the content image.

일예에 있어서, 상기 이미지 수신부는 상기 이미지 처리 서버로부터 객체의 좌표값을 더 수신할 수 있다.In one example, the image receiving unit may further receive coordinate values of the object from the image processing server.

일예에 있어서, 상기 이미지는 상기 각 프레임의 알파맵에 기초하여 상기 객체와 배경이 분리되고, 상기 좌표값은 상기 분리된 객체의 좌표값일 수 있다.In an example, in the image, the object and the background are separated based on an alpha map of each frame, and the coordinate value may be a coordinate value of the separated object.

일예에 있어서, 상기 좌표값에 기초하여 이벤트를 생성하는 이벤트 생성부를 더 포함하고, 상기 웹뷰 브라우져의 각 영역은 기설정된 이벤트가 매핑되어 있고, 상기 이벤트 생성부는 상기 객체가 위치하는 영역에 해당하는 이벤트를 생성할 수 있다.In one example, an event generator that generates an event based on the coordinate value is further included, wherein a preset event is mapped to each area of the web view browser, and the event generator is an event corresponding to an area where the object is located. Can be created.

본 발명의 제 3 측면에 따른 사용자 단말에서 수행되는 양방향 서비스를 제공하는 방법은 레퍼런스 영상과 실시간 영상을 획득하는 단계; 상기 레퍼런스 영상과 상기 실시간 영상을 비교하여 상기 실시간 영상의 각 프레임의 알파맵을 생성하는 단계; 상기 알파맵의 알파값을 분석하여 컨트롤 오브젝트를 판단하고, 상기 컨트롤 오브젝트의 알파값을 분석하여 제어 대상 장치에 대한 제어 신호를 생성하는 단계; 및 상기 제어 신호를 상기 제어 대상 장치로 전송하는 단계를 포함할 수 있다.A method of providing a two-way service performed in a user terminal according to a third aspect of the present invention includes: acquiring a reference image and a real-time image; Comparing the reference image and the real-time image to generate an alpha map of each frame of the real-time image; Analyzing an alpha value of the alpha map to determine a control object, analyzing an alpha value of the control object to generate a control signal for a control target device; And transmitting the control signal to the control target device.

일예에 있어서, 상기 각 프레임의 알파맵을 생성하는 단계는 상기 알파맵을 각 픽셀의 알파값이 제 1 값인 제 1 오브젝트 및 각 픽셀의 알파값이 제 2 값인 제 2 오브젝트로 분류하는 단계를 포함할 수 있다.In one example, generating the alpha map of each frame includes classifying the alpha map into a first object having an alpha value of each pixel as a first value and a second object having an alpha value of each pixel being a second value. can do.

일예에 있어서, 상기 분류하는 단계는 상기 제 1 오브젝트 및 상기 제 2 오브젝트의 위치, 모양 및 크기 중 적어도 하나에 기초하여 상기 제 1 오브젝트 및 상기 제 2 오브젝트 중 하나를 상기 컨트롤 오브젝트로 결정하는 단계를 포함할 수 있다.In one example, the classifying comprises determining one of the first object and the second object as the control object based on at least one of a location, shape, and size of the first object and the second object. Can include.

일예에 있어서, 상기 제어 신호를 생성하는 단계는 상기 컨트롤 오브젝트의 크기가 기설정된 비율만큼 변한 경우 상기 제어 대상 장치의 제어 신호를 생성하는 단계를 포함할 수 있다. 상기 제어 신호를 생성하는 단계는 상기 컨트롤 오브젝트가 기설정된 영역에 위치하는 경우 상기 제어 대상 장치의 제어 신호를 생성하는 단계를 포함할 수 있다.In one example, generating the control signal may include generating a control signal of the control target device when the size of the control object is changed by a preset ratio. The generating of the control signal may include generating a control signal of the control target device when the control object is located in a preset area.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 레퍼런스 영상과 실시간 영상을 비교하여 실시간 영상의 각 프레임의 알파맵을 생성하고, 알파맵을 이용하여 실시간 영상의 각 프레임에 대응하는 이미지를 생성하여 이를 셋톱 박스와 같은 제어 대상 장치로 전송할 수 있다. 또한, 알파맵의 알파값 분석을 통해 컨트롤 오브젝트를 판단하고, 컨트롤 오브젝트의 알파값 분석을 통해 셋톱 박스에 대한 제어 신호를 생성하여 이를 셋톱 박스와 같은 제어 대상 장치로 전송할 수 있다. 또한, 사용자가 별도의 컨트롤러 장치를 이용하지 않고도 알파맵을 이용하여 사용자의 동작을 인식하고, 사용자의 동작에 대한 제어 신호를 생성하여 이를 셋톱 박스와 같은 제어 대상 장치로 전송할 수 있다.According to any one of the above-described problem solving means of the present invention, an alpha map of each frame of a real-time image is generated by comparing a reference image and a real-time image, and an image corresponding to each frame of the real-time image is generated using the alpha map. Thus, it can be transmitted to a control target device such as a set-top box. In addition, a control object may be determined through an alpha value analysis of an alpha map, and a control signal for a set-top box may be generated through an alpha value analysis of the control object and transmitted to a control target device such as a set-top box. In addition, without using a separate controller device, the user may recognize a user's motion using an alpha map, generate a control signal for the user's motion, and transmit it to a control target device such as a set-top box.

도 1은 본 발명의 일 실시예에 따른, 양방향 서비스 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말의 블록도이다.
도 3은 본 발명의 일 실시예에 따른, 사용자 단말에서 수행되는 양방향 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.
도 4는 본 발명의 일 실시예에 따른, 도 1에 도시된 셋톱 박스의 블록도이다.
도 5는 본 발명의 일 실시예에 따른, 셋톱 박스에서 수행되는 양방향 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.
도 6은 본 발명의 일 실시예에 따른, 알파맵을 이용하여 추출된 객체를 나타낸 도면이다.
도 7a 및 7b는 본 발명의 일 실시예에 따른, 알파맵의 알파값을 분석하는 방법을 설명하기 위한 도면이다.
도 8a 및 8b는 본 발명의 일 실시예에 따른, 알파맵 분석을 통한 셋톱 박스에 대한 제어 신호를 생성하는 방법을 설명하기 위한 도면이다.
도 9a 및 9b는 본 발명의 일 실시예에 따른, 객체의 좌표값에 기초하여 이벤트를 생성하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른, 알파맵 분석을 통한 양방향 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.
도 11은 본 발명의 다른 실시예에 따른, 알파맵 분석을 통한 양방향 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.
1 is a block diagram of an interactive service providing system according to an embodiment of the present invention.
2 is a block diagram of the user terminal shown in FIG. 1 according to an embodiment of the present invention.
3 is a flowchart illustrating a method of providing a two-way service performed in a user terminal according to an embodiment of the present invention.
4 is a block diagram of the set-top box shown in FIG. 1 according to an embodiment of the present invention.
5 is a flowchart illustrating a method of providing a two-way service performed in a set-top box according to an embodiment of the present invention.
6 is a diagram illustrating an object extracted using an alpha map according to an embodiment of the present invention.
7A and 7B are diagrams for explaining a method of analyzing an alpha value of an alpha map according to an embodiment of the present invention.
8A and 8B are diagrams for explaining a method of generating a control signal for a set-top box through an alpha map analysis according to an embodiment of the present invention.
9A and 9B are diagrams for explaining a method of generating an event based on coordinate values of an object according to an embodiment of the present invention.
10 is a flowchart illustrating a method of providing a two-way service through alpha map analysis according to an embodiment of the present invention.
11 is a flowchart illustrating a method of providing an interactive service through an alpha map analysis according to another embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, or two or more units may be realized using one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. In the present specification, some of the operations or functions described as being performed by the terminal or device may be performed instead by a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.

이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.Hereinafter, with reference to the accompanying configuration diagram or processing flow chart, specific details for the implementation of the present invention will be described.

도 1은 본 발명의 일 실시예에 따른, 양방향 서비스 제공 시스템의 구성도이다. 1 is a block diagram of an interactive service providing system according to an embodiment of the present invention.

도 1을 참조하면, 양방향 서비스 제공 시스템은 사용자 단말(100), 제어 대상 장치(110), 미디어 서버(120) 및 이미지 처리 서버(130)를 포함할 수 있다. 다만, 이러한 도 1의 양방향 서비스 제공 시스템은 본 발명의 일 실시예에 불과하므로 도 1을 통해 본 발명이 한정 해석되는 것은 아니며, 본 발명의 다양한 실시예들에 따라 도 1과 다르게 구성될 수도 있다.Referring to FIG. 1, the interactive service providing system may include a user terminal 100, a control target device 110, a media server 120, and an image processing server 130. However, since the interactive service providing system of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1, and may be configured differently from FIG. 1 according to various embodiments of the present invention. .

일반적으로, 도 1의 양방향 서비스 제공 시스템의 각 구성요소들은 네트워크(150)를 통해 연결된다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(network)의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi) 등이 포함되나 이에 한정되지는 않는다. In general, components of the interactive service providing system of FIG. 1 are connected through a network 150. A network refers to a connection structure in which information exchange is possible between nodes such as terminals and servers. Examples of such networks include 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), and LTE (Long Term Evolution), World Interoperability for Microwave Access (WIMAX), Wi-Fi, and the like, but are not limited thereto.

사용자 단말(100)은 사용자 단말(100)에 구비된 카메라를 통해 영상을 촬영할 수 있다. 예를 들어, 사용자 단말(100)은 레퍼런스 영상과 실시간 영상을 획득할 수 있다. 사용자 단말(100)은 레퍼런스 영상과 실시간 영상을 비교하여 실시간 영상에 대한 알파맵(Alpha Map)을 생성할 수 있다.The user terminal 100 may take an image through a camera provided in the user terminal 100. For example, the user terminal 100 may acquire a reference image and a real-time image. The user terminal 100 may generate an alpha map for the real-time image by comparing the reference image and the real-time image.

사용자 단말(100)은 실시간 영상에 대한 알파맵의 알파값을 분석하여 제어 대상 장치(110)에 대한 제어 신호를 생성할 수 있다. 제어 대상 장치(110)가 셋톱 박스인 경우, 제어 신호는 예를 들면, 채널 변경 신호 및 볼륨 변경 신호를 포함할 수 있다. 이하에서는 설명의 편의상 제어 대상 장치(110)를 셋톱 박스로 가정하여 설명하기로 한다. 하지만 본 발명의 적용 대상이 셋톱 박스에 한정되는 것은 아니며, 게임 플레이어, 영상 표시 장치, 미디어 플레이어, 그 밖의 원격 제어가 필요한 각종 컴퓨팅 장치에 폭 넓게 적용될 수 있다.The user terminal 100 may generate a control signal for the control target device 110 by analyzing an alpha value of an alpha map for a real-time image. When the control target device 110 is a set-top box, the control signal may include, for example, a channel change signal and a volume change signal. Hereinafter, for convenience of description, it is assumed that the control target device 110 is a set-top box. However, the application of the present invention is not limited to a set-top box, and can be widely applied to game players, video display devices, media players, and other various computing devices requiring remote control.

사용자 단말(100)은 실시간 영상에 대한 알파맵과 원본 이미지를 이미지 처리 서버(130)에게 전송할 수 있다.The user terminal 100 may transmit an alpha map for a real-time image and an original image to the image processing server 130.

이미지 처리 서버(130)는 사용자 단말(100)로부터 실시간 영상에 대한 알파맵과 원본 이미지를 수신하고, 원본 이미지와 알파맵에 기초하여 원본 이미지로부터 객체를 제외한 배경 이미지가 투명하게 조절된 이미지를 셋톱 박스(110)에게 전송할 수 있다.The image processing server 130 receives an alpha map and an original image for a real-time image from the user terminal 100, and sets-top an image in which a background image excluding an object from the original image is transparently adjusted based on the original image and the alpha map. It can be transmitted to the box 110.

셋톱 박스(110)는 미디어 서버(120)로부터 컨텐츠 영상을 수신할 수 있다. 예를 들면, 컨텐츠는 실시간 채널, VOD(Video On Demand) 등의 모든 IPTV 서비스를 포함할 수 있다.The set-top box 110 may receive a content image from the media server 120. For example, the content may include all IPTV services such as real-time channels and video on demand (VOD).

셋톱 박스(110)는 사용자 단말(100)을 통해 촬영된 실시간 영상의 각 프레임의 알파맵에 대응하는 이미지를 이미지 처리 서버(130)로부터 수신할 수 있다. 여기서, 이미지는 실시간 영상의 각 프레임의 알파맵에 기초하여 객체와 배경이 분리된 것일 수 있다. 이미지는 PNG(Portable Network Graphics) 포맷일 수 있고, 배경 이미지가 투명하게 조절된 이미지일 수 있다.The set-top box 110 may receive an image corresponding to an alpha map of each frame of a real-time image captured through the user terminal 100 from the image processing server 130. Here, the image may be an object and a background separated based on an alpha map of each frame of a real-time image. The image may be a PNG (Portable Network Graphics) format, and the background image may be a transparently adjusted image.

셋톱 박스(110)는 수신한 이미지를 셋톱 박스(110)와 연결된 디스플레이 장치(140)에서 재생 중인 컨텐츠 영상 위에 오버레이할 수 있다.The set-top box 110 may overlay the received image on the content image being played on the display device 140 connected to the set-top box 110.

셋톱 박스(110)는 사용자 단말(100)로부터 제어 신호를 수신하고, 제어 신호에 따라 명령을 수행할 수 있다.The set-top box 110 may receive a control signal from the user terminal 100 and perform a command according to the control signal.

사용자 단말(100)은 무선 통신이 가능한 모바일 단말을 포함할 수 있고, 본 발명의 다양한 실시예들에 따르면, 사용자 단말(100)은 다양한 형태의 디바이스일 수 있다. 예를 들어, 사용자 단말(100)은 네트워크를 통해 원격지의 서버에 접속할 수 있는 휴대용 단말일 수 있다. 여기서, 휴대용 단말의 일 예에는 휴대성과 이동성이 보장되는 무선 통신 장치로서, 스마트폰(smartphone), 태블릿 PC, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다. 다만, 사용자 단말(100)은 도 1에 도시된 형태 또는 앞서 예시된 것들로 한정 해석되는 것은 아니다.The user terminal 100 may include a mobile terminal capable of wireless communication, and according to various embodiments of the present invention, the user terminal 100 may be a device of various types. For example, the user terminal 100 may be a portable terminal capable of accessing a remote server through a network. Here, as an example of a portable terminal, as a wireless communication device that guarantees portability and mobility, a smartphone, a tablet PC, a Personal Communication System (PCS), a Global System for Mobile communications (GSM), a Personal Digital Cellular (PDC) , PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband) All types of handheld-based wireless communication devices such as Internet) terminals may be included. However, the user terminal 100 is not limited to the form illustrated in FIG. 1 or those illustrated above.

이하에서는 도 1의 양방향 서비스 제공 시스템의 각 구성요소의 동작에 대해 보다 구체적으로 설명한다.Hereinafter, the operation of each component of the interactive service providing system of FIG. 1 will be described in more detail.

도 2는 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말(100)의 블록도이다. 도 2를 참조하면, 사용자 단말(100)은 영상 획득부(200), 알파맵 생성부(210), 알파맵 분석부(220), 제어 신호 전송부(230) 및 알파맵 전송부(240)를 포함할 수 있다. 여기서, 알파맵 분석부(220)는 알파맵 분류부(222) 및 컨트롤 오브젝트 판단부(224)를 포함할 수 있다. 다만, 도 2에 도시된 사용자 단말(100)은 본 발명의 하나의 구현 예에 불과하며, 도 2에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다.FIG. 2 is a block diagram of the user terminal 100 shown in FIG. 1 according to an embodiment of the present invention. 2, the user terminal 100 includes an image acquisition unit 200, an alpha map generator 210, an alpha map analysis unit 220, a control signal transmission unit 230, and an alpha map transmission unit 240. It may include. Here, the alpha map analysis unit 220 may include an alpha map classification unit 222 and a control object determination unit 224. However, the user terminal 100 shown in FIG. 2 is only an example of implementation of the present invention, and various modifications are possible based on the components shown in FIG. 2.

영상 획득부(200)는 사용자 단말(100)에 구비된 카메라를 통해 촬영된 영상으로부터 레퍼런스 영상과 실시간 영상을 획득할 수 있다. 예를 들면, 레퍼런스 영상은 배경 영상이고, 실시간 영상은 레퍼런스 영상이 촬영된 이후, 동일한 공간에서 특정 객체의 움직임을 실시간으로 촬영한 영상일 수 있다.The image acquisition unit 200 may acquire a reference image and a real-time image from an image captured by a camera provided in the user terminal 100. For example, the reference image may be a background image, and the real-time image may be an image of a motion of a specific object in the same space in real time after the reference image is captured.

알파맵 생성부(210)는 레퍼런스 영상과 실시간 영상을 비교하여 실시간 영상의 각 프레임의 알파맵을 생성할 수 있다. 예를 들면, 알파맵 생성부(210)는 실시간 영상의 각 프레임에 대응하는 이미지의 알파 값을 추출하고, 알파 값에 기초하여 실시간 영상에서 객체 및 배경을 분리할 수 있다. 잠시, 도 6을 참조하면, 알파맵 생성부(210)는 실시간 영상과 레퍼런스 영상을 비교하여, 객체(600)와 배경(610)을 분리하고, 분리된 객체(600)와 배경(610)에 기초하여 알파맵을 생성할 수 있다. 예를 들어, 분리된 객체(600)의 알파값은 '1'이고, 분리된 배경(610)의 알파값은 '0'일 수 있다. 이와 같이, 알파맵을 통해 배경의 복잡도에 관계없이 객체를 추출할 수 있으므로 영상에 대한 해석이 용이하며, 알고리즘 구현이 간단한 장점이 있다.The alpha map generator 210 may generate an alpha map of each frame of the real-time image by comparing the reference image and the real-time image. For example, the alpha map generator 210 may extract an alpha value of an image corresponding to each frame of a real-time image, and separate an object and a background from the real-time image based on the alpha value. For a moment, referring to FIG. 6, the alpha map generator 210 compares the real-time image and the reference image, separates the object 600 and the background 610, and separates the object 600 and the background 610. You can generate an alpha map based on it. For example, the alpha value of the separated object 600 may be '1', and the alpha value of the separated background 610 may be '0'. As described above, since an object can be extracted regardless of the complexity of the background through the alpha map, an image can be easily analyzed and an algorithm can be easily implemented.

알파맵 분석부(220)는 알파맵의 알파값을 분석하여 컨트롤 오브젝트를 판단하고, 컨트롤 오브젝트의 알파값을 분석하여 셋톱 박스(110)에 대한 제어 신호를 생성할 수 있다. 잠시, 도 7a를 참조하면, 알파맵 분석부(220)는 제 1 형태의 객체(710)에 대한 알파값을 분석하여 제 1 형태의 객체(710)에서 홀(hole; 730)을 컨트롤 오브젝트로서 판단할 수 있다. 이 때, 홀(730)은 셋톱 박스(110)에 연결된 디스플레이 장치(140)의 화면에서 마우스 커서로서 사용될 수 있으며, 제 1 형태의 객체(710)에서 홀(730)이 사라질 때 마우스의 클릭 신호(셋톱 박스(110)에 대한 제어 신호)가 셋톱 박스(110)로 전송될 수 있다. 홀(730)이 사라지는 경우는 홀(730)의 크기가 점점 작아지다가 사라지는 경우만을 의미하며, 홀(730)이 위치 이동을 하다가 화면 밖으로 사라지는 경우는 제외할 수 있다.The alpha map analyzer 220 may analyze an alpha value of the alpha map to determine a control object, and may generate a control signal for the set-top box 110 by analyzing an alpha value of the control object. For a moment, referring to FIG. 7A, the alpha map analysis unit 220 analyzes the alpha value of the object 710 of the first type and uses a hole 730 as a control object in the object 710 of the first type. I can judge. At this time, the hole 730 may be used as a mouse cursor on the screen of the display device 140 connected to the set-top box 110, and when the hole 730 disappears from the first type of object 710, a click signal of the mouse (Control signal for the set-top box 110) may be transmitted to the set-top box 110. The disappearance of the hole 730 refers only to a case where the size of the hole 730 gradually decreases and then disappears, and a case where the hole 730 moves out of the screen may be excluded.

알파맵 분류부(222)는 알파맵을 각 픽셀의 알파값이 제 1 값인 제 1 오브젝트 및 각 픽셀의 알파값이 제 2 값인 제 2 오브젝트로 분류할 수 있다.The alpha map classifier 222 may classify the alpha map into a first object in which an alpha value of each pixel is a first value and a second object in which an alpha value of each pixel is a second value.

잠시, 도 7b를 참조하면, 제 1 형태의 객체(710)의 알파 값은 '1'로 구성되고, 제 1 형태의 객체(710) 외의 이미지의 알파 값은 '0'으로 구성되었다고 가정할 때, 알파맵 분류부(222)는 이미지의 제 1 픽셀(750)로부터 순차적으로 알파값이 '0'인 픽셀을 탐색하고, 알파 값이 '0'인 픽셀을 제 1 오브젝트로 분류할 수 있다. 예를 들어, 알파맵 분류부(222)는 알파 값이 '0'인 픽셀이 탐지되면 그 픽셀을 기준으로 최인접 픽셀의 알파값을 탐지하는 것을 반복할 수 있다.For a moment, referring to FIG. 7B, assuming that the alpha value of the object 710 of the first type is composed of '1' and the alpha value of the image other than the object 710 of the first type is composed of '0' , The alpha map classifier 222 may sequentially search for a pixel having an alpha value of '0' from the first pixel 750 of the image and classify a pixel having an alpha value of '0' as a first object. For example, when a pixel having an alpha value of '0' is detected, the alpha map classifier 222 may repeat detecting the alpha value of the nearest pixel based on the pixel.

알파맵 분류부(222)는 위와 같은 방법으로 알파 값이 '1'인 픽셀(제 1 형태의 객체(710)에 포함된 픽셀에 해당)을 알파값이 '1'인 픽셀로 구성된 제 2 오브젝트로 분류할 수 있다. 제 1 형태의 객체(710)의 내부에 위치하는 홀(730)에 대응하는 각 픽셀의 알파 값은 '0'이므로, 홀(730)의 각 픽셀은 제 1 오브젝트로 분류될 수 있다.The alpha map classifier 222 is a second object composed of pixels having an alpha value of '1' for a pixel having an alpha value of '1' (corresponding to a pixel included in the first type object 710) in the same manner as above. It can be classified as Since the alpha value of each pixel corresponding to the hole 730 located inside the object 710 of the first shape is '0', each pixel of the hole 730 may be classified as a first object.

컨트롤 오브젝트 판단부(224)는 제 1 오브젝트 및 제 2 오브젝트의 위치, 모양 및 크기 중 적어도 하나에 기초하여 제 1 오브젝트 및 제 2 오브젝트 중 하나를 컨트롤 오브젝트로 결정할 수 있다. 예를 들면, 컨트롤 오브젝트 판단부(224)는 주먹 쥔 손 안에 포함된 홀(730)을 가상 마우스로서의 제 1 오브젝트로 결정할 수 있다. 예를 들어, 사용자가 주먹을 쥐게 되면(홀이 사라진 경우) 가상 마우스의 왼쪽이 클릭된 것으로 판단될 수 있다. 다른 예를 들어, 사용자가 손을 펼치게 되면 가상 마우스의 오른쪽이 클릭된 것으로 판단될 수 있다.The control object determination unit 224 may determine one of the first object and the second object as the control object based on at least one of the positions, shapes, and sizes of the first object and the second object. For example, the control object determination unit 224 may determine the hole 730 included in the fisted hand as the first object as a virtual mouse. For example, when the user clenched his fist (when the hole disappeared), it may be determined that the left side of the virtual mouse was clicked. For another example, when the user spreads his hand, it may be determined that the right side of the virtual mouse is clicked.

컨트롤 오브젝트 판단부(224)는 제 1 오브젝트가 제 2 오브젝트의 내부에 위치하는 경우 제 1 오브젝트를 적어도 하나의 컨트롤 오브젝트로 결정할 수 있다. 예를 들면, 도 7b를 참조하면, 홀(730)에 대응하는 제 1 오브젝트가 제 1 형태의 객체(710)에 대응하는 제 2 오브젝트의 내부에 위치하게 되면, 컨트롤 오브젝트 판단부(224)는 홀(730)을 컨트롤 오브젝트로 결정할 수 있다.The control object determination unit 224 may determine the first object as at least one control object when the first object is located inside the second object. For example, referring to FIG. 7B, when the first object corresponding to the hole 730 is located inside the second object corresponding to the first type object 710, the control object determination unit 224 The hole 730 may be determined as a control object.

컨트롤 오브젝트 판단부(224)는 제 1 오브젝트 및 제 2 오브젝트 중 기설정된 범위의 크기에 해당하는 오브젝트를 컨트롤 오브젝트로 결정할 수 있다. 또한, 컨트롤 오브젝트 판단부(224)는 복수의 제 1 오브젝트 및 복수의 제 2 오브젝트의 위치에 기초하여 컨트롤 오브젝트를 결정할 수 있다. 예를 들어, 컨트롤 오브젝트 판단부(224)는 복수의 제 1 오브젝트 중 가장 자리에 위치하지 않는 오브젝트를 홀(730)을 포함하는 컨트롤 오브젝트로 결정할 수 있다.The control object determination unit 224 may determine an object corresponding to a size of a preset range among the first object and the second object as the control object. Also, the control object determination unit 224 may determine the control object based on the positions of the plurality of first objects and the plurality of second objects. For example, the control object determination unit 224 may determine an object not located at the edge of the plurality of first objects as the control object including the hole 730.

알파맵 분석부(220)는 컨트롤 오브젝트의 크기가 기설정된 비율만큼 변한 경우 셋톱 박스(110)의 제어 신호를 생성할 수 있다. 예를 들면, 손 제스쳐의 형태가 변경된 경우(예컨대, 한 손이 그립(grip)한 제스쳐에서 펼쳐진 제스쳐로 바뀐 경우 또는 그 반대의 경우), 알파맵 분석부(220)는 변경된 손 제스쳐에 기초하여 셋톱 박스(110)의 제어 신호를 생성할 수 있다.The alpha map analysis unit 220 may generate a control signal of the set-top box 110 when the size of the control object is changed by a preset ratio. For example, when the shape of the hand gesture is changed (e.g., when one hand is changed from a gripped gesture to an unfolded gesture or vice versa), the alpha map analysis unit 220 may be configured based on the changed hand gesture. It is possible to generate a control signal of the set-top box 110.

알파맵 분석부(220)는 컨트롤 오브젝트가 기설정된 영역에 위치하는 경우 셋톱 박스(110)의 제어 신호를 생성할 수 있다. 예를 들면, 도 8a를 참조하면, 알파맵 분석부(220)는 화면의 기설정된 복수의 영역(801 내지 811)마다 가상 키보드의 문자 버튼(예컨대, 화면의 제 1 영역(801)에 문자 'A'를 매핑)을 매핑할 수 있다. 알파맵 분석부(220)는 컨트롤 오브젝트가 화면의 제 2 영역(803)에 위치하게 되면, 문자 'B'를 출력하도록 하는 제어 신호를 생성할 수 있다.The alpha map analysis unit 220 may generate a control signal of the set-top box 110 when the control object is located in a preset area. For example, referring to FIG. 8A, the alpha map analysis unit 220 includes a character button of a virtual keyboard (eg, a character'in the first area 801 of the screen) for each of a plurality of preset areas 801 to 811 of the screen. Mapping A') can be mapped. When the control object is positioned in the second area 803 of the screen, the alpha map analysis unit 220 may generate a control signal to output the letter'B'.

다른 예로, 도 8b를 참조하면, 알파맵 분석부(220)는 화면의 기설정된 복수의 영역(815 내지 819)마다 셋톱 박스(110)를 제어하는 제어 신호를 매핑할 수 있다. 알파맵 분석부(220)는 컨트롤 오브젝트로 결정된 사용자(813)의 손이 제 3 영역(815)에 위치하면, 채널을 변경하는 제어 신호를 생성하고, 사용자(813)의 손이 제 4 영역(817)에 위치하면, 볼륨을 다운하는 제어 신호를 생성하고, 사용자(813)의 손이 제 5 영역(819)에 위치하면, 볼륨을 업하는 제어 신호를 생성할 수 있다.As another example, referring to FIG. 8B, the alpha map analyzer 220 may map a control signal for controlling the set-top box 110 to each of a plurality of preset regions 815 to 819 of the screen. When the hand of the user 813 determined as the control object is located in the third area 815, the alpha map analysis unit 220 generates a control signal for changing the channel, and the hand of the user 813 is When located at 817, a control signal for decreasing the volume may be generated, and when a hand of the user 813 is located in the fifth area 819, a control signal for increasing the volume may be generated.

제어 신호 전송부(230)는 제어 신호를 셋톱 박스(110)에게 전송할 수 있다.The control signal transmission unit 230 may transmit a control signal to the set-top box 110.

알파맵 전송부(240)는 각 프레임의 알파맵과 원본 이미지를 이미지 처리 서버(130)에게 전송할 수 있다. 이 때, 각 프레임의 알파맵과 원본 이미지로부터 생성된 이미지는 셋톱 박스(110)를 통해 출력 중인 영상 위에 오버레이될 수 있다.The alpha map transmission unit 240 may transmit the alpha map and the original image of each frame to the image processing server 130. In this case, the alpha map of each frame and the image generated from the original image may be overlaid on the image being output through the set-top box 110.

한편, 당업자라면, 영상 획득부(200), 알파맵 생성부(210), 알파맵 분석부(220), 알파맵 분류부(222), 컨트롤 오브젝트 판단부(224), 제어 신호 전송부(230) 및 알파맵 전송부(240) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다.Meanwhile, for those skilled in the art, the image acquisition unit 200, the alpha map generation unit 210, the alpha map analysis unit 220, the alpha map classification unit 222, the control object determination unit 224, the control signal transmission unit 230 ) And the alphamap transmission unit 240 may be implemented separately, or one or more of them may be integrated and implemented.

도 3은 본 발명의 일 실시예에 따른, 사용자 단말(100)에서 수행되는 양방향 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.3 is a flowchart illustrating a method of providing a two-way service performed in the user terminal 100 according to an embodiment of the present invention.

도 3에 도시된 실시예에 따른 양방향 서비스 제공 방법은 도 1 내지 도 2에 도시된 실시예에 따른 사용자 단말(100), 셋톱 박스(110), 미디어 서버(120) 및 이미지 처리 서버(130)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 2의 사용자 단말(100), 셋톱 박스(110), 미디어 서버(120) 및 이미지 처리 서버(130)에 관하여 기술된 내용은 도 3에 도시된 실시예에 따른 양방향 서비스 제공 방법에도 적용될 수 있다.The method for providing a two-way service according to the embodiment shown in FIG. 3 is a user terminal 100, a set-top box 110, a media server 120, and an image processing server 130 according to the embodiment shown in FIGS. 1 to 2 It includes steps that are processed in a time series. Therefore, even though the contents are omitted below, the contents described with respect to the user terminal 100, the set-top box 110, the media server 120, and the image processing server 130 of FIGS. 1 to 2 are implemented as shown in FIG. It can also be applied to a method of providing a two-way service according to an example.

도 3을 참조하면, 단계 S301에서 사용자 단말(100)은 레퍼런스 영상과 실시간 영상을 획득할 수 있다.Referring to FIG. 3, in step S301, the user terminal 100 may acquire a reference image and a real-time image.

단계 S303에서 사용자 단말(100)은 레퍼런스 영상과 실시간 영상을 비교하여 실시간 영상의 각 프레임의 알파맵을 생성할 수 있다.In step S303, the user terminal 100 may generate an alpha map of each frame of the real-time image by comparing the reference image and the real-time image.

단계 S305에서 사용자 단말(100)은 알파맵의 알파값을 분석하여 컨트롤 오브젝트를 판단하고, 컨트롤 오브젝트의 알파값을 분석하여 셋톱 박스(110)에 대한 제어 신호를 생성할 수 있다.In step S305, the user terminal 100 may analyze an alpha value of the alpha map to determine a control object, and generate a control signal for the set-top box 110 by analyzing the alpha value of the control object.

단계 S307에서 사용자 단말(100)은 제어 신호를 셋톱 박스(110)에게 전송할 수 있다.In step S307, the user terminal 100 may transmit a control signal to the set-top box 110.

상술한 설명에서, 단계 S301 내지 S307은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S301 to S307 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

도 4는 본 발명의 일 실시예에 따른, 도 1에 도시된 셋톱 박스(110)의 블록도이다. 도 4를 참조하면, 셋톱 박스(110)는 컨텐츠 수신부(400), 이미지 수신부(410), 이미지 출력부(420), 제어 신호 수신부(430), 제어부(440) 및 이벤트 생성부(450)를 포함할 수 있다. 다만, 도 4에 도시된 셋톱 박스(110)는 본 발명의 하나의 구현 예에 불과하며, 도 4에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다.Figure 4 is a block diagram of the set-top box 110 shown in Figure 1, according to an embodiment of the present invention. 4, the set-top box 110 includes a content receiving unit 400, an image receiving unit 410, an image output unit 420, a control signal receiving unit 430, a control unit 440 and an event generating unit 450. Can include. However, the set-top box 110 shown in FIG. 4 is only an example of implementation of the present invention, and various modifications are possible based on the components shown in FIG. 4.

컨텐츠 수신부(400)는 미디어 서버(120)로부터 컨텐츠 영상을 수신할 수 있다. The content receiver 400 may receive a content image from the media server 120.

이미지 수신부(410)는 사용자 단말(100)을 통해 촬영된 실시간 영상의 각 프레임의 알파맵에 대응하는 이미지를 이미지 처리 서버(130)로부터 수신할 수 있다. 예를 들면, 이미지는 이미지 처리 서버(130)로부터 기설정된 FPS(frame per sec)으로 전송될 수 있다. 이미지는 실시간 영상의 각 프레임의 알파맵에 기초하여 객체와 배경이 분리된 것일 수 있다. 이미지는 사용자 단말(100)로부터의 이미지의 수신 시각 정보를 포함할 수 있다.The image receiving unit 410 may receive an image corresponding to an alpha map of each frame of a real-time image captured through the user terminal 100 from the image processing server 130. For example, the image may be transmitted from the image processing server 130 to a preset frame per sec (FPS). The image may be an object and a background separated based on an alpha map of each frame of a real-time image. The image may include reception time information of the image from the user terminal 100.

이미지 수신부(410)는 이미지 처리 서버(130)로부터 객체의 좌표값을 더 수신할 수 있다. 여기서, 객체의 좌표값은 분리된 객체의 좌표값으로 객체의 이동 방향에 따라 변경될 수 있다.The image receiving unit 410 may further receive coordinate values of the object from the image processing server 130. Here, the coordinate value of the object is the coordinate value of the separated object and may be changed according to the moving direction of the object.

이미지 출력부(420)는 수신한 이미지를 웹뷰(web view) 브라우져에 디스플레이하고, 웹뷰 브라우져를 컨텐츠 영상이 재생되는 플레이어에 오버레이할 수 있다. 여기서 이미지는 컨텐츠 영상에 투영된 자신의 모습에 해당하는 이미지일 수 있다.The image output unit 420 may display the received image on a web view browser, and may overlay the web view browser on a player playing the content image. Here, the image may be an image corresponding to a self-image projected on the content image.

이미지 출력부(420)는 이미지가 컨텐츠 영상에 투영되도록 웹뷰 브라우져의 투명도를 제어할 수 있다. 예를 들면, 이미지 출력부(420)는 웹뷰 브라우져를 투명하게 제어할 수 있다. 웹뷰 브라우져를 투명하게 제어함으로써 웹뷰 브라우져에 디스플레이된 이미지만이 플레이어에 투영될 수 있다. 웹뷰 브라우져를 컨텐츠 영상이 재생되는 플레이어에 오버레이시키고 이미지를 일정한 주기로 리프레쉬(Refresh)하면 영상을 직접 합성하지 않고도 자연스럽게 두 영상이 믹스(Mix)된 효과를 얻을 수 있다. 또한, 배경이 투명한 이미지를 이용함으로써 배경이 제거된 객체만이 컨텐츠 영상에 합성된 것과 같은 효과를 얻을 수 있다.The image output unit 420 may control the transparency of the web view browser so that the image is projected onto the content image. For example, the image output unit 420 may transparently control the web view browser. By controlling the web view browser transparently, only the image displayed in the web view browser can be projected onto the player. If the web view browser is overlaid on the player where the content video is played, and the image is refreshed at regular intervals, the two videos can be naturally mixed without composing the video directly. In addition, by using an image with a transparent background, only an object from which the background has been removed can achieve the same effect as being combined with the content image.

제어 신호 수신부(430)는 사용자 단말(100)로부터 제어 신호를 수신할 수 있다. 여기서, 제어 신호는 사용자 단말(100)에 의해 알파맵의 알파값이 분석되어 컨트롤 오브젝트가 판단되고, 컨트롤 오브젝트의 알파값이 분석되어 생성될 수 있다.The control signal receiver 430 may receive a control signal from the user terminal 100. Here, the control signal may be generated by analyzing the alpha value of the alpha map by the user terminal 100 to determine the control object, and analyzing the alpha value of the control object.

제어부(440)는 제어 신호(예를 들면, 채널 변경 신호 및 볼륨 변경 신호 등)에 따라 명령을 수행할 수 있다.The controller 440 may execute a command according to a control signal (eg, a channel change signal and a volume change signal).

이벤트 생성부(450)는 분리된 객체의 좌표값에 기초하여 이벤트를 생성할 수 있다. 이벤트 생성부(450)는 객체가 위치하는 영역에 해당하는 이벤트를 생성하고, 웹뷰 브라우저의 각 영역에 기설정된 이벤트를 매핑할 수 있다.The event generator 450 may generate an event based on the coordinate value of the separated object. The event generator 450 may generate an event corresponding to an area in which the object is located, and map a preset event to each area of the web view browser.

이와 관련하여, 잠시 도 9a를 참조하면, 셋톱 박스(110)는 게임 컨텐츠 영상의 화면을 수직으로 복수의 영역(902 내지 918)으로 분할하고, 복수의 영역 별로 이벤트를 다르게 설정할 수 있다. 예를 들면, 'E' 영역(910)에 객체(900)가 위치한 경우, 셋톱 박스(110)는 'E' 영역(910)에 해당하는 제 1 이벤트를 생성할 수 있다. 또는, 객체(900)가 'E' 영역(910)에서 'G' 영역(914)으로 위치를 변경한 경우, 셋톱 박스(110)는 'G' 영역(914)에 해당하는 제 2 이벤트를 생성할 수 있다.In this regard, referring to FIG. 9A for a while, the set-top box 110 vertically divides the screen of the game content image into a plurality of regions 902 to 918, and may set different events for each of the plurality of regions. For example, when the object 900 is located in the'E' area 910, the set-top box 110 may generate a first event corresponding to the'E' area 910. Alternatively, when the object 900 changes its location from the'E' area 910 to the'G' area 914, the set-top box 110 generates a second event corresponding to the'G' area 914 can do.

도 9b를 참조하면, 셋톱 박스(110)는 이미지 처리 서버(130)로부터 수신된 객체(900)의 좌표값에 기초하여 객체(900)의 이동 경로를 파악할 수 있다. 여기서, 이미지 처리 서버(130)로부터 수신된 객체(900)의 좌표값은 게임 컨텐츠 영상에 포함된 캐릭터의 좌표값에 매핑되고, 게임 컨텐츠 영상에는 캐릭터 대신 객체(900)가 오버레이되어 출력된다. 셋톱 박스(110)는 객체(900)가 위치하는 영역에 기초하여 게임 아이템을 제공할 수도 있다.Referring to FIG. 9B, the set-top box 110 may determine a moving path of the object 900 based on the coordinate value of the object 900 received from the image processing server 130. Here, the coordinate value of the object 900 received from the image processing server 130 is mapped to the coordinate value of the character included in the game content image, and the object 900 is overlaid on the game content image instead of the character and output. The set-top box 110 may provide a game item based on an area in which the object 900 is located.

한편, 당업자라면, 컨텐츠 수신부(400), 이미지 수신부(410), 이미지 출력부(420), 제어 신호 수신부(430), 제어부(440) 및 이벤트 생성부(450) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. On the other hand, for those skilled in the art, each of the content receiving unit 400, the image receiving unit 410, the image output unit 420, the control signal receiving unit 430, the control unit 440 and the event generating unit 450 is implemented separately, or It will be fully understood that one or more of these may be integrated and implemented.

도 5는 본 발명의 일 실시예에 따른, 셋톱 박스(110)에서 수행되는 양방향 서비스를 제공하는 방법을 나타낸 동작 흐름도이다. 5 is an operation flowchart illustrating a method of providing a two-way service performed by the set-top box 110 according to an embodiment of the present invention.

도 5에 도시된 실시예에 따른 양방향 서비스 제공 방법은 도 1 내지 도 4에 도시된 실시예에 따른 사용자 단말(100), 셋톱 박스(110), 미디어 서버(120) 및 이미지 처리 서버(130)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 4의 사용자 단말(100), 셋톱 박스(110), 미디어 서버(120) 및 이미지 처리 서버(130)에 관하여 기술된 내용은 도 5에 도시된 실시예에 따른 양방향 서비스 제공 방법에도 적용될 수 있다. The method of providing a two-way service according to the embodiment shown in FIG. 5 is a user terminal 100, a set-top box 110, a media server 120, and an image processing server 130 according to the embodiment shown in FIGS. 1 to 4. It includes steps that are processed in a time series. Therefore, even if the contents are omitted below, the contents described with respect to the user terminal 100, the set-top box 110, the media server 120, and the image processing server 130 of FIGS. 1 to 4 are shown in FIG. It can also be applied to a method of providing a two-way service according to an example.

도 5를 참조하면, 단계 S501에서 셋톱 박스(110)는 미디어 서버(120)로부터 컨텐츠 영상을 수신할 수 있다.Referring to FIG. 5, in step S501, the set-top box 110 may receive a content image from the media server 120.

단계 S503에서 셋톱 박스(110)는 사용자 단말(100)을 통해 촬영된 실시간 영상의 각 프레임의 알파맵에 대응하는 이미지를 이미지 처리 서버(130)로부터 수신할 수 있다.In step S503, the set-top box 110 may receive an image corresponding to the alpha map of each frame of the real-time image captured through the user terminal 100 from the image processing server 130.

단계 S505에서 셋톱 박스(110)는 수신한 이미지를 웹뷰 브라우져에 디스플레이하고, 웹뷰 브라우져를 컨텐츠 영상이 재생되는 플레이어에 오버레이할 수 있다.In step S505, the set-top box 110 may display the received image on the web view browser and overlay the web view browser on the player playing the content image.

단계 S507에서 셋톱 박스(110)는 사용자 단말(100)로부터 제어 신호를 수신할 수 있다. 여기서, 제어 신호는 사용자 단말(100)에 의해 알파맵의 알파값이 분석되어 컨트롤 오브젝트가 판단되고, 컨트롤 오브젝트의 알파값이 분석되어 생성될 수 있다.In step S507, the set-top box 110 may receive a control signal from the user terminal 100. Here, the control signal may be generated by analyzing the alpha value of the alpha map by the user terminal 100 to determine the control object, and analyzing the alpha value of the control object.

단계 S509에서 셋톱 박스(110)는 제어 신호에 따라 명령을 수행할 수 있다.In step S509, the set-top box 110 may execute a command according to a control signal.

상술한 설명에서, 단계 S501 내지 S509는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S501 to S509 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

도 10은 본 발명의 일 실시예에 따른, 알파맵 분석을 통한 양방향 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.10 is a flowchart illustrating a method of providing a two-way service through alpha map analysis according to an embodiment of the present invention.

도 10에 도시된 실시예에 따른 양방향 서비스 제공 방법은 도 1 내지 도 9b에 도시된 실시예에 따른 사용자 단말(100), 셋톱 박스(110), 미디어 서버(120) 및 이미지 처리 서버(130)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 9b의 사용자 단말(100), 셋톱 박스(110), 미디어 서버(120) 및 이미지 처리 서버(130)에 관하여 기술된 내용은 도 10에 도시된 실시예에 따른 양방향 서비스 제공 방법에도 적용될 수 있다. The method of providing a two-way service according to the embodiment shown in FIG. 10 includes a user terminal 100, a set-top box 110, a media server 120, and an image processing server 130 according to the embodiment shown in FIGS. 1 to 9B. It includes steps that are processed in a time series. Therefore, even if the contents are omitted below, the contents described with respect to the user terminal 100, the set-top box 110, the media server 120, and the image processing server 130 of FIGS. 1 to 9B are illustrated in FIG. It can also be applied to a method of providing a two-way service according to an example.

도 10을 참조하면, 단계 S1001에서 사용자 단말(100)은 사용자 단말(100)에 구비된 카메라를 통해 레퍼런스 영상과 실시간 영상을 획득할 수 있다.단계 S1003에서 사용자 단말(100)은 레퍼런스 영상과 실시간 영상을 비교하여 실시간 영상의 각 프레임의 알파맵을 생성할 수 있다.Referring to FIG. 10, in step S1001, the user terminal 100 may acquire a reference image and a real-time image through a camera provided in the user terminal 100. In step S1003, the user terminal 100 may obtain a reference image and a real-time image. By comparing the images, an alpha map of each frame of the real-time image can be generated.

단계 S1005에서 사용자 단말(100)은 실시간 영상의 각 프레임에 대응하는 원본 이미지 및 알파맵을 이미지 처리 서버(130)에게 전송할 수 있다.In step S1005, the user terminal 100 may transmit an original image and an alpha map corresponding to each frame of the real-time image to the image processing server 130.

단계 S1007에서 이미지 처리 서버(130)는 실시간 영상의 각 프레임의 알파맵에 대응하는 이미지를 셋톱 박스(110)로 전송할 수 있다.In step S1007, the image processing server 130 may transmit an image corresponding to the alpha map of each frame of the real-time image to the set-top box 110.

단계 S1009에서 셋톱 박스(110)는 이미지 처리 서버(130)로부터 수신된 이미지를 플레이어에서 재생 중인 컨텐츠 영상에 오버레이하여 출력할 수 있다.In step S1009, the set-top box 110 may overlay the image received from the image processing server 130 on the content image being played in the player and output it.

단계 S1011에서 사용자 단말(100)은 알파맵의 알파값을 분석하여 컨트롤 오브젝트를 판단하고, 컨트롤 오브젝트의 알파값을 분석하여 셋톱 박스(110)에 대한 제어 신호를 생성할 수 있다.In step S1011, the user terminal 100 may analyze the alpha value of the alpha map to determine a control object, and may generate a control signal for the set-top box 110 by analyzing the alpha value of the control object.

단계 S1013에서 사용자 단말(100)은 생성된 제어 신호를 셋톱 박스(110)에게 전송할 수 있다.In step S1013, the user terminal 100 may transmit the generated control signal to the set-top box 110.

단계 S1015에서 셋톱 박스(110)는 사용자 단말(100)로부터 수신된 제어 신호에 따라 명령을 수행할 수 있다.In step S1015, the set-top box 110 may execute a command according to a control signal received from the user terminal 100.

상술한 설명에서, 단계 S1001 내지 S1015는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S1001 to S1015 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

도 11은 본 발명의 다른 실시예에 따른, 알파맵 분석을 통한 양방향 서비스를 제공하는 방법을 나타낸 동작 흐름도이다.11 is a flowchart illustrating a method of providing an interactive service through an alpha map analysis according to another embodiment of the present invention.

도 11에 도시된 실시예에 따른 양방향 서비스 제공 방법은 도 1 내지 도 10에 도시된 실시예에 따른 사용자 단말(100), 셋톱 박스(110), 미디어 서버(120) 및 이미지 처리 서버(130)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 10의 사용자 단말(100), 셋톱 박스(110), 미디어 서버(120) 및 이미지 처리 서버(130)에 관하여 기술된 내용은 도 11에 도시된 실시예에 따른 양방향 서비스 제공 방법에도 적용될 수 있다.The method of providing a two-way service according to the embodiment shown in FIG. 11 includes a user terminal 100, a set-top box 110, a media server 120, and an image processing server 130 according to the embodiments shown in FIGS. 1 to 10. It includes steps that are processed in a time series. Therefore, even if the contents are omitted below, the contents described with respect to the user terminal 100, the set-top box 110, the media server 120, and the image processing server 130 of FIGS. 1 to 10 are implemented as shown in FIG. It can also be applied to a method of providing a two-way service according to an example.

도 11을 참조하면, 단계 S1101에서 사용자 단말(100)은 사용자 단말(100)의 카메라를 통해 촬영된 레퍼런스 영상과 실시간 영상을 비교하여 실시간 영상의 각 프레임의 알파맵을 생성하고, 실시간 영상의 각 프레임에 대응하는 원본 이미지, 알파맵 및 실시간 영상에 포함된 객체의 좌표값을 이미지 처리 서버(130)에게 전송할 수 있다.Referring to FIG. 11, in step S1101, the user terminal 100 compares the reference image captured by the camera of the user terminal 100 with the real-time image to generate an alpha map of each frame of the real-time image, and The original image corresponding to the frame, an alpha map, and coordinate values of an object included in the real-time image may be transmitted to the image processing server 130.

단계 S1103에서 이미지 처리 서버(130)는 실시간 영상의 각 프레임의 알파맵에 대응하는 이미지 및 객체의 좌표값을 셋톱 박스(110)에게 전송할 수 있다.In step S1103, the image processing server 130 may transmit the coordinate values of the image and object corresponding to the alpha map of each frame of the real-time image to the set-top box 110.

단계 S1105에서 셋톱 박스(110)는 이미지 처리 서버(130)로부터 수신된 이미지를 플레이어에서 재생 중인 컨텐츠 영상에 오버레이하여 출력할 수 있다.In step S1105, the set-top box 110 may overlay the image received from the image processing server 130 on the content image being played in the player and output it.

단계 S1107에서 셋톱 박스(110)는 객체의 좌표값에 기초하여 객체를 추적하고, 객체가 위치하는 영역에 해당하는 이벤트를 생성할 수 있다.In step S1107, the set-top box 110 may track the object based on the coordinate value of the object and generate an event corresponding to an area in which the object is located.

상술한 설명에서, 단계 S1101 내지 S1107은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S1101 to S1107 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be changed.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. .

100: 사용자 단말
110: 셋톱 박스
120: 미디어 서버
130: 이미지 처리 서버
140: 디스플레이 장치
200: 영상 획득부
210: 알파맵 생성부
220: 알파맵 분석부
222: 알파맵 분류부
224: 컨트롤 오브젝트 판단부
230: 제어 신호 전송부
240: 알파맵 전송부
400: 컨텐츠 수신부
410: 이미지 수신부
420: 이미지 출력부
430: 제어 신호 수신부
440: 제어부
450: 이벤트 생성부
100: user terminal
110: set-top box
120: media server
130: image processing server
140: display device
200: image acquisition unit
210: Alpha map generator
220: Alpha map analysis unit
222: Alpha map classification unit
224: control object determination unit
230: control signal transmission unit
240: Alpha map transmission unit
400: content receiver
410: image receiving unit
420: image output unit
430: control signal receiver
440: control unit
450: event generator

Claims (20)

알파맵(Alpha Map) 분석을 통한 양방향 서비스를 제공하는 사용자 단말에 있어서,
레퍼런스 영상과 실시간 영상을 획득하는 영상 획득부;
상기 레퍼런스 영상과 상기 실시간 영상을 비교하여 상기 실시간 영상의 각 프레임의 알파맵을 생성하는 알파맵 생성부;
상기 알파맵의 알파값을 분석하여 컨트롤 오브젝트를 판단하고, 상기 컨트롤 오브젝트의 알파값을 분석하여 제어 대상 장치에 대한 제어 신호를 생성하는 알파맵 분석부; 및
상기 제어 신호를 상기 제어 대상 장치로 전송하는 제어 신호 전송부
를 포함하고,
상기 알파맵 분석부는 상기 알파맵을 각 픽셀의 알파값이 제 1 값인 제 1 오브젝트 및 각 픽셀의 알파값이 제 2 값인 제 2 오브젝트로 분류하는 알파맵 분류부;
상기 알파맵 분류부는 상기 제 1 오브젝트 및 상기 제 2 오브젝트의 위치, 모양 및 크기 중 적어도 하나에 기초하여 상기 제 1 오브젝트 및 상기 제 2 오브젝트 중 하나를 상기 컨트롤 오브젝트로 결정하는 컨트롤 오브젝트 판단부
를 더 포함하는 것인, 사용자 단말.
In a user terminal that provides an interactive service through an Alpha Map analysis,
An image acquisition unit that acquires a reference image and a real-time image;
An alpha map generator for comparing the reference image and the real-time image to generate an alpha map of each frame of the real-time image;
An alpha map analyzer configured to analyze an alpha value of the alpha map to determine a control object, and to generate a control signal for a control target device by analyzing the alpha value of the control object; And
Control signal transmission unit for transmitting the control signal to the control target device
Including,
The alpha map analysis unit comprises an alpha map classification unit that classifies the alpha map into a first object having an alpha value of each pixel of a first value and a second object having an alpha value of each pixel of a second value;
The alpha map classification unit is a control object determination unit that determines one of the first object and the second object as the control object based on at least one of a position, shape, and size of the first object and the second object.
That further comprises a user terminal.
제 1 항에 있어서,
상기 각 프레임의 알파맵과 원본 이미지를 이미지 처리 서버로 전송하는 알파맵 전송부
를 더 포함하는 것인, 사용자 단말.
The method of claim 1,
An alpha map transmission unit that transmits the alpha map and original image of each frame to an image processing server
That further comprises a user terminal.
삭제delete 삭제delete 제 1 항에 있어서,
상기 컨트롤 오브젝트 판단부는 상기 제 1 오브젝트가 상기 제 2 오브젝트의 내부에 위치하는 경우 상기 제 1 오브젝트를 상기 컨트롤 오브젝트로 결정하는 것인, 사용자 단말.
The method of claim 1,
The user terminal, wherein the control object determination unit determines the first object as the control object when the first object is located inside the second object.
제 1 항에 있어서,
상기 컨트롤 오브젝트 판단부는 상기 제 1 오브젝트 및 상기 제 2 오브젝트 중 기설정된 범위의 크기에 해당하는 오브젝트를 상기 컨트롤 오브젝트로 결정하는 것인, 사용자 단말.
The method of claim 1,
The control object determining unit determines an object corresponding to a size of a predetermined range among the first object and the second object as the control object.
제 1 항에 있어서,
상기 알파맵 분석부는 상기 컨트롤 오브젝트의 크기가 기설정된 비율만큼 변한 경우 상기 제어 대상 장치의 제어 신호를 생성하는 것인, 사용자 단말.
The method of claim 1,
The alpha map analysis unit generates a control signal of the control target device when the size of the control object is changed by a preset ratio.
제 1 항에 있어서,
상기 알파맵 분석부는 상기 컨트롤 오브젝트가 기설정된 영역에 위치하는 경우 상기 제어 대상 장치의 제어 신호를 생성하는 것인, 사용자 단말.
The method of claim 1,
The alpha map analysis unit generates a control signal of the control target device when the control object is located in a preset area.
제 7 항 또는 제 8 항에 있어서,
상기 제어 대상 장치는 셋톱 박스이고,
상기 제어 신호는 채널 변경 신호 및 볼륨 변경 신호를 포함하는 것인, 사용자 단말.
The method according to claim 7 or 8,
The control target device is a set-top box,
Wherein the control signal includes a channel change signal and a volume change signal.
제 2 항에 있어서,
상기 각 프레임의 알파맵과 원본 이미지로부터 생성된 이미지가 상기 제어 대상 장치를 통해 출력 중인 영상 위에 오버레이되는 것인, 사용자 단말.
The method of claim 2,
Wherein the alpha map of each frame and the image generated from the original image are overlaid on the image being output through the control target device.
알파맵(Alpha Map)을 통한 양방향 서비스를 제공하는 셋톱 박스에 있어서,
미디어 서버로부터 컨텐츠 영상을 수신하는 컨텐츠 수신부;
사용자 단말을 통해 촬영된 실시간 영상의 각 프레임의 알파맵(Alpha Map)에 대응하는 이미지를 이미지 처리 서버로부터 수신하는 이미지 수신부;
상기 수신한 이미지를 웹뷰(web view) 브라우져에 디스플레이하고, 상기 웹뷰 브라우져를 상기 컨텐츠 영상이 재생되는 플레이어에 오버레이하는 이미지 출력부;
상기 사용자 단말로부터 제어 신호를 수신하는 제어 신호 수신부; 및
상기 제어 신호에 따라 명령을 수행하는 제어부
를 포함하고,
상기 제어 신호는 상기 사용자 단말에 의해 상기 알파맵의 알파값이 분석되어 컨트롤 오브젝트가 판단되고, 상기 컨트롤 오브젝트의 알파값이 분석되어 생성되고,
상기 알파맵은 각 픽셀의 알파값이 제 1 값인 제 1 오브젝트 및 각 픽셀의 알파값이 제 2 값인 제 2 오브젝트로 분류되고,
상기 컨트롤 오브젝트는 상기 제 1 오브젝트 및 상기 제 2 오브젝트의 위치, 모양 및 크기 중 적어도 하나에 기초하여 상기 제 1 오브젝트 및 상기 제 2 오브젝트 중 하나로 결정되는 것인, 셋톱 박스
In a set-top box that provides a two-way service through an Alpha Map,
A content receiver for receiving a content image from a media server;
An image receiving unit for receiving an image corresponding to an alpha map of each frame of the real-time image captured through the user terminal from the image processing server;
An image output unit for displaying the received image on a web view browser and overlaying the web view browser on a player playing the content image;
A control signal receiver for receiving a control signal from the user terminal; And
A control unit that executes a command according to the control signal
Including,
The control signal is generated by analyzing an alpha value of the alpha map by the user terminal to determine a control object, and analyzing the alpha value of the control object,
The alpha map is classified into a first object in which an alpha value of each pixel is a first value and a second object in which an alpha value of each pixel is a second value,
The control object is determined as one of the first object and the second object based on at least one of a position, shape, and size of the first object and the second object.
제 11 항에 있어서,
상기 이미지 출력부는 상기 이미지가 상기 컨텐츠 영상에 투영되도록 상기 웹뷰 브라우져의 투명도를 제어하는 것인, 셋톱 박스.
The method of claim 11,
The image output unit controls the transparency of the web view browser so that the image is projected onto the content image.
제 11 항에 있어서,
상기 이미지 수신부는 상기 이미지 처리 서버로부터 객체의 좌표값을 더 수신하는 것인, 셋톱 박스.
The method of claim 11,
The image receiving unit further receives the coordinate value of the object from the image processing server, the set-top box.
제 13 항에 있어서,
상기 이미지는 상기 각 프레임의 알파맵에 기초하여 상기 객체와 배경이 분리되고,
상기 좌표값은 상기 분리된 객체의 좌표값인 것인, 셋톱 박스.
The method of claim 13,
In the image, the object and the background are separated based on the alpha map of each frame,
The coordinate value is the coordinate value of the separated object, the set-top box.
제 13 항에 있어서,
상기 좌표값에 기초하여 이벤트를 생성하는 이벤트 생성부
를 더 포함하고,
상기 웹뷰 브라우져의 각 영역은 기설정된 이벤트가 매핑되어 있고,
상기 이벤트 생성부는 상기 객체가 위치하는 영역에 해당하는 이벤트를 생성하는 것인, 셋톱 박스.
The method of claim 13,
An event generator that generates an event based on the coordinate value
Including more,
Each area of the web view browser is mapped to a preset event,
The event generator generates an event corresponding to an area in which the object is located.
사용자 단말에서 수행되는 양방향 서비스를 제공하는 방법에 있어서,
레퍼런스 영상과 실시간 영상을 획득하는 단계;
상기 레퍼런스 영상과 상기 실시간 영상을 비교하여 상기 실시간 영상의 각 프레임의 알파맵을 생성하는 단계;
상기 알파맵의 알파값을 분석하여 컨트롤 오브젝트를 판단하고, 상기 컨트롤 오브젝트의 알파값을 분석하여 제어 대상 장치에 대한 제어 신호를 생성하는 단계; 및
상기 제어 신호를 상기 제어 대상 장치로 전송하는 단계
를 포함하고,
상기 각 프레임의 알파맵을 생성하는 단계는
상기 알파맵을 각 픽셀의 알파값이 제 1 값인 제 1 오브젝트 및 각 픽셀의 알파값이 제 2 값인 제 2 오브젝트로 분류하는 단계를 포함하고,
상기 분류하는 단계는
상기 제 1 오브젝트 및 상기 제 2 오브젝트의 위치, 모양 및 크기 중 적어도 하나에 기초하여 상기 제 1 오브젝트 및 상기 제 2 오브젝트 중 하나를 상기 컨트롤 오브젝트로 결정하는 단계를 포함하는 것인, 양방향 서비스 제공 방법.
In the method of providing a two-way service performed in a user terminal,
Obtaining a reference image and a real-time image;
Comparing the reference image and the real-time image to generate an alpha map of each frame of the real-time image;
Analyzing an alpha value of the alpha map to determine a control object, analyzing an alpha value of the control object to generate a control signal for a control target device; And
Transmitting the control signal to the control target device
Including,
Generating the alpha map of each frame
Classifying the alpha map into a first object having an alpha value of each pixel of a first value and a second object having an alpha value of each pixel of a second value,
The classifying step
And determining one of the first object and the second object as the control object based on at least one of a location, shape, and size of the first object and the second object. .
삭제delete 삭제delete 제 16 항에 있어서,
상기 제어 신호를 생성하는 단계는
상기 컨트롤 오브젝트의 크기가 기설정된 비율만큼 변한 경우 상기 제어 대상 장치의 제어 신호를 생성하는 단계를 포함하는 것인, 양방향 서비스 제공 방법.
The method of claim 16,
Generating the control signal comprises:
And generating a control signal of the control target device when the size of the control object is changed by a preset ratio.
제 16 항에 있어서,
상기 제어 신호를 생성하는 단계는
상기 컨트롤 오브젝트가 기설정된 영역에 위치하는 경우 상기 제어 대상 장치의 제어 신호를 생성하는 단계를 포함하는 것인, 양방향 서비스 제공 방법.
The method of claim 16,
Generating the control signal comprises:
And generating a control signal of the control target device when the control object is located in a preset area.
KR1020160121361A 2016-09-22 2016-09-22 Device and method for providing user interaction service by analysing alpha map KR102200820B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160121361A KR102200820B1 (en) 2016-09-22 2016-09-22 Device and method for providing user interaction service by analysing alpha map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160121361A KR102200820B1 (en) 2016-09-22 2016-09-22 Device and method for providing user interaction service by analysing alpha map

Publications (2)

Publication Number Publication Date
KR20180032320A KR20180032320A (en) 2018-03-30
KR102200820B1 true KR102200820B1 (en) 2021-01-11

Family

ID=61900239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160121361A KR102200820B1 (en) 2016-09-22 2016-09-22 Device and method for providing user interaction service by analysing alpha map

Country Status (1)

Country Link
KR (1) KR102200820B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515170A (en) * 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド Manipulating virtual objects using an enhanced interactive system
JP2011085966A (en) * 2009-10-13 2011-04-28 Sony Corp Information processing device, information processing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101781158B1 (en) * 2010-12-22 2017-09-25 한국전자통신연구원 Apparatus for image matting using multi camera, and method for generating alpha map

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515170A (en) * 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド Manipulating virtual objects using an enhanced interactive system
JP2011085966A (en) * 2009-10-13 2011-04-28 Sony Corp Information processing device, information processing method, and program

Also Published As

Publication number Publication date
KR20180032320A (en) 2018-03-30

Similar Documents

Publication Publication Date Title
US10168794B2 (en) Motion-assisted visual language for human computer interfaces
WO2021115181A1 (en) Gesture recognition method, gesture control method, apparatuses, medium and terminal device
US9710068B2 (en) Apparatus and method for controlling interface
US9104242B2 (en) Palm gesture recognition method and device as well as human-machine interaction method and apparatus
EP3467707A1 (en) System and method for deep learning based hand gesture recognition in first person view
CN105190644B (en) Techniques for image-based searching using touch control
KR20220144890A (en) Method and system for controlling a device using hand gestures in a multi-user environment
US10990226B2 (en) Inputting information using a virtual canvas
CN102737238A (en) Gesture motion-based character recognition system and character recognition method, and application thereof
US20150169085A1 (en) Information processing apparatus, program, information processing method, and information processing system
EP2798576A2 (en) Method and system for video composition
US20140129929A1 (en) Display apparatus and character correcting method thereof
CA2902510A1 (en) Telestration system for command processing
CN112633313B (en) Bad information identification method of network terminal and local area network terminal equipment
KR102453083B1 (en) Processing and formatting video for interactive presentation
CN115298638A (en) Method and system for controlling device based on gesture
US20140189601A1 (en) Display apparatus and method for controlling display apparatus thereof
US10401947B2 (en) Method for simulating and controlling virtual sphere in a mobile device
KR20190117838A (en) System and method for recognizing object
US20150244984A1 (en) Information processing method and device
CN202093528U (en) Character recognition system and translation system based on gestures
CN113315927B (en) Video processing method and device, electronic equipment and storage medium
US20230368338A1 (en) Image display method and apparatus, and electronic device
KR102200820B1 (en) Device and method for providing user interaction service by analysing alpha map
US20170310920A1 (en) Method and system for rendering documents with depth camera for telepresence

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant