KR102615377B1 - Method of providing a service to experience broadcasting - Google Patents

Method of providing a service to experience broadcasting Download PDF

Info

Publication number
KR102615377B1
KR102615377B1 KR1020230004529A KR20230004529A KR102615377B1 KR 102615377 B1 KR102615377 B1 KR 102615377B1 KR 1020230004529 A KR1020230004529 A KR 1020230004529A KR 20230004529 A KR20230004529 A KR 20230004529A KR 102615377 B1 KR102615377 B1 KR 102615377B1
Authority
KR
South Korea
Prior art keywords
video
broadcast
acting
participant
user terminal
Prior art date
Application number
KR1020230004529A
Other languages
Korean (ko)
Inventor
박정신
Original Assignee
박정신
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박정신 filed Critical 박정신
Priority to KR1020230004529A priority Critical patent/KR102615377B1/en
Application granted granted Critical
Publication of KR102615377B1 publication Critical patent/KR102615377B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

사용자가 삶 속에서 다양한 장르의 방송 동영상을 직접 체험하고 그 경험을 공유할 수 있는 방송 체험 서비스가 제공된다.
이 방송 체험 서비스의 제공 방법은, 복수의 방송 동영상을 이용하여 방송 체험 서비스를 제공하는 서비스 서버가(각 방송 동영상은 방송 비디오 및 방송 오디오를 포함함): 각 방송 비디오에 나타나는 인물 객체를 검출하고 인물 객체의 제1 경계선을 추출하는 단계; 사용자 단말이 복수의 방송 동영상 중 어느 하나의 선택을 입력받으면, 사용자 단말의 디스플레이 상에 선택된 방송 동영상 및 이의 스크립트를 재생하는 단계; 사용자 단말로부터, 방송 동영상의 재생에 맞춰 참가자의 연기 체험을 촬영하여 생성된 연기 동영상을 수신하는 단계(연기 동영상은 연기 비디오 및 연기 오디오를 포함함); 연기 비디오에 나타나는 참가자 객체를 검출하고 참가자 객체의 제2 경계선을 추출하는 단계; 방송 비디오에서 제1 경계선을 기준으로 영상 분할(image segmentation)하여 인물 객체를 제외한 배경을 추출하고, 연기 비디오에서 제2 경계선을 기준으로 영상 분할하여 참가자 객체를 추출한 후, 배경과 참가자 객체를 합성하여 합성 비디오를 생성하는 단계; 및 서비스 서버가 합성 비디오와 연기 오디오를 결합한 합성 동영상을 생성하는 단계를 포함한다.
A broadcast experience service is provided that allows users to directly experience broadcast videos of various genres in their lives and share the experience.
In this method of providing a broadcast experience service, a service server that provides a broadcast experience service using a plurality of broadcast videos (each broadcast video includes broadcast video and broadcast audio): detects a person object that appears in each broadcast video; Extracting a first boundary line of a human object; When the user terminal receives a selection of one of a plurality of broadcast videos, playing the selected broadcast video and its script on the display of the user terminal; Receiving, from a user terminal, a acting video generated by filming the participant's acting experience in accordance with the playback of the broadcast video (the acting video includes acting video and acting audio); detecting a participant object appearing in the performance video and extracting a second boundary line of the participant object; From the broadcast video, image segmentation is performed based on the first boundary line to extract the background excluding the person object. From the acting video, the image is segmented based on the second boundary line to extract participant objects, and then the background and participant objects are combined. generating a composite video; and the service server generating a composite video combining the composite video and the acting audio.

Description

방송 체험 서비스의 제공 방법{Method of providing a service to experience broadcasting}{Method of providing a service to experience broadcasting}

본 발명은 방송 체험 서비스의 제공 방법에 관한 것으로서, 더욱 상세하게는 실제 방송 동영상에 참가자의 연기 동영상을 결합한 합성 동영상을 SNS 등을 통해 공유할 수 있는 방송 체험 서비스의 제공 방법에 관한 것이다.The present invention relates to a method of providing a broadcast experience service, and more specifically, to a method of providing a broadcast experience service in which a composite video combining an actual broadcast video with a participant's performance video can be shared through SNS or the like.

방송사는 드라마, 영화, 예능, 뉴스 보도 등 다양한 장르의 방송 동영상 콘텐츠를 생성하고 이를 여러 미디어를 통해 전달하고 있다. 현재까지 이러한 방송 동영상 아카이브 자산을 활용하는 방안으로는 IPTV, OTT 등을 통한 재시청 서비스를 제외하고는 별다른 방안이 모색되지 않고 있다. Broadcasting companies create broadcast video content of various genres, including dramas, movies, entertainment, and news reports, and deliver it through various media. To date, no other methods have been explored to utilize these broadcast video archive assets, except for re-watching services through IPTV, OTT, etc.

이에 본 발명자는 사용자가 방송 동영상을 직접 체험하고 그 경험을 공유할 수 있는 방안에 대해 많은 연구와 노력을 기울인 끝에 본 발명을 완성하게 되었다.Accordingly, the present inventor completed the present invention after putting a lot of research and effort into a way for users to directly experience broadcast videos and share the experience.

본 발명이 해결하고자 하는 과제는, 사용자가 삶 속에서 다양한 장르의 방송 동영상을 직접 체험하고 그 경험을 공유할 수 있는 방송 체험 서비스를 제공하고자 하는 것이다.The problem that the present invention seeks to solve is to provide a broadcast experience service that allows users to directly experience broadcast videos of various genres in their lives and share the experience.

본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below. will be.

상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 방송 체험 서비스의 제공 방법은, 복수의 방송 동영상을 이용하여 방송 체험 서비스를 제공하는 서비스 서버가(각 방송 동영상은 방송 비디오 및 방송 오디오를 포함함): 각 방송 비디오에 나타나는 인물 객체를 검출하고 상기 인물 객체의 제1 경계선을 추출하는 단계; 사용자 단말이 상기 복수의 방송 동영상 중 어느 하나의 선택을 입력받으면, 상기 사용자 단말의 디스플레이 상에 선택된 방송 동영상 및 이의 스크립트를 재생하는 단계; 상기 사용자 단말로부터, 상기 방송 동영상의 재생에 맞춰 참가자의 연기 체험을 촬영하여 생성된 연기 동영상을 수신하는 단계(상기 연기 동영상은 연기 비디오 및 연기 오디오를 포함함); 상기 연기 비디오에 나타나는 참가자 객체를 검출하고 상기 참가자 객체의 제2 경계선을 추출하는 단계; 상기 방송 비디오에서 상기 제1 경계선을 기준으로 영상 분할(image segmentation)하여 상기 인물 객체를 제외한 배경을 추출하고, 상기 연기 비디오에서 상기 제2 경계선을 기준으로 영상 분할하여 상기 참가자 객체를 추출한 후, 상기 배경과 상기 참가자 객체를 합성하여 합성 비디오를 생성하는 단계; 및 상기 서비스 서버가 상기 합성 비디오와 상기 연기 오디오를 결합한 합성 동영상을 생성하는 단계를 포함한다.A method of providing a broadcast experience service according to an embodiment of the present invention for achieving the above problem involves a service server providing a broadcast experience service using a plurality of broadcast videos (each broadcast video includes broadcast video and broadcast audio). ): detecting a person object appearing in each broadcast video and extracting a first boundary line of the person object; When the user terminal receives a selection of one of the plurality of broadcast videos, playing the selected broadcast video and its script on the display of the user terminal; Receiving, from the user terminal, a acting video generated by filming the participant's acting experience in accordance with the playback of the broadcast video (the acting video includes acting video and acting audio); detecting a participant object appearing in the performance video and extracting a second boundary line of the participant object; After extracting the background excluding the person object by performing image segmentation based on the first boundary line in the broadcast video, and extracting the participant object by segmenting the image based on the second boundary line in the acting video, generating a composite video by compositing a background and the participant object; and generating, by the service server, a composite video combining the composite video and the acting audio.

상기 제1 경계선은 상기 인물 객체의 얼굴 에지일 수 있다. 상기 제2 경계선은 상기 참가자 객체의 얼굴 에지일 수 있다.The first borderline may be a facial edge of the human object. The second boundary line may be a facial edge of the participant object.

상기 사용자 단말이 복수 참가자의 서비스 참가를 입력받으면, 상기 서비스 서버는 각 방송 비디오에 나타나는 복수의 인물 객체를 검출하고 각 인물 객체의 제1 경계선을 추출하고; 상기 서비스 서버는 상기 연기 비디오에 나타나는 복수의 참가자 객체를 검출하고 각 참가자 객체의 제2 경계선을 추출하고; 상기 서비스 서버는 소정의 매칭 기준에 따라 상기 복수의 인물 객체와 상기 복수의 참가자 객체를 매칭하고; 상기 서비스 서버는 상기 방송 비디오에서 상기 복수의 인물 객체를 제외한 배경을 추출하고, 상기 연기 비디오에서 상기 복수의 참가자 객체를 추출한 후, 상기 매칭 기준을 반영하여 상기 배경과 상기 복수의 참가자 객체를 합성하여 합성 비디오를 생성할 수 있다.When the user terminal receives service participation from multiple participants, the service server detects a plurality of person objects appearing in each broadcast video and extracts a first boundary line of each person object; the service server detects a plurality of participant objects appearing in the performance video and extracts a second boundary line of each participant object; The service server matches the plurality of person objects with the plurality of participant objects according to predetermined matching criteria; The service server extracts a background excluding the plurality of person objects from the broadcast video, extracts the plurality of participant objects from the acting video, and then synthesizes the background and the plurality of participant objects by reflecting the matching criteria. Composite video can be created.

상기 사용자 단말의 요청에 의해 상기 합성 동영상을 SNS, 포털 사이트, 동영상 공유 서비스 플랫폼, 인터넷 미디어 방송 플랫폼, 이메일 서버 중 적어도 하나를 통해 공유하는 단계를 더 포함할 수 있다.The method may further include sharing the composite video through at least one of SNS, a portal site, a video sharing service platform, an Internet media broadcasting platform, and an email server at the request of the user terminal.

상기 합성 동영상으로부터 추출된 복수의 정지 이미지를 결합한 움직이는 GIF(animated GIF)를 생성하는 단계를 더 포함할 수 있다.The method may further include generating an animated GIF (animated GIF) by combining a plurality of still images extracted from the composite video.

기타 실시예들의 구체적인 사항들은 구체적인 내용 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.

상술한 바와 같이 본 발명에 따른 방송 체험 서비스의 제공 방법에 의하면, 사용자는 본인의 사용자 단말을 통해 서비스 서버에 접속하여 드라마, 영화, 예능, 뉴스 보도 등을 포함하는 다양한 방송 동영상 중 희망하는 방송 동영상을 선택한 후 사용자 단말을 통해 해당 방송 동영상 및 스크립트가 재생되는 동안 이를 참고하여 연기 체험을 수행할 수 있다. 사용자 단말은 이러한 연기 체험을 촬영되어 연기 동영상을 생성하고, 서비스 서버는 선택된 방송 동영상과 연기 동영상을 합성하여 합성 동영상을 생성할 수 있다. As described above, according to the method of providing a broadcasting experience service according to the present invention, the user accesses the service server through his/her user terminal and selects the desired broadcasting video among various broadcasting videos including dramas, movies, entertainment, news reports, etc. After selecting , you can perform an acting experience by referring to the broadcast video and script while it is played through the user terminal. The user terminal captures the acting experience and creates a acting video, and the service server can synthesize the selected broadcast video and the acting video to create a composite video.

사용자는 사용자 단말을 이용하여 합성 동영상을 SNS, 포털 사이트, 동영상 공유 서비스 플랫폼, 인터넷 미디어 방송 플랫폼, 이메일 서버 등을 통해 공유할 수 있다. 또한 서비스 서버는 합성 동영상으로부터 추출된 복수의 정지 이미지를 결합한 움직이는 GIF(animated GIF)를 생성할 수 있고, 사용자는 사용자 단말을 이용하여 해당 움직이는 GIF를 SNS, 포털 사이트, 동영상 공유 서비스 플랫폼, 인터넷 미디어 방송 플랫폼, 이메일 서버 등을 통해 공유할 수 있다.Users can use the user terminal to share composite videos through SNS, portal sites, video sharing service platforms, Internet media broadcasting platforms, email servers, etc. Additionally, the service server can create a moving GIF (animated GIF) that combines multiple still images extracted from the synthetic video, and the user can use the user terminal to upload the animated GIF to SNS, portal sites, video sharing service platforms, and internet media. It can be shared through broadcasting platforms, email servers, etc.

도 1은 본 발명의 일 실시예에 따른 방송 체험 서비스 시스템을 나타낸 구성도이다.
도 2는 도 1의 사용자 단말을 개략적으로 나타낸 구성도이다.
도 3은 본 발명의 일 실시예에 따른 방송 체험 서비스의 제공 방법을 순차적으로 나타낸 순서도이다.
도 4는 방송 동영상 및 이의 스크립트가 재생되는 사용자 단말의 사용자 인터페이스를 예시적으로 나타낸 도면이다.
도 5는 연기 동영상이 재생되는 사용자 단말의 사용자 인터페이스를 예시적으로 나타낸 도면이다.
1 is a configuration diagram showing a broadcast experience service system according to an embodiment of the present invention.
FIG. 2 is a schematic configuration diagram of the user terminal of FIG. 1.
Figure 3 is a flowchart sequentially showing a method of providing a broadcast experience service according to an embodiment of the present invention.
Figure 4 is a diagram illustrating an exemplary user interface of a user terminal on which a broadcast video and its script are played.
Figure 5 is a diagram illustrating an exemplary user interface of a user terminal on which an acting video is played.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. The present embodiments only serve to ensure that the disclosure of the present invention is complete and that common knowledge in the technical field to which the present invention pertains is not limited. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

본 명세서에서 '동영상'이라는 용어는 비디오 및 오디오를 포함하는 것으로 사용된다. 예를 들어 방송 동영상은 방송 비디오 및 방송 오디오를 포함하고, 연기 동영상은 연기 비디오 및 연기 오디오를 포함한다.In this specification, the term 'video' is used to include video and audio. For example, a broadcast video includes broadcast video and broadcast audio, and a smoke video includes a smoke video and smoke audio.

이하 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 방송 체험 서비스 시스템에 대해 자세히 설명한다. 도 1은 본 발명의 일 실시예에 따른 방송 체험 서비스 시스템을 나타낸 구성도이다. 도 2는 도 1의 사용자 단말을 개략적으로 나타낸 구성도이다. 본 발명의 방송 체험 서비스 시스템은 복수의 사용자 단말(200) 및 이들과 무선 네트워크로 연결된 서비스 서버(100)를 포함한다.Hereinafter, a broadcast experience service system according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 and 2. 1 is a configuration diagram showing a broadcast experience service system according to an embodiment of the present invention. FIG. 2 is a schematic configuration diagram of the user terminal of FIG. 1. The broadcast experience service system of the present invention includes a plurality of user terminals 200 and a service server 100 connected to them through a wireless network.

서비스 서버(100)는 복수의 방송 동영상을 이용하여 방송 체험 서비스를 제공하는 장치이다. 서비스 서버(100)는 서비스 매니지먼트, 데이터 통신 및 처리, 데이터베이스 구축, 보안 및 인증 등에 관한 하나 이상의 서버 장치로 이루어질 수 있으며, 하드웨어 및/또는 소프트웨어 장비를 포함할 수 있다. 서비스 서버(100)는 모바일 애플리케이션 소프트웨어 또는 방송 체험 서비스 모바일 애플리케이션 소프트웨어를 제공할 수 있으며, 웹 사이트 등의 웹 기반 플랫폼을 제공할 수도 있다. 서비스 서버(100)는 복수의 데이터베이스를 구축하고 관리한다. 데이터베이스는 사용자 단말(200)에서 업로드 된 방송 동영상 선택 정보, 복수 참가자의 서비스 참가 정보, 참가자 인원수 정보, 연기 동영상, 콘텐츠 정보 등을 저장할 수 있다. 또한 필요에 따라 방송 체험 서비스를 제공함에 있어 필요한 사용자 정보, 메시지 정보, 광고 정보, 과금 정보, 로그 정보 등을 기록하는 데이터베이스가 추가될 수 있다.The service server 100 is a device that provides a broadcast experience service using a plurality of broadcast videos. The service server 100 may be comprised of one or more server devices related to service management, data communication and processing, database construction, security and authentication, etc., and may include hardware and/or software equipment. The service server 100 may provide mobile application software or broadcast experience service mobile application software, and may also provide a web-based platform such as a website. The service server 100 builds and manages multiple databases. The database may store broadcast video selection information uploaded from the user terminal 200, service participation information of multiple participants, information on the number of participants, performance videos, content information, etc. Additionally, if necessary, a database that records user information, message information, advertisement information, billing information, log information, etc. necessary for providing broadcasting experience services may be added.

사용자 단말(200)은 프로세서, 메모리, 입력수단 및 출력수단을 포함하는 단말 장치로서, 사용자가 이동하며 휴대할 수 있는 무선 통신 기능을 가질 수 있다. 사용자 단말(200)에는 방송 체험 서비스를 구현하는 방송 체험 서비스 모바일 애플리케이션이 설치된다. 방송 체험 서비스 모바일 애플리케이션은 다른 미디어를 통해 기 방송되어 저장된 방송 동영상 및 이의 스크립트를 재생하는 동안 카메라 등의 입력수단을 통해 참가자의 연기 체험을 촬영하여 연기 동영상을 생성하고 방송 동영상과 연기 동영상을 합성한 합성 동영상을 재생하거나 공유할 수 있는 모바일 애플리케이션으로서, 사용자 단말(200)의 OS가 정한 규약과 설정을 이용하여 서비스 서버(100)와 통신하거나 통신상태를 유지할 수 있다. 방송 체험 서비스 모바일 애플리케이션은 사용자가 외부 플랫폼을 이용하여 혹은 외부의 링크를 이용하여 사용자 단말(200)에 다운로드 받은 애플리케이션 소프트웨어이거나, 사용자 단말(200)의 운영체제 소프트웨어와 연동하여 디폴트로 사용자 단말(200)에 설치된 소프트웨어일 수 있다. 방송 체험 모바일 애플리케이션은 사용자 단말(200)에 기본적으로 설치된 기본 애플리케이션(예를 들어, 문자, 음성신호, 또는 데이터의 송수신 애플리케이션)과 연동될 수도 있고 별도의 연동 없이 독립적으로 구동될 수도 있다.The user terminal 200 is a terminal device including a processor, memory, input means, and output means, and may have a wireless communication function that the user can carry while moving. A broadcast experience service mobile application that implements a broadcast experience service is installed in the user terminal 200. The broadcast experience service mobile application creates an acting video by filming the participant's acting experience through input means such as a camera while playing the broadcast video and its script that have already been broadcast and stored through other media, and synthesizes the broadcast video and the acting video. As a mobile application that can play or share synthetic videos, it can communicate with the service server 100 or maintain a communication state using the rules and settings set by the OS of the user terminal 200. The broadcast experience service mobile application is application software that the user downloads to the user terminal 200 using an external platform or an external link, or is linked to the operating system software of the user terminal 200 and is installed by default on the user terminal 200. It may be software installed on . The broadcast experience mobile application may be linked to a basic application (eg, a text, voice signal, or data transmission/reception application) installed by default on the user terminal 200, or may be run independently without any separate linkage.

사용자 단말(200)의 입력수단은 소프트웨어 또는 하드웨어 입력기를 포함할 수 있고, 사용자 단말(200)의 출력수단은 스피커와 디스플레이를 포함할 수 있다. 사용자 단말(200)이 모바일 디바이스인 경우, 디스플레이는 운영체제 소프트웨어의 UI/UX, 응용 소프트웨어의 UI/UX에 있어서 사용자의 터치입력을 감지하는 수단으로서 사용자 인터페이스를 포함할 수 있다. 디스플레이는 화면을 출력하는 수단임과 동시에 사용자의 터치 이벤트를 감지하는 입력수단을 기능을 함께 실행하는 터치스크린으로 이루어질 수 있다. 사용자 단말(200)의 입력수단으로는 카메라를 포함할 수 있다.The input means of the user terminal 200 may include a software or hardware input device, and the output means of the user terminal 200 may include a speaker and a display. When the user terminal 200 is a mobile device, the display may include a user interface as a means of detecting the user's touch input in the UI/UX of the operating system software and the UI/UX of the application software. The display may be a touch screen that functions as both a means of outputting a screen and an input means of detecting a user's touch event. An input means of the user terminal 200 may include a camera.

사용자 단말(200)의 메모리는 일반적으로 디바이스에 사용되는 컴퓨터 코드 및 데이터를 저장하는 장소를 제공한다. 예를 들어, 사용자 단말(200)의 메모리에는 방송 체험 서비스 모바일 애플리케이션 및 이의 구동/관리에 필요한 리소스뿐만 아니라 기본적인 입출력 시스템, 운영 체제, 다양한 프로그램들, 애플리케이션들, 또는 디바이스에서 실행되는 사용자 인터페이스 기능들, 프로세서 기능들 등을 포함하는 임의의 디바이스용 펌웨어(firmware)가 저장될 수 있다. The memory of the user terminal 200 generally provides a place to store computer code and data used in the device. For example, the memory of the user terminal 200 includes not only the broadcast experience service mobile application and the resources required to run/manage the same, but also the basic input/output system, operating system, various programs, applications, or user interface functions running on the device. , firmware for any device including processor functions, etc. may be stored.

사용자 단말(200)의 프로세서는 운영체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성하고 사용하는 동작을 실행한다. 또한 프로세서는 일련의 명령어를 사용하여 전자장치의 컴포넌트들 간의 입력 및 출력 데이터의 수신 및 처리를 할 수 있다. 또한 프로세서는 전자장치에 설치된 운영체제 소프트웨어와 각종 애플리케이션 소프트웨어들(방송 체험 서비스 모바일 애플리케이션을 포함)의 기능을 실행하는 제어부 역할을 담당한다.The processor of the user terminal 200 executes computer code together with the operating system and performs operations to generate and use data. Additionally, a processor can use a series of instructions to receive and process input and output data between components of an electronic device. In addition, the processor serves as a control unit that executes the functions of the operating system software and various application software (including broadcast experience service mobile applications) installed on the electronic device.

사용자 단말(200)은 사용자의 키 조작, 터치 입력, 드래그 입력 또는 명령에 따라 유무선 네트워크를 경유하여 각종 데이터를 송수신할 수 있는 단말 장치를 포함할 수 있다. 예를 들어, 사용자 단말(200)은 개인용 컴퓨터(PC), 태블릿 컴퓨터, 랩탑(Laptop) 컴퓨터, PDA 또는 스마트폰을 포함한 모바일 디바이스 등으로 이루어질 수 있다. 바람직하게는 사용자 단말(200)은 사용자가 이동하며 휴대할 수 있는 스마트폰으로 이루어질 수 있다.The user terminal 200 may include a terminal device capable of transmitting and receiving various data via a wired or wireless network according to a user's key operation, touch input, drag input, or command. For example, the user terminal 200 may be a personal computer (PC), a tablet computer, a laptop computer, a PDA, or a mobile device including a smartphone. Preferably, the user terminal 200 may be a smartphone that the user can carry while moving.

이하 도 3 내지 도 5를 참조하여 본 발명의 일 실시예에 따른 방송 체험 서비스의 제공 방법에 대해 자세히 설명한다. 도 3은 본 발명의 일 실시예에 따른 방송 체험 서비스의 제공 방법을 순차적으로 나타낸 순서도이다. 도 4는 방송 동영상 및 이의 스크립트가 재생되는 사용자 단말의 사용자 인터페이스를 예시적으로 나타낸 도면이다. 도 5는 연기 동영상이 재생되는 사용자 단말의 사용자 인터페이스를 예시적으로 나타낸 도면이다.Hereinafter, a method for providing a broadcast experience service according to an embodiment of the present invention will be described in detail with reference to FIGS. 3 to 5. Figure 3 is a flowchart sequentially showing a method of providing a broadcast experience service according to an embodiment of the present invention. Figure 4 is a diagram illustrating an exemplary user interface of a user terminal on which a broadcast video and its script are played. Figure 5 is a diagram illustrating an exemplary user interface of a user terminal on which an acting video is played.

먼저 서비스 서버(100)는 방송 체험 서비스에 사용될 복수의 방송 동영상을 준비한다(S10). 각 방송 동영상은 방송 비디오 및 방송 오디오를 포함한다. 방송 동영상은 드라마, 영화, 예능, 뉴스 보도 등 다양한 장르에 속할 수 있으며, 예를 들어 10 내지 20초 분량의 유명한 대사나 보도 멘트 등을 포함하여 사용자의 적극적인 참여를 유도할 수 있다.First, the service server 100 prepares a plurality of broadcast videos to be used in the broadcast experience service (S10). Each broadcast video includes broadcast video and broadcast audio. Broadcast videos may belong to various genres such as dramas, movies, entertainment, and news reports, and may include, for example, 10 to 20 seconds of famous lines or news reports to encourage active participation from users.

서비스 서버(100)는 각 방송 비디오에 나타나는 인물 객체를 검출하고 인물 객체의 제1 경계선(222, 224)을 추출한다. 여기서 제1 경계선(222, 224)은 인물 객체의 얼굴 에지일 수 있다. 도 4에서 방송 동영상이 재생되는 사용자 단말(200)의 사용자 인터페이스(210)를 참조하면, 서비스 서버(100)는 방송 비디오의 각 프레임을 모니터링하여 인물 객체를 탐색한다. 구체적으로, 서비스 서버(100)는 방송 비디오를 프레임 단위로 추출하고 그 프레임을 분석하여 에지를 검출한다. 서비스 서버(100)는 에지에 의해 구분되는 픽셀 영역들 중 유사한 픽셀 값을 가지면서 연속적으로 배치되는 픽셀들을 포함하는 픽셀 영역들을 하나의 인물 객체로 판단한다. 서비스 서버(100)는 얼굴 색에 대응되는 픽셀 영역들을 인물 객체의 얼굴 영역으로 판단하고 얼굴 영역의 에지를 제1 경계선(222, 224)으로 정의하고 인물 객체의 제1 경계선(222, 224)을 추출한다. 서비스 서버(100)는 얼굴 영역 및 이에 연결된 신체 영역을 포함하여 하나의 인물 객체로 판단할 수 있다. 따라서 서비스 서버(100)가 일단 인물 객체를 검출한 후에는 그 검출된 인물 객체의 크기가 축소되거나 이동하더라도 지속적으로 추적할 수 있다. 또한 만일 등장 인물이 얼굴을 돌리거나 얼굴 형태가 변경되더라도, 서비스 서버(100)는 인물 객체 및 그 얼굴 영역을 정확하게 판단할 수 있다.The service server 100 detects the human object appearing in each broadcast video and extracts the first boundary lines 222 and 224 of the human object. Here, the first border lines 222 and 224 may be facial edges of the human object. Referring to the user interface 210 of the user terminal 200 where the broadcast video is played in FIG. 4, the service server 100 monitors each frame of the broadcast video to search for a human object. Specifically, the service server 100 extracts broadcast video frame by frame and analyzes the frame to detect edges. The service server 100 determines that pixel areas including pixels arranged consecutively and having similar pixel values among pixel areas divided by an edge are one person object. The service server 100 determines the pixel areas corresponding to the face color as the face area of the person object, defines the edge of the face area as the first boundary line 222, 224, and defines the first boundary line 222, 224 of the person object. Extract. The service server 100 may determine that the person is one object including the face area and the body area connected thereto. Accordingly, once the service server 100 detects a person object, it can continuously track the detected person object even if its size is reduced or moves. Additionally, even if the character turns his or her face or changes the shape of the face, the service server 100 can accurately determine the character object and its facial area.

방송 동영상에 복수의 등장인물이 나타나는 경우, 서비스 서버(100)는 복수의 인물 객체를 검출하고 각 인물 객체의 제1 경계선(222, 224)을 추출할 수 있다. 예를 들어 도 4에서는 두 개의 인물 객체가 검출될 수 있으며, 서비스 서버(100)는 왼쪽에 위치한 제1 인물 객체의 얼굴 영역의 제1 경계선(222)을 추출할 수 있다. 오른쪽에 위치한 제2 인물 객체는 검출될 수 있으나 얼굴이 안보이는 상태이므로 서비스 서버(100)는 제2 인물 객체의 얼굴 영역이 판단될 때까지 방송 비디오를 지속적으로 모니터링하여 추후 제2 인물 객체의 얼굴 영역의 제1 경계선(224)을 추출할 수 있다.When a plurality of characters appear in a broadcast video, the service server 100 may detect the plurality of character objects and extract the first boundary lines 222 and 224 of each character object. For example, in FIG. 4, two human objects may be detected, and the service server 100 may extract the first boundary line 222 of the face area of the first human object located on the left. The second person object located on the right can be detected, but the face is not visible, so the service server 100 continuously monitors the broadcast video until the face area of the second person object is determined and later determines the face area of the second person object. The first boundary line 224 can be extracted.

이어서 서비스 서버(100)는 사용자 단말(200)로부터 서비스 설정 정보를 수신한다(S12). 서비스 설정 정보는 예를 들어 방송 동영상 선택 정보, 복수 참가자의 서비스 참가 정보, 참가자 인원수 정보, 특수효과 등을 포함할 수 있다. 구체적으로 다음과 같이 진행될 수 있다. 사용자 단말은 입력수단으로부터 복수의 방송 동영상 중 어느 하나의 선택을 입력받는다. 이와 함께 사용자 단말은 입력수단으로부터 복수 참가자의 서비스 참가 및/또는 참가자 인원수 정보를 입력받을 수 있다. 사용자 단말(200)로부터 특수효과 설정을 수신하면, 서비스 서버(100)는 추후 합성 동영상을 생성한 후 이를 예를 들어 흑백영화 스타일, 웹툰 스타일, 팝아트 스타일, 빈티지필름 스타일, 퍼니 카툰 스타일 등으로 변환하여 제공할 수 있다.Next, the service server 100 receives service setting information from the user terminal 200 (S12). Service setting information may include, for example, broadcast video selection information, service participation information of multiple participants, information on the number of participants, special effects, etc. Specifically, it can proceed as follows. The user terminal receives a selection of one of a plurality of broadcast videos from an input means. In addition, the user terminal can receive information about service participation of multiple participants and/or the number of participants from the input means. Upon receiving special effect settings from the user terminal 200, the service server 100 later creates a composite video and converts it into, for example, black and white movie style, webtoon style, pop art style, vintage film style, funny cartoon style, etc. It can be provided.

이어서 서비스 서버(100)는 사용자 단말(200)의 디스플레이 상에 앞서 선택된 방송 동영상 및 이의 스크립트를 재생한다(S14). 도 4를 참조하면, 사용자 단말(200)의 사용자 인터페이스(210)는 방송 동영상이 표시되는 동영상 영역(220) 및 스크립트가 표시되는 스크립트 영역(230)을 포함한다.Next, the service server 100 plays the previously selected broadcast video and its script on the display of the user terminal 200 (S14). Referring to FIG. 4, the user interface 210 of the user terminal 200 includes a video area 220 where a broadcast video is displayed and a script area 230 where a script is displayed.

사용자 단말(200)은 방송 동영상의 재생에 맞춰 참가자의 연기 체험을 촬영하여 연기 동영상을 생성한다(S16). 여기서 연기 동영상은 연기 비디오 및 연기 오디오를 포함한다. 서비스 서버(100)는 사용자 단말(200)로부터 연기 동영상을 수신한다.The user terminal 200 creates an acting video by filming the participant's acting experience in accordance with the playback of the broadcast video (S16). Here, the acting video includes acting video and acting audio. The service server 100 receives the acting video from the user terminal 200.

서비스 서버(100)는 연기 비디오에 나타나는 참가자 객체를 검출하고 참가자 객체의 제2 경계선(242, 244)을 추출한다. 여기서 제2 경계선(242, 244)은 참가자 객체의 얼굴 에지일 수 있다. 도 5에서 연기 동영상이 재생되는 사용자 단말의 사용자 인터페이스를 참조하면, 서비스 서버(100)는 연기 비디오의 각 프레임을 모니터링하여 참여자 객체를 탐색한다. 구체적으로, 서비스 서버(100)는 연기 비디오를 프레임 단위로 추출하고 그 프레임을 분석하여 에지를 검출한다. 서비스 서버(100)는 에지에 의해 구분되는 픽셀 영역들 중 유사한 픽셀 값을 가지면서 연속적으로 배치되는 픽셀들을 포함하는 픽셀 영역들을 하나의 참가자 객체로 판단한다. 서비스 서버(100)는 얼굴 색에 대응되는 픽셀 영역들을 참가자 객체의 얼굴 영역으로 판단하고 얼굴 영역의 에지를 제2 경계선(242, 244)으로 정의하고 참가자 객체의 제2 경계선(242, 244)을 추출한다. 서비스 서버(100)는 얼굴 영역 및 이에 연결된 신체 영역을 포함하여 하나의 참가자 객체로 판단할 수 있다. 따라서 서비스 서버(100)가 일단 참가자 객체를 검출한 후에는 그 검출된 참가자 객체의 크기가 축소되거나 이동하더라도 지속적으로 추적할 수 있다. 또한 만일 참가자가 얼굴을 돌리거나 얼굴 형태가 변경되더라도, 서비스 서버(100)는 참가자 객체 및 그 얼굴 영역을 정확하게 판단할 수 있다.The service server 100 detects the participant object appearing in the performance video and extracts the second boundary lines 242 and 244 of the participant object. Here, the second boundary lines 242 and 244 may be facial edges of the participant object. Referring to the user interface of the user terminal in which the acting video is played in FIG. 5, the service server 100 monitors each frame of the acting video to search for participant objects. Specifically, the service server 100 extracts the acting video frame by frame and analyzes the frame to detect edges. The service server 100 determines that pixel areas including pixels arranged consecutively and having similar pixel values among pixel areas divided by an edge are one participant object. The service server 100 determines the pixel areas corresponding to the face color as the face area of the participant object, defines the edge of the face area as the second boundary line 242, 244, and defines the second boundary line 242, 244 of the participant object. Extract. The service server 100 may determine one participant object including the face area and the body area connected thereto. Accordingly, once the service server 100 detects a participant object, it can continuously track the detected participant object even if its size is reduced or moved. Additionally, even if the participant turns his or her face or changes the shape of the face, the service server 100 can accurately determine the participant object and the facial area.

연기 동영상에 복수의 참가자가 나타나는 경우, 서비스 서버(100)는 복수의 참가자 객체를 검출하고 각 참가자 객체의 제2 경계선(242, 244)을 추출할 수 있다. 예를 들어 도 5에서는 두 개의 참가자 객체가 검출될 수 있으며, 서비스 서버(100)는 왼쪽에 위치한 제1 참가자 객체의 얼굴 영역의 제2 경계선(244)을 추출하고, 오른쪽에 위치한 제2 참가자 객체의 얼굴 영역의 제2 경계선(242)을 추출할 수 있다. 만일 얼굴 영역이 검출되지 않을 경우 서비스 서버(100)는 참가자 객체의 얼굴 영역이 판단될 때까지 연기 비디오를 지속적으로 모니터링하여 참가자 객체의 얼굴 영역의 제2 경계선을 추출할 수 있다.When a plurality of participants appear in the acting video, the service server 100 may detect the plurality of participant objects and extract the second boundary lines 242 and 244 of each participant object. For example, in Figure 5, two participant objects may be detected, and the service server 100 extracts the second boundary line 244 of the face area of the first participant object located on the left and the second participant object located on the right. The second boundary line 242 of the face area can be extracted. If the face area is not detected, the service server 100 may continuously monitor the performance video until the face area of the participant object is determined and extract the second boundary line of the participant object's face area.

만일 서비스 설정 정보 중 복수 참가자의 서비스 참가 정보가 있거나 참가자 인원수가 복수인 경우, 서비스 서버(100)는 소정의 매칭 기준에 따라 방송 비디오에서 검출된 복수의 인물 객체와, 연기 비디오에서 검출된 복수의 참가자 객체를 매칭한다. 상기 매칭 기준은 사용자가 사용자 단말(200)을 통해 사전에 설정할 수 있다. 예를 들어 사용자는 제1 인물 객체(도 4의 왼쪽 남성)와 제2 참가자 객체(도 5의 오른쪽 남성)를 사전에 매칭하고, 제2 인물 객체(도 4의 오른쪽 여성)와 제1 참가자 객체(도 5의 왼쪽 여성)를 사전에 매칭할 수 있다.If, among the service setting information, there is service participation information of multiple participants or the number of participants is multiple, the service server 100 matches a plurality of human objects detected in the broadcast video and a plurality of human objects detected in the acting video according to a predetermined matching standard. Match participant objects. The matching criteria can be set in advance by the user through the user terminal 200. For example, the user matches the first person object (the man on the left in Figure 4) and the second participant object (the man on the right in Figure 5) in advance, and the second person object (the woman on the right in Figure 4) and the first participant object. (the woman on the left in Figure 5) can be matched in advance.

이어서 서비스 서버(100)는 방송 동영상 및 연기 동영상을 이용하여 합성 동영상을 생성한다(S18). 구체적으로, 서비스 서버(100)는 방송 비디오에서 제1 경계선(222, 224)을 기준으로 영상 분할(image segmentation)하여 인물 객체를 제외한 배경을 추출한다. 서비스 서버(100)는 연기 비디오에서 제2 경계선(242, 244)을 기준으로 영상 분할하여 참가자 객체를 추출한다. 서비스 서버(100)는 추출된 배경과 추출된 참가자 객체를 합성하여 합성 비디오를 생성한다. 이어서 서비스 서버(100)는 합성 비디오와 연기 오디오를 결합하여 합성 동영상을 생성한다.Next, the service server 100 generates a composite video using the broadcast video and the acting video (S18). Specifically, the service server 100 performs image segmentation based on the first boundary lines 222 and 224 from the broadcast video to extract the background excluding the human object. The service server 100 extracts participant objects from the acting video by dividing the video based on the second boundary lines 242 and 244. The service server 100 generates a composite video by combining the extracted background and the extracted participant object. Next, the service server 100 generates a composite video by combining the composite video and acting audio.

만일 서비스 설정 정보 중 복수 참가자의 서비스 참가 정보가 있거나 참가자 인원수가 복수인 경우, 서비스 서버(100)는 방송 비디오에서 복수의 인물 객체를 제외한 배경을 추출하고, 연기 비디오에서 복수의 참가자 객체를 추출한 후, 기 설정된 매칭 기준을 반영하여 배경과 복수의 참가자 객체를 합성하여 합성 비디오를 생성한다. 예를 들어 도 4 및 도 5에서 제1 인물 객체(도 4의 왼쪽 남성)와 제2 참가자 객체(도 5의 오른쪽 남성)가 매칭되고, 제2 인물 객체(도 4의 오른쪽 여성)와 제1 참가자 객체(도 5의 왼쪽 여성)가 매칭된 경우, 서비스 서버(100)는 기 설정된 매칭 기준을 반영하여 배경 중 제1 인물 객체가 제거된 영역에 제2 참가자 객체를 삽입하고, 배경 중 제2 인물 객체가 제거된 영역에 제1 참가자 객체를 삽입한다. 이어서 서비스 서버(100)는 합성 비디오와 연기 오디오를 결합하여 합성 동영상을 생성한다.If there is service participation information of multiple participants in the service setting information or the number of participants is multiple, the service server 100 extracts the background excluding the multiple human objects from the broadcast video, extracts the multiple participant objects from the acting video, and then extracts the multiple participant objects from the acting video. , A composite video is created by combining the background and multiple participant objects, reflecting preset matching criteria. For example, in Figures 4 and 5, the first person object (the man on the left in Figure 4) matches the second participant object (the man on the right in Figure 5), and the second person object (the woman on the right in Figure 4) matches the first person object (the man on the left in Figure 4). If the participant object (the woman on the left in Figure 5) is matched, the service server 100 reflects the preset matching criteria and inserts the second participant object into the area from which the first person object was removed from the background, and the second participant object from the background The first participant object is inserted into the area where the person object was removed. Next, the service server 100 generates a composite video by combining the composite video and acting audio.

이어서 사용자 단말(200)은 서비스 서버(100)에 합성 동영상을 공유를 요청할 수 있다. 구체적으로 서비스 서버(100)는 사용자 단말(200)의 요청에 의해 합성 동영상을 SNS(인스타그램, 페이스북, 틱톡, 카카오페이지, 트위터, 메타 등), 포털 사이트(네이버, 다음, 구글 등), 동영상 공유 서비스 플랫폼(유튜브 등), 인터넷 미디어 방송 플랫폼(아프리카 티비, 카카오 티비 등), 이메일 서버 중 적어도 하나를 통해 공유할 수 있다.Subsequently, the user terminal 200 may request the service server 100 to share the composite video. Specifically, the service server 100 sends the composite video to SNS (Instagram, Facebook, TikTok, Kakao Page, Twitter, Meta, etc.) and portal sites (Naver, Daum, Google, etc.) at the request of the user terminal 200. , it can be shared through at least one of a video sharing service platform (YouTube, etc.), an Internet media broadcasting platform (Afreeca TV, Kakao TV, etc.), and an email server.

또한 사용자 단말(200)은 서비스 서버(100)에 합성 동영상을 기반으로 생성된 움직이는 GIF(animated GIF)의 공유를 요청할 수 있다. 구체적으로 서비스 서버(100)는 사용자 단말(200)의 요청에 의해 합성 동영상으로부터 추출된 복수의 정지 이미지를 결합하여 움직이는 GIF를 생성할 수 있고, 이를 SNS, 포털 사이트, 동영상 공유 서비스 플랫폼, 인터넷 미디어 방송 플랫폼, 이메일 서버 중 적어도 하나를 통해 공유할 수 있다. 또한 움직이는 GIF는 사용자 단말에 연동된 온라인 이모티콘 스토어를 통하여 셀프 이모티콘으로 사용될 수도 있고, 셀프 이모티콘은 방송 대사 문구를 포함할 수 있다. 움직이는 GIF(animated GIF)는 하나의 파일 내에 여러 개의 이미지들이 정해진 순서대로 들어가 있는 GIF 파일로, 여러 개의 이미지들이 번갈아가며 무한 루프를 돌거나 몇 개의 순서를 보여준 다음 애니메이션이 멈추도록 하는 방식으로 동작할 수 있다.Additionally, the user terminal 200 may request the service server 100 to share a moving GIF (animated GIF) generated based on a synthetic video. Specifically, the service server 100 can generate a moving GIF by combining a plurality of still images extracted from the synthetic video at the request of the user terminal 200, and can generate a moving GIF through SNS, portal sites, video sharing service platforms, and internet media. It can be shared through at least one of a broadcasting platform or an email server. Additionally, moving GIFs can be used as self-emoticons through an online emoticon store linked to the user terminal, and self-emoticons can include broadcast dialogue phrases. An animated GIF (animated GIF) is a GIF file that contains multiple images in a certain order in one file. The images may run in an infinite loop in turns or show several sequences and then stop the animation. You can.

앞서 언급된 시스템, 수단, 모듈 등은 컴퓨터 프로그램으로서, 예를 들어 컴퓨터 판독가능 저장매체(computer readable storage medium)에 저장(store)되거나 적재(load)된 하나 이상의 프로세서(processor)에 의해 구현되는 복수의 프로그램 모듈(program module)로 구성될 수 있다. 또한 순서도(flowchart)에 언급된 각 단계는 컴퓨터 프로그램, 프로그램 모듈, 또는 컴퓨터 실행 가능 명령(computer-executable instruction) 등으로 이루어질 수 있다.The above-mentioned systems, means, modules, etc. are computer programs, for example, plural implemented by one or more processors stored or loaded in a computer readable storage medium. It may be composed of program modules. Additionally, each step mentioned in the flowchart may be implemented as a computer program, program module, or computer-executable instruction.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

100: 서비스 서버
200: 사용자 단말
210: 사용자 인터페이스
220: 동영상 영역
222, 224: 제1 경계선
230: 스크립트 영역
242, 244: 제2 경계선
100: service server
200: user terminal
210: User interface
220: Video area
222, 224: first border
230: Script area
242, 244: Second border

Claims (3)

복수의 방송 동영상을 이용하여 방송 체험 서비스를 제공하는 서비스 서버가(각 방송 동영상은 방송 비디오 및 방송 오디오를 포함함):
각 방송 비디오에 나타나는 인물 객체를 검출하고 상기 인물 객체의 제1 경계선을 추출하는 단계;
사용자 단말이 상기 복수의 방송 동영상 중 어느 하나의 선택을 입력받으면, 상기 사용자 단말의 디스플레이 상에 선택된 방송 동영상 및 이의 스크립트를 재생하는 단계;
상기 사용자 단말로부터, 상기 방송 동영상의 재생에 맞춰 참가자의 연기 체험을 촬영하여 생성된 연기 동영상을 수신하는 단계(상기 연기 동영상은 연기 비디오 및 연기 오디오를 포함함);
상기 연기 비디오에 나타나는 참가자 객체를 검출하고 상기 참가자 객체의 제2 경계선을 추출하는 단계;
상기 방송 비디오에서 상기 제1 경계선을 기준으로 영상 분할(image segmentation)하여 상기 인물 객체를 제외한 배경을 추출하고, 상기 연기 비디오에서 상기 제2 경계선을 기준으로 영상 분할하여 상기 참가자 객체를 추출한 후, 상기 배경과 상기 참가자 객체를 합성하여 합성 비디오를 생성하는 단계; 및
상기 서비스 서버가 상기 합성 비디오와 상기 연기 오디오를 결합한 합성 동영상을 생성하는 단계를 포함하되,
상기 서비스 서버는 상기 사용자 단말의 요청에 의해 상기 합성 동영상으로부터 복수의 정지 이미지를 추출한 후 이들을 결합하여 움직이는 GIF를 생성하고, 상기 사용자 단말에 연동되어 사용되는 셀프 이모티콘은 상기 움직이는 GIF 및 상기 합성 동영상에 관한 스크립트를 포함하는 방송 체험 서비스의 제공 방법.
A service server that provides a broadcast experience service using multiple broadcast videos (each broadcast video includes broadcast video and broadcast audio):
Detecting a person object appearing in each broadcast video and extracting a first boundary line of the person object;
When the user terminal receives a selection of one of the plurality of broadcast videos, playing the selected broadcast video and its script on the display of the user terminal;
Receiving, from the user terminal, a acting video generated by filming the participant's acting experience in accordance with the playback of the broadcast video (the acting video includes acting video and acting audio);
detecting a participant object appearing in the performance video and extracting a second boundary line of the participant object;
After extracting the background excluding the person object by performing image segmentation based on the first boundary line in the broadcast video, and extracting the participant object by segmenting the image based on the second boundary line in the acting video, generating a composite video by compositing a background and the participant object; and
Including the step of the service server generating a composite video combining the composite video and the acting audio,
The service server extracts a plurality of still images from the composite video at the request of the user terminal and combines them to create a moving GIF, and the self emoticon used in conjunction with the user terminal is added to the moving GIF and the composite video. A method of providing a broadcast experience service including a related script.
제1항에 있어서,
상기 제1 경계선은 상기 인물 객체의 얼굴 에지이고, 상기 제2 경계선은 상기 참가자 객체의 얼굴 에지인 것을 특징으로 하는 방송 체험 서비스의 제공 방법.
According to paragraph 1,
The first boundary line is a face edge of the person object, and the second boundary line is a face edge of the participant object.
제1항에 있어서,
상기 사용자 단말이 복수 참가자의 서비스 참가를 입력받으면,
상기 서비스 서버는 각 방송 비디오에 나타나는 복수의 인물 객체를 검출하고 각 인물 객체의 제1 경계선을 추출하고;
상기 서비스 서버는 상기 연기 비디오에 나타나는 복수의 참가자 객체를 검출하고 각 참가자 객체의 제2 경계선을 추출하고;
상기 서비스 서버는 소정의 매칭 기준에 따라 상기 복수의 인물 객체와 상기 복수의 참가자 객체를 매칭하고;
상기 서비스 서버는 상기 방송 비디오에서 상기 복수의 인물 객체를 제외한 배경을 추출하고, 상기 연기 비디오에서 상기 복수의 참가자 객체를 추출한 후, 상기 매칭 기준을 반영하여 상기 배경과 상기 복수의 참가자 객체를 합성하여 합성 비디오를 생성하는 것을 특징으로 하는 방송 체험 서비스의 제공 방법.
According to paragraph 1,
When the user terminal receives service participation from multiple participants,
The service server detects a plurality of human objects appearing in each broadcast video and extracts a first boundary line of each human object;
the service server detects a plurality of participant objects appearing in the performance video and extracts a second boundary line of each participant object;
The service server matches the plurality of person objects with the plurality of participant objects according to predetermined matching criteria;
The service server extracts a background excluding the plurality of person objects from the broadcast video, extracts the plurality of participant objects from the acting video, and then synthesizes the background and the plurality of participant objects by reflecting the matching criteria. A method of providing a broadcast experience service characterized by generating a composite video.
KR1020230004529A 2023-01-12 2023-01-12 Method of providing a service to experience broadcasting KR102615377B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230004529A KR102615377B1 (en) 2023-01-12 2023-01-12 Method of providing a service to experience broadcasting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230004529A KR102615377B1 (en) 2023-01-12 2023-01-12 Method of providing a service to experience broadcasting

Publications (1)

Publication Number Publication Date
KR102615377B1 true KR102615377B1 (en) 2023-12-19

Family

ID=89385300

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230004529A KR102615377B1 (en) 2023-01-12 2023-01-12 Method of providing a service to experience broadcasting

Country Status (1)

Country Link
KR (1) KR102615377B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020057916A (en) * 2002-06-04 2002-07-12 정대교 The movie composition vending machine with chroma key
KR20040084173A (en) * 2003-03-27 2004-10-06 쓰리에스휴먼 주식회사 Real Time Motion Comparing Method and System
KR20170102322A (en) * 2014-12-31 2017-09-08 후아웨이 테크놀러지 컴퍼니 리미티드 Picture processing method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020057916A (en) * 2002-06-04 2002-07-12 정대교 The movie composition vending machine with chroma key
KR20040084173A (en) * 2003-03-27 2004-10-06 쓰리에스휴먼 주식회사 Real Time Motion Comparing Method and System
KR20170102322A (en) * 2014-12-31 2017-09-08 후아웨이 테크놀러지 컴퍼니 리미티드 Picture processing method and device

Similar Documents

Publication Publication Date Title
US20210344991A1 (en) Systems, methods, apparatus for the integration of mobile applications and an interactive content layer on a display
US20210019982A1 (en) Systems and methods for gesture recognition and interactive video assisted gambling
KR102399210B1 (en) Streaming Media Presentation System
US11417341B2 (en) Method and system for processing comment information
US20190342241A1 (en) Systems and methods for manipulating and/or concatenating videos
CA2918687C (en) System and method for multi-angle videos
US8928810B2 (en) System for combining video data streams into a composite video data stream
US20140188997A1 (en) Creating and Sharing Inline Media Commentary Within a Network
US11343595B2 (en) User interface elements for content selection in media narrative presentation
US9224156B2 (en) Personalizing video content for Internet video streaming
WO2019191082A2 (en) Systems, methods, apparatus and machine learning for the combination and display of heterogeneous sources
CN112969093B (en) Interactive service processing method, device, equipment and storage medium
US20180143741A1 (en) Intelligent graphical feature generation for user content
CN111279709A (en) Providing video recommendations
US20210051122A1 (en) Systems and methods for pushing content
CN111949908A (en) Media information processing method and device, electronic equipment and storage medium
CN112528052A (en) Multimedia content output method, device, electronic equipment and storage medium
CN114501103B (en) Live video-based interaction method, device, equipment and storage medium
US11838576B2 (en) Video distribution system, method, computing device and user equipment
CN110300118B (en) Streaming media processing method, device and storage medium
CN113282770A (en) Multimedia recommendation system and method
KR102615377B1 (en) Method of providing a service to experience broadcasting
US10943380B1 (en) Systems and methods for pushing content
CN111885139A (en) Content sharing method, device and system, mobile terminal and server
US11601481B2 (en) Image-based file and media loading

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant