KR102615377B1 - Method of providing a service to experience broadcasting - Google Patents
Method of providing a service to experience broadcasting Download PDFInfo
- Publication number
- KR102615377B1 KR102615377B1 KR1020230004529A KR20230004529A KR102615377B1 KR 102615377 B1 KR102615377 B1 KR 102615377B1 KR 1020230004529 A KR1020230004529 A KR 1020230004529A KR 20230004529 A KR20230004529 A KR 20230004529A KR 102615377 B1 KR102615377 B1 KR 102615377B1
- Authority
- KR
- South Korea
- Prior art keywords
- video
- broadcast
- acting
- participant
- user terminal
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 239000002131 composite material Substances 0.000 claims abstract description 28
- 238000003709 image segmentation Methods 0.000 claims abstract description 4
- 239000000284 extract Substances 0.000 claims description 24
- 238000010586 diagram Methods 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 239000000779 smoke Substances 0.000 description 3
- 244000240602 cacao Species 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2743—Video hosting of uploaded data from client
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
사용자가 삶 속에서 다양한 장르의 방송 동영상을 직접 체험하고 그 경험을 공유할 수 있는 방송 체험 서비스가 제공된다.
이 방송 체험 서비스의 제공 방법은, 복수의 방송 동영상을 이용하여 방송 체험 서비스를 제공하는 서비스 서버가(각 방송 동영상은 방송 비디오 및 방송 오디오를 포함함): 각 방송 비디오에 나타나는 인물 객체를 검출하고 인물 객체의 제1 경계선을 추출하는 단계; 사용자 단말이 복수의 방송 동영상 중 어느 하나의 선택을 입력받으면, 사용자 단말의 디스플레이 상에 선택된 방송 동영상 및 이의 스크립트를 재생하는 단계; 사용자 단말로부터, 방송 동영상의 재생에 맞춰 참가자의 연기 체험을 촬영하여 생성된 연기 동영상을 수신하는 단계(연기 동영상은 연기 비디오 및 연기 오디오를 포함함); 연기 비디오에 나타나는 참가자 객체를 검출하고 참가자 객체의 제2 경계선을 추출하는 단계; 방송 비디오에서 제1 경계선을 기준으로 영상 분할(image segmentation)하여 인물 객체를 제외한 배경을 추출하고, 연기 비디오에서 제2 경계선을 기준으로 영상 분할하여 참가자 객체를 추출한 후, 배경과 참가자 객체를 합성하여 합성 비디오를 생성하는 단계; 및 서비스 서버가 합성 비디오와 연기 오디오를 결합한 합성 동영상을 생성하는 단계를 포함한다.A broadcast experience service is provided that allows users to directly experience broadcast videos of various genres in their lives and share the experience.
In this method of providing a broadcast experience service, a service server that provides a broadcast experience service using a plurality of broadcast videos (each broadcast video includes broadcast video and broadcast audio): detects a person object that appears in each broadcast video; Extracting a first boundary line of a human object; When the user terminal receives a selection of one of a plurality of broadcast videos, playing the selected broadcast video and its script on the display of the user terminal; Receiving, from a user terminal, a acting video generated by filming the participant's acting experience in accordance with the playback of the broadcast video (the acting video includes acting video and acting audio); detecting a participant object appearing in the performance video and extracting a second boundary line of the participant object; From the broadcast video, image segmentation is performed based on the first boundary line to extract the background excluding the person object. From the acting video, the image is segmented based on the second boundary line to extract participant objects, and then the background and participant objects are combined. generating a composite video; and the service server generating a composite video combining the composite video and the acting audio.
Description
본 발명은 방송 체험 서비스의 제공 방법에 관한 것으로서, 더욱 상세하게는 실제 방송 동영상에 참가자의 연기 동영상을 결합한 합성 동영상을 SNS 등을 통해 공유할 수 있는 방송 체험 서비스의 제공 방법에 관한 것이다.The present invention relates to a method of providing a broadcast experience service, and more specifically, to a method of providing a broadcast experience service in which a composite video combining an actual broadcast video with a participant's performance video can be shared through SNS or the like.
방송사는 드라마, 영화, 예능, 뉴스 보도 등 다양한 장르의 방송 동영상 콘텐츠를 생성하고 이를 여러 미디어를 통해 전달하고 있다. 현재까지 이러한 방송 동영상 아카이브 자산을 활용하는 방안으로는 IPTV, OTT 등을 통한 재시청 서비스를 제외하고는 별다른 방안이 모색되지 않고 있다. Broadcasting companies create broadcast video content of various genres, including dramas, movies, entertainment, and news reports, and deliver it through various media. To date, no other methods have been explored to utilize these broadcast video archive assets, except for re-watching services through IPTV, OTT, etc.
이에 본 발명자는 사용자가 방송 동영상을 직접 체험하고 그 경험을 공유할 수 있는 방안에 대해 많은 연구와 노력을 기울인 끝에 본 발명을 완성하게 되었다.Accordingly, the present inventor completed the present invention after putting a lot of research and effort into a way for users to directly experience broadcast videos and share the experience.
본 발명이 해결하고자 하는 과제는, 사용자가 삶 속에서 다양한 장르의 방송 동영상을 직접 체험하고 그 경험을 공유할 수 있는 방송 체험 서비스를 제공하고자 하는 것이다.The problem that the present invention seeks to solve is to provide a broadcast experience service that allows users to directly experience broadcast videos of various genres in their lives and share the experience.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below. will be.
상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 방송 체험 서비스의 제공 방법은, 복수의 방송 동영상을 이용하여 방송 체험 서비스를 제공하는 서비스 서버가(각 방송 동영상은 방송 비디오 및 방송 오디오를 포함함): 각 방송 비디오에 나타나는 인물 객체를 검출하고 상기 인물 객체의 제1 경계선을 추출하는 단계; 사용자 단말이 상기 복수의 방송 동영상 중 어느 하나의 선택을 입력받으면, 상기 사용자 단말의 디스플레이 상에 선택된 방송 동영상 및 이의 스크립트를 재생하는 단계; 상기 사용자 단말로부터, 상기 방송 동영상의 재생에 맞춰 참가자의 연기 체험을 촬영하여 생성된 연기 동영상을 수신하는 단계(상기 연기 동영상은 연기 비디오 및 연기 오디오를 포함함); 상기 연기 비디오에 나타나는 참가자 객체를 검출하고 상기 참가자 객체의 제2 경계선을 추출하는 단계; 상기 방송 비디오에서 상기 제1 경계선을 기준으로 영상 분할(image segmentation)하여 상기 인물 객체를 제외한 배경을 추출하고, 상기 연기 비디오에서 상기 제2 경계선을 기준으로 영상 분할하여 상기 참가자 객체를 추출한 후, 상기 배경과 상기 참가자 객체를 합성하여 합성 비디오를 생성하는 단계; 및 상기 서비스 서버가 상기 합성 비디오와 상기 연기 오디오를 결합한 합성 동영상을 생성하는 단계를 포함한다.A method of providing a broadcast experience service according to an embodiment of the present invention for achieving the above problem involves a service server providing a broadcast experience service using a plurality of broadcast videos (each broadcast video includes broadcast video and broadcast audio). ): detecting a person object appearing in each broadcast video and extracting a first boundary line of the person object; When the user terminal receives a selection of one of the plurality of broadcast videos, playing the selected broadcast video and its script on the display of the user terminal; Receiving, from the user terminal, a acting video generated by filming the participant's acting experience in accordance with the playback of the broadcast video (the acting video includes acting video and acting audio); detecting a participant object appearing in the performance video and extracting a second boundary line of the participant object; After extracting the background excluding the person object by performing image segmentation based on the first boundary line in the broadcast video, and extracting the participant object by segmenting the image based on the second boundary line in the acting video, generating a composite video by compositing a background and the participant object; and generating, by the service server, a composite video combining the composite video and the acting audio.
상기 제1 경계선은 상기 인물 객체의 얼굴 에지일 수 있다. 상기 제2 경계선은 상기 참가자 객체의 얼굴 에지일 수 있다.The first borderline may be a facial edge of the human object. The second boundary line may be a facial edge of the participant object.
상기 사용자 단말이 복수 참가자의 서비스 참가를 입력받으면, 상기 서비스 서버는 각 방송 비디오에 나타나는 복수의 인물 객체를 검출하고 각 인물 객체의 제1 경계선을 추출하고; 상기 서비스 서버는 상기 연기 비디오에 나타나는 복수의 참가자 객체를 검출하고 각 참가자 객체의 제2 경계선을 추출하고; 상기 서비스 서버는 소정의 매칭 기준에 따라 상기 복수의 인물 객체와 상기 복수의 참가자 객체를 매칭하고; 상기 서비스 서버는 상기 방송 비디오에서 상기 복수의 인물 객체를 제외한 배경을 추출하고, 상기 연기 비디오에서 상기 복수의 참가자 객체를 추출한 후, 상기 매칭 기준을 반영하여 상기 배경과 상기 복수의 참가자 객체를 합성하여 합성 비디오를 생성할 수 있다.When the user terminal receives service participation from multiple participants, the service server detects a plurality of person objects appearing in each broadcast video and extracts a first boundary line of each person object; the service server detects a plurality of participant objects appearing in the performance video and extracts a second boundary line of each participant object; The service server matches the plurality of person objects with the plurality of participant objects according to predetermined matching criteria; The service server extracts a background excluding the plurality of person objects from the broadcast video, extracts the plurality of participant objects from the acting video, and then synthesizes the background and the plurality of participant objects by reflecting the matching criteria. Composite video can be created.
상기 사용자 단말의 요청에 의해 상기 합성 동영상을 SNS, 포털 사이트, 동영상 공유 서비스 플랫폼, 인터넷 미디어 방송 플랫폼, 이메일 서버 중 적어도 하나를 통해 공유하는 단계를 더 포함할 수 있다.The method may further include sharing the composite video through at least one of SNS, a portal site, a video sharing service platform, an Internet media broadcasting platform, and an email server at the request of the user terminal.
상기 합성 동영상으로부터 추출된 복수의 정지 이미지를 결합한 움직이는 GIF(animated GIF)를 생성하는 단계를 더 포함할 수 있다.The method may further include generating an animated GIF (animated GIF) by combining a plurality of still images extracted from the composite video.
기타 실시예들의 구체적인 사항들은 구체적인 내용 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.
상술한 바와 같이 본 발명에 따른 방송 체험 서비스의 제공 방법에 의하면, 사용자는 본인의 사용자 단말을 통해 서비스 서버에 접속하여 드라마, 영화, 예능, 뉴스 보도 등을 포함하는 다양한 방송 동영상 중 희망하는 방송 동영상을 선택한 후 사용자 단말을 통해 해당 방송 동영상 및 스크립트가 재생되는 동안 이를 참고하여 연기 체험을 수행할 수 있다. 사용자 단말은 이러한 연기 체험을 촬영되어 연기 동영상을 생성하고, 서비스 서버는 선택된 방송 동영상과 연기 동영상을 합성하여 합성 동영상을 생성할 수 있다. As described above, according to the method of providing a broadcasting experience service according to the present invention, the user accesses the service server through his/her user terminal and selects the desired broadcasting video among various broadcasting videos including dramas, movies, entertainment, news reports, etc. After selecting , you can perform an acting experience by referring to the broadcast video and script while it is played through the user terminal. The user terminal captures the acting experience and creates a acting video, and the service server can synthesize the selected broadcast video and the acting video to create a composite video.
사용자는 사용자 단말을 이용하여 합성 동영상을 SNS, 포털 사이트, 동영상 공유 서비스 플랫폼, 인터넷 미디어 방송 플랫폼, 이메일 서버 등을 통해 공유할 수 있다. 또한 서비스 서버는 합성 동영상으로부터 추출된 복수의 정지 이미지를 결합한 움직이는 GIF(animated GIF)를 생성할 수 있고, 사용자는 사용자 단말을 이용하여 해당 움직이는 GIF를 SNS, 포털 사이트, 동영상 공유 서비스 플랫폼, 인터넷 미디어 방송 플랫폼, 이메일 서버 등을 통해 공유할 수 있다.Users can use the user terminal to share composite videos through SNS, portal sites, video sharing service platforms, Internet media broadcasting platforms, email servers, etc. Additionally, the service server can create a moving GIF (animated GIF) that combines multiple still images extracted from the synthetic video, and the user can use the user terminal to upload the animated GIF to SNS, portal sites, video sharing service platforms, and internet media. It can be shared through broadcasting platforms, email servers, etc.
도 1은 본 발명의 일 실시예에 따른 방송 체험 서비스 시스템을 나타낸 구성도이다.
도 2는 도 1의 사용자 단말을 개략적으로 나타낸 구성도이다.
도 3은 본 발명의 일 실시예에 따른 방송 체험 서비스의 제공 방법을 순차적으로 나타낸 순서도이다.
도 4는 방송 동영상 및 이의 스크립트가 재생되는 사용자 단말의 사용자 인터페이스를 예시적으로 나타낸 도면이다.
도 5는 연기 동영상이 재생되는 사용자 단말의 사용자 인터페이스를 예시적으로 나타낸 도면이다.1 is a configuration diagram showing a broadcast experience service system according to an embodiment of the present invention.
FIG. 2 is a schematic configuration diagram of the user terminal of FIG. 1.
Figure 3 is a flowchart sequentially showing a method of providing a broadcast experience service according to an embodiment of the present invention.
Figure 4 is a diagram illustrating an exemplary user interface of a user terminal on which a broadcast video and its script are played.
Figure 5 is a diagram illustrating an exemplary user interface of a user terminal on which an acting video is played.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. The present embodiments only serve to ensure that the disclosure of the present invention is complete and that common knowledge in the technical field to which the present invention pertains is not limited. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
본 명세서에서 '동영상'이라는 용어는 비디오 및 오디오를 포함하는 것으로 사용된다. 예를 들어 방송 동영상은 방송 비디오 및 방송 오디오를 포함하고, 연기 동영상은 연기 비디오 및 연기 오디오를 포함한다.In this specification, the term 'video' is used to include video and audio. For example, a broadcast video includes broadcast video and broadcast audio, and a smoke video includes a smoke video and smoke audio.
이하 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 방송 체험 서비스 시스템에 대해 자세히 설명한다. 도 1은 본 발명의 일 실시예에 따른 방송 체험 서비스 시스템을 나타낸 구성도이다. 도 2는 도 1의 사용자 단말을 개략적으로 나타낸 구성도이다. 본 발명의 방송 체험 서비스 시스템은 복수의 사용자 단말(200) 및 이들과 무선 네트워크로 연결된 서비스 서버(100)를 포함한다.Hereinafter, a broadcast experience service system according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 and 2. 1 is a configuration diagram showing a broadcast experience service system according to an embodiment of the present invention. FIG. 2 is a schematic configuration diagram of the user terminal of FIG. 1. The broadcast experience service system of the present invention includes a plurality of
서비스 서버(100)는 복수의 방송 동영상을 이용하여 방송 체험 서비스를 제공하는 장치이다. 서비스 서버(100)는 서비스 매니지먼트, 데이터 통신 및 처리, 데이터베이스 구축, 보안 및 인증 등에 관한 하나 이상의 서버 장치로 이루어질 수 있으며, 하드웨어 및/또는 소프트웨어 장비를 포함할 수 있다. 서비스 서버(100)는 모바일 애플리케이션 소프트웨어 또는 방송 체험 서비스 모바일 애플리케이션 소프트웨어를 제공할 수 있으며, 웹 사이트 등의 웹 기반 플랫폼을 제공할 수도 있다. 서비스 서버(100)는 복수의 데이터베이스를 구축하고 관리한다. 데이터베이스는 사용자 단말(200)에서 업로드 된 방송 동영상 선택 정보, 복수 참가자의 서비스 참가 정보, 참가자 인원수 정보, 연기 동영상, 콘텐츠 정보 등을 저장할 수 있다. 또한 필요에 따라 방송 체험 서비스를 제공함에 있어 필요한 사용자 정보, 메시지 정보, 광고 정보, 과금 정보, 로그 정보 등을 기록하는 데이터베이스가 추가될 수 있다.The
사용자 단말(200)은 프로세서, 메모리, 입력수단 및 출력수단을 포함하는 단말 장치로서, 사용자가 이동하며 휴대할 수 있는 무선 통신 기능을 가질 수 있다. 사용자 단말(200)에는 방송 체험 서비스를 구현하는 방송 체험 서비스 모바일 애플리케이션이 설치된다. 방송 체험 서비스 모바일 애플리케이션은 다른 미디어를 통해 기 방송되어 저장된 방송 동영상 및 이의 스크립트를 재생하는 동안 카메라 등의 입력수단을 통해 참가자의 연기 체험을 촬영하여 연기 동영상을 생성하고 방송 동영상과 연기 동영상을 합성한 합성 동영상을 재생하거나 공유할 수 있는 모바일 애플리케이션으로서, 사용자 단말(200)의 OS가 정한 규약과 설정을 이용하여 서비스 서버(100)와 통신하거나 통신상태를 유지할 수 있다. 방송 체험 서비스 모바일 애플리케이션은 사용자가 외부 플랫폼을 이용하여 혹은 외부의 링크를 이용하여 사용자 단말(200)에 다운로드 받은 애플리케이션 소프트웨어이거나, 사용자 단말(200)의 운영체제 소프트웨어와 연동하여 디폴트로 사용자 단말(200)에 설치된 소프트웨어일 수 있다. 방송 체험 모바일 애플리케이션은 사용자 단말(200)에 기본적으로 설치된 기본 애플리케이션(예를 들어, 문자, 음성신호, 또는 데이터의 송수신 애플리케이션)과 연동될 수도 있고 별도의 연동 없이 독립적으로 구동될 수도 있다.The
사용자 단말(200)의 입력수단은 소프트웨어 또는 하드웨어 입력기를 포함할 수 있고, 사용자 단말(200)의 출력수단은 스피커와 디스플레이를 포함할 수 있다. 사용자 단말(200)이 모바일 디바이스인 경우, 디스플레이는 운영체제 소프트웨어의 UI/UX, 응용 소프트웨어의 UI/UX에 있어서 사용자의 터치입력을 감지하는 수단으로서 사용자 인터페이스를 포함할 수 있다. 디스플레이는 화면을 출력하는 수단임과 동시에 사용자의 터치 이벤트를 감지하는 입력수단을 기능을 함께 실행하는 터치스크린으로 이루어질 수 있다. 사용자 단말(200)의 입력수단으로는 카메라를 포함할 수 있다.The input means of the
사용자 단말(200)의 메모리는 일반적으로 디바이스에 사용되는 컴퓨터 코드 및 데이터를 저장하는 장소를 제공한다. 예를 들어, 사용자 단말(200)의 메모리에는 방송 체험 서비스 모바일 애플리케이션 및 이의 구동/관리에 필요한 리소스뿐만 아니라 기본적인 입출력 시스템, 운영 체제, 다양한 프로그램들, 애플리케이션들, 또는 디바이스에서 실행되는 사용자 인터페이스 기능들, 프로세서 기능들 등을 포함하는 임의의 디바이스용 펌웨어(firmware)가 저장될 수 있다. The memory of the
사용자 단말(200)의 프로세서는 운영체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성하고 사용하는 동작을 실행한다. 또한 프로세서는 일련의 명령어를 사용하여 전자장치의 컴포넌트들 간의 입력 및 출력 데이터의 수신 및 처리를 할 수 있다. 또한 프로세서는 전자장치에 설치된 운영체제 소프트웨어와 각종 애플리케이션 소프트웨어들(방송 체험 서비스 모바일 애플리케이션을 포함)의 기능을 실행하는 제어부 역할을 담당한다.The processor of the
사용자 단말(200)은 사용자의 키 조작, 터치 입력, 드래그 입력 또는 명령에 따라 유무선 네트워크를 경유하여 각종 데이터를 송수신할 수 있는 단말 장치를 포함할 수 있다. 예를 들어, 사용자 단말(200)은 개인용 컴퓨터(PC), 태블릿 컴퓨터, 랩탑(Laptop) 컴퓨터, PDA 또는 스마트폰을 포함한 모바일 디바이스 등으로 이루어질 수 있다. 바람직하게는 사용자 단말(200)은 사용자가 이동하며 휴대할 수 있는 스마트폰으로 이루어질 수 있다.The
이하 도 3 내지 도 5를 참조하여 본 발명의 일 실시예에 따른 방송 체험 서비스의 제공 방법에 대해 자세히 설명한다. 도 3은 본 발명의 일 실시예에 따른 방송 체험 서비스의 제공 방법을 순차적으로 나타낸 순서도이다. 도 4는 방송 동영상 및 이의 스크립트가 재생되는 사용자 단말의 사용자 인터페이스를 예시적으로 나타낸 도면이다. 도 5는 연기 동영상이 재생되는 사용자 단말의 사용자 인터페이스를 예시적으로 나타낸 도면이다.Hereinafter, a method for providing a broadcast experience service according to an embodiment of the present invention will be described in detail with reference to FIGS. 3 to 5. Figure 3 is a flowchart sequentially showing a method of providing a broadcast experience service according to an embodiment of the present invention. Figure 4 is a diagram illustrating an exemplary user interface of a user terminal on which a broadcast video and its script are played. Figure 5 is a diagram illustrating an exemplary user interface of a user terminal on which an acting video is played.
먼저 서비스 서버(100)는 방송 체험 서비스에 사용될 복수의 방송 동영상을 준비한다(S10). 각 방송 동영상은 방송 비디오 및 방송 오디오를 포함한다. 방송 동영상은 드라마, 영화, 예능, 뉴스 보도 등 다양한 장르에 속할 수 있으며, 예를 들어 10 내지 20초 분량의 유명한 대사나 보도 멘트 등을 포함하여 사용자의 적극적인 참여를 유도할 수 있다.First, the
서비스 서버(100)는 각 방송 비디오에 나타나는 인물 객체를 검출하고 인물 객체의 제1 경계선(222, 224)을 추출한다. 여기서 제1 경계선(222, 224)은 인물 객체의 얼굴 에지일 수 있다. 도 4에서 방송 동영상이 재생되는 사용자 단말(200)의 사용자 인터페이스(210)를 참조하면, 서비스 서버(100)는 방송 비디오의 각 프레임을 모니터링하여 인물 객체를 탐색한다. 구체적으로, 서비스 서버(100)는 방송 비디오를 프레임 단위로 추출하고 그 프레임을 분석하여 에지를 검출한다. 서비스 서버(100)는 에지에 의해 구분되는 픽셀 영역들 중 유사한 픽셀 값을 가지면서 연속적으로 배치되는 픽셀들을 포함하는 픽셀 영역들을 하나의 인물 객체로 판단한다. 서비스 서버(100)는 얼굴 색에 대응되는 픽셀 영역들을 인물 객체의 얼굴 영역으로 판단하고 얼굴 영역의 에지를 제1 경계선(222, 224)으로 정의하고 인물 객체의 제1 경계선(222, 224)을 추출한다. 서비스 서버(100)는 얼굴 영역 및 이에 연결된 신체 영역을 포함하여 하나의 인물 객체로 판단할 수 있다. 따라서 서비스 서버(100)가 일단 인물 객체를 검출한 후에는 그 검출된 인물 객체의 크기가 축소되거나 이동하더라도 지속적으로 추적할 수 있다. 또한 만일 등장 인물이 얼굴을 돌리거나 얼굴 형태가 변경되더라도, 서비스 서버(100)는 인물 객체 및 그 얼굴 영역을 정확하게 판단할 수 있다.The
방송 동영상에 복수의 등장인물이 나타나는 경우, 서비스 서버(100)는 복수의 인물 객체를 검출하고 각 인물 객체의 제1 경계선(222, 224)을 추출할 수 있다. 예를 들어 도 4에서는 두 개의 인물 객체가 검출될 수 있으며, 서비스 서버(100)는 왼쪽에 위치한 제1 인물 객체의 얼굴 영역의 제1 경계선(222)을 추출할 수 있다. 오른쪽에 위치한 제2 인물 객체는 검출될 수 있으나 얼굴이 안보이는 상태이므로 서비스 서버(100)는 제2 인물 객체의 얼굴 영역이 판단될 때까지 방송 비디오를 지속적으로 모니터링하여 추후 제2 인물 객체의 얼굴 영역의 제1 경계선(224)을 추출할 수 있다.When a plurality of characters appear in a broadcast video, the
이어서 서비스 서버(100)는 사용자 단말(200)로부터 서비스 설정 정보를 수신한다(S12). 서비스 설정 정보는 예를 들어 방송 동영상 선택 정보, 복수 참가자의 서비스 참가 정보, 참가자 인원수 정보, 특수효과 등을 포함할 수 있다. 구체적으로 다음과 같이 진행될 수 있다. 사용자 단말은 입력수단으로부터 복수의 방송 동영상 중 어느 하나의 선택을 입력받는다. 이와 함께 사용자 단말은 입력수단으로부터 복수 참가자의 서비스 참가 및/또는 참가자 인원수 정보를 입력받을 수 있다. 사용자 단말(200)로부터 특수효과 설정을 수신하면, 서비스 서버(100)는 추후 합성 동영상을 생성한 후 이를 예를 들어 흑백영화 스타일, 웹툰 스타일, 팝아트 스타일, 빈티지필름 스타일, 퍼니 카툰 스타일 등으로 변환하여 제공할 수 있다.Next, the
이어서 서비스 서버(100)는 사용자 단말(200)의 디스플레이 상에 앞서 선택된 방송 동영상 및 이의 스크립트를 재생한다(S14). 도 4를 참조하면, 사용자 단말(200)의 사용자 인터페이스(210)는 방송 동영상이 표시되는 동영상 영역(220) 및 스크립트가 표시되는 스크립트 영역(230)을 포함한다.Next, the
사용자 단말(200)은 방송 동영상의 재생에 맞춰 참가자의 연기 체험을 촬영하여 연기 동영상을 생성한다(S16). 여기서 연기 동영상은 연기 비디오 및 연기 오디오를 포함한다. 서비스 서버(100)는 사용자 단말(200)로부터 연기 동영상을 수신한다.The
서비스 서버(100)는 연기 비디오에 나타나는 참가자 객체를 검출하고 참가자 객체의 제2 경계선(242, 244)을 추출한다. 여기서 제2 경계선(242, 244)은 참가자 객체의 얼굴 에지일 수 있다. 도 5에서 연기 동영상이 재생되는 사용자 단말의 사용자 인터페이스를 참조하면, 서비스 서버(100)는 연기 비디오의 각 프레임을 모니터링하여 참여자 객체를 탐색한다. 구체적으로, 서비스 서버(100)는 연기 비디오를 프레임 단위로 추출하고 그 프레임을 분석하여 에지를 검출한다. 서비스 서버(100)는 에지에 의해 구분되는 픽셀 영역들 중 유사한 픽셀 값을 가지면서 연속적으로 배치되는 픽셀들을 포함하는 픽셀 영역들을 하나의 참가자 객체로 판단한다. 서비스 서버(100)는 얼굴 색에 대응되는 픽셀 영역들을 참가자 객체의 얼굴 영역으로 판단하고 얼굴 영역의 에지를 제2 경계선(242, 244)으로 정의하고 참가자 객체의 제2 경계선(242, 244)을 추출한다. 서비스 서버(100)는 얼굴 영역 및 이에 연결된 신체 영역을 포함하여 하나의 참가자 객체로 판단할 수 있다. 따라서 서비스 서버(100)가 일단 참가자 객체를 검출한 후에는 그 검출된 참가자 객체의 크기가 축소되거나 이동하더라도 지속적으로 추적할 수 있다. 또한 만일 참가자가 얼굴을 돌리거나 얼굴 형태가 변경되더라도, 서비스 서버(100)는 참가자 객체 및 그 얼굴 영역을 정확하게 판단할 수 있다.The
연기 동영상에 복수의 참가자가 나타나는 경우, 서비스 서버(100)는 복수의 참가자 객체를 검출하고 각 참가자 객체의 제2 경계선(242, 244)을 추출할 수 있다. 예를 들어 도 5에서는 두 개의 참가자 객체가 검출될 수 있으며, 서비스 서버(100)는 왼쪽에 위치한 제1 참가자 객체의 얼굴 영역의 제2 경계선(244)을 추출하고, 오른쪽에 위치한 제2 참가자 객체의 얼굴 영역의 제2 경계선(242)을 추출할 수 있다. 만일 얼굴 영역이 검출되지 않을 경우 서비스 서버(100)는 참가자 객체의 얼굴 영역이 판단될 때까지 연기 비디오를 지속적으로 모니터링하여 참가자 객체의 얼굴 영역의 제2 경계선을 추출할 수 있다.When a plurality of participants appear in the acting video, the
만일 서비스 설정 정보 중 복수 참가자의 서비스 참가 정보가 있거나 참가자 인원수가 복수인 경우, 서비스 서버(100)는 소정의 매칭 기준에 따라 방송 비디오에서 검출된 복수의 인물 객체와, 연기 비디오에서 검출된 복수의 참가자 객체를 매칭한다. 상기 매칭 기준은 사용자가 사용자 단말(200)을 통해 사전에 설정할 수 있다. 예를 들어 사용자는 제1 인물 객체(도 4의 왼쪽 남성)와 제2 참가자 객체(도 5의 오른쪽 남성)를 사전에 매칭하고, 제2 인물 객체(도 4의 오른쪽 여성)와 제1 참가자 객체(도 5의 왼쪽 여성)를 사전에 매칭할 수 있다.If, among the service setting information, there is service participation information of multiple participants or the number of participants is multiple, the
이어서 서비스 서버(100)는 방송 동영상 및 연기 동영상을 이용하여 합성 동영상을 생성한다(S18). 구체적으로, 서비스 서버(100)는 방송 비디오에서 제1 경계선(222, 224)을 기준으로 영상 분할(image segmentation)하여 인물 객체를 제외한 배경을 추출한다. 서비스 서버(100)는 연기 비디오에서 제2 경계선(242, 244)을 기준으로 영상 분할하여 참가자 객체를 추출한다. 서비스 서버(100)는 추출된 배경과 추출된 참가자 객체를 합성하여 합성 비디오를 생성한다. 이어서 서비스 서버(100)는 합성 비디오와 연기 오디오를 결합하여 합성 동영상을 생성한다.Next, the
만일 서비스 설정 정보 중 복수 참가자의 서비스 참가 정보가 있거나 참가자 인원수가 복수인 경우, 서비스 서버(100)는 방송 비디오에서 복수의 인물 객체를 제외한 배경을 추출하고, 연기 비디오에서 복수의 참가자 객체를 추출한 후, 기 설정된 매칭 기준을 반영하여 배경과 복수의 참가자 객체를 합성하여 합성 비디오를 생성한다. 예를 들어 도 4 및 도 5에서 제1 인물 객체(도 4의 왼쪽 남성)와 제2 참가자 객체(도 5의 오른쪽 남성)가 매칭되고, 제2 인물 객체(도 4의 오른쪽 여성)와 제1 참가자 객체(도 5의 왼쪽 여성)가 매칭된 경우, 서비스 서버(100)는 기 설정된 매칭 기준을 반영하여 배경 중 제1 인물 객체가 제거된 영역에 제2 참가자 객체를 삽입하고, 배경 중 제2 인물 객체가 제거된 영역에 제1 참가자 객체를 삽입한다. 이어서 서비스 서버(100)는 합성 비디오와 연기 오디오를 결합하여 합성 동영상을 생성한다.If there is service participation information of multiple participants in the service setting information or the number of participants is multiple, the
이어서 사용자 단말(200)은 서비스 서버(100)에 합성 동영상을 공유를 요청할 수 있다. 구체적으로 서비스 서버(100)는 사용자 단말(200)의 요청에 의해 합성 동영상을 SNS(인스타그램, 페이스북, 틱톡, 카카오페이지, 트위터, 메타 등), 포털 사이트(네이버, 다음, 구글 등), 동영상 공유 서비스 플랫폼(유튜브 등), 인터넷 미디어 방송 플랫폼(아프리카 티비, 카카오 티비 등), 이메일 서버 중 적어도 하나를 통해 공유할 수 있다.Subsequently, the
또한 사용자 단말(200)은 서비스 서버(100)에 합성 동영상을 기반으로 생성된 움직이는 GIF(animated GIF)의 공유를 요청할 수 있다. 구체적으로 서비스 서버(100)는 사용자 단말(200)의 요청에 의해 합성 동영상으로부터 추출된 복수의 정지 이미지를 결합하여 움직이는 GIF를 생성할 수 있고, 이를 SNS, 포털 사이트, 동영상 공유 서비스 플랫폼, 인터넷 미디어 방송 플랫폼, 이메일 서버 중 적어도 하나를 통해 공유할 수 있다. 또한 움직이는 GIF는 사용자 단말에 연동된 온라인 이모티콘 스토어를 통하여 셀프 이모티콘으로 사용될 수도 있고, 셀프 이모티콘은 방송 대사 문구를 포함할 수 있다. 움직이는 GIF(animated GIF)는 하나의 파일 내에 여러 개의 이미지들이 정해진 순서대로 들어가 있는 GIF 파일로, 여러 개의 이미지들이 번갈아가며 무한 루프를 돌거나 몇 개의 순서를 보여준 다음 애니메이션이 멈추도록 하는 방식으로 동작할 수 있다.Additionally, the
앞서 언급된 시스템, 수단, 모듈 등은 컴퓨터 프로그램으로서, 예를 들어 컴퓨터 판독가능 저장매체(computer readable storage medium)에 저장(store)되거나 적재(load)된 하나 이상의 프로세서(processor)에 의해 구현되는 복수의 프로그램 모듈(program module)로 구성될 수 있다. 또한 순서도(flowchart)에 언급된 각 단계는 컴퓨터 프로그램, 프로그램 모듈, 또는 컴퓨터 실행 가능 명령(computer-executable instruction) 등으로 이루어질 수 있다.The above-mentioned systems, means, modules, etc. are computer programs, for example, plural implemented by one or more processors stored or loaded in a computer readable storage medium. It may be composed of program modules. Additionally, each step mentioned in the flowchart may be implemented as a computer program, program module, or computer-executable instruction.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the attached drawings, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.
100: 서비스 서버
200: 사용자 단말
210: 사용자 인터페이스
220: 동영상 영역
222, 224: 제1 경계선
230: 스크립트 영역
242, 244: 제2 경계선100: service server
200: user terminal
210: User interface
220: Video area
222, 224: first border
230: Script area
242, 244: Second border
Claims (3)
각 방송 비디오에 나타나는 인물 객체를 검출하고 상기 인물 객체의 제1 경계선을 추출하는 단계;
사용자 단말이 상기 복수의 방송 동영상 중 어느 하나의 선택을 입력받으면, 상기 사용자 단말의 디스플레이 상에 선택된 방송 동영상 및 이의 스크립트를 재생하는 단계;
상기 사용자 단말로부터, 상기 방송 동영상의 재생에 맞춰 참가자의 연기 체험을 촬영하여 생성된 연기 동영상을 수신하는 단계(상기 연기 동영상은 연기 비디오 및 연기 오디오를 포함함);
상기 연기 비디오에 나타나는 참가자 객체를 검출하고 상기 참가자 객체의 제2 경계선을 추출하는 단계;
상기 방송 비디오에서 상기 제1 경계선을 기준으로 영상 분할(image segmentation)하여 상기 인물 객체를 제외한 배경을 추출하고, 상기 연기 비디오에서 상기 제2 경계선을 기준으로 영상 분할하여 상기 참가자 객체를 추출한 후, 상기 배경과 상기 참가자 객체를 합성하여 합성 비디오를 생성하는 단계; 및
상기 서비스 서버가 상기 합성 비디오와 상기 연기 오디오를 결합한 합성 동영상을 생성하는 단계를 포함하되,
상기 서비스 서버는 상기 사용자 단말의 요청에 의해 상기 합성 동영상으로부터 복수의 정지 이미지를 추출한 후 이들을 결합하여 움직이는 GIF를 생성하고, 상기 사용자 단말에 연동되어 사용되는 셀프 이모티콘은 상기 움직이는 GIF 및 상기 합성 동영상에 관한 스크립트를 포함하는 방송 체험 서비스의 제공 방법.A service server that provides a broadcast experience service using multiple broadcast videos (each broadcast video includes broadcast video and broadcast audio):
Detecting a person object appearing in each broadcast video and extracting a first boundary line of the person object;
When the user terminal receives a selection of one of the plurality of broadcast videos, playing the selected broadcast video and its script on the display of the user terminal;
Receiving, from the user terminal, a acting video generated by filming the participant's acting experience in accordance with the playback of the broadcast video (the acting video includes acting video and acting audio);
detecting a participant object appearing in the performance video and extracting a second boundary line of the participant object;
After extracting the background excluding the person object by performing image segmentation based on the first boundary line in the broadcast video, and extracting the participant object by segmenting the image based on the second boundary line in the acting video, generating a composite video by compositing a background and the participant object; and
Including the step of the service server generating a composite video combining the composite video and the acting audio,
The service server extracts a plurality of still images from the composite video at the request of the user terminal and combines them to create a moving GIF, and the self emoticon used in conjunction with the user terminal is added to the moving GIF and the composite video. A method of providing a broadcast experience service including a related script.
상기 제1 경계선은 상기 인물 객체의 얼굴 에지이고, 상기 제2 경계선은 상기 참가자 객체의 얼굴 에지인 것을 특징으로 하는 방송 체험 서비스의 제공 방법.According to paragraph 1,
The first boundary line is a face edge of the person object, and the second boundary line is a face edge of the participant object.
상기 사용자 단말이 복수 참가자의 서비스 참가를 입력받으면,
상기 서비스 서버는 각 방송 비디오에 나타나는 복수의 인물 객체를 검출하고 각 인물 객체의 제1 경계선을 추출하고;
상기 서비스 서버는 상기 연기 비디오에 나타나는 복수의 참가자 객체를 검출하고 각 참가자 객체의 제2 경계선을 추출하고;
상기 서비스 서버는 소정의 매칭 기준에 따라 상기 복수의 인물 객체와 상기 복수의 참가자 객체를 매칭하고;
상기 서비스 서버는 상기 방송 비디오에서 상기 복수의 인물 객체를 제외한 배경을 추출하고, 상기 연기 비디오에서 상기 복수의 참가자 객체를 추출한 후, 상기 매칭 기준을 반영하여 상기 배경과 상기 복수의 참가자 객체를 합성하여 합성 비디오를 생성하는 것을 특징으로 하는 방송 체험 서비스의 제공 방법.According to paragraph 1,
When the user terminal receives service participation from multiple participants,
The service server detects a plurality of human objects appearing in each broadcast video and extracts a first boundary line of each human object;
the service server detects a plurality of participant objects appearing in the performance video and extracts a second boundary line of each participant object;
The service server matches the plurality of person objects with the plurality of participant objects according to predetermined matching criteria;
The service server extracts a background excluding the plurality of person objects from the broadcast video, extracts the plurality of participant objects from the acting video, and then synthesizes the background and the plurality of participant objects by reflecting the matching criteria. A method of providing a broadcast experience service characterized by generating a composite video.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230004529A KR102615377B1 (en) | 2023-01-12 | 2023-01-12 | Method of providing a service to experience broadcasting |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230004529A KR102615377B1 (en) | 2023-01-12 | 2023-01-12 | Method of providing a service to experience broadcasting |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102615377B1 true KR102615377B1 (en) | 2023-12-19 |
Family
ID=89385300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230004529A KR102615377B1 (en) | 2023-01-12 | 2023-01-12 | Method of providing a service to experience broadcasting |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102615377B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020057916A (en) * | 2002-06-04 | 2002-07-12 | 정대교 | The movie composition vending machine with chroma key |
KR20040084173A (en) * | 2003-03-27 | 2004-10-06 | 쓰리에스휴먼 주식회사 | Real Time Motion Comparing Method and System |
KR20170102322A (en) * | 2014-12-31 | 2017-09-08 | 후아웨이 테크놀러지 컴퍼니 리미티드 | Picture processing method and device |
-
2023
- 2023-01-12 KR KR1020230004529A patent/KR102615377B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020057916A (en) * | 2002-06-04 | 2002-07-12 | 정대교 | The movie composition vending machine with chroma key |
KR20040084173A (en) * | 2003-03-27 | 2004-10-06 | 쓰리에스휴먼 주식회사 | Real Time Motion Comparing Method and System |
KR20170102322A (en) * | 2014-12-31 | 2017-09-08 | 후아웨이 테크놀러지 컴퍼니 리미티드 | Picture processing method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210344991A1 (en) | Systems, methods, apparatus for the integration of mobile applications and an interactive content layer on a display | |
US20210019982A1 (en) | Systems and methods for gesture recognition and interactive video assisted gambling | |
KR102399210B1 (en) | Streaming Media Presentation System | |
US11417341B2 (en) | Method and system for processing comment information | |
US20190342241A1 (en) | Systems and methods for manipulating and/or concatenating videos | |
CA2918687C (en) | System and method for multi-angle videos | |
US8928810B2 (en) | System for combining video data streams into a composite video data stream | |
US20140188997A1 (en) | Creating and Sharing Inline Media Commentary Within a Network | |
US11343595B2 (en) | User interface elements for content selection in media narrative presentation | |
US9224156B2 (en) | Personalizing video content for Internet video streaming | |
WO2019191082A2 (en) | Systems, methods, apparatus and machine learning for the combination and display of heterogeneous sources | |
CN112969093B (en) | Interactive service processing method, device, equipment and storage medium | |
US20180143741A1 (en) | Intelligent graphical feature generation for user content | |
CN111279709A (en) | Providing video recommendations | |
US20210051122A1 (en) | Systems and methods for pushing content | |
CN111949908A (en) | Media information processing method and device, electronic equipment and storage medium | |
CN112528052A (en) | Multimedia content output method, device, electronic equipment and storage medium | |
CN114501103B (en) | Live video-based interaction method, device, equipment and storage medium | |
US11838576B2 (en) | Video distribution system, method, computing device and user equipment | |
CN110300118B (en) | Streaming media processing method, device and storage medium | |
CN113282770A (en) | Multimedia recommendation system and method | |
KR102615377B1 (en) | Method of providing a service to experience broadcasting | |
US10943380B1 (en) | Systems and methods for pushing content | |
CN111885139A (en) | Content sharing method, device and system, mobile terminal and server | |
US11601481B2 (en) | Image-based file and media loading |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |