KR20110062574A - Method and apparatus for synchronizing of multimedia contents - Google Patents

Method and apparatus for synchronizing of multimedia contents Download PDF

Info

Publication number
KR20110062574A
KR20110062574A KR1020090119340A KR20090119340A KR20110062574A KR 20110062574 A KR20110062574 A KR 20110062574A KR 1020090119340 A KR1020090119340 A KR 1020090119340A KR 20090119340 A KR20090119340 A KR 20090119340A KR 20110062574 A KR20110062574 A KR 20110062574A
Authority
KR
South Korea
Prior art keywords
information
frame
image
scene
media platform
Prior art date
Application number
KR1020090119340A
Other languages
Korean (ko)
Other versions
KR101061992B1 (en
Inventor
이재호
강대갑
한성희
Original Assignee
한국방송공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국방송공사 filed Critical 한국방송공사
Priority to KR1020090119340A priority Critical patent/KR101061992B1/en
Publication of KR20110062574A publication Critical patent/KR20110062574A/en
Application granted granted Critical
Publication of KR101061992B1 publication Critical patent/KR101061992B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/18Arrangements for synchronising broadcast or distribution via plural systems

Abstract

PURPOSE: A content synchronization method and method thereof are provided to synchronize digitalized content in each different media platform. CONSTITUTION: An information obtaining unit(220) obtains metadata and a second scene converting information including additional information added to a service target content from a different media platform device by using preset connection information. A correlation analyzing unit(225) selects an image set which has high correlation by analyzing correlation about an image including in each the first scene information and the second scene converting information.

Description

콘텐츠 동기화 방법 및 장치{Method and apparatus for synchronizing of multimedia contents}Method and apparatus for synchronizing content

본 발명은 콘텐츠 제공에 관한 것으로, 보다 상세하게 각각 다른 시스템에서 디지털화된 멀티미디어 콘텐츠를 동기화하여 제공할 수 있는 방법 및 시스템에 관한 것이다.The present invention relates to content provision, and more particularly, to a method and a system capable of synchronizing and providing digitized multimedia content in different systems.

일반적으로 디지털화된 콘텐츠(예를 들어, 동영상 파일)은 그 시작점과 끝점이 개별 미디어 플랫폼마다 상이할 수 있다. 이는 각 미디어 플랫폼의 특성에 기인한 것이다.In general, digitized content (eg, video files) may have different starting and ending points for different media platforms. This is due to the characteristics of each media platform.

이로 인해, 각 미디어 플랫폼에서 디지털화된 콘텐츠에 부속된 부가 정보(또는 메타 데이터)를 다른 미디어 플랫폼에서 재사용하는 경우, 해당 부가 정보가 정확한 위치에 표시되지 못하는 문제가 있다.For this reason, when the additional information (or metadata) attached to the digitized content in each media platform is reused in another media platform, there is a problem that the additional information is not displayed at the correct position.

본 발명은 각기 다른 개별 미디어 플랫폼에서 디지털화된 콘텐츠를 동기화할 수 있는 방법 및 시스템을 제공하기 위한 것이다.The present invention is directed to providing a method and system capable of synchronizing digitized content on different individual media platforms.

이에 본 발명은 콘텐츠에 부속되는 부가 정보가 정확한 위치에 표시되도록 할 수 있는 방법 및 시스템을 제공하기 위한 것이다.Accordingly, the present invention is to provide a method and system that can be displayed in the correct position of the additional information attached to the content.

본 발명의 일 측면에 따르면, 개별 미디어 플랫폼에서 디지털화된 콘텐츠를 동기화하는 방법이 제공된다.According to one aspect of the invention, a method is provided for synchronizing digitized content on a separate media platform.

본 발명의 일 실시예에 따르면, 미디어 플랫폼 장치가 콘텐츠를 동기화하는 방법에 있어서, (a) 서비스 대상 콘텐츠를 프레임 단위로 분석하여 제1 장면 변환 정보를 생성하는 단계-제1 장면 변환 정보는 장면 변환 위치에 상응하는 복수의 영상 및 시간을 포함함; (b) 미리 설정된 접속정보를 이용하여 다른 미디어 플랫폼 장치로부터 서비스 대상 콘텐츠에 부속된 부가 정보를 포함하는 메타 데이터 및 제2 장면 변환 정보를 획득하는 단계; (c) 제1 장면 변환 정보 및 제2 장면 변환 정보에 각각 포함된 영상에 대해 상관도를 분석하여 상관도가 높은 영상 세트를 선정하는 단계; (d) 선정된 영상 세트를 이용하여 보정 간격을 계산하는 단계; 및 (e) 계산된 보정 간격을 이용하여 메타 데이터가 서비스 대상 콘텐츠에 표시될 위치를 보정하는 단계를 포함하는 콘텐츠 동기화 방법이 제공될 수 있다.According to an embodiment of the present invention, in a method of synchronizing contents by a media platform device, (a) analyzing first service content on a frame-by-frame basis to generate first scene transformation information—the first scene transformation information is a scene. A plurality of images and times corresponding to the transform location; (b) obtaining metadata and second scene transformation information including additional information attached to the service target content from another media platform apparatus using preset connection information; (c) selecting a set of highly correlated images by analyzing correlations for the images included in the first scene transformation information and the second scene transformation information, respectively; (d) calculating a correction interval using the selected image set; And (e) correcting a position at which the metadata is to be displayed on the content to be serviced using the calculated correction interval.

본 발명의 다른 실시예에 따르면, 미디어 플랫폼 장치가 콘텐츠를 동기화하는 방법에 있어서, (aa) 미리 설정된 접속정보를 이용하여 다른 미디어 플랫폼 장치로부터 서비스 대상 콘텐츠에 상응하는 메타 데이터를 요청하여 획득하는 단계-메타 데이터는 프로그램 식별정보, 북마크 위치, 북마크 위치에 대한 북마크 위치 영상 및 부가 정보를 포함함; (bb) 북마크 위치를 기준으로 일정 범위 이내의 서비스 대상 콘텐츠의 각 프레임을 대상으로 북마크 위치 영상에 대한 상관도가 가장 높은 프레임을 선정하여 타겟 시점을 결정하는 단계; 및 (cc) 타겟 시점을 이용하여 부가 정보가 서비스 대상 콘텐츠에 표시될 위치를 보정하는 단계를 포함하는 콘텐츠 동기화 방법이 제공될 수 있다.According to another embodiment of the present invention, in a method for synchronizing content by a media platform device, (aa) requesting and acquiring metadata corresponding to the service target content from another media platform device using preset access information; The meta data includes program identification information, bookmark location, bookmark location image for the bookmark location and additional information; (bb) determining a target time point by selecting a frame having the highest correlation with the bookmark location image for each frame of the service target content within a predetermined range based on the bookmark location; And (cc) correcting a position at which the additional information is to be displayed on the service target content by using the target viewpoint.

본 발명의 다른 측면에 따르면, 개별 미디어 플랫폼에서 디지털화된 콘텐츠를 동기화하는 미디어 플랫폼 장치가 제공된다.According to another aspect of the present invention, there is provided a media platform device for synchronizing digitized content on a separate media platform.

본 발명의 일 실시예에 따르면, 서비스 대상 콘텐츠를 동기화하는 미디어 플랫폼 장치에 있어서, 서비스 대상 콘텐츠를 프레임 단위로 분석하여 제1 장면 변환 정보를 생성하는 정보 생성부-제1 장면 변환 정보는 장면 변환 위치에 상응하는 복수의 영상 및 시간을 포함함; (미리 설정된 접속정보를 이용하여 다른 미디어 플랫폼 장치로부터 서비스 대상 콘텐츠에 부속된 부가 정보를 포함하는 메타 데이터 및 제2 장면 변환 정보를 획득하는 정보 획득부; 제1 장면 변환 정보 및 제2 장면 변환 정보에 각각 포함된 영상에 대해 상관도를 분석하여 상관도가 높은 영상 세트를 선정하는 상관도 분석부; 및 선정된 영상 세트를 이용하여 보정 간격을 계산하며, 계산된 보정 간격을 이용하여 메타 데이터가 서비스 대상 콘텐츠에 표시될 위치를 보정하는 보정부를 포함하는 미디어 플랫폼 장치가 제공될 수 있다.According to an embodiment of the present invention, in a media platform device for synchronizing service target content, the information generating unit for generating first scene transformation information by analyzing the service target content on a frame-by-scene basis may include scene transformation. A plurality of images and times corresponding to the location; (Information obtaining unit for acquiring meta data including additional information attached to the service target content and second scene transformation information from other media platform apparatuses using preset connection information; First scene transformation information and second scene transformation information) A correlation analysis unit for selecting a high correlation image set by analyzing the correlations of the images included in each of the images; and calculating a correction interval using the selected image set, and using the calculated correction interval, A media platform device may be provided that includes a correction unit that corrects a position to be displayed on the service target content.

본 발명의 다른 실시예에 따르면, 서비스 대상 콘텐츠를 동기화하는 미디어 플랫폼 장치에 있어서, 미리 설정된 접속정보를 이용하여 다른 미디어 플랫폼 장치로부터 서비스 대상 콘텐츠에 상응하는 메타 데이터를 요청하여 획득하는 정보 획득부-메타 데이터는 프로그램 식별정보, 북마크 위치, 북마크 위치에 대한 북마크 위치 영상 및 부가 정보를 포함함; 북마크 위치를 기준으로 일정 범위 이내의 서비스 대상 콘텐츠의 각 프레임을 대상으로 북마크 위치 영상에 대한 상관도가 가장 높은 프레임을 선정하여 타겟 시점을 결정하는 상관도 분석부; 및 타겟 시점을 이용하여 부가 정보가 서비스 대상 콘텐츠에 표시될 위치를 보정하는 보정부를 포함하는 미디어 플랫폼 장치가 제공될 수 있다.According to another embodiment of the present invention, in a media platform device for synchronizing service target content, an information acquisition unit for requesting and obtaining metadata corresponding to the service target content from another media platform apparatus using preset connection information; The meta data includes program identification information, bookmark location, bookmark location image for the bookmark location and additional information; A correlation analysis unit for determining a target viewpoint by selecting a frame having the highest correlation with the bookmark location image for each frame of service target content within a predetermined range based on the bookmark location; And a correction unit configured to correct a position at which the additional information is to be displayed on the service target content by using the target viewpoint.

본 발명에 따른 콘텐츠 동기화 방법 및 장치를 제공함으로써, 각기 다른 개별 미디어 플랫폼에서 디지털화된 콘텐츠를 동기화할 수 있다.By providing a method and apparatus for synchronizing content according to the present invention, it is possible to synchronize digitized content in different individual media platforms.

이에 본 발명은 콘텐츠에 부속되는 부가 정보가 정확한 위치에 표시되도록 할 수 있다.Accordingly, the present invention can allow the additional information attached to the content to be displayed at the correct position.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[도 1 설명][Description of Fig. 1]

도 1은 본 발명의 실시예에 따른 콘텐츠를 동기화하는 시스템의 구성을 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating a configuration of a system for synchronizing contents according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 시스템은 복수의 사용자 단말(110), 제1 미디어 플랫폼 장치(120) 및 제2 미디어 플랫폼 장치(130)를 포함하여 구성된다.Referring to FIG. 1, a system according to an embodiment of the present invention includes a plurality of user terminals 110, a first media platform device 120, and a second media platform device 130.

사용자 단말(110)은 통신망을 통해 제1 미디어 플랫폼 장치(120) 또는 제2 미디어 플랫폼 장치(130)에 접속하여 다양한 콘텐츠를 제공받을 수 있는 단말이다. 예를 들어, 사용자 단말(110)은 이동통신 단말기, PDA, 노트북, 컴퓨터 등일 수 있으며, 통신망에 접속하여 멀티미디어 콘텐츠를 제공받아 실행할 수 있는 장치이면 모두 동일하게 적용될 수 있다.The user terminal 110 is a terminal that can receive various contents by accessing the first media platform apparatus 120 or the second media platform apparatus 130 through a communication network. For example, the user terminal 110 may be a mobile communication terminal, a PDA, a laptop, a computer, or the like, and any device capable of accessing and executing multimedia content by accessing a communication network may be equally applicable.

제1 미디어 플랫폼 장치(120)는 각 사용자 단말(110)의 접속에 상응하여 사용자 단말(110)에서 요청하는 다양한 프로그램에 상응하는 콘텐츠를 서비스하는 장치이다. 이에, 제1 미디어 플랫폼 장치(120)는 당해 제1 미디어 플랫폼 장치(120)에 의해 디지털화된 다양한 콘텐츠를 저장하고 있다.The first media platform device 120 is a device that services contents corresponding to various programs requested by the user terminal 110 in response to the connection of each user terminal 110. Accordingly, the first media platform device 120 stores various contents digitized by the first media platform device 120.

다만, 제1 미디어 플랫폼 장치(120)는 사용자 단말(110)의 서비스 요청에 따른 서비스 대상 콘텐츠에 대한 메타 데이터를 미저장하고 있으며, 해당 메타 데이터는 미리 설정된 접속 정보를 이용하여 제2 미디어 플랫폼 장치(130)에 접속하여 획득한 후 해당 메타 데이터가 서비스 대상 콘텐츠에 표시될 위치를 보정하여 제공할 수 있다. 이는 이하의 설명에 의해 보다 명확히 이해될 것이다.However, the first media platform device 120 does not store metadata about the service target content according to the service request of the user terminal 110, and the corresponding metadata is stored in the second media platform device using preset access information. After accessing and obtaining the content, the metadata may be provided by correcting the position where the corresponding metadata is to be displayed on the service target content. This will be more clearly understood by the following description.

여기서, 접속정보는 유알엘 또는 도메인일 수 있다. Here, the access information may be a URL or a domain.

제2 미디어 플랫폼 장치(130)는 콘텐츠 서비스를 위한 다양한 콘텐츠를 디지털화하여 저장한다. 또한, 제2 미디어 플랫폼 장치(130)는 각 콘텐츠에 부속된 부가 정보를 포함하는 메타 데이터를 저장한다. 제2 미디어 플랫폼 장치(130)에 저장된 콘텐츠는 당해 제2 미디어 플랫폼 장치(130)에 의해 디지털화된 콘텐츠일 수 있다.The second media platform device 130 digitizes and stores various contents for the content service. In addition, the second media platform device 130 stores metadata including additional information attached to each content. Content stored in the second media platform device 130 may be content digitized by the second media platform device 130.

즉, 제2 미디어 플랫폼 장치(130)는 제1 미디어 플랫폼 장치(120)로부터 임의의 콘텐츠에 대한 메타 데이터 요청이 수신되면, 상응하는 메타 데이터를 추출하여 제1 미디어 플랫폼 장치(120)로 전송할 수 있다. 여기서, 메타 데이터 제공 요청은 해당 프로그램 식별정보(PID: program ID)를 포함할 수 있다. 이하, 제2 미디어 플랫폼 장치(130)에 대해서는 하기에서 관련 도면을 참조하여 보다 상세히 설명하기로 한다.That is, when a metadata request for arbitrary content is received from the first media platform device 120, the second media platform device 130 may extract corresponding metadata and transmit the metadata to the first media platform device 120. have. Here, the metadata providing request may include corresponding program identification information (PID: program ID). Hereinafter, the second media platform device 130 will be described in more detail with reference to the accompanying drawings.

[도 2 설명][Description of Fig. 2]

도 2는 본 발명의 실시예에 따른 제1 미디어 플랫폼 장치의 내부 구성을 개략적으로 도시한 블록도이다.2 is a block diagram schematically illustrating an internal configuration of a first media platform device according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 제1 미디어 플랫폼 장치(120)는 데이터 송수신부(210), 정보 생성부(215), 정보 획득부(220), 상관도 분석부(225), 보정부(230), 데이터베이스(235) 및 제어부(240)를 포함하여 구성된다.Referring to FIG. 2, the first media platform apparatus 120 according to an embodiment of the present invention may include a data transceiver 210, an information generator 215, an information acquirer 220, and a correlation analyzer 225. And a correction unit 230, a database 235, and a control unit 240.

데이터 송수신부(210)는 통신망을 통해 다른 장치(예를 들어, 사용자 단말(110), 제2 미디어 플랫폼 장치(130))와 데이터를 송수신하는 기능을 담당한다.The data transceiver 210 is responsible for transmitting and receiving data with another device (eg, the user terminal 110 and the second media platform device 130) through a communication network.

예를 들어, 데이터 송수신부(210)는 제어부(240)의 제어에 따라 콘텐츠 식별정보(예를 들어, 프로그램 식별정보)를 포함하는 메타 데이터 요청 메시지를 제2 미디어 플랫폼 장치(130)로 전송할 수 있다.For example, the data transceiver 210 may transmit a metadata request message including content identification information (for example, program identification information) to the second media platform apparatus 130 under the control of the controller 240. have.

정보 생성부(215)는 서비스 대상 콘텐츠를 프레임 단위로 분석하여 장면 변환 정보를 생성하는 기능을 수행한다.The information generator 215 analyzes the service target content on a frame basis to generate scene transformation information.

보다 상세하게 정보 생성부(215)는 서비스 대상 콘텐츠를 지정된 T (여기서, T는 시간을 나타내는 실수임) 범위 내에서만 프레임을 분석하여 장면 변환 위치를 결정하고, 결정된 장면 변환 위치에 대한 장면 변환 정보를 생성할 수 있다. In more detail, the information generating unit 215 analyzes a frame only within a specified T range (where T is a real number representing time) to determine a scene transformation position, and determines scene transformation information for the determined scene transformation position. Can be generated.

예를 들어, 정보 생성부(215)는 프레임의 전 또는 후 프레임과의 차영상을 산출하고, 해당 차 영상의 전체 픽셀의 값이 미리 설정된 임계치를 초과하는 경우 해당 프레임을 장면 변환 위치로 결정할 수 있다. For example, the information generator 215 may calculate a difference image with a frame before or after the frame, and determine that the frame as the scene conversion position when the value of all pixels of the difference image exceeds a preset threshold. have.

예를 들어, 정보 생성부(215)는 서비스 대상 프레임의 최초 프레임을 기준으로 T 범위(예를 들어, 10분) 이내의 프레임 및 전 또는 후 프레임의 차영상을 생성하고, 해당 차영상을 분석하여 장면 변환 여부를 결정할 수 있다. 만일 차영상 분석 결과 임계치를 초과하는 경우 장면 변환 위치로 결정하며, 이에 대한 장면 변환 정보를 생성할 수 있다. 여기서, 장면 변환 정보는 현재 장면 변환 위치에 상응하는 영상 및 각각의 시간 정보를 포함할 수 있다. 영상은 해당 장면 변환 위치에 상응하는 프레임의 썸네일(Thumb nail) 영상일 수 있다. For example, the information generator 215 generates a difference image of a frame within a T range (for example, 10 minutes) and a frame before or after the first frame of the service target frame, and analyzes the difference image. To determine whether to convert the scene. If the difference between the image analysis result and the threshold value is exceeded, it is determined as the scene change position, and scene change information may be generated. Here, the scene transformation information may include an image corresponding to the current scene transformation position and respective time information. The image may be a thumbnail image of a frame corresponding to the corresponding scene change position.

보다 상세하게 정보 생성부(215)는 T 범위 이내의 프레임 및 해당 프레임의 전 또는 후 프레임에 대한 밝기 성분에 대한 히스토그램을 각각 산출한 후 평균 제 곱 오차 (MSE: Mean Squared Error)를 산출하여 평균 제곱 오차가 미리 설정된 제1 임계치 미만인 경우 해당 프레임을 장면 변환 후보로써 결정할 수 있다.In more detail, the information generator 215 calculates a histogram of brightness components of a frame within a T range and a frame before or after the frame, respectively, and then calculates an average squared error (MSE). If the square error is less than the first threshold, the frame may be determined as the scene transformation candidate.

이어, 정보 생성부(215)는 장면 변환 후보로 결정된 프레임과 해당 프레임의 전 또는 후 프레임과의 차영상을 생성하고, 해당 차영상에 대한 이진화된 영상(이해와 설명의 편의를 도모하기 위해 이진화된 차영상이라 칭하기로 함)을 생성한다.Subsequently, the information generator 215 generates a difference image between a frame determined as a scene conversion candidate and a frame before or after the frame, and binarizes the difference image (for convenience of understanding and explanation). Referred to as a difference image).

즉, 정보 생성부(215)는 이진화된 차영상의 각 픽셀이 제2 임계치 이상인 경우, 해당 픽셀값을 1로 설정하고, 각 픽셀이 임계치 미만이면, 해당 픽셀의 픽셀값을 0으로 설정하여 이진화된 차영상을 생성할 수 있다.That is, the information generator 215 sets the pixel value to 1 when each pixel of the binarized difference image is greater than or equal to the second threshold value, and sets the pixel value of the pixel to 0 when each pixel is less than the threshold value. Generated difference images can be generated.

이어, 정보 생성부(215)는 이진화된 차영상의 픽셀값이 1인 픽셀 블록이 설정된 블록 임계치 이상인 경우, 해당 영상에서 장면 변환이 일어난 것으로 판단할 수 있다. Subsequently, when the pixel block of the binarized difference image has a pixel block of 1 or more, the information generator 215 may determine that a scene transformation has occurred in the corresponding image.

예를 들어, 정보 생성부(215)는 장면 변환 위치로 결정된 프레임에 대해 미리 설정된 픽셀 블록의 평균값, 중간값 등을 이용하여 해당 프레임에 대한 썸네일 영상을 생성할 수 있다. 본 실시예에서는 미리 설정된 픽셀 블록의 평균값, 중간값을 이용하여 썸네일 영상을 생성하는 것을 가정하여 이를 중점으로 설명하나 썸네일 영상 생성 방법은 이외에도 웨이블릿 변환(wavelet)을 이용하는 방법 등과 같이 다양할 수 있다. 썸네일 영상을 생성하는 방법은 이미 공지된 기술이므로 별도의 설명은 생략하기로 한다.For example, the information generator 215 may generate a thumbnail image of a corresponding frame using an average value, a median value, or the like of a predetermined pixel block for the frame determined as the scene change position. In the present embodiment, it is assumed that a thumbnail image is generated by using an average value and a median value of a predetermined pixel block. However, the method of generating a thumbnail image may be various, such as a method using a wavelet transform. Since a method of generating a thumbnail image is already known, a separate description thereof will be omitted.

본 실시예에서는 정보 생성부(215)가 최초 프레임부터 T 범위 이내의 프레임을 분석하여 장면 변환 정보를 각각 생성하는 것을 가정하여 설명하나 전체 동영상 콘텐츠의 각 프레임(즉, 전체 프레임)을 대상으로 분석할 수도 있다. In the present embodiment, the information generation unit 215 analyzes the frames within the T range from the first frame to generate scene transformation information, respectively. You may.

본 실시예에서는 정보 생성부(215)가 서비스 대상 콘텐츠의 제공 요청시 서비스 대상 콘텐츠의 프레임 단위 분석을 통해 장면 변환 위치를 결정하고, 이에 대한 장면 변환 정보를 생성하는 것을 가정하여 이를 중점으로 설명하나 구현 방법에 따라 서비스 대상 콘텐츠에 상응하여 장면 변환 정보는 미리 생성되어 데이터베이스(235)에 저장되어 있을 수도 있음은 당연하다.In the present embodiment, it is assumed that the information generation unit 215 determines the scene conversion position through frame-by-frame analysis of the service target content when requesting the provision of the service target content, and generates scene transformation information for this. According to the implementation method, the scene change information may be generated in advance and stored in the database 235 according to the service target content.

정보 획득부(220)는 서비스 대상 콘텐츠에 상응하는 프로그램 식별정보(PID)를 포함하는 메타 데이터 요청을 제2 미디어 플랫폼 장치(130)로 전송하여 서비스 대상 콘텐츠에 상응하는 메타 데이터 및 장면 변환 정보를 각각 획득할 수 있다.The information acquisition unit 220 transmits a metadata request including program identification information (PID) corresponding to the service target content to the second media platform device 130 to provide metadata and scene transformation information corresponding to the service target content. Can be obtained respectively.

예를 들어, 정보 획득부(220)는 서비스 대상 콘텐츠에 상응하는 프로그램 식별정보를 포함하여 일정 시간 간격에 있는 복수의 장면 변환 정보를 획득할 수 있다. For example, the information acquisition unit 220 may acquire a plurality of scene transformation information in a predetermined time interval, including program identification information corresponding to the service target content.

본 실시예에서는 이해와 설명의 편의를 도모하기 위해 해당 제1 미디어 플랫폼 장치(120)를 통해 생성된 장면 변환 정보는 제1 장면 변환 정보라 칭하기로 하며, 제2 미디어 플랫폼 장치(130)를 통해 획득된 장면 변환 정보는 제2 장면 변환 정보라 칭하기로 한다.In the present embodiment, for convenience of understanding and explanation, scene transformation information generated through the first media platform apparatus 120 will be referred to as first scene transformation information. The obtained scene transformation information is referred to as second scene transformation information.

여기서, 제1 장면 변환 정보 및 제2 장면 변환 정보는 동일한 서비스 대상 콘텐츠를 대상으로 각각 상이한 미디어 플랫폼 장치를 통해 생성된 정보일 수 있다.Here, the first scene transformation information and the second scene transformation information may be information generated through different media platform devices for the same service target content.

또한, 메타 데이터는 프로그램 식별정보 및 부가 정보를 포함하며, 부가 정 보는 타이틀, 태그 및 사용자 정보 등을 포함할 수 있다.In addition, the metadata may include program identification information and additional information, and the additional information may include a title, a tag, and user information.

제2 미디어 플랫폼 장치(130)에서 획득된 장면 변환 정보도 해당 서비스 대상 콘텐츠의 최초 프레임부터 임의의 시간(T) 범위 이내에서 획득된 영상 및 시간 정보일 수 있다. 물론, 제2 미디어 플랫폼 장치(130)는 해당 서비스 대상 콘텐츠의 전체 프레임에 대해 장면 변환 정보를 생성할 수도 있다.Scene transformation information acquired by the second media platform device 130 may also be image and time information acquired within a predetermined time (T) range from the first frame of the corresponding service target content. Of course, the second media platform device 130 may generate scene transformation information for all frames of the service target content.

상관도 분석부(225)는 제1 장면 변환 정보 및 제2 장면 변환 정보 각각에 포함된 영상에 대한 상관도 분석을 통해 상관도가 가장 높은 영상 세트를 선정하는 기능을 수행한다. The correlation analyzer 225 selects an image set having the highest correlation through correlation analysis on the image included in each of the first scene transformation information and the second scene transformation information.

예를 들어, 상관도 분석부(225)는 제1 장면 변환 정보에 포함된 영상과 제2 장면 변환 정보에 포함된 각 영상의 픽셀을 1:1로 매칭 여부를 분석하여 상관도를 산출할 수 있다. For example, the correlation analyzer 225 may calculate a correlation by analyzing whether a pixel of each image included in the first scene transformation information and a pixel of each image included in the second scene transformation information are matched 1: 1. have.

예를 들어, 상관도 분석부(225)는 획득된 복수의 장면 변환 정보와 생성된 장면 변환 정보를 크로스 매칭하여 상관도가 높은 영상을 선정하고, 해당 선정된 영상에 대한 시간을 결정할 수 있다.For example, the correlation analyzer 225 may cross match the obtained plurality of scene transformation information and the generated scene transformation information to select an image having a high correlation, and determine a time for the selected image.

보정부(230)는 상관도 분석부(225)에 의해 선정된 영상 세트(즉, 상관도가 가장 높은 영상 세트)를 이용하여 보정 간격을 계산하고, 계산된 보정 간격을 이용하여 제2 미디어 플랫폼 장치(130)로부터 획득된 메타 데이터가 서비스 대상 콘텐츠에 표시될 위치를 보정한다.The correction unit 230 calculates a correction interval using the image set selected by the correlation analyzer 225 (that is, the image set having the highest correlation), and uses the calculated correction interval to generate the second media platform. The metadata obtained from the device 130 is corrected for the position to be displayed on the service target content.

예를 들어, 보정부(230)는 선정된 영상 세트를 이용하여 서비스 대상 콘텐츠의 프레임간의 시간 간격을 계산하여 보정 간격으로써 설정할 수 있다. For example, the correction unit 230 may calculate the time interval between the frames of the service target content using the selected image set and set the correction interval.

데이터베이스(235)는 당해 제1 미디어 플랫폼 장치(120)에 의해 디지털화된 다양한 콘텐츠를 각각의 프로그램 식별정보에 매핑하여 저장한다.The database 235 maps and stores various contents digitized by the first media platform apparatus 120 to respective program identification information.

제어부(240)는 본 발명의 실시예에 따른 제1 미디어 플랫폼 장치(120)의 내부 구성 요소들(예를 들어, 데이터 송수신부(210), 정보 생성부(215), 정보 획득부(220), 상관도 분석부(225), 보정부(230), 데이터베이스(235) 등)을 제어하는 기능을 수행한다.The control unit 240 is an internal component of the first media platform device 120 according to an embodiment of the present invention (for example, data transmission and reception unit 210, information generation unit 215, information acquisition unit 220) , Correlation analysis unit 225, correction unit 230, database 235, etc.).

[도 3 설명][Description of Fig. 3]

도 3은 본 발명의 실시예에 따른 제2 미디어 플랫폼 장치의 내부 구성을 개략적으로 도시한 블록도이다.3 is a block diagram schematically illustrating an internal configuration of a second media platform apparatus according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에 따른 제2 미디어 플랫폼 장치(130)는 데이터 송수신부(310), 정보 생성부(315), 데이터베이스(320) 및 제어부(325)를 포함하여 구성된다. Referring to FIG. 3, the second media platform apparatus 130 according to an embodiment of the present invention includes a data transceiver 310, an information generator 315, a database 320, and a controller 325. .

데이터 송수신부(310)는 통신망을 통해 제1 미디어 플랫폼 장치(120)와 연결되어 데이터를 송수신하는 기능을 수행한다.The data transceiver 310 is connected to the first media platform apparatus 120 through a communication network to perform a function of transmitting and receiving data.

예를 들어, 데이터 송수신부(310)는 제1 미디어 플랫폼 장치(120)로부터 프로그램 식별정보(PID)를 포함하는 메타 데이터 요청을 수신받아 정보 생성부(315)로 출력할 수 있다.For example, the data transceiver 310 may receive a metadata request including program identification information (PID) from the first media platform device 120 and output the metadata request to the information generator 315.

정보 생성부(315)는 데이터 송수신부(310)를 통해 수신된 메타 데이터 요청에 포함된 프로그램 식별정보를 추출하고, 해당 프로그램 식별정보에 상응하는 콘 텐츠를 데이터베이스(320)로부터 획득한다. 이어, 정보 생성부(315)는 해당 콘텐츠를 미리 설정된 T 범위 이내에서 프레임 단위로 전 또는 후 프레임과의 차영상을 산출하고, 차영상을 분석하여 장면 변환 정보를 생성할 수 있다.The information generating unit 315 extracts program identification information included in the metadata request received through the data transmitting and receiving unit 310, and obtains content corresponding to the program identification information from the database 320. Subsequently, the information generating unit 315 may calculate the difference image with the previous or next frame in units of frames within the preset T range and analyze the difference image to generate scene transformation information.

이는 도 2에서 설명한 바와 동일하므로 중복되는 설명은 생략하기로 한다.Since this is the same as described with reference to FIG. 2, redundant descriptions will be omitted.

데이터베이스(320.)는 프로그램 식별정보에 매핑하여 콘텐츠 및 메타 데이터를 저장한다.Database 320. stores content and metadata by mapping to program identification information.

본 실시예에서는 제2 미디어 플랫폼 장치(130)가 제1 미디어 플랫폼 장치(120)로부터의 메타 데이터 요청에 상응하여 장면 변환 정보를 생성하는 것을 가정하여 이를 중점으로 설명하나 제2 미디어 플랫폼 장치(130)는 장면 변환 정보를 미리 생성하여 데이터베이스(320)에 프로그램 식별 정보에 매핑하여 저장할 수도 있다. In the present embodiment, it is assumed that the second media platform device 130 generates scene transformation information in response to the metadata request from the first media platform device 120. ) May pre-generate scene transformation information and map the program transformation information to the database 320 and store the scene transformation information.

제어부(325)는 본 발명의 실시예에 따른 제2 미디어 플랫폼 장치의 내부 구성 요소들(데이터 송수신부(310), 정보 생성부(315) 및 데이터베이스(320) 등)를 제어하는 기능을 수행한다.The controller 325 controls the internal components of the second media platform device (data transmitting and receiving unit 310, information generating unit 315, database 320, etc.) according to an embodiment of the present invention. .

또한, 제어부(325)는 메타 데이터 요청에 상응하는 메타 데이터를 추출하고, 해당 메타 데이터와 정보 생성부(315)를 통해 생성된 장면 변환 정보를 데이터 송수신부(310)를 통해 제1 미디어 플랫폼 장치(120)로 전송하도록 제어할 수도 있다.In addition, the controller 325 extracts metadata corresponding to the metadata request, and transmits the metadata and scene transformation information generated by the information generator 315 through the data transceiver 310 to the first media platform device. Control to transmit to 120.

[도 4 설명][Description of Fig. 4]

도 4는 본 발명의 다른 실시예에 따른 제1 미디어 플랫폼 장치의 내부 구성 을 개략적으로 도시한 블록도이다.4 is a block diagram schematically illustrating an internal configuration of a first media platform device according to another embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 제1 미디어 플랫폼 장치(120)는 데이터 송수신부(410), 정보 획득부(415), 상관도 분석부(420), 보정부(425), 데이터베이스(430) 및 제어부(435)를 포함하여 구성된다.Referring to FIG. 4, the first media platform apparatus 120 according to an embodiment of the present invention may include a data transceiver 410, an information acquirer 415, a correlation analyzer 420, a corrector 425, It is configured to include a database 430 and the control unit 435.

이하, 도 2에서 설명한 구성 요소와 동일한 기능을 수행하는 구성 요소에 대한 설명은 생략하기로 하며, 상이한 구성 요소 또는 기능에 대해 설명하기로 한다.Hereinafter, a description of components that perform the same functions as the components described with reference to FIG. 2 will be omitted, and different components or functions will be described.

정보 획득부(415)는 서비스 대상 콘텐츠에 상응하는 프로그램 식별정보(PID)를 포함하는 메타 데이터 요청을 제2 미디어 플랫폼 장치(130)로 전송하여 서비스 대상 콘텐츠에 상응하는 메타 데이터를 획득할 수 있다. 여기서, 메타 데이터는 프로그램 식별정보, 북마크 위치, 북마크 위치에 상응하는 북마크 위치 영상 및 부가 정보를 포함할 수 있다.The information acquisition unit 415 may obtain a metadata corresponding to the service target content by transmitting a metadata request including program identification information (PID) corresponding to the service target content to the second media platform device 130. . Here, the meta data may include program identification information, bookmark location, bookmark location image corresponding to the bookmark location, and additional information.

상관도 분석부(420)는 메타 데이터에 포함된 북마크 위치를 기준으로 정해진 범위 이내(예를 들어, 북마크 위치 이전 5분, 북마크 위치 이후 5분 등)의 서비스 대상 콘텐츠의 프레임들을 대상으로 북마크 위치 영상과의 상관도를 분석하고, 상관도가 가장 높은 프레임을 선정한다.The correlation analysis unit 420 bookmarks frames of service target content within a predetermined range (for example, 5 minutes before the bookmark location and 5 minutes after the bookmark location) based on the bookmark location included in the metadata. The correlation with the image is analyzed and the frame with the highest correlation is selected.

상관도를 분석하는 방법은 도2에서 설명한 바와 동일하므로, 중복되는 설명은 생략하기로 한다.Since the method of analyzing the correlation is the same as described with reference to FIG. 2, duplicate descriptions will be omitted.

상관도 분석부(420)는 상관도가 가장 높은 프레임을 선정하여 타겟 시점을 결정할 수 있다. The correlation analyzer 420 may select a frame having the highest correlation to determine a target time point.

여기서, 북마크 위치는 해당 북마크 위치에 대한 시간 정보일 수 있다. 이에 따라 상관도 분석부(420)는 상관도가 가장 높은 프레임에 대한 타겟 시점(즉, 시간 정보)를 생성할 수 있다.Here, the bookmark location may be time information on the bookmark location. Accordingly, the correlation analyzer 420 may generate a target viewpoint (ie, time information) for the frame having the highest correlation.

보정부(425)는 결정된 타겟 시점을 이용하여 메타 데이터가 서비스 대상 콘텐츠에 표시될 위치를 보정할 수 있다.The correction unit 425 may correct the position where the meta data is to be displayed on the service target content by using the determined target time point.

예를 들어, 보정부(425)는 메타 데이터에 포함된 북마크 위치와 결정된 타겟 시점을 비교하여 해당 메타 데이터에 포함된 부가 정보가 서비스 대상 콘텐츠에 표시될 위치를 보정할 수 있다.For example, the correction unit 425 may correct the position where the additional information included in the corresponding metadata is displayed in the service target content by comparing the bookmark position included in the metadata with the determined target viewpoint.

데이터베이스(430) 및 제어부(435)는 도 2에서 설명한 바와 동일하므로 중복되는 설명은 생략하기로 한다.Since the database 430 and the controller 435 are the same as those described with reference to FIG. 2, redundant descriptions thereof will be omitted.

[도 5 설명][Description of Fig. 5]

도 5는 본 발명의 다른 실시예에 따른 제2 미디어 플랫폼 장치의 내부 구성을 개략적으로 도시한 블록도이다.5 is a block diagram schematically illustrating an internal configuration of a second media platform device according to another embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 따른 제2 미디어 플랫폼 장치(130)는 데이터 송수신부(510), 추출부(515), 데이터베이스(520) 및 제어부(525)를 포함하여 구성된다.Referring to FIG. 5, the second media platform apparatus 130 according to an embodiment of the present invention includes a data transceiver 510, an extractor 515, a database 520, and a controller 525.

데이터 송수신부(510)는 도 3에서 설명한 바와 동일하므로 중복되는 설명은 생략하기로 한다.Since the data transceiver 510 is the same as described with reference to FIG. 3, redundant descriptions thereof will be omitted.

추출부(515)는 데이터 송수신부(510)를 통해 제1 미디어 플랫폼 장치(120)로부터 프로그램 식별정보를 포함하는 메타 데이터 요청이 수신되면, 해당 메타 데이 터 요청에 포함된 프로그램 식별정보를 이용하여 데이터베이스(520)로부터 상응하는 메타 데이터를 추출하는 기능을 수행한다.When the extractor 515 receives a metadata request including program identification information from the first media platform device 120 through the data transceiver 510, the extractor 515 may use the program identification information included in the corresponding metadata request. Extract the corresponding metadata from the database 520.

여기서, 메타 데이터는 프로그램 식별정보, 북마크 위치, 해당 북마크 위치에 상응하는 북마크 위치 영상 및 부가 정보를 포함할 수 있다. 북마크 위치 영상은 예를 들어, 해당 북마크 위치에 상응하는 썸네일 영상일 수 있다. 또한, 북마크 위치는 해당 북마크 위치에 상응하는 시간 정보일 수 있다.Here, the metadata may include program identification information, a bookmark location, a bookmark location image corresponding to the bookmark location, and additional information. The bookmark location image may be, for example, a thumbnail image corresponding to the bookmark location. In addition, the bookmark location may be time information corresponding to the bookmark location.

데이터베이스(520)는 프로그램 식별정보에 북마크 위치, 북마크 위치 영상, 콘텐츠 및 부가 정보를 매핑하여 저장한다.The database 520 maps and stores the bookmark location, the bookmark location image, content, and additional information on the program identification information.

제어부(525)는 본 발명의 실시예에 따른 제2 미디어 플랫폼 장치(130)의 내부 구성 요소들(데이터 송수신부(510), 추출부(515), 데이터베이스(520) 등)을 제어하는 기능을 수행한다.The controller 525 controls the internal components (data transmitting and receiving unit 510, extractor 515, database 520, etc.) of the second media platform device 130 according to an embodiment of the present invention. Perform.

또한, 제어부(525)는 추출부(515)를 통해 추출된 메타 데이터를 데이터 송수신부(510)를 통해 제1 미디어 플랫폼 장치(120)로 전송하도록 제어할 수 있다.In addition, the controller 525 may control to transmit the metadata extracted by the extractor 515 to the first media platform apparatus 120 through the data transceiver 510.

도 6은 본 발명의 일 실시예에 따른 콘텐츠를 동기화하는 방법을 나타낸 흐름도이다. 이하, 이해와 설명의 편의를 도모하기 위해 메타 데이터를 요청하는 장치를 제1 미디어 플랫폼 장치로 통칭하며, 메타 데이터를 전송하는 장치를 제2 미디어 플랫폼 장치로 통칭하여 설명하기로 한다.6 is a flowchart illustrating a method of synchronizing content according to an embodiment of the present invention. Hereinafter, for convenience of understanding and description, a device for requesting metadata is collectively referred to as a first media platform device, and a device for transmitting metadata is collectively described as a second media platform device.

단계 610에서 제1 미디어 플랫폼 장치는 서비스 대상 콘텐츠를 미리 설정된 T 범위 이내에서 프레임 단위로 분석하여 제1 장면 변환 정보를 생성한다. 제1 장 면 변환 정보를 생성하는 방법은 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다. 물론, 전술한 바와 같이, 서비스 대상 콘텐츠의 전체 프레임을 분석하여 제1 장면 변환 정보를 생성할 수도 있다.In operation 610, the first media platform apparatus generates first scene transformation information by analyzing the service target content on a frame basis within a preset T range. Since the method of generating the first scene conversion information is the same as described above, a redundant description will be omitted. Of course, as described above, the first scene transformation information may be generated by analyzing the entire frame of the service target content.

여기서, 제1 장면 변환 정보는 장면 변환 위치에 상응하는 복수의 영상 및 각각의 시간을 포함할 수 있다.Here, the first scene transformation information may include a plurality of images and respective times corresponding to the scene transformation position.

단계 615에서 제1 미디어 플랫폼 장치는 미리 설정된 접속정보를 이용하여 제2 미디어 플랫폼 장치에 접속하여 메타 데이터 요청을 전송한다. 여기서, 메타 데이터 요청은 당해 서비스 대상 콘텐츠에 상응하는 프로그램 식별정보(PID)를 포함할 수 있다.In operation 615, the first media platform apparatus accesses the second media platform apparatus using the preset access information and transmits a metadata request. Here, the metadata request may include program identification information (PID) corresponding to the service target content.

단계 620에서 제2 미디어 플랫폼 장치는 메타 데이터 요청이 수신되면, 해당 메타 데이터 요청에서 프로그램 식별정보를 추출하고, 추출된 프로그램 식별정보에 상응하는 콘텐츠 및 메타 데이터를 데이터베이스로부터 추출한다.In operation 620, when the metadata request is received, the second media platform apparatus extracts program identification information from the metadata request, and extracts content and metadata corresponding to the extracted program identification information from the database.

이어, 단계 625에서 제2 미디어 플랫폼 장치는 추출된 콘텐츠를 미리 설정된 T 범위 이내에서 프레임 단위로 분석하여 제2 장면 변환 정보를 생성한다. 제2 장면 변환 정보 또한, 전술한 바와 같이, 추출된 콘텐츠의 전체 프레임을 대상으로 분석/생성될 수 있다.In operation 625, the second media platform apparatus analyzes the extracted content in units of frames within a preset T range to generate second scene transformation information. As described above, the second scene transformation information may be analyzed / generated for all frames of the extracted content.

그리고, 단계 630에서 제2 미디어 플랫폼 장치는 제2 장면 변환 정보와 메타 데이터를 함께 제1 미디어 플랫폼 장치로 전송한다. 제2 장면 변환 정보를 생성하는 방법은 이미 전술한 바와 동일하므로 중복되는 설명은 생략하기로 한다.In operation 630, the second media platform apparatus transmits the second scene transformation information and the metadata together to the first media platform apparatus. Since the method of generating the second scene transformation information is the same as described above, overlapping description will be omitted.

여기서, 메타 데이터는 전술한 바와 같이, 프로그램 식별정보 및 부가 정보 를 포함할 수 있다.Here, the meta data may include program identification information and additional information as described above.

단계 635에서 제1 미디어 플랫폼 장치는 제1 장면 변환 정보 및 제2 장면 변환 정보를 이용하여 영상에 대한 상관도를 각각 분석하고 상관도가 가장 높은 영상 세트를 선정한다.In operation 635, the first media platform apparatus analyzes correlations of the images using the first scene transformation information and the second scene transformation information, and selects the image set having the highest correlation.

예를 들어, 제1 장면 변환 정보 및 제2 장면 변환 정보 각각에 포함된 각각의 영상에 대한 밝기 성분의 히스토그램을 계산하고, 계산된 히스토그램의 평균 제곱 오차를 각각 산출하여 평균 제곱 오차가 최소인 영상 쌍을 상관도가 가장 높은 영상 세트로써 선정할 수 있다.For example, the histogram of the brightness component for each image included in each of the first scene transformation information and the second scene transformation information is calculated, and the average square error of the calculated histogram is calculated, respectively, so that the average square error is the minimum. The pair can be selected as the image set with the highest correlation.

단계 640에서 제1 미디어 플랫폼 장치는 선정된 영상 세트를 이용하여 보정 간격을 계산한다.In operation 640, the first media platform apparatus calculates a correction interval using the selected image set.

보다 상세하게 제1 미디어 플랫폼 장치는 선정된 영상 세트를 이용하여 서비스 대상 콘텐츠의 프레임간의 시간 간격을 계산하고, 이를 보정 간격으로써 설정할 수 있다.In more detail, the first media platform apparatus may calculate a time interval between frames of the service target content using the selected image set, and set it as a correction interval.

단계 645에서 제1 미디어 플랫폼 장치는 계산된 보정 간격을 이용하여 메타 데이터가 서비스 대상 콘텐츠에 표시될 위치를 보정한다. 보다 상세하게 제1 미디어 플랫폼 장치는 메타 데이터에 포함된 부가 정보가 서비스 대상 콘텐츠에 표시될 위치를 보정 간격을 이용하여 보정할 수 있다.In operation 645, the first media platform apparatus corrects the position where the metadata is to be displayed on the service target content by using the calculated correction interval. In more detail, the first media platform device may correct the position where the additional information included in the metadata is to be displayed on the service target content using the correction interval.

도 7은 본 발명의 다른 실시예에 따른 콘텐츠를 동기화하는 방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method of synchronizing contents according to another embodiment of the present invention.

단계 710에서 제1 미디어 플랫폼 장치는 프로그램 식별정보를 포함하는 메타 데이터 요청을 제2 미디어 플랫폼 장치로 전송한다.In operation 710, the first media platform device transmits a metadata request including program identification information to the second media platform device.

예를 들어, 제1 미디어 플랫폼 장치는 미리 설정된 접속정보를 이용하여 제2 미디어 플랫폼 장치에 접속할 수 있다. 이어, 제1 미디어 플랫폼 장치는 프로그램 식별정보를 포함하는 메타 데이터 요청을 제2 미디어 플랫폼 장치로 전송할 수 있다.For example, the first media platform device may access the second media platform device using preset access information. Subsequently, the first media platform device may transmit a metadata request including program identification information to the second media platform device.

여기서, 제1 미디어 플랫폼 장치는 서비스 대상 콘텐츠에 상응하여 미리 설정된 일정 간격의 프레임에 상응하는 메타 데이터를 요청할 수 있다.Here, the first media platform device may request metadata corresponding to a frame at a predetermined interval corresponding to the service target content.

단계 715에서 제2 미디어 플랫폼 장치는 메타 데이터 요청에 포함된 프로그램 식별정보를 추출하고, 해당 프로그램 식별정보에 매핑된 메타 데이터를 추출한다.In operation 715, the second media platform apparatus extracts program identification information included in the metadata request and extracts metadata mapped to the program identification information.

여기서, 메타 데이터는 프로그램 식별정보, 북마크 위치, 북마크 위치 영상 및 부가 정보를 포함할 수 있다. 또한, 북마크 위치는 해당 메타 데이터에 포함된 부가 정보가 표시될 위치에 대한 시간 정보일 수 있다. Here, the meta data may include program identification information, bookmark location, bookmark location image, and additional information. In addition, the bookmark location may be time information regarding a location where additional information included in corresponding metadata is to be displayed.

또한, 북마크 위치 영상은 해당 메타 데이터에 포함된 부가 정보가 표시될 프레임에 상응하는 썸네일 영상일 수 있다.In addition, the bookmark location image may be a thumbnail image corresponding to a frame in which additional information included in corresponding metadata is to be displayed.

단계 720에서 제2 미디어 플랫폼 장치는 메타 데이터를 전송한다.In operation 720, the second media platform device transmits metadata.

단계725에서 제1 미디어 플랫폼 장치는 메타 데이터를 수신받고, 해당 메타 데이터에 포함된 북마크 위치를 이용하여 서비스 대상 콘텐츠의 프레임과 북마크 위치 영상의 상관도를 분석하여 상관도가 가장 높은 프레임을 선정할 수 있다.In operation 725, the first media platform device receives the metadata and analyzes the correlation between the frame of the service content and the bookmark location image using the bookmark location included in the metadata to select the frame having the highest correlation. Can be.

예를 들어, 제1 미디어 플랫폼 장치는 수신된 메타 데이터에 포함된 북마크 위치를 이용하여 분석 대상 범위를 설정할 수 있다. 여기서, 분석 대상 범위는 북마크 위치를 전후로 하여 미리 설정된 일정 범위일 수 있다.For example, the first media platform device may set an analysis target range using a bookmark location included in the received metadata. Here, the analysis target range may be a predetermined range set before and after the bookmark position.

이어, 제1 미디어 플랫폼 장치는 서비스 대상 콘텐츠의 분석 대상 범위에 포함된 프레임들과 북마크 위치 영상과의 상관도를 분석하여 상관도가 가장 높은 프레임을 결정할 수 있다.Subsequently, the first media platform apparatus may determine a frame having the highest correlation by analyzing a correlation between the frames included in the analysis target range of the service target content and the bookmark location image.

단계 730에서 제1 미디어 플랫폼 장치는 선정된 프레임에 대한 타겟 시점을 결정한다. 여기서, 타겟 시점은 해당 선정된 프레임에 대한 시간 정보일 수 있다.In operation 730, the first media platform apparatus determines a target time point for the selected frame. Here, the target viewpoint may be time information on the selected frame.

단계 735에서 제1 미디어 플랫폼 장치는 타겟 시점을 이용하여 메타 데이터가 서비스 대상 콘텐츠에 표시될 위치를 보정한다.In operation 735, the first media platform apparatus corrects a position at which the metadata is to be displayed on the service target content using the target viewpoint.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.

도 1은 본 발명의 실시예에 따른 콘텐츠를 동기화하는 시스템의 구성을 개략적으로 도시한 도면.1 is a diagram schematically showing the configuration of a system for synchronizing content according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 제1 미디어 플랫폼 장치의 내부 구성을 개략적으로 도시한 블록도.2 is a block diagram schematically illustrating an internal configuration of a first media platform device according to an embodiment of the present invention;

도 3은 본 발명의 실시예에 따른 제2 미디어 플랫폼 장치의 내부 구성을 개략적으로 도시한 블록도.3 is a block diagram schematically illustrating an internal configuration of a second media platform device according to an embodiment of the present invention;

도 4는 본 발명의 다른 실시예에 따른 제1 미디어 플랫폼 장치의 내부 구성을 개략적으로 도시한 블록도.4 is a block diagram schematically illustrating an internal configuration of a first media platform device according to another embodiment of the present invention.

도 5는 본 발명의 다른 실시예에 따른 제2 미디어 플랫폼 장치의 내부 구성을 개략적으로 도시한 블록도.5 is a block diagram schematically illustrating an internal configuration of a second media platform apparatus according to another embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 콘텐츠를 동기화하는 방법을 나타낸 흐름도.6 is a flowchart illustrating a method for synchronizing content according to an embodiment of the present invention.

도 7은 본 발명의 다른 실시예에 따른 콘텐츠를 동기화하는 방법을 나타낸 흐름도.7 is a flowchart illustrating a method for synchronizing content according to another embodiment of the present invention.

Claims (16)

미디어 플랫폼 장치가 콘텐츠를 동기화하는 방법에 있어서,A method for synchronizing content by a media platform device, (a) 서비스 대상 콘텐츠를 프레임 단위로 분석하여 제1 장면 변환 정보를 생성하는 단계-상기 제1 장면 변환 정보는 장면 변환 위치에 상응하는 영상 및 시간을 포함함;(a) analyzing the service target content on a frame-by-frame basis to generate first scene transformation information, wherein the first scene transformation information includes an image and time corresponding to the scene transformation position; (b) 미리 설정된 접속정보를 이용하여 다른 미디어 플랫폼 장치로부터 상기 서비스 대상 콘텐츠에 부속된 부가 정보를 포함하는 메타 데이터 및 복수의 제2 장면 변환 정보를 획득하는 단계;(b) obtaining meta data including additional information attached to the service target content and a plurality of second scene transformation information from another media platform apparatus using preset connection information; (c) 상기 제1 장면 변환 정보 및 상기 복수의 제2 장면 변환 정보에 각각 포함된 영상에 대해 상관도를 분석하여 상관도가 높은 영상 세트를 선정하는 단계;(c) selecting a set of highly correlated images by analyzing correlations with respect to images included in the first scene transformation information and the plurality of second scene transformation information, respectively; (d) 상기 선정된 영상 세트를 이용하여 보정 간격을 계산하는 단계; 및(d) calculating a correction interval using the selected image set; And (e) 상기 계산된 보정 간격을 이용하여 상기 메타 데이터가 상기 서비스 대상 콘텐츠에 표시될 위치를 보정하는 단계를 포함하는 콘텐츠 동기화 방법.(e) correcting a position at which the metadata is to be displayed on the content to be serviced using the calculated correction interval. 제1 항에 있어서,The method according to claim 1, (a) 단계는,(a) step, 상기 서비스 대상 콘텐츠의 프레임의 전 또는 후 프레임의 밝기 성분에 대한 히스토그램을 산출하는 단계;Calculating a histogram of brightness components of a frame before or after a frame of the content to be serviced; 상기 산출된 히스토그램에 대한 평균 제곱 오차(MSE: Mean Squared Error)를 계산하여 임계치 미만인 경우 장면 변환 후보로써 선정하는 단계;Calculating a mean squared error (MSE) of the calculated histogram and selecting the scene transformation candidate when the mean squared error is less than a threshold; 상기 장면 변환 후보로 선정된 프레임의 전 또는 후 프레임과의 차영상을 산출하는 단계;Calculating a difference image with a frame before or after a frame selected as the scene conversion candidate; 상기 차영상의 전체 픽셀값이 임계치를 초과하는 경우 프레임을 장면 변환 위치로 결정하는 단계;Determining a frame as a scene change position when the total pixel value of the difference image exceeds a threshold; 상기 장면 변환 위치로 결정된 프레임을 키 프레임으로 선정하고, 키 프레임에 상응하는 영상을 생성하는 단계; 및Selecting a frame determined as the scene change position as a key frame and generating an image corresponding to the key frame; And 상기 영상 및 키 프레임에 상응하는 시간을 포함하는 상기 제1 장면 변환 정보를 생성하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 동기화 방법.Generating the first scene transformation information comprising a time corresponding to the image and a key frame. 제2 항에 있어서,The method of claim 2, (a1) 내지 (a4) 단계는 장면 변환 위치로 결정된 최초 프레임을 기준으로 T(T는 실수임) 범위 이내에서 프레임 단위로 수행되며,Steps (a1) to (a4) are performed in units of frames within a range of T (T is a real number) based on the first frame determined as the scene change position. 상기 제2 장면 변환 정보는 최초 프레임을 기준으로 T 범위 이내에서 프레임 단위에 상응하는 장면 변환 위치에 대한 프레임에 대한 영상을 포함하는 것을 특징으로 하는 콘텐츠 동기화 방법.And the second scene change information includes an image of a frame for a scene change position corresponding to a frame unit within a T range based on the first frame. 제1 항에 있어서,The method according to claim 1, (c) 단계는,(c) step, 상기 제1 장면 변환 정보 및 상기 제2 장면 변환 정보에 포함된 각각의 영상을 픽셀 단위의 차이가 최소인 영상 세트를 상관도가 가장 높은 영상 세트로써 선정하는 단계인 것을 포함하는 것을 특징으로 하는 콘텐츠 동기화 방법.And selecting each image included in the first scene transformation information and the second scene transformation information as an image set having the highest correlation with each other. Synchronization method. 제4 항에 있어서,5. The method of claim 4, 상기 영상 세트는 상기 제1 장면 변환 정보에 포함된 임의의 영상 및 상기 제2 장면 변환 정보에 포함된 임의의 영상의 쌍이며,The image set is a pair of any image included in the first scene transformation information and an image included in the second scene transformation information, 상기 제1 장면 변환 정보 및 상기 제2 장면 변환 정보에 포함된 최초 장면 변환 위치에 상응하는 영상은 미포함되는 것을 특징으로 하는 콘텐츠 동기화 방법.And an image corresponding to an initial scene change position included in the first scene change information and the second scene change information is not included. 제5 항에 있어서,6. The method of claim 5, (d) 단계는,(d) step, 상기 영상 세트에 포함된 상기 제1 장면 변환 정보에 상응하는 영상과 최초 장면 변환 위치에 상응하는 영상간의 시간 간격을 계산하여 상기 보정 간격으로써 설정하는 단계인 것을 특징으로 하는 콘텐츠 동기화 방법.And calculating a time interval between an image corresponding to the first scene change information included in the image set and an image corresponding to an initial scene change position and setting the time interval as the correction interval. 미디어 플랫폼 장치가 콘텐츠를 동기화하는 방법에 있어서,A method for synchronizing content by a media platform device, (aa) 미리 설정된 접속정보를 이용하여 다른 미디어 플랫폼 장치로부터 서비스 대상 콘텐츠에 상응하는 메타 데이터를 요청하여 획득하는 단계-상기 메타 데이터는 프로그램 식별정보, 북마크 위치, 북마크 위치에 대한 북마크 위치 영상 및 부가 정보를 포함함;(aa) requesting and acquiring metadata corresponding to the service target content from another media platform device using preset access information, wherein the metadata is added to program identification information, bookmark location, bookmark location image for bookmark location and addition; Includes information; (bb) 상기 북마크 위치를 기준으로 일정 범위 이내의 상기 서비스 대상 콘텐츠의 각 프레임을 대상으로 북마크 위치 영상에 대한 상관도가 가장 높은 프레임을 선정하여 타겟 시점을 결정하는 단계; 및(bb) determining a target viewpoint by selecting a frame having the highest correlation with a bookmark location image for each frame of the service target content within a predetermined range based on the bookmark location; And (cc) 상기 타겟 시점을 이용하여 부가 정보가 상기 서비스 대상 콘텐츠에 표시될 위치를 보정하는 단계를 포함하는 콘텐츠 동기화 방법.(cc) correcting a position at which additional information is to be displayed on the service target content using the target viewpoint. 제7 항에 있어서,8. The method of claim 7, (aa) 내지 (bb) 단계는 복수회 반복 수행되며,Step (aa) to (bb) is repeated a plurality of times, 상기 타겟 시점이 복수개인 경우, (cc) 단계는 복수의 타겟 시점의 평균값을 이용하여 상기 부가 정보가 상기 서비스 대상 콘텐츠에 표시될 위치를 보정하는 것을 특징으로 하는 콘텐츠 동기화 방법.And in the case where there are a plurality of target viewpoints, step (cc) corrects a position at which the additional information is to be displayed on the service target content by using an average value of a plurality of target viewpoints. 제7 항에 있어서,8. The method of claim 7, (bb) 단계는, (bb) step, 일정 범위 이내의 상기 서비스 대상 콘텐츠의 프레임과 상기 북마크 위치 영상 각각에 대한 픽셀 단위로 차이를 산출하는 단계;Calculating a difference in pixel units for each of the frame of the service target content and the bookmark location image within a predetermined range; 상기 차이가 최소인 프레임을 상기 북마크 위치 영상에 대한 상관도가 가장 높은 프레임으로 선정하는 단계; 및Selecting a frame having the smallest difference as a frame having the highest correlation with the bookmark location image; And 상기 상관도가 가장 높은 프레임의 위치를 상기 타겟 시점으로 결정하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 동기화 방법.Determining the position of the frame having the highest correlation as the target viewpoint. 제7 항에 있어서,8. The method of claim 7, (aa) 단계는,(aa) step, 상기 미리 설정된 접속 정보 및 상기 서비스 대상 콘텐츠에 상응하는 프로그램 식별정보를 포함하는 메타 데이터 전송 요청을 상기 다른 미디어 플랫폼 장치로 전송하는 단계; 및Transmitting a metadata transmission request including the preset access information and program identification information corresponding to the service target content to the other media platform device; And 상기 다른 미디어 플랫폼 장치로부터 상기 프로그램 식별 정보에 상응하는 메타 데이터를 획득하는 단계를 포함하는 것을 특징으로 하는 콘텐츠 동기화 방법.Acquiring metadata corresponding to the program identification information from the other media platform device. 서비스 대상 콘텐츠를 동기화하는 미디어 플랫폼 장치에 있어서,A media platform device for synchronizing serviced content, 상기 서비스 대상 콘텐츠를 프레임 단위로 분석하여 제1 장면 변환 정보를 생성하는 정보 생성부-상기 제1 장면 변환 정보는 장면 변환 위치에 상응하는 복수의 영상 및 시간을 포함함;An information generator configured to analyze the service target content on a frame-by-frame basis to generate first scene transformation information, wherein the first scene transformation information includes a plurality of images and times corresponding to the scene transformation position; 미리 설정된 접속정보를 이용하여 다른 미디어 플랫폼 장치로부터 상기 서비스 대상 콘텐츠에 부속된 부가 정보를 포함하는 메타 데이터 및 제2 장면 변환 정보를 획득하는 정보 획득부;An information obtaining unit obtaining metadata and second scene transformation information including additional information attached to the service target content from another media platform apparatus using preset connection information; 상기 제1 장면 변환 정보 및 상기 제2 장면 변환 정보에 각각 포함된 영상에 대해 상관도를 분석하여 상관도가 높은 영상 세트를 선정하는 상관도 분석부; 및A correlation analysis unit configured to analyze a correlation between the images included in the first scene transformation information and the second scene transformation information, and to select a high correlation image set; And 상기 선정된 영상 세트를 이용하여 보정 간격을 계산하며, 상기 계산된 보정 간격을 이용하여 상기 메타 데이터가 상기 서비스 대상 콘텐츠에 표시될 위치를 보정하는 보정부를 포함하는 미디어 플랫폼 장치.And a correction unit configured to calculate a correction interval using the selected image set, and to correct a position at which the metadata is to be displayed on the content to be serviced using the calculated correction interval. 제11 항에 있어서,12. The method of claim 11, 상기 정보 생성부는,The information generation unit, 상기 서비스 대상 콘텐츠의 프레임의 전 또는 후 프레임과의 차영상을 생성하며, 상기 차영상의 전체 픽셀값이 임계치를 초과하는 경우 프레임을 장면 변환 위치로 결정하고, 상기 장면 변환 위치로 결정된 프레임을 키 프레임으로 선정하고, 상기 키 프레임에 상응하는 영상을 생성하며, 상기 영상 및 키 프레임에 상응하는 시간을 포함하는 상기 제1 장면 변환 정보를 생성하는 것을 특징으로 하는 미 디어 플랫폼 장치.A difference image is generated with a frame before or after the frame of the service target content. When the total pixel value of the difference image exceeds a threshold, the frame is determined as a scene change position, and the frame determined as the scene change position is a key. Selecting a frame, generating an image corresponding to the key frame, and generating the first scene transformation information including a time corresponding to the image and the key frame. 제11 항에 있어서,12. The method of claim 11, 상기 정보 분석부는, The information analysis unit, 장면 변환 위치로 결정된 최초 프레임을 기준으로 T(T는 실수임) 범위 이내에서 프레임 단위로 분석하여 상기 제1 장면 변환 정보를 생성하는 것을 특징으로 하는 미디어 플랫폼 장치.And generating the first scene transformation information by analyzing frame units within a range of T (T is a real number) based on the first frame determined as the scene transformation position. 제13 항에 있어서,The method of claim 13, 상기 제2 장면 변환 정보는 최초 프레임을 기준으로 T 범위 이내에서 프레임 단위에 상응하는 장면 변환 위치에 대한 프레임에 대한 복수의 영상을 포함하는 것을 특징으로 하는 미디어 플랫폼 장치.And the second scene transformation information includes a plurality of images of a frame for a scene transformation position corresponding to a frame unit within a T range based on the first frame. 서비스 대상 콘텐츠를 동기화하는 미디어 플랫폼 장치에 있어서,A media platform device for synchronizing serviced content, 미리 설정된 접속정보를 이용하여 다른 미디어 플랫폼 장치로부터 서비스 대상 콘텐츠에 상응하는 메타 데이터를 요청하여 획득하는 정보 획득부-상기 메타 데이터는 프로그램 식별정보, 북마크 위치, 북마크 위치에 대한 북마크 위치 영상 및 부가 정보를 포함함;An information acquisition unit for requesting and obtaining metadata corresponding to the service target content from another media platform device using preset access information. The metadata includes program identification information, bookmark location, bookmark location image for bookmark location, and additional information. It includes; 상기 북마크 위치를 기준으로 일정 범위 이내의 상기 서비스 대상 콘텐츠의 각 프레임을 대상으로 상기 북마크 위치 영상에 대한 상관도가 가장 높은 프레임을 선정하여 타겟 시점을 결정하는 상관도 분석부; 및A correlation analysis unit that determines a target viewpoint by selecting a frame having the highest correlation with respect to the bookmark location image for each frame of the service target content within a predetermined range based on the bookmark location; And 상기 타겟 시점을 이용하여 부가 정보가 상기 서비스 대상 콘텐츠에 표시될 위치를 보정하는 보정부를 포함하는 미디어 플랫폼 장치.And a correction unit configured to correct a position at which additional information is to be displayed on the service target content by using the target viewpoint. 제15 항에 있어서,The method of claim 15, 상기 정보 획득부는 복수회 반복하여 북마크 위치에 상응하는 메타 데이터를 각각 획득하며,The information acquisition unit repeatedly acquires metadata corresponding to the bookmark position by repeating a plurality of times, 상기 상관도 분석부는 각각 획득된 메타 데이터에 상응하여 각각의 타겟 시점을 결정하되,The correlation analyzer determines each target time point corresponding to the obtained metadata, 상기 타겟 시점이 복수개인 경우, 상기 보정부는 복수의 타겟 시점의 평균값을 이용하여 부가 정보가 서비스 대상 콘텐츠에 표시될 위치를 보정하는 것을 특징으로 하는 콘텐츠 동기화 방법.And a plurality of target viewpoints, wherein the correction unit corrects a position at which additional information is to be displayed on service target content using an average value of a plurality of target viewpoints.
KR1020090119340A 2009-12-03 2009-12-03 Content Synchronization Method and Device KR101061992B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090119340A KR101061992B1 (en) 2009-12-03 2009-12-03 Content Synchronization Method and Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090119340A KR101061992B1 (en) 2009-12-03 2009-12-03 Content Synchronization Method and Device

Publications (2)

Publication Number Publication Date
KR20110062574A true KR20110062574A (en) 2011-06-10
KR101061992B1 KR101061992B1 (en) 2011-09-05

Family

ID=44396740

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090119340A KR101061992B1 (en) 2009-12-03 2009-12-03 Content Synchronization Method and Device

Country Status (1)

Country Link
KR (1) KR101061992B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013162335A1 (en) * 2012-04-26 2013-10-31 한국전자통신연구원 Image playback apparatus for 3dtv and method performed by the apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013162335A1 (en) * 2012-04-26 2013-10-31 한국전자통신연구원 Image playback apparatus for 3dtv and method performed by the apparatus

Also Published As

Publication number Publication date
KR101061992B1 (en) 2011-09-05

Similar Documents

Publication Publication Date Title
JP6588053B2 (en) Method and apparatus for annotating point cloud data
CN105915953B (en) Method, device, system, server and storage medium for live video identification
CN102467661B (en) Multimedia device and method for controlling the same
JP2021530927A (en) Establishing and using interpolation-based time mapping with low-rate fingerprinting to help facilitate frame-accuracy content correction
Chen et al. Building book inventories using smartphones
US20230376490A1 (en) Voice query refinement to embed context in a voice query
CN106708951B (en) The client image of ownership certification is supported to obscure De-weight method
CN105162894B (en) Device identification acquisition methods and device
US20180232845A1 (en) Detecting Multiple Parts of a Screen to Fingerprint to Detect Abusive Uploading Videos
US20120331514A1 (en) Method and apparatus for providing image-associated information
KR20120001847A (en) System and method for searching image
KR20110063989A (en) Video object detection apparatus and method thereof
US20170155915A1 (en) Image transmission device, image transmission method, and image transmission program
CN107613491B (en) Method and apparatus for obtaining password information of wireless access point using augmented reality
CN109408671A (en) The searching method and its system of specific objective
KR101061992B1 (en) Content Synchronization Method and Device
CN111013131A (en) Delayed data acquisition method, electronic device, and storage medium
US11470388B2 (en) Method and apparatus for preventing forgery of data, method and apparatus for detecting forgery of data
CN109859092A (en) Information concealing method, device, equipment and computer readable storage medium
CN106778449B (en) Object identification method of dynamic image and interactive film establishment method for automatically capturing target image
CN106709315B (en) Login information verification method and device of application system
KR101980444B1 (en) Augmented Reality Server and System and its Method, and Recording Medium thereof
US20150370875A1 (en) Content creation method, content registration method, devices and corresponding programs
CN111353133A (en) Image processing method, device and readable storage medium
CN112767348B (en) Method and device for determining detection information

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140730

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160930

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee