KR101803275B1 - 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치 - Google Patents

영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치 Download PDF

Info

Publication number
KR101803275B1
KR101803275B1 KR1020160076441A KR20160076441A KR101803275B1 KR 101803275 B1 KR101803275 B1 KR 101803275B1 KR 1020160076441 A KR1020160076441 A KR 1020160076441A KR 20160076441 A KR20160076441 A KR 20160076441A KR 101803275 B1 KR101803275 B1 KR 101803275B1
Authority
KR
South Korea
Prior art keywords
image
tracking
coordinate
server
point
Prior art date
Application number
KR1020160076441A
Other languages
English (en)
Inventor
유성훈
진성민
Original Assignee
(주)핑거플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)핑거플러스 filed Critical (주)핑거플러스
Priority to KR1020160076441A priority Critical patent/KR101803275B1/ko
Priority to PCT/KR2017/006108 priority patent/WO2017222225A1/ko
Application granted granted Critical
Publication of KR101803275B1 publication Critical patent/KR101803275B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2542Management at additional data server, e.g. shopping server, rights management server for selling goods, e.g. TV shopping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치가 개시된다. 본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 서버에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서, 상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하는 단계; 추출된 영상화면을 좌표 입력자 장치로 전송하는 단계; 및 상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 단계로서, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터인, 트래킹 데이터를 수신하는 단계를 포함할 수 있다.

Description

영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치{PREPROCESSING METHOD OF VIDEO CONTENTS FOR TRACKING LOCATION OF MERCHANDISE AVAILABLE TO MATCH WITH OBJECT INCLUDED IN THE VIDEO CONTETNS, SERVER AND COORDINATE KEYBORDER DEVICE IMPLEMENTING THE SAME}
본 발명의 다양한 실시예들은 영상 컨텐츠의 전처리 방법에 관한 것으로서, 보다 구체적으로 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 미리 설정하도록 영상 컨텐츠를 전처리하는 기술에 관한 것이다.
최근 인터넷 포털 사이트의 통계에 의하면, 사람들은 인터넷 포털 사이트에서 방송 또는 연예와 관련된 키워드를 가장 많이 검색하는 것으로 알려져 있다. 이러한 방송 또는 연예와 관련된 검색이 가장 많이 이루어진 이유는 방송 컨텐츠에 대한 회자성이라는 속성, 방송 컨텐츠의 영향력, 그리고 방송 컨텐츠에 대한 사람들의 관심에 따른 결과라고 볼 수 있다.
시청자들은 방송 컨텐츠 시청할 때 방송 컨텐츠 자체에 대한 스토리에 먼저 집중하고, 이후 이러한 스토리를 수용함에 따라 스토리 외적인 요소에 대한 궁금증이 생성된다. 즉, 시청자들은 드라마와 같은 방송 컨텐츠 상에서 노출되는 연기자의 착용 상품 또는 연기자의 스타일에 관심을 갖게 된다.
한편, 방송사에서는 프로그램의 회자성 및 추가적 수익 레이어를 구축하고자 PPL 등의 협찬을 진행하고 있으며, 나아가 OTT 사업자 등과 연계하여 영상 컨텐츠 내에서 노출되는 장면에 상품 정보를 삽입하여 시청자들로 하여금 해당 상품 정보를 인식할 수 있도록 하는 서비스가 점차 제공되고 있는 실정이다.
한국 등록특허공보 제10-1519021호
종래 PPL 등과 같은 간접광고를 포함하는 영상 컨텐츠는 시청자가 광고의 대상이 되는 상품을 웹 검색 등을 통해 별도로 찾아보아야 한다는 불편함이 있다.
특히, 영상 컨텐츠 시청 중에는 관심있는 상품이 있더라도 스토리 자체에 집중해야 하기 때문에 영상 컨텐츠의 시청이 종료된 이후에 해당 상품을 검색하는 경우가 대부분이다. 이러한 경우, 해당 상품에 대한 정보가 정확하게 기억나지 않아 추상적인 검색 키워드 등을 통해 복잡한 검색 과정을 거쳐야 한다는 단점이 있다.
한편, 영상 컨텐츠에 대하여 상품관련 정보를 부가하는 경우, 영상 컨텐츠의 특정 구간 내에서 상품관련 정보에 매칭되는 오브젝트가 실시간으로 이동함에 따라, 해당 오브젝트를 보다 효과적으로 트래킹하기 위한 전처리 작업이 필요한 실정이다.
본 발명의 다양한 실시예는 상기와 같은 문제점들을 해결하기 위해 안출된 건으로서, 보다 효율적으로 영상 컨텐츠에 포함된 오브젝트와 매칭 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법을 제공하는데 그 목적이 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 서버에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서, 상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하는 단계; 추출된 영상화면을 좌표 입력자 장치로 전송하는 단계; 및 상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 단계로서, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터인, 트래킹 데이터를 수신하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법에서, 상기 영상화면을 추출하는 단계는, 상기 영상 컨텐츠의 재생 및 캡쳐 기능을 제공하는 영상 캡쳐 툴을 상기 상품 기획자 장치를 통해 출력하는 단계; 상기 상품 기획자 장치로부터 상기 영상 캡쳐 툴을 이용한 캡쳐 입력에 응답하여 하나 이상의 캡쳐화면을 출력하는 단계; 상기 상품 기획자 장치로부터 수신되는 입력을 통해 상기 캡쳐화면의 특정 위치를 표시하는 상기 좌표 포인트를 설정하는 단계; 및 상기 좌표 포인트가 설정된 캡쳐화면을 상기 영상화면으로서 추출하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 상기 좌표 포인트 및 상기 영상화면 중 적어도 하나와 관련된 부가정보를 생성하는 단계; 및 생성된 부가정보를 상기 좌표 입력자 장치로 전송하는 단계를 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법에서, 상기 부가정보는, 상기 영상 컨텐츠에서 상기 영상화면의 재생시점 정보, 상기 좌표 포인트의 종류 및 상기 좌표 포인트에 매핑될 상품 정보 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법에서, 상기 영상화면을 추출하는 단계는 상기 영상 컨텐츠에서 좌표 포인트가 포함된 복수의 영상화면을 추출하는 단계를 포함하고, 상기 추출된 영상화면을 좌표 입력자 장치로 전송하는 단계는 자동으로 상기 복수의 영상화면을 복수의 좌표 입력자 장치로 분산하여 전송하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법에서 상기 트래킹 데이터를 수신하는 단계는, 상기 트래킹 데이터에 대하여 상기 상품 기획자 장치를 통해 상기 좌표 제공자에게 검수를 요청하는 단계; 상기 트래킹 데이터에 대하여 상기 상품 기획자 장치를 통해 입력된 승인 응답 또는 승인거절 응답을 상기 좌표 입력자 장치로 전송하는 단계; 및 상기 좌표 입력자 장치로부터 상기 승인 응답이 전송되는 경우, 상기 좌표 입력자 장치로부터 수신된 트래킹 데이터를 저장하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 상기 영상 컨텐츠에서 상기 트래킹 데이터에 해당하는 영상 구간을 그룹핑하는 단계를 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 서버는 영상 컨텐츠의 전처리 기능을 수행하는 서버로서, 상품 기획자 장치 또는 적어도 하나의 좌표 입력자 장치와 상기 서버를 연결하는 통신부; 상기 상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하고, 추출된 영상화면을 상기 좌표 입력자 장치로 전송하는 영상화면 관리부; 및 상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 트래킹 관리부를 포함하며, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터일 수 있다.
본 발명의 다양한 실시예에 따른 영상 컨텐츠의 전처리 방법은 좌표 입력자 장치에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서, 서버로부터 좌표 포인트가 포함된 영상화면을 수신하는 단계; 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정하는 단계로서, 상기 트래킹 포인트는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 것인, 트래킹 포인트를 설정하는 단계; 및 상기 하나 이상의 오브젝트에 대하여 상기 트래킹 포인트가 설정된 트래킹 데이터를 상기 서버로 전송하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 좌표 입력자 장치를 통해 영상 컨텐츠의 전처리를 수행하는 방법에서, 상기 트래킹 데이터를 상기 서버로 전송하는 단계는, 상기 트래킹 데이터에 대하여 상기 서버로 검수를 요청하는 단계; 상기 서버로부터 상기 트래킹 데이터의 검수요청에 대한 승인 응답 또는 승인거절 응답을 수신하는 단계; 및 상기 서버로부터 상기 승인 응답이 수신되는 경우, 상기 트래킹 데이터를 상기 서버에 업로드하는 단계를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 좌표 입력자 장치를 통해 영상 컨텐츠의 전처리를 수행하는 방법은 상기 영상 컨텐츠에서 상기 트래킹 데이터에 해당하는 영상 구간을 그룹핑하는 단계를 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 좌표 입력자 장치는 영상 컨텐츠의 전처리 기능을 수행하는 좌표 입력자 장치로서, 메모리; 상기 좌표 입력자 장치를 서버와 연결하도록 구성된 통신 모듈; 및 상기 메모리 및 상기 통신 모듈과 전기적으로 연결되는 프로세서를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 서버로부터 좌표 포인트가 포함된 영상화면을 수신하고, 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정하며, 상기 하나 이상의 오브젝트에 대하여 상기 트래킹 포인트가 설정된 트래킹 데이터를 상기 서버로 전송하도록 하는 인스트럭션들을 저장하고, 상기 트래킹 포인트는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정될 수 있다.
본 발명의 다양한 실시예에 따라 상품 기획자(merchandiser, MD) 장치에서 영상 컨텐츠의 좌표 포인트를 설정하고, 설정된 좌표 포인트를 기반으로 좌표 입력자 장치에서 트래킹 포인트를 설정한 트래킹 데이터를 생성함으로써, 상품의 위치를 트래킹하기 위한 영상 컨텐츠의 전처리 작업을 보다 효율적으로 수행할 수 있다는 효과가 있다.
또한, 본 발명의 다양한 실시예에 따라 서버에서 상품 기획자 장치가 좌표 포인트를 설정하기 위한 다양한 인터페이스를 제공함으로써, 상품 기획자가 영상 컨텐츠의 여러 영상화면에 적합한 광고대상의 상품 영역을 손쉽게 지정할 수 있다는 효과가 있다.
나아가, 본 발명의 다양한 실시예에 따라 서버 또는 좌표 입력자 장치에서 트래킹 데이터를 기반으로 동일 상품에 해당하는 영상구간을 그룹핑함으로써, 해당 영상 구간에 상품을 등록하고자 하는 사업자가 직관적으로 자신이 등록할 상품의 광고가치를 파악할 수 있다는 효과가 있다.
도 1은 본 발명의 다양한 실시예에 따른 영상 컨텐츠 전처리 시스템의 블록도이다.
도 2는 본 발명의 다양한 실시예에 따른 서버의 블록도이다.
도 3은 본 발명의 다양한 실시예에 따른 좌표 입력자 장치의 블록도이다.
도 4는 본 발명의 다양한 실시예에 따른 영상 컨텐츠 전처리 시스템에서 영상 컨텐츠의 전처리 과정을 수행하는 순서도이다.
도 5 내지 도 9는 본 발명의 다양한 실시예에 따른 서버에서 상품 기획자 장치를 통해 좌표 리스트를 생성하는 예시도이다.
도 10 내지 도 18은 본 발명의 다양한 실시예에 따른 좌표 입력자 장치에서 트래킹 데이터를 생성하는 동작을 나타내는 예시도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부 도면을 참조하여 영상 컨텐츠 전처리 시스템(10) 및 영상 컨텐츠의 전처리 방법에 대하여 설명하도록 한다.
도 1은 본 발명의 다양한 실시예에 따른 영상 컨텐츠 전처리 시스템(10)의 블록도이다.
영상 컨텐츠 전처리 시스템(10)은 상품 기획자 장치(100), 서버(200), 복수의 좌표 입력자 장치(300_1 내지 300_N) 및 네트워크(400)를 포함할 수 있다.
먼저, 상품 기획자 장치(100)는 네트워크(400)를 통해 서버(200)와 통신하여 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 설정하고, 설정된 위치를 기반으로 좌표 리스트를 생성하는 전자 장치이다. 이러한 상품 기획자 장치(100)는 좌표 입력자 장치(300)에서 수행되는 트래킹 데이터 생성 작업을 검수하는 기능을 수행할 수 있다.
몇몇 실시예에 따르면, 상품 기획자 장치(100)는 예컨대, 스마트폰(smartphone), 태블릿(tablet), 이동 전화기(mobile phone), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), PDA(personal digital assistant) 또는 웨어러블 장치(wearable device) 중 어느 하나일 수 있으나 이에 한정하는 것은 아니다.
도 2는 본 발명의 다양한 실시예에 따른 서버(200)의 블록도이다.
서버(200)는 상품 기획자 장치(100)가 좌표 리스트를 생성할 수 있도록 다양한 형태의 인터페이스를 지원하고, 생성된 좌표 리스트와 관련된 트래킹 작업을 적어도 하나의 좌표 입력자 장치(300)에 할당하는 기능을 수행할 수 있다. 또한, 서버(200)는 좌표 입력자 장치(300)로부터 수신된 트래킹 데이터를 저장/관리하거나 상품 기획자 장치(100)를 통해 트래킹 데이터의 검수 요청과 관련된 기능을 지원할 수 있다.
다양한 실시예에 따르면, 서버(200)는 통신부(210), 제어부(220), 영상 컨텐츠 관리부(221), 영상화면 관리부(223), 트래킹 관리부(225), 인터페이스 관리부(227) 및 저장부(230)를 포함할 수 있다. 한정되지 않는 실시예로서, 서버(200)는 도 2의 구성요소들 중 적어도 일부를 생략하거나 추가적인 구성요소를 더 구비할 수 있다.
통신부(210)는 서버(200)를 네트워크(400)를 통해 상품 기획자 장치(100) 또는 좌표 입력자 장치(300)와 통신연결 시킬 수 있다. 예를 들면, 상기 통신부(210)는 무선 통신 또는 유선 통신을 통해서 네트워크(400)에 연결되어 상품 기획자 장치(100)와 좌표 입력자 장치(300)간의 데이터 통신을 중개할 수 있다.
제어부(220)는 서버(200)의 전원공급 제어 등과 같은 전반적인 동작 및 서버(200)의 내부 구성 간의 신호 흐름을 제어하고 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 제어부(220)는 적어도 하나의 프로세서를 포함할 수 있고, 이러한 프로세서는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.
영상 컨텐츠 관리부(221)는 영상 컨텐츠의 수집 및 영상 컨텐츠의 분할과 관련된 기능을 수행할 수 있다. 다양한 실시예에 따르면, 영상 컨텐츠 관리부(221)는 영상 컨텐츠 프레임의 색상 정보 및 픽셀 패턴을 기반으로 화면이 전환되는 구간을 구획할 수 있다.
영상화면 관리부(223)는 상품 기획자 장치(100)를 통해 영상 컨텐츠에서 매핑 가능한 상품의 위치에 대하여 포인트 좌표를 설정한 영상화면을 추출하는 작업과 관련된 기능을 수행할 수 있다.
트래킹 관리부(225)는 좌표 입력자 장치(300)로부터 수신된 트래킹 데이터에 대하여 상품 기획자 장치(100)를 통해 수행되는 검수 작업과 관련된 기능을 수행할 수 있다.
인터페이스 관리부(227)는 포인트 좌표 설정과 관련된 인터페이스 또는 트래킹 데이터의 검수 기능과 관련된 인터페이스와 같이 영상 컨텐츠 전처리 기능 수행에 따라 발생되는 다양한 종류의 인터페이스를 지원할 수 있다.
저장부(230)는 제어부(220), 서버(200) 또는 영상 컨텐츠 전처리 시스템(10)의 다른 구성요소들로부터 수신되거나 생성된 데이터를 저장할 수 있다. 저장부(230)는 예를 들어, 메모리(memory), 캐시(cash), 버퍼(buffer) 등을 포함할 수 있으며, 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
다양한 실시예에 따르면, 저장부(230)는 컨텐츠 DB(231) 및 정보 DB(233)를 포함할 수 있다. 이러한 컨텐츠 DB(231) 및 정보 DB(233)는 저장부(230)상에서 구분되는 것으로 도시되어 있으나, 이에 한정하지 않으며, 하나의 모듈로서 구성될 수도 있다.
컨텐츠 DB(231)는 영상 컨텐츠 관리부(221)에서 수집된 영상 컨텐츠를 저장할 수 있다. 이 경우, 영상 컨텐츠는 영상 컨텐츠 원본 및/또는 상기 영상 컨텐츠의 화면전환 구간마다 구획되도록 가공된 영상 컨텐츠일 수 있다.
정보 DB(233)는 서버(200)에서 영상 컨텐츠 전처리 기능 수행에 따라 발생되거나 수집되는 다양한 종류의 데이터를 저장할 수 있다.
전술한 영상 컨텐츠 관리부(221), 영상화면 관리부(223), 트래킹 관리부(225) 및 인터페이스 관리부(227)는 서버(200)의 제어부(220)의 각 기능을 논리적으로 또는 기능적으로 분류한 구성일 수 있다. 따라서, 영상 컨텐츠 관리부(221), 영상화면 관리부(223), 트래킹 관리부(225) 및 인터페이스 관리부(227)와 제어부(220)는 하나의 모듈로서 구성될 수도 있다.
또한, 영상 컨텐츠 관리부(221), 영상화면 관리부(223), 트래킹 관리부(225), 인터페이스 관리부(227) 및 제어부(220)의 기능은 저장부(230, 예: 메모리)에 저장된 루틴, 명령어(instruction) 또는 프로그램의 형태로 구현될 수 있다.
나아가, 이러한 루틴, 명령어 또는 프로그램은 컴퓨터로 읽을 수 있는 저장매체에도 저장될 수 있다. 이러한 저장매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 저장매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD(Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치, 플래쉬 메모리 장치 등이 포함될 수 있다. 또한, 이러한 저장매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
도 3은 본 발명의 다양한 실시예에 따른 좌표 입력자 장치(300)의 블록도이다.
다양한 실시예에 따르면, 좌표 입력자 장치(300)는 서버(200)로부터 좌표 리스트를 수신하여 트래킹 데이터를 생성할 수 있고, 생성된 트래킹 데이터의 검수요청 및 업로드 동작을 수행할 수 있다.
다양한 실시예에 따르면, 좌표 입력자 장치(300)는 입력 모듈(310), 표시 모듈(320), 저장부(330), 오디오처리 모듈(340), 통신 모듈(350) 및 제어부(360)를 포함할 수 있다.
입력 모듈(310)은 숫자 또는 문자 정보를 입력 받을 수 있고, 다양한 기능을 설정하기 위한 다수의 입력 키 및 기능키들을 포함할 수 있다. 기능키들은 좌표 입력 어플리케이션(331) 실행에 따른 기능을 수행하도록 설정된 방향키, 사이드 키 및 단축키 등을 포함할 수 있다. 한정되지 않는 실시예에 따르면, 입력 모듈(310)는 터치스크린으로 구현될 수 있다.
표시 모듈(320)은 좌표 입력자 장치(300)에서 좌표 입력 어플리케이션(331)의 운용에 따라 발생하는 다양한 화면을 표시할 수 있다. 표시 모듈(320)은 디스플레이 모듈 또는 터치스크린 방식으로 구현될 수 있으며, 이러한 표시 모듈(320)은 터치스크린으로 구현되는 경우 표시 모듈(320)의 화면은 입력 모듈(310)로 동작될 수 있다.
저장부(330)는 제어부(360), 좌표 입력자 장치(300) 또는 영상 컨텐츠 전처리 시스템(10)의 다른 구성요소들로부터 수신되거나 생성된 데이터를 저장할 수 있다. 저장부(130)는 예를 들어, 메모리(memory), 캐시(cash), 버퍼(buffer) 등을 포함할 수 있다.
다양한 실시예에 따르면, 저장부(330)는 좌표 입력 어플리케이션(331)을 포함할 수 있다. 좌표 입력 어플리케이션(331)은 앱 스토어와 같은 오픈 마켓을 통해 다운로드 가능한 애플리케이션일 수 있으나, 이에 한정하는 것은 아니며 좌표 입력자 장치(300)에 내장된 홈 애플리케이션 형태로 구현될 수도 있다.
이러한 좌표 입력 어플리케이션(331)은 제어부(360) 또는 애플리케이션 프로세서(AP, 미도시)의 호출에 따라 로드되어 좌표 입력자 장치(300)의 각 구성을 통해 좌표 입력 또는 트래킹 데이터 생성과 관련된 기능을 수행할 수 있다.
그리고, 좌표 입력 어플리케이션(331)은 좌표 입력자 장치(300)의 제어부(360) 또는 어플리케이션 프로세서(AP)의 제어하에 기능을 수행할 수 있는 루틴, 명령어 또는 프로그램으로 구현될 수 있다.
뿐만 아니라, 상기 루틴, 명령어 또는 프로그램은 컴퓨터로 읽을 수 있는 저장매체에도 저장될 수 있다. 이러한 저장매체는 전술한 서버에서의 저장매체와 하드웨어/소프트웨어적으로 동일한 구성일 수 있다.
오디오처리 모듈(340)은 좌표 입력자 장치(300)의 좌표 입력 어플리케이션(331) 운용 과정에서 발생하는 다양한 오디오 신호(예: 트래킹 설정 알림음, 검수 승인/거절 알림음)를 처리하도록 구성될 수 있다.
통신 모듈(350)은 좌표 입력자 장치(300)와 외부 장치(예: 상품 기획자 장치(100) 또는 서버(200))간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 모듈(350)은 무선 통신 또는 유선 통신을 통해서 네트워크(400)에 연결되어 상기 외부 장치와 통신할 수 있다.
제어부(360)는 좌표 입력자 장치(300)의 전원공급 제어 등과 같은 전반적인 동작 및 좌표 입력자 장치(300)의 내부 구성 간의 신호 흐름을 제어하고 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(360)는 적어도 하나의 프로세서를 포함할 수 있다.
네트워크(400)는 통신 네트워크(telecommunications network)일 수 있다. 예를 들어, 상기 통신 네트워크는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things), 모바일 네트워크(mobile network) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있으나 이에 한정하는 것은 아니다.
도 4는 본 발명의 다양한 실시예에 따른 영상 컨텐츠 전처리 시스템(10)에서 영상 컨텐츠의 전처리 과정을 수행하는 순서도이다. 도 4에서 좌표 입력자 장치(300)는 설명의 편의상 하나로 도시되어 있으나, 본 발명의 다양한 실시예에서 좌표 입력자 장치(300)는 복수개로 구성될 수 있다.
또한, 도 4의 구체적인 설명을 위해 도 5 내지 도 18을 참조하여 설명하도록 한다. 도 5 내지 도 9는 서버(200)에서 상품 기획자 장치(100)를 통해 좌표 리스트를 생성하는 예시도이고, 도 10 내지 도 18은 좌표 입력자 장치(300)에서 트래킹 데이터를 생성하는 동작을 나타내는 예시도이다.
먼저, S405 단계에서 서버(200)는 화면전환 구간을 구획할 수 있다. 도 4에서 화면전환 구간의 구획 과정이 가장 먼저 수행되는 것으로 도시되나, 이러한 화면전환 구간의 구획 과정은 상품 기획자 장치(100)가 서버(200)에서 운용되는 웹 페이지로 접속한 후 영상 컨텐츠를 로딩하는 과정에서 이루어질 수도 있으며 특정 시점을 한정하는 것은 아니다. 화면전환 구간을 구획하는 과정은 후술할 좌표 리스트 생성, 좌표 입력 작업 및 동일상품에 해당하는 영상구간을 그룹핑하기 위해 전제되는 과정일 수 있다.
화면전환 구간을 구획하기 위한 다양한 실시예에 따르면, 서버(200)는 영상 컨텐츠를 로딩할 수 있다. 예를 들어, 서버(200)는 컨텐츠 DB(231)에 저장된 영상 컨텐츠를 호출하거나, 통신부(210)를 통해 외부 장치로부터 영상 컨텐츠를 수신함으로써 영상 컨텐츠를 로딩할 수 있다.
그리고, 서버(200)는 연속된 프레임들(예: 제1 프레임 및 제2 프레임)간의 색상정보의 변화값을 확인할 수 있다. 구체적으로, 서버(100)는 영상 컨텐츠 중 일부 연속된 프레임인 제1 프레임 및 제2 프레임의 색상 정보를 확인할 수 있고, 확인된 색상 정보의 변화 값을 감지할 수 있다.
다음으로, 색상정보의 변화값이 소정 조건(예: 미리 설정된 변화값)을 충족하는 경우, 서버(200)는 연속된 프레임들간의 픽셀패턴을 검증할 수 있고, 검증 결과를 기반으로 화면전환의 유무를 인식함으로써 영상 컨텐츠를 복수의 구간으로 구획할 수 있다.
몇몇 실시예에 따르면, 서버(200)는 프레임을 복수의 색상 영역들로 구획할 수 있고, 연속된 프레임들(예: 제1 프레임 및 제2 프레임)간 매칭되는 색상 영역들을 확인할 수 있으며, 색상 영역에 해당하는 색상 정보의 변화값을 확인할 수 있다. 색상 정보의 변화값이 소정 값 미만인 경우라면, 서버(200)는 각 프레임들의 색상 영역들의 색상 수가 감소하도록 각 프레임들을 가공할 수 있다.
몇몇 실시예에 따르면, 서버(200)는 프레임을 복수의 픽셀패턴 영역들로 구획할 수 있다. 서버(200)는 연속되는 프레임들(예: 제1 프레임 및 제2 프레임)의 픽셀패턴 영역을 매칭시킬 수 있고, 프레임 간 일정한 편차로 매칭되는 픽셀패턴 영역의 개수를 확인할 수 있다.
이 경우, 일정한 편차로 매칭되는 개수가 미리 설정된 개수 미만이라면, 서버(200)는 화면이 전환된 것으로 인식할 수 있다. 이 경우, 서버(100)는 연속된 프레임들간의 접점 시점을 화면전환 시점으로 체크할 수 있고, 체크된 화면전환 시점과 관련된 정보를 저장부(230)에 저장할 수 있다.
이와 반대로, 일정한 편차로 매칭되는 개수가 미리 설정된 개수 이상이라면, 서버(200)는 화면이 전환되지 않은 것으로 인식할 수 있다. 그리고, 서버(200)는 현재 확인된 마지막 프레임과 다음으로 연속되는 프레임간의 화면전환 인식 과정을 반복할 수 있다.
상기와 같이 프레임간의 색상정보뿐 아니라, 일정한 편차로 이동하는 픽셀패턴을 감지함으로써 동일한 피사체 또는 배경이 연속되는 프레임상에 여전히 존재하는지를 파악할 수 있다. 이에 의해, 화면전환이 이루어지지 않음에도 화면전환으로 인식되는 오류 과정을 최소화할 수 있다.
다음으로, S410 단계에서, 상품 기획자 장치(100)는 서버(200)가 운용하는 웹 페이지에 접속할 수 있다. 즉, 상품 기획자 장치(100)는 서버(200)의 웹 상에서 좌표 리스트 생성과정(예: 좌표 리스트업 과정) 또는 트래킹 데이터에 대한 검수 과정을 수행할 수 있으나, 반드시 웹 환경에 한정하는 것은 아니다. 예컨대, 상품 기획자 장치(100)는 좌표 입력자 장치(300)와 마찬가지로 별도의 어플리케이션을 구동하여 서버(200)와 통신함으로써 상기 동작들을 수행할 수 있다.
다음으로, S415 단계에서, 서버(200)는 영상 컨텐츠를 로딩하여 상품 기획자 장치(100)를 통해 출력할 수 있다. 그리고, S420 단계에서 서버(200)는 상품 기획자 장치(100)로부터 수신되는 입력을 통해 영상 컨텐츠를 기반으로 좌표 리스트를 생성하는 좌표 리스트업 동작을 수행할 수 있다.
이러한 좌표 리스트업 동작과 관련하여 도 5 내지 도 9를 참조하며 설명하도록 한다. 이러한 도 5 내지 도 9를 통해 설명되는 좌표 리스트업 동작은 상품 기획자가 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 (광고 대상) 상품의 위치를 설정하기 위해 수행되는 동작이다.
먼저, 도 5를 참조하면, 상품 기획자 장치(100)의 스크린을 통해 영상 캡쳐 툴이 도시된다. 상품 기획자는 상기 영상 캡쳐 툴의 재생관련 영역(4)을 통해 영상 컨텐츠를 재생하면서 좌표 리스트를 생성하기 위한 영상화면을 캡쳐할 수 있다.
이러한 영상 캡쳐 툴의 상단에는 영상 컨텐츠의 제목(1)인 “pinokio 20회”가 출력되고, 상품 기획자 장치(100)를 통해 캡쳐 아이템(3)을 클릭할때마다 섬네일 노출 영역(5)에 캡쳐화면이 추가된다. 그리고, 추가된 캡쳐화면의 개수가 카운트 영역(2)을 통해 노출된다. 이러한 방식으로 캡쳐화면을 추가한 뒤, 상품 기획자는 좌표 리스트 편집 아이템(6)을 클릭 또는 터치함으로써 도 6의 좌표 리스트 편집 화면으로 이동할 수 있다.
도 6에서는 좌표 리스트 편집 화면이 도시된다. 좌표 리스트 편집 화면의 상단에는 현재 캡쳐화면의 개수가 카운팅된 썸네일 카운팅 영역(1), 공식상품 카운팅 영역(2) 및 일반상품 카운팅 영역(3)이 노출된다.
다양한 실시예에 따르면, 공식상품(official)은 영상 컨텐츠에 포함된 오브젝트(예: 안경 등)와 실제로 동일한 상품일 수 있다. 그리고, 일반상품(suggest)은 영상 컨텐츠에 포함된 오브젝트와 동일하진 않으나, 상품 사업자 등이 제공할 수 있는 비슷한 아이템 후보일 수 있으나 이에 한정하는 것은 아니다.
또한, 좌표 리스트 편집 화면에는 좌표 포인트가 설정된 캡쳐화면(4)들이 좌표 포인트가 설정되지 않은 캡쳐화면들과 구별되어 표시될 수 있다. 즉, 화면에 도시되는 바와 같이 좌표 포인트가 설정된 캡쳐화면(4)들은 붉은색의 테두리가 부가되어 있으며, 편집 아이템(5)이 “수정 또는 삭제”로 기재됨으로써 좌표 포인트가 설정되지 않은 캡쳐화면들의 편집 아이템의 문자인 “추가 또는 삭제”와 구별된다. 또한, 좌표 포인트가 설정된 캡쳐화면(4)들은 좌표 포인트 및 캡쳐화면 중 적어도 하나와 관련된 부가정보(6)가 캡쳐화면(4)과 인접한 영역에 노출된다.
상품 기획자가 편집 아이템(5)을 선택하면 도 7과 같은 포인트 좌표 및 부가정보 설정화면이 상품 기획자 장치(100)를 통해 출력된다.
이러한 포인트 좌표 및 부가정보 설정화면에서는 상품을 매핑하고자 하는 위치에 대하여 포인트 좌표를 설정하고, 설정된 포인트 좌표와 관련된 부가 정보를 기입할 수 있다.
상품 기획자는 상품 기획자 장치(100)를 통해 추가 아이템(4)을 선택할 수 있다. 예를 들어, 포인트 좌표 및 부가정보 설정화면에는 현재 추가된 3개의 포인트 좌표(701, 703, 705)가 도시된다. 이러한 포인트 좌표들(701, 703, 705)은 화면의 임의의 영역에서 생성된 후 드래그 입력을 통해 원하는 오브젝트에 해당하는 영역으로 이동될 수 있다. 예컨대, 첫번째 포인트 좌표(701)는 니트 오브젝트(3) 상에 드래그되어 위치할 수 있다.
또한, 상품 기획자는 공식(official) 또는 일반상품(suggest) 체크 박스(2)를 선택함으로써 해당 포인트 좌표의 종류를 설정할 수 있고, 삭제 아이템(5)을 선택함으로써 특정 포인트 좌표를 삭제할 수도 있다. 상기와 같은 포인트 좌표의 종류(예: 공식 또는 일반상품인지 여부), 좌표 포인트에 매핑될 상품 정보(예: 베게, 침대 등) 또는 캡쳐화면의 재생시점 정보(예:02:18초) 등은 상기 좌표 포인트 또는 캡쳐화면과 관련된 부가정보로서 설정될 수 있다.
한편, 포인트 좌표 및 부가정보 설정화면은 상품 기획자 장치(100)가 이전 캡쳐장면 또는 다음 캡쳐장면으로 이동할 수 있는 장면이동 영역(6)을 포함할 수 있다.
최종적으로 상품 기획자 장치(100)를 통해 적용 아이템(7)이 선택되는 경우(또는 적용 아이템(7) 선택 후 창닫기 아이템(1)이 선택되는 경우), 서버(200)는 도 7에서 설정된 내용을 저장할 수 있고, 저장된 내용을 반영하여 도 8의 화면을 출력할 수 있다.
도 8을 참조하면, 상품 기획자가 상품 기획자 장치(100)를 통해 도 7에서 설정한 내용들이 반영되어 표시된다(1). 즉, 좌표 포인트가 포함된 영상화면(예: 캡쳐화면) 및 부가정보가 상품 기획자 장치(100)를 통해 노출된다. 상품 기획자에 의해 영상 다시 보기 아이템(2)의 선택 입력을 수신함으로써, 서버(200)는 상품 기획자 장치(100)를 통해 도 5의 화면을 다시 출력할 수 있다. 또는 좌표리스트업 완료 아이템(3)이 상품 기획자 장치(100)를 통해 입력됨으로써, 서버(200)는 도 9의 최종 리스트 화면을 상품 기획자 장치(100)를 통해 출력시킬 수 있다.
도 9는 도 5 내지 도 8을 통해 수행된 좌표 리스트업 작업(S420)에 의한 최종 리스트 화면이 도시된다. 최종 리스트 화면 상단에는 최종 리스트 화면이 등록된 시간정보(1)가 노출되며, 하부에는 취소 아이템(2) 및 상품 트래킹 요청 아이템(3)이 노출된다.
상품 기획자 장치(100)를 통해 취소 아이템(2)이 선택되면, 서버(200)는 도 6 또는 도 8의 화면을 상품 기획자 장치(100)를 통해 출력시킬 수 있다. 그리고, 상품 기획자 장치(100)를 통해 상품 트래킹 요청 아이템(3)이 선택되면 서버(200)는 적어도 하나의 좌표 입력자 장치(300)에 작업을 할당할 수 있다.
도 4를 다시 참조하면, S425 단계에서, 상품 기획자 장치(100)는 서버(200)로 좌표 트래킹 및 작업 분산처리 작업을 요청할 수 있다. 그러면, S430 단계에서 서버(200)는 트래킹 데이터 생성을 위한 작업을 분산할 수 있다.
구체적으로, 서버(200)는 전술한 도 5 내지 도 9의 작업을 통해 상품 기획자 장치(100)의 입력을 통해 생성된 좌표 리스트업 작업의 결과물 즉, 좌표 포인트가 포함된 영상화면을 수신할 있다. 그리고, 좌표 포인트를 트래킹하기 위한 작업들을 복수의 좌표 입력자 장치(300)를 통해 분배하여 작업을 트래킹 작업을 수행할 수 있다.
이 경우, 서버(200)는 좌표 입력자 1인당 트래킹 작업을 수행해야 하는 좌표 리스트의 개수를 제한함으로써 복수의 좌표 입력자 장치(300)들로 분산하여 작업을 처리하게 할 수 있다. 한정되지 않는 실시예에 따르면, 좌표 리스트는 영상화면(예: 도 5의 캡쳐화면) 당 1개만 설정될 수 있고, 이렇게 각각 1개의 좌표 리스트가 설정된 각 영상화면의 개수를 특정 좌표 입력자가 트래킹 작업을 수행해야 하는 작업량으로 산정할 수 있다. 그러면, 좌표 입력자는 좌표 입력자 장치(300)를 통해 이하에서 후술할 트래킹 작업을 수행할 수 있다.
구체적으로, S435 단계에서, 서버(200)는 좌표 입력자 장치(300)로 트래킹 작업을 요청할 수 있다. 구체적으로, 좌표 입력자 장치(300)는 서버(200)로부터 좌표 포인트가 포함된 영상화면을 수신할 수 있다. 다양한 실시예에 따르면, 이 경우 좌표 입력자 장치(300)는 좌표 데이터 또는 영상화면과 관련된 부가 정보를 서버(200)로부터 더 수신할 수 있다.
한편, S440 단계에서, 좌표 입력자 장치(300)는 좌표 입력 어플리케이션(331)을 실행할 수 있다. 도 4에서는 S440 단계에서 좌표 입력 어플리케이션(331)을 실행하는 것으로 도시되어 있으나 이에 한정하지 않는다. 예를 들어, 좌표 입력자 장치(300)는 미리 좌표 입력 어플리케이션(331)을 실행한 상태에서 서버(200)로부터 트래킹 작업 요청을 수신할 수도 있다.
다음으로, S445 단계에서 좌표 입력자 장치(300)는 트래킹 포인트를 설정할 수 있다. 구체적으로, 좌표 입력자 장치(300)는 영상 컨텐츠를 서치하면서 서버(200)로부터 수신된 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정할 수 있다. 이러한 트래킹 포인트는 영상 컨텐츠에서 오브젝트의 움직임에 따라 트래킹 포인트가 오브젝트를 추적하도록 설정된 마커일 수 있다.
다음으로, S450 단계에서 좌표 입력자 장치(300)는 트래킹 포인트가 설정된 트래킹 데이터를 생성할 수 있다.
상기와 같은 트래킹 포인트 설정 및 트래킹 데이터 생성과 관련된 동작을 도 10 내지 도 14을 참조하여 설명하도록 한다.
도 10에서 좌표 입력자 장치(300)를 통해 출력되는 좌표 입력 초기화면이 도시된다. 좌표 입력 초기화면의 상단에는 제목 영역(1), 상품 기획자 장치(100)의 리스트 업 작성날짜 영역(2)이 노출된다.
그리고, 서버(200)로부터 좌표 입력자에 할당된 좌표작업분량 영역(3)이 출력된다. 이 경우, 상기 좌표 입력자에게는 5개의 좌표 포인트에 대한 트래킹 작업이 할당된 것을 확인할 수 있다.
또한, 상품 기획자의 이름, 좌표 입력자의 이름 및 요청시간 표시 영역(4)이 노출된다. 화면 좌측에는 좌표 리스트가 포함된 영상 화면과 부가정보가 표시된다. 이러한 영상 화면 및 부가정보는 작업 할당량에 따라 표시될 수 있으나 이에 한정하는 것은 아니며, 도 10과 같이 일부 작업 할당량만 출력될 수도 있다.
도 10의 왼쪽에 표시된 영상 화면들 중 특정 영상 화면(5)과 관련된 상세 화면(6)이 화면의 오른쪽에 도시된다. 이 경우, 해당 영상 화면과 관련된 정보가 노출되며, 이러한 노출 정보 중 적어도 일부는 부가 정보와 동일할 수 있다.
도 11에서는 좌표 포인트와 동일한 오브젝트를 검색하기 위한 영상 컨텐츠 서치 툴이 도시된다. 이 경우, 서버(200)는 좌표 입력자 장치(300)의 요청에 따라 영상 컨텐츠의 전부 또는 일부를 재생할 수 있다. 이를 위해, 영상 컨텐츠 서치 툴은 영상 제목 영역(1), 영상 재생 영역(2), 현재 영상구간 표시 영역(4), 이전 영상구간 이동 영역(5), 다음 영상구간 이동 영역(6), 영상 재생/멈춤 영역(7), 트래킹 포인트 생성 아이템(8) 및 타임 라인(9)을 포함할 수 있다.
또한, 다양한 실시예에 따르면, 영상 컨텐츠 서치 툴은 전술한 화면전환 에 따른 구획 작업에 따라 장면이 전환되는 구간을 구분하여 노출시킬 수 있다(3).
또한, 몇몇 실시예에 따르면, 특정 영상 화면(10)에 대한 클릭 또는 터치 입력이 수신되면, 서버(200) 또는 좌표 입력자 장치(300)는 해당 썸네일을 스트로크(stroke)하거나 “좌표 진행중”이라는 작업 상태 표시를 출력할 수 있다.
도 12에서는 트래킹 포인트를 설정하는 구체적인 내용이 도시된다. 좌표 입력자가 좌표 입력자 장치(300)를 통해 트래킹 포인트(1)를 영상화면 내의 특정 오브젝트(예: 안경)에 드래그함으로써 해당 영상화면에서 트래킹 포인트를 설정할 수 있다. 그리고, 좌표 입력자는 해당 영상 구간내(예: 현재 영상 구간)에 포함된 복수의 프레임마다 트래킹 포인트를 설정할 수 있다. 이를 위해, 좌표 입력자는 영상 컨텐츠 서치 툴의 프레임 서치 아이템(3,4)을 통해 저속으로 현재 영상화면에 해당하는 프레임의 이전 또는 이후 프레임을 검색할 수 있고, 검색된 프레임(예: 영상화면)의 동일한 오브젝트(예: 안경)마다 트래킹 포인트를 설정할 수 있다. 좌표 입력자가 트래킹 활성화 아이템(5)을 선택하면, 좌표 입력자 장치(300) 또는 서버(200)는 해당 영상화면 내에서 트래킹 포인트가 할당된 오브젝트 영역(예: 영상 화면 내에서의 오브젝트 또는 트래킹 포인트의 위치 좌표)을 인식/기억할 수 있다.
다양한 실시예에 따르면, 좌표 입력자 장치(300)는 상기와 같이 트래킹 포인트가 설정된 영상 화면들을 트래킹 데이터로 인식하여 저장 또는 전송할 수 있다.
상기와 같은 동작들에 의해, 좌표 입력자 장치(300)에 할당된 영상 화면에서의 좌표 포인트를 기반으로, 좌표 입력자 장치(300)는 영상 컨텐츠 전체에서 상기 좌표 포인트가 마커된 오브젝트와 동일한 오브젝트에 대해 트래킹 포인트 설정 작업을 수행할 수 있다.
다시 도 4를 참조하면, S455 단계에서 좌표 입력자 장치(300)는 영상구간을 그룹핑할 수 있다. 구체적으로, 좌표 입력자 장치(300)는 영상 컨텐츠에서 트래킹 데이터에 해당하는 영상 구간을 그룹핑할 수 있다.
도 13을 예로서 참조하면, 좌표 입력자가 좌표 입력자 장치(300)를 통해 전체구간 미리보기 아이템(7)을 선택하는 경우, 좌표 입력자 장치(300)는 영상 컨텐츠 전체의 영상 구간에서 특정 오브젝트(예: 안경)에 대해 트래킹 포인트가 설정된 영상 구간(1)만을 그룹핑할 수 있다. 도 13에서는 도 11의 현재 영상구간 표시 영역만이 그룹핑되는 걸로 표시되어 있으나, 전체 영상 구간에서 상기 특정 오브젝트에 대해 트래킹 포인트가 설정된 모든 영상 구간이 동일한 색으로 표시될 수 있다.
그리고, 좌표 입력자 장치(300)는 도 14와 같이 특정 오브젝트 또는 상기 특정 오브젝트에 대하여 트래킹 포인트가 설정되어 그룹핑된 영상 구간만을 재생시킬 수 있는 메뉴를 제공할 수 있다.
즉, 좌표 입력자 장치(300)는 영상 컨텐츠에서 동일 오브젝트에 대해 설정된 각각의 트래킹 포인트 및 상기 각각의 트래킹 포인트가 포함된 영상 화면들을 그룹핑할 수 있고, 그룹핑된 영상 화면 내지 영상 구간만이 재생되도록 상품 기획자 장치(100), 서버(200) 또는 좌표 입력자 장치(300)의 화면에 출력시킬 수 있다.
상기와 같은 실시예에 의해, 좌표 입력자는 자신에게 할당된 작업이 전체 컨텐츠 상에서 제대로 수행되었는지를 직관적이고 효율적으로 확인할 수 있다. 또한, 상품 기획자는 후술할 검수 작업을 수행할 경우에도 동일 트래킹 포인트를 기반으로 그룹핑된 영상 구간을 확인함으로써 효과적으로 검수 작업을 수행할 수 있다. 나아가, 영상 컨텐츠에 대하여 상품을 등록하고자 하는 상품 사업자 또한 상기와 같이 그룹핑된 영상 구간을 확인함으로써 상품 사업자가 등록하고자 하는 상품이 영상 컨텐츠 상에서 어떤 식으로 노출되고 어필되는지를 인식할 수 있다.
이어지는 도 4의 S460 단계에서, 좌표 입력자 장치(300)는 트래킹 포인트를 설정한 데이터에 대해 서버(200)로 검수를 요청할 수 있다. 그러면, 서버(200)는 S465 단계에서 상품 기획자 장치(100)로 또는 상품 기획자 장치(100)를 통해 상품 기획자가 요청한 검수 화면을 출력할 수 있다.
보다 구체적으로는, 좌표 입력자는 영상 화면의 오브젝트에 대하여 각각 설정한 트래킹 포인트가 상품 기획자가 의도한 영역에 정확히 매칭되었는지를 검수받고자, 트래킹 데이터 또는 트래킹 데이터를 생성하기 전 트래킹 포인트만 설정된 임시적인 데이터를 서버(200)를 경유하여 상품 기획자 장치(100)로 전송할 수 있다.
그러면, 상품 기획자는 S470 단계에서 상품 기획자 장치(100)를 통해 검수 승인 또는 승인거절의 응답을 서버(200)를 경유하여 좌표 입력자 장치(300)로 전송할 수 있다.
만약, 검수 승인거절의 응답이 좌표 입력자 장치(300)로 회신되는 경우, 좌표 입력자 장치(300)는 S475 단계에서 트래킹 작업을 재수행할 수 있다. 이와 반대로, 검수 승인의 응답이 좌표 입력자 장치(300)로 회신되는 경우 좌표 입력자 장치(300)는 S480 단계에서 최종 트래킹 데이터를 생성하여 서버(200)에 업로드할 수 있다.
예를 들어, 도 15를 참조하면, 좌표 입력자가 좌표 입력자 장치(300)를 통해 화면에 표시된 검수 요청 아이템(1)을 선택하는 경우, 좌표 입력자 장치(300)는 상기 첫번째 영상 화면(1501)과 관련하여 영상 컨텐츠에서 트래킹 포인트 설정 작업이 수행된 데이터를 서버(200)로 전송할 수 있다. 그러면, 서버(200)는 웹에 접속한 상품 기획자 장치(100)를 통해 도 16의 화면을 출력할 수 있다.
도 16을 보다 구체적으로 살펴보면, 상품 기획자 장치(100)에서 좌표 검수 화면이 노출된다. 한정되지 않는 예로서, 좌표 검수 화면은 검수날짜(1), 해당 검수날짜에 요청된 검수요청건수(2), 승인건수(3), 거절건수(4), 검색항목(5), 목록 분류(6), 리스트업 정보(7), 부가 정보(8), 영상확인 아이템(9), 검수 승인 아이템(10), 검수 승인거절 아이템(11), 승인거절사유 작성 영역(12)을 포함할 수 있다.
다양한 실시예에 따르면, 상품 기획자가 영상확인 아이템(9)을 선택하는 경우, 서버(200)는 상품 기획자 장치(100)를 통해 좌표 입력자 장치(300)에서 동일 트래킹 포인트를 기반으로 그룹핑된 영상 화면 또는 영상 구간을 재생할 수 있다.
도 17에서는 좌표 입력자 장치(300)에서 출력되는 검수 결과 페이지가 도시된다. 좌표 입력자에게 할당된 작업과 관련된 영상 화면들 중 상품 기획자 장치(100)를 통해 검수 승인이 된 데이터에 대해서는 검수 완료 태그(1)가 출력된다. 또한, 좌표 입력자가 계속하여 트래킹 포인트를 설정하고 있는 영상 화면에 대해서는 좌표 진행 태그(2)가 출력된다. 또한, 특정 영상화면에 대해서는 검수 진행 태그(3) 또는 승인 거절 태그(4)가 출력되며, 좌표 입력자가 승인 거절 태그(4)에 마우스 오버시 승인거절 사유가 노출된다.
한편, 좌표 입력자에게 할당된 작업들에 대하여 검수 승인이 완료되면, 검수 결과 페이지의 우측과 같이 영상 화면의 썸네일에 “완료”아이템(5)이 출력된다.
최종적으로, 도 18을 참조하면 좌표 입력자 장치(300)를 트레킹 데이터 업로드 화면이 도시된다. 좌표 입력자가 트래킹 데이터 업로드 화면의 좌표데이터 업로드 아이템(1)을 선택하는 경우, 좌표 입력자 장치(300)는 최종적으로 트래킹 포인트가 설정된 영상 화면들인 트래킹 데이터를 서버(200)로 전송할 수 있다.
전술한 도 1 내지 도 18의 실시예들에 의해, 상품의 위치를 트래킹하기 위한 영상 컨텐츠의 전처리 작업을 보다 효율적으로 수행할 수 있고, 상품 기획자가 영상 컨텐츠의 여러 영상화면에 적합한 광고대상의 상품 영역을 손쉽게 지정할 수 있으며, 해당 영상 구간에 상품을 등록하고자 하는 상품 사업자가 직관적으로 자신이 등록할 상품의 광고가치를 파악할 수 있다는 효과가 있다.
본 발명의 다양한 실시예에 사용된 용어 “모듈”또는 “~부”는, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈” 또는 “~부”는 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈” 또는“~부”는 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있고, 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈” 또는“~부”는 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시예에 따른 “모듈” 또는“~부”는, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
10: 영상 컨텐츠 전처리 시스템 100: 상품 기획자 장치
200: 서버 300: 좌표 입력자 장치
400: 네트워크

Claims (12)

  1. 삭제
  2. 서버에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서,
    상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하는 단계;
    추출된 영상화면을 좌표 입력자 장치로 전송하는 단계; 및
    상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 단계로서, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터인, 트래킹 데이터를 수신하는 단계;
    를 포함하고,
    상기 영상화면을 추출하는 단계는,
    상기 영상 컨텐츠의 재생 및 캡쳐 기능을 제공하는 영상 캡쳐 툴을 상기 상품 기획자 장치를 통해 출력하는 단계;
    상기 상품 기획자 장치로부터 상기 영상 캡쳐 툴을 이용한 캡쳐 입력에 응답하여 하나 이상의 캡쳐화면을 출력하는 단계;
    상기 상품 기획자 장치로부터 수신되는 입력을 통해 상기 캡쳐화면의 특정 위치를 표시하는 상기 좌표 포인트를 설정하는 단계; 및
    상기 좌표 포인트가 설정된 캡쳐화면을 상기 영상화면으로서 추출하는 단계를 포함하는 영상 컨텐츠의 전처리 방법.
  3. 제 2항에 있어서,
    상기 좌표 포인트 및 상기 영상화면 중 적어도 하나와 관련된 부가정보를 생성하는 단계; 및
    생성된 부가정보를 상기 좌표 입력자 장치로 전송하는 단계를 더 포함하는 영상 컨텐츠의 전처리 방법.
  4. 제 3항에 있어서,
    상기 부가정보는,
    상기 영상 컨텐츠에서 상기 영상화면의 재생시점 정보, 상기 좌표 포인트의 종류 및 상기 좌표 포인트에 매핑될 상품 정보 중 적어도 하나를 포함하는 영상 컨텐츠의 전처리 방법.
  5. 서버에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서,
    상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하는 단계;
    추출된 영상화면을 좌표 입력자 장치로 전송하는 단계; 및
    상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 단계로서, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터인, 트래킹 데이터를 수신하는 단계;
    를 포함하고,
    상기 영상화면을 추출하는 단계는,
    상기 영상 컨텐츠에서 좌표 포인트가 포함된 복수의 영상화면을 추출하는 단계를 포함하고,
    상기 추출된 영상화면을 좌표 입력자 장치로 전송하는 단계는,
    자동으로 상기 복수의 영상화면을 복수의 좌표 입력자 장치로 분산하여 전송하는 단계를 포함하는 영상 컨텐츠의 전처리 방법.
  6. 서버에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서,
    상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하는 단계;
    추출된 영상화면을 좌표 입력자 장치로 전송하는 단계; 및
    상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 단계로서, 상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터인, 트래킹 데이터를 수신하는 단계;
    를 포함하고,
    상기 트래킹 데이터를 수신하는 단계는,
    상기 트래킹 데이터에 대하여 상기 상품 기획자 장치에게 검수를 요청하는 단계;
    상기 트래킹 데이터에 대하여 상기 상품 기획자 장치를 통해 입력된 승인 응답 또는 승인거절 응답을 상기 좌표 입력자 장치로 전송하는 단계; 및
    상기 좌표 입력자 장치로부터 상기 승인 응답이 전송되는 경우, 상기 좌표 입력자 장치로부터 수신된 트래킹 데이터를 저장하는 단계를 포함하는 영상 컨텐츠의 전처리 방법.
  7. 제2 항, 제5 항 및 제6 항 중 어느 한 항에 있어서,
    상기 영상 컨텐츠에서 상기 트래킹 데이터에 해당하는 영상 구간을 그룹핑하는 단계를 더 포함하는 영상 컨텐츠의 전처리 방법.
  8. 영상 컨텐츠의 전처리 기능을 수행하는 서버로서,
    상품 기획자 장치 또는 적어도 하나의 좌표 입력자 장치와 상기 서버를 연결하는 통신부;
    상기 상품 기획자 장치의 입력을 통해 상기 영상 컨텐츠에서 좌표 포인트가 포함된 영상화면을 추출하고, 추출된 영상화면을 상기 좌표 입력자 장치로 전송하는 영상화면 관리부; 및
    상기 좌표 입력자 장치로부터 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트가 설정된 트래킹 데이터를 수신하는 트래킹 관리부를 포함하며,
    상기 트래킹 데이터는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 데이터이고,
    상기 영상화면 관리부는,
    상기 영상 컨텐츠의 재생 및 캡쳐 기능을 제공하는 영상 캡쳐 툴을 상기 상품 기획자 장치를 통해 출력하고, 상기 상품 기획자 장치로부터 상기 영상 캡쳐 툴을 이용한 캡쳐 입력에 응답하여 하나 이상의 캡쳐화면을 출력하고, 상기 상품 기획자 장치로부터 수신되는 입력을 통해 상기 캡쳐화면의 특정 위치를 표시하는 상기 좌표 포인트를 설정하고, 상기 좌표 포인트가 설정된 캡쳐화면을 상기 영상화면으로서 추출하는, 서버.
  9. 좌표 입력자 장치에서 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법으로서,
    서버로부터 좌표 포인트가 포함된 영상화면을 수신하는 단계;
    상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정하는 단계로서, 상기 트래킹 포인트는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정된 것인, 트래킹 포인트를 설정하는 단계; 및
    상기 하나 이상의 오브젝트에 대하여 상기 트래킹 포인트가 설정된 트래킹 데이터를 상기 서버로 전송하는 단계;
    를 포함하고,
    상기 트래킹 데이터를 상기 서버로 전송하는 단계는,
    상기 트래킹 데이터에 대하여 상기 서버로 검수를 요청하는 단계;
    상기 서버로부터 상기 트래킹 데이터의 검수요청에 대한 승인 응답 또는 승인거절 응답을 수신하는 단계; 및
    상기 서버로부터 상기 승인 응답이 수신되는 경우, 상기 트래킹 데이터를 상기 서버에 업로드하는 단계를 포함하는 영상 컨텐츠의 전처리 방법.
  10. 삭제
  11. 제 9항에 있어서,
    상기 영상 컨텐츠에서 상기 트래킹 데이터에 해당하는 영상 구간을 그룹핑하는 단계를 더 포함하는 영상 컨텐츠의 전처리 방법.
  12. 영상 컨텐츠의 전처리 기능을 수행하는 좌표 입력자 장치로서,
    메모리;
    상기 좌표 입력자 장치를 서버와 연결하도록 구성된 통신 모듈; 및
    상기 메모리 및 상기 통신 모듈과 전기적으로 연결되는 프로세서를 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 서버로부터 좌표 포인트가 포함된 영상화면을 수신하고, 상기 영상 컨텐츠에서 상기 좌표 포인트에 대응되는 하나 이상의 오브젝트 각각에 대하여 트래킹 포인트를 설정하며, 상기 하나 이상의 오브젝트에 대하여 상기 트래킹 포인트가 설정된 트래킹 데이터를 상기 서버로 전송하도록 하는 인스트럭션들을 저장하고,
    상기 트래킹 포인트는 상기 영상 컨텐츠에서 상기 오브젝트의 움직임에 따라 상기 트래킹 포인트가 상기 오브젝트를 추적하도록 설정되고,
    상기 트래킹 포인트가 설정된 트래킹 데이터를 상기 서버로 전송하도록 하는 인스트럭션들은, 상기 트래킹 데이터에 대하여 상기 서버로 검수를 요청하고, 상기 서버로부터 상기 트래킹 데이터의 검수요청에 대한 승인 응답 또는 승인거절 응답을 수신하고, 상기 서버로부터 상기 승인 응답이 수신되는 경우, 상기 트래킹 데이터를 상기 서버에 업로드하도록 하는 인스트럭션들을 포함하는, 좌표 입력자 장치.
KR1020160076441A 2016-06-20 2016-06-20 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치 KR101803275B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160076441A KR101803275B1 (ko) 2016-06-20 2016-06-20 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치
PCT/KR2017/006108 WO2017222225A1 (ko) 2016-06-20 2017-06-13 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160076441A KR101803275B1 (ko) 2016-06-20 2016-06-20 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치

Publications (1)

Publication Number Publication Date
KR101803275B1 true KR101803275B1 (ko) 2017-12-01

Family

ID=60784601

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160076441A KR101803275B1 (ko) 2016-06-20 2016-06-20 영상 컨텐츠에 포함된 오브젝트와 매핑 가능한 상품의 위치를 트래킹하는 영상 컨텐츠의 전처리 방법, 이를 실행하는 서버 및 좌표 입력자 장치

Country Status (2)

Country Link
KR (1) KR101803275B1 (ko)
WO (1) WO2017222225A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101283759B1 (ko) * 2012-04-30 2013-07-08 인하대학교 산학협력단 스마트 tv 환경의 개인화된 대화형 비디오에서 움직이는 이동 객체의 의미적 어노테이션의 표현 및 그 증강 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030126622A1 (en) * 2001-12-27 2003-07-03 Koninklijke Philips Electronics N.V. Method for efficiently storing the trajectory of tracked objects in video
KR101887548B1 (ko) * 2012-03-23 2018-08-10 삼성전자주식회사 증강현실 서비스를 위한 미디어 파일의 처리 방법 및 장치
KR20140042409A (ko) * 2012-09-28 2014-04-07 삼성전자주식회사 오브젝트 부가 정보를 입력하는 장치 및 오브젝트 부가 정보를 입력하는 방법
KR101536262B1 (ko) * 2014-05-08 2015-11-23 한양대학교 에리카산학협력단 감성광고 기능을 구비한 스마트 tv 기반의 타임머신 광고 제공 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101283759B1 (ko) * 2012-04-30 2013-07-08 인하대학교 산학협력단 스마트 tv 환경의 개인화된 대화형 비디오에서 움직이는 이동 객체의 의미적 어노테이션의 표현 및 그 증강 방법

Also Published As

Publication number Publication date
WO2017222225A1 (ko) 2017-12-28

Similar Documents

Publication Publication Date Title
US11606622B2 (en) User interface for labeling, browsing, and searching semantic labels within video
JP6276344B2 (ja) 動画コンテンツのハイライト映像を抽出して提供する方法およびシステム
US9560415B2 (en) Method and system for interactive selection of items for purchase from a video
US8170395B2 (en) Methods and systems for handling montage video data
US8307286B2 (en) Methods and systems for online video-based property commerce
US11016757B2 (en) Content deployment system having a proxy for continuously providing selected content items to a content publishing engine for integration into a specific release and methods for implementing the same
US9588663B2 (en) System and method for integrating interactive call-to-action, contextual applications with videos
CN103582863B (zh) 多应用环境
US10362340B2 (en) Techniques for creation of auto-montages for media content
CN102707866B (zh) 用于导航基于层级式菜单的用户界面的方法和装置
CN103562839B (zh) 多应用环境
US20160364770A1 (en) System for high volume data analytic integration and channel-independent advertisement generation
US9412035B2 (en) Place-based image organization
US20200128286A1 (en) Live streaming social interaction to trigger product search
US20170294212A1 (en) Video creation, editing, and sharing for social media
US20150302533A1 (en) Global exchange platform for the film industry professionals
KR101507272B1 (ko) 대화형 비디오에서 이동 객체의 의미적 어노테이션 시스템의 인터페이스 및 그 방법
US10440435B1 (en) Performing searches while viewing video content
CN103456254A (zh) 一种多点触控交互式多媒体数字标牌系统
US11748118B2 (en) Systems and methods for tracking and visualizing state transitions
WO2022247220A9 (zh) 界面处理方法及装置
US10045072B2 (en) Content reproducing apparatus and method, and content providing apparatus and method
CN112987999B (zh) 视频编辑方法、装置、计算机可读存储介质及电子设备
US20200293995A1 (en) Crowdsourcing multi disciplinary creative work through a network
KR101833806B1 (ko) 영상 컨텐츠에 광고상품을 등록하는 방법 및 이를 실행하는 서버

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant