KR20140119691A - 영상 표시 장치 및 그 동작 방법 - Google Patents

영상 표시 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR20140119691A
KR20140119691A KR1020147018093A KR20147018093A KR20140119691A KR 20140119691 A KR20140119691 A KR 20140119691A KR 1020147018093 A KR1020147018093 A KR 1020147018093A KR 20147018093 A KR20147018093 A KR 20147018093A KR 20140119691 A KR20140119691 A KR 20140119691A
Authority
KR
South Korea
Prior art keywords
information
content
service
supplementary service
video display
Prior art date
Application number
KR1020147018093A
Other languages
English (en)
Inventor
문경수
이준휘
이현재
김진필
지애띠
김경호
김상현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20140119691A publication Critical patent/KR20140119691A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D1/00Processes for applying liquids or other fluent materials
    • B05D1/26Processes for applying liquids or other fluent materials performed by applying the liquid or other fluent material from an outlet device in contact with, or almost in contact with, the surface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D1/00Processes for applying liquids or other fluent materials
    • B05D1/28Processes for applying liquids or other fluent materials performed by transfer from the surfaces of elements carrying the liquid or other fluent material, e.g. brushes, pads, rollers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D1/00Processes for applying liquids or other fluent materials
    • B05D1/36Successively applying liquids or other fluent materials, e.g. without intermediate treatment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D1/00Processes for applying liquids or other fluent materials
    • B05D1/36Successively applying liquids or other fluent materials, e.g. without intermediate treatment
    • B05D1/38Successively applying liquids or other fluent materials, e.g. without intermediate treatment with intermediate treatment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D3/00Pretreatment of surfaces to which liquids or other fluent materials are to be applied; After-treatment of applied coatings, e.g. intermediate treating of an applied coating preparatory to subsequent applications of liquids or other fluent materials
    • B05D3/02Pretreatment of surfaces to which liquids or other fluent materials are to be applied; After-treatment of applied coatings, e.g. intermediate treating of an applied coating preparatory to subsequent applications of liquids or other fluent materials by baking
    • B05D3/0254After-treatment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D5/00Processes for applying liquids or other fluent materials to surfaces to obtain special surface effects, finishes or structures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D7/00Processes, other than flocking, specially adapted for applying liquids or other fluent materials to particular surfaces or for applying particular liquids or other fluent materials
    • B05D7/50Multilayers
    • B05D7/52Two layers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D7/00Processes, other than flocking, specially adapted for applying liquids or other fluent materials to particular surfaces or for applying particular liquids or other fluent materials
    • B05D7/50Multilayers
    • B05D7/52Two layers
    • B05D7/54No clear coat specified
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D7/00Processes, other than flocking, specially adapted for applying liquids or other fluent materials to particular surfaces or for applying particular liquids or other fluent materials
    • B05D7/50Multilayers
    • B05D7/52Two layers
    • B05D7/54No clear coat specified
    • B05D7/544No clear coat specified the first layer is let to dry at least partially before applying the second layer
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D7/00Processes, other than flocking, specially adapted for applying liquids or other fluent materials to particular surfaces or for applying particular liquids or other fluent materials
    • B05D7/50Multilayers
    • B05D7/52Two layers
    • B05D7/54No clear coat specified
    • B05D7/546No clear coat specified each layer being cured, at least partially, separately
    • DTEXTILES; PAPER
    • D21PAPER-MAKING; PRODUCTION OF CELLULOSE
    • D21HPULP COMPOSITIONS; PREPARATION THEREOF NOT COVERED BY SUBCLASSES D21C OR D21D; IMPREGNATING OR COATING OF PAPER; TREATMENT OF FINISHED PAPER NOT COVERED BY CLASS B31 OR SUBCLASS D21G; PAPER NOT OTHERWISE PROVIDED FOR
    • D21H19/00Coated paper; Coating material
    • D21H19/10Coatings without pigments
    • D21H19/14Coatings without pigments applied in a form other than the aqueous solution defined in group D21H19/12
    • D21H19/20Coatings without pigments applied in a form other than the aqueous solution defined in group D21H19/12 comprising macromolecular compounds obtained by reactions only involving carbon-to-carbon unsaturated bonds
    • DTEXTILES; PAPER
    • D21PAPER-MAKING; PRODUCTION OF CELLULOSE
    • D21HPULP COMPOSITIONS; PREPARATION THEREOF NOT COVERED BY SUBCLASSES D21C OR D21D; IMPREGNATING OR COATING OF PAPER; TREATMENT OF FINISHED PAPER NOT COVERED BY CLASS B31 OR SUBCLASS D21G; PAPER NOT OTHERWISE PROVIDED FOR
    • D21H23/00Processes or apparatus for adding material to the pulp or to the paper
    • D21H23/02Processes or apparatus for adding material to the pulp or to the paper characterised by the manner in which substances are added
    • D21H23/22Addition to the formed paper
    • D21H23/52Addition to the formed paper by contacting paper with a device carrying the material
    • D21H23/56Rolls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2407Monitoring of transmitted content, e.g. distribution time, number of downloads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2665Gathering content from different sources, e.g. Internet and satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05DPROCESSES FOR APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05D2203/00Other substrates

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Wood Science & Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Astronomy & Astrophysics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

영상 표시 장치는 특정 채널에 종속하지 않는 부가 서비스 재생 애플리케이션을 실행하고, 비압축 시청각 컨텐트를 획득한다. 영상 표시 장치는 디스플레이부를 통해 상기 비압축 시청각 컨텐트를 재생하면서, 상기 비압축 시청각 컨텐트의 일부에 기초하여 상기 비압축 시청각 컨텐트의 컨텐츠 정보의 획득을 시도한다. 부가 서비스 재생 애플리케이션은 특정 채널에 종속하지 않는 부가 서비스 제공 서버에 부가 서비스 요청 메시지를 전송하고, 부가 서비스 제공 서버로부터 부가 서비스를 수신하며, 상기 디스플레이부를 통해 상기 부가 서비스를 재생한다.

Description

영상 표시 장치 및 그 동작 방법{VIDEO DISPLAY APPARATUS AND OPERATING METHOD THEREOF}
본 발명은 영상 표시 장치 및 그 동작 방법에 관한 것이다.
디지털 방송이 활성화됨에 따라, 방송국은 메인 시청각 컨텐트를 송출하면서, 이 메인 시청각 컨텐트와 연계하여 이용할 수 있거나 이 메인 시청각 컨텐트와는 독립적인 부가 서비스 데이터(enhanced service data)를 함께 송출한다.
그러나 현재의 방송 환경에서는 각 가정의 영상 표시 장치가 방송 신호를 공중파를 통해 직접 수신하는 경우가 적다. 오히려, 각 가정의 영상 표시 장치는 셋톱박스와 같은 방송 수신 장치에 연결되어 있어서, 이 방송 수신 장치가 제공하는 비압축 시청각 컨텐트를 재생하는 경우가 많다.
한편, 방송 수신 장치는 멀티채널 비디오 분배자(multichannel video programming distributor, MVPD)라고 불리는 서버로부터 컨텐츠를 제공받는다. 이 멀티채널 비디오 분배자는 방송국으로부터 방송 신호를 수신하고 수신한 방송 신호로부터 컨텐츠를 추출한 후, 자신이 송출하기에 적합한 형태의 신호로 변환하여 변환된 신호를 방송 수신 장치에 제공한다. 이 과정에서, 멀티채널 비디오 분배자는 추출한 부가 서비스 데이터를 제외할 수도 있고, 또 다른 부가 서비스 데이터를 추가할 수도 있기 때문에, 방송 수신 장치는 MVPD에 종속된 부가 서비스를 제공받을 수 밖에 없다.
방송 수신 장치 또한 멀티채널 비디오 분배자로부터 수신한 신호로부터 메인 시청각 데이터를 추출하여 비압축 시청각 데이터만을 영상 표시 장치에게 제공하므로, 방송 수신 장치 통제하의 부가 서비스만이 이용가능할 뿐, 영상 표시 장치 통제하의 부가 서비스는 이루어 질 수 없다.
본 발명은 MVPD에 종속하지 않는 부가 서비스를 가능하게 하는 영상 표시 장치와 그 동작 방법을 제공하기 위한 것이다.
일 실시예에 따른 디스플레이부를 포함하는 영상 표시 장치의 동작 방법은 어떠한 단일 채널에도 종속하지 않는 부가 서비스 재생 애플리케이션을 실행하는 단계; 비압축 시청각 컨텐트를 획득하는 단계; 상기 디스플레이부를 통해 상기 비압축 시청각 컨텐트를 재생하는 단계; 상기 비압축 시청각 컨텐트의 일부에 기초하여 상기 비압축 시청각 컨텐트의 컨텐츠 정보의 획득을 시도하는 단계; 상기 부가 서비스 재생 애플리케이션에 의해, 어떠한 단일 채널에도 종속하지 않는 부가 서비스 제공 서버에 부가 서비스 요청 메시지를 전송하는 단계; 상기 부가 서비스 제공 서버로부터 부가 서비스를 수신하는 단계; 및 상기 부가 서비스 재생 애플리케이션에 의해, 상기 디스플레이부를 통해 상기 부가 서비스를 재생하는 단계를 포함한다.
또 다른 실시예에 따른 영상 표시 장치는 디스플레이부; 비압축 시청각 컨텐트를 획득하는 수신부; 특정 채널에 종속하지 않는 부가 서비스 재생 애플리케이션을 실행하고, 상기 비압축 시청각 컨텐트의 일부에 기초하여 상기 비압축 시청각 컨텐트의 컨텐츠 정보를 획득하고, 상기 컨텐츠 정보에 기초하여 부가 서비스의 획득을 시도하는 부가 서비스 관리부; 및 상기 비압축 시청각 컨텐트를 상기 디스플레이부에 재생하는 재생 제어부를 포함하고, 상기 부가 서비스 재생 애플리케이션은 특정 채널에 종속하지 않는 부가 서비스 제공 서버에 부가 서비스 요청 메시지를 전송하고, 상기 부가 서비스 제공 서버로부터 부가 서비스를 수신하고, 상기 부가 서비스를 상기 디스플레이부에 재생한다.
본 발명의 실시예는 MVPD에 종속하지 않는 부가 서비스를 가능하게 한다. 특히, 본 발명의 실시예는 방송국이나 컨텐트 제공자가 부가 서비스를 제공하지 않더라도 방송국이나 컨텐트 제공자에 종속하지 않는 제3자 서버에 의해 부가 서비스를 가능하게 한다.
또한, 본 발명의 다양한 실시예는 리모콘을 통한 불편한 텍스트 입력 없이도 메인 시청각 컨텐트와 관련된 정보 검색, 채팅, 뉴스 검색, 디지털 미디어 다운로드, 제품 카탈로그 다운로드 및 제품 구입을 가능하게 한다.
뿐만 아니라, 본 발명의 실시예는 무선 채널의 대역폭의 한계를 넘는 부가 서비스를 가능하게 한다.
도 1은 본 발명의 일 실시예에 따른 네트워크 토폴로지를 보여주는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 워터마크 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 워터마크 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
도 4는 본 발명의 일 실시예에 따른 워터마크 기반의 컨텐츠 인식 타이밍을 보여준다.
도 5는 본 발명의 일 실시예에 따른 핑거프린트 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 6은 본 발명의 일 실시예에 따른 핑거프린트 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
도 7은 본 발명의 일 실시예에 따른 질의 결과를 담는 ACR-Resulttype의 XML 스키마 다이어그램(schema diagram)을 보여준다.
도 8은 본 발명의 일 실시예에 따른 워터마크와 핑거프린트 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 9은 본 발명의 일 실시예에 따른 워터마크와 핑거프린트 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
도 10은 본 발명의 실시예에 따른 영상 표시 장치의 블록도이다.
도 11는 본 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 보여주는 흐름도이다.
도 12은 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 보여주는 개념도이다.
도 13은 본 발명의 실시예에 따른 자동 재생 애플리케이션의 실행 화면을 보여준다.
도 14는 본 발명의 실시예에 따른 컨텐츠 제공자 애플리케이션의 실행 화면을 보여준다.
도 15은 본 발명의 실시예에 따른 ACR 기능의 제어를 위한 사용자 인터페이스를 보여준다.
도 16는 본 발명의 실시예에 따른 영상 표시 장치의 동작 방법의 흐름도이다.
도 17은 본 발명의 실시예에 따른 네트워크 토폴로지를 보여준다.
도 18는 본 발명의 다양한 실시예에 따른 Live+ 애플리케이션을 보여준다.
도 19는 본 발명의 다양한 실시예에 따른 Live+ 애플리케이션을 실행하는 방법을 보여준다.
도 20은 본 발명의 실시예에 따른 Live+ 애플리케이션의 탭의 기능을 보여준다.
도 21은 본 발명의 일 실시예에 따른 제3자 서버(90)의 아키텍처를 보여준다.
도 22은 본 발명의 실시예에 따른 자동 실행 애플리케이션을 위한 영상 표시 장치의 동작을 보여주는 래더 다이어그램이다.
도 23은 본 발명의 한 실시예에 따른 채널-독립 애플리케이션을 위한 영상 표시 장치의 동작을 보여주는 래더 다이어그램이다.
도 24는 본 발명의 또 다른 실시예에 따른 채널-독립 애플리케이션을 위한 영상 표시 장치의 동작을 보여주는 래더 다이어그램이다.
도 25은 본 발명의 실시예에 따른 영상 표시 장치의 개념도를 보여준다.
도 26은 본 발명의 한 실시예에 따라 이용 정보 측정 서버에 등록하는 방법을 도시한 흐름도이다.
도 27은 본 발명의 실시예에 따른 사용자 정보의 XML 스키마를 보여준다.
도 28은 본 발명의 한 실시예에 따른 이용 정보를 획득하고 보고하고 이용하는 방법을 도시한 흐름도이다.
도 29는 본 발명의 한 실시예에 따른 메인 시청각 컨텐트 시청 정보 아이템의 XML 스키마를 보여준다.
도 30는 본 발명의 한 실시예에 따른 부가 서비스 이용 정보 아이템의 XML 스키마를 보여준다.
도 31 내지 도 34은 본 발명의 실시예에 따른 사용자 특성 기반의 부가 서비스의 개념도이다.
도 35은 본 발명의 또 실시예에 따른 영상 표시 장치의 개념도이다.
도 36은 본 발명의 또 실시예에 따른 영상 표시 장치의 동작을 보여주는 래더 다이어그램이다.
도 37는 본 발명의 실시예에 따른 사용자 기본 프로파일에 해당하는 시청각 컨텐트와 관련된 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
도 38은 본 발명의 또 다른 실시예에 따른 사용자 기본 프로파일에 해당하는 시청각 컨텐트와 관련된 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
도 39은 본 발명의 또 다른 실시예에 따른 컨텐츠 정보의 획득에 실패한 경우에서 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
도 40은 본 발명의 또 다른 실시예에 따른 컨텐츠 정보의 획득에 실패한 경우에서 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
도 41은 본 발명의 또 다른 실시예에 따른 컨텐츠 정보의 획득에 실패한 경우에서 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
도 42는 본 발명의 또 다른 실시예에 따른 컨텐츠 정보의 획득에 실패한 경우에서 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
도 43은 본 발명의 또 다른 실시예에 따른 핑거프린트 기반의 영상 표시 장치의 구조를 보여주는 블록도이다.
도 44은 본 발명의 또 다른 실시예에 따른 워트마크 기반의 영상 표시 장치의 구조를 보여주는 블록도이다.
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "엔진", "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
다음은 도 1 내지 도 9를 참고하여 본 발명의 일 실시예에 따른 네트워크 토폴로지를 설명한다.
도 1은 본 발명의 일 실시예에 따른 네트워크 토폴로지를 보여주는 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 네트워크 토폴로지는 컨텐츠 제공 서버(10), 컨텐츠 인식 서비스 제공 서버(20), 멀티채널 비디오 분배 서버(30), 부가 서비스 정보 제공 서버(40), 복수의 부가 서비스 제공 서버(50), 방송 수신 장치(60), 네트워크(70), 영상 표시 장치(100)를 포함한다.
컨텐츠 제공 서버(10)는 방송국 등에 해당할 수 있으며, 메인 시청각 컨텐트(main audio-visual content)를 포함하는 방송 신호를 방송한다. 방송 신호는 부가 서비스를 더 포함할 수 있다. 부가 서비스는 메인 시청각 컨텐트와 관련이 있을 수도 있고, 관련이 없을 수도 있다. 부가 서비스는 서비스 정보(service information), 메타데이터(metadata), 부가 데이터, 컴파일된 실행 파일, 웹 애플리케이션, HTML(Hypertext Markup Language) 문서, XML 문서, CSS(cascading style sheet) 문서, 오디오 파일, 비디오 파일, ATSC 2.0 컨텐트, URL(Uniform Resource Locator)과 같은 주소 등의 형태를 가질 수 있다. 하나 이상의 컨텐츠 제공 서버가 존재할 수 있다.
컨텐츠 인식 서비스 제공 서버(20)는 영상 표시 장치(100)가 메인 시청각 컨텐트에 기초하여 컨텐트를 인식할 수 있게 하는 컨텐트 인식 서비스를 제공한다. 컨텐츠 인식 서비스 제공 서버(20)는 메인 시청각 컨텐트에 수정을 가할 수도 있고 수정을 가하지 않을 수도 있다. 하나 이상의 컨텐츠 인식 서비스 제공 서버가 존재할 수 있다.
컨텐츠 인식 서비스 제공 서버(20)는 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 로고와 같은 보이는 워터마크(visible watermark)를 삽입하는 워터마크 서버일 수 있다. 이 워터마크 서버는 메인 시청각 컨텐트의 각 프레임의 왼쪽 상단 또는 오른쪽 상단에 컨텐츠 제공자의 로고를 워터마크할 수 있다.
또, 컨텐츠 인식 서비스 제공 서버(20)는 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 컨텐츠 정보를 보이지 않는 워터마크(invisible watermark)로서 삽입하는 워터마크 서버일 수 있다.
또한, 컨텐츠 인식 서비스 제공 서버(20)는 메인 시청각 컨텐트의 일부의 프레임 또는 일부의 오디오 샘플로부터 특징 정보를 추출하여 저장하는 핑거프린트 서버일 수 있다. 이 특징 정보는 시그너처라고도 불린다.
멀티채널 비디오 분배 서버(30)는 복수의 방송국으로부터 방송 신호를 수신하고 다중화하여 다중화된 신호를 방송 수신 장치(60)에 제공한다. 특히, 멀티채널 비디오 분배 서버(30)는 수신한 방송 신호에 대해 복조와 채널 복호화를 수행하여 메인 시청각 컨텐트와 부가 서비스를 추출한 후, 추출된 메인 시청각 컨텐트와 추출한 부가 서비스에 대해 채널 부호화를 수행하여 분배를 위한 다중화 신호를 생성할 수 있다. 이때, 멀티채널 비디오 분배 서버(30)는 추출한 부가 서비스를 제외할 수도 있고, 또 다른 부가 서비스를 추가할 수도 있기 때문에, 방송국은 방송국 주도의 서비스를 제공할 수 없다. 하나 이상의 멀티채널 비디오 분배 서버가 존재할 수 있다.
방송 수신 장치(60)는 사용자가 선택한 채널을 튜닝하고, 튜팅한 채널의 신호를 수신하고, 수신한 신호에 대해 복조와 채널 복호를 수행하여 메인 시청각 컨텐트를 추출한다. 그리고 방송 수신 장치(60)는 추출한 메인 시청각 컨텐트를 H.264/MPEG-4 AVC(Moving Picture Experts Group-4 advanced video coding), Dolby AC-3, MPEG-2 AAC (Moving Picture Experts Group-2 Advanced Audio Coding) 알고리즘 등을 이용하여 복호하여 비압축 메인 시청각 컨텐트(uncompressed main AV content)를 생성한다. 방송 수신 장치(60)는 생성한 비압축 메인 시청각 컨텐트를 영상 표시 장치(100)의 외부 입력 포트 등을 통해 영상 표시 장치(100)에 제공한다.
부가 서비스 정보 제공 서버(40)는 영상 표시 장치의 요청에 응답하여 메인 시청각 컨텐트와 관련된 하나 이상의 이용가능한 부가 서비스를 위한 부가 서비스 정보를 제공한다. 하나 이상의 부가 서비스 주소 제공 서버가 존재할 수 있다. 부가 서비스 정보 제공 서버(40)는 복수의 이용가능한 부가 서비스 중에서 가장 우선순위가 높은 부가 서비스를 위한 부가 서비스 정보를 제공할 수도 있다.
부가 서비스 제공 서버(50)는 영상 표시 장치의 요청에 응답하여 메인 시청각 컨텐트와 관련하여 이용할 수 있는 하나 이상의 부가 서비스를 제공한다. 하나 이상의 부가 서비스 제공 서버가 존재할 수 있다.
영상 표시 장치(100)는 텔레비전, 노트북, 핸드폰, 스마트폰 등과 같이 디스플레이부를 장치일 수 있다. 영상 표시 장치(100)는 방송 수신 장치(60)로부터 비압축 메인 시청각 컨텐트를 수신할 수도 있고, 컨텐츠 제공 서버(10) 또는 멀티채널 비디오 분배 서버(30)로부터 부호화된 메인 시청각 컨텐트를 포함하는 방송 신호를 수신할 수 도 있다. 영상 표시 장치(100)는 네트워크(70)를 통해 컨텐츠 인식 서비스 제공 서버(20)로부터 컨텐츠 인식 서비스를 제공받을 수 있고, 네트워크(70)를 통해 부가 서비스 정보 제공 서버(40)로부터 메인 시청각 컨텐트와 관련하여 이용할 수 있는 하나 이상의 부가 서비스의 주소를 받을 수 있으며, 부가 서비스 제공 서버(50)로부터 메인 시청각 컨텐트와 관련하여 이용할 수 있는 하나 이상의 부가 서비스를 제공받을 수 있다.
컨텐츠 제공 서버(10), 컨텐츠 인식 서비스 제공 서버(20), 멀티채널 비디오 분배 서버(30), 부가 서비스 정보 제공 서버(40), 복수의 부가 서비스 제공 서버(50) 중 2 이상은 하나의 서버의 형태로 결합될 수도 있고, 한 사업자에 의해 운영될 수도 있다.
도 2는 본 발명의 일 실시예에 따른 워터마크 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 네트워크 토폴로지는 워터마크 서버(21)를 더 포함한다.
도 2에 도시된 바와 같은 워터마크 서버(21)는 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 컨텐츠 정보를 삽입한다. 멀티채널 비디오 분배 서버(30)는 변형된 메인 시청각 컨텐트를 포함하는 방송 신호를 수신하여 분배한다. 특히, 워터마크 서버는 이하에서 설명하는 바와 같은 디지털 워터마킹 기술을 이용할 수 있다.
디지털 워터마크는 삭제하기 어려운 방법으로 디지털 신호에 정보를 삽입하는 프로세스이다. 예를 들면, 디지털 신호는 오디오, 사진, 또는 비디오일 수 있다. 이 디지털 신호가 복사되면, 삽입된 정보 또한 복사본에 담아진다. 한 디지털 신호가 동시에 다른 여러 개의 워터마크를 운반할 수 있다.
보이는 워터마킹(visible watermarking)에서, 삽입되는 정보는 사진 또는 비디오에서 눈으로 식별가능하다. 전형적으로, 삽입된 정보는 미디어의 소유자를 식별하는 텍스트 또는 로고이다. 텔레비전 방송국이 자신의 로고를 전송되는 비디오의 코너에 추가하면, 이것이 눈으로 식별가능한 워터마크이다.
눈으로 식별 불가능한 워터마킹(invisible watermarking)에서, 정보는 디지털 데이터로서 오디오, 사진, 또는 비디오에 추가되지만, 일정 량의 정보가 숨겨져 있다는 사실은 감지할 수 있다하더라도 그러한 정보는 인지할 수는 없다. 이러한 눈으로 식별불가능한 워터마킹을 통해 비밀 메시지가 전달될 수도 있다.
워터마킹의 한 응용은 디지털 미디어의 불법 복제를 막기 위한 저작권 보호 시스템에 있다. 예컨데, 복제 장치는 디지털 미디어의 복제 전에 디지털 미디어로부터 워터마크를 얻고, 워터마크의 내용에 기초하여 복제를 할지 말지를 결정할 수 있다.
워터마킹의 또 다른 응용은 디지털 미디어의 출처 추적에 있다. 배포 경로 상의 각 지점에서 워터마크가 디지털 미디어에 임베딩된다. 나중에 이와 같은 디지털 미디어가 발견된다면, 이 디지털 미디어로부터 워터마크가 추출될 수 있고, 워터마크의 내용으로부터 배포의 출처를 파악할 수 있다.
디지털 미디어에 대한 설명이 눈으로 식별불가능한 워터마킹의 또 다른 응용이다.
디지털 미디어를 위한 파일 포멧이 메타데이터라고 불리는 추가적인 정보를 포함할 수 있는데, 디지털 워터마크는 디지털 미디어의 시청각 신호 자체로 전달된다는 점에서 메타데이터와는 구별된다.
워터마킹 방법으로 스프레드 스펙트럼, 양자화, 앰플리튜드 변조가 있다.
마킹되는 신호가 추가적인 수정에 의해 얻어진다면, 워터마킹 방법은 스프레드 스펙트럼에 해당한다. 스프레드 스펙트럼 워터마크는 꽤 강인하다고 알려져 있지만, 워터마크가 임베딩되는 호스트 신호에 간섭을 주기 때문에 많은 정보가 실리지는 않는다.
마킹되는 신호가 양자화에 의해 얻어진다면, 워터마킹 방법은 양자화 타입에 해당한다. 양자화 워터마크는 강인성은 낮지만, 꽤 많은 정보를 실을 수 있다.
마킹되는 신호가 공간 도메인에서 스프레드 스펙트럼과 유사한 추가 수정 방법으로 얻어진다면, 워터마킹 방법은 앰플리튜드 변조에 해당한다.
도 3은 본 발명의 일 실시예에 따른 워터마크 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
먼저, 컨텐츠 제공 서버(10)는 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 전송한다(S101).
워터마크 서버(21)는 컨텐츠 제공 서버(10)가 제공하는 방송 신호를 수신하고, 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 로고와 같은 보이는 워터마크(visible watermark)를 삽입하거나, 메인 시청각 컨텐트에 워터마크 정보를 보이지 않는 워터마크(invisible watermark)로서 삽입하고, 워터마킹된 메인 시청각 컨텐트와 부가 서비스를 MVPD(30)에 제공한다(S103).
보이지 않는 워터마크를 통해 삽입되는 워터마크 정보는 워터마크 용도, 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다. 워터마크 용도는 무단 복제 방지, 시청률 조사, 부가 서비스 획득 중 하나를 나타낼 수 있다.
컨텐츠 정보는 메인 시청각 컨텐트를 제공하는 컨텐츠 제공자의 식별 정보, 메인 시청각 컨텐트 식별 정보, 메인 시청각 컨텐트 등급 정보, 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시간 정보, 메인 시청각 컨텐트가 방송되는 채널의 이름, 메인 시청각 컨텐트가 방송되는 채널의 로고, 메인 시청각 컨텐트가 방송되는 채널의 설명, 이용 정보 보고 주소, 이용 정보 보고 주기, 이용 정보 획득을 위한 최소 이용 시간, 메인 시청각 컨텐트와 관련하여 이용가능한 부가 서비스 정보 중 하나 이상을 포함할 수 있다.
영상 표시 장치(100)가 컨텐츠 정보의 획득을 위하여 워터마크를 이용하였다면, 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시간 정보는 이용된 워터마크가 내삽(embedding)된 컨텐트 구간의 시간 정보일 수 있다. 영상 표시 장치(100)가 컨텐츠 정보의 획득을 위하여 핑거프린트를 이용하였다면, 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시간 정보는 특징 정보가 추출된 컨텐트 구간의 시간 정보일 수 있다. 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시간 정보는 컨텐츠 정보 획득에 사용된 컨텐트 구간의 시작 시간, 컨텐츠 정보 획득에 사용된 컨텐트 구간의 지속 시간(duration), 컨텐츠 정보 획득에 사용된 컨텐트 구간의 종료 시간 중 하나 이상을 포함할 수 있다.
이용 정보 보고 주소는 메인 시청각 컨텐트 시청 정보 보고 주소, 부가 서비스 이용 정보 보고 주소 중 하나 이상을 포함할 수 있다. 이용 정보 보고 주기는 메인 시청각 컨텐트 시청 정보 보고 주기, 부가 서비스 이용 정보 보고 주기 중 하나 이상을 포함할 수 있다. 이용 정보 획득을 위한 최소 이용 시간은 메인 시청각 컨텐트 시청 정보 획득을 위한 최소 시청 시간, 부가 서비스 이용 정보 추출을 위한 최소 사용 시간 중 하나 이상을 포함할 수 있다.
메인 시청각 컨텐트가 최소 시청 시간 이상 시청된 경우에 기초하여 영상 표시 장치(100)는 메인 시청각 컨텐트의 시청 정보를 획득하고, 메인 시청각 컨텐트 시청 정보 보고 주기에서 메인 시청각 컨텐트 시청 정보 보고 주소로 추출한 시청 정보를 보고할 수 있다.
부가 서비스가 최소 사용 시간 이상 사용된 경우에 기초하여 영상 표시 장치(100)는 부가 서비스 이용 정보를 획득하고, 부가 서비스 이용 정보 보고 주기에서 부가 서비스 이용 정보 보고 주소로 추출한 이용 정보를 보고할 수 있다.
부가 서비스 정보는 부가 서비스가 존재하는지에 대한 정보, 부가 서비스 주소 제공 서버 주소, 각각의 이용가능한 부가 서비스의 획득 경로, 각각의 이용가능한 부가 서비스를 위한 주소, 각각의 이용가능한 부가 서비스의 시작 시간, 각각의 이용가능한 부가 서비스의 종료 시간, 각각의 이용가능한 부가 서비스의 수명 주기(lifetime), 각각의 이용가능한 부가 서비스의 획득 모드, 각각의 이용가능한 부가 서비스 위한 요청 주기, 각각의 이용가능한 부가 서비스의 우선 순위 정보, 각각의 이용가능한 부가 서비스의 설명, 각각의 이용가능한 부가 서비스의 항목(category), 이용 정보 보고 주소, 이용 정보 보고 주기, 이용 정보 획득을 위한 최소 이용 시간 중 하나 이상을 포함할 수 있다.
이용가능한 부가 서비스의 획득 경로는 IP 또는 ATSC M/H(Advanced Television Systems Committee - Mobile/Handheld)를 나타낼 수 있다. 이용가능한 부가 서비스의 획득 경로가 ATSC M/H인 경우에, 부가 서비스 정보는 주파수 정보, 채널 정보를 더 포함할 수 있다. 각각의 이용가능한 부가 서비스의 획득 모드는 Push 또는 Pull을 나타낼 수 있다.
한편, 워터마크 서버(21)는 메인 시청각 컨텐트의 로고에 워터마크 정보를 보이지 않는 워터마크(invisible watermark)로서 삽입할 수 있다.
예컨데, 워터마크 서버(21)는 로고의 일정 위치에 바코드를 삽입할 수 있다. 이때 로고의 일정 위치는 로고가 디스플레이되는 구역의 하단 1 라인에 해당할 수 있다. 영상 표시 장치(100)는 이와 같이 바코드가 삽입된 로고를 포함하는 메인 시청각 컨텐트를 수신하는 경우에, 바코드를 디스플레이하지 않을 수 있다.
또한, 워터마크 서버(21)는 로고의 메타데이터 형태로 워터마크 정보를 삽입할 수 있다. 이때 로고의 형상은 유지될 수 있다.
또한, 워터마크 서버(21)는 M개의 프레임의 로고의 각각에 N 비트의 워터마크 정보를 삽입할 수 있다. 즉, 워터마크 서버(21)는 M개의 프레임을 통해 M*N개의 워터마크 정보를 삽입할 수 있다.
MVPD(30)는 워터마킹된 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 수신하고, 다중화 신호를 생성하여 방송 수신 장치(60)에 제공한다(S105). 이때 다중화 신호는 수신한 부가 서비스를 배제하거나 새로운 부가 서비스를 포함할 수 있다.
방송 수신 장치(60)는 사용자가 선택한 채널을 튜닝하고 튜닝한 채널의 신호를 수신하고, 수신된 방송 신호를 복조하고 채널 복호화(channel decoding)하고 시청각 복호(AV decoding)를 수행하여 비압축 메인 시청각 컨텐트를 생성한 후, 생성된 비압축 메인 시청각 컨텐트를 영상 표시 장치(100)에 제공한다(S106).
한편, 컨텐츠 제공 서버(10) 또한 메인 시청각 컨텐트를 포함하는 방송 신호를 무선 채널 등을 통해 방송한다(S107).
또한, MVPD(30)는 방송 수신 장치(60)를 통하지 않고 직접 영상 표시 장치(100)에 메인 시청각 컨텐트를 포함하는 방송 신호를 전송할 수도 있다(S108).
영상 표시 장치(100)는 셋톱 박스(60)를 통해 비압축 메인 시청각 컨텐트를 수신할 수 있다. 또는, 영상 표시 장치(100)는 무선 채널을 통해 방송 신호를 수신하고 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 얻을 수 있다. 또는, 영상 표시 장치(100)는 MVPD(30)로부터 방송 신호를 수신하고, 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 수신할 수도 있다. 영상 표시 장치(100)는 획득한 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 워터마크 정보를 추출한다. 워터마크 정보가 로고에 해당하면, 영상 표시 장치(100)는 복수의 로고와 복수의 워터마크 서버 주소의 대응관계로부터 추출한 로고에 해당하는 워터마크 서버 주소를 확인한다. 워터마크 정보가 로고에 해당하는 경우에, 영상 표시 장치(100)는 로고만을 가지고서는 메인 시청각 컨텐츠를 식별할 수 없다. 또한, 워터마크 정보가 컨텐트 정보를 포함하고 있지 않은 경우에도 영상 표시 장치(100)는 메인 시청각 컨텐츠를 식별할 수 없으나, 워터마크 정보가 컨텐츠 제공자 식별 정보나 워터마크 서버 주소를 포함할 수 있다. 워터마크 정보가 컨텐츠 제공자 식별 정보를 포함하는 경우에, 영상 표시 장치(100)는 복수의 컨텐츠 제공자 식별 정보와 복수의 워터마크 서버 주소의 대응관계로부터 추출한 컨텐츠 제공자 식별 정보에 해당하는 워터마크 서버 주소를 확인할 수 있다. 이와 같이, 영상 표시 장치(100)는 워터마크 정보만으로 메인 시청각 컨텐트를 식별할 수 없는 경우에, 획득한 워터마크 서버 주소에 해당하는 워터마크 서버(21)에 접속하여 제1 질의를 전송한다(S109).
워터마크 서버(21)는 제1 질의에 대한 제1 응답을 제공한다(S111). 이 제1 응답은 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다.
워터마크 정보와 제1 응답이 부가 서비스 주소를 포함하고 있지 않다면, 영상 표시 장치(100)는 부가 서비스을 획득할 수 없다. 그러나 워터마크 정보와 제1 응답이 부가 서비스 주소 제공 서버 주소를 포함할 수 있다. 이와 같이, 영상 표시 장치(100)는 워터마크 정보와 제1 응답을 통해 부가 서비스 주소나 부가 서비스를 획득하지 못하였고 부가 서비스 주소 제공 서버 주소를 획득하였다면, 영상 표시 장치(100)는 획득한 부가 서비스 주소 제공 서버 주소에 해당하는 부가 서비스 정보 제공 서버(40)에 접속하여 컨텐츠 정보를 포함하는 제2 질의를 전송한다(S119).
부가 서비스 정보 제공 서버(40)는 제2 질의의 컨텐츠 정보와 관련된 하나 이상의 이용가능한 부가 서비스를 검색한다. 이후, 부가 서비스 정보 제공 서버(40)는 제2 질의에 대한 제2 응답으로 하나 이상의 이용가능한 부가 서비스를 위한 부가 서비스 정보를 영상 표시 장치(100)에 제공한다(S121).
영상 표시 장치(100)는 워터마크 정보, 제1 응답 또는 제2 응답을 통해 하나 이상의 이용가능한 부가 서비스 주소를 획득하였다면, 이 하나 이상의 이용가능한 부가 서비스 주소에 접속하여 부가 서비스를 요청하고(S123), 부가 서비스를 획득한다(S125).
도 4는 본 발명의 일 실시예에 따른 워터마크 기반의 컨텐츠 인식 타이밍을 보여준다.
도 4에 도시된 바와 같이, 방송 수신 장치(60)가 턴온되고 채널을 튜닝하고, 영상 표시 장치(100)가 외부 입력 포트(111)를 통해 방송 수신 장치(60)로부터 튜팅된 채널의 메인 시청각 컨텐트를 수신하면, 영상 표시 장치(100)는 메인 시청각 컨텐트의 워터마크로부터 컨텐츠 제공자 식별자(또는 방송국 식별자)를 감지할 수 있다. 이후, 영상 표시 장치(100)는 감지한 컨텐츠 제공자 식별자에 기초하여 메인 시청각 컨텐트의 워터마크로부터 컨텐츠 정보를 감지할 수 있다.
이때, 도 4에 도시된 바와 같이, 컨텐츠 제공자 식별자의 감지가능 주기와 컨텐츠 정보의 감지가능 주기는 다를 수 있다. 특히, 컨텐츠 제공자 식별자의 감지가능 주기는 컨텐츠 정보의 감지가능 주기보다 짧을 수 있다. 이를 통해, 영상 표시 장치(100)는 필요한 정보만을 감지하기 위한 효율적인 구성을 가질 수 있다.
도 5는 본 발명의 일 실시예에 따른 핑거프린트 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 5에 도시된 바와 같이, 본 발명의 일 실시예에 따른 네트워크 토폴로지는 핑거프린트 서버(22)를 더 포함한다.
도 5에 도시된 바와 같은 핑거프린트 서버(22)는 메인 시청각 컨텐트에 변형을 가하지는 않으며 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출하여 저장한다. 이후에 핑거프린트 서버(22)는 영상 표시 장치(100)로부터의 특징 정보를 수신하면, 수신한 특징 정보에 해당하는 시청각 컨텐트의 식별자와 시간 정보를 제공한다.
도 6은 본 발명의 일 실시예에 따른 핑거프린트 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
먼저, 컨텐츠 제공 서버(10)는 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 전송한다(S201).
핑거프린트 서버(22)는 컨텐츠 제공 서버(10)가 제공하는 방송 신호를 수신하고, 메인 시청각 컨텐트의 복수의 프레임 구간 또는 복수의 오디오 구간으로부터 복수의 특징 정보를 추출하며, 복수의 특징 정보에 각각 대응하는 복수의 질의 결과를 위한 데이터베이스를 구축한다(S203). 질의 결과는 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다.
MVPD(30)는 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 수신하고, 다중화 신호를 생성하여 방송 수신 장치(60)에 제공한다(S205). 이때 다중화 신호는 수신한 부가 서비스를 배제하거나 새로운 부가 서비스를 포함할 수 있다.
방송 수신 장치(60)는 사용자가 선택한 채널을 튜닝하고 튜닝한 채널의 신호를 수신하고, 수신된 방송 신호를 복조하고 채널 복호화(channel decoding)하고 시청각 복호(AV decoding)를 수행하여 비압축 메인 시청각 컨텐트를 생성한 후, 생성된 비압축 메인 시청각 컨텐트를 영상 표시 장치(100)에 제공한다(S206).
한편, 컨텐츠 제공 서버(10) 또한 메인 시청각 컨텐트를 포함하는 방송 신호를 무선 채널 등을 통해 방송한다(S207).
또한, MVPD(30)는 방송 수신 장치(60)를 통하지 않고 직접 영상 표시 장치(100)에 메인 시청각 컨텐트를 포함하는 신호를 전송할 수도 있다(S208).
영상 표시 장치(100)는 셋톱 박스(60)를 통해 비압축 메인 시청각 컨텐트를 수신할 수 있다. 또는, 영상 표시 장치(100)는 무선 채널을 통해 방송 신호를 수신하고 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 얻을 수 있다. 또는, 영상 표시 장치(100)는 MVPD(30)로부터 방송 신호를 수신하고, 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 수신할 수도 있다. 영상 표시 장치(100)는 획득한 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출한다(S213).
영상 표시 장치(100)는 미리 설정된 핑거프린트 서버 주소에 해당하는 핑거프린트 서버(22)에 접속하여 추출한 특징 정보를 포함하는 제1 질의를 전송한다(S215).
핑거프린트 서버(22)는 제1 질의에 대한 제1 응답으로서 질의 결과를 제공한다(S217). 만약 제1 응답이 실패에 해당한다면, 영상 표시 장치(100)는 또 다른 핑거프린트 서버 주소에 해당하는 핑거프린트 서버(22)에 접속하여 추출한 특징 정보를 포함하는 제1 질의를 전송할 수 있다.
핑거프린트 서버(22)는 질의 결과로서 XML (Extensible Markup Language) 문서를 제공할 수 있다. 질의 결과를 담는 XML 문서의 예를 도 7과 표 1을 참고하여 설명한다.
도 7은 본 발명의 일 실시예에 따른 질의 결과를 담는 ACR-Resulttype의 XML 스키마 다이어그램(schema diagram)을 보여준다.
도 7에 도시된 바와 같이, 질의 결과를 담는 ACR-Resulttype은 ResultCode 속성과 ContentID, NTPTimestamp, SignalingChannelInformation, ServiceInformation 엘리먼트를 갖는다.
예컨데, ResultCode 속성이 200의 값을 가지면, 이는 질의 결과가 성공임을 의미할 수 있다. ResultCode 속성이 404의 값을 가지면, 이는 질의 결과가 실패임을 의미할 수 있다.
SignalingChannelInformation 엘리먼트는 SignalingChannelURL 엘리먼트를 갖고, SignalingChannelURL 엘리먼트는 UpdateMode, PollingCycle 속성을 갖는다. UpdateMode 속성은 Pull 값 또는 Push 값을 가질 수 있다.
ServiceInformation 엘리먼트는 ServiceName, ServiceLogo, ServiceDescription 엘리먼트를 갖는다.
표 1은 이와 같은 질의 결과를 담는 ACR-ResultType의 XML Schema를 보여준다.
Figure pct00001
ContentID 엘리먼트로서, 아래의 표 2에서 보여주는 바와 같은 ATSC 컨텐트 식별자(ATSC content identifier)가 이용될 수 있다.
Figure pct00002
표 2에서 보여지는 바와 같이, ATSC content identifier는 TSID와 하우스 번호로 구성된 구조를 가진다.
16 비트 부호없는 정수 TSID는 트랜스포트 스트림 식별자(transport stream identifier)를 담는다(carry).
5 비트 부호 없는 정수 end_of_day는 방송이 끝나서 content_id 값이 재사용될 수 있는 날의 시(hour)로 셋팅된다.
9 비트 부호 없는 정수 unique_for는 content_id 값이 재사용될 수 없는 날의 수(the number of day)로 설정된다.
content_id는 컨텐트 식별자를 나타낸다. 영상 표시 장치(100)는 매일 end_of_day에 해당하는 시간에서 unique_for를 1씩 감소시키고, unique_for가 0이 되지 않았다면 content_id가 유일한 것이라고 간주할 수 있다.
한편, ContentID 엘리먼트로서, 아래에서 설명하는 바와 같은 ATSC-M/H service를 위한 글로벌 서비스 식별자(Global Service Identifier)가 이용될 수 있다.
글로벌 서비스 식별자는 다음과 같은 폼을 갖는다.
- urn:oma:bcast:iauth:atsc:service:<region>:<xsid>:<serviceid>
여기에서 <region>는 ISO 639-2에 의해 규정되는 바와 같은 2개의 문자로 된 국제 국가 코드이다. 로컬 서비스(local service)를 위한 <xsid> 는 <region>에서 정의하는 바와 같은 TSID의 십진수이고, 지역 서비스(regional service) (major > 69)를 위한 <xsid> 는 "0"이다. <serviceid> 는 <major>나 <minor>로 정의된다. <major> 는 메이저 채널 번호(Major Channel number)를 나타내고, <minor> 마이너 채널 번호(Minor Channel Number)를 나타낸다.
글로벌 서비스 식별자의 예는 아래와 같다.
- urn:oma:bcast:iauth:atsc:service:us:1234:5.1
- urn:oma:bcast:iauth:atsc:service:us:0:100.200
한편, ContentID 엘리먼트로서, 아래에서 설명하는 바와 같은 ATSC 컨텐트 식별자가 이용될 수 있다.
ATSC 컨텐트 식별자는 다음과 같은 폼을 갖는다.
urn:oma:bcast:iauth:atsc:content:<region>:<xsidz>:<contentid>:<unique_for>:<end_of_day>
여기에서 <region>는 ISO 639-2에 의해 규정되는 바와 같은 2개의 문자로 된 국제 국가 코드이다. 로컬 서비스(local service)를 위한 <xsid> 는 <region>에서 정의하는 바와 같은 TSID의 십진수이고, "."<serviceid>가 뒤따를 수 있다. 지역 서비스(regional service) (major > 69)를 위한 <xsid> 는 <serviceid>이다. <content_id> 는 표 2에 정의되어 있는 content_id field의 base64 부호이고, <unique_for> 는 표 2에 정의되어 있는 unique_for field의 십진수 부호이며, <end_of_day> 는 표 2에 정의되어 있는 end_of_day field의 십진수 부호이다.
이하에서는 다시 도 6을 설명한다.
질의 결과가 부가 서비스 주소나 부가 서비스를 포함하고 있지 않고 부가 서비스 주소 제공 서버 주소를 포함한다면, 영상 표시 장치(100)는 획득한 부가 서비스 주소 제공 서버 주소에 해당하는 부가 서비스 정보 제공 서버(40)에 접속하여 컨텐츠 정보를 포함하는 제2 질의를 전송한다(S219).
부가 서비스 정보 제공 서버(40)는 제2 질의의 컨텐츠 정보와 관련된 하나 이상의 이용가능한 부가 서비스를 검색한다. 이후, 부가 서비스 정보 제공 서버(40)는 제2 질의에 대한 제2 응답으로 하나 이상의 이용가능한 부가 서비스를 위한 부가 서비스 정보를 영상 표시 장치(100)에 제공한다(S221).
영상 표시 장치(100)는 제1 응답 또는 제2 응답을 통해 하나 이상의 이용가능한 부가 서비스 주소를 획득하였다면, 이 하나 이상의 이용가능한 부가 서비스 주소에 접속하여 부가 서비스를 요청하고(S223), 부가 서비스를 획득한다(S225).
UpdateMode 속성이 Pull 값을 가지는 경우, 영상 표시 장치(100)는 SignalingChannelURL을 통해 HTTP request를 부가서비스 제공 서버(50)에 전송하여 이에 대한 응답으로 PSIP 바이너리 스트림을 포함하는 HTTP response를 부가서비스 제공 서버(50)로부터 수신한다. 이 경우 영상 표시 장치(100)는 PollingCycle 속성으로 지정되는 Polling 주기에 따라 HTTP request를 전송할 수 있다. 또한, SignalingChannelURL 엘리먼트는 업데이트 시간 속성을 가질 수도 있다. 이 경우, 영상 표시 장치(100)는 업데이트 시간 속성으로 지정되는 업데이트 시간에서 HTTP request를 전송할 수 있다.
UpdateMode 속성이 Push 값을 가지는 경우, 영상 표시 장치(100)는 XMLHTTPRequest API 를 활용하여 비동기적으로 서버로부터 업데이트를 수신할 수 있다. 영상 표시 장치(100)가 서버로 XMLHTTPRequest object를 통해 비동기적인 request를 한 후에 서버가 시그널링 정보에 변경이 있을 경우에 이 채널을 통해 response로 시그널링 정보를 제공하는 방안이다. 세션의 대기 시간에 제한이 있을 경우에는 session timeout respond를 발생시키고, 바로 수신기는 이를 인지하여 재요청하여서 수신기와 서버간의 시그널링 채널을 항시 유지할 수 있다.
도 8은 본 발명의 일 실시예에 따른 워터마크와 핑거프린트 기반의 네트워크 토폴로지를 보여주는 블록도이다.
도 8에 도시된 바와 같이, 본 발명의 일 실시예에 따른 네트워크 토폴로지는 워터마크 서버(21)와 핑거프린트 서버(22)를 더 포함한다.
도 8에 도시된 바와 같은 워터마크 서버(21)는 메인 시청각 컨텐트에 컨텐츠 제공자 식별 정보를 삽입한다. 워터마크 서버(21)는 로고와 같이 보이는 워터마크로서 컨텐츠 제공자 식별 정보를 메인 시청각 컨텐트에 삽입할 수도 있고, 보이지 않는 워터마크로서 컨텐츠 제공자 식별 정보를 메인 시청각 컨텐트에 삽입할 수도 있다.
핑거프린트 서버(22)는 메인 시청각 컨텐트에 변형을 가하지는 않으며 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출하여 저장한다. 이후에 핑거프린트 서버(22)는 영상 표시 장치(100)로부터의 특징 정보를 수신하면, 수신한 특징 정보에 해당하는 시청각 컨텐트의 식별자와 시간 정보를 제공한다.
도 9은 본 발명의 일 실시예에 따른 워터마크와 핑거프린트 기반의 네트워크 토폴로지 내의 데이터 흐름을 보여주는 래더 다이어그램이다.
먼저, 컨텐츠 제공 서버(10)는 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 전송한다(S301).
워터마크 서버(21)는 컨텐츠 제공 서버(10)가 제공하는 방송 신호를 수신하고, 메인 시청각 컨텐트에 변형을 가하여 메인 시청각 컨텐트에 로고와 같은 보이는 워터마크(visible watermark)를 삽입하거나, 메인 시청각 컨텐트에 워터마크 정보를 보이지 않는 워터마크(invisible watermark)로서 삽입하고, 워터마킹된 메인 시청각 컨텐트와 부가 서비스를 MVPD(30)에 제공한다(S303). 보이지 않는 워터마크를 통해 삽입되는 워터마크 정보는 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다. 컨텐츠 정보와 부가 서비스 정보는 앞서 설명한 바와 같다.
MVPD(30)는 워터마킹된 메인 시청각 컨텐트와 부가 서비스를 포함하는 방송 신호를 수신하고, 다중화 신호를 생성하여 방송 수신 장치(60)에 제공한다(S305). 이때 다중화 신호는 수신한 부가 서비스를 배제하거나 새로운 부가 서비스를 포함할 수 있다.
방송 수신 장치(60)는 사용자가 선택한 채널을 튜닝하고 튜닝한 채널의 신호를 수신하고, 수신된 방송 신호를 복조하고 채널 복호화(channel decoding)하고 시청각 복호(AV decoding)를 수행하여 비압축 메인 시청각 컨텐트를 생성한 후, 생성된 비압축 메인 시청각 컨텐트를 영상 표시 장치(100)에 제공한다(S306).
한편, 컨텐츠 제공 서버(10) 또한 메인 시청각 컨텐트를 포함하는 방송 신호를 무선 채널 등을 통해 방송한다(S307).
또한, MVPD(30)는 방송 수신 장치(60)를 통하지 않고 직접 영상 표시 장치(100)에 메인 시청각 컨텐트를 포함하는 신호를 전송할 수도 있다(S308).
영상 표시 장치(100)는 셋톱 박스(60)를 통해 비압축 메인 시청각 컨텐트를 수신할 수 있다. 또는, 영상 표시 장치(100)는 무선 채널을 통해 방송 신호를 수신하고 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 얻을 수 있다. 또는, 영상 표시 장치(100)는 MVPD(30)로부터 방송 신호를 수신하고, 수신한 방송 신호를 복조하고 복호하여 메인 시청각 컨텐트를 수신할 수도 있다. 영상 표시 장치(100)는 획득한 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 워터마크 정보를 추출한다. 워터마크 정보가 로고에 해당하면, 영상 표시 장치(100)는 복수의 로고와 복수의 워터마크 서버 주소의 대응관계로부터 추출한 로고에 해당하는 워터마크 서버 주소를 확인한다. 워터마크 정보가 로고에 해당하는 경우에, 영상 표시 장치(100)는 로고만을 가지고서는 메인 시청각 컨텐츠를 식별할 수 없다. 또한, 워터마크 정보가 컨텐트 정보를 포함하고 있지 않은 경우에도 영상 표시 장치(100)는 메인 시청각 컨텐츠를 식별할 수 없으나, 워터마크 정보가 컨텐츠 제공자 식별 정보나 워터마크 서버 주소를 포함할 수 있다. 워터마크 정보가 컨텐츠 제공자 식별 정보를 포함하는 경우에, 영상 표시 장치(100)는 복수의 컨텐츠 제공자 식별 정보와 복수의 워터마크 서버 주소의 대응관계로부터 추출한 컨텐츠 제공자 식별 정보에 해당하는 워터마크 서버 주소를 확인할 수 있다. 이와 같이, 영상 표시 장치(100)는 워터마크 정보만으로 메인 시청각 컨텐트를 식별할 수 없는 경우에, 획득한 워터마크 서버 주소에 해당하는 워터마크 서버(21)에 접속하여 제1 질의를 전송한다(S309).
워터마크 서버(21)는 제1 질의에 대한 제1 응답을 제공한다(S311). 이 제1 응답은 핑거프린트 서버 주소, 컨텐츠 정보, 부가 서비스 정보, 이용가능한 부가 서비스 중 하나 이상을 포함할 수 있다. 컨텐츠 정보와 부가 서비스 정보는 앞서 설명한 바와 같다.
워터마크 정보와 제1 응답이 핑거프린트 서버 주소를 포함하고 있다면, 영상 표시 장치(100)는 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출한다(S313).
영상 표시 장치(100)는 제1 응답 내의 핑거프린트 서버 주소에 해당하는 핑거프린트 서버(22)에 접속하여 추출한 특징 정보를 포함하는 제2 질의를 전송한다(S315).
핑거프린트 서버(22)는 제2 질의에 대한 제2 응답으로서 질의 결과를 제공한다(S317).
질의 결과가 부가 서비스 주소나 부가 서비스를 포함하고 있지 않고 부가 서비스 주소 제공 서버 주소를 포함한다면, 영상 표시 장치(100)는 획득한 부가 서비스 주소 제공 서버 주소에 해당하는 부가 서비스 정보 제공 서버(40)에 접속하여 컨텐츠 정보를 포함하는 제3 질의를 전송한다(S319).
부가 서비스 정보 제공 서버(40)는 제3 질의의 컨텐츠 정보와 관련된 하나 이상의 이용가능한 부가 서비스를 검색한다. 이후, 부가 서비스 정보 제공 서버(40)는 제3 질의에 대한 제3 응답으로 하나 이상의 이용가능한 부가 서비스를 위한 부가 서비스 정보를 영상 표시 장치(100)에 제공한다(S321).
영상 표시 장치(100)는 제1 응답, 제2 응답, 또는 제3 응답을 통해 하나 이상의 이용가능한 부가 서비스 주소를 획득하였다면, 이 하나 이상의 이용가능한 부가 서비스 주소에 접속하여 부가 서비스를 요청하고(S323), 부가 서비스를 획득한다(S325).
다음은 도 10을 참고하여, 본 발명의 실시예에 따른 영상 표시 장치(100)를 설명한다.
도 10은 본 발명의 실시예에 따른 영상 표시 장치의 블록도이다.
도 10에 도시된 바와 같이, 본 발명의 실시예에 따른 영상 표시 장치(100)는 방송 신호 수신부(101), 복조부(103), 채널 복호부(105), 역다중화부(107), 시청각 복호부(109), 외부 입력 포트(111), 재생 제어부(113), 재생 장치(120), 부가 서비스 관리부(130), 데이터 송수신부(141), 메모리(150)를 포함한다.
방송 신호 수신부(101)는 컨텐츠 제공 서버(10) 또는 MVPD(30)로부터 방송 신호를 수신한다.
복조부(103)는 수신한 방송 신호를 복조하여 복조된 신호를 생성한다.
채널 복호부(105)는 복조된 신호를 채널 복호하여 채널 복호된 데이터를 생성한다.
역다중화부(107)는 채널 복호된 데이터로부터 메인 시청각 컨텐트와 부가 서비스를 분리한다. 분리된 부가 서비스는 부가 서비스 저장부(152)에 저장된다.
시청각 복호부(109)는 분리된 메인 시청각 컨텐트를 시청각 복호(AV decoding)하여 비압축 메인 시청각 컨텐트를 생성한다.
한편, 외부 입력 포트(111)는 방송 수신 장치(60), 디브이디(digital versatile disk, DVD) 플레이어, 블루레이 디스크 (Blu-ray disc) 플레이어 등으로부터 비압축 메인 시청각 컨텐트를 수신한다. 외부 입력 포트(111)는 DSUB 포트, HDMI (High Definition Multimedia Interface) 포트, DVI (Digital Visual Interface) 포트, 컴포지트(composite) 포트, 컴포넌트(component) 포트, S-Video 포트 중 하나 이상을 포함할 수 있다.
재생 제어부(113)는 시청각 복호부(109)가 생성하는 비압축 메인 시청각 컨텐트 또는 외부 입력 포트(111)로부터 수신한 비압축 메인 시청각 컨텐트 중 적어도 하나를 사용자 선택에 의해 재생 장치(120)에 재생한다.
재생 장치(120)는 디스플레이부(121)와 스피커(123)를 포함한다. 디스플레이부(121)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
부가 서비스 관리부(130)는 메인 시청각 컨텐트의 컨텐츠 정보를 획득하고, 획득된 컨텐츠 정보에 기초하여 이용가능한 부가 서비스를 획득한다. 특히, 앞서 설명한 바와 같이 부가 서비스 관리부(130)는 비압축 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플에 기초하여 메인 시청각 컨텐트의 식별 정보를 획득할 수 있는데, 본 명세서에서는 이를 자동 컨텐츠 인식(automatic contents recognition, ACR)이라 칭하기도 한다.
데이터 송수신부(141)는 ATSC-M/H (Advanced Television Systems Committee - Mobile/Handheld) 채널 송수신부(141a)와 IP 송수신부(141b)를 포함할 수 있다.
메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상 표시 장치(100)는 인터넷(internet)상에서 상기 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
메모리(150)는 컨텐츠 정보 저장부(151), 부가 서비스 저장부(152), 로고 저장부(153), 설정 정보 저장부(154), 북마크 저장부(155), 사용자 정보 저장부(156), 이용 정보 저장부(157)를 포함할 수 있다.
컨텐츠 정보 저장부(151)는 복수의 특징 정보에 대응하는 복수의 컨텐츠 정보를 저장한다.
부가 서비스 저장부(152)는 복수의 특징 정보에 대응하는 복수의 부가 서비스를 저장할 수도 있고, 복수의 컨텐츠 정보에 대응하는 복수의 부가 서비스를 저장할 수도 있다.
로고 저장부(153)는 복수의 로고를 저장한다. 또, 로고 저장부는 이 복수의 로고에 대응하는 컨텐츠 제공자 식별자 또는 복수의 로고에 대응하는 워터마크 서버 주소를 더 저장할 수도 있다.
설정 정보 저장부(154)는 ACR을 위한 설정 정보를 저장한다.
북마크 저장부(155)는 북마크를 저장한다.
사용자 정보 저장부(156)는 사용자 정보를 저장한다. 사용자 정보는 하나 이상의 서비스를 위한 하나 이상의 계정 정보, 지역 정보, 가족 구성원 정보, 선호 장르 정보, 영상 표시 장치 정보, 이용 정보 제공 범위 중 하나 이상을 포함할 수 있다. 하나 이상의 계정 정보는 이용 정보 측정 서버를 위한 계정 정보, 트위터(twitter), 페이스북(facebook)과 같은 소셜 네트워크 서비스(social network service)의 계정 정보를 포함할 수 있다. 지역 정보는 주소 정보, 우편 번호를 포함할 수 있다. 가족 구성원 정보는 가족 구성원의 수, 각 구성원의 나이, 각 구성원의 성별, 각 구성원의 종교, 각 구성원의 직업 등을 포함할 수 있다. 선호 장르 정보는 스포츠, 영화, 드라마, 교육, 뉴스, 오락, 기타 장르 중에서 하나 이상으로 설정될 수 있다. 영상 표시 장치 정보는 영상 표시 장치의 종류, 제조사, 펌웨어 버전, 해상도, 모델명, OS, 브라우저, 저장 장치 유무, 저장 장치의 용량, 네트워크 속도에 대한 정보를 포함할 수 있다. 이용 정보 제공 범위가 설정되면, 영상 표시 장치(100)는 설정된 범위 내에서 메인 시청각 컨텐트 시청 정보와 부가 서비스 이용 정보를 수집하고 보고할 수 있다. 이용 정보 제공 범위는 가상 채널 각각에 대해 설정될 수 있다. 또한, 이용 정보 측정 허용 범위는 물리 채널 전체에 대해 설정될 수도 있다.
이용 정보 저장부(157)는 영상 표시 장치(100)에 의해 수집되는 메인 시청각 컨텐트 시청 정보와 부가 서비스 사용 정보를 저장한다. 또한, 영상 표시 장치(100)는 수집한 메인 시청각 컨텐트 시청 정보와 수집한 부가 서비스 사용 정보에 기초하여 서비스 이용 패턴을 분석하고, 분석된 서비스 이용 패턴을 이용 정보 저장부(157)에 저장할 수 있다.
부가 서비스 관리부(130)는 핑거프린트 서버(22) 또는 컨텐츠 정보 저장부(151)로부터 메인 시청각 컨텐트의 컨텐츠 정보를 획득할 수 있다. 컨텐츠 정보 저장부(151)에 추출한 특징 정보에 해당하는 컨텐츠 정보가 없거나 충분한 컨텐츠 정보가 없는 경우, 부가 서비스 관리부(130)는 데이터 송수신부(141)를 통해 추가 컨텐츠 정보를 수신할 수 있다. 또한, 부가 서비스 관리부(130)는 지속적으로 컨텐츠 정보를 업데이트할 수 있다.
부가 서비스 관리부(130)는 부가 서비스 제공 서버(50) 또는 부가 서비스 저장부(153)로부터 이용가능한 부가 서비스를 획득할 수 있다. 부가 서비스 저장부(153)에 부가 서비스가 없거나 충분한 부가 서비스가 없는 경우, 부가 서비스 관리부(130)는 데이터 송수신부(141)를 통해 부가 서비스를 업데이트할 수 있다. 또한, 부가 서비스 관리부(130)는 지속적으로 부가 서비스를 업데이트할 수 있다.
부가 서비스 관리부(130)는 메인 시청각 컨텐트로부터 로고를 추출하고, 로고 저장부(155)에 질의하여 추출한 로고에 대응하는 컨텐츠 제공자 식별자 또는 워터마크 서버 주소를 획득할 수 있다. 로고 저장부(155)에 추출한 로고와 일치하는 로고가 없거나 충분한 로고가 없는 경우, 부가 서비스 관리부(130)는 데이터 송수신부(141)를 통해 추가 로고를 수신할 수 있다. 또한, 부가 서비스 관리부(130)는 지속적으로 로고를 업데이트할 수 있다.
부가 서비스 관리부(130)는 메인 시청각 컨텐트로부터 추출한 로고와 로고 저장부(155) 내의 복수의 로고와의 비교를 수행하는데 연산의 부담을 줄이기 위한 다양한 방법을 수행할 수 있다.
예컨데, 부가 서비스 관리부(130)는 색깔 특성에 기초하여 비교를 수행할 수 있다. 즉, 부가 서비스 관리부(130)는 추출한 로고의 색깔 특성과 로고 저장부(155) 내의 로고의 색깔 특성을 비교하여 일치 여부를 판단할 수 있다.
또, 부가 서비스 관리부(130)는 문자 인식에 기초하여 비교를 수행할 수 있다. 즉, 부가 서비스 관리부(130)는 추출한 로고로부터 인식되는 문자와 로고 저장부(155) 내의 로고로부터 인식되는 문자를 비교하여 일치 여부를 판단할 수 있다.
뿐만 아니라, 부가 서비스 관리부(130)는 로고의 윤곽에 대한 형상에 기초하여 비교를 수행할 수 있다. 즉, 부가 서비스 관리부(130)는 추출한 로고의 윤곽 형상과 로고 저장부(155) 내의 로고의 윤곽 형상을 비교하여 일치 여부를 판단할 수 있다.
다음은 도 11와 도 12을 참고하여 본 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 설명한다.
도 11는 본 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 보여주는 흐름도이다.
부가 서비스 정보는 부가 서비스의 시작 시간을 포함할 수 있다. 이때, 영상 표시 장치(100)는 이 시작 시간에서 부가 서비스를 시작할 필요가 있다. 그러나, 영상 표시 장치(100)는 타임 스탬프를 가지지 않는 비압축 메인 시청각 컨텐트를 전송하는 신호를 수신하기 때문에, 메인 시청각 컨텐트의 재생 시간의 기준과 부가 서비스의 시작 시간의 기준은 서로 다르다. 영상 표시 장치(100)가 시간 정보를 가지는 메인 시청각 컨텐트를 수신하더라도, 재방송 등과 같이, 메인 시청각 컨텐트의 재생 시간의 기준과 부가 서비스의 시작 시간의 기준은 서로 다를 수 있다. 따라서, 영상 표시 장치(100)는 메인 시청각 컨텐트의 기준 시간과 부가 서비스의 기준 시간을 동기화할 필요가 있다. 특히 영상 표시 장치(100)는 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 시작 시간을 동기화할 필요가 있다.
먼저, 부가 서비스 관리부(130)는 메인 시청각 컨텐트의 일부 구간을 추출한다(S801). 메인 시청각 컨텐트의 일부 구간은 메인 시청각 컨텐트의 일부 비디오 프레임과 일부 오디오 구간 중 하나 이상을 포함할 수 있다. 부가 서비스 관리부(130)가 메인 시청각 컨텐트의 일부 구간을 추출한 시간을 Tn이라 한다.
부가 서비스 관리부(130)는 추출된 구간에 기초하여 메인 시청각 컨텐트의 컨텐츠 정보를 획득한다(S803). 구체적으로 부가 서비스 관리부(130)는 추출된 구간에 보이지 않는 워터마크(invisible watermark)로 부호화된 정보를 복호하여 컨텐츠 정보를 획득할 수 있다. 또한, 부가 서비스 관리부(130)는 추출된 구간의 특징 정보를 추출하고, 추출된 특징 정보에 기초하여 핑거프린트 서버(22) 또는 컨텐츠 정보 저장부(151)로부터 메인 시청각 컨텐트의 컨텐츠 정보를 획득할 수 있다. 부가 서비스 관리부(130)가 컨텐츠 정보를 획득한 시간을 Tm이라 한다.
한편, 컨텐츠 정보는 추출된 구간의 시작 시간(Ts)을 포함한다. 부가 서비스 관리부(130)는 컨텐츠 정보 획득 시간(Tm) 이후부터는 시간(Ts), 시간(Tm), 시간(Tn)에 기초하여 메인 시청각 컨텐트의 재생 시간을 부가 서비스의 시작 시간과 동기화한다(S805). 구체적으로, 부가 서비스 관리부(130)는 컨텐츠 정보 획득 시간(Tm)을 다음의 수학식 1에서 계산되는 시간(Tp)로 간주한다.
Figure pct00003
그리고, 부가 서비스 관리부(130)는 컨텐츠 정보 획득 시간부터 시간(Tx)가 경과한 시간을 Tp + Tx로 간주할 수 있다.
이후, 부가 서비스 관리부(130)는 획득한 컨텐츠 정보에 기초하여 부가 서비스와 부가 서비스의 시작 시간(Ta)을 획득한다(S807).
메인 시청각 컨텐트의 동기화된 재생 시간이 부가 서비스의 시작 시간(Ta)와 일치하면, 부가 서비스 관리부(130)는 획득한 부가 서비스를 시작한다(S809). 구체적으로, 부가 서비스 관리부(130)는 다음의 수학식 2를 만족하는 경우에 부가 서비스를 시작할 수 있다.
Figure pct00004
도 12은 발명의 실시예에 따라 메인 시청각 컨텐트의 재생 시간과 부가 서비스의 재생 시간을 동기화하는 방법을 보여주는 개념도이다.
도 12에 도시된 바와 같이, 영상 표시 장치(100)는 시스템 시간(Tn)에서 시청각 샘플을 추출한다.
영상 표시 장치(100)는 추출한 시청각 샘플로부터 특징 정보를 추출하고, 핑거프린트 서버(22)에 추출한 특징 정보를 포함하는 질의를 전송하여 질의 결과를 수신한다. 영상 표시 장치(100)는 질의 결과를 파싱하여 추출한 시청각 샘플의 시작 시간(Ts)가 11000ms에 해당함을 시간(Tm)에서 확인한다.
따라서, 영상 표시 장치는 수학식 1에 따라 추출한 시청각 샘플의 시작 시간을 확인한 시점을 Ts + (Tm - Tn)로 간주하여 이후부터 메인 시청각 컨텐트의 재생 시간을 부가 서비스의 시작 시간과 동기화할 수 있다.
다음은 도 13 내지 도 14을 참고하여 본 발명의 다양한 실시예에 따른 ACR 애플리케이션을 설명한다.
본 발명의 다양한 실시예에 따른 ACR 애플리케이션으로, 자동 재생 애플리케이션, 컨텐츠 제공자 애플리케이션, 영상 표시 장치 제조사 애플리케이션 등을 들 수 있다.
도 13은 본 발명의 실시예에 따른 자동 재생 애플리케이션의 실행 화면을 보여준다.
자동 재생 애플리케이션은 사용자가 아무런 액션을 취하지 않더라도 부가 서비스를 자동적으로 재생한다. 이러한 의미에서, 본 명세서에서 자동 재생 애플리케이션을 린백 애플리케이션(lean back application)이라 부르기도 한다.
자동 재생 애플리케이션은 메인 시청각 컨텐트의 재생 중에 컨텐츠 제공자 또는 방송사가 제공하는 장면 연관 정보와 같은 부가 서비스를 메인 시청각 컨텐트의 재생 시간에 따라 사용자의 입력 없이 자동으로 재생한다. 즉, 컨텐츠 제공자 또는 방송사가 전적으로 자동 재생 애플리케이션을 통제한다. 예컨데, 자동 재생 애플리케이션이 특정 채널 또는 특정 컨텐트에 관련되어 있는 경우, 영상 표시 장치(100)가 자동 재생 애플리케이션에 관련된 채널 또는 컨텐트로 진입하면, 영상 표시 장치(100)는 해당 자동 재생 애플리케이션을 사용자의 입력 없이 자동으로 실행할 수 있다. 그리고, 영상 표시 장치(100)가 자동 재생 애플리케이션에 관련된 채널 또는 컨텐트로부터 벗어나면, 영상 표시 장치(100)는 해당 자동 재생 애플리케이션을 사용자의 입력 없이 자동으로 종료할 수 있다. 이러한 의미에서, 본 명세서에서 자동 재생 애플리케이션을 채널-종속 애플리케이션 또는 컨텐트-종속 애플리케이션이라 부르기도 한다.
도 13에 도시된 바와 같이, 자동 재생 애플리케이션이 재생되면, 화면(200)은 축소된 메인 시청각 컨텐트가 재생되는 서브 화면(210)과 부가 정보가 디스플레이되는 서브 화면(220)을 포함할 수 있다. 부가 정보가 디스플레이되는 서브 화면(220)은 메인 시청각 컨텐트가 재생되는 서브 화면(210)과 공간적으로 나뉘어 질 수 있다.
한편, 자동 재생 애플리케이션이 실행될 때, 부가 정보가 디스플레이되는 영역은 반투명할 수 있다. 이 경우, 부가 정보가 디스플레이되는 영역은 메인 시청각 컨텐트가 재생되는 영역의 위에 overlay될 수 있다.
도 14는 본 발명의 실시예에 따른 컨텐츠 제공자 애플리케이션의 실행 화면을 보여준다.
본 명세서에서, 컨텐츠 제공자 애플리케이션을 풀 인터렉티브 애플리케이션(full interactive application)이라 부르기도 한다.
도 14의 (A)에 도시된 바와 같이, 영상 표시 장치(100)는 복수의 애플리케이션을 다운로드하여 저장할 수 있다. 도 14의 (A)는 복수의 애플리케이션의 아이콘(230)다. 이러한 애플리케이션 중에서 컨텐츠 제공자 애플리케이션은 컨텐츠 제공자에 의해 제작되고 배포되는 애플리케이션이어서, 컨텐츠 제공자의 통제 하에 있을 수 있다.
영상 표시 장치(100)의 사용자는 컨텐츠 제공자 애플리케이션을 애플리케이션 스토어에서 다운로드할 수 있고, 다운로드된 컨텐츠 제공자 애플리케이션의 실행을 결정할 수 있다.
도 14의 (B)는 컨텐츠 제공자 애플리케이션의 실행 화면을 보여준다. 도 14의 (B)에 도시된 바와 같이, 화면(200)은 축소된 메인 시청각 컨텐트가 재생되는 서브 화면(210)과 부가 정보가 디스플레이되는 서브 화면(220), 메뉴가 디스플레이되는 서브 화면을 포함할 수 있다.
영상 표시 장치 제조사 애플리케이션은 영상 표시 장치 제조사 에 의해 제작되고, 영상 표시 장치 제조사에 의해 제어되며, 영상 표시 장치(100)의 생산시에 미리 저장될 수 있다. 즉, 영상 표시 장치 제조사 애플리케이션은 컨텐츠 제공자나 컨텐츠에 상관없이 동일한 서비스를 제공할 수 있으며, 컨텐츠 제공자나 컨텐츠에 상관없이 동일한 유저 인터페이스를 제공할 수 있다.
영상 표시 장치 제조사 애플리케이션은 컨텐츠 제공자가 제공하는 부가 서비스가 표시되는 영역과 영상 표시 장치 제조사가 제공하는 부가 서비스가 표시되는 영역을 분리하여 가질 수 있다. 영상 표시 장치 제조사 애플리케이션은 영상 표시 장치(100)의 사용자에 의해 실행 여부가 결정될 수 있다.
영상 표시 장치 제조사 애플리케이션은 2가지 타입을 가질 수 있다.
첫번째 타입의 영상 표시 장치 제조사 애플리케이션은 크기 조절 사용자 인터페이스(resizing user interface)를 가진다. 크기 조절 사용자 인터페이스를 가지는 영상 표시 장치 제조사 애플리케이션은 메인 시청각 컨텐트가 디스플레이되는 영역의 크기를 줄여 줄인 영역 내에서 메인 시청각 컨텐트의 내용 전부가 디스플레이될 수 있도록 한다. 또한, 크기 조절 사용자 인터페이스를 가지는 영상 표시 장치 제조사 애플리케이션은 애플리케이션이 디스플레이되는 영역을 알파벳 L자나 Inverse-L 자 구조로 만든다.
두 번째 타입의 영상 표시 장치 제조사 애플리케이션은 오버레이 사용자 인터페이스(Overlay user interface)를 가진다. 오버레이 사용자 인터페이스(Overlay user interface)를 가지는 영상 표시 장치 제조사 애플리케이션은 메인 시청각 컨텐트가 디스플레이되는 영역의 크기는 그대로 유지하면서 애플리케이션이 디스플레이되는 영역을 메인 시청각 컨텐트 위에 겹친다. 애플리케이션이 디스플레이되는 영역이 메인 시청각 컨텐트를 가리므로, 애플리케이션 영역은 반투명일 수 있다.
이처럼, 영상 표시 장치 제조사 애플리케이션은 어떠한 단일 컨텐츠 제공자나 어떠한 단일 채널에 종속하지 않는다. 이러한 애플리케이션은 영상 표시 장치 제조사에 의해 제작된다고 설명하였으나, 여기에 한정될 필요는 없다. 이러한 어떠한 단일 컨텐츠 제공자나 어떠한 단일 채널에 종속하지 않는 애플리케이션은 채널 변경에 의해서는 실행되지 않고,채널 변경에 의해서는 종료되지 않는다. 본 명세서에서는 설명의 편의를 위하여, 이러한 어떠한 단일 컨텐츠 제공자나 어떠한 단일 채널에 종속하지 않는 애플리케이션을 채널-독립 애플리케이션, 영상 표시 장치 제조사 애플리케이션 또는 Live+ app이라고 부르도록 한다.
다음은 도 15과 도 16를 참고하여 본 발명의 실시예에 따른 ACR 기능의 온오프 제어를 설명한다.
도 15은 본 발명의 실시예에 따른 ACR 기능의 제어를 위한 사용자 인터페이스를 보여준다.
도 15에 도시된 바와 같이, 재생 제어부(113)는 ACR 기능 설정 창을 디스플레이한다. 사용자는 ACR 기능 설정 창을 통해 ACR 기능을 활성화시킬 수도 있고, 비활성화시킬 수도 있다.
ACR 기능이 활성화된 경우, 사용자는 ACR 모드를 선택할 수도 있다. 본 발명의 실시예에 따른 ACR 모드는 자동 재생 애플리케이션 모드, 컨텐츠 제공자 애플리케이션 모드, 영상 표시 장치 제조사 애플리케이션 모드 중 하나로 설정될 수 있다.
이와 같이 ACR 기능의 모드가 설정되면, 재생 제어부(113)는 설정 정보를 설정 정보 저장부(154)에 저장한다.
도 16는 본 발명의 실시예에 따른 영상 표시 장치의 동작 방법의 흐름도이다.
부가 서비스 관리부(130)는 ACR 기능이 턴온되어 있는지를 확인한다(S1901).
ACR 기능이 비활성화되어 있다면, 부가 서비스 관리부(130)는 더 이상 컨텐트 정보 획득 절차를 수행하지 않는다.
ACR 기능이 활성화되어 있다면 부가 서비스 관리부(130)는 메인 시청각 컨텐트의 일부 구간을 추출한다(S1902).
부가 서비스 관리부(130)는 추출한 구간에 기초하여 메인 시청각 컨텐트의 컨텐츠 정보를 획득한다(S1903).
부가 서비스 관리부(130)는 메인 시청각 컨텐트의 기준 시간을 대체 광고의 기준 시간과 동기화한다(S1905).
부가 서비스 관리부(130)는 획득한 컨텐츠 정보에 기초하여 부가 서비스를 획득한다(S1907). 부가 서비스 관리부(130)는 획득한 컨텐츠 정보에 기초하여 부가 서비스 정보를 획득하고, 획득한 부가 서비스 정보에 기초하여 부가 서비스를 획득할 수도 있다.
이후, 부가 서비스 관리부(130)는 ACR 모드를 확인한다(S1909).
부가 서비스 관리부(130)는 ACR 모드에 따라 부가 서비스를 재생한다(S1911).
구체적으로, ACR 모드가 자동 재생 애플리케이션 모드이면, 부가 서비스 관리부(130)는 자동 재생 애플리케이션을 실행하고, 실행된 자동 재생 애플리케이션은 획득한 부가 서비스를 재생한다.
ACR 모드가 컨텐츠 제공자 애플리케이션 모드이면, 부가 서비스 관리부(130)는 획득한 컨텐츠 정보에 대응하는 컨텐츠 제공자 애플리케이션을 백그라운드에서 실행한다. 부가 서비스 관리부(130)는 부가 서비스 이용에 해당하는 사용자 입력을 수신하면, 컨텐츠 제공자 애플리케이션을 디스플레이한다. 이 컨텐츠 제공자 애플리케이션이 획득한 부가 서비스를 재생할 수 있다. 컨텐츠 제공자 애플리케이션이 자동으로 백그라운드에서 실행되는 대신에, 컨텐츠 제공자 애플리케이션은 사용자 입력에 의해 실행될 수 있다.
ACR 모드가 영상 표시 장치 제조사 애플리케이션 모드이면, 부가 서비스 관리부(130)는 부가 서비스 관리부(130)는 영상 표시 장치 제조사 애플리케이션을 백그라운드에서 실행한다. 부가 서비스 관리부(130)는 부가 서비스 이용에 해당하는 사용자 입력을 수신하면, 영상 표시 장치 제조사 애플리케이션을 디스플레이한다. 이 영상 표시 장치 제조사 애플리케이션이 획득한 부가 서비스를 재생할 수 있다. 영상 표시 장치 제조사 애플리케이션이 자동으로 백그라운드에서 실행되는 대신에, 영상 표시 장치 제조사 애플리케이션은 사용자 입력에 의해 실행될 수 있다.
다음은 도 17 내지 도 42를 참고하여 본 발명의 실시예에 따른 제3자 부가 서비스에 대하여 설명한다.
도 17은 본 발명의 실시예에 따른 네트워크 토폴로지를 보여준다.
도 17에서 보여지는 바와 같이, 본 발명의 실시예에 따른 네트워크 토폴로지는 Broadcaster/CP Backend 서버와 같은 컨텐츠 제공 서버(10), 부가 서비스 제공 서버(50)의 한 종류인 제3자 서버(90), ACR 서버와 같은 컨텐츠 인식 서비스 제공 서버(20), ACR Smart TV와 같은 영상 표시 장치(100)를 포함한다.
영상 표시 장치(100)는 채널-종속 애플리케이션 또는 컨텐트-종속 애플리케이션인 Leanback 애플리케이션을 이용하여 컨텐츠 제공 서버(10)로부터 방송사 부가 서비스를 얻을 수 있고, 채널-독립 애플리케이션인 Live+ 애플리케이션을 이용하여 제3자 서버(90)로부터 제3자 부가 서비스를 얻을 수 있다.
채널 종속 애플리케이션인 Leanback app은 방송사나 CP(Content Owner)가 제공하는 어플리케이션으로서 프로그램 단위 또는 scene(장면) 단위의 동기화된 서비스를 제공한다. 방송사는 프로그램을 제작하는 주체이므로 프로그램 내에 어떤 장면이 있는지 잘 알기 때문에 특정 장면에 가장 적합한 내용을 보여줄 수 있다. 영상 표시 장치(100)가 프로그램을 인식하면, 영상 표시 장치(100)는 해당 프로그램의 컨텐츠 제공 서버(10)로부터 leanback app을 다운로드 받은 후 다운로드된 Leanback app을 자동적으로 실행한다. 그러나 영상 표시 장치(100)가 실행된 Leanback app과 무관한 다른 채널로 이동하면, 영상 표시 장치(100)는 해당 leanback app을 자동적으로 종료하며, 이동된 채널의 leanback app이 있는 경우 해당 leanback app을 실행할 수 있다.
Live+ app은 제3자(예를 들어 제조사)가 제공하는 어플레케이션으로서 TV내에 사전 설치되어 있고 Leanback app과 달리 사용자가 시청 중인 채널 또는 프로그램에 상관없이 항상 실행될 수 있다. 본 특허에서 제안하는 ACR architecture는 Live+ app이 프로그램과 관련된 부가 정보 및 장면 단위의 동기화된 내용을 보여줄 수 있게 한다. Live+ app은 일관된 사용자 인터페이스를 갖고 프로그램에 상관없이 항상 실행될 수 있고 사용될 수 있는 어플리케이션이다. Live+ app은 방송사가 프로그램 관련 부가 정보를 주지 않아도, 프로그램과 관련된 메타데이터를 이용하여 다양한 서비스를 제공할 수 있다. 예를 들어 프로그램에 대한 기본 정보 및 프로그램 출연자가 등장한 영화 추천 등을 제공할 수 있다. Live+ app은 방송사/CP에 할당된 영역을 가지고 있어, 방송사가 프로그램과 관련된 부가 정보를 제공하는 경우에 Live+ app은 해당 프로그램 관련 Enhancement Data를 해당 영역에 보여줄 수 있다. 예를 들어 방송사가 제공하는 Enhancement Data로는 사용자가 시청 중인 프로그램의 지난 방송 다시보기, 장면 동기화된 내용(예를 들어, 상품 구매, 장소 예약, 음원 구매 및 다운로드, 상품 광고 등)이 있을 수 있다.
영상 표시 장치(100)는 ACR module을 탑재하여 비압축 시청각 컨텐트로부터 시그니처를 추출하고, 추출한 시그니처를 통해 컨텐츠 인식 서비스 제공 서버(20)에 질의하여 프로그램을 인식한다. 그리고 영상 표시 장치(100)는 인식된 프로그램에 기반하여 프로그램과 관련된 어플리케이션을 구동한다. Leanback app은 프로그램의 인식 후에 다운로드되어 실행될 수 있다. Live+ app은 TV 출시 때 제조사에 의해 사전 설치될 수도 있고, 앱스토어에서 다운로드되어 설치될 수도 있다.
컨텐츠 인식 서비스 제공 서버(20)는 방송되는 프로그램의 오디오 및/ 또는 비디오의 시그너처를 저장하고 있다. 컨텐츠 인식 서비스 제공 서버(20)는 시그너처 capture 시스템을 이용하여 실시간 방송의 시그너처를 추출하여 저장할 수도 있고, 특정 프로그램에 해당되는 시그너처를 포함한 ACR DB를 방송사로부터 제공받아 저장할 수도 있다. 컨텐츠 인식 서비스 제공 서버(20)의 ACR DB에는 프로그램의 content ID, 시그너처, timestamp, URL 등이 저장되어 있다. 본 명세서에서 2가지 타입의 content ID가 이용될 수 있다.
첫 번째 타입의 content ID는 방송사가 직접 부여하는 ID로 방송사 내에서 프로그램을 유일하게 인식하기 위한 구분자이다. 방송사는 자신이 원하는 포맷으로 프로그램에 content ID를 부여할 수 있다. content ID는 컨텐츠 제공 서버(10)에 프로그램 관련 Enhancement Data를 요청할 때 사용될 수 있다.
두 번째 타입의 content ID는 global unique content ID로서, 전국적으로 또는 범세계적으로 프로그램을 유일하게 인식하기 위한 구분자이다. 프로그램은 전국 방송 채널, 지역 방송 채널, 케이블 방송 또는 위성 방송으로부터 송출되기 때문에, 이 모든 프로그램의 시그너처를 추출하기 위해 복수의 지역을 위하여 다수의 시그너처 capture 장비가 설치될 수 있다. 그리고 각 프로그램을 전국적으로 또는 범세계적으로 유일하게 인식하고 구분하기 위하여 프로그램에 global unique content ID가 할당될 수 있다. 각 프로그램과 global unique content ID를 매핑하기 위해서는 메타데이터 데이터베이스가 이용될 수 있다. 메타데이터 데이터베이스는 프로그램 관련 부가 정보인 메타데이터 뿐만 아니라 프로그램 스케쥴 정보를 포함하기 때문에, 이 메타데이터 데이터베이스를 이용하여 capture 시스템으로부터 전달받은 시그너처가 어떤 프로그램인지 매핑될 수 있다. capture 시스템은 추출한 시그너처가 어느 지역, 어느 채널, 어느 시간인지 알고 있기 때문에, 이 정보를 참고하여 메타데이터 데이터베이스를 검색하면 프로그램이 검색될 수 있다. 메타데이터 데이터베이스는 컨텐츠 인식 서비스 제공 서버(20)와 제3자 서버(90)에 함께 사용되며, 컨텐츠 인식 서비스 제공 서버(20)와 제3자 서버(90)는 메타데이터 데이터베이스를 이용하여 global unique content ID를 통해 프로그램을 인식할 수 있다. global unique content ID의 포맷은 서버를 운영하는 제3자가 지정하는 포맷일 수도 있고 메타데이터 데이터베이스가 제공하는 포맷일 수도 있다.
Live+ app이 제공하는 모든 서비스는 제3자 서버(90)로부터 제공된다. 제3자 서버(90)는 컨텐츠 인식 서비스 제공 서버(20)가 전달한 global unique content ID를 영상 표시 장치(100)로부터 수신할 수 있다. 제3자 서버(90)는 global unique content ID를 통해 메타데이터 데이터베이스로부터 global unique content ID에 해당하는 프로그램과 관련된 메타데이터를 추출하고, 추출한 메타데이터를 바탕으로 프로그램과 연계된 다양한 서비스를 영상 표시 장치(100)에 제공할 수 있다. 또한 인식된 프로그램에 대해 방송사가 제공하는 부가 정보가 있으면 제3자 서버(90)는 방송사 서버를 접근하여 프로그램과 관련된 Enhancement Data를 수신하고 이를 가공하여 영상 표시 장치(100)에 제공할 수 있다. Live+ app을 통해 방송사가 제공하는 프로그램 관련 Enhancement Data는 Leanback app이 제공하는 Enhancement Data와 내용은 같고 표현 형태(UI)는 다를 수 있다. 그러나 또 다른 실시예에서, 방송사에 따라 Live+ app을 통해 방송사가 제공하는 프로그램 관련 Enhancement Data의 내용은 Leanback app이 제공하는 Enhancement Data와 내용과 다를 수 있다.
복수의 방송사 또는 복수의 CP를 위하여 복수의 컨텐츠 제공 서버(10)가 존재할 수 있다. 컨텐츠 제공 서버(10)는 프로그램 타겟팅된 Leanback 애플리케이션과, 이 Leanback app이 출력하는 프로그램 관련 Enhancement Data를 가지고 있다.
도 18는 본 발명의 다양한 실시예에 따른 Live+ 애플리케이션을 보여준다.
Live+ app은 메인 시청각 미디어 컨텐트를 resize하여 화면의 좌측 상단의 영역에서 보여주고, 화면의 오른쪽 영역에서 프로그램 관련 부가 정보를 보여주고, 화면의 하단의 영역에서 프로그램과 관련된 광고를 보여줄 수 있다. Live+ app은 오른쪽 영역인 컨텐츠 영역의 상단에는 복수의 탭을 보여줄 수 있다. 복수의 탭은 프로그램(Program) 탭, 추천(Recommends) 탭, 대와(Talk) 탭, 플러스(Plus)탭을 포함할 수 있다.
도 19는 본 발명의 다양한 실시예에 따른 Live+ 애플리케이션을 실행하는 방법을 보여준다.
영상 표시 장치(100)는 홈 화면 또는 My Apps 화면을 디스플레이할 수 있다. My Apps 화면은 영상 표시 장치(100) 내에 설치된 애플리케이션의 리스트를 보여주는 화면이다.
영상 표시 장치(100)는 홈 화면 또는 My Apps 화면에서 보여주는 복수의 애플리케이션 중에서 Live+ 애플리케이션을 선택하는 사용자 입력을 수신하면, Live+ 애플리케이션을 실행할 수 있다.
또한, 영상 표시 장치(100)는 방송을 재생하면서 Live+ app가 있음을 알려주는 그래픽을 타이머를 통해 일정 시간 간격으로 디스플레이하고, 이 그래픽과 연관된 사용자 입력을 받으면, Live+ 애플리케이션을 실행할 수도 있다.
도 20은 본 발명의 실시예에 따른 Live+ 애플리케이션의 탭의 기능을 보여준다.
프로그램 탭은 현재 시청자가 보고 있는 프로그램에 대한 기본 정보와, 프로그램의 다시 보기 서비스를 제공한다. 영상 표시 장치(100)는 프로그램 기본 정보를 제3자 서버(90)의 Meta DB로부터 가져올 수 있다. 영상 표시 장치(100)는 프로그램의 다시 보기 서비스에 대한 정보를 제3자 서버(90)를 거처 해당 프로그램을 제작하는 컨텐츠 제공 서버(10)로부터 가져올 수 있다.
Recommends tab은 현재 프로그램과 관련있는 또 다른 시청각 컨텐트인 영화나 비디오(예를 들어 Youtube)를 추천해주거나 현재 프로그램과 관련된 앱을 추천해 줄 수 있다. 제3자 서버(90)는 현재 프로그램의 타이틀, 장르나 출연진에 기초하여 추천을 위한 영화나 비디오를 결정하고, 이에 대한 정보를 가공하여 영상 표시 장치(100)의 Live+ 애플리케이션의 추천 탭에 제공할 수 있다.
Talk tab은 현재의 프로그램과 관련된 대화 내용에 해당하는 트위터 기사를 제공한다. 3자 서버는 현재 프로그램의 타이틀, 장르나 출연진에 기초하여 현재의 프로그램과 관련된 트위터 기사를 검색한 후, 검색한 기사를 가공하여 영상 표시 장치(100)의 Live+ 애플리케이션의 대화 탭에 제공할 수 있다.
Plus tab은 방송사가 프로그램 연관된 데이터를 보여주는 영역으로 방송사 서버로부터 받은 정보를 그대로 제공하거나, 또는 제3자 서버(90)가 방송사 서버로부터 받은 정보를 가공한 정보를 제공한다. Plus tab에서 제공되는 데이터의 종류와 개수는 제한이 없다. 플러스 탭은 상품 구매, 장소 예약, 음원 구매, 상품 광고 등의 다양한 부가 데이터를 제공할 수 있다. 단 방송사 서버로부터 받은 정보가 그대로 플러스탭에 제공될 경우에는, 제3자 서버(90)는 방송사 서버로부터 받은 정보를 Live+ app의 컨텐츠 영역(즉, 화면 오른쪽 영역)의 위치 및 크기에 맞도록 정보를 가공한 후 영상 표시 장치(100)에 제공할 수 있다.
도 21은 본 발명의 일 실시예에 따른 제3자 서버(90)의 아키텍처를 보여준다.
도 21에 도시된 바와 같이, 본 발명의 일 실시예에 따른 제3자 서버(90)는 애플리케이션 계층(Application Layer), 서비스 컴포넌트 계층(Service Component Layer), 백-엔드 시스템 계층(Back-end System Layer), 데이터 컴포넌트 계층(Data Component Layer)을 포함한다.
애플리케이션 계층은 Delivery Interface를 통해 영상 표시 장치(100)를 포함한 다양한 디바이스와 통신할 수 있다. 애플리케이션 계층은 앱스토어 컴포넌트(AppStore component)를 포함할 수 있다. 앱스토어 컴포넌트는 개발자가 App을 등록할 수 있는 인터페이스를 지원할 뿐만 아니라 일반 사용자가 App을 검색, 다운로드 및 설치할 수 있는 인터페이스도 지원할 수 있다. 또한 Live+ 애플리케이션은 제3자 서버(90)에 있는 광고, 검색, 추천 등의 서비스를 앱스토어 컴포넌트를 통해 받을 수 있다.
서비스 컴포넌트 계층은 애플리케이션 계층과 서비스 통합 인터페이스(Service Integration Interface)를 통해 통신할 수 있다. 서비스 컴포넌트 계층은 광고 서비스 컴포넌트, 통합 검색 컴포넌트, 추천 컴포넌트, ACR 컴포넌트를 포함한다. 백-엔드 시스템 계층으로부터 가공된 데이터를 받아 이를 애플리케이션 계층으로 전달한다. ACR 컴포넌트는 영상 표시 장치(100)로부터 수신한 Content ID, Global Content ID, timestamp, 방송사 서버 URL을 가지고 백-엔드 시스템 계층의 메타데이터 컴포넌트를 통해 프로그램 관련 기본 부가 정보를 얻을 수 있다. 또한 ACR 컴포넌트는 메터데이터로부터 얻은 프로그램 title 및 배우에 대한 정보를 통합 검색 컴포넌트로 전달하여 프로그램 관련 검색 결과를 얻을 수 있다.
백-엔드 시스템 계층은 원본 데이터를 데이터 컴포넌트 계층으로부터 읽어 들여 이를 가공하여 서비스 컴포넌트 계층으로 전달한다. 백-엔드 시스템 계층은 검색 엔진, 보안(Security) 컴포넌트, DRM 컴포넌트, 메타데이터 컴포넌트, 광고 플랫폼 컴포넌트, ACR 컴포넌트를 포함할 수 있다.
데이터 컴포넌트 계층은 실제 데이터를 가지고 있다. 여기에는 데이터 컴포넌트 계층은 파일 저장소(File Repository), 통합 데이터베이스(Integrated DB), 사용자 프로파일(User Profile) 저장소, 메타데이터 저장소, 광고 데이터 저장소를 포함할 수 있다. 사용자 프로파일 저장소에는 시청자 또는 사용자의 성별, 나이, 지역, 소득, 가족 구성, 선호 장르, 선호 채널, 선호 프로그램 등의 정보가 저장되어 있다. 메타데이터 저장소에는 컨텐트에 대한 title, episode, director, synopsis, casts, genre, channel, air time 등의 정보가 저장되어 있다. 제3자 서버(90)는 metadata provider 또는 실시간 방송의 가이드 정보(예를 들어, ATSC 지상파의 경우 PSIP)로부터 컨텐트에 대한 정보를 수신하여 메타데이터 저장소에 저장할 수 있다.
도 22은 본 발명의 실시예에 따른 자동 실행 애플리케이션을 위한 영상 표시 장치의 동작을 보여주는 래더 다이어그램이다.
먼저, 영상 표시 장치(100)는 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출하고, 추출한 특징 정보를 포함하는 ACR 질의 요청 메시지(ACR query request message)를 ACR 서버에 해당하는 핑거프린트 서버(22)에 전송한다(S2105).
핑거프린트 서버(22)는 ACR 질의 요청 메시지 내의 특징 정보를 ACR DB에서 조회하여 특징 정보에 해당하는 프로그램을 식별하고, 이 식별한 프로그램에 대한 컨텐츠 정보를 포함하는 ACR 질의 응답 메시지(ACR query response message)를 영상 표시 장치(100)에 제공한다(S2107). 이때, ACR 질의 응답 메시지는 프로그램 인식 성공 여부에 대한 정보와, 컨텐츠 정보, 린백 애플리케이션의 URL을 포함할 수 있다. 앞서 설명한 바와 같이 컨텐츠 정보는 인식된 프로그램의 Content ID와 인식된 프로그램의 timestamp를 포함할 수 있다. 여기서의 Content ID의 포맷은 해당 방송사만 인식할 수 있는 포맷일 수 있으며, 특히, 이 경우는 방송사가 해당 프로그램의 ACR DB를 컨텐츠 인식 서비스 제공 서버(20)로 제공한 경우에 해당할 수 있다.
영상 표시 장치(100)가 ACR 질의를 통해 프로그램의 식별에 성공하고, leanback app URL이 유효할 경우, 영상 표시 장치(100)는 해당 leanback app URL에 leanback 애플리케이션을 요청한다(S2109).
컨텐츠 제공 서버(10)는 영상 표시 장치(100)가 요청하는 leanback 애플리케이션을 영상 표시 장치(100)에 제공하여(S2111), 영상 표시 장치(100)는 린백 애플리케이션을 다운로드할 수 있다.
영상 표시 장치(100)가 성공적으로 린백 애플리케이션의 다운로드를 완료하면, 영상 표시 장치(100)는 자동적으로 해당 린백 애플리케이션을 실행한다(S2113).
영상 표시 장치(100) 내에서 실행된 린백 애플리케이션은 영상 표시 장치(100) 내의 ACR 엔진로부터 주기적으로 content ID와 timestamp를 획득하고, 획득한 content ID와 timestamp를 포함하는 부가 데이터 요청 메시지를 컨텐츠 제공 서버(10)에 전송하여(S2115), content ID와 timestamp에 해당하는 장면과 연관된 부가 데이터 (Enhancement Data)를 요청한다.
컨텐츠 제공 서버(10)는 요청된 부가 데이터를 leanback app에 전달한다(S2117). leanback app은 방송사가 제공하는 어플리케이션이므로 한 방송사의 컨텐츠 제공 서버(10)의 인터페이스는 또 다른 방송사의 컨텐츠 제공 서버(10)의 인터페이스와 다를 수 있다. 장면 연관된 부가 정보가 있을 경우 leanback app은 단계(S2113)과 단계(S2117)를 반복 수행할 수 있다.
도 23은 본 발명의 한 실시예에 따른 채널-독립 애플리케이션을 위한 영상 표시 장치의 동작을 보여주는 래더 다이어그램이다.
영상 표시 장치(100)가 설치되어 있는 Live+ app의 실행을 위한 사용자 입력을 수신하면, 영상 표시 장치(100)는 설치되어 있는 Live+ app을 실행한다(S2201).
ACR 기능이 턴오프되어 있는 경우, 영상 표시 장치(100) 내에서 실행된 Live+ 애플리케이션은 ACR 모듈을 턴온시킨다(S2203).
영상 표시 장치(100)는 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출하고, 추출한 특징 정보를 포함하는 ACR 질의 요청 메시지를 핑거프린트 서버(22)에 해당하는 ACR 서버에 전송한다(S2205).
핑거프린트 서버(22)는 ACR 질의 요청 메시지 내의 특징 정보를 ACR DB에서 조회하여 특징 정보에 해당하는 프로그램을 식별하고, 이 식별한 프로그램에 대한 컨텐츠 정보를 포함하는 ACR 질의 응답 메시지를 영상 표시 장치(100)에 제공한다(S2207). 이때, ACR 질의 응답 메시지는 프로그램 인식 성공 여부에 대한 정보와, 컨텐츠 정보를 포함할 수 있다. 앞서 설명한 바와 같이 컨텐츠 정보는 인식된 프로그램의 글로벌 유니크 Content ID와 인식된 프로그램의 timestamp를 포함할 수 있다.
영상 표시 장치(100) 내에서 실행된 Live+ 애플리케이션은 서비스 타입의 선택을 위한 사용자 입력을 받는다(S2209). 이때, 서비스 타입은 프로그램 타입, 추천 타입, 대화 타입, 및 플러스 타입 중 적어도 하나에 해당할 수 있다. 예컨데, 선택된 서비스 타입에 해당하는 부가 데이터는 프로그램의 출연자와 관련된 실시간 뉴스 기사가 될 수 있고, 프로그램 출연자가 주연으로 등장하는 영화를 추천하는 서비스가 될 수 있다.
영상 표시 장치(100) 내에서 실행된 Live+ 애플리케이션은 영상 표시 장치(100) 내의 ACR 엔진로부터 현재 인식된 프로그램의 컨텐츠 정보를 획득하고, 프로그램 관련 컨텐트 요청 메시지를 제3자 서버(90)에 전송하여(S2211), 선택된 서비스 타입에 해당하는 부가 데이터(enhancement data)를 요청한다. 이때, 프로그램 관련 컨텐트 요청 메시지는 현재 인식된 프로그램의 컨텐트 정보와 선택된 서비스 타입에 대한 정보를 포함할 수 있다.
Live+ app은 제3자 서버(90)에게 ajax call을 사용하여 HTTP 기반의 Request를 보낼 수 있다. 이때 전달하는 파라미터로는 서비스 타입, Content ID, Global Content ID, timestamp, 방송사 서버 URL 등이 있다. HTTP Request는 HTTP GET기반으로 다음과 같은 신택스(syntax)로 파리미터를 전달할 수 있다.
Figure pct00005
<service name>에는 Live+ app이 요청하는 서비스의 이름이 입력된다. 본 실시예는 다음과 같은 <service name>을 사용할 수 있다.
- "getProgram" : 프로그램 관련 기본 정보와 지난 episode를 수신하기 위한 service name이며 Live+ app의 program tab에 사용된다.
- "getRecommends" : 프로그램 관련 추천(VOD 추천, App 추천 등) 데이터를 수신하기 위한 service name이며 Live+ app의 recommends tab에 사용된다.
- "getTalk" : 프로그램 관련 실시간 기사/트윗을 수신하기 위한 service name이며 Live+ app의 talk tab에 사용된다.
- "getPlus" : 방송사가 제공하는 프로그램 관련 부가 데이터를 수신하기 위한 service name이며 Live+ app의 plus tab에 사용된다.
<Content ID>는 방송사가 컨텐츠 인식 서비스 제공 서버(20)로 전달한 값이며 방송사 내부적으로 프로그램을 유일하게 식별하기 위해 사용하는 Content ID이다.
<Global Content ID>는 방송사 구분없이 글로벌하게 프로그램을 유일하게 식별하기 위해 사용되며, 이를 위하여 컨텐츠 인식 서비스 제공 서버(20)와 제3자 서버(90)는 동일한 Meta DB를 사용할 필요가 있다. Global Content ID는 Meta DB의 content id 포맷을 따를 수도 있다.
<timestamp>는 인식된 프로그램의 현재 시청 시간을 알려주며 컨텐츠 인식 서비스 제공 서버(20)로부터 전달 받은 값이다.
<방송사 서버 URL>은 방송사가 프로그램 관련 부가 데이터를 제공하는 경우에 전달되며, 이 값으로 제3자 서버(90)는 방송사 서버에 접근할 수 있다.
제3자 서버(90)는 전달받은 Global Content ID에 해당하는 프로그램의 부가 데이터를 찾기 위해 메타데이터 저장소를 검색한다(S2213). 메타데이터 저장소는 Global Content ID에 해당하는 프로그램의 부가 데이터에 대한 검색 결과를 제3자 서버(90)에게 리턴한다.
제3자 서버(90)는 메타데이터 저장소로부터 수신한 프로그램 부가 데이터를 가공하여 가공된 부가 데이터를 영상 표시 장치(100) 내에서 실행된 Live+ 애플리케이션에 제공한다(S2221). 제3자 서버(90)는 ajax call을 사용하여 HTTP 기반의 response로 가공된 부가 데이터를 전달할 수 있다.
도 24는 본 발명의 또 다른 실시예에 따른 채널-독립 애플리케이션을 위한 영상 표시 장치의 동작을 보여주는 래더 다이어그램이다.
영상 표시 장치(100)가 설치되어 있는 Live+ app의 실행을 위한 사용자 입력을 수신하면, 영상 표시 장치(100)는 설치되어 있는 Live+ app을 실행한다(S2301).
ACR 엔진이 턴오프되어 있는 경우, 영상 표시 장치(100) 내에서 실행된 Live+ 애플리케이션은 ACR 엔진을 턴온시킨다(S2303).
영상 표시 장치(100)의 ACR 엔진은 메인 시청각 컨텐트의 일부 프레임 또는 일부 구간의 오디오 샘플로부터 특징 정보를 추출하고, 추출한 특징 정보를 포함하는 ACR 질의 요청 메시지를 핑거프린트 서버(22)에 해당하는 ACR 서버에 전송한다(S2305).
핑거프린트 서버(22)는 ACR 질의 요청 메시지 내의 특징 정보를 ACR DB에서 조회하여 특징 정보에 해당하는 프로그램을 식별하고, 이 식별한 프로그램에 대한 컨텐츠 정보를 포함하는 ACR 질의 응답 메시지를 영상 표시 장치(100)의 ACR 엔진에 제공한다(S2307). 이때, ACR 질의 응답 메시지는 프로그램 인식 성공 여부에 대한 정보와, 컨텐츠 정보, 및 컨텐츠 제공 서버(10)의 URL을 포함할 수 있다. 앞서 설명한 바와 같이 컨텐츠 정보는 인식된 프로그램의 글로벌 유니크 Content ID, 인식된 프로그램의 방송사가 식별할 수 있는 content ID와 인식된 프로그램의 timestamp를 포함할 수 있다. 또 다른 실시예에서, 영상 표시 장치(100)는 컨텐츠 제공 서버(10)의 URL을 ACR 질의 응답 메시지로부터 획득하는 것이 아니라, 미리 가지고 있을 수도 있다.
영상 표시 장치(100) 내에서 실행된 Live+ 애플리케이션은 서비스 타입의 선택을 위한 사용자 입력을 받는다(S2309). 이때, 서비스 타입은 프로그램 타입, 추천 타입, 대화 타입, 및 플러스 타입 중 적어도 하나에 해당할 수 있다. 예컨데, 선택된 서비스 타입에 해당하는 부가 데이터는 프로그램의 출연자와 관련된 실시간 뉴스 기사가 될 수 있고, 프로그램 출연자가 주연으로 등장하는 영화를 추천하는 서비스가 될 수 있다.
영상 표시 장치(100) 내에서 실행된 Live+ 애플리케이션은 영상 표시 장치(100) 내의 ACR 엔진로부터 현재 인식된 프로그램의 컨텐츠 정보를 획득하고, 프로그램 관련 컨텐트 요청 메시지를 제3자 서버(90)에 전송하여(S2311), 선택된 서비스 타입에 해당하는 부가 데이터(enhancement data)를 요청한다. 이때, 프로그램 관련 컨텐트 요청 메시지는 현재 인식된 프로그램의 컨텐트 정보와 선택된 서비스 타입에 대한 정보 및 방송사 컨텐츠 제공 서버(10)의 URL을 포함할 수 있다.
제3자 서버(90)는 전달받은 Global Content ID에 해당하는 프로그램의 부가 데이터를 찾기 위해 메타데이터 저장소를 검색한다(S2313). 메타데이터 저장소는 Global Content ID에 해당하는 프로그램의 부가 데이터에 대한 검색 결과를 제3자 서버(90)에게 리턴한다.
제3자 서버(90)는 전달받은 방송사 컨텐츠 제공 서버(10)의 URL에 접속하고, 전달받은 방송사 content ID와 timestamp를 포함하는 메타데이터 요청 메시지를 컨텐츠 제공 서버(10)에 전송하여(S2317), 현재 장면과 관련된 부가 데이터를 컨텐츠 제공 서버(10)에 요청한다.
제3자 서버(90)는 컨텐츠 제공 서버(10)로부터 현재 장면과 관련된 부가 데이터를 수신한다(S2319).
제3자 서버(90)는 메타데이터 저장소로부터 수신한 프로그램 부가 데이터 및 컨텐츠 제공 서버(10)로부터 수신한 프로그램 부가 데이터 중 하나 또는 이둘의 결합을 가공하여 가공된 부가 데이터를 영상 표시 장치(100) 내에서 실행된 Live+ 애플리케이션에 제공한다(S2321).
도 25은 본 발명의 실시예에 따른 영상 표시 장치의 개념도를 보여준다.
도 25에 도시된 바와 같이, 본 발명의 실시예에 따른 개념도의 영상 표시 장치(100)는 오디오/비디오 드라이버(Audio/Video driver)(601), ACR 엔진(603), ACR 미들웨어(605), ACR 사용자 인터페이스(607), ACR 플러그인(Plugin)(609)을 포함한다.
오디오/비디오 드라이버(601)는 TV의 외부입력으로 들어오는 오디오/비디오 신호를 캡쳐하여 ACR 엔진(603)에게 전달한다. 오디오/비디오 드라이버(601)는 ACR 엔진(603)이 오디오/비디오 버퍼를 접근할 수 있도록 API를 제공할 수도 있다. 오디오/비디오 드라이버(601)는 HDMI와 같은 외부입력으로 들어오는 오디오/비디오의 특성 정보를 함께 제공할 수 있다. 예를 들어 오디오/비디오 드라이버(601)는 오디오의 경우 sample depth, sampling rate, channel 수(mono/stereo 등), sample 수, sample 시간 등의 정보를 제공할 수 있다. 비디오의 경우 오디오/비디오 드라이버(601)는 video format, input video의 width, height, stride, stream 시간, input type(HDMI1, HDMI2, composite, component 등), 초당 frame 수 등의 정보를 제공할 수 있다.
ACR 엔진(603)은 별도의 process로 실행될 수 있으며, 위에서 언급한 다양한 방식을 이용하여 프로그램을 인식한다. ACR 엔진(603)은 Audio/Video 샘플로부터 시그니처를 추출하고, 추출한 시그니처를 ACR 서버로 전달하여 컨텐트를 인식할 수 있다. 앞서 설명한대로 ACR 엔진(603)은 플랫폼의 구현에 따라 Audio/Video 버퍼에 접근할 수 있는 API를 호출할 수도 있고, 오디오/비디오 드라이버(601)가 캡처(capture)한 오디오/비디오 스트림을 socket과 같은 방법을 통해 ACR process에 전달할 수도 있다. ACR 엔진(603)은 ACR 서버로 시그니처와 함께 acr 질의 요청을 보내고 content 인식 성공 여부, Content ID, Global Content ID, timestamp, leanback app URL, 방송사 서버 URL 등을 포함하는 acr query response를 ACR 서버로부터 수신한다. ACR 엔진(603)은 ACR 서버로부터 전달받은 결과를 ACR 미들웨어(605)로 전달할 수 있다.
ACR 미들웨어(605)는 DTV process의 미들웨어에 해당하는 모듈이며, ACR 제어를 처리하고, ACR 엔진(603)으로부터의 ACR 질의 응답을 처리한다. ACR 미들웨어(605)는 ACR 프로세스를 실행하거나, 종료하거나, ACR 엔진(603)을 시작하거나 중단함으로써 ACR을 제어한다. 또한 ACR 미들웨어(605)는 ACR 질의 응답을 파싱하여 Content ID, Global Content ID, timestamp 등의 값들도 저장하고 있다. ACR 미들웨어(605)는 이 저장된 값을 ACR UI로 보낼 수 있도록 API를 제공하거나 message queue, global 변수 등의 방법을 통해 ACR 사용자 인터페이스(607)로 전달 할 수 있다. 또한 ACR 미들웨어(605)는 Live+ 애플리케이션이나 린백 애플리케이션과 같은 ACR 애플리케이션에게 Content ID, Global Content ID, timestamp등과 같은 데이터를 전달하기 위해 shared memory, socket 등의 IPC(Inter-Process Communication)를 통해 Web 브라우저에게 전달 할 수 있다.
ACR 사용자 인터페이스(ACR user interface, ACR UI)(607)는 사용자에게 ACR On/Off와 같은 ACR 제어를 할 수 있는 UI를 표출하거나, 인식된 프로그램의 이름 및 시간과 같은 정보를 TV의 상태바 UI에서 사용자에게 보여줄 수 있다.
ACR 미들웨어(605)가 ACR 애플리케이션에 전달하기 위한 Content ID, Global Content ID, timestamp등과 같은 데이터를 브라우저로 전달하면 ACR 플러그인(609)은 이러한 값을 전달 받는다. ACR 플러그인(609)은 Plugin Object Interface를 통해 ACR 애플리케이션에게 해당 값을 전달할 수 있다. 아래는 ACR 플러그인(609)의 Interface의 한 실시예를 보여주고 있다.
Figure pct00006
위에서, metadata는 인식된 프로그램에 대한 기본적인 메타데이터를 제공한다.
backendURL은 방송사/CP 서버의 URL을 나타낸다.
getACRMetadata()는 인식된 프로그램에 대한 기본적인 메터데이터를 획득하기 위한 함수이며, metadata Property와 동일한 값을 리턴한다.
getBackendURL()는 방송사/CP 서버의 URL을 리턴하는 함수이다.
NotifyACRAppLaunched()는 이동 단말기와 같은 2nd Screen 및 TV가 pairing이 되었을 때 TV상에서의 ACR 애플리케이션이 특정 URL 또는 app을 실행할 경우 이를 2nd Screen의 애플리케이션에게 알려주기 위한 함수이다.
SetAppInfo()는 ACR 애플리케이션의 현재 상태와 해당 애플리케이션의 2nd Screen 버전의 app URL을 알려주는 함수이다.
onContentChanged()는 인식되는 프로그램이 변경되는 경우 호출되는 callback 함수이다.
onMediaTimeUpdated()는 ACR을 통해 timestamp가 변경될 때마다 호출되는 callback 함수이다.
onAppShow()는 TV와 2nd Screen간 pairing된 상태에서 2nd Screen에 있는 애플리케이션이 TV로 이동할 때 호출되는 callback 함수이다.
onAppHide()는 TV와 2nd Screen간 pairing된 상태에서 TV에 있는 애플리케이션이 2nd Screen으로 이동할 때 호출되는 callback 함수이다.
다음은 도 26 내지 도 34를 참고하여 본 발명의 실시예에 따른 이용 정보 보고 방법을 설명한다.
영상 표시 장치(100)는 이용 정보 보고를 위하여 이용 정보 측정 서버에 등록하는 단계와 이용 정보를 획득하는 단계와 이용 정보를 보고하고 이용하는 단계를 거칠 수 있다.
도 26은 본 발명의 한 실시예에 따라 이용 정보 측정 서버에 등록하는 방법을 도시한 흐름도이다.
도 26에 도시된 바와 같이, 영상 표시 장치(100)는 이용 정보 측정 서버(80)와 통신한다. 이용 정보 측정 서버(80)는 컨텐츠 제공 서버(10), 컨텐츠 인식 서비스 제공 서버(20), 멀티채널 비디오 분배 서버(30), 부가 서비스 정보 제공 서버(40), 복수의 부가 서비스 제공 서버(50), 방송 수신 장치(60), 영상 표시 장치(100) 내의 한 모듈일 수도 있고, 별도의 홈 내외의 서버일 수도 있다.
먼저, 영상 표시 장치(100)는 사용자 정보를 수집한다(S2801). 영상 표시 장치는 계정 정보, 지역 정보, 가족 구성원 정보, 선호 장르 정보, 이용 정보 제공 범위를 사용자로부터 입력받아 수집하고 수집된 사용자 정보를 사용자 정보 저장부(156)에 저장할 수 있다. 영상 표시 장치(100)는 영상 표시 장치 정보를 사용자 정보 저장부(156)로부터 수집할 수 있다.
다음, 영상 표시 장치(100)는 수집한 사용자 정보를 포함하는 등록 요청 메시지를 생성한다(S2803). 등록 요청 메시지는 도 27에 도시된 바와 같은 XML 타입의 문서를 포함할 수 있다.
도 27은 본 발명의 실시예에 따른 사용자 정보의 XML 스키마를 보여준다.
도 27에 도시된 바와 같이, 본 발명의 실시예에 따른 사용자 정보를 담는 UserProfile 엘리먼트는 id, password, terminalID 속성을 가지고, Region, Demographic, Favorite, SNS, Terminal 엘리먼트를 가진다.
id, password 속성은 이용 정보 측정 서버(80)를 위한 계정 정보를 담는다. terminalID 속성은 영상 표시 장치(100)의 식별자를 담는다.
Region 엘리먼트는 Country, City, Address, Zip 엘리먼트를 가진다. Country 엘리먼트는 국가 정보, City 엘리먼트는 도시 정보, Address 엘리먼트는 주소 정보, Zip 엘리먼트는 우편 번호를 담는다. Region 엘리먼트 내의 정보는 지역에 따라 다른 광고, 상품 소개를 가능하게 한다.
Demographic 엘리먼트는 Age, Sex, Religion, Income, Family Type 엘리먼트를 가진다. Age 엘리먼트는 나이 정보를 담고, Sex 엘리먼트는 성별 정보를 담으며, Religion 엘리먼트는 종교 정보를 담는다. Income 엘리먼트는 가계 수입 정보를 담고, Family Type 엘리먼트는 가족 구성원의 타입 정보를 가진다. Demographic 엘리먼트 내의 정보는 가족 구성 형태에 따른 맞춤형 서비스를 가능하게 한다.
Favorite 엘리먼트는 MainCategory, SubCategory 엘리먼트를 가진다. MainCategory 엘리먼트는 메인 선호 장르를 담고, SubCategory 엘리먼트는 서브 선호 장르를 담는다.
SNS 엘리먼트는 Facebook, Twitter 엘리먼트를 가진다. Facebook 엘리먼트는 Facebook 계정 정보를 담고, Twitter 엘리먼트는 Twitter 계정 정보를 담는다.
Terminal 엘리먼트는 Type, Manufacturer, FirmwareVer, Resolution, Model, OS, Browser, Storage, Network 엘리먼트를 가진다. Type 엘리먼트는 영상 표시 장치 타입 정보를 담고, Manufacturer 엘리먼트는 영상 표시 장치 제조사 정보를 담으며, FirmwareVer 엘리먼트는 영상 표시 장치의 펌웨어 버전 정보를 담는다. Resolution 엘리먼트는 영상 표시 장치의 해상도 정보를 담고, Model 엘리먼트는 영상 표시 장치의 모델에 대한 정보를 담으며, OS 엘리먼트는 영상 표시 장치의 OS에 대한 정보를 담는다. Browser 엘리먼트는 영상 표시 장치의 브라우저에 대한 정보를 담고, Storage 엘리먼트는 영상 표시 장치의 저장 공간에 대한 정보를 담으며, Network 엘리먼트는 영상 표시 장치의 네트워크에 대한 정보를 담는다.
한편, 등록 요청 메시지는 이용 정보 제공 범위를 더 포함할 수 있다. 이용 정보 제공 범위는 가상 채널 각각에 대해 설정될 수 있다. 또한, 이용 정보 제공 범위는 물리 채널 전체에 대해 설정될 수도 있다.
영상 표시 장치(100)는 생성한 등록 요청 메시지를 이용 정보 측정 서버(80)에 전송하여 등록을 요청한다(S2805).
도 28은 본 발명의 한 실시예에 따른 이용 정보를 획득하고 보고하고 이용하는 방법을 도시한 흐름도이다.
먼저, 부가 서비스 관리부(130)는 메인 시청각 컨텐트의 일부 구간을 추출한다(S2901).
부가 서비스 관리부(130)는 추출된 구간에 기초하여 메인 시청각 컨텐트의 컨텐츠 정보를 획득한다(S2903). 구체적으로 부가 서비스 관리부(130)는 추출된 구간에 보이지 않는 워터마크(invisible watermark)로 부호화된 정보를 복호하여 컨텐츠 정보를 획득할 수 있다. 또한, 부가 서비스 관리부(130)는 추출된 구간의 특징 정보를 추출하고, 추출된 특징 정보에 기초하여 핑거프린트 서버(22) 또는 컨텐츠 정보 저장부(151)로부터 메인 시청각 컨텐트의 컨텐츠 정보를 획득할 수 있다.
부가 서비스 관리부(130)는 메인 시청각 컨텐트의 재생 시간을 부가 서비스 정보의 시작 시간과 동기화한다(S2904).
부가 서비스 관리부(130)는 획득한 컨텐츠 정보에 기초하여 부가 서비스 정보를 획득한다(S2905).
부가 서비스 관리부(130)는 획득한 부가서비스 정보에 기초하여 부가 서비스를 획득한다(S2907).
부가 서비스 관리부(130)는 계속적으로 획득되는 컨텐츠 정보에 기초하여 이용 정보 제공 범위 내에서 메인 시청각 컨텐트 시청 정보를 수집하고(S2909), 수집한 메인 시청각 컨텐트 시청 정보를 이용 정보 저장부(157)에 저장한다. 메인 시청각 컨텐트 시청 정보는 메인 시청각 컨텐트 식별자, 메인 시청각 컨텐트 시청 시간 정보를 포함할 수 있다. 메인 시청각 컨텐트 시청 시간 정보는 메인 시청각 컨텐트의 시청 시작 시간과 시청 종료 시간을 포함할 수 있다.
부가 서비스 관리부(130)는 획득한 부가 서비스의 실행, 조작, 종료 등에 해당하는 사용자 입력에 기초하여 이용 정보 제공 범위 내에서 부가 서비스 이용 정보를 수집하고(S2911), 수집한 부가 서비스 이용 정보를 이용 정보 저장부(157)에 저장한다. 부가 서비스 이용 정보는 부가 서비스 식별자, 부가 서비스 이용 시간 정보를 포함할 수 있다. 부가 서비스 이용 시간 정보는 부가 서비스의 이용 시작 시간과 부가 서비스의 이용 종료 시간을 포함할 수 있다.
부가 서비스 관리부(130)는 이용 정보 측정 서버(80)의 주소와 보고 주기를 획득한다(S2913). 이용 정보 측정 서버의 주소와 보고 주기는 미리 설정된 것일 수 있다. 부가 서비스 관리부(130)는 컨텐츠 정보 또는 부가 서비스 정보로부터 이용 정보 측정 서버(80)의 주소와 보고 주기를 획득할 수 있다.
한편, 부가 서비스 관리부(130)는 추출한 메인 시청각 컨텐트 구간에 기초하여 컨텐츠 정보와 부가 서비스 정보를 획득하고, 이로부터 ATSC 2.0 메타데이터 서비스를 획득할 수 있다. 부가 서비스 관리부(130)는 ATSC 2.0 메타데이터 서비스의 서비스 시그널링 채널(service signaling channel)로부터 표 3 또는 표 4와 같은 이용량 보고 위치 테이블(usage reporting location table)을 추출하고, 이 테이블로부터 보고 주소와 보고 주기를 획득할 수도 있다. 이 이용량 보고 위치 테이블은 1분에 한번과 같이 낮은 시그널링 주기를 가질 수 있고, 이는 대역폭 사용량을 줄일 수 있다.
Figure pct00007
표 3에서 보여지는 바와 같이, 이용량 보고 위치 테이블은 복수의 보고 주소와 복수의 보고 주기를 시그널링 할 수 있다. 복수의 보고 주기는 복수의 보고 주소에 각각 대응한다.
Figure pct00008
표 4에서 보여지는 바와 같이, 이용량 보고 위치 테이블은 복수의 보고 주소와 하나의 공통 보고 주기를 시그널링 할 수 있다.
부가 서비스 관리부(130)는 하나 이상의 메인 시청각 컨텐트 시청 정보 아이템과 하나 이상의 부가 서비스 이용 정보 아이템을 포함하는 보고 정보를 생성한다(S2915).
메인 시청각 컨텐트 시청 정보 아이템과 부가 서비스 이용 정보 아이템의 예를 도 29과 도 30를 참고하여 설명한다.
도 29는 본 발명의 한 실시예에 따른 메인 시청각 컨텐트 시청 정보 아이템의 XML 스키마를 보여준다.
도 29에 도시된 바와 같이, 메인 시청각 컨텐트 시청 정보 아이템에 해당하는 AudienceMeasurement 엘리먼트는 id 속성, password 속성, terminalID 속성을 가지고, ContentInfo 엘리먼트, TimeInfo 엘리먼트를 가진다.
id 속성, password 속성에는 이용 정보 측정 서버(80)를 위한 계정 정보가 설정된다. terminalID 속성에는 영상 표시 장치(100)의 식별자가 설정된다.
ContentInfo 엘리먼트는 Id 엘리먼트, Name 엘리먼트, ChallelName 엘리먼트, Country 엘리먼트, Genre 엘리먼트, HD 엘리먼트를 가진다.
Id 엘리먼트는 메인 시청각 컨텐트 식별자를 담는다. 특히, 메인 시청각 컨텐트 식별자로서, Id 엘리먼트는 트랜스포트 스트림 식별자(Transport Stream ID), 소스 식별자(source_id) ATSC 컨텐트 식별자나 글로벌 서비스 식별자를 포함할 수 있다.
Name 엘리먼트는 메인 시청각 컨텐트 네임을 담으며, ChannelName 엘리먼트는 메인 시청각 컨텐트가 방송되는 채널의 이름을 담고, Country 엘리먼트는 메인 시청각 컨텐트가 방송되는 국가 정보를 담고, Genre 엘리먼트는 메인 시청각 컨텐트의 장르 정보를 담는다.
TimeInfo 엘리먼트는 TotalWatchingTime 엘리먼트, 하나 이상의 Slot 엘리먼트를 가진다.
TotalWatchingTime 엘리먼트는 메인 시청각 컨텐트의 토탈 시청 시간 정보를 담는다.
시청자는 하나의 프로그램을 계속하여 시청할 수도 있지만, 복수의 프로그램을 번갈아서 시청할 수도 있기 때문에, 하나의 프로그램의 시청과 관련하여 복수의 시청 시간 슬롯이 생길 수 있다. 각 Slot 엘리먼트는 시청 시간 슬롯에 대한 정보를 포함한다. 시청 시간 슬롯에 대한 정보는 시청 시간 슬롯의 시작 시간(start time)에 대한 정보를 포함한다. 시청 시간 슬롯에 대한 정보는 시청 시간 슬롯의 지속 시간(duration time)에 대한 정보 및 시청 시간 슬롯의 종료 시간(end time)에 대한 정보 중 적어도 하나를 포함할 수 있다.
부가 서비스 이용 정보 아이템의 예를 도 30를 참고하여 설명한다.
도 30는 본 발명의 한 실시예에 따른 부가 서비스 이용 정보 아이템의 XML 스키마를 보여준다.
도 30에 도시된 바와 같이 부가 서비스 이용 정보 아이템에 해당하는 UsageMonitor 엘리먼트는 id 속성, password 속성, terminalID 속성을 가지고, ServiceInfo 엘리먼트를 가진다.
ServiceInfo 엘리먼트 bound 속성, simplyDisplay 속성을 가지고, Id 엘리먼트, Name 엘리먼트, Category 엘리먼트, Purchase 엘리먼트, UserInteraction 엘리먼트를 가진다.
bound 속성은 bound 또는 unbound로 설정된다. Bound는 부가 서비스가 메인 시청각 컨텐트에 연계됨을 의미하고, unbound는 부가 서비스가 메인 시청각 컨텐트에 연계되지 않음을 의미한다.
simplyDisplay 속성은 단순 정보 표시 또는 사용자 상호 작용(user interaction) 필요 중 하나로 설정된다.
Id 엘리먼트는 부가 서비스 식별자를 담고, Name 엘리먼트는 부가 서비스 이름을 담고, Category는 부가 서비스 분류 항목을 담는다.
Purchase 엘리먼트는 ProductName 엘리먼트, MakerName 엘리먼트, AdditionalInfo 엘리먼트, Price 엘리먼트, ContentID 엘리먼트를 가진다. ProductName 엘리먼트는 부가 서비스 제품의 이름을 가지고, MakerName은 부가 서비스 제품의 제작자 이름을 담으며, AdditionalInfo는 부가 서비스에 관한 추가 정보를 담으며, Price는 부가 서비스 제품의 가격에 대한 정보를 담으며, ContentID 엘리먼트는 부가 서비스 제품의 컨텐트 식별자를 담는다.
UserInteraction 엘리먼트는 Time 엘리먼트, Level 엘리먼트를 가진다.
Time 엘리먼트는 From 엘리먼트, To 엘리먼트를 가진다. From 엘리먼트는 부가 서비스 이용 시작 시간을 담고, To 엘리먼트는 부가 서비스 이용 종료 시간을 담는다.
Level 엘리먼트는 no interaction, trigger 선택, 광고 내용 시청, 상품 구매, full interaction에 관한 정보를 담는다.
한편, 표 5에서 보여지는 바와 같이, 부가 서비스의 분류 항목에 따라 Id 엘리먼트와 Time 엘리먼트의 내용이 달라질 수 있다.
Figure pct00009
표 5에서 보여지는 바와 같이, 부가 서비스가 웹 북마크 서비스에 해당하면, Id 엘리먼트는 TSID를 담고, Time 엘리먼트는 Web Bookmark를 설정한 시간과 Web Bookmark에 다시 접근하여 부가 서비스를 이용한 시간을 담을 수 있다.
부가 서비스가 NRT 서비스(non-real-time service)에 해당하면, Id 엘리먼트는 TSID, source_id, service_id, content_linkage를 담고, Time 엘리먼트는 Action, start_time, end_time을 담을 수 있다.
부가 서비스 관리부(130)는 계정 정보를 가지고 이용 정보 측정 서버(80)에 로그인한다(S2917). 이 과정을 생략될 수 있다.
부가 서비스 관리부(130)는 보고 주기에서 보고 주소에 해당하는 이용 정보 측정 서버(80)에 보고 정보를 전송한다(S2919). 이때, 부가 서비스 관리부(130)는 HTTP request를 통해 보고 정보를 전송하고, HTTP response를 수신하면 보고를 종료할 수 있다. 또한, 부가 서비스(130)는 영상 표시 장치(100)의 식별자와 같은 유일한 식별자를 포함하는 HTTP request를 이용 정보 측정 서버(80)에 전송하고, 이용 정보 측정 서버(80)로부터 보고 요청을 포함하는 응답을 수신하면 보고 정보를 전송할 수도 있다.
이용 정보 측정 서버(80)는 축적된 이용 정보를 컨텐츠 제공 서버(10)에 제공하여(S2921), 컨텐츠 제공 서버(10)가 이를 이용하게 할 수 있다. 특히, 컨텐츠 제공 서버(10)는 축적된 이용 정보를 커스터마이징 컨텐츠 제공, 타겟 광고 제공, 과금의 근거로 활용할 수 있다.
한편, 이용 정보 측정 서버(80)는 시청자 정보와 보고된 이용 정보를 바탕으로 사용자의 통계적, 행동학적 특성을 파악할 수 있다(S2923).
부가 서비스 관리부(130)는 파악된 사용자 특성에 기초하여 다양한 부가 서비스를 획득할 수 있다(S2925). 도 31 내지 도 34을 참고하여 사용자 특성 기반의 부가 서비스를 설명한다. 이용 정보 측정 서버(80)가 영상 표시 장치(100) 내의 한 모듈이면, 부가 서비스 관리부(130)는 부가 서비스 저장부(152)로부터 획득할 수 있다. 이용 정보 측정 서버(80)가 컨텐츠 제공 서버(10), 컨텐츠 인식 서비스 제공 서버(20), 멀티채널 비디오 분배 서버(30), 부가 서비스 정보 제공 서버(40), 복수의 부가 서비스 제공 서버(50), 방송 수신 장치(60) 내의 한 모듈이면, 해당 기기로부터 부가 서비스를 획득할 수 있다.
도 31 내지 도 34은 본 발명의 실시예에 따른 사용자 특성 기반의 부가 서비스의 개념도이다.
도 31에 도시된 바와 같이, 사용자 특성은 사용자가 특정 시청각 컨텐츠를 즐겨본다는 것일 수 있다. 이 경우, 부가 서비스 관리부(130)는 특정 시청각 컨텐츠가 방송되는 채널로의 변경을 추천하는 부가 서비스를 획득할 수 있다. 부가 서비스 관리부(130)는 획득한 부가 서비스를 디스플레이하고, 채널 변경 확인에 대한 사용자 입력을 수신하면 해당 채널의 시청각 컨텐츠를 수신하고 재생할 수 있다.
도 32에 도시된 바와 같이, 사용자 특성은 사용자가 특정 장르를 즐겨본다는 것일 수 있다. 이 경우, 부가 서비스 관리부(130)는 사용자가 즐겨보는 장르에 해당하는 현재 시청각 컨텐츠 또는 부가 서비스를 추천하는 부가 서비스를 획득할 수 있다. 부가 서비스 관리부(130)는 획득한 부가 서비스를 디스플레이하고, 시청 확인에 대한 사용자 입력을 수신하면 해당 시청각 컨텐츠 또는 부가 서비스를 수신하고 재생할 수 있다.
도 33에 도시된 바와 같이, 사용자 특성은 사용자가 특정 시간에 TV를 즐겨 시청한다는 것일 수 있다. 이 경우, 부가 서비스 관리부(130)는 사용자가 TV를 즐겨 시청하는 시간을 위한 타겟 광고를 수신하고, 수신한 타겟 광고를 재생할 수 있다.
도 34에 도시된 바와 같이, 유사한 사용자 특성을 가진 사용자들은 그룹핑될 수 있다. 영상 표시 장치(100)의 사용자가 어떤 그룹에 속하는지에 대한 판단을 통하여, 해당 그룹의 사용자들이 가장 선호하는 컨텐트나 부가 서비스가 추천될 수 있다. 부가 서비스 관리부(130)는 유사한 사용자 특성을 가진 사용자가 선택하거나 현재 시청 중인 시청각 컨텐트를 추천하는 부가 서비스를 획득할 수 있다. 또한, 부가 서비스 관리부(130)는 소셜 네트워크 상의 유사 사용자가 선택하거나 현재 시청 중인 시청각 컨텐트를 추천하는 부가 서비스를 획득할 수도 있다.
위에서, 이용 정보 측정 서버(80)에 관하여 설명하였지만, 이용 정보 측정 서버(80)는 제3자 서버(90)와 별도의 독립적이고 물리적인 서버일 수도 있고, 제3자 서버(90)는 이용 정보 측정 서버(80)의 기능을 포함할 수 있다.
다음은 도 35 내지 도 42를 참고하여 본 발명의 또 다른 실시예에 따른 부가 서비스 제공 방법을 설명한다.
도 35은 본 발명의 또 실시예에 따른 영상 표시 장치의 개념도이다.
제조사 서버(91)는 본 발명에서 언급하고 있는 제3자 서버(90)의 한 실시예로서 방송 컨텐츠에 관한 부가 서비스를 TV에 설치된 관련 애플리케이션인 Live+ 애플리케이션에 제공하기 위한 메타데이터 저장소를 포함할 수 있다. 제3자 서버(90)의 데이터 컴포넌트 계층은 사용자 측정 데이터베이스 저장소(User measurement database storage)를 더 포함할 수 있다.
이용 모니터링 모듈(Usage Monitoring module)(92)은 기존에 설명한 바와 같이 사용자가 실시간으로 시청하고 있는 프로그램의 content id와 media time을 ACR 엔진을 통해 모니터링하고, 현재의 프로그램의 content id와 media time를 제3자 서버(90)의 사용자 측정 데이터베이스 저장소에 저장한다. 또한 이용 모니터링 모듈(92)은 부가 서비스 애플리케이션으로부터 사용자의 부가 서비스의 사용(usage)과 상호 작용(interaction) 정보를 수집하여 사용자 측정 데이터베이스 저장소에 저장할 수 있다. 이용 모니터링 모듈(92)은 Live+ 애플리케이션이나 ACR 엔진과는 구별되는 영상 표시 장치(100) 내의 한 모듈일 수도 있고, Live+ 애플리케이션 내의 한 모듈일 수도 있다. 또한, 이용 모니터링 모듈(92)은 제3자 서버(90)의 한 모듈일 수도 있으며, 제3자 서버(90)와는 구별되는 별도의 서버일 수도 있다.
사용자 등록 정보 모듈(93)은 사용자가 직접 입력한 정보를 제3자 서버(90)의 사용자 측정 데이터베이스 저장소에 저장한다. 사용자 등록 정보 모듈(93)은 Live+ 애플리케이션이나 ACR 엔진과는 구별되는 영상 표시 장치(100) 내의 한 모듈일 수도 있고, Live+ 애플리케이션 내의 한 모듈일 수도 있다. 또한, 사용자 등록 정보 모듈(93)은 제3자 서버(90)의 한 모듈일 수도 있으며, 제3자 서버(90)와는 구별되는 별도의 서버일 수도 있다.
방송사 서버와 같은 컨텐츠 제공 서버(10)는 컨텐트 제공자가 보유하는 서버의 한 실시예로, 독자적으로 사용자 측정 데이터베이스를 구축할 수 있다. 컨텐츠 제공 서버(10)는 이용 모니터링 모듈(92)과 사용자 등록 정보 모듈(93)로부터 사용자 정보를 수집하거나 제3자 서버(90)에 사용자 관련 정보를 요청할 수 있다.
도 36은 본 발명의 또 실시예에 따른 영상 표시 장치의 동작을 보여주는 래더 다이어그램이다.
영상 표시 장치(100)는 Live+ 애플리케이션을 실행한다(S3101). 앞서 설명한 바와 같이, Live+ 애플리케이션은 어떠한 단일 채널에도 종속하지 않는 부가 서비스 재생 애플리케이션일 수 있다. 또, Live+ 애플리케이션은 채널 변경에 의해서는 실행되지 않고,채널 변경에 의해서는 종료되지 않을 수 있다.
영상 표시 장치(100)는 비압축 메인 시청각 컨텐트를 획득한다(S3103).
영상 표시 장치(100)는 디스플레이부를 통해 비압축 메인 시청각 컨텐트를 재생한다(S3105).
영상 표시 장치(100)는 비압축 메인 시청각 컨텐트의 일부에 기초하여 비압축 메인 시청각 컨텐트의 컨텐츠 정보의 획득을 시도한다(S3107). 영상 표시 장치(100)는 앞서 설명한 다양한 실시예와 같이, 비압축 메인 시청각 컨텐트의 일부에 기초하여 비압축 메인 시청각 컨텐트의 컨텐츠 정보의 획득을 시도할 수 있다.
영상 표시 장치(100)는 비압축 메인 시청각 컨텐트의 컨텐츠 정보의 획득에 성공했는지를 체크한다(S3109).
영상 표시 장치(100)가 컨텐츠 정보의 획득에 성공한 경우, 영상 표시 장치(100)는 앞서 설명한 바와 같은 다양한 동작을 수행한다. 일 실시예에서, 영상 표시 장치(100) 내에서 실행된 Live+ 애플리케이션은 제3자 서버(90)에 컨텐츠 정보를 포함하는 부가 서비스 요청 메시지를 전송한다. 앞서 설명한 바와 같이 제3자 서버(90)는 어떠한 단일 채널에도 종속하지 않는 부가 서비스 제공 서버일 수 있고, 복수의 채널을 위한 부가 서비스들을 마련하고 있을 수 있다. 제3자 서버는 컨텐츠 정보에 해당하는 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다. Live+ 애플리케이션은 상기 디스플레이부를 통해 컨텐츠 정보에 해당하는 부가 서비스를 재생할 수 있다.
한편, 영상 표시 장치(100)가 컨텐츠 정보의 획득에 실패하더라도, Live+ 애플리케이션은 정확한 타이밍의 장면 연관 정보를 재생하지는 않더라도 유사한 부가 데이터를 제공할 필요가 있다. 영상 표시 장치(100)가 100개 이상의 채널을 수신하는 경우에, 이 100개 이상의 채널이 모두 ACR을 지원하지는 않을 수도 있다. Live+ 애플리케이션이 어떠한 단일 채널에도 종속하지 않고, 채널 변경에 의해서는 실행되지 않고, 채널 변경에 의해서는 종료되지 않는 부가 서비스 재생 애플리케이션일 수 있기 때문에, 사용자가 ACR을 지원하지 않는 채널을 시청중이더라도, 영상 표시 장치(100)에서 실행된 Live+ 애플리케이션은 유사한 부가 데이터를 제공할 것이 요구될 수 있다.
따라서, 영상 표시 장치(100)가 컨텐츠 정보의 획득에 실패한 경우, 영상 표시 장치(100)의 Live+ 애플리케이션은 컨텐츠 정보를 포함하지 않는 부가 서비스 요청 메시지를 제3자 서버(90)에 전송한다(S3113). 부가 서비스 요청 메시지는 영상 표시 장치(100)가 현재 프로그램의 컨텐츠 정보의 획득에 실패하였음을 나타내는 정보를 포함할 수 있다.
컨텐츠 정보를 포함하지 않는 부가 서비스 요청 메시지가 수신되면, 제3자 서버(90)는 사용자 특성에 해당하는 부가 서비스를 결정한다(S3115). 후술하겠지만, 사용자 특성은 사용자 기본 프로파일, 주요 시청 장르, 주요 시청 프로그램, 방송 시청 시간대, 주로 사용한 부가 서비스, 유사 성향을 가진 사용자들이 선택한 프로그램, 유사 성향을 가진 사용자들이 선택한 부가 서비스, 사용자 입력 키워드 중 적어도 하나에 해당하거나, 이들 중 적어도 하나로부터 얻어지는 특성일 수 있다.
제3자 서버(90)는 결정한 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공한다(S3117). 제3자 서버(90)는 사용자 특성에 해당하는 시청각 컨텐트를 결정하고, 이 시청각 컨텐트와 관련된 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수도 있다. 부가 서비스 요청 메시지가 사용자 특성에 대한 정보를 포함하여, 영상 표시 장치(100)의 Live+ 애플리케이션은 원하는 사용자 특성을 직접 지정하여, 지정된 부가 서비스를 획득할 수도 있다. 부가 서비스 요청 메시지가 사용자 특성에 대한 정보를 포함하지 않는다면, 제3자 서버(90)가 자신이 관리하는 사용자 특성을 조회하여 사용자 특성에 해당하는 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다.
영상 표시 장치(100)의 Live+ 애플리케이션은 사용자 특성에 해당하는 시청각 컨텐트와 관련된 부가 서비스를 재생한다(S3119).
다음은 도 37와 도 38을 참고하여 사용자 기본 프로파일에 해당하는 시청각 컨텐트와 관련된 부가 서비스를 설명한다.
도 37는 본 발명의 실시예에 따른 사용자 기본 프로파일에 해당하는 시청각 컨텐트와 관련된 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
제3자 서버(90)는 사용자 프로파일 정보 내의 하나의 정보 엘리먼트에 해당하는 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수도 있고, 사용자 프로파일 정보 내의 복수의 정보 엘리먼트의 조합에 해당하는 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수도 있다.
도 37에 도시된 바와 같이, 제3자 서버(90)는 "40대"이라는 나이에 대한 정보 엘리먼트와 "여성"이라는 성별에 대한 정보 엘리먼트의 조합에 해당하는 부가 서비스를 Live+ 애플리케이션에 제공할 수 있다. 제3자 서버(90)는 40대 여성이 통계적으로 많이 선택한 프로그램이나 애플리케이션, 상품에 대한 정보를 사용자 측정 데이터베이스 저장소에 저장하고 있고, Live+ 애플리케이션의 요청에 따라 이러한 부가 데이터를 제공할 수 있다.도 38은 본 발명의 또 다른 실시예에 따른 사용자 기본 프로파일에 해당하는 시청각 컨텐트와 관련된 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
도 38에서 보여주는 바와 같이, 제3자 서버(90)는 TV의 모델 명이나 펌웨어 버전과 같은 정보 엘리먼트에 해당하는 부가 서비스를 Live+ 애플리케이션에 제공할 수 있다. 이때, TV의 모델 명이나 펌웨어 버전과 같은 정보 엘리먼트에 해당하는 부가 서비스는 펌웨어 업데이트 정보, 업그레이드된 TV 모델의 상세 정보 및 이 TV 모델의 구매 정보, 이 TV 모델의 구매을 위한 할인 쿠폰 정보 중 적어도 하나를 포함할 수 있다.
도 39은 본 발명의 또 다른 실시예에 따른 컨텐츠 정보의 획득에 실패한 경우에서 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
도 39에 도시된 바와 같이, 제3자 서버(90)는 영상 표시 장치(100)의 사용자의 주요 시청 장르, 주요 시청 프로그램을 미리 파악하고 있다가, 주요 시청 장르 및/또는 주요 시청 프로그램에 해당하는 부가 서비스를 Live+ 애플리케이션에 제공할 수 있다.
특히, 도 39에 도시된 바와 같이, 제3자 서버(90)는 복수의 시간대를 위하여 영상 표시 장치(100)의 사용자의 주요 시청 장르, 주요 시청 프로그램을 미리 파악하고 있다가, 현재의 시간에서의 주요 시청 장르 및/또는 주요 시청 프로그램에 해당하는 부가 서비스를 Live+ 애플리케이션에 제공할 수 있다.
또한, 제3자 서버(90)는 영상 표시 장치(100)의 사용자가 주로 사용한 부가 서비스를 미리 파악하고 있다가, 이 주요 사용 부가 서비스를 Live+ 애플리케이션에 제공할 수 있다. 예컨데, 사용자가 프로그램과 관련된 음원 구매 서비스를 자주 이용하였다면, 제3자 서버(90)는 음원 구매 서비스를 Live+ 애플리케이션에 제공할 수 있다.
또, 제3자 서버(90)는 영상 표시 장치(100)의 사용자와 유사한 성향을 가진 사용자의 현재 시청 프로그램에 해당하는 부가 서비스를 Live+ 애플리케이션에 제공할 수 있다. 이때, 유사한 성향은 주요 시청 장르, 주요 시청 프로그램, 주요 사용 부가 서비스 중 적어도 하나가 일치하는 것의 의미할 수 있다.
또, 제3자 서버(90)는 영상 표시 장치(100)의 사용자의 SNS에 포함된 사용자의 현재 시청 프로그램, 주요 시청 장르, 주요 시청 프로그램, 주요 사용 부가 서비스 중 적어도 하나에 해당하는 부가 서비스를 Live+ 애플리케이션에 제공할 수 있다.
도 40은 본 발명의 또 다른 실시예에 따른 컨텐츠 정보의 획득에 실패한 경우에서 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
Live+ 애플리케이션의 프로그램 탭은 현재 시청자가 보고 있는 프로그램에 대한 기본 정보와, 현재 프로그램의 다시 보기 서비스를 제공하는데, 컨텐츠 식별에 실패한 경우 영상 표시 장치(100)는 현재의 프로그램을 알 수 없으므로, Live+ 애플리케이션은 프로그램 탭에 아무런 표시를 하지 못하는 경우가 발생할 수 있다.
사용자가 현재의 시간대에 해당하는 과거의 시간대에 시청한 프로그램의 후속 시리즈가 현재의 시간대에 편성되어 있다면 Live+ 애플리케이션은 이 프로그램의 시청 여부를 사용자에게 질의하는 그래픽 사용자 인터페이스를 디스플레이할 수 있다. 이 그래픽 사용자 인터페이스를 통해 이 프로그램의 시청이 확인되면, Live+ 애플리케이션은 이 프로그램과 관련된 부가 서비스를 제3자 서버(90)에 요청하여, 제3자 서버(90)로부터 이 프로그램과 관련된 부가 서비스를 수신할 수 있다. 또 다른 실시예에서 프로그램의 시청 여부를 사용자에게 질의하는 그래픽 사용자 인터페이스를 디스플레이하는 것은 제외될 수도 있다. Live+ 애플리케이션은 시청이 확인된 프로그램과 관련된 부가 서비스를 프로그램 탭에 보여줄 수 있다.
도 41은 본 발명의 또 다른 실시예에 따른 컨텐츠 정보의 획득에 실패한 경우에서 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
제3자 서버(90)는 현재의 시간대에 편성된 복수의 프로그램에 대한 정보를 포함하는 방송 편성표, 또는 현재의 시간대에 편성된 복수의 프로그램에 대한 정보를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다.
도 41에 도시된 바와 같이, 영상 표시 장치(100)의 Live+ 애플리케이션은 현재의 시간대에 편성된 복수의 프로그램 중에서 현재 시청중인 프로그램의 선택할 수 있도록 질의하는 그래픽 사용자 인터페이스를 디스플레이할 수 있다. 이 그래픽 사용자 인터페이스를 통해 현재의 시간대에 편성된 복수의 프로그램 중에서 하나의 프로그램의 시청이 확인되면, Live+ 애플리케이션은 이 프로그램과 관련된 부가 서비스를 제3자 서버(90)에 요청하여, 제3자 서버(90)로부터 이 프로그램과 관련된 부가 서비스를 수신할 수 있다. Live+ 애플리케이션은 시청이 확인된 프로그램과 관련된 부가 서비스를 프로그램 탭에 보여줄 수 있다.
도 42는 본 발명의 또 다른 실시예에 따른 컨텐츠 정보의 획득에 실패한 경우에서 부가 서비스를 재생하는 Live+ 애플리케이션을 보여준다.
영상 표시 장치(100)가 컨텐츠 정보의 획득에 실패한 경우, 도 42에서 보여지는 바와 같이, 영상 표시 장치(100)의 Live+ 애플리케이션은 검색 키워드의 입력 창을 디스플레이할 수 있다. 검색 키워드 입력 창에 검색 키워드가 입력되면, 영상 표시 장치(100)의 Live+ 애플리케이션은 검색 키워드를 포함하는 부가 서비스 요청 메시지를 제3자 서버(90)에 전송할 수 있다.
제3자 서버(90)가 검색 키워드를 포함하는 부가 서비스 요청 메시지를 수신하면, 제3자 서버(90)는 사용자 기본 프로파일, 주요 시청 장르, 주요 시청 프로그램, 방송 시청 시간대, 주로 사용한 부가 서비스, 유사 성향을 가진 사용자들이 선택한 프로그램, 유사 성향을 가진 사용자들이 선택한 부가 서비스 중 적어도 하나와 검색 키워드의 조합에 해당하는 부가 서비스를 결정하고, 이 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다.
구체적으로, 제3자 서버(90)가 검색 키워드를 포함하는 부가 서비스 요청 메시지를 수신하면, 제3자 서버(90)는 검색 키워드에 기초하여 검색 결과를 획득하고, 사용자 기본 프로파일, 주요 시청 장르, 주요 시청 프로그램, 방송 시청 시간대, 주로 사용한 부가 서비스, 유사 성향을 가진 사용자들이 선택한 프로그램, 유사 성향을 가진 사용자들이 선택한 부가 서비스 중 적어도 하나에 기초하여 검색 결과를 가공하여, 가공된 검색 결과를 포함하는 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다. 예컨데, 검색 키워드가 배우 이름이고, 검색 결과가 배우 이름에 해당하는 복수의 검색 아이템을 포함하는 경우에, 제3자 서버(90)는 복수의 검색 아이템 중에서 사용자의 주요 시청 프로그램에 해당하는 검색 아이템을 상위에 배치하여 검색 결과를 가공할 수 있다.
한편, 제3자 서버(90)가 검색 키워드를 포함하는 부가 서비스 요청 메시지를 수신하면, 제3자 서버(90)는 사용자 기본 프로파일, 주요 시청 장르, 주요 시청 프로그램, 방송 시청 시간대, 주로 사용한 부가 서비스, 유사 성향을 가진 사용자들이 선택한 프로그램, 유사 성향을 가진 사용자들이 선택한 부가 서비스 중 적어도 하나와 검색 키워드의 조합에 해당하는 시청각 컨텐트를 결정하고, 이 시청각 컨텐트와 연관된 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다.
또한, 제3자 서버(90)는 추론 규칙을 이용하여 부가 서비스를 생성한 후 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다. 즉, 제3자 서버는 사용자의 기본 프로파일에 추론 규칙을 적용하여 사용자 특징을 추론할 수 있다. 예컨데, 아래와 같은 추론 규칙이 이용될 수 있다.
- 40대 남성은 가전 제품을 선호한다.
- 40대 남성은 100만원 이상의 제품 구매가 가능하다.
- 남성은 스포츠 장르를 선호한다.
- 15세 이상 20세 이하의 여성은 "A" 카테고리의 브랜드 의상을 선호한다.
- 15세 이상 20세 이하의 여성은 소셜 네트워크에 포함된 사용자의 동의하는 경우가 많다.
- 15세 이상의 여성을 드라마 장르를 선호한다.
3자 서버(90)는 사용자 특성에 해당하는 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다. 특히, 3자 서버(90)는 사용자 특성에 해당하는 시청각 컨텐트를 결정하고, 결정한 시청각 컨텐트와 관련된 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다.
더 나아가, 컨텐츠 정보의 획득에 성공한 경우에도, 제3자 서버(90)는 컨텐츠 정보와 사용자 특성의 결합에 해당하는 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다. 예컨데, 컨텐츠 정보에 해당하는 부가 서비스가 복수의 아이템을 가지고 있을 경우, 제3자 서버(90)는 복수의 아이템 중에서 사용자 특성에 해당하는 아이템을 상위에 포함하는 부가 서비스를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공할 수 있다.
먼저, 복수의 영상 표시 장치들의 각각은 도 29에 도시된 바와 같은 메인 시청각 컨텐트 시청 정보 아이템을 수집한다(S3301). 이때, 도 29에 도시된 바와 같은 메인 시청각 컨텐트 시청 정보 아이템의 XML 스키마는 아래의 표 6과 같이 확장될 수 있다.
Figure pct00010
표 6에서 보여지는 바와 같이, 영상 표시 장치는 메인 시청각 컨텐트 시청 정보 아이템을 수집할 시점의 시스템 시간 정보를 메인 시청각 컨텐트 시청 정보 아이템에 삽입한다.
각 영상 표시 장치는 복수의 수집한 메인 시청각 컨텐트 시청 정보 아이템을 묶음(batch)로 제3자 서버(90)에 제공한다(S3303). 이때, 각 영상 표시 장치는 사용자 프로파일에 대한 정보를 제3자 서버(90)에 더 제공할 수 있다.
제3자 서버(90)는 복수의 영상 표시 장치들로부터 복수의 메인 시청각 컨텐트 시청 정보 아이템을 수신하고, 이들에 기초하여 시청률 정보를 생성한다(S3305). 각 메인 시청각 컨텐트 시청 정보 아이템은 메인 시청각 컨텐트의 타임 스탬프 및 시스템 시간 정보를 포함하고 있으므로, 제3자 서버(90)는 메인 시청각 컨텐트가 생방송(Real-time viewing)으로 시청됐는지, 재방송(time-shifted viewing)으로 시청됐는지, VOD나 미디어 파일의 시청과 같은 지연 보기(delayed viewing)로 시청됐는지를 구분할 수 있다. 예컨데, 메인 시청각 컨텐트가 현재에도 과거에도 방송되지 않았다면, 제3자 서버(90)는 메인 시청각 컨텐트가 지연 보기로 시청되었음을 확인할 수 있다. 메인 시청각 컨텐트가 방송되었고, 메인 시청각 컨텐트의 타임 스탬프와 시스템 시간 정보 사이의 차이가 소정의 범위를 벗어나면, 제3자 서버(90)는 메인 시청각 컨텐트가 재방송으로 시청되었음을 확인할 수 있다. 메인 시청각 컨텐트가 방송되었고, 메인 시청각 컨텐트의 타임 스탬프와 시스템 시간 정보 사이의 차이가 소정의 범위 이내이면, 제3자 서버(90)는 메인 시청각 컨텐트가 생방송으로 시청되었음을 확인할 수 있다.
제3자 서버(90)가 메인 시청각 컨텐트 시청 정보 아이템과 함께 사용자 프로파일에 대한 정보를 수신한다면, 제3자 서버(90)는 사용자 프로파일 내의 각 정보 요소에 따른 시청률 정보를 생성할 수도 있다. 예컨데, 제3자 서버(90)는 성별에 따른 시청률 정보, 연령에 따른 시청률 정보, 성별 및 연령에 따른 시청률 정보, 거주 지역에 따른 시청률 정보 등을 생성할 수 있다.
또한, 메인 시청각 컨텐트 시청 정보 아이템이 장르에 대한 정보를 포함하므로, 제3자 서버(90)는 장르에 따른 시청률 정보 등을 생성할 수 있다.
이처럼, 제3자 서버(90)는 장르에 따른 시청률 정보, 사용자 프로파일에 따른 시청률 정보, 생방송 시청률 정보, 재방송 시청률 정보 및 지연 보기 시청률 정보 중 적어도 하나를 포함하는 향상된 시청률 정보(enhanced audience rating information)을 생성하고, 이를 영상 표시 장치(100)의 Live+ 애플리케이션에 제공한다(S3307).
영상 표시 장치(100)의 Live+ 애플리케이션가 향상된 시청률 정보를 수신하면, 영상 표시 장치(100)의 Live+ 애플리케이션는 향상된 시청률 정보를 추천 탭에 디스플레이할 수 있다(S3309).
사용자는 향상된 시청률 정보에서 시청하고자 하는 프로그램을 선택할 수 있다. 즉, 사용자는 장르에 따른 시청률 정보, 사용자 프로파일에 따른 시청률 정보, 생방송 시청률 정보, 재방송 시청률 정보 및 지연 보기 시청률 정보 중 적어도 하나에서 시청하고자 하는 프로그램을 선택할 수 있다.
사용자는 장르에 따른 시청률 정보, 사용자 프로파일에 따른 시청률 정보, 생방송 시청률 정보, 재방송 시청률 정보 및 지연 보기 시청률 정보 중 적어도 하나를 통해 프로그램이 선택되면, 영상 표시 장치(100)는 선택된 프로그램을 메인 시청각 컨텐트로서 재생할 수 있다(S3311). 예컨데, 선택된 프로그램이 생방송 프로그램이면, 영상 표시 장치(100)는 채널 변경을 통해 선택된 프로그램을 재생할 수 있다. 또, 선택된 프로그램이 재방송 프로그램이거나 지연 보기 프로그램이면, 영상 표시 장치(100)는 IP 기반 네트워크를 통해 선택된 프로그램을 요청한 후, 해당 프로그램을 수신하고 재생할 수 있다.
다음은 도 43과 도 44을 참조하여 본 발명의 다양한 실시예에 따른 영상 표시 장치의 구조를 설명한다.
도 43은 본 발명의 또 다른 실시예에 따른 핑거프린트 기반의 영상 표시 장치의 구조를 보여주는 블록도이다.
도 43에서, Tuner(501)는 air 채널을 통해 전송되는 8-VSB RF 신호로부터 Symbol을 추출한다.
8-VSB Demodulator(503)는 Tuner(501)가 추출한 8-VSB Symbol을 복조하여 의미 있는 디지털 데이터를 복원한다.
VSB Decoder(505)는 8-VSB Demodulator(503)가 복원한 디지털 데이터를 복호하여 ATSC 메인 서비스와 ATSC M/H 서비스를 복원한다.
MPEG-2 TP Demux(507)는 8-VSB 신호를 통하여 전송되는 MPEG-2 Transport Packet 또는 PVR Storage에 저장된 MPEG-2 Transport Packet 중에서 영상 표시 장치(100)가 처리하고자 하는 Transport Packet을 필터링하여 적절한 처리 모듈로 중계한다.
PES 디코더(539)는 MPEG-2 Transport Stream을 통하여 전송된 Packetized Elementary Stream을 Buffering하고 복원한다.
PSI/PSIP 디코더(541)는 MPEG-2 Transport Stream을 통하여 전송되는 PSI/PSIP Section Data를 Buffering하고 분석한다. 분석된 PSI/PSIP 데이터는 Service Manager(미도시)에 의하여 수집되어, Service Map 및 Guide data 형태로 DB에 저장된다.
DSMCC Section Buffer/Handler (511)은 MPEG-2 TP를 통하여 전송되는 파일 전송 및 IP Datagram encapsulation 등을 위한 DSMCC Section Data를 버퍼링(Buffering)하고 처리한다.
IP/UDP Datagram Buffer/Header Parser(513)는 DSMCC Addressable section을 통해 encapsulate되어 MPEG-2 TP를 통하여 전송되는 IP Datagram을 버퍼링하고 복원하여 각 Datagram의 Header를 분석한다. 또한, IP/UDP Datagram Buffer/Header Parser(513)는 IP Datagram을 통하여 전송되는 UDP Datagram을 Buffering 및 복원하고, 복원된 UDP Header를 분석 및 처리한다.
Stream component handler(557)는 ES Buffer/Handler, PCR Handler, STC 모듈, Descrambler, CA Stream Buffer/Handler, Service Signaling Section Buffer/Handler를 포함할 수 있다.
ES Buffer/Handler는 PES 형태로 전송된 Video, Audio 데이터 등의 Elementary Stream을 Buffering 및 복원하여 적절한 A/V Decoder로 전달한다.
PCR Handler는 Audio 및 Video Stream의 Time synchronization 등을 위하여 사용되는 PCR (Program Clock Reference) Data를 처리한다.
STC 모듈은 PCR Handler를 통하여 전달받은 Reference Clock 값을 이용하여, A/V Decoder 들의 Clock 값을 보정하여 Time Synchronization를 수행한다.
수신된 IP Datagram의 Payload에 Scrambling이 적용된 경우, Descrambler는 CA Stream Handler로부터 전달 받은 Encryption key 등을 이용, Payload의 데이터를 복원한다.
CA Stream Buffer/Handler는 MPEG-2 TS또는 IP Stream을 통하여 전송되는 Conditional Access 기능을 위하여 전송되는 EMM, ECM 등의 Descrambling을 위한 Key 값 등의 Data를 Buffering 및 처리한다. CA Stream Buffer/Handler의 Output은 Descrambler로 전달되어, descrambler는 A/V Data 및 File Data등을 전송하는 MPEG-2 TP 또는 IP Datagram의 암호화 해제작업을 수행한다.
Service Signaling Section Buffer/Handler는 IP Datagram의 형태로 전송되는 NRT Service Signaling Channel Section Data를 Buffering 하고 복원하며 분석한다. Service Manager(미도시)는 분석된 NRT Service Signaling Channel Section 데이터를 수집하여, Service Map 및 Guide data 형태로 DB에 저장한다.
A/V Decoder(561)는 ES Handler를 통하여 전달받은 Audio/Video 데이터의 압축을 복호화하여, 사용자에게 Presentation한다.
MPEG-2 Service Demux(미도시)는 MPEG-2 TP Buffer/Parser, Descrambler, PVR Storage 모듈을 포함할 수 있다.
MPEG-2 TP Buffer/Parser (미도시)는 8-VSB 신호를 통하여 전송되는 MPEG-2 Transport Packet을 Buffering 및 복원하고, Transport Packet Header를 검출 및 처리한다.
Descrambler는 MPEG-2 TP 중, Scramble이 적용된 Packet payload에 대하여, CA Stream Handler로부터 전달 받은 Encryption key 등을 이용, Payload의 데이터를 복원한다.
PVR Storage 모듈은 사용자의 요구 등에 따라 8-VSB 신호를 이용하여 수신된 MPEG-2 TP를 저장하고, 또한 사용자의 요구에 의해 MPEG-2 TP를 출력한다. PVR Storage 모듈은 PVR Manager(미도시)에 의해 제어될 수 있다.
File Handler(551)는 ALC/LCT Buffer/Parser, FDT Handler, XML Parser, File Reconstruction Buffer, Decompressor, File Decoder, File Storage를 포함할 수 있다.
ALC/LCT Buffer/Parser는 UDP/IP Stream으로 전송되는 ALC/LCT 데이터를 Buffering 및 복원하고, ALC/LCT의 Header 및 Header extension을 분석한다. ALC/LCT Buffer/Parser는 NRT Service Manager(미도시)에 의해 제어될 수 있다.
FDT Handler는 ALC/LCT session을 통하여 전송되는 FLUTE protocol의 File Description Table을 분석 및 처리한다. FDT Handler는 NRT Service Manager(미도시)에 의해 제어될 수 있다.
XML Parser는 ALC/LCT session을 통하여 전송되는 XML Document를 분석하여, FDT Handler, SG Handler 등 적절한 모듈로 분석된 데이터를 전달한다.
File Reconstruction Buffer는 ALC/LCT, FLUTE session으로 전송되는 파일을 복원한다.
Decompressor는 ALC/LCT, FLUTE session으로 전송되는 파일이 압축되어 있는 경우, 그 압축을 해제하는 프로세스를 수행한다.
File Decoder는 File Reconstruction Buffer에서 복원된 File 또는 Decompressor에서 압축해제된 파일, 또는 File Storage에서 추출된 File을 Decoding한다.
File Storage는 복원된 파일을 필요에 의하여 저장하거나 추출한다.
M/W Engine(미도시)은 DSMCC Section, IP Datagram 등을 통하여 전송되는 A/V Stream이 아닌 파일 등의 Data를 처리한다. , M/W Engine은 처리된 데이터를 Presentation Manager 모듈로 전달한다.
SG Handler(미도시)는 XML Document 형태로 전송되는 Service Guide 데이터를 수집하고 분석하여 EPG Manager에게 전달하는 프로세스를 수행한다.
Service Manager(미도시)는 MPEG-2 Transport Stream을 통하여 전송되는 PSI/PSIP Data, IP Stream으로 전송되는 Service Signaling Section Data를 수집하고 분석하여 Service Map을 제작한다. Service Manager(미도시)는 제작한 service map을 Service Map & Guide Database에 저장하며, 사용자가 원하는 Service에 대한 access를 제어한다. Operation Controller(미도시)에 의하여 제어되며, Tuner(501), MPEG-2 TP Demux(507), IP Datagram Buffer/Handler (513) 등에 대한 제어를 수행한다.
NRT Service Manager(미도시)는 IP layer 상에서 FLUTE session을 통하여 object/file 형태로 전송되는 NRT 서비스에 대한 전반적인 관리를 수행한다. NRT Service Manager(미도시)는 FDT Handler, File Storage등을 제어할 수 있다.
Application Manager(미도시)는 Object, file 등의 형태로 전송되는 Application 데이터의 처리에 관한 전반적인 관리를 수행한다.
UI Manager(미도시)는 User Interface를 통하여 사용자의 Input을 Operation Controller에 전달하고, 사용자가 요구하는 서비스를 위한 Process의 동작을 시작한다.
Operation Controller(미도시)는 UI Manager를 통하여 전달받은 사용자의 Command를 처리하고, 필요한 모듈의 Manager가 해당 Action을 수행하게 한다.
Fingerprint Extractor(565)는 Audio/Video 스트림으로 부터 fingerprint 특징 정보를 추출한다.
Fingerprint Comparator(567)는 Fingerprint Extractor가 추출한 특징 정보와 Reference fingerprint를 비교하여 일치하는 컨텐트를 찾는다. Fingerprint Comparator(567)는 Local에 저장된 Reference fingerprint DB를 이용할 수도 있고, 인터넷 상의 Fingerprint 질의 서버에 질의하여 결과를 수신할 수도 있다. 비교 결과로 매칭된 결과 데이터는 Application에 전달되어 이용될 수 있다.
Application(569)은 ACR 기능을 관장하는 모듈 혹은 ACR에 기반하여 Enhanced 서비스를 제공하는 어플리케이션 모듈로서, 시청중인 방송 컨텐트를 식별하여 이와 연계된 확장된 서비스를 제공한다.
도 44은 본 발명의 또 다른 실시예에 따른 워트마크 기반의 영상 표시 장치의 구조를 보여주는 블록도이다.
도 44에 도시된 워트마크 기반의 영상 표시 장치는 도 43에 도시된 핑거프린트 기반의 영상 표시 장치와 유사하나, 핑거프린트 기반의 영상 표시 장치의 Fingerprint Extractor(565)와 Fingerprint Comparator(567)를 포함하지 않으며, 대신 Watermark Extractor(566)를 더 포함한다.
Watermark Extractor(566)는 Audio/Video 스트림으로부터 watermark형태로 삽입된 데이터를 추출한다. 이렇게 추출된 데이터는 Application에 전달되어 이용될 수 있다.
본 발명의 일 실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 설명된 영상 표시 장치는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (20)

  1. 디스플레이부를 포함하는 영상 표시 장치의 동작 방법에 있어서,
    어떠한 단일 채널에도 종속하지 않는 부가 서비스 재생 애플리케이션을 실행하는 단계;
    비압축 시청각 컨텐트를 획득하는 단계;
    상기 디스플레이부를 통해 상기 비압축 시청각 컨텐트를 재생하는 단계;
    상기 비압축 시청각 컨텐트의 일부에 기초하여 상기 비압축 시청각 컨텐트의 컨텐츠 정보의 획득을 시도하는 단계;
    상기 부가 서비스 재생 애플리케이션에 의해, 어떠한 단일 채널에도 종속하지 않는 부가 서비스 제공 서버에 부가 서비스 요청 메시지를 전송하는 단계;
    상기 부가 서비스 제공 서버로부터 부가 서비스를 수신하는 단계; 및
    상기 부가 서비스 재생 애플리케이션에 의해, 상기 디스플레이부를 통해 상기 부가 서비스를 재생하는 단계를 포함하는
    영상 표시 장치의 동작 방법.
  2. 제1항에 있어서,
    상기 부가 서비스 재생 애플리케이션은 채널 변경에 의해서는 실행되지 않고,채널 변경에 의해서는 종료되지 않는
    영상 표시 장치의 동작 방법.
  3. 제2항에 있어서,
    상기 부가 서비스 제공 서버는 복수의 채널을 위한 부가 서비스들을 마련하고 있는
    영상 표시 장치의 동작 방법.
  4. 제3항에 있어서,
    상기 컨텐츠 정보의 획득의 시도에 성공한 경우, 상기 부가 서비스 요청 메시지는 상기 컨텐츠 정보를 포함하고,
    상기 부가 서비스를 수신하는 단계는,
    상기 부가 서비스 제공 서버로부터 상기 컨텐츠 정보에 해당하는 부가 서비스를 수신하는 단계를 포함하는
    영상 표시 장치의 동작 방법.
  5. 제4항에 있어서,
    상기 컨텐츠 정보는 상기 비압축 시청각 컨텐트를 세계적으로 유일하게 식별하기 위한 글로벌 유니크 식별자와, 상기 일부에 해당하는 시간 정보를 포함하는
    영상 표시 장치의 동작 방법.
  6. 제5항에 있어서,
    상기 동작 방법은,
    상기 일부의 재생 시간과 상기 컨텐츠 정보의 획득 시간의 차이 시간 및 상기 일부에 해당하는 시간 정보에 기초하여 상기 컨텐츠 정보의 획득 시간부터 상기 비압축 시청각 컨텐트의 재생 시간과 상기 부가 서비스의 시작 시간을 동기화하는 단계를 더 포함하고,
    상기 부가 서비스를 재생하는 단계는,
    상기 시청각 컨텐트의 동기화된 재생 시간이 상기 부가 서비스의 시작 시간에 해당하는 경우에 상기 부가 서비스를 시작하는 단계를 포함하는
    영상 표시 장치의 동작 방법.
  7. 제3항에 있어서,
    상기 컨텐츠 정보의 획득의 시도에 실패한 경우, 상기 부가 서비스 요청 메시지는 상기 컨텐츠 정보를 포함하지 않고,
    상기 부가 서비스를 수신하는 단계는,
    상기 컨텐츠 정보를 포함하지 않는 부가 서비스 요청 메시지에 대한 응답으로, 사용자 특성에 해당하는 시청각 컨텐트와 관련된 부가 서비스를 상기 부가 서비스 제공 서버로부터 수신하는 단계를 포함하는
    영상 표시 장치의 동작 방법.
  8. 제7항에 있어서,
    상기 부가 서비스 제공 서버는 상기 컨텐츠 정보를 포함하지 않는 부가 서비스 요청 메시지를 수신하는 경우에, 상기 사용자 특성에 해당하는 시청각 컨텐트를 결정하고, 결정한 시청각 컨텐트와 관련된 부가 서비스를 상기 영상 표시 장치에 제공하는 서버인
    영상 표시 장치의 동작 방법.
  9. 제8항에 있어서,
    상기 사용자 특성은
    사용자 기본 프로파일, 주요 시청 장르, 주요 시청 프로그램, 방송 시청 시간대, 주로 사용한 부가 서비스, 유사 성향을 가진 사용자들이 선택한 프로그램, 유사 성향을 가진 사용자들이 선택한 부가 서비스, 사용자 입력 키워드 중 적어도 하나에 해당하거나, 이들 중 적어도 하나로부터 얻어지는
    영상 표시 장치의 동작 방법.
  10. 제1항에 있어서,
    상기 부가 서비스 제공 서버로부터 부가 서비스를 수신하는 단계는
    상기 부가 서비스 제공 서버로부터 시청률 정보를 수신하는 단계를 포함하고,
    상기 동작 방법은
    상기 시청률 정보를 디스플레이하는 단계를 포함하는
    영상 표시 장치의 동작 방법.
  11. 제10항에 있어서,
    상기 시청률 정보는 프로그램들을 실시간 시청, 시간-쉬프트 시청, 지연된 시청 중 둘 이상으로 구분하여 조사된 정보인
    영상 표시 장치의 동작 방법.
  12. 제1항에 있어서,
    상기 컨텐츠 정보의 획득을 시도하는 단계는
    상기 일부에 임베딩된 워터마크 정보 또는 상기 일부의 특징 정보를 통해 상기 컨텐츠 정보의 획득을 시도하는 단계를 포함하는
    영상 표시 장치의 동작 방법.
  13. 영상 표시 장치에 있어서,
    디스플레이부;
    비압축 시청각 컨텐트를 획득하는 수신부;
    특정 채널에 종속하지 않는 부가 서비스 재생 애플리케이션을 실행하고, 상기 비압축 시청각 컨텐트의 일부에 기초하여 상기 비압축 시청각 컨텐트의 컨텐츠 정보를 획득하고, 상기 컨텐츠 정보에 기초하여 부가 서비스의 획득을 시도하는 부가 서비스 관리부; 및
    상기 비압축 시청각 컨텐트를 상기 디스플레이부에 재생하는 재생 제어부를 포함하고,
    상기 부가 서비스 재생 애플리케이션은 특정 채널에 종속하지 않는 부가 서비스 제공 서버에 부가 서비스 요청 메시지를 전송하고, 상기 부가 서비스 제공 서버로부터 부가 서비스를 수신하고, 상기 부가 서비스를 상기 디스플레이부에 재생하는
    영상 표시 장치.
  14. 제13항에 있어서,
    상기 부가 서비스 재생 애플리케이션은 채널 변경에 의해서는 실행되지 않고,채널 변경에 의해서는 종료되지 않고,
    상기 부가 서비스 제공 서버는 복수의 채널을 위한 부가 서비스들을 마련하고 있는
    영상 표시 장치의 동작 방법.
  15. 제14항에 있어서,
    상기 컨텐츠 정보의 획득의 시도에 성공한 경우, 상기 부가 서비스 요청 메시지는 상기 컨텐츠 정보를 포함하고,
    상기 부가 서비스 재생 애플리케이션은 상기 부가 서비스 제공 서버로부터 상기 컨텐츠 정보에 해당하는 부가 서비스를 수신하는 단계를 포함하고,
    상기 컨텐츠 정보는 상기 비압축 시청각 컨텐트를 세계적으로 유일하게 식별하기 위한 글로벌 유니크 식별자와, 상기 일부에 해당하는 시간 정보를 포함하는
    영상 표시 장치의 동작 방법.
  16. 제15항에 있어서,
    상기 부가 서비스 재생 애플리케이션은 상기 일부의 재생 시간과 상기 컨텐츠 정보의 획득 시간의 차이 시간 및 상기 일부에 해당하는 시간 정보에 기초하여 상기 컨텐츠 정보의 획득 시간부터 상기 비압축 시청각 컨텐트의 재생 시간과 상기 부가 서비스의 시작 시간을 동기화하고, 상기 시청각 컨텐트의 동기화된 재생 시간이 상기 부가 서비스의 시작 시간에 해당하는 경우에 상기 부가 서비스를 시작하는
    영상 표시 장치.
  17. 제15항에 있어서,
    상기 컨텐츠 정보의 획득의 시도에 실패한 경우, 상기 부가 서비스 요청 메시지는 상기 컨텐츠 정보를 포함하지 않고,
    상기 부가 서비스 재생 애플리케이션은 상기 컨텐츠 정보를 포함하지 않는 부가 서비스 요청 메시지에 대한 응답으로, 사용자 특성에 해당하는 시청각 컨텐트와 관련된 부가 서비스를 상기 부가 서비스 제공 서버로부터 수신하는 단계를 포함하는
    영상 표시 장치의 동작 방법.
  18. 제17항에 있어서,
    상기 사용자 특성은
    사용자 기본 프로파일, 주요 시청 장르, 주요 시청 프로그램, 방송 시청 시간대, 주로 사용한 부가 서비스, 유사 성향을 가진 사용자들이 선택한 프로그램, 유사 성향을 가진 사용자들이 선택한 부가 서비스, 사용자 입력 키워드 중 적어도 하나에 해당하거나, 이들 중 적어도 하나로부터 얻어지는
    영상 표시 장치의 동작 방법.
  19. 제13항에 있어서,
    상기 부가 서비스 재생 애플리케이션은 상기 부가 서비스 제공 서버로부터 시청률 정보를 수신하고, 상기 시청률 정보를 상기 디스플레이부에 디스플레이하는
    영상 표시 장치의 동작 방법.
  20. 제19항에 있어서,
    상기 시청률 정보는 프로그램들을 실시간 시청, 시간-쉬프트 시청, 지연된 시청 중 둘 이상으로 구분하여 조사된 정보인
    영상 표시 장치의 동작 방법.
KR1020147018093A 2012-01-05 2013-01-07 영상 표시 장치 및 그 동작 방법 KR20140119691A (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261583189P 2012-01-05 2012-01-05
US61/583,189 2012-01-05
US201261583621P 2012-01-06 2012-01-06
US61/583,621 2012-01-06
US201261585208P 2012-01-10 2012-01-10
US61/585,208 2012-01-10
PCT/KR2013/000094 WO2013103273A1 (en) 2012-01-05 2013-01-07 Video display apparatus and operating method thereof

Publications (1)

Publication Number Publication Date
KR20140119691A true KR20140119691A (ko) 2014-10-10

Family

ID=48745298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147018093A KR20140119691A (ko) 2012-01-05 2013-01-07 영상 표시 장치 및 그 동작 방법

Country Status (4)

Country Link
US (2) US9578378B2 (ko)
KR (1) KR20140119691A (ko)
CA (1) CA2862575C (ko)
WO (1) WO2013103273A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160055518A (ko) * 2014-11-10 2016-05-18 엘지전자 주식회사 전자 장치 및 그 동작 방법

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9769503B2 (en) * 2012-11-14 2017-09-19 Saturn Licensing Llc Information processor, information processing method and program
KR20140131166A (ko) * 2013-05-03 2014-11-12 삼성전자주식회사 디스플레이 장치 및 검색 방법
US9148388B2 (en) * 2013-05-23 2015-09-29 Tekelec, Inc. Methods, systems, and computer readable media for performing enhanced service routing
US9955103B2 (en) 2013-07-26 2018-04-24 Panasonic Intellectual Property Management Co., Ltd. Video receiving device, appended information display method, and appended information display system
WO2015015712A1 (ja) 2013-07-30 2015-02-05 パナソニックIpマネジメント株式会社 映像受信装置、付加情報表示方法および付加情報表示システム
WO2015033500A1 (ja) 2013-09-04 2015-03-12 パナソニックIpマネジメント株式会社 映像受信装置、映像認識方法および付加情報表示システム
EP3043571A4 (en) 2013-09-04 2016-08-17 Panasonic Ip Man Co Ltd VIDEO RECEIVING DEVICE, VIDEO RECOGNITION METHOD, AND ADDITIONAL INFORMATION DISPLAY SYSTEM
EP3049990A1 (en) * 2013-09-27 2016-08-03 Gardeñes Liñan, Manuel A method for certifying data relating to an occurrence
EP3078204A4 (en) * 2013-12-03 2017-07-05 LG Electronics Inc. Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
WO2015145491A1 (ja) 2014-03-26 2015-10-01 パナソニックIpマネジメント株式会社 映像受信装置、映像認識方法および付加情報表示システム
CN105144735A (zh) 2014-03-26 2015-12-09 松下知识产权经营株式会社 影像接收装置、影像识别方法以及附加信息显示系统
US20150373304A1 (en) * 2014-06-18 2015-12-24 Opentv, Inc. User/interaction association via a media gateway
WO2016009637A1 (ja) 2014-07-17 2016-01-21 パナソニックIpマネジメント株式会社 認識データ生成装置、画像認識装置および認識データ生成方法
US10200765B2 (en) 2014-08-21 2019-02-05 Panasonic Intellectual Property Management Co., Ltd. Content identification apparatus and content identification method
US10264329B2 (en) * 2014-10-28 2019-04-16 Disney Enterprises, Inc. Descriptive metadata extraction and linkage with editorial content
US10299012B2 (en) 2014-10-28 2019-05-21 Disney Enterprises, Inc. Descriptive metadata extraction and linkage with editorial content
JP2016086335A (ja) * 2014-10-28 2016-05-19 日本電気株式会社 通信装置、通信方法及びプログラム
CN107038238A (zh) * 2017-04-19 2017-08-11 深圳市茁壮网络股份有限公司 一种数据的关联、播放方法及装置
WO2020024049A1 (en) * 2018-07-31 2020-02-06 10819964 Canada Inc. Interactive devices, media systems, and device control

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004501577A (ja) * 2000-06-19 2004-01-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動実行法および受信局
WO2002019717A2 (en) 2000-08-31 2002-03-07 Myrio Corporation Real-time audience monitoring, content rating, and content enhancing
US20020080161A1 (en) 2000-11-02 2002-06-27 St. Maurice Susan T. Network appliance for enhanced television services
US20020157101A1 (en) 2001-03-02 2002-10-24 Schrader Joseph A. System for creating and delivering enhanced television services
JP3656248B2 (ja) * 2001-10-09 2005-06-08 ソニー株式会社 ビデオ信号記録装置および方法、ビデオ信号再生装置および方法、記録媒体、プログラム、並びにデータ構造
US7694318B2 (en) * 2003-03-07 2010-04-06 Technology, Patents & Licensing, Inc. Video detection and insertion
US7809154B2 (en) * 2003-03-07 2010-10-05 Technology, Patents & Licensing, Inc. Video entity recognition in compressed digital video streams
US20040237120A1 (en) * 2003-05-22 2004-11-25 Lewin Blake P. Systems and methods for dynamically generating and distributing synchronized enhancements to a broadcast signal
US20080010664A1 (en) * 2004-08-30 2008-01-10 Maurizio Pelizza Method and System for Providing Interactive Services in Digital Television
US20060123451A1 (en) * 2004-12-07 2006-06-08 Showtime Networks Inc. Enhanced content in an on-demand environment
US20080046919A1 (en) * 2006-08-16 2008-02-21 Targeted Media Services Ltd. Method and system for combining and synchronizing data streams
US8407741B2 (en) 2006-11-20 2013-03-26 Sk Planet Co., Ltd. System, server and method for providing supplementary information service related to broadcast content
US20080177858A1 (en) * 2007-01-19 2008-07-24 Ari Aarnio Arranging dynamic bookmarks based on service provider inputs
US20090319373A1 (en) * 2008-06-23 2009-12-24 Microsoft Corporation National advertisement linking
US8667549B2 (en) 2009-04-28 2014-03-04 Microsoft Corporation Personal video recorder E-mail alerts and status
KR20100127162A (ko) * 2009-05-25 2010-12-03 엘지전자 주식회사 단말 내에서 브로드캐스트 서비스를 통해 관련된 콘텐츠를 검색하고 주문하는 방법 및 장치
US8141113B2 (en) 2009-06-04 2012-03-20 Verizon Patent And Licensing Inc. Methods and systems for recovering from errors associated with advertisement streams
US8863165B2 (en) 2010-11-01 2014-10-14 Gracenote, Inc. Method and system for presenting additional content at a media system
US9241192B2 (en) * 2011-02-16 2016-01-19 Cox Communications, Inc. Policy decision point override for content rating
US8806540B2 (en) * 2011-05-10 2014-08-12 Verizon Patent And Licensing Inc. Interactive media content presentation systems and methods
US8484670B2 (en) * 2011-06-14 2013-07-09 At&T Intellectual Property I, L.P. Method and apparatus for distributing promotional materials

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160055518A (ko) * 2014-11-10 2016-05-18 엘지전자 주식회사 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
US9578378B2 (en) 2017-02-21
US20140123204A1 (en) 2014-05-01
US20150150036A1 (en) 2015-05-28
US9967626B2 (en) 2018-05-08
WO2013103273A1 (en) 2013-07-11
CA2862575A1 (en) 2013-07-11
CA2862575C (en) 2018-01-23

Similar Documents

Publication Publication Date Title
KR102116679B1 (ko) 영상 표시 장치 및 그 동작 방법
CA2862575C (en) Video display apparatus and operating method thereof
JP6294238B2 (ja) 映像表示装置及びその動作方法
US20190082212A1 (en) Method for receiving enhanced service and display apparatus thereof
JP6290935B2 (ja) 映像表示装置及びその動作方法
JP6151804B2 (ja) 映像表示装置及びその動作方法
KR101805538B1 (ko) 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
EP3010241B1 (en) Image display device and method for operating same
KR102263146B1 (ko) 영상 표시 장치 및 그 동작 방법

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination