KR20090122463A - 오디오 신호 내에서 시점을 결정하는 방법 - Google Patents

오디오 신호 내에서 시점을 결정하는 방법 Download PDF

Info

Publication number
KR20090122463A
KR20090122463A KR1020097020370A KR20097020370A KR20090122463A KR 20090122463 A KR20090122463 A KR 20090122463A KR 1020097020370 A KR1020097020370 A KR 1020097020370A KR 20097020370 A KR20097020370 A KR 20097020370A KR 20090122463 A KR20090122463 A KR 20090122463A
Authority
KR
South Korea
Prior art keywords
audio signal
signature data
server
client
time point
Prior art date
Application number
KR1020097020370A
Other languages
English (en)
Inventor
토마스 켐프
마커스 줌켈러
Original Assignee
소니 도이칠란트 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 도이칠란트 게엠베하 filed Critical 소니 도이칠란트 게엠베하
Publication of KR20090122463A publication Critical patent/KR20090122463A/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4147PVR [Personal Video Recorder]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6581Reference data, e.g. a movie identifier for ordering a movie or a product identifier in a home shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/165Centralised control of user terminal ; Registering at central
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

방송국으로부터 클라이언트 및 서버로 전송되는 오디오 신호 내에서 시점을 결정하기 위한 방법으로서, 상기 서버에서, 상기 오디오 신호로부터 제1 서명 데이터(E1, E2, ...)를 유추하는 단계 - 상기 오디오 신호의 상기 적어도 일 부분의 시작 또는 종료에 참조 시점이 연관됨 -; 상기 클라이언트에서, 상기 오디오 신호로부터 제2 서명 데이터(E1', E2', ...; ET; ST)를 유추하는 단계 - 상기 제2 서명 데이터는 상기 서버에서의 상기 제1 서명 데이터와 동일한 방식으로 유추됨 -; 상기 제1 및 제2 서명 데이터를 비교하는 단계; 및 상기 비교하는 단계의 결과에 의존하여 상기 참조 시점과 동일하도록 상기 시점을 결정하는 단계를 포함하는 방법이 제공된다.
Figure P1020097020370
오디오 신호, 탐색, 서명 데이터, 기록

Description

오디오 신호 내에서 시점을 결정하는 방법{METHOD FOR DETERMINING A POINT IN TIME WITHIN AN AUDIO SIGNAL}
본 발명은 오디오 신호 내에서 시점을 결정하기 위한 방법 및 기록 장치에 관한 것이다.
하드 드라이브 또는 디스크 드라이브가 있는 디지털 기록 장치와 같은 오늘날의 기록 장치는 방송국(broadcast station)으로부터 브로드캐스팅되는 오디오 및/또는 비디오 신호를 기록하기 위해 존재한다. 그러나, 오디오 및/또는 비디오 신호를 기록한 후에, 사용자가 기록된 모든 것에 관심이 있는 것은 아닐 수 있다. 예를 들어, 사용자는 기록된 오디오 및/또는 비디오 신호로부터, 상업 방송(commercials)과 같은 광고를 삭제(cut out)하기를 원할 수 있다. 또한, 기록된 오디오 및/또는 비디오 신호는 영화를 포함할 수 있고, 사용자는 그 영화의 시작 또는 마지막을 수동으로 검색하지 않고 영화 감상을 시작하기를 원할 수 있다.
본 발명의 목적은 오디오 신호 내에서 시점(a point in time)을 결정하는 방법 및, 예를 들어 기록된 오디오 및/또는 비디오 신호의 정확한 탐색을 가능하게 하는 기록 장치를 제공하는 것이다.
이 목적은 각각 특허청구범위 제1항, 제23항 및 제28항에 따르는 방법 및 기록 장치에 의해 해결된다.
도 1은 양방향 모드에 따르는 동작의 경우의 개략적인 시스템.
도 2는 양방향 모드를 설명하기 위한 도면.
도 3은 양방향 모드에 따르는 동작을 설명하는 흐름도.
도 4는 클라이언트 및 서버가 양쪽 방향으로(양방향 모드) 서로 통신하는 클라이언트 및 서버를 도시하는 도면.
도 5는 브로드캐스트 모드에 따르는 동작의 경우의 개략적인 시스템.
도 6은 브로드캐스트 모드를 설명하기 위한 도면.
도 7은 브로드캐스트 모드에 따르는 단계를 설명하기 위한 흐름도.
이하에서, 본 발명의 실시예가 기술된다. 이하에서 기술되는 모든 실시예는 임의의 방식으로 결합될 수 있으며, 즉 기술된 임의의 실시예가 다른 것들과 결합될 수 없다는 어떠한 한정도 없다.
본 발명의 일 실시예에 따르면, 방송국(broadcast station)으로부터 클라이언트(예를 들어, 기록 장치) 및 서버로 전송되는 오디오 신호 내에서 시점(a point in time)을 결정하는 방법으로서, 서버에서 오디오 신호로부터 제1 서명 데이터를 유추하는 단계를 포함하고, 제1 서명 데이터는 상기 오디오 신호의 적어도 일 부분을 기술하며, 참조 시점(a reference point in time)이 상기 오디오 신호의 적어도 일 부분의 시작 또는 종료와 관련된다. 제1 서명 데이터는, 예를 들어 공개된 유럽특허출원 제EP1667106A1호(=EP 출원번호 제0402888.1호)에 기술된 바와 같이 사전 정의된 알고리즘에 따라 결정될 수 있다.
이 방법은 또한 클라이언트에서 오디오 신호로부터 제2 서명 데이터를 유추하는 단계를 포함하며, 제2 서명 데이터는 상기 오디오 신호의 적어도 일 부분을 기술하며, 예를 들어 서버에서의 상기 제1 서명 데이터와 동일한 방식으로(예를 들어, 동일한 알고리즘에 따라) 유추된다. 즉, 본 발명의 일 실시예에 따르면, 서버 및 클라이언트에서 수신된 오디오 신호의 부분이 분석되고, 이 부분들의 적어도 일부에 대해 서명 데이터가 동일한 알고리즘에 따라 결정된다. 제1 및 제2 서명 데이터는 비교될 수 있고, 이 비교 단계의 결과에 의존하여 시점이 상기 참조 시점과 동일하도록 결정될 수 있다. 따라서, 예를 들어 오디오 신호의 임의의 부분에 대응하는 제1 서명 데이터는 제2 서명 데이터와 비교된다. 상기 제1 서명 데이터가 제2 서명 데이터와 유사하거나 동일하다고 결정된 경우, 서버에서의 오디오 신호의 부분 및 클라이언트에서의 오디오 신호의 부분이 동일하다고 가정된다. 따라서, 클라이언트 측에서의 시점은 서버 측에서의 오디오 신호의 부분의 시작 또는 종료 시간으로 설정된다.
다른 실시예에 있어서, 상기 오디오 신호는 텔레비전 신호의 부분일 수 있고, 상기 방법은 클라이언트에서 상기 텔레비전 신호를 기록하는 단계를 포함한다. 또한, 기록된 텔레비전 신호에 관한 프로그램 정보는 상기 서버로부터 상기 클라이언트로 전송된다. 예를 들어, 프로그램 정보는 프로그램 신호 내의 영화의 시작 및 종료 또는 광고 블록의 정확한 시간을 표시할 수 있다. 이러한 프로그램 정보 및 상기 시점에 기초하여, 상기 클라이언트는 기록된 텔레비전 신호의 재생을 제어할 수 있고, 따라서 재생은 영화의 시작과 같이 원하는 위치에서 정확하게 시작되고, 광고 블록과 같이 사용자가 관심이 없는 텔레비전 신호의 부분은 삭제된다. 또한, 재생은 원하는 위치에서 정확하게 종료되도록 제어될 수도 있다.
따라서, 오디오 신호와 연관되어 본 명세서 전반에 걸쳐 기술되는 원리는 오디오 신호 또는 오디오 데이터를 포함하는 텔레비전 신호 또는 비디오 데이터 스트림과 같은 오디오/비디오 신호에 유사하게 응용될 수 있다. 따라서, 본 명세서에서 기술된 임의의 특징 또는 상세는 오디오/비디오 신호, 텔레비전 신호, 비디오 데이터 스트림, 오디오 데이터 스트림 등에 사용될 수 있다.
다른 실시예에 있어서, 동작은 양방향 모드에 따라 수행될 수 있다. 양방향 모드에서, 클라이언트와 서버 간에 양방향 통신 채널(two way communication channel)이 존재한다. 양방향 모드의 일 실시예에 따르면, 상기 제2 서명 데이터는 클라이언트로부터 서버로 전송될 수 있으며, 비교하는 단계는 서버에서 행해질 수 있다. 따라서, 클라이언트의 계산 전력(computational power)은 낮게 유지될 수 있는데, 왜냐하면 높은 계산 전력을 요구할 수 있는 비교 단계가 서버에서 행해질 수 있기 때문이다.
양방향 모드의 다른 실시예에 따르면, 상기 제2 서명 데이터는 오디오 신호의 단 하나의 선택된 부분에 대응할 수 있다. 제2 서명 데이터가 단지 오디오 신호의 하나의 선택된 부분에 대해 결정되어야 하기 때문에, 계산 부담은 더욱 감소 될 수 있다.
또한, 상기 제1 서명 데이터는 복수의 서브유닛(subunits)을 포함할 수 있으며, 각각의 서브유닛은 상기 오디오 신호의 각각의 부분으로부터 유추되고, 상기 비교하는 단계에서, 유사 정도(similarity measure)는 각각의 서브유닛에 대해 결정될 수 있고, 상기 유사 정도는 각각의 서브유닛과 제2 서명 데이터의 유사함의 정도를 설명하며, 상기 결정하는 단계에서 시점은 가장 유사한 서브유닛의 참조 시점과 동일하도록 결정될 수 있고, 상기 가장 유사한 서브유닛은 모든 서브유닛 중 가장 높은 유사 정도를 가진다. 즉, 오디오 신호는 다른 세그멘트(segment)로 분할될 수 있고, 각각의 세그멘트에 대해 서명 데이터가 결정된다.
서브유닛이 유추되는 오디오 신호의 부분은 오디오 신호의 무음이 아닌 구간(on-silent passage)을 포함하도록 선택될 수 있다. 또한, 선택된 부분은 오디오 신호의 무음이 아닌 구간을 포함하도록 선택될 수 있다. 따라서, 서명 데이터는 더욱 특징적일 수 있고, 다른 서명 데이터들 간의 유사함은 검출하기가 용이할 수 있다.
본 발명의 일 실시예는 또한 브로드캐스트 모드에 따른 동작을 가능하게 할 수도 있다. 브로드캐스트 모드에 있어서, 서버와 클라이언트 간의 양방향 통신 채널은 필요하지 않다. 서버로부터 클라이언트로의 통신 채널만이 필요하다. 클라이언트로부터 채널로의 백 채널(back channel)이 이용 가능하지 않을 경우, 이는 유용할 수 있다.
브로드캐스트 모드에서, 제1 서명 데이터는 서버로부터 클라이언트로 전송될 수 있고, 비교하는 단계는 클라이언트에서 행해질 수 있다. 또한, 상기 참조 시점은 서버로부터 클라이언트로 전송될 수 있고, 결정하는 단계는 클라이언트에서 행해질 수 있다.
또한, 제1 서명 데이터는 오디오 신호의 적어도 하나의 선택된 부분에 대응할 수 있다. 선택된 부분은 상기 오디오 신호의 무음이 아닌 부분을 포함하기 위해 선택될 수 있다. 무음이 아닌 부분을 선택함으로써, 비교가 용이해질 수 있는데, 왜냐하면 서명 데이터가 오디오 신호의 적어도 일 부분을 더욱 대표하고/대표하거나 특징적일 수 있기 때문이다.
브로드캐스트 모드에 있어서, 제2 서명 데이터는 복수의 서브유닛을 포함할 수도 있는데, 각각의 서브유닛은 상기 오디오 신호의 각각의 부분으로부터 유추되며, 상기 비교하는 단계에 있어서, 유사 정도는 각각의 서브유닛에 대해 결정되고, 상기 유사 정도는 각각의 서브유닛의 유사함의 정도를 설명하며, 상기 결정하는 단계에 있어서, 시점은 가장 유사한 서브유닛의 참조 시점과 동일하게 결정될 수 있고, 상기 가장 유사한 서브유닛은 모든 서브유닛 중 가장 높은 유사 정도를 가진다.
다른 실시예에 있어서, 상기 클라이언트에서 로컬 시간(local time)이 제공될 수 있고, 각각의 서브유닛은 로컬 시점과 연관되며, 상기 비교하는 단계는 상기 참조 시점 주위의 사전 정의된 시간 범위 내에서 로컬 시점을 가지는 서브유닛에 대해서만 수행된다. 이는 유용할 수 있는데, 왜냐하면 클라이언트에서 제2 서명 데이터가 이용 가능한 상기 오디오 신호의 수많은 부분이 있을 수 있기 때문이다. 예를 들어, 제2 서명 데이터는 매 10초 또는 30초 또는 임의의 사전 정의된 주기로 유추될 수 있다. 상기 오디오 신호의 각각의 부분의 시작 또는 종료 시간은 클라이언트의 로컬 시간과 연관될 수 있다. 클라이언트가 서버로부터 각각의 대응하는 참조 시점과 함께 제1 서명 데이터를 수신한 후에, 클라이언트는 정확한 참조 시점의 근처에서 시작 또는 종료 시간을 가지는 부분에 대응하는 상기 제2 서명 데이터의 서브유닛을 단지 비교할 수 있다.
다른 실시예에 따르면, 단지 하나의 인접한 서브유닛에 대해 상기 비교하는 단계를 수행하는 것이 가능할 수도 있다. 인접한 서브유닛은 참조 시점에 대해 모든 서브유닛 중 가장 인접한 로컬 시점을 가지는 서브유닛이다. 즉, 이 서브유닛에 대응하는 오디오 신호의 부분의 시작 및/또는 종료 시간은 제1 서명 데이터의 참조 시점과 비교될 수 있으며, 참조 시점에 대해 가장 인접한 시작 또는 종료 시간을 가지는 서브유닛/오디오 부분이 선택된다.
이미 언급된 바와 같이, 오디오 신호는 비디오/오디오 신호의 부분일 수 있고, 이 방법은 이 비디오/오디오 신호 내의 시점을 결정하기 위해 수행될 수 있다. 따라서, 오디오 신호는 비디오/오디오 신호로부터 추출될 수 있고, 유추하는 단계, 비교하는 단계 및 결정하는 단계가 이 오디오 신호에 대해 수행될 수 있다.
이 방법은 또한 오디오 신호 또는 텔레비전 신호에 대응하는 프로그램 정보를 서버로부터 클라이언트로 전송하는 단계를 포함할 수 있으며, 이 프로그램 정보에 기초하여 재생하기 위한 오디오 신호 또는 텔레비전 신호의 적어도 일 부분을 선택할 수 있다. 이 방법이 텔레비전 프로그램과 같은 비디오/오디오 신호에 사용 되는 경우, 프로그램 정보는 브로드캐스트 영화의 시작 및 종료 시간을 표시하는 EPG(Electronic Program) 정보에 대응할 수 있다. 이러한 경우에 있어서, 클라이언트는 결정된 시점에 기초하여 영화의 정확한 시작 및 종료 시간을 결정할 수 있다. 클라이언트가 상기 오디오 신호의 부분의 정확한 시작 또는 종료 시간을 결정했기 때문에, 알려진 시점으로부터 각각의 시차를 계산함으로써 기록된 비디오/오디오 신호에 대응하는 영화의 시작 및/또는 종료 시간을 결정하는 것이 가능하다. 다른 실시예에 따르면, 프로그램 정보가 상업 방송과 같은 광고 블록의 시작 및 종료 시간을 포함할 수도 있다. 오디오 신호 또는 비디오/오디오 신호를 재생하는 경우, 오디오 신호 또는 텔레비전 신호에 포함된 광고 블록의 시작에서부터 종료 시간까지 점핑함으로써 광고를 삭제하는 것이 가능하다. 영화에 속하지 않은 부분과 같은 신호의 원하는 부분에 속하지 않는 기록된 신호의 부분을 삭제함으로써 기록된 오디오/텔레비전 신호를 수정하는 것도 또한 가능하다.
일 실시예에 있어서, 기록 장치는 방송국으로부터 오디오 신호를 수신하도록 구성되고, 서버로부터 시간 정보를 수신하도록 더 구성된 수신 메커니즘 및 상기 시간 정보에 의존하여 상기 오디오 신호를 재생하도록 구성된 재생 메커니즘을 포함할 수 있다.
수신 메커니즘은 상기 오디오 신호와 관련된 상기 서버 프로그램 정보로부터 수신하도록 더 구성될 수 있고, 그 프로그램 정보에 기초하여 재생하기 위해 상기 오디오 신호의 적어도 일 부분을 선택하도록 더 구성될 수 있다.
브로드캐스트 모드에 따라 동작하는 기록 장치는 방송국으로부터 오디오 신 호를 수신하도록 구성되고, 서버로부터 제1 서명 데이터(first signature data) 및 적어도 하나의 참조 시점을 수신하도록 더 구성된 수신 메커니즘을 포함할 수 있으며, 상기 제1 서명 데이터는 상기 오디오 신호로부터 유추되고, 상기 제1 서명 데이터는 상기 오디오 신호의 일 부분을 설명하며, 상기 참조 시점은 상기 오디오 신호의 적어도 일 부분의 시작 또는 종료와 연관된다. 장치는 또한 오디오 신호로부터 제2 서명 데이터를 유추하도록 구성된 데이터 처리 메커니즘을 포함하며, 상기 제2 서명 데이터는 상기 오디오 신호의 적어도 일 부분의 설명하고, 제1 서명 데이터와 동일한 방식으로(예를 들어, 동일한 알고리즘에 따라) 유추되며, 상기 데이터 처리 메커니즘은 제1 및 제2 서명 데이터를 비교하고 그 비교 결과에 의존하여 재생 시작 및/또는 종료 시간을 결정하도록 더 구성된다. 기록 장치는 또한 재생 시작 및/또는 종료 시간에 따라 오디오 신호를 재생하도록 구성된 재생 메커니즘을 포함할 수 있다.
도 1은 방송국(100), 클라이언트(200) 및 서버(300)를 도시한다. 클라이언트(200)는, 예를 들어 하드 디스크를 구비한 기록 장치 및/또는 DVD 레코더와 같은 기록 장치일 수 있다. 방송국(100)은 텔레비전 신호(TV)를 클라이언트(200) 및 서버(300)로 전송한다. 텔레비전 신호(TV)는 오디오 신호를 포함한다.
도 1은 양방향 모드에 따른 본 발명의 일 실시예를 도시한다. 따라서, 클라이언트(200) 및 서버(300) 간의 양방향 통신이 존재한다. 양방향 모드에서, 클라이언트(200)는 오디오 신호의 적어도 일 부분을 선택하고 제2 서명 데이터(ET)를 유 추한다. 서명 데이터(ET)는 공개된 유럽특허출원 제EP1667106A1호(=EP 출원번호 제0402888.1호)에서 기술된 바와 같이 사전 정의된 알고리즘에 따라 결정될 수 있다.
제2 서명 데이터(ET)는 클라이언트(200)로부터 서버(300)로 전송된다. 선택적으로, 클라이언트(200)는 또한 오디오 신호의 부분(ST)을 서버(300)로 전송할 수도 있다. 이러한 경우에 있어서, 서명 데이터를 결정할 필요가 없을 수 있으며, 비교는 오디오 신호의 부분에 기초하여 직접 행해진다.
도 2에 도시된 바와 같이, 서버(300)는 사전 정의된 길이의 상기 오디오 신호의 부분에 대해 제1 서명 데이터(E1, E2, ...)를 연속적으로 결정하고, 수신된 제2 서명 데이터(ET)를 유추된 제1 서명 데이터(E1, E2, ...)와 비교한다. 서버가 제1 서명 데이터(E1, E2, ...) 중 하나가 제2 서명 데이터(ET)와 일치한다고 결정하는 경우, 일치하는 서명 데이터(EX)가 선택되고 오디오 신호의 대응하는 부분의 시작 및/또는 종료 시간이 결정된다. 서버(300)는 제1 서명 데이터의 대응하는 오디오 신호의 부분의 시작 및/또는 종료 시간을 결정하기 위해 사용되는 서버 시간을 제공하는 서버 시계(server clock)를 포함할 수 있다. 일치하는 제1 서명 데이터의 시작 및/또는 종료 시간은 이후에 클라이언트로 전송된다. 예를 들어, 도 1에서 제2 서명 데이터(ET)와 일치하는 제1 서명 데이터에 대응하는 오디오 신호의 부분의 시작 시간(t)이 서버(300)로부터 클라이언트(200)로 전송된다.
선택적으로, 서버(300)는 또한 메타 데이터 등과 같은 프로그램 정보(M)를 클라이언트(200)로 전송할 수도 있다. 프로그램 정보(M)는 임의의 오디오 프로그램, 비디오 프로그램(텔레비전 프로그램), 영화 등의 시작 및/또는 종료 시간을 표시하거나 또는 광고 블록의 시작 및/또는 종료 시간을 표시할 수도 있다. 제2 서명 데이터(ET)에 대응하는 오디오 신호의 부분의 시작 시간(t)을 수신한 후에, 클라이언트(200)는 영화, 오디오 프로그램 또는 광고 블록의 시작 및 종료의 정확한 위치를 시작 시간(t)에 기초하여 결정할 수 있다.
도 2는 동일한 오디오 신호가 클라이언트(200) 및 서버(300)에서 수신되는 예를 도시한다. 도 2의 왼편에서, 클라이언트(200)에서 수신된 오디오 신호가 도시되고, 도 2의 오른편에서, 서버(300)에서 수신된 오디오 신호가 도시된다.
도 2에 도시된 바와 같이, 클라이언트(200)에서 오디오 신호의 부분(ST)이 선택된다. 부분(ST)은 오디오 신호가 본질적으로 무음이 되지 않도록 선택될 수 있다. 부분(ST)은, 예를 들어 10초, 20초 또는 30초 또는 그 이상의 사전 정의된 길이를 가질 수 있다. 부분(ST)에 대해서, 제2 서명 데이터(ET)는 사전 정의된 알고리즘에 따라 유추된다.
도 2의 왼편에서, 시점(T)이 부분(ST)의 시작에 대응하여 도시된다. 시점(T)을 결정하는 것은 바람직하다. 시점(T)을 알게 되면, 상기 기술된 바와 같이 클라이언트(200)에서 기록된 오디오 신호 및/또는 비디오 신호를 탐색하는 것(예를 들어, 원하는 위치에서 재생을 시작하거나 광고 블록을 삭제하는 것)이 가능하다. 시점(T)을 결정하기 위해, 상기 제2 서명 데이터(ET)는 서버(300)로 전송된다. 선택적으로 또는 추가적으로, 부분(ST)이 서버(300)로 전송될 수 있다.
서버(300)에서, 방송국으로부터 수신된 오디오 신호는 사전 정의된 길이의 부분(S1, S2, ...)으로 분할된다. 부분(S1, S2, ...)의 길이는 클라이언트(200)에서의 부분(ST)의 길이에 대응하는데, 예를 들어 그 길이는 도 2의 예에 도시된 바와 같이 30초로 선택될 수 있다.
서버에서는, 이하에서 서버 시간으로도 또한 지칭되는 정확한 시간을 알 수 있다. 서버 시간은, 예를 들어 매우 정확한 시계에 의하거나 또는 정확한 시간 신호를 수신하는 무선 시계에 의해 결정될 수 있다. 따라서, 서버에서 부분(S1, S2, ...)의 정확한 시작 및 종료 시간이 알려진다. 도 2의 예에 있어서, 부분(S1)은 예를 들어, 2006년 11월 11일 수요일 17:42:10에 시작한다. 각각의 부분(S1, S2, ...)이 30초의 길이를 가지기 때문에, 각각의 부분(S1, S2, ...)의 시작 및 종료 시간이 알려진다.
또한, 서버에서 각각의 부분(S1, S2, ...)에 대해, 제1 서명 데이터(E1, E2, ...)가 클라이언트(200)에서의 상기 제2 서명 데이터와 동일한 방식으로 결정된다.
수신된 제2 서명 데이터(ET)는 제1 서명 데이터(E1, E2, ...)와 비교된다. 선택적으로, 부분(ST)이 클라이언트(200)로부터 서버(300)로 전송된 경우, 부분(ST) 은 각각의 부분(S1, S2, ...)과 비교될 것이다.
이 비교에 기초하여, 제1 서명 데이터(E1, E2, ...) 중 어느 것이 제2 서명 데이터(ET)에 가장 가깝게 일치하는지가 결정된다. 이후에 가장 가깝게 일치하는 제1 및 제2 서명 데이터는 시점(T)을 결정하는데 사용된다. 도 2의 예에 있어서, 제2 서명 데이터(ET)는 제1 서명 데이터(E4)와 일치한다. 제1 서명 데이터(E4)에 대응하는 부분(S4)이 t=17:43:40에 시작한다는 것이 알려졌기 때문에, 부분(ST)의 시작 시간에 대응하는 시점(T)은 17:43:40라고 결정된다.
도 2의 예에 있어서, 사용자는 17:45:00부터 18:30:00까지 브로드캐스팅되었던 영화 "Bonanza"를 시청하기를 원할 수 있다. 따라서, 영화 "Bonanza"의 시작 및 종료 시간, 즉 프로그램 정보(M)가 서버(300)로부터 클라이언트(200)로 전송될 수 있다. 클라이언트(200)는 부분(ST)의 정확한 시작 시간이 17:43:40이었다는 것을 알기 때문에, 클라이언트(200)는 영화 "Bonanza"의 오디오/비디오 신호 내의 정확한 시작 시간을 결정할 수 있다.
도 3은 원하는 영화 등의 재생을 위해 시점 및/또는 시작 시간을 결정하기 위해 수행될 수 있는 단계의 흐름도를 도시한다.
도 3의 왼편은 클라이언트(200)에서 수행되는 단계를 도시하며, 도 3의 오른편은 서버(300)에서 수행되는 단계를 도시한다.
클라이언트(200)에서의 단계(S300)에서, 텔레비전 신호와 같은 오디오 신호가 수신된다. 단계(S302)에서 이 오디오 신호의 부분(ST)이 선택된다. 단계(S304)에서, 선택된 부분(ST)에 대해, 이하에서 태그 또는 클라이언트 태그(ET)라 지칭되는 제2 서명 데이터가 결정된다. 단계(S306)에서 태그(ET)가 서버(300)로 전송된다.
도 3의 오른편에 도시된 바와 같이, 서버(300)에서의 단계(S308)에서 동일한 오디오 신호가 또한 수신된다. 또한, 단계(S310)에서, 이하에서 또한 서버 태그(E1, E2, ...)라 지칭되는 태그(E1, E2, ...)가 클라이언트(200)에서와 동일한 방식/동일한 알고리즘에 따라 결정된다. 단계(S312)에서, 태그(ET)는 클라이언트(200)로부터 수신된다. 또한, 단계(S314)에서 태그(ET)는 서버 태그(E1, E2, ...)와 비교된다. 단계(S314)에서 서버 태그(E1, E2, ...) 중 어느 것이 클라이언트 태그(ET)에 대응하는지가 결정된다.
다음으로, 단계(S316)에서, 클라이언트 태그(ET)의 시작 시간이 결정된다. 클라이언트 태그(ET)의 시작 시간은 클라이언트 태그(ET)와 가장 인접하게 매칭하는 서버 태그의 시작 시간에 대응한다. 다음으로, 단계(S318)에서, 시작 시간(t)가 서버(300)로부터 클라이언트(200)로 전송된다. 또한, 단계(S320)에서 프로그램 정보 등과 같은 메타 데이터(M)가 서버(300)로부터 클라이언트(200)로 전송될 수 있 다. 단계(S322)에서 클라이언트(200)는 시작 시간(t) 및 메타 데이터(M)에 기초하여 사용자가 선택한 오디오 프로그램 및/또는 비디오 프로그램, 즉 원하는 영화의 재생을 위한 시작 시간을 결정할 수 있다.
다음으로, 단계(S324)에서 원하는 영화의 처음에서 재생이 시작된다.
도 4는 클라이언트/서버 아키텍처의 가능한 일 실시예를 도시한다.
오디오/비디오 신호(402)는 방송국(400)으로부터 클라이언트(200) 및 서버(300)로 브로드캐스팅된다. 클라이언트(200)는 시청각 신호(402)를 수신하도록 구성된 수신 메커니즘(404)을 포함할 수 있고, 서버(300)로부터 시간 정보(T)를 수신하도록 더 구성될 수 있다. 또한, 클라이언트(200)는 시간 정보에 의존하여 오디오 신호를 재생하도록 구성된 재생 메커니즘을 포함할 수 있다. 선택적으로, 클라이언트(200)는 이 시청각 신호(402)로부터 서명 데이터를 유추하도록 구성된 데이터 처리기(408)를 더 포함할 수 있는데, 서명 데이터는 오디오 신호의 적어도 일 부분을 기술하고 사전 정의된 방식으로 유추된다. 또한, 클라이언트(200)는 서명 데이터(ET)를 서버(300)로 전송하도록 구성된 전송 메커니즘을 포함할 수 있다.
서버(300)는 오디오/비디오 신호(402)를 수신하도록 구성된 수신 메커니즘(412)을 포함할 수 있다. 또한, 서버(300)는 서버 태그(E1, E2, ...)(상기 도 2 및 도 3 참조)를 유추하고, 이 태그와 서명 데이터(ET)를 비교하도록 구성된 데이터 처리기(414)를 포함할 수 있다.
서버(300)는 결정된 클라이언트 태그(ET)의 시작 시간에 대응하는 시간 정 보(T)를 클라이언트(200)로 전송하도록 구성된 전송 메커니즘(416)을 포함할 수도 있다.
도 5는 방송국(100)이 오디오 신호를 포함하는 텔레비전 신호를 클라이언트(500) 및 서버(600)로 전송하는 일 실시예를 도시한다. 클라이언트(500) 및 서버(600)는 브로드캐스트 모드에 따라 동작할 수 있다. 브로드캐스트 모드에서, 서버(600)로부터 클라이언트(500)로 오직 한 방향의 연결이 존재한다. 즉, 양방향 모드와 달리, 클라이언트(500)로부터 서버(600)로 필요한 백 연결(back connection)이 없다.
간단히 말해서, 브로드캐스트 모드에서, 서버(600)는 텔레비전 신호(TV)에 기초하여 서버 태그(E1, E2, ...)를 결정하고, 이 서버 태그(E1, E2, ...)를 클라이언트(500)로 전송한다. 클라이언트(500)는 서버(600)와 동일한 방식으로(예를 들어, 사전 정의된 동일한 알고리즘에 따라) 클라이언트 태그를 결정한다. 서버 태그(E1, E2, ...) 중 하나의 시작 또는 종료 시간에 대응하는 시점을 결정하기 위해, 클라이언트(500)는 결정된 클라이언트 태그를 서버 태그(E1, E2, ...)와 비교한다. 브로드캐스트 모드에서, 서버(600)는 또한 시작 및/또는 종료 시간(t1, t2, ...)을 클라이언트(500)로 전송한다. 시작 및/또는 종료 시간(t1, t2, ...)은 각각의 서버 태그(E1, E2, ...)의 시작 및/또는 종료 시간에 대응한다.
따라서, 클라이언트(500)는 서버 태그(E1, E2, ...)와 가장 양호하게 일치하 는 가장 가깝게 일치하는 클라이언트 태그를 결정함으로써 클라이언트 태그의 시작 및/또는 종료 시간을 결정할 수 있다. 클라이언트 태그의 시작 및/또는 종료 시간은 이후에 각각의 서버 태그의 시작 및/또는 종료 시간(t)으로 설정될 수 있다.
도 6이 왼편 상에서, 텔레비전 신호(TV)에 포함된 오디오 신호가 도시된다. 도 6의 오른편 상에서, 클라이언트(500)에서 수신되고 기록되었던 텔레비전 신호(TV)에 대응하는 오디오 신호가 도시된다.
브로드캐스트 모드에서, 서버(600)는 서버 태그(E1, E2, ...)를 결정한다. 예를 들어, 서버 태그는 매 5분 또는 매 10분마다 결정될 수 있다. 서버 태그(E1, E2, ...)는 오디오 신호의 서버 부분(S1, S2, ...)에 대응할 수 있으며, 부분(S1, S2, ...)은, 예를 들어 10초, 20초, 30초 또는 그 이상과 같이 사전 정의된 길이일 수 있다.
비록 도 6이 복수의 서버 태그(E1, E2, ...)가 결정되는 것을 도시하고 있으나, 단지 하나의 서버 태그(E1)만을 결정하는 것이 충분할 수도 있다.
다음으로, 서버 태그(E1, E2, ...)는 각각의 시작 및/또는 종료 시간과 함께 클라이언트(500)로 전송될 수 있다. 도 6의 예에 있어서, 서버 태그(E1, E2, ...)에 대응하는 각각의 부분(S1, S2, ...)의 시작 시간이 클라이언트(500)로 전송된다.
다른 실시예에 있어서 또는 서버 태그(E1, E2, ...)에 추가하여, 부분(S1, S2, ...)이 서버(600)로부터 클라이언트(500)로 전송될 수 있다.
클라이언트(500)에서, 도 6의 오른편에 도시된 바와 같이, 클라이언트 태그(E1', E2', ...)가, 예를 들어 매 10초마다 결정된다. 클라이언트 태그(E1', E2', ...)는 매 분마다 결정될 수도 있다. 이러한 경우에 있어서, 클라이언트 태그는 30초보다 길어야 할 수 있다. 클라이언트 태그(E1', E2')에 대응하는 클라이언트 부분(S1', S2')은, 서버 부분(S1, S2, ...)의 길이와 동일할 수 있는 사전 정의된 길이를 가질 수 있다.
서버 태그(E1, E2, ...)가 클라이언트 태그(E1', E2', ...)와 비교된다.
계산 시간을 줄이기 위해, 임의의 서버 태그가 비교를 위해 선택될 수 있다. 임의의 서버 태그는 클라이언트(500)에서의 예상 로컬 시간에 기초하여 결정될 수 있다. 예를 들어, 도 6에서 클라이언트 태그(E1')에 대응하는 클라이언트 부분(S1')의 시작이 로컬 시간 17:39:40에 시작한다고 예상된다. 이 예상 로컬 시간 17:39:40과 가장 인접한 시작 시간을 가지는 서버 태그(E1, E2, ...)의 서버 태그는 서버 시간(17:40:00)에서 시작되는 서버 태그(E1)이다. 따라서, 서버 태그(E1)는 클라이언트 태그(E1', E2', ...)와 비교될 것이다. 따라서, 필요한 비교의 수가 줄어들었기 때문에 계산 부담이 줄어들 수 있다. 철저한 검색이 필요하지 않을 수 있고, 서버 태그(E1)가 단지 클라이언트 태그(E1', E2', ...)와 비교될 필요가 있다. 따라서, 모든 서버 태그(E1, E2, ...)가 모든 클라이언트 태그(E1', E2', ...)와 비교될 필요는 없다.
다른 실시예에 있어서, 임의의 서버 태그의 시작 시간에 인접한 클라이언트 태그들을 그 서버 태그와만 비교함으로써 필요한 계산 시간을 줄일 수도 있다. 인접하다는 것은, 예를 들어 각각의 서버 태그의 시작 시간의 사전 정의된 시간 범위 내에 있다는 것을 의미한다.
일 실시예에 있어서, 서버 부분(S1, S2, ...)이 서버(600)로부터 클라이언트(500)로 전송되는 경우, 서버 부분(S1, S2, ...)은 클라이언트 부분(S1', S2', ...)과 비교될 수 있다. 태그를 사용할 때와 유사한 방법으로, 선택된 서버 부분을 그 서버 부분의 시작 시간과 인접한 시작 시간을 가지는 클라이언트 부분(S1', S2')과만 비교함으로써 계산 부담을 줄일 수 있다.
도 6의 예에 있어서, 서버 태그(E1)는 클라이언트 태그(E5')와 가장 가깝게 일치한다는 것이 결정된다. 따라서, 클라이언트 태그(E5')에 대응하는 클라이언트 부분(S5')이 서버 태그(E1)와 동일한 시간에, 즉 17:40:00에 시작한다는 것이 결정된다.
다른 실시예에 있어서, 예를 들어 오디오 프로그램, 영화, 광고 등의 시작 및/또는 종료 시간을 표시하는 프로그램 정보(M)가 서버(600)로부터 클라이언트(500)로 전송될 수 있다. 도 6의 예에서, 프로그램 정보(M)는 영화("Bonanza")가 17:45:00에서부터 18:30:00까지 브로드캐스팅된다는 것을 표시한다. 따라서, 클라이언트(500)는 17:40:00의 시작 시간을 가지는 클라이언트 부분(S5')의 시작 5분 후에 재생을 시작할 수 있다.
도 7은 브로드캐스트 모드의 서버(600) 및 클라이언트(500)에서 수행될 수 있는 단계를 도시한다.
서버(600)에서의 단계(S700)에서, 텔레비전 신호의 오디오 신호가 수신된다. 또한, 단계(S702)에서 서버 태그(E1, E2, ...)가 도 6의 왼편과 결합되어 설명된 바와 같이 결정된다. 또한, 단계(S704)에서 서버 태그(E1, E2, ...)는 태그의 각각의 시작 시간과 함께 클라이언트(500)로 전송된다.
클라이언트(500)에서의 단계(S706)에서, 방송국(100)에 의해 브로드캐스팅되었던 텔레비전 신호의 오디오 신호가 수신된다. 또한, 단계(S708)에서 클라이언트 태그(E1', E2', ...)가 도 6의 오른편에 설명되었던 바와 같이 결정된다. 이후에, 단계(S710)에서 서버 태그(E1, E2, ...) 및 대응하는 시작 시간이 서버(600)로부터 수신된다.
다음으로, 단계(S712)에서 각각의 서버 태그(E1, E2, ...)의 시작 시간에 인접한 임의의 클라이언트 태그(E1', E2', ...)가 선택된다. 물론, 또한 도 6의 오른 편과 결합하여 설명된 바와 같이 비교를 위해 사용될 단 하나의 서버 태그(도 6의 예에서 서버 태그(E1))만을 선택하는 것이 가능하다.
다음으로, 단계(S714)에서 서버 태그(E1, E2, ...)가 선택된 클라이언트 태그(E1', E2')와 비교된다.
단계(S716)에서, 선택된 클라이언트 태그의 시작 시간 또는 가장 인접한 일치하는 클라이언트 태그의 적어도 하나의 시작 시간이 비교 결과에 기초하여 결정된다.
서버(600)에서 수행되는 단계(S720)에서, 메타 데이터(M)가 서버(600)로부터 클라이언트(500)로 전송된다.
클라이언트(500)에서의 단계(S718)에서, 재생을 위한 시작 시간이 가장 인접한 일치하는 클라이언트 태그의 시작 시간 및 메타 데이터(M)에 기초하여 결정된다.
이하의 설명이 더 깊은 이해를 도와줄 수 있을 것이다.
본 발명의 일 실시예에 따르면, 기록 장치와 같은 클라이언트 장치는 수신된 비디오 신호로부터 태그를 결정할 수 있다. 이 태그가, 어느 시간 및 어느 채널에서 프로그램이 나오는지를 결정하는 서버로 전송될 수 있다. 이 정보는 클라이언트로 전송된다. 따라서, 텔레비전 프로그램에 대해 기록된 비디오 신호의 정확한 할당이 이루어질 수 있다. 이 정확한 할당으로 인해, 광고를 삭제하거나 또는 영화 내에서 특정 장면을 탐색하는 것과 같은 정확한 탐색과 같은 서비스를 제공할 수 있다.
이 서비스는 그들의 고객에게 서비스를 파는 일종의 서비스 사업으로 또는 이 특징들을 그들의 기록 장치에 추가하기를 원하는 하드웨어 제조자에게 추가 사업으로 제공될 수 있다.
모든 경우에 있어서, 텔레비전 고객의 연관 정보를 가지는, 예를 들어 서버와 같은 중앙 데이터 베이스(메타 데이터의 공급자)가 존재한다는 것이 가정된다. 이것은 상업 방송 또는 광고의 위치일 수 있고, 영화에서 언제 배우가 등장하는지에 관한 정보, 청각 장애인을 위한 자막 정보, 두 개의 언어로 된 자막 등일 수 있다. 가장 용이한 경우에 있어서, 이는 현재 프로그램의 단지 정확한 시작 시간 및 종료 시간일 수 있다. 이러한 모든 추가적인 정보는 또한 프로그램 정보 또는 메타 데이터로서 지칭될 수도 있다.
정보가 현재 프로그램의 단지 정확한 시작 시간 및 종료 시간인 경우에, 제공되는 추가 기능은 기록된 것의 자동적이고 순간적인(second-split) 정확한 삭제일 수 있다.
보다 진보된 예에 있어서, 임의의 영화에 대해 동기화되어 나타나는 자막(예를 들어, 외국어 학습자를 위한 서비스)이 존재하거나 또는 특정 배우가 말하거나 노래하는 위치에 대한 직접 탐색일 수 있다. 상업 방송을 표시(mark)함으로써, 타겟팅된 광고에 의해 상업 방송을 교체할 수 있다. 원래 기록된 것에 있는 상업 방송 슬롯은 사용자에게 매우 평이한(completely transparent) 임의의 다른 상업 광고로 채워질 수 있다.
(기본) 양방향 모드 및 브로드캐스트 모드의 두 가지 모드가 있을 수 있다.
양방향 모드에 있어서, 우선 사용자는 18:00:00부터 19:00:00까지 상영되는 영화를 기록하기를 원하기 때문에 사용자는 17:55:00부터 19:05:00까지 기록을 행한다. 다음으로, 기록 장치는 기록된 것으로부터 적절하게 선택된 오디오 단편(snippet), 즉 오디오 신호의 일 부분을 발췌(take out)하고, 이를 서버로 전송한다. "적절하게 선택된"이란 오디오의 설명 부분이 선택됨을 의미할 수 있으나, 예를 들어 서명 데이터에 기초하여 고유한 ID를 고정적으로(hard) 만드는 오디오 부분을 의미하는 것은 아니다. 예를 들어, 무음 구간이 방지될 수 있다.
서버는 그 단편이 발췌된 오디오 스트림에서의 정확한 위치를 식별하기 위해 그 단편 또는 태그를 사용한다. 다음으로 서버는 서버의 데이터베이스로부터, 그 단편에 관련된 정보(그 단편의 정확한 시작 및 종료 시간)를 계산한다(예를 들어, "이것은 Desperate Housewives, 에피소드 233이며, 이는 단편이 발췌되기 2분 34초 전에 시작해서 단편이 발췌된 후 42분 28초 후에 종료한다").
다음으로, 클라이언트 장치는 정확한 시작 및 종료 시간에서 정확하게 "Desperate Housewives"의 에피소드를 발췌하기 위해 이 시간 정보를 사용할 수 있다. 물론, 서버는 또한 배우 정보, 시리즈 정보 등의 추가 데이터를 전송할 수도 있고, 이 모든 것이 "Desperate Housewives"의 에피소드와 함께 저장될 수 있다. 바로 직전의 상업 방송에 관한 정보가 전송되는 경우, 이것은 재생하는 동안 모든 상업 방송을 뛰어넘거나 클라이언트 장치로부터 모든 상업 방송을 제거함으로써, 재생하는 동안 모든 상업 광고가 즉시 차단되도록 할 것이다.
브로드캐스트 모드에서, 클라이언트로부터 서버로의 백 연결을 제거하는 것이 가능할 수 있다. 브로드캐스트 모드에서, 서버는 각각의 지원되는 TV 프로그램 스트림을 일정한 간격으로(예를 들어, 매 5분간 10초 등) 샘플링하고, 핑커프린트(finger print; 즉, 샘플링된 부분의 태그)를 계산한다. 다음으로, 서버는 모든 연관 메타 데이터 정보를 모든 핑거프린트와 함께 클라이언트로 다운스트림할 수 있다. 클라이언트는 현재 기록된 것에서 각각의 핑커프린트를 검색하는 "서버 모드"에서 핑커프린트를 지역적으로 실행한다. 물론, 클라이언트가 기록된 대략적인 시간 및 채널을 알고 있고 따라서 잠재적인 핑커프린트의 수를 3분의 1로 줄일 수 있기 때문에 철저한 검색이 요구되지는 않는다. 핑커프린트가 로컬 기록된 것에 위치하는 경우, 정확한 할당 및 다른 메타 데이터의 사용이 양방향 모드의 경우와 동일한 방식으로 시작될 수 있다.

Claims (32)

  1. 방송국(broadcast station)으로부터 클라이언트 및 서버로 전송되는 오디오 신호 내에서 시점(a point in time; T)을 결정하기 위한 방법으로서,
    상기 서버에서, 상기 오디오 신호로부터 제1 서명 데이터(E1, E2, ...)를 유추하는 단계 - 상기 제1 서명 데이터는 상기 오디오 신호의 적어도 일 부분을 기술하며, 상기 오디오 신호의 상기 적어도 일 부분의 시작 또는 종료에 참조 시점(a reference point in time)이 연관됨 -;
    상기 클라이언트에서, 상기 오디오 신호로부터 제2 서명 데이터(E1', E2', ...; ET; ST)를 유추하는 단계 - 상기 제2 서명 데이터는 상기 오디오 신호의 적어도 일 부분을 기술하며, 상기 서버에서의 상기 제1 서명 데이터와 동일한 방식으로 유추됨 -;
    상기 제1 및 제2 서명 데이터를 비교하는 단계; 및
    상기 비교하는 단계의 결과에 의존하여 상기 참조 시점과 동일하도록 상기 시점(T)을 결정하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 제2 서명 데이터(ET; ST)는 상기 클라이언트로부터 상기 서버로 전송되 고, 상기 비교하는 단계는 상기 서버에서 행하여지는 방법.
  3. 제2항에 있어서,
    상기 참조 시점은 상기 서버로부터 상기 클라이언트로 전송되고, 상기 결정하는 단계는 상기 서버에서 행하여지는 방법.
  4. 제2항 또는 제3항에 있어서,
    상기 제2 서명 데이터는 상기 오디오 신호의 단 하나의 선택된 부분에 대응하는 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제1 서명 데이터는 복수의 서브유닛(sub-units)을 포함하고, 각각의 서브유닛은 상기 오디오 신호의 각각의 부분으로부터 유추되며, 상기 비교하는 단계에서는 각각의 서브유닛에 대해 각각의 서브유닛과 상기 제2 서명 데이터의 유사함의 정도를 나타내는 유사 정도(similarity measure)가 결정되고, 상기 결정하는 단계에서는 모든 서브유닛 중 가장 큰 유사 정도를 가지는 최대 유사 서브유닛의 참조 시점과 동일하도록 상기 시점을 결정하는 방법.
  6. 제5항에 있어서,
    상기 서브유닛들이 유추되는 상기 오디오 신호의 상기 부분들은 상기 오디오 신호의 무음이 아닌 구간들(non-silent passages)을 포함하도록 선택되는 방법.
  7. 제4항 내지 제6항 중 어느 한 항에 있어서,
    상기 선택된 부분은 상기 오디오 신호의 무음이 아닌 구간을 포함하도록 선택되는 방법.
  8. 제1항에 있어서,
    상기 제1 서명 데이터(E1, E2, ...)는 상기 서버로부터 상기 클라이언트로 전송되고, 상기 비교하는 단계는 상기 클라이언트에서 행해지는 방법.
  9. 제8항에 있어서,
    상기 참조 시점은 상기 서버로부터 상기 클라이언트로 전송되고, 상기 결정하는 단계는 상기 클라이언트에서 행해지는 방법.
  10. 제8항 또는 제9항에 있어서,
    상기 제1 서명 데이터는 상기 오디오 신호의 적어도 하나의 선택된 부분에 대응하는 방법.
  11. 제8항 또는 제9항에 있어서,
    상기 제1 서명 데이터는 상기 오디오 신호의 복수의 선택된 부분에 대응하는 방법.
  12. 제10항 또는 제11항에 있어서,
    상기 선택된 부분은 상기 오디오 신호의 무음이 아닌 부분을 포함하도록 선택되는 방법.
  13. 제8항 내지 제12항 중 어느 한 항에 있어서,
    상기 제2 서명 데이터는 복수의 서브유닛을 포함하고,
    각각의 서브 유닛은 상기 오디오 신호의 각각의 부분으로부터 유추되며, 상기 비교하는 단계에서는 각각의 서브유닛에 대해 각각의 서브 유닛과 상기 제1 서명 데이터의 유사함의 정도를 나타내는 유사 정도가 결정되고, 상기 결정하는 단계에서는 모든 서브유닛 중 가장 큰 유사 정도를 가지는 최대 유사 서브유닛의 참조 시점과 동일하도록 상기 시점을 결정하는 방법.
  14. 제13항에 있어서,
    상기 클라이언트에서, 로컬 시간(local time)이 제공되고, 각각의 서브유닛은 로컬 시점(local point in time)과 연관되며, 상기 비교하는 단계는 상기 참조 시점 주위의 사전 정의된 시간 범위 내에서 로컬 시점을 가지는 서브유닛들에 대해서만 수행되는 방법.
  15. 제13항에 있어서,
    상기 클라이언트에서, 로컬 시간이 제공되고, 각각의 서브유닛은 로컬 시점과 연관되며, 상기 비교하는 단계는 모든 서브유닛 중 상기 참조 시점에 가장 가까운 로컬 시점을 가지는 인접 서브유닛에 대해서만 수행되는 방법.
  16. 제1항 내지 제15항 중 어느 한 항에 있어서,
    상기 오디오 신호는 텔레비전 신호의 부분이고, 상기 방법은 상기 텔레비전 신호 내에서 시점(T)을 결정하기 위한 것인 방법.
  17. 제16항에 있어서,
    상기 클라이언트에서, 상기 텔레비전 신호가 기록되고, 상기 시점은 상기 기록된 텔레비전 신호의 재생을 제어하기 위해 사용되는 방법.
  18. 제1항 내지 제17항 중 어느 한 항에 있어서,
    상기 오디오 신호에 대응하는 프로그램 정보를 상기 서버로부터 상기 클라이언트로 전송하는 단계; 및
    상기 프로그램 정보에 기초하여 재생을 위한 상기 오디오 신호의 적어도 일 부분을 선택하는 단계
    를 포함하는 방법.
  19. 제18항에 있어서,
    상기 프로그램 정보는 적어도 하나의 시작 시간 및 대응하는 종료 시간을 포함하고,
    상기 시작 및 종료 시간은 재생을 위해 선택된 상기 오디오 신호의 부분을 표시하거나, 상기 시작 및 종료 시간은 재생을 위해 선택되지 않은 상기 오디오 신호의 부분을 표시하는 방법.
  20. 제19항에 있어서,
    상기 시작 및 종료 시간은 음악 및/또는 영화의 부분의 시작 및 종료 시간에 대응하는 방법.
  21. 제1항 내지 20항 중 어느 한 항에 있어서,
    상기 제1 및 제2 서명 데이터가 유추되는 상기 오디오 신호의 상기 적어도 하나의 부분은 사전 정의된 길이를 가지는 방법.
  22. 방송국으로부터 클라이언트 및 서버로 전송되는 오디오 신호 내에서 시점을 결정하기 위한 방법을 컴퓨터로 하여금 수행하도록 하는 컴퓨터 프로그램 명령어들을 포함하는 컴퓨터 판독가능 매체로서, 상기 방법은
    상기 서버에서, 상기 오디오 신호로부터 제1 서명 데이터(E1, E2, ...)를 유추하는 단계 - 상기 제1 서명 데이터는 상기 오디오 신호의 적어도 일 부분을 기술하며, 상기 오디오 신호의 상기 적어도 일 부분의 시작 또는 종료에 참조 시점이 연관됨 -;
    상기 클라이언트에서, 상기 오디오 신호로부터 제2 서명 데이터(E1, E2, ...; ET; ST)를 유추하는 단계 - 상기 제2 서명 데이터는 상기 오디오 신호의 적어도 일 부분을 기술하고, 상기 서버에서의 상기 제1 서명 데이터와 동일한 방식으로 유추됨 -;
    상기 제1 및 제2 서명 데이터를 비교하는 단계; 및
    상기 비교하는 단계의 결과에 의존하여 상기 참조 시점과 동일하도록 상기 시점(T)을 결정하는 단계
    를 포함하는 컴퓨터 판독가능 매체.
  23. 방송국으로부터 오디오 신호를 수신하도록 구성되고, 서버로부터 시간 정보를 수신하도록 더 구성된 수신 메커니즘; 및
    상기 시간 정보에 의존하여 상기 오디오 신호를 재생하도록 구성된 재생 메커니즘
    을 포함하는 기록 장치.
  24. 제23항에 있어서,
    상기 수신 메커니즘은 상기 서버로부터 상기 오디오 신호와 관련되는 프로그램 정보를 수신하고, 상기 프로그램 정보에 기초하여 재생을 위해 상기 오디오 신호의 적어도 일 부분을 선택하도록 더 구성된 기록 장치.
  25. 제24항에 있어서,
    상기 프로그램 정보는 적어도 하나의 시작 시간 및 대응하는 종료 시간을 포함하며,
    상기 시작 및 종료 시간은 재생을 위해 선택되는 상기 오디오 신호의 부분을 표시하거나 또는 상기 시작 및 종료 시간은 재생을 위해 선택되지 않은 상기 오디오 신호의 부분을 표시하는 기록 장치.
  26. 제23항 내지 제25항 중 어느 한 항에 있어서,
    상기 오디오 신호로부터 서명 데이터(ET)를 유추하도록 구성된 데이터 처리 메커니즘(data processing mechanism) - 상기 서명 데이터는 상기 오디오 신호의 적어도 일 부분을 기술하며, 사전 정의된 방식으로 유추됨 -; 및
    상기 서명 데이터(ET)를 서버로 전송하도록 구성된 전송 메커니즘(sending mechanism)
    을 포함하는 기록 장치.
  27. 제23항 내지 제26항 중 어느 한 항에 있어서,
    상기 오디오 신호는 비디오/오디오 신호의 일부인 기록 장치.
  28. 제23항 내지 제27항 중 어느 한 항을 따르는 기록 장치; 및
    상기 시간 정보를 제공하도록 구성된 서버
    를 포함하는 시스템.
  29. 방송국으로부터 오디오 신호를 수신하도록 구성되고, 또한 서버로부터 제1 서명 데이터 및 적어도 하나의 참조 시점을 수신하도록 구성된 수신 메커니즘 - 상기 제1 서명 데이터는 상기 오디오 신호로부터 유추되고, 상기 제1 서명 데이터는 상기 오디오 신호의 적어도 일 부분을 기술하며, 상기 참조 시점은 상기 오디오 신호의 상기 적어도 일 부분의 시작 또는 종료와 연관됨 -;
    상기 오디오 신호로부터 제2 서명 데이터를 유추하도록 구성되고 - 상기 제2 서명 데이터는 상기 오디오 신호의 적어도 일 부분을 기술하고 상기 제1 서명 데이터와 동일한 방식으로 유추됨 -, 또한 상기 제1 및 제2 서명 데이터를 비교하고, 상기 비교 결과에 의존하여 재생 시작 및/또는 종료 시간을 결정하도록 구성된 데이터 처리 메커니즘; 및
    상기 재생 시작 및/또는 종료 시간에 따라 상기 오디오 신호를 재생하도록 구성된 재생 메커니즘
    을 포함하는 기록 장치.
  30. 방송국으로부터 클라이언트 및 서버로 전송되는 텔레비전 신호 내에서 시점을 결정하기 위한 방법으로서,
    서버에서, 상기 텔레비전 신호로부터 제1 서명 데이터를 유추하는 단계 - 상기 제1 서명 데이터는 상기 텔레비전 신호의 적어도 일 부분을 기술하며, 상기 텔레비전 신호의 상기 적어도 일 부분의 시작 또는 종료에 참조 시점이 연관됨 -;
    클라이언트에서, 상기 텔레비전 신호로부터 제2 서명 데이터를 유추하는 단계 - 상기 제2 서명 데이터는 상기 텔레비전 신호의 적어도 일 부분을 기술하며, 상기 서버에서의 상기 제2 서명 데이터와 동일한 방식으로 유추됨 -;
    상기 제1 및 제2 서명 데이터를 비교하는 단계; 및
    상기 비교하는 단계의 결과에 의존하여 상기 참조 시점과 동일하도록 상기 시점을 결정하는 단계
    를 포함하는 방법.
  31. 텔레비전 신호 내에서 시점을 결정하기 위한 방법으로서,
    서버에서, 상기 텔레비전 신호로부터 제1 서명 데이터를 유추하는 단계 - 상기 제1 서명 데이터의 시작 및 종료에 참조 시점이 연관됨 -;
    클라이언트에서, 상기 텔레비전 신호로부터 제2 서명 데이터를 유추하는 단계 - 상기 제2 서명 데이터는 상기 서버에서의 상기 제1 서명 데이터와 동일한 방 식으로 유추됨 -;
    상기 제1 및 제2 서명 데이터를 비교하는 단계; 및
    상기 비교하는 단계의 결과에 의존하여 상기 참조 시점과 동일하도록 상기 시점을 결정하는 단계
    를 포함하는 방법.
  32. 제31항에 있어서,
    상기 클라이언트에서, 상기 텔레비전 신호가 기록되고, 상기 기록된 텔레비전 신호의 재생을 제어하기 위해 상기 시점이 사용되는 방법.
KR1020097020370A 2007-03-31 2007-11-30 오디오 신호 내에서 시점을 결정하는 방법 KR20090122463A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07006767A EP1975938A1 (en) 2007-03-31 2007-03-31 Method for determining a point in time within an audio signal
EP07006767.3 2007-03-31

Publications (1)

Publication Number Publication Date
KR20090122463A true KR20090122463A (ko) 2009-11-30

Family

ID=38358052

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097020370A KR20090122463A (ko) 2007-03-31 2007-11-30 오디오 신호 내에서 시점을 결정하는 방법

Country Status (6)

Country Link
US (1) US8620466B2 (ko)
EP (1) EP1975938A1 (ko)
JP (1) JP2010523068A (ko)
KR (1) KR20090122463A (ko)
CN (1) CN101681664B (ko)
WO (1) WO2008119372A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020060903A1 (en) * 2018-09-18 2020-03-26 Roku, Inc. Audio synchronization of a dumb speaker and a smart speaker using a spread code
US10931909B2 (en) 2018-09-18 2021-02-23 Roku, Inc. Wireless audio synchronization using a spread code
US10992336B2 (en) 2018-09-18 2021-04-27 Roku, Inc. Identifying audio characteristics of a room using a spread code

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2457694B (en) * 2008-02-21 2012-09-26 Snell Ltd Method of Deriving an Audio-Visual Signature
GB2487499B (en) * 2008-02-21 2013-02-27 Snell Ltd Method of comparing audio data
US9648380B2 (en) 2009-09-14 2017-05-09 Tivo Solutions Inc. Multimedia device recording notification system
JP5568953B2 (ja) * 2009-10-29 2014-08-13 ソニー株式会社 情報処理装置、シーン検索方法及びプログラム
US20110137976A1 (en) * 2009-12-04 2011-06-09 Bob Poniatowski Multifunction Multimedia Device
US8682145B2 (en) * 2009-12-04 2014-03-25 Tivo Inc. Recording system based on multimedia content fingerprints
GB2479711A (en) * 2010-04-01 2011-10-26 British Broadcasting Corp Determining playback points in recorded media content
US20140114456A1 (en) * 2012-10-22 2014-04-24 Arbitron Inc. Methods and Systems for Clock Correction and/or Synchronization for Audio Media Measurement Systems
CN103426439B (zh) * 2013-05-08 2016-04-27 杭州联汇数字科技有限公司 一种广播电视音频信号内容一致性检测方法
JP2016526826A (ja) * 2013-06-20 2016-09-05 トムソン ライセンシングThomson Licensing コンテンツの分散型再生の同期化を支援するシステム及び方法
US10014006B1 (en) 2013-09-10 2018-07-03 Ampersand, Inc. Method of determining whether a phone call is answered by a human or by an automated device
US9053711B1 (en) 2013-09-10 2015-06-09 Ampersand, Inc. Method of matching a digitized stream of audio signals to a known audio recording
KR102019493B1 (ko) * 2015-02-09 2019-09-06 삼성전자주식회사 디스플레이 장치 및 그 정보 제공 방법
CN111052752A (zh) 2017-08-28 2020-04-21 杜比实验室特许公司 媒体感知导航元数据

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058376B2 (en) * 1999-01-27 2006-06-06 Logan James D Radio receiving, recording and playback system
US20020120925A1 (en) 2000-03-28 2002-08-29 Logan James D. Audio and video program recording, editing and playback systems using metadata
CN1735887B (zh) * 2003-01-06 2010-04-28 皇家飞利浦电子股份有限公司 用于相似视频内容跳转的方法和设备
US20040240562A1 (en) * 2003-05-28 2004-12-02 Microsoft Corporation Process and system for identifying a position in video using content-based video timelines
US20050044561A1 (en) * 2003-08-20 2005-02-24 Gotuit Audio, Inc. Methods and apparatus for identifying program segments by detecting duplicate signal patterns
JP4296503B2 (ja) 2004-10-04 2009-07-15 ソニー株式会社 情報処理装置および方法、並びにプログラム
DE602004024318D1 (de) * 2004-12-06 2010-01-07 Sony Deutschland Gmbh Verfahren zur Erstellung einer Audiosignatur
JP4534791B2 (ja) * 2005-02-23 2010-09-01 ソニー株式会社 Cm検索方法、cm検索結果受給方法、cm検索装置、cm検索結果受給装置及びcm録画予約システム
JP2006270634A (ja) * 2005-03-24 2006-10-05 Victor Co Of Japan Ltd デジタル放送同期再生装置、ストリーム同期再生装置及びストリーム同期再生システム
JP4459179B2 (ja) 2005-03-30 2010-04-28 株式会社東芝 情報処理装置及びその方法
JP2007041864A (ja) * 2005-08-03 2007-02-15 Nippon Telegr & Teleph Corp <Ntt> メタデータ取得・管理方法及び装置及びプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020060903A1 (en) * 2018-09-18 2020-03-26 Roku, Inc. Audio synchronization of a dumb speaker and a smart speaker using a spread code
US10931909B2 (en) 2018-09-18 2021-02-23 Roku, Inc. Wireless audio synchronization using a spread code
US10958301B2 (en) 2018-09-18 2021-03-23 Roku, Inc. Audio synchronization of a dumb speaker and a smart speaker using a spread code
US10992336B2 (en) 2018-09-18 2021-04-27 Roku, Inc. Identifying audio characteristics of a room using a spread code
US11177851B2 (en) 2018-09-18 2021-11-16 Roku, Inc. Audio synchronization of a dumb speaker and a smart speaker using a spread code
US11438025B2 (en) 2018-09-18 2022-09-06 Roku, Inc. Audio synchronization of a dumb speaker and a smart speaker using a spread code
US11558579B2 (en) 2018-09-18 2023-01-17 Roku, Inc. Wireless audio synchronization using a spread code
US11671139B2 (en) 2018-09-18 2023-06-06 Roku, Inc. Identifying electronic devices in a room using a spread code

Also Published As

Publication number Publication date
JP2010523068A (ja) 2010-07-08
CN101681664A (zh) 2010-03-24
WO2008119372A1 (en) 2008-10-09
EP1975938A1 (en) 2008-10-01
US8620466B2 (en) 2013-12-31
CN101681664B (zh) 2013-05-01
US20100040342A1 (en) 2010-02-18

Similar Documents

Publication Publication Date Title
KR20090122463A (ko) 오디오 신호 내에서 시점을 결정하는 방법
US11006174B2 (en) Media insertion system
KR102024105B1 (ko) 오디오 핑거프린트 기반의 비디오 멀티-매칭 검출 및 명확화를 통한 미디어 채널 식별
US7738767B2 (en) Method, apparatus and program for recording and playing back content data, method, apparatus and program for playing back content data, and method, apparatus and program for recording content data
US8752115B2 (en) System and method for aggregating commercial navigation information
US20070136782A1 (en) Methods and apparatus for identifying media content
US20100242065A1 (en) Content distribution device, content distribution method, viewer terminal, and content reproduction method
US20040268384A1 (en) Method and apparatus for processing a video signal, method for playback of a recorded video signal and method of providing an advertising service
KR20090004490A (ko) 전자기기, 콘텐츠 재생 방법 및 컴퓨터 판독가능한 매체
JP2005236527A (ja) 映像再生装置、再生スクリプト生成装置、映像配信装置、映像切出し装置、及び映像蓄積装置
US20140115626A1 (en) Method and system for enhancing redistributed audio/video content
JP3821362B2 (ja) インデックス情報生成装置、記録再生装置、及びインデックス情報生成方法
US20220036399A1 (en) Increasing Advertisement Revenue by Repeated Re-Evaluation of Value of Advertisement Spot
US11769179B2 (en) Replacement advertisement selection after channel changes
JP2016213709A (ja) 動画再生システム、クライアント装置、サーバ装置及びプログラム
JP7078785B1 (ja) ストリーム視聴解析システム、ストリーム視聴解析方法およびプログラム
JP2005176033A (ja) 映像受信再生装置を動作させるプログラムおよび当該プログラムを記録したコンピュータ可読である記憶媒体および、映像受信再生装置および方法
JP2005176223A (ja) 映像受信再生装置を動作させるプログラムおよび当該プログラムを記録したコンピュータ可読である記憶媒体および、映像受信再生装置および方法
JP2004304306A (ja) Avストリーム情報交換装置、avストリーム受信装置およびavストリーム格納装置
JP2005176034A (ja) 映像受信再生装置を動作させるプログラムおよび当該プログラムを記録したコンピュータ可読である記憶媒体および、映像受信再生装置および方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right