KR101291933B1 - 디지털 서비스의 다른 부분을 동기화하기 위한 디바이스 및방법 - Google Patents

디지털 서비스의 다른 부분을 동기화하기 위한 디바이스 및방법 Download PDF

Info

Publication number
KR101291933B1
KR101291933B1 KR1020077011016A KR20077011016A KR101291933B1 KR 101291933 B1 KR101291933 B1 KR 101291933B1 KR 1020077011016 A KR1020077011016 A KR 1020077011016A KR 20077011016 A KR20077011016 A KR 20077011016A KR 101291933 B1 KR101291933 B1 KR 101291933B1
Authority
KR
South Korea
Prior art keywords
delay
data
digital service
reproducing
output
Prior art date
Application number
KR1020077011016A
Other languages
English (en)
Other versions
KR20070084235A (ko
Inventor
필리쁘 르엥데게르
레이너 츠윈그
프랑크 아블라르
빠뜨? 모르벵
쎄바스티앙 데제르
디디에 도엥
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20070084235A publication Critical patent/KR20070084235A/ko
Application granted granted Critical
Publication of KR101291933B1 publication Critical patent/KR101291933B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4135Peripherals receiving signals from specially adapted client devices external recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/935Regeneration of digital synchronisation signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Television Receiver Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)

Abstract

본 발명은 디지털 서비스의 소스로서 동작하는 디바이스(20)를 구비하는 재생 디바이스(21)에 관한 것이다. 본 발명은 본 발명에 따른 소스 디바이스 및 본 발명에 따른 적어도 하나의 재생 디바이스를 포함하는 시스템에서 디지털 서비스의 2개 부분을 동기화하는 방법에 관한 것이다. 본 발명에 따르면, 재생 디바이스(21)는 디지털 서비스 소스 디바이스(20)로부터 발원하는 디지털 서비스의 적어도 일부를 형성하는 데이터를 수신하기 위한 수단, 수신된 데이터의 적어도 일부를 처리하기 위한 수단(210), 디지털 서비스의 적어도 일부의 출력을 재생하기 위한 수단(211)을 포함하고, 데이터를 처리하고 재생하기 위한 수단은 재생된 데이터의 출력에서 지연을 도입시킨다. 이러한 디바이스는 소스 디바이스에 도입된 지연을 통지하기 위한 통신 수단(213)을 포함한다.
디지털 서비스, 재생 디바이스, 소스 디바이스, 지연, 지연통신

Description

디지털 서비스의 다른 부분을 동기화하기 위한 디바이스 및 방법{DEVICE AND METHOD FOR SYNCHRONIZING DIFFERENT PARTS OF A DIGITAL SERVICE}
본 발명은 디지털 서비스의 다른 부분을 동기화하기 위한 디바이스 및 방법에 관한 것이다. 본 발명은 예를 들면, 시청각 디지털 서비스의 오디오/비디오 동기화에 관한 것이다.
여러 해 동안, 스크린 관련 기술은 음극선관 스크린에 기초하고 있었다. 이들 기술들은 완전히 아날로그였다. 1990년대 이래로, 디지털 기술은 비디오 신호의 카메라에 의한 획득으로부터 스크린(예를 들면, 모션 보상을 이용한 100Hz 스크린) 상의 그 표시에 이르기까지 이미지 시스템에서 더욱 더 우세하게 되었다. 처음에, 이들 새로운 기술 중 어느 것도 비디오에 대한 의미있는 지연을 도입하지 못했다. 오디오/비디오(이하에서는, A/V로 지칭됨) 동기화는, 디코더에 의해 공급된 오디오 및 비디오 스트림이 시청각 재생 디바이스에 의해 즉시 재생된다는 가정에 기초하여, 디코더에 의해 수행된다. 디코더의 경우에, A/V 동기화 원리는 MPEG 인코더에 의해 오디오 및 비디오 패킷에 내장되는 시간 마커("프로그램 클록 기준" 및 "프리젠테이션 시간 스탬프")를 이용하고, 디코더가 공통 시간 기준에 대해 비디오 및 오디오를 제공할 수 있게 하는 데 있다. ISO/IEC 13818-1의 부록 D는 이 러한 A/V 동기화("LIPSYNC"로 지칭됨)를 수행하는 방법을 상세하게 기술하고 있다. 오늘날, 디코더의 A/V 동기화 모듈을 튜닝하기 위한 절차는 테스트 MPEG 스트림으로부터 도출된 오디오 및 비디오 패킷을 디코딩하고, 이들을 응답 시간이 순간적인 것으로 간주되는 재생 디바이스(예를 들면, CRT 텔레비전)에 제공하는 데 있다. 유사하게, DVD 플레이어의 경우에, A/V 동기화는 플레이어의 출력에서 오디오 및 비디오 스트림의 동기화를 보장하는 플레이어 자체에 의해 처리된다.
스크린 기술의 최근의 진보를 통해, 이하를 포함하는 다양한 범위의 새로운 스크린 및 다소 복잡한 시청각 재생 디바이스가 시장에서 발견되었다.
- 오디오 신호가 디코딩된 형태(PCM-펄스-코드 변조 - 포맷) 또는 인코딩된 형태(예를 들면, 돌비 디지트)로 공급될 수 있는 시청각 재생 디바이스(예를 들면, "홈 시네마").
- 일부 국가에서 더욱 더 유행되고 있는 고 해상도(이하에서는, HD로 지칭됨) 텔레비전. 이는 비용을 감소시키는 예를 들면 MPEG-4 기술을 가지는 소비자 시장이 될 수 있다. 다수의 HD 포맷은 표준 해상도(이하에서는, SD로 지칭됨) 포맷과 공존해야 한다. HD 포맷은 비디오를 표시하기 이전에 스크린에서 상당한 비디오 처리를 요구하고, 이는 지연을 도입시킬 수 있다.
- HD 및 SD 양쪽 포맷에 대해 다수의 스크린 기술(예를 들면, LCD, LCOS, DLP, 플라즈마, 등)이 시장에서 사용가능하다. 이들 다양한 스크린은 최적 표시를 위해 그 자신의 비디오 프로세서를 요구하고, 따라서 지연을 도입시킬 수 있다.
과거, 시청각 시스템에 대한 연구에 따르면, 인간은 A/V 위상 시프트에 민감 하다고 알려졌다. 1940년에 벨 연구소에서 수행된 연구결과에 따르면, 100ms보다 더 큰 오디오 지연 및 35ms보다 큰 오디오 선행인 경우에 어려움이 발생한다. 실제로, 인간이 스크린에 표시되는 것을 보기 전에 이벤트의 소리를 듣는 것은 당연한 것이 아니므로, 오디오의 선행보다는 지연이 당연히 훨씬 더 참을만하다. 결과적으로, 그리고 통상의 규칙을 따르기 위해, ITU는 A/V 시스템 전체에 걸쳐 수락가능하고 수락불가능한 A/V 동기화 에러를 표준화했다. 1993년에, ITU[DOC11/59] 표준은 100ms보다 큰 오디오 지연 및 20ms보다 큰 오디오 선행을 가지고 있는 것으로서 검지 범위를 정의했다. 불쾌 범위는 160ms보다 큰 오디오 지연 또는 40ms보다 큰 오디오 선행인 것으로 정의된다. 1998년에, 특별한 이유없이, ITU는 검지 범위를 125ms보다 큰 오디오 지연 또는 45ms보다 큰 오디오 선행으로 완화시켰다. 불쾌 범위는 185ms보다 큰 오디오 지연 또는 90ms보다 큰 오디오 선행인 것으로 정의된다. 이들 범위는 ITU-R BT 1359-1 표준에 의해 정의된다.
오늘날, ATSC("진보된 텔레비전 시스템 위원회", 디지털 텔레비전 표준을 개발하기 위한 국제적 조직)는 이러한 표준이 적절하지 않으며 벨에 의해 수행된 연구에 부합되지 않는다는 것을 나타낸다. 그러므로 A/V 시스템에 대해 이하와 같이, 즉 획득을 위해서는 [-45ms, +15ms] 및 인코더/디코더/TV를 위해서는 [-45ms, +15ms]에서 분산되는 범위[-90ms, +30ms] 내에서 동기화 에러를 표준화하도록 제안한다.
오늘날, 비디오 재생 디바이스(예를 들면, LCD 스크린)는 비디오 처리 시스템에서 수십 밀리초(종종 거의 일백)로 측정되는 지연을 도입시킨다. 도입된 지연 은 디바이스에 따라 크게 가변될 수 있고, 특히 스크린이 디인터레이싱 함수로 맞추어져 있는 경우에 인터레이싱되거나(예를 들면, SD에 대해서는 576i25 또는 HD에 대해서는 1080i25) 또는 순차형일(예를 들면, SD에 대해서는 576p25, 또는 HD에 대해서는 720p50) 수 있는 이미지의 포맷에 따라 가변될 수 있다. 이들 프로세스는 오디오 신호에 비해 비디오 신호에 대한 지연을 결과적으로 증가시키는 이미지 메모리(예를 들면, FIFO, SDRAM, 등)의 이용을 요구한다. 이것은, 오디오 신호가 종종 그것과 연관된 비디오 신호를 선행한다는 것을 의미한다. 실제로, 그 부분에 대해, 오디오 재생 디바이스는 정상 이용시 상당한 지연을 도입시키지 않는다. 음향 효과가 부가되는 경우에, 이들은 지연을 도입시킬 수 있다. 그러나 이들 지연은 사용자에게 견딜만한 것으로 유지된다.
음극선관 스크린과는 달리, 현재 이용되고 있는 새로운 평면형 스크린은 즉각적으로 반응하지 않는다. 실제로, 그 다양한 컴포넌트 모듈은 지연을 도입시킨다. 도 1은 블록 10, 11 및 12의 형태로, 본 기술분야의 현재 상태에 따른 시청각 재생 디바이스(1, 예를 들면, 평면 스크린 텔레비전)의 특정 모듈을 도시하고 있다. 이러한 디바이스는 비디오 재생 디바이스(12, 예를 들면, 스크린) 및 오디오 재생 디바이스(13, 외부 및 내장 스피커)를 포함한다. 비디오 재생 디바이스의 종래 모듈(예를 들면, 튜너, PAL 디코더 및 A/D 컨버터)은 더 이상 기재되지 않을 것이다. 모듈(10, 11 및 12)은 프레임별로 고정되거나 가변될 수 있는 비디오 지연을 도입시킨다. 이들 지연은 적용된 처리 및 스크린 타입에 따라 가변된다. 이들이 보상되지 않는 경우, 이들은 이전에 정의된 것과 같은 허용한도 범위 외부에 위 치하므로, 사용자에 의해 검출될 수 있는 A/V 동기화 에러를 유발할 것이다.
제1 디인터레이싱 및 포맷 제어 모듈(10)은 인터레이싱된 비디오를 순차형 비디오로 변환하고, 입력 신호의 해상도를 스크린의 해상도로 조정한다(예를 들면, 1920 x 1080i를 1280 x 720p로 스위칭함). 이러한 블록은 비디오 포맷(인터레이싱/순차형, 50Hz/60Hz)에 따라 가변 지연(Dd)을 도입시키는 프레임 메모리(SDRAM, DDRAM)를 이용한다.
제2 스크린 컨트롤러 모듈(11)은 순차형 비디오를 스크린에 대한 양립가능한 포맷으로 변환한다. 컨트롤러는 스크린을 어드레싱하고, 화질 향상 프로세스를 수행한다. 이들은 또한 스크린 타입에 좌우되는 지연 Dc를 도입시킨다.
그러므로, LCD-LCOS 스크린(LCD는 "액정 디스플레이"를 나타내고, LCOS는 "액정 온 실리콘"을 나타낸다)의 경우에, 지연을 도입시키는 이하의 처리를 적용할 수 있다.
○ 하나의 그레이 레벨에서 다른 것으로 스위칭하는 것이 필요한 경우에, 액정의 응답속도를 향상시키는 오버드라이빙. 프레임 메모리를 이용하는 이러한 동작은 고정된 지연 Rc_lcd_overdriving을 도입시킨다.
○ 3-값 LCOS 시스템에서 프레임 복사는 큰 영역 플리커 효과를 감소시키는데 이용된다. 하나의 프레임 메모리를 이용하는 이러한 동작은 고정된 지연 Rc_lcos_double를 도입시킨다.
DLPTM-LCOS(DLP는 "디지털 광 처리"를 나타낸다) 순차 컬러 스크린에서, 이 하의 프로세스 및 동작은 지연을 도입시킨다.
○ 순차 컬러로의 변환은 고정된 지연 Rc_dip-lcos_sequential을 도입시키는 프레임 메모리를 이용하여 수행되었다.
○ DLP 스크린 어드레싱은 연속적인 비트면에 의해 수행되었다. 이러한 동작은 고정된 지연 Rc-dlp_bitplane을 도입시킨다.
플라즈마 스크린에 대해, 이하의 프로세스 및 동작은 이하로 인해 지연을 도입시킨다.
○ 연속적인 서브스캐닝 동작에 의한 스크린 어드레싱. 이것은 지연 Rc_plasma_bitplane을 도입시킨다.
○ 오류 윤곽선 효과 및 번짐 효과를 감소시키는 모션 보상. 하나의 프레임 메모리를 이용하는 이러한 동작은 고정된 지연 Rc_plasma_artefact를 도입시킨다.
유사하게, OLED(유기 발광 다이오드) 스크린은 지연을 도입시킬 수 있다.
제3 모듈(12)은 스크린 자체를 포함한다. LCD/LCOS 스크린에 의해 방출된 광은 액정에 인가된 전압을 변조함으로써 얻어진다. DMDTM(디지털 마이크로-미러 디바이스)의 경우에, 광은 피봇형 마이크로-미러를 이용하여 이진-변조된다. PLASMA 패널의 경우에, 광은 기체 여기에 의해 이진 변조된다. 그러므로 광은 변조에 대한 지연으로 반응한다. 이러한 지연은 주로 스크린의 컴포넌트의 물리적 속성(액정, 기체, 등)에 좌우된다. 또한, 일부 스크린은 추가 지연을 유발하는 내부 메모리(DLP-LCOS 순차적)를 포함할 수 있다. 그러므로 스크린은 그 타입에 직 접 링크된 지연 De를 도입시킨다.
그러므로, LCD-LCOS 스크린은 다른 것들 중에서, 이하의 지연을 도입시킨다.
○ 스크린은 로우별로 어드레싱되므로, 최종 로우는 제1 로우 후에 하나의 프레임 주기에 리프레시된다. 이러한 어드레싱 동작은 고정된 지연 Re_lcd_addressing을 도입시킨다.
○ 액정은 변조 전압의 인가 후에 셋업되는데 특정 시간이 걸린다. 이러한 시간은 지연 및 셋업 시간으로 분리된다. 이들 2개의 시간은 이전 프레임과 현재 프레임 간의 그레이 변이 레벨에 좌우된다. 이들 2개의 시간은 함께 가산되어 가변 지연 Re_lcd_liquid-crystal을 제공한다.
다른 스크린 타입(예를 들면, 플라즈마 패널, DLP, OLED)은 다른 지연 다입을 도입시킬 수 있다.
그러므로 플라즈마 스크린은 다른 것들 중에서, 이하의 지연을 도입시킨다.
○ 스크린에 밀폐된 기체는 비디오 콘텐츠에 따라 가변되고, 따라서 가변 지연 Re_plasma_gas에 대응하는 응답 시간을 가지고 있다.
DMPTM 스크린은 특히 이하의 지연을 도입시킨다.
○ 표시 디바이스는 내부 메모리를 포함하고, 서브스캐닝 형태로 어드레싱된다. 이것은 고정된 지연 Re_dlp_addressing을 도입시킨다.
○ DMDTM는 매우 빠른 응답 시간을 가지고 있다. 이는 어떠한 특정 지연도 도입시키지 않는다.
이하의 표는 다른 스크린에 대한 다양한 지연 타입의 예를 요약하고 있다. 표에서, T는 프레임 주기(20ms/50Hz, 16.7ms/60Hz)를 나타낸다.
지연(D) LCD 3-LCOS PLASMA DLPTM 1-LCOS
6 x(300Hz/360Hz)
디인터레이서
(지연 Dd)
순차형 비디오에 대해 0,
인터레이싱된 비디오에 대해 T.
순차형 비디오에 대해 0,
인터레이싱된 비디오에 대해 T.
순차형 비디오에 대해 0,
인터레이싱된 비디오에 대해 T.
순차형 비디오에 대해 0,
인터레이싱된 비디오에 대해 T.
순차형 비디오에 대해 0,
인터레이싱된 비디오에 대해 T.
컨트롤러(지연 Dc)
Rc_lcd_overdriving
Rc_lcos_double
Rc_dlp_lcos_sequential
Rc_dlp_bitplane
Rc_plasma_bitplane
Rc_plasma_artefact

T

T
T





T
2T



T
T



T
스크린(지연 De)
Re_lcd_addressing
Re_lcd_liquid-crystal
Re_plasma_gas
Re_dlp_addressing

T
T-> 3T

T
T -> 3T



T/2




T/6

<T/6
총합
50Hz -> T=20ms
60Hz -> T=16.7ms
3T -> 6T
60ms -> 120ms
50ms -> 100ms
4T -> 7T
80ms -> 140ms
70ms -> 117ms
3.5T -> 4.5T
70ms -> 90ms
60ms -> 75ms
2 -> 3T
40ms -> 60ms
30ms -> 50ms
<3T
<60ms
<50ms
이용되는 스크린 기술에 따라, 이미지의 콘텐츠(예를 들면, 그레이 레벨)에 따라 프레임별로 다소 상당하고 고정되거나 가변되는 비디오에 대한 지연을 가질 수 있다. 이들 지연은 비디오 포맷에 따라 가변될 수 있다. 텔레비전 또는 DVD의 경우에, 4가지 가능한 포맷이 있다.
○ 50Hz 인터레이싱된 입력
○ 50Hz 순차형 입력
○ 60Hz 인터레이싱된 입력
○ 60Hz 순차형 입력.
오디오 및 비디오 스트림 간의 이들 지연은 이용되는 오디오 포맷(예를 들면, MPEG1, MPEG2 레이어 1 및 2, DOLBY AC-3)에 좌우된다. 이들은 사용자에게 극도로 불쾌할 수 있는 허용한도외 A/V 동기화 에러(환언하면, 허용한도를 벗어난 에러)를 유발시킬 수 있다.
상술한 분석은, 사용자의 감지 편안함을 개선하고 오디오 스트림에 대한 비디오 스트림의 재생시의 지연(또는 선행)을 표준에 의해 정의된 허용한도 범위 내로 유지하기 위해 A/V 시스템을 동기화하는 것이 필요하다는 것을 보여주고 있다. 더 일반적으로는, 다른 하나에 대한 서비스의 부분들 중 하나의 재생시의 지연(또는 선행)을 사용자에게 불쾌하지 않은 이러한 지연(또는 이러한 선행)에 대한 허용한도 범위 내로 유지시키기 위해 디지털 서비스의 다양한 부분을 동기화하는 것이 필요하다.
본 발명의 목적은 종래 기술의 이러한 단점들을 극복하는 것이다. 이를 위해, 본 발명은 디지털 서비스의 적어도 일부에 적용된 다양한 프로세스에 의해 도입되는 지연, 및 재생 디바이스 자체에 의해 도입되는 지연을 고려하는 디지털 서비스의 다양한 부분을 동기화하는 디바이스 및 방법을 제안한다.
이를 위해, 본 발명은 디지털 서비스 소스 디바이스로부터 발원하는 디지털 서비스의 적어도 일부를 형성하는 데이터를 수신하기 위한 수단, 수신된 데이터의 적어도 일부를 처리하기 위한 수단, 디지털 서비스의 적어도 일부의 출력을 재생하기 위한 수단 - 데이터를 처리하고 재생하기 위한 시간은 재생된 데이터의 출력에서 지연을 도입시킴 - 을 포함하는 적어도 하나의 디지털 서비스에 대응하는 데이터를 재생하기 위한 디바이스를 제안한다. 본 발명에 따르면, 재생 디바이스는 도입된 지연을 소스 디바이스에 통지하기 위한 통신 수단을 포함한다.
양호한 실시예에 따르면, 재생 디바이스는 텔레비전이고, 디지털 서비스는 시청각 서비스이며, 처리된 데이터는 프레임으로 구성된 비디오 데이터이다. 더구나, 디지털 서비스의 적어도 일부의 출력을 재생하기 위한 수단 중 하나는 스크린, 양호하게는 액정 표시(LCD) 스크린과 같은 평면형 스크린, 플라즈마 스크린, OLED스크린 또는 DLP 스크린이다.
특정 특성에 따르면, 수신된 데이터의 적어도 일부를 처리하기 위한 수단 중 하나는 디인터레이서이다.
양호하게는, 지연값은 재생 디바이스의 비휘발성 메모리에 저장된다. 특정 특성에 따르면, 비휘발성 메모리는 EPROM 메모리이다.
양호한 실시예에 따르면, 지연값은 EDID 디스크립터의 형태로 제공된다.
양호하게는, 소스 디바이스에 도입된 지연을 통지하기 위한 통신 수단은 DDC 프로토콜 또는 CEC 프로토콜을 이용하는 링크를 포함한다. 디코더는 DDC 링크를 통해 EDID 디스크립터 형태로 저장된 지연값을 복원시킨다.
본 발명은 디지털 서비스의 제1 부분을 형성하는 데이터를 출력하기 위한 수단, 디지털 서비스의 제2 부분을 형성하는 데이터를 출력하기 위한 제2 수단, 및 디지털 서비스의 제1 부분을 형성하는 데이터를 재생하기 위해 디바이스와 통신하기 위한 수단을 포함하는 디지털 서비스 소스로서 동작하는 디바이스에 관한 것이다. 소스 디바이스는 디지털 서비스의 제2 부분을 형성하는 출력 데이터에 프로그램가능한 지연을 적용하기 위한 수단, 디지털 서비스의 제1 부분을 형성하는 데이터를 재생하기 위해 디바이스로부터 지연 표시를 수신하기 위한 수단, 및 수신된 지연 표시에 따라 프로그램가능한 지연을 적용하기 위한 수단을 프로그래밍하기 위한 수단을 포함한다.
특정 실시예에 따르면, 디지털 서비스의 소스로서 동작하는 디바이스는 디지털 디코더이다. 다른 실시예에 따르면, 디지털 서비스의 소스로서 동작하는 디바이스는 DVD 플레이어이다.
양호한 실시예에 따르면, 디지털 서비스의 제1 부분을 형성하는 데이터는 비디오 데이터이고, 디지털 서비스의 제2 부분을 형성하는 데이터는 오디오 데이터이다.
다른 실시예에 따르면, 디지털 서비스의 제1 부분 및 제2 부분을 형성하는 데이터는 비디오 데이터이다.
양호하게는, 프로그램가능한 지연을 적용하기 위한 수단은 재생 수단의 하나 이상의 이하의 구성요소로 인한 지연을 보상한다.
- 비디오 데이터를 디인터레이싱하기 위한 모듈(10);
- 포맷 컨트롤러(10);
- 스크린 컨트롤러(11);
- 스크린(12).
특정 특성에 따르면, 프로그램가능한 지연을 적용하기 위한 수단은 수신된 지연 표시에 따라 이를 복원하기에 앞서서 디지털 서비스의 제2 부분을 형성하는 데이터를 일시적으로 저장하는 메모리를 포함한다.
마지막으로, 본 발명은 소스 디바이스 및 적어도 하나의 재생 디바이스를 포함하는 시스템에서 디지털 서비스의 2가지 부분을 동기화하는 방법에 관한 것으로서, 소스 디바이스는 디지털 서비스의 제1 부분을 형성하는 데이터를 출력하기 위한 제1 수단, 디지털 서비스의 제2 부분을 형성하는 데이터를 출력하기 위한 제2 수단, 디지털 서비스의 제1 부분을 형성하는 데이터를 재생하기 위해 디바이스와 통신하기 위한 수단, 디지털 서비스의 제2 부분을 형성하는 출력 데이터에 프로그램가능한 지연을 적용하기 위한 수단을 포함하고, 재생 디바이스는 디지털 서비스 소스 디바이스로부터 발원하는 디지털 서비스의 적어도 제1 부분을 형성하는 데이터를 수신하기 위한 수단, 및 디지털 서비스의 적어도 일부를 재생하도록 수신된 데이터의 적어도 일부를 처리하기 위한 수단을 포함하며, 상기 방법은 재생 디바이스 측에서, 소스 디바이스에 디지털 서비스의 적어도 제1 부분을 형성하는 수신된 데이터를 처리하고 재생할 때 재생 디바이스에 의해 도입되는 전체 지연을 송신하는 단계; 및 소스 디바이스 측에서, 디지털 서비스의 제2 부분을 형성하는 데이터의 출력을 지연시키기 위해, 수신된 지연 표시를 이용하여, 프로그램가능한 지연을 프로그래밍하는 단계를 포함한다.
특정 실시예에 따르면, 지연의 일부는 스크린의 특성으로 기인하고 액정 스크린의 경우에 이하의 단계에 따라 각 프레임에 대해 추정될 수 있다.
- 2개의 연속하는 프레임의 그레이 레벨 차이의 각 픽셀에 대한 계산.
- 상기 픽셀에 대해 계산된 상기 그레이 레벨 차이로부터 상기 2개의 연속적인 프레임 간의 응답 시간의 각 픽셀에 대한 추정.
- 모든 픽셀에 대한 지연의 히스토그램의 생성.
- 상기 히스토그램으로부터 평균 지연의 계산.
특정 특성에 따르면, 디지털 서비스의 제1 부분을 형성하는 데이터는 비디오 데이터이고, 디지털 서비스의 제2 부분을 형성하는 데이터는 오디오 데이터이다.
다른 특성에 따르면, 디지털 서비스의 제1 부분 및 디지털 서비스의 제2 부분을 형성하는 데이터는 비디오 데이터이다.
본 발명은 전혀 제한하는 의미가 아닌 첨부된 도면을 참조한 양호한 실시예를 통해 더 잘 이해되고 예시될 것이다.
도 1은 이미 설명되었고 본 기술분야의 현재 상태에 따른 평면형 스크린 텔레비전의 다이어그램을 도시하고 있다.
도 2는 내부 오디오 재생 디바이스를 이용하는 본 발명에 따른 오디오/비디오 디지털 서비스를 수신하고 재생하기 위한 디바이스를 표현하고 있다.
도 3은 외부 오디오 재생 디바이스를 이용하는 본 발명에 따른 오디오/비디오 디지털 서비스를 수신하고 재생하기 위한 디바이스를 표현하고 있다.
도 4는 재생 디바이스가 소스에서 보상된 지연을 추정하는 본 발명에 따른 오디오/비디오 디지털 서비스를 수시하고 재생하기 위한 디바이스를 표현하고 있다.
도 5는 수신 디바이스가 지연을 추정하고 보상하는 본 발명에 따른 오디오/비디오 디지털 신호를 수신하고 재생하기 위한 디바이스를 표현하고 있다.
도 6은 재생 디바이스가 지연을 추정하고 보상하는 본 발명에 따른 오디오/비디오 디지털 서비스를 수신하고 재생하기 위한 디바이스를 표현하고 있다.
도 7은 본 발명에 따른 액정 스크린에 대한 지연을 추정하는 방법을 예시하고 있다.
도 8은 다른 그레이 변이 레벨에 대한 액정의 응답 시간을 표현하는 차트를 예시하고 있다.
도 9는 본 발명에 따른 수동 지연 선택을 예시하고 있다.
도 10은 다른 비디오 포맷에 대한 지연을 선택하는 방법을 예시하고 있다.
도 11은 본 발명에 따른 수동 지연 추정 디바이스를 예시하고 있다.
도 12는 본 발명에 따른 반자동 지연 추정 디바이스를 예시하고 있다.
도 13은 본 발명에 따른 반자동 지연 추정 방법을 예시하고 있다.
도 14는 외부 오디오 재생 디바이스를 이용하고 수신 디바이스가 2개의 지연 모듈을 포함하는 본 발명에 따른 오디오/비디오 디지털 서비스를 수신하고 재생하기 위한 디바이스를 표현하고 있다.
도 15는 수신 디바이스가 2개의 비디오 재생 디바이스에 접속되는 본 발명에 따른 오디오/비디오 디지털 서비스를 수신하고 재생하기 위한 디바이스를 표현하고 있다.
실시예들은 시청각 디지털 서비스를 특히 참조하여 설명될 것이다. A/V 소스는 디코더에 비유되지만 다른 타입의 A/V 소스(예를 들면, DVD 플레이어)가 될 수 있다. 시청각 재생 디바이스는 스크린 및 오디오 출력(즉, 내장 스피커)을 포함하는 텔레비전에 비유되지만, 다른 타입의 시청각 재생 디바이스(예를 들면, 컴퓨터)일 수 있다. 오디오 재생 디바이스는 텔레비전 외부에 있고 하나 이상의 스피커(예를 들면, 홈 시네마 디바이스의 오디오 증폭기)에 비유되는 증폭기를 포함하는 디바이스에 비유되지만, 다른 타입의 오디오 재생 디바이스일 수 있다.
일부 디인터레이싱 회로는 동위상으로 유지되도록 비디오와 동일한 지연이 적용되는 보상 오디오 입력을 가지고 있다. 그러나 사용자가 외부 오디오 재생 디바이스(예를 들면, 홈 시네마 타입)로부터 소리를 이용하기로 선택하는 경우에, 어떠한 지연 보상도 적용되지 않는다. 그러므로 A/V 동기화 모듈을 디지털 디코더 내부에 놓는 것이 당연한 것으로 보이고, 후자는 A/V 신호의 소스이고 더구나 반드시 시장에서 이미 A/V 장비와 양립해야 한다. 본 발명의 원리들 중 하나는 자동적인 수단을 텔레비전에 제공하여, 후자가 텔레비전의 입력에서의 비디오와 스크린 상에 표시된 비디오 간의 지연값을 디코더에게 알려줄 수 있다.
도 2 및 3은 본 발명에 따른 시청각 디지털 서비스를 수신하고 표시하기 위한 디바이스의 2가지 변동을 나타내고 있다. 디바이스의 주된 구성요소들만이 도시되어 있다. 도 2는 특히 링크(220, 221, 222)에 의해 텔레비전(21)에 링크되는 디지털 디코더(20)를 포함하는 시청각 서비스 디바이스를 표현하고 있다. 디코더(20)는 그 입력에서 인코딩된 시청각 스트림(22, 예를 들면, MPEG 코딩으로)을 수신한다. 이러한 A/V 스트림(22)은 디멀티플렉서(204)에 의해 적어도 하나의 오디오 신호 및 하나의 비디오 신호로 디멀티플렉싱된다. 그리고나서, 비디오 신호는 비디오 디코더(200)에 의해 디코딩된다. 오디오 신호에 대해, 이것은 오디오 디코더(201)에 의해 디코딩된다. 2개의 스트림은 2개의 디코더(200, 201)와 통신하는 A/V 동기화 모듈(202)을 이용하여 동기화된다. 더구나, A/V 동기화 모듈(202)은 처리 유닛(203)에 링크된다. 비디오 디코더(200)는 DVI/HDMI 링크(220, DVI/HDMI는 디지털 비디오 인터페이스/고 정밀도 멀티미디어 인터페이스를 나타냄)를 통해 텔레비전(21)에 링크된다. 더 구체적으로는, 비디오 디코더(20)는 텔레비전(21)의 비디오 처리 모듈(210)에 링크된다. 이러한 처리 모듈은 이번에는 스크린(211)에 링크된다. 오디오 디코더에 대해, 이것은 링크(222)를 통해 텔레비전(212)의 오디오 재생 디바이스에 링크된다. 동기화 모듈(202)은 예를 들면, DDC 통신 프로토콜(스크린-관련 데이터를 복원하기 위한 표시 데이터 채널 프로토콜)을 이용하여 I2C 버스(221)를 통해 텔레비전(21)의 비휘발성 메모리(213, 예를 들면, EDID EPROM, EDID는 확장된 표시 식별 데이터를 나타냄)에 유닛(203)을 통해 링크된다.
도 3은 오디오 스트림이 외부 오디오 재생 디바이스(31, 예를 들면, 홈 시네마 디바이스의 증폭기)에 의해 재생되는 유사한 디바이스를 표현하고 있다. 이러한 디바이스(31)는 스피커(33)에 링크된 오디오 증폭기(310)를 포함한다. 디코 더(30)는 디코더(20)와 유사한 구성요소(특히, 오디오 디코더, 비디오 디코더, 디멀티플렉서, A/V 동기화 모듈)를 포함하고, 이들 구성요소는 동일한 참조 번호가 주어진다. 이는 프로그램가능한 오디오 지연 모듈(300), HDMI 인터페이스(302) 및 비디오 포맷 관리 모듈(301)을 포함한다. 이는 스크린(321)에 링크되는 비디오 처리 모듈(320)을 포함하는 텔레비전(32)에 링크된다. 디코더는 링크(340), 예를 들면 SPDIF(소니/필립스 디지털 인터페이스) 인터페이스를 통해 외부 오디오 재생 디바이스(31)에, 그리고 DVI/HDMI 링크를 통해 텔레비전(32)에 링크된다. 2개의 제안된 솔루션(도 2 및 도 3)의 목적은 비디오 프로세스(320 210, 예를 들면, 디인터레이싱, 포맷 변환, 화질 향상, 등)에 의해 유도되는 지연 Ddc(여기에서, Ddc= Dd + Dc) 및/또는 스크린(211)으로 인한 지연 De(예를 들면, 액정의 응답 시간)를 보상하는 것이다. 지연 De는 상기 표에 정의된 것과 같은 지연의 개수의 합이 될 수 있다. 나머지 문서에서, 전체 지연, 즉 D=Ddc+De는 D로 지칭된다. Ddc 및 De는 응답 시간이 프레임별로 가변인 액정 스크린에 대한 지연 De의 경우에서와 같이, 시간적으로 고정되거나 가변될 수 있다. 스크린이 어떠한 지연도 도입시키지 않는 경우, D=Ddc이다. 유사하게, Ddc는 제로가 될 수 있다.
본 발명에 따르면, 적어도 프로그램가능한 지연 D는 오디오 신호를 그 압축된 형태 또는 그 디코딩된 형태 중 어느 하나로 저장함으로써 오디오 신호에 적용된다. 지연 D는 모듈(300)에서 오디오 신호에 적용된다. 본 발명의 변동에 따르 면, 지연은 디코더에 제공된 A/V 동기화 모듈(202)의 오디오 신호에 직접 적용된다. 디코더는 오디오 지연 모듈(300) 또는 디코더(202)의 A/V 동기화 모듈에서 적절한 지연값 D를 적용하여 비디오 프로세스에 의해 유도된 지연 및/또는 스크린(210 320)의 타입으로 인한 지연을 보상하는 기능을 담당한다.
본 발명에 따르면, 텔레비전(21 또는 32)에 의해 유도된 지연 D는 입력 비디오의 포맷에 따라 가변될 수 있고, 그 관리는 모듈(301)에 의해 처리된다. 그러므로 이러한 지연이 비디오 포맷에 좌우되는 경우에 비디오 포맷이 변경될 때마다, 새로운 지연값 D가 오디오 지연 모듈(300) 또는 디코더(202)의 A/V 동기화 모듈 내에서 프로그래밍될 수 있다. 이러한 지연은 Dx로 지칭되고, x는 지연이 연관된 비디오 포맷이다. 프로그래밍된 지연값은 입력 비디오 포맷과 무관하게 동작하는 전체값 D일 수 있다.
그러므로 제안된 솔루션은 예를 들면, 다른 비디오 포맷에 대해 지연 Dx, 또는 심지어 입력 비디오 포맷과 무관한 전체 지연 D를 나타내는 파라미터로 HDMI/DVI 제어 프로토콜을 향상시키는 데 있다. 이들 프로토콜은 스크린이 그 특성 및 성능에 관한 디코더 정보를 공유할 수 있게 한다. 이들 프로토콜에 따르면, 비디오 소스는 DDC 채널(221)을 이용하여 텔레비전(31, 32)에 배치된 비휘발성 메모리(213)를 판독함으로써 예를 들면, 해상도, 동기화 신호의 극성 및 색채 데이터를 확인한다. 이러한 데이터는 문서 EIA/CEA-861B에 정의된 EDID 디스크립터를 이용하여 표현된다. 이들은 스크린 제조자에 의해 공급되고 EPROM EDID 메모리(213) 에 프로그래밍될 수 있다.
그러므로 본 발명은 텔레비전의 디지털 비디오 처리에 의해 도입된 지연(Ddc), 또는 스크린의 응답 시간에 의해 도입된 지연(De), 또는 양쪽(D 또는 Dx) 중 어느 하나의 텔레비전 정보 특성에 저장하도록 이미 표준화된 것들과는 다른 EDID 정보 디스크립터를 추가하는 데 있다. 본 발명에 따라 구비된 각 텔레비전(21 또는 32)에 대한 지연 정보는 텔레비전(213)의 비휘발성 메모리에 저장된다. 이러한 정보는 이전에 설명된 4개의 비디오 포맷(50Hz 인터레이싱 입력, 50Hz 순차형 입력, 60Hz 인터레이싱 입력, 60Hz 순차형 입력)에 대응하는 4가지 지연 Dx를 포함할 수 있다. 다른 비디오 포맷과 관련한 지연을 저장하는 것이 또한 생각될 수 있다.
본 발명에 따르면, 디코더는 A/V 동기화 모듈(202) 또는 지연 모듈(300)이 오디오 및 비디오 스트림을 동기화하기 위해 이들 값을 복원시킨다. 지연 Ddc 및 De에 관한 정보는 텔레비전(21 또는 32)의 제조자에 의해 공급될 수 있고, 텔레비전(21, 32)에 의해 디코더(20)에 전자 형태로 송신될 수 있다. 전체 지연 정보 D 또는 Dx는 디코더 상의 스위칭시 전달되어야 한다. 이러한 정보는 선택적으로, 필요한 경우 또는 디코더로의 요구시 채널 변경시 전달될 수도 있다.
DDC 채널의 이용에 대한 다른 솔루션은 HDMI에 지정된 CEC(소비자 전자장치 제어) 인터액티브 상호교환 프로토콜을 이용하는 것이다.
도 4는 본 발명의 특정 실시예를 예시하고 있다. 디코더(20)는 도 2에 도시된 것과 동일하므로, 더 이상 설명하지 않을 것이다. 텔레비전(41)은 동일한 참조부호가 주어진 텔레비전(21)과 유사한 구성요소를 포함하고, 따라서 더 이상 상세하게 설명하지 않는다. 텔레비전은 또한 지연 De를 추정하기 위한 모듈(410)을 포함한다. 실제로, 스크린 타입에 따라 시간상으로 가변되는 지연을 도입시키는 텔레비전에 대해, 이러한 지연은 반드시 추정되어야 한다. 이러한 추정된 지연 De는 다양한 비디오 프로세스(예를 들면, 디인터레이싱)에 의해 유도된 지연 Ddc에 부가된다. 전체 지연 D의 값이 EPROM EDID 메모리(411)에 저장되어 디코더(20)에 배치된 A/V 동기화 모듈(202) 또는 지연 모듈(300)에 의해 이용된다. 그러므로 이러한 지연은 오디오 및 비디오 스트림을 동기화시키기 위해 DDC 링크(221)를 통해 디코더에 의해 복원된다. 다른 지연(Ddc 및 De)을 EPROM EDID 메모리에 분리하여 저장하는 것도 고안될 수 있고, 이들 다른 지연은 DDC 링크(221)를 통해 디코더에 의해 복원된다. 스크린 타입으로 인해 가변 지연 De를 추정하기 위해, 문서의 나중에 설명되는 추정 방법은 액정 표시 스크린에 이용될 수 있다.
도 5에 표현된 다른 실시예에서, 스크린에 링크된 지연 De는 디코더(50)의 처리 유닛에 배치된 추정 모듈(500)에서 추정된다. 이전 도면과 유사한 구성요소들은 동일한 참조부호가 주어지고 더 이상 설명하지 않는다. 본 발명에 따르면, 지연을 추정하는데 필요한 데이터를 스크린의 EPROM EDID 메모리에 저장하기 위한 디스크립터를 정의하는 것으로 제안된다(예를 들면, 액정 공급자에 의해 공급되고 도 8에 예시되어 있는 차트). 그리고나서, 이러한 데이터는 모듈(500) 내의 평균 지연을 자체적으로 추정하는 디코더에 의해 링크(221)를 통해 복원된다. 이를 위해, 이는 문서에 나중에 설명되는 추정 방법을 이용할 수 있다.
설명된 솔루션들 중 하나의 장점은 텔레비전과 외부 오디오 출력 디바이스(31, 예를 들면 HiFi 시스템, 홈 시네마 디바이스)를 이용할 때 오디오 및 비디오 스트림을 동기화하는 것이다.
도 6에 예시된 다른 실시예에서, 스크린에 링크된 지연 De는 이전과 같이 텔레비전(61)의 블록(410)에서 추정된다. 그러나 동기화는 텔레비전에서 직접 수행된다. 이 경우에, 텔레비전의 메모리(610)는 오디오 데이터를 버퍼링하고, 이를 평균 지연에 따라 사용자에게 복원시키는 데 이용될 수 있다. 평균 지연을 추정하는 방법이 이하에 설명된다.
도 7은 액정 스크린에 대한 지연 De를 추정하기 위한 본 발명에 따른 디바이스를 예시하고 있다. 디바이스는 프레임 메모리(71) 및 지연 계산 모듈(70)을 포함한다. 프레임 메모리(71)는 입력 비디오(비디오 tN)를 하나의 프레임(비디오 tN -1)만큼 지연시키는 데 이용된다. 디바이스(7)는 향상 디바이스의 프레임 메모리(71)를 이용한다. 지연 계산 모듈(70)은 각 픽셀에 대해, 2개의 연속하는 프레임간의 그레이 레벨의 차이를 계산한다. 그리고나서, 이러한 모듈은 액정 제조자에 의해 공급된 차트(도 8)를 이용한다. 이들 차트는 다른 그레이 레벨 변이에 대 한 응답 시간을 제공한다. 그러므로 이들은 각 픽셀에 대해 2개의 프레임 간의 응답 시간을 추정하는 데 이용될 수 있다. 모든 픽셀에 대한 히스토그램을 구성함으로써, A/V 동기화 디바이스에 의해 이용되는 평균 지연 De가 추정된다(예를 들면, 주어진 응답 시간을 가지는 픽셀의 개수를 고려하는 가중 평균을 계산함으로써). 지연 De의 추정이 디코더(도 5)에서 수행되는 경우에, 이들 차트가 EPROM EDID 메모리에 저장되고 DDC 링크(221)를 통해 디코더에 의해 복원될 수 있다. 이 경우에, 지연 추정 디바이스(7)는 링크(72)를 통해 EDID 데이터를 복원시킨다.
이하의 솔루션은 비디오 프로세스 및 스크린에 의해 유도된 지연 파라미터 D를 비디오 소스에 수동으로 또는 반자동으로 알게 하기 위한 다른 실시예를 제안하고 있다. 이들 솔루션은 특히 A/V 소스와 비디오 재생 디바이스 사이에 HDMI 링크가 전혀 없는 경우에 이용된다.
도 9는 사용자가 메뉴를 이용하여 지연 파라미터를 경험적으로 선택할 수 있도록 하는 수동 튜닝 방법을 예시하고 있다. 선택 디바이스는 도 11에 도시되어 있다. 이러한 방법은 어떠한 지연 정보도 제조자에 의해 공급되지 않는 경우에 유용하다. 이 경우에, 디코더(110)는 사용자가 지연 D를 수동으로 그리고 미세하게 동기화시킬 수 있는 A/V 시퀀스를 생성한다. 본 발명에 따르면, 단계 91에서, 디코더(110)는 적절한 비디오 포맷(X로 지칭됨, 예를 들면, 50Hz 인터레이싱됨)으로 스위칭한다. 단계 92에서, 사용자(115)는 이러한 포맷에 대한 메뉴로부터 지연값 Dx를 선택한다. 값은 디코더(300)의 오디오 지연 모듈 또는 A/V 동기화 모듈(202) 에 프로그래밍된다. 단계 93에서, 디코더는 선택된 지연값을 이용하여 동기화된 A/V 시퀀스(111)를 전송한다. 그리고나서, 비디오가 스크린(112) 상에 표시된다. 동기화된 오디오 신호는 오디오 증폭기(113)에 의해 증폭되어, 스피커(114)를 이용하여 재생된다. 사용자는 스크린(112)을 보고 스피커(114)에 의해 생성된 소리를 들음으로써 동기화의 품질을 판단할 수 있다. 단계 94에서, 사용자는 메뉴를 이용하여 동기화가 그에게 충분히 정확한지 여부에 관해 디코더에게 통지한다. 그렇지 않으면, 프로세스는 새로운 지연값 Dx로 반복된다. 동기화가 만족할만한 경우, 선택이 종료되고, Dx의 값이 프로그램가능한 지연 모듈(300) 또는 A/V 동기화 모듈(202)에 저장된다.
이러한 동작은 각각에 대해 오디오 스트림에 적용되어야 하는 지연을 결정하기 위해 임의의 비디오 포맷에 대해 반복될 수 있다. 이러한 방법은 도 10에 예시되어 있다. 단계 101, 102, 103 및 104에서 각각 결정된 지연 D25I(50Hz 인터레이싱된 비디오 포맷과 관련됨), D50P(50Hz 순차형 비디오 포맷과 연관됨), D30I(60Hz 인터레이싱된 비디오 포맷과 관련됨), 및 D60P(60Hz 순차형 비디오 포맷과 관련됨)는 도 9에 기재된 방법에 따라 선택된다.
다른 실시예에 따르면, 지연이 예를 들면, 제조자에 의해 공급되는 것으로, 사용자는 메뉴를 이용하여, 예를 들면 다른 비디오 포맷에 대해 디코더의 지연 모듈(300) 또는 A/V 동기화 모듈(202)에 적용되는 지연값 Dx를 수동으로 입력한다. 이들 값은 예를 들면, 디지털 서비스 디바이스를 설치할 때 입력될 수 있다.
도 12에 예시된 다른 디바이스에 따르면, 프로브(122)는 스크린 상에 표시된 것의 특성을 검출하고 이러한 정보를 디코더에 리턴하기 위해 스크린에 이용되고 고정된다. 지연 D를 추정하는 그러한 반자동 방법은 도 13에 예시되어 있다.
이러한 방법에 따르면, 디코더(120)는 블랙 이미지 열(130, 즉, 낮은 그레이 레벨), 그리고나서 하나의 화이트 이미지(131, 즉 높은 그레이 레벨) 및 다시 블랙 이미지 열(132)을 생성하고, 디코더는 이를 텔레비전(121)에 전송한다. 그리고나서, 제1 블랙 이미지 열이 스크린 상에 표시되고(133), 이어서 화이트 이미지가 표시되며(134), 마지막으로 제2 블랙 이미지 열이 표시된다(135). 프로브(122)는 스크린 상에서 화이트 이미지를 검출하고, 순간 메시지를 디코더(120)에 전송하여 이를 이러한 화이트 이미지의 디스플레이(134)에 통지한다. 디코더(120)는 화이트 이미지가 디코더에 의해 전송되었던 순간(138)과 텔레비전(121)의 스크린 상에 표시되었던 순간(139) 사이에 경과된 시간을 계산한다. 프로브(122)는 통상 광 세기에 민감하고 스크린에 대해, 예를 들면 스크린의 최상부 좌측 코너에 또는 스크린의 중앙에 배치될 수 있는 디바이스이다. 더구나, 이는 스크린의 제한된 영역에 걸쳐 광 세기를 즉시 평가할 수 있다. 프로브(122)는 2개의 로직 상태를 가지고 있다. 이는 검출된 광 세기 레벨이 특정 임계 이하인 경우에 제1 상태(136)에 있고(즉, 제1 블랙 이미지 열을 표시할 때), 레벨이 특정 임계 이상일 때 제2 상태(137)에 있다(즉, 제1 화이트 이미지 열을 표시할 때). 임계는 블랙 이미지가 표시될 때, 프로브가 제1 상태에 있고 화이트 이미지가 표시되는 경우에는 프로브가 제2 상태에 있도록 결정된다. 블랙 이미지는 낮은 광 세기의 이미지로 대체될 수 있고, 화이트 이미지는 높은 세기의 이미지로 대체될 수 있다. 필요한 모든 것은 프로브가 하나로부터 다른 하나로의 변이를 검출할 수 있는 것이다. 그 논리 상태는 2개의 값을 가지는 전기 신호로 변환될 수 있다. 그리고나서, 이러한 신호는 디코더에 의해 복원될 수 있다. 디코더는 화이트 이미지가 스크린에 전송되기 시작하는 시간(138)을 저장하고, 프로브가 제1 상태로부터 제2 상태로의 변이를 검출하는 시간(139)을 저장한다. 이들 2개의 시간 마커 간의 차이 D(140)는 비디오 프로세스 및 스크린에 의해 유도되는 지연을 나타낸다. 이러한 동작은 모든 비디오 포맷에 대해 지연 세트 Dx를 얻기 위해 다양한 비디오 포맷에 대해 반복될 수 있다. 이러한 방법은 어떠한 메뉴가 이용되지 않더라도, 사용자가 프로브를 디코더에 접속하고, 이를 스크린에 적용하며 프로세스를 수동으로 시작하므로 반자동이다.
또한, 이러한 스크린 상의 어디엔가 표시된 블랙 정사각형을 가지는 블루 스크린을 가지는 것을 고안할 수 있다. 프로브(122)가 블랙 정사각형 상에 배치된 상태에서, 화이트는 프로브가 광 세기의 변경을 검출하기 위해 블랙 정사각형에 전송된다. 스크린 상에서 프로브의 위치를 알고 있다는 것은 지연이 모든 픽셀을 동시에 재생하지 못하는 스크린에 대해 더 정확하게 측정될 수 있다는 것을 의미한다(예를 들면, 스캐닝 스크린에 대함).
본 발명의 다른 애플리케이션이 도 14에 개시되어 있다. 도 2 및 3에 공통인 구성요소들에는 동일한 참조부호가 주어지고 더 이상 기술되지 않는다. 디코 더(140)는 추가적인 프로그램가능한 오디오 지연 모듈(141)을 포함한다. 이러한 제2 모듈은 동일한 재생 디바이스(142, 예를 들면, 텔레비전)에 의해 재생될 오디오 및 비디오 스트림을 동기화하는 데 이용된다. 이러한 텔레비전(142)은 비디오 상의 지연 Ddc를 유도하는 비디오 처리 모듈(320)을 포함한다. 이는 오디오 스트림 상에서 지연 Dta를 유도하는 오디오 처리 모듈(144)을 포함한다. 이러한 모듈은 텔레비전에 내장된 스피커(151)에 접속된다. 내장 스피커(151) 및 스크린(321)에 의해 재생된 오디오 및 비디오 스트림이 동기화되기 위해서는, 제2 프로그램가능한 오디오 지연 모듈(141)이 디코더로부터 출력된 오디오 스트림에 지연(Ddc-Dta)을 적용한다. 이러한 예에서, 비디오 포맷에 좌우되는 재생 디바이스에 의해 도입된 비디오 지연 Ddc에 관련된 4개의 파라미터를 EDID 테이블에 추가하는 것으로 제안된다.
○ 50Hz 인터레이싱된 입력
○ 50Hz 순차형 입력
○ 60Hz 인터레이싱된 입력
○ 60Hz 순차형 입력
상기 4개의 비디오 포맷에 대한 오디오 처리 시스템에 의해 도입된 지연 Dta에 관련된 4개의 파라미터들이 추가된다. 지연값들은 0 내지 255밀리초로 가변되는 지연값을 나타내기 위해 1 바이트 상으로 인코딩될 수 있다. 그러므로 오디오 스트림이 외부 디바이스(31, 예를 들면 SPDIF)에 의해 재생되는 경우, 소스는 디코더(201)의 출력에서 지연 Ddc(모듈(300))를 오디오 스트림에 적용한다. 오디오 스트림이 HDMI 재생 디바이스(예를 들면, 텔레비전(142))에 의해 재생되는 경우에, 소스(140)는 상기 HDMI 디바이스(142)의 다른 처리 시스템에 의해 도입되는 비디오 및 오디오 지연을 나타내는 지연(Ddc-Dta)을 모듈(141)을 통해 이것에 적용한다.
다른 애플리케이션은 도 15에 예시되어 있다. 도 2 및 3과 공통인 구성요소들에는 동일한 참조부호가 제공되고 더 이상 설명되지 않을 것이다. 디코더(150)는 2개의 다른 방에 위치한 2개의 텔레비전(152, 155)에 접속된다. 텔레비전(152)은 오디오 출력(예를 들면, SPDIF 인터페이스를 통함)을 위한 홈 시네마 타입 디바이스(31)에 링크된다. 주로 스크린(157)을 포함하고 다른 방에 위치한 텔레비전(155)은 링크(162, 예를 들면, 스카트(scart) 또는 아날로그 RF)를 통해 함께 오디오 및 비디오 스트림을 수신한다. 텔레비전(152)은 지연 Ddc를 도입시키는 비디오 처리 모듈(153) 및 스크린(154)을 포함한다. 텔레비전(155)에 대해, 이는 그것에 함께 송신되는 오디오 및 비디오 스트림의 동기화를 유지한다. 본 발명에 따르면, 비디오 출력들 중 임의의 하나와 동기화되는 하나의 오디오 출력을 가지는 디바이스가 제안된다. 본 발명에 따른 솔루션은 도 3을 참조하여 이미 설명된 바와 같이, 디코더에서 오디오 스트림을 제1 비디오 출력(158)과 동기화시키는 데 있다(즉, 보상 지연을 오디오에 적용함으로써). 제2 비디오 출력(159)이 오디오 출력(160)과 동기화되도록 하기 위해 오디오 출력에 관해 제2 비디오 출력(159)에 동 일한 지연 D=Ddc를 적용하는 제2 프로그램가능한 지연 모듈(161)이 추가된다. 특히, 이러한 솔루션은 이것과 동일한 텔레비전의 오디오 출력을 가지는 다른 방에서 제2 텔레비전(155)을 이용할 수 있게 하고, 양쪽 비디오 출력(158, 159)으로 동작하는 단지 하나의 동일한 오디오 출력(160)을 가질 수 있게 한다.
DVI 및 HDMI 통신 프로토콜의 컨텍스트로 설명된 본 발명은 그러한 지연 데이터 또는 디코더에서 지연을 계산하기 위한 데이터(예를 들면, 차트)를 교환하는 것을 허용하는 경우라면, 장래에 개발되는 임의의 제어 프로토콜까지 확장될 수 있다.
본 발명은 스크린이 지연을 도입시키는데 반해 디지털 서비스의 오디오 부분은 순간적인 프로세스와 연관되는 경우에, 디지털 서비스의 오디오 및 비디오 스트림의 동기화의 컨텍스트로 공개되고 있다. 이는 임의의 디지털 서비스를 재생하기 위한 임의의 타입의 디바이스에 일반적으로 적용될 수 있고, 상기 서비스는 다른 재생 디바이스에 의해 처리되는 다른 부분으로 분리되며, 이들 각각은 처리하는 서비스의 부분에 특정 지연을 적용한다. 이 경우에, 재생 디바이스의 특정 지연을 소스 디바이스에 통신하는 성능은 재생 디바이스가 완전한 서비스의 양호한 재생을 위해 이들 간의 디지털 서비스의 모든 부분을 동기화할 수 있게 한다.

Claims (23)

  1. 디지털 서비스 소스 디바이스로부터 비롯되는 적어도 하나의 디지털 서비스에 대응하는 데이터(21,32,41,51,61,142,152) 중 적어도 하나의 부분을 재생하기 위한 디바이스로서,
    상기 디지털 서비스의 제1 부분을 형성하는 제1 데이터를 수신하기 위한 제1 수신 수단과,
    상기 수신된 제1 데이터를 처리하기 위한 제1 처리 수단(210, 320,153)과,
    상기 처리된 제1 데이터의 출력을 재생하기 위한 제1 재생 수단(211,321,154)
    을 포함하며,
    상기 수신된 제1 데이터를 처리 및 재생 중 적어도 하나를 하기 위한 시간은 상기 재생된 제1 데이터의 출력에 제1 지연이라 지칭되는 지연을 도입하고,
    상기 재생 디바이스는 또한, 상기 소스 디바이스에 상기 제1 지연을 통지하기 위한 통신 수단(213,221,341)을 포함하고,
    상기 재생 디바이스는 또한, 상기 디지털 서비스의 제2 부분을 형성하는 제2 데이터를 수신하기 위한 제2 수신 수단과, 상기 수신된 제2 데이터를 처리하기 위한 제2 처리 수단(144)과, 상기 처리된 제2 데이터의 출력을 재생하기 위한 제2 재생 수단(151)을 포함하고,
    상기 제2 데이터를 처리 및 재생 중 적어도 하나를 하기 위한 시간은 상기 재생된 제2 데이터의 출력에 제2 지연이라 지칭되는 지연을 도입하고,
    상기 통신 수단(213,221,341)은 또한 상기 소스 디바이스에 상기 제2 지연을 통지하는 데이터 재생 디바이스.
  2. 제1항에 있어서,
    상기 재생 디바이스는 또한, 상기 제1 지연의 적어도 하나의 사전정의된 값 및 상기 제2 지연의 적어도 하나의 사전정의된 값을 저장하기 위한 저장 유닛을 포함하는 데이터 재생 디바이스.
  3. 제2항에 있어서,
    상기 저장 유닛은 확장형 표시 식별 데이터(Extended Display Identification Data)를 이용하여 상기 제1 지연 및 제2 지연을 저장하는 데이터 재생 디바이스.
  4. 디지털 서비스 소스(20, 30, 50, 140, 150)로서 동작하는 디바이스로서,
    제1 데이터라 지칭되는, 디지털 서비스의 제1 부분을 형성하는 데이터를 출력하기 위한 제1 수단(200)과,
    제2 데이터라 지칭되는, 디지털 서비스의 제2 부분을 형성하는 데이터를 출력하기 위한 제2 수단(201)
    을 포함하고,
    적어도 상기 제1 데이터를 재생하기 위한 디바이스로부터 상기 제1 데이터와 관련된 제1 지연 표시(indication)를 복원하기 위한 수단(302)과, 복원된 상기 제1 지연 표시에 따라 상기 디지털 서비스의 제2 부분을 형성하는 출력 데이터에 프로그램가능한 지연을 적용하기 위한 지연 수단(202,300,150)을 또한 포함하고,
    상기 제1 지연 표시를 복원하기 위한 수단(302)은 또한, 상기 재생 디바이스로부터 상기 제2 데이터와 관련된 제2 지연 표시를 복원하고, 상기 지연 수단(202,300,150)은 또한, 복원된 상기 제1 및 제2 지연 표시에 따라 상기 디지털 서비스의 제2 부분을 형성하는 출력 데이터에 프로그램가능한 지연을 적용하는, 디지털 서비스 소스로서 동작하는 디바이스.
  5. 제4항에 있어서,
    상기 지연 수단(202,300,150)은 상기 디지털 서비스의 제2 부분을 형성하는 출력 데이터에, 복원된 상기 제1 지연 표시와 수신된 상기 제2 지연 표시 간의 차와 동일한 프로그램가능한 지연을 적용하는, 디지털 서비스 소스로서 동작하는 디바이스.
  6. 제4항 또는 제5항에 있어서,
    상기 디지털 서비스의 제1 부분을 형성하는 데이터는 비디오 데이터이고, 상기 디지털 서비스의 제2 부분을 형성하는 데이터는 오디오 데이터인, 디지털 서비스 소스로서 동작하는 디바이스.
  7. 제4항 또는 제5항에 있어서,
    상기 지연 수단은 상기 디지털 서비스의 제2 부분을 형성하는 상기 출력 데이터를 복원하기 전에 상기 프로그램가능한 지연에 따라 상기 디지털 서비스의 제2 부분을 형성하는 상기 출력 데이터를 일시적으로 저장하는 메모리를 포함하는, 디지털 서비스 소스로서 동작하는 디바이스.
  8. 적어도 하나의 디지털 서비스에 대응하는 데이터의 적어도 한 부분을 재생하기 위한 방법으로서,
    디지털 서비스 소스 디바이스로부터 비롯되는 디지털 서비스의 제1 부분을 형성하는 제1 데이터를 수신하는 단계와,
    상기 수신된 제1 데이터를 처리하는 단계와,
    상기 처리된 제1 데이터의 출력을 재생하는 단계
    를 포함하고,
    상기 수신된 제1 데이터를 처리 및 재생 중 적어도 하나를 하기 위한 시간은 상기 재생된 제1 데이터의 출력에 제1 지연이라 지칭되는 지연을 도입하고,
    상기 재생 방법은,
    상기 디지털 서비스의 제2 부분을 형성하는 제2 데이터를 수신하는 단계와,
    상기 수신된 제2 데이터를 처리하는 단계와,
    상기 처리된 제2 데이터의 출력을 재생하는 단계 - 상기 수신된 제2 데이터를 처리 및 재생 중 적어도 하나를 하기 위한 시간은 상기 재생된 제2 데이터의 출력에 제2 지연이라 지칭되는 지연을 도입함 -, 및
    상기 소스 디바이스에 상기 제1 지연 및 상기 제2 지연을 통지하는 단계
    를 더 포함하는 것을 특징으로 하는, 데이터 재생 방법.
  9. 제8항에 있어서,
    상기 제1 지연은 시간에 따라 변하는 데이터 재생 방법.
  10. 적어도 하나의 디지털 서비스에 대응하는 데이터를 전송하기 위한 방법으로서,
    제1 데이터라 지칭되는, 상기 디지털 서비스의 제1 부분을 형성하는 데이터를 출력하는 단계와,
    제2 데이터라 지칭되는, 상기 디지털 서비스의 제2 부분을 형성하는 데이터를 출력하는 단계
    를 포함하고,
    상기 방법은,
    상기 제1 데이터를 처리 및 재생 중 적어도 하나를 할 때 도입되는 지연과 관련된 제1 지연 표시를 복원하는 단계와,
    상기 제2 데이터를 처리 및 재생 중 적어도 하나를 할 때 도입되는 지연과 관련된 제2 지연 표시를 복원하는 단계와,
    상기 복원된 제1 및 제2 지연 표시들에 따라 상기 디지털 서비스의 제2 부분을 형성하는 상기 출력 데이터에 프로그램가능한 지연을 적용하는 단계
    를 더 포함하는 것을 특징으로 하는, 데이터 전송 방법.
  11. 제10항에 있어서,
    상기 프로그램가능한 지연은 상기 복원된 제1 지연 표시 및 상기 복원된 제2 지연 표시간의 차이와 동일한, 데이터 전송 방법.
  12. 제10항 또는 제11항에 있어서,
    상기 제1 지연은 시간에 따라 변하는 데이터 전송 방법.
  13. 제6항에 있어서,
    상기 지연 수단은 상기 디지털 서비스의 제2 부분을 형성하는 상기 출력 데이터를 복원하기 전에 상기 프로그램가능한 지연에 따라 상기 디지털 서비스의 제2 부분을 형성하는 상기 출력 데이터를 일시적으로 저장하는 메모리를 포함하는, 디지털 서비스 소스로서 동작하는 디바이스.
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
KR1020077011016A 2004-11-16 2005-11-08 디지털 서비스의 다른 부분을 동기화하기 위한 디바이스 및방법 KR101291933B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
EP04292712.9 2004-11-16
FR0412169 2004-11-16
FR0412169 2004-11-16
EP04292712 2004-11-16
EP05100072.7 2005-01-07
EP05100072A EP1657929A1 (fr) 2004-11-16 2005-01-07 Dispositif et méthode de synchronisation de différentes parties d'un service numérique
PCT/EP2005/055829 WO2006053847A1 (en) 2004-11-16 2005-11-08 Device and method for synchronizing different parts of a digital service

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020127018644A Division KR101287728B1 (ko) 2004-11-16 2005-11-08 디지털 서비스에 대응하는 데이터를 재생 및 전송하기 위한 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20070084235A KR20070084235A (ko) 2007-08-24
KR101291933B1 true KR101291933B1 (ko) 2013-07-31

Family

ID=35708683

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020127018644A KR101287728B1 (ko) 2004-11-16 2005-11-08 디지털 서비스에 대응하는 데이터를 재생 및 전송하기 위한 장치 및 방법
KR1020077011016A KR101291933B1 (ko) 2004-11-16 2005-11-08 디지털 서비스의 다른 부분을 동기화하기 위한 디바이스 및방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020127018644A KR101287728B1 (ko) 2004-11-16 2005-11-08 디지털 서비스에 대응하는 데이터를 재생 및 전송하기 위한 장치 및 방법

Country Status (7)

Country Link
US (4) US8606070B2 (ko)
EP (2) EP1657929A1 (ko)
JP (4) JP5384006B2 (ko)
KR (2) KR101287728B1 (ko)
CN (2) CN101088292B (ko)
ES (1) ES2719735T3 (ko)
WO (1) WO2006053847A1 (ko)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10848118B2 (en) 2004-08-10 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
US8284955B2 (en) 2006-02-07 2012-10-09 Bongiovi Acoustics Llc System and method for digital signal processing
US9413321B2 (en) 2004-08-10 2016-08-09 Bongiovi Acoustics Llc System and method for digital signal processing
US10158337B2 (en) 2004-08-10 2018-12-18 Bongiovi Acoustics Llc System and method for digital signal processing
US11431312B2 (en) 2004-08-10 2022-08-30 Bongiovi Acoustics Llc System and method for digital signal processing
US9281794B1 (en) 2004-08-10 2016-03-08 Bongiovi Acoustics Llc. System and method for digital signal processing
EP1657929A1 (fr) * 2004-11-16 2006-05-17 Thomson Licensing Dispositif et méthode de synchronisation de différentes parties d'un service numérique
US8451375B2 (en) * 2005-04-28 2013-05-28 Panasonic Corporation Lip-sync correcting device and lip-sync correcting method
US10069471B2 (en) 2006-02-07 2018-09-04 Bongiovi Acoustics Llc System and method for digital signal processing
US9615189B2 (en) 2014-08-08 2017-04-04 Bongiovi Acoustics Llc Artificial ear apparatus and associated methods for generating a head related audio transfer function
US11202161B2 (en) 2006-02-07 2021-12-14 Bongiovi Acoustics Llc System, method, and apparatus for generating and digitally processing a head related audio transfer function
US10848867B2 (en) 2006-02-07 2020-11-24 Bongiovi Acoustics Llc System and method for digital signal processing
US9195433B2 (en) 2006-02-07 2015-11-24 Bongiovi Acoustics Llc In-line signal processor
US9348904B2 (en) 2006-02-07 2016-05-24 Bongiovi Acoustics Llc. System and method for digital signal processing
US10701505B2 (en) 2006-02-07 2020-06-30 Bongiovi Acoustics Llc. System, method, and apparatus for generating and digitally processing a head related audio transfer function
JP4575324B2 (ja) * 2006-03-29 2010-11-04 株式会社東芝 Av装置及びその制御方法
EP2071849A4 (en) * 2006-11-07 2010-08-04 Sony Corp RECEIVER, DELAYED INFORMATION PROCESS FOR RECEIVERS, AUDIO OUTPUT DEVICE AND DELAY CONTROL PROCEDURE FOR AUDIO OUTPUT DEVICES
KR101306706B1 (ko) * 2006-11-09 2013-09-11 엘지전자 주식회사 디지털 티브이와 연결된 외부기기 자동 설정 장치 및 방법
JP4360400B2 (ja) * 2006-12-05 2009-11-11 セイコーエプソン株式会社 コンテンツ再生システムおよびこれに用いられる再生装置、並びにコンテンツ再生方法
JP4814803B2 (ja) * 2007-01-12 2011-11-16 富士通株式会社 コンピュータと家電によるリモコン信号を用いた双方向制御装置
KR101416249B1 (ko) * 2007-08-01 2014-07-07 삼성전자 주식회사 신호처리장치 및 그 제어방법
CN101803390A (zh) * 2007-09-21 2010-08-11 汤姆森特许公司 对用户可观察信号进行同步的设备和方法
JP5242111B2 (ja) * 2007-10-02 2013-07-24 株式会社ソニー・コンピュータエンタテインメント 送信装置、画像データ送信方法、受信装置および受信装置における画像表示方法
JP2009124223A (ja) * 2007-11-12 2009-06-04 Sharp Corp Avシステム
KR101450100B1 (ko) 2007-11-22 2014-10-15 삼성전자주식회사 멀티미디어기기 및 그의 동기설정방법
KR20080011457A (ko) 2008-01-15 2008-02-04 주식회사 엔터기술 음성 또는 영상신호의 딜레이 컨트롤 기능을 가지는노래반주기 및 그의 컨트롤 방법
US8947870B2 (en) 2008-03-17 2015-02-03 Cby Holdings, Llc Sliding and rotating apparatus and device having same
US8692937B2 (en) * 2010-02-25 2014-04-08 Silicon Image, Inc. Video frame synchronization
CN102413335A (zh) * 2010-09-20 2012-04-11 深圳Tcl新技术有限公司 一种手动调节节目音画同步的装置及方法
WO2012047304A1 (en) * 2010-10-04 2012-04-12 Vidyo, Inc. Delay aware rate control in the context of hierarchical p picture coding
JP2012119924A (ja) * 2010-11-30 2012-06-21 Toshiba Corp 映像表示装置及び映像表示方法、音声再生装置及び音声再生方法、映像音声同期制御システム
JP5768383B2 (ja) * 2011-01-24 2015-08-26 セイコーエプソン株式会社 画像表示装置および画像表示方法
US8913104B2 (en) * 2011-05-24 2014-12-16 Bose Corporation Audio synchronization for two dimensional and three dimensional video signals
EP2880867B1 (en) * 2012-08-01 2018-06-13 Thomson Licensing Method and apparatus for adapting audio delays to picture frame rates
EP2891315B1 (en) * 2012-08-28 2018-05-30 Koninklijke Philips N.V. Audio forwarding device and corresponding method.
US9344828B2 (en) 2012-12-21 2016-05-17 Bongiovi Acoustics Llc. System and method for digital signal processing
DE102013200171A1 (de) * 2013-01-09 2014-07-10 Lufthansa Technik Ag Datennetzwerk, Verfahren sowie Abspielgerät zur Wiedergabe von Audio- und Videodaten in einem In-flight Entertainment System
US9883318B2 (en) 2013-06-12 2018-01-30 Bongiovi Acoustics Llc System and method for stereo field enhancement in two-channel audio systems
US9398394B2 (en) 2013-06-12 2016-07-19 Bongiovi Acoustics Llc System and method for stereo field enhancement in two-channel audio systems
US9264004B2 (en) 2013-06-12 2016-02-16 Bongiovi Acoustics Llc System and method for narrow bandwidth digital signal processing
US9397629B2 (en) 2013-10-22 2016-07-19 Bongiovi Acoustics Llc System and method for digital signal processing
US9906858B2 (en) 2013-10-22 2018-02-27 Bongiovi Acoustics Llc System and method for digital signal processing
US20150146099A1 (en) * 2013-11-25 2015-05-28 Anthony Bongiovi In-line signal processor
US10820883B2 (en) 2014-04-16 2020-11-03 Bongiovi Acoustics Llc Noise reduction assembly for auscultation of a body
US9615813B2 (en) 2014-04-16 2017-04-11 Bongiovi Acoustics Llc. Device for wide-band auscultation
US10639000B2 (en) 2014-04-16 2020-05-05 Bongiovi Acoustics Llc Device for wide-band auscultation
WO2015187631A1 (en) 2014-06-02 2015-12-10 Tethis, Inc. Modified biopolymers and methods of producing and using the same
US9811459B1 (en) * 2014-06-16 2017-11-07 Amazon Technologies, Inc. Data storage optimization for non-volatile memory
US9564146B2 (en) 2014-08-01 2017-02-07 Bongiovi Acoustics Llc System and method for digital signal processing in deep diving environment
US9638672B2 (en) 2015-03-06 2017-05-02 Bongiovi Acoustics Llc System and method for acquiring acoustic information from a resonating body
CN104902317A (zh) * 2015-05-27 2015-09-09 青岛海信电器股份有限公司 音视频同步方法及装置
JP2017063392A (ja) * 2015-09-25 2017-03-30 ブラザー工業株式会社 映像処理装置及び映像処理システム
JP6632864B2 (ja) * 2015-10-27 2020-01-22 シナプティクス・ジャパン合同会社 表示ドライバ及び表示装置
JP2018537910A (ja) 2015-11-16 2018-12-20 ボンジョビ アコースティックス リミテッド ライアビリティー カンパニー 表面音響変換器
US9621994B1 (en) 2015-11-16 2017-04-11 Bongiovi Acoustics Llc Surface acoustic transducer
WO2017091463A1 (en) 2015-11-23 2017-06-01 Tethis, Inc. Coated particles and methods of making and using the same
DE102016201680A1 (de) 2016-02-04 2017-08-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum synchronen Wiedergeben von Audiosignalen und Videosignalen
JP2019004401A (ja) * 2017-06-19 2019-01-10 セイコーエプソン株式会社 プロジェクションシステム、プロジェクター及びプロジェクションシステムの制御方法
JP2021521700A (ja) 2018-04-11 2021-08-26 ボンジョビ アコースティックス リミテッド ライアビリティー カンパニー オーディオ強化聴力保護システム
WO2020028833A1 (en) 2018-08-02 2020-02-06 Bongiovi Acoustics Llc System, method, and apparatus for generating and digitally processing a head related audio transfer function
US10834296B2 (en) * 2018-09-12 2020-11-10 Roku, Inc. Dynamically adjusting video to improve synchronization with audio
CN109587546B (zh) * 2018-11-27 2020-09-22 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备和计算机可读介质
CN113439445B (zh) * 2019-02-20 2023-03-28 华为技术有限公司 用于启用超高清联盟指定参考模式(uhda-srm)的技术
US11032447B2 (en) * 2019-07-08 2021-06-08 Sling Media Pvt. Ltd. Method and system for automatically synchronizing audio-video inputs in a multi camera environment
US11323766B2 (en) * 2019-10-03 2022-05-03 Dolby International Ab Method and device for providing audio/video content to a rendering device
KR102618617B1 (ko) * 2021-03-09 2023-12-27 주식회사 케이티 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004077825A1 (ja) 2003-02-27 2004-09-10 Matsushita Electric Industrial Co. Ltd. データ処理装置および方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055247A (en) * 1995-07-13 2000-04-25 Sony Corporation Data transmission method, data transmission apparatus and data transmission system
JPH09128330A (ja) * 1995-11-06 1997-05-16 Sony Corp 映像表示装置
US5570372A (en) * 1995-11-08 1996-10-29 Siemens Rolm Communications Inc. Multimedia communications with system-dependent adaptive delays
JPH113565A (ja) * 1997-06-11 1999-01-06 Hitachi Ltd データ記録再生方法及びその装置
DE19930824C2 (de) * 1999-07-03 2001-05-31 Grundig Ag Bild- und Tonwiedergabegerät und Verfahren für dessen Betrieb
JP2001136138A (ja) 1999-11-05 2001-05-18 Toshiba Corp デジタル映像・デジタル音声伝送方法
GB0000874D0 (en) 2000-01-14 2000-03-08 Koninkl Philips Electronics Nv Latency handling for interconnected devices
US6778493B1 (en) * 2000-02-07 2004-08-17 Sharp Laboratories Of America, Inc. Real-time media content synchronization and transmission in packet network apparatus and method
JP2002290932A (ja) 2001-03-27 2002-10-04 Toshiba Corp デジタル放送受信装置とその制御方法
JP2002344898A (ja) * 2001-05-17 2002-11-29 Pioneer Electronic Corp 映像表示装置、音声調整装置及び映像音声出力装置、並びに映像音声同期方法
FR2850820B1 (fr) * 2003-01-31 2005-06-03 Thomson Licensing Sa Dispositif et procede de synchronisation en lecture de donnees video et de donnees annexes et produits associes
JP2004282667A (ja) 2003-03-19 2004-10-07 Matsushita Electric Ind Co Ltd 再生同期ずれ補正機能を備えた送信機及び受信機、並びにそれらを有する伝送装置
EP1736000A1 (en) * 2004-04-07 2006-12-27 Koninklijke Philips Electronics N.V. Video-audio synchronization
JP4427733B2 (ja) * 2004-07-16 2010-03-10 ソニー株式会社 映像音声処理システム、アンプ装置および音声遅延処置方法
EP1657929A1 (fr) * 2004-11-16 2006-05-17 Thomson Licensing Dispositif et méthode de synchronisation de différentes parties d'un service numérique

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004077825A1 (ja) 2003-02-27 2004-09-10 Matsushita Electric Industrial Co. Ltd. データ処理装置および方法

Also Published As

Publication number Publication date
US20080138032A1 (en) 2008-06-12
CN102291523B (zh) 2015-08-19
US8903217B2 (en) 2014-12-02
US20130242191A1 (en) 2013-09-19
JP2015015745A (ja) 2015-01-22
JP2008521302A (ja) 2008-06-19
KR20120097537A (ko) 2012-09-04
JP2015149752A (ja) 2015-08-20
US9826126B2 (en) 2017-11-21
US20140341525A1 (en) 2014-11-20
ES2719735T3 (es) 2019-07-12
JP2012090271A (ja) 2012-05-10
CN101088292B (zh) 2012-02-08
US8606070B2 (en) 2013-12-10
US20170064155A1 (en) 2017-03-02
EP1813116A1 (en) 2007-08-01
US9509887B2 (en) 2016-11-29
EP1657929A1 (fr) 2006-05-17
JP5789797B2 (ja) 2015-10-07
WO2006053847A1 (en) 2006-05-26
CN102291523A (zh) 2011-12-21
KR20070084235A (ko) 2007-08-24
JP5384006B2 (ja) 2014-01-08
JP5806770B2 (ja) 2015-11-10
JP5806785B2 (ja) 2015-11-10
CN101088292A (zh) 2007-12-12
KR101287728B1 (ko) 2013-07-19
EP1813116B1 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
KR101291933B1 (ko) 디지털 서비스의 다른 부분을 동기화하기 위한 디바이스 및방법
JP5983651B2 (ja) 受信装置および受信方法
KR100987995B1 (ko) 전자 기기 및 이의 제어 방법
US8004609B2 (en) Amplifier, correcting method of correcting difference in processing time between video signal and audio signal, and correcting system
US7142245B2 (en) Conversion of frame rate according to image date
US9247289B2 (en) Reproducing apparatus, display apparatus, reproducing method, and display method
US6469744B1 (en) Methods and apparatus for encoding, decoding and displaying images in a manner that produces smooth motion
US20050024534A1 (en) Video signal conversion apparatus
JP4036059B2 (ja) Dvdプレーヤを内蔵した表示装置
KR100487396B1 (ko) 영화 모드를 지원하는 디지털 티브이 시스템 및 영화 모드지원 방법
JP4928666B2 (ja) 24Hzソース・ビデオ表示のためのフォーマット及びフレーム・レート変換
JP2004297823A (ja) 信号伝達システム

Legal Events

Date Code Title Description
A201 Request for examination
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160628

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170704

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180628

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190625

Year of fee payment: 7