KR20150037949A - 화상 프레임 속도에 오디오 지연을 적응시키는 방법 및 장치 - Google Patents

화상 프레임 속도에 오디오 지연을 적응시키는 방법 및 장치 Download PDF

Info

Publication number
KR20150037949A
KR20150037949A KR1020157002605A KR20157002605A KR20150037949A KR 20150037949 A KR20150037949 A KR 20150037949A KR 1020157002605 A KR1020157002605 A KR 1020157002605A KR 20157002605 A KR20157002605 A KR 20157002605A KR 20150037949 A KR20150037949 A KR 20150037949A
Authority
KR
South Korea
Prior art keywords
digital cinema
sound
frame rate
composition
picture
Prior art date
Application number
KR1020157002605A
Other languages
English (en)
Inventor
윌리엄 기븐스 레드만
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20150037949A publication Critical patent/KR20150037949A/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/309Table of contents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B31/00Associated working of cameras or projectors with sound-recording or sound-reproducing means
    • G03B31/02Associated working of cameras or projectors with sound-recording or sound-reproducing means in which sound track is on a moving-picture film
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/802Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving processing of the sound signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

디지털 시네마 컴포지션을 플레이아웃하는 동안 플레이 리스트에서 상이한 프레임 속도로 디지털 시네마 컴포지션에 대하여 사운드 정보를 대응하는 화상 정보와 동기화하기 위해, 플레이 리스트에서 디지털 시네마 컴포지션의 대응하는 화상 정보에 대해 디지털 시네마 컴포지션 프레임 속도에 따라 연관된 오디오 레이턴시 설정이 제일 먼저 수립된다. 대응하는 디지털 시네마 컴포지션 프레임 속도에 대해 연관된 오디오 레이턴시 설정에 따라 디지털 시네마 컴포지션을 플레이아웃하는 동안 사운드 정보와 화상 정보 사이의 타이밍이 이후 조절된다.

Description

화상 프레임 속도에 오디오 지연을 적응시키는 방법 및 장치{METHOD AND APPARATUS FOR ADAPTING AUDIO DELAYS TO PICTURE FRAME RATES}
관련 출원에 대한 상호 참조
본 출원은 개시 내용이 본 명세서에 포함된 2012년 8월 1일에 출원된 미국 가출원 번호 61/678,243의 35 U.S.C. 119(e) 하에서의 우선권을 주장한다.
기술 분야
본 발명은 사운드 (오디오) 정보를 화상 (비디오) 정보에 동기화시키는 기술에 관한 것이다.
전통적으로, 영화 필름(motion picture film)의 촬영과 프리젠테이션은 미국과 캐나다에서는 초당 24 프레임으로 일어나고, 일반적으로 유럽과 아시아에서는 초당 25 프레임으로 일어난다. 2012년 말 워너 브로스(Warner Bros)에서 피터 잭슨(Peter Jackson)이 "The Hobbit"을 출시한 것을 시작으로, 디지털 시네마 상영자(digital cinema exhibitor)는 여러 영화 프레임 속도(frame rate), 예를 들어 48 fps 또는 심지어 60 fps로 디지털 시네마 컴포지션(composition)(즉, 컨텐츠)을 수신하는 가능성에 직면하기 시작하였다. 그러나, 이러한 더 높은 프레임 속도 디지털 시네마 컴포지션에서 대응하는 사운드의 프리젠테이션 속도는 변하지 않는다. 현재, 디지털 극장 시스템(digital theater system)은 초당 48,000 또는 96,000 샘플의 속도로 사운드(sound)(오디오)를 제공한다. 일반적인 디지털 극장 사운드 처리 시스템은 수 샘플 정도의 작은 오디오 레이턴시(latency)를 나타내고, 이 레이턴시는 상수(constant)이거나 또는 상대적으로 상수로 유지된다(즉, 48 KHz와 96 KHz의 샘플 속도에서 디지털 시스템에서의 2개의 샘플 레이턴시 사이의 차이는 초당 1/48000 정도로 유지된다).
디지털 네트워크에서의 패킷 레이턴시도 또한 상대적으로 거의 변치 않았으나, 일반적인 청중 멤버(audience member)는 이러한 레이턴시를 인식하지 못하는데 그 이유는 각 오디오 샘플이 디지털 시네마 컴포지션의 단일 프레임의 지속시간의 1/2000 내지 1/4000에 존재하기 때문이다. 그러나, 대부분의 디지털 시네마 프로젝터(projector)는 신호 처리 파이프라인(pipeline)으로 존재한다. 화상 정보는 프레임 버퍼에 저장하기 위해 픽셀 단위로 프로젝터로 흐른다. 프레임 버퍼에서 픽셀은 프로젝터 설정에 따라 색 보정(color correction) 및/또는 스케일링(scaling) 및/또는 크롭핑(cropping)을 거친다. 마지막으로, 이러한 처리는 디지털 이미지를 디지털 프로젝터에 있는 이미저(imager)를 구동하기에 적절한 형태로 놓는다. 이러한 디지털 시네마 프로젝션(projection)과 연관된 처리는 제1 픽셀이 프로젝터로 전달되는 시간으로부터 이미지가 온스크린에 나타나는 시간까지 (이미지 처리) 레이턴시가 있다는 점에서 결함을 초래한다. 그러나, 대부분의 현대 프로젝터는 이미지 처리를 위해 프레임-버퍼링 파이프라인 아키텍처를 사용하기 때문에, 프로젝터 레이턴시(t화상_레이턴시)는 프레임을 디스플레이하는 속도에 따라 일반적으로 변한다. 이것은, 프레임-버퍼링 파이프라인 아키텍처에서, 이미지 데이터가 여러 처리 단계에 걸쳐 프레임마다 진행하여 프레임이 디스플레이될 때까지 매 프레임 간격마다 하나의 단계씩 처리되기 때문이다. 일반적인 경우에, 개별 프로젝터 또는 프로젝터 모델에서, 상이한 프레임 속도에서 t화상_레이턴시의 값은 경험적으로 측정될 수 있으나, 프레임-버퍼링 파이프라인 아키텍처의 경우에, t화상_레이턴시는 다음 수식으로 표현될 수 있다:
수식 1 : t화상_레이턴시 = t고정 - 프레임/프레임_속도
여기서,
프레임_속도는 프레임이 초당 프레임으로 제공되는 속도이다(이것은 항상 정수인 것은 아니다);
프레임은, 프로젝터의 이미지 처리 아키텍처에서, 완료를 위해 프레임 간격 동안 각각 취할 수 있는 프레임-버퍼링 단계의 수(예를 들어, 2개)이고;
t고정은, 프레임 속도에 따라 변하지 않고 수식 1에서 제2항에 표현되지 않은, 아키텍처에서 발견된 다른 전송, 처리 또는 설정 시간을 나타내는 상수 시간 기간(예를 들어, -5 mS)이다. 본 명세서에서, 화상 지연을 증가시키는 레이턴시는 보다 음(negative)으로 지정하고, 오디오 지연을 증가시키는 레이턴시는 양(positive)으로 지정하는 규약이 사용된다. 이 규약은 또한 상대적으로 적용되는데, 즉 오디오에 대해 화상 지연을 증가시키는 레이턴시는 보다 음으로 적용된다. 본 명세서에서 설명을 위하여 및 가능한 예시적인 레이턴시 값을 용이하게 제공하기 위하여, 및 비 제한적으로, 레이턴시가 수식 1로 결정가능한 프로젝터 아키텍처가 가정된다. 다른 아키텍처에 대해서는, 상이한 수식(도시 생략)이 적용되거나 또는 경험적인 레이턴시 측정이 이루어질 수 있다.
초당 24 프레임의 속도로 t고정(-5 mS)과 상기 프레임(2)의 예시적인 값을 구비하는 디지털 시네마 프로젝터의 예시적인 경우에, 프로젝터는 -0.005 - 2/24 초 또는 -88 1/3 mS의 레이턴시를 초래할 수 있다. 그러나, 초당 48 프레임에서는, 프로젝터는 -0.005 - 2/48 초 또는 -46 2/3 mS의 레이턴시를 초래할 수 있고; 60 fps에서는, 레이턴시는 -0.005 - 2/60 = -38 1/3 mS가 된다. (상기 규약으로부터, 더 적은 음의 값은 화상이 더 적게 지연된다는 것을 의미한다는 것이 주목된다).
디지털 시네마 컴포지션의 프레임 속도는 컴포지션 그 자체 내에 있는 메타데이터에 의해 결정된다. 컴포지션의 이미지 에셋(image asset)이 초당 24 프레임으로 표시되는 경우, 프리젠테이션은 초당 24 프레임으로 이루어진다. 에셋이 초당 48 프레임으로 표시되는 경우, 프리젠테이션은 이 프레임 속도로 이루어진다. 프레임 속도는 컴포지션 내에 있는 메타데이터로 표현되고, 상업적인 디지털 시네마 디바이스는 이 프레임 속도를 변경시키는 옵션을 제공하지 않는다. 디지털 시네마 디바이스가 지정된 프레임 속도에서 컴포지션을 플레이할 수 없는 경우에, 디바이스는 컴포지션을 플레이하는 것을 거부할 수 있다.
디지털 시네마 극장에서 사운드에 대해, 다음 수식으로 표현된 바와 같이 프로젝터의 고유 레이턴시(intrinsic latency)(145)의 일부 또는 전부를 오프셋하는 오디오의 프리젠테이션에서의 레이턴시(t사운드_레이턴시)에 2개의 실질적인 소스가 있다:
수식 2: t사운드_레이턴시 = t오디오_지연 + t비행_시간
여기서,
t비행_시간은 사운드가 스피커로부터 청중 멤버 중 하나의 멤버로 공기를 통해 진행하는 시간이고;
t오디오_지연은 상수이거나 또는 수동으로 또는 자동적으로 조절가능할 수 있는 극장 사운드 프로세서의 특성이다.
오디오 처리, (일부 현대적인 강당에서는 네트워크를 통한) 오디오 신호 전송 및 증폭에 의해 야기된 지연은 이들 다른 값에 비해 작고, 무시되거나 또는 t오디오_지연의 일부로 고려될 수 있다.
공기 속에서 사운드의 속도는 약 1,126 피트/초(이는 온도와 습도에 따라 변함)이므로, 대략적으로 근사(및 약간 과소 평가)하면 사운드는 1 mS에 1 ft를 진행한다. 오디오 신호가 스피커로부터 방사(emitted)된 후, 강당의 자유 공기를 거쳐 청중으로 가는 거리는 사운드 레이턴시의 t비행_시간 부분을 결정하고, 스피커로부터 가장 먼 좌석에 앉아 있는 사람에 최대가 된다.
이상적인 사운드와 화상의 동기화는 화상 레이턴시와 사운드 레이턴시가 정확히 동일하여, 다음 수식에 따라 동기화 에러가 제로일 때 일어난다:
수식 3: t동기_에러 = t사운드_레이턴시 + t화상_레이턴시 + t차동_지연
이 수식 3에 수식 2를 대입하면 다음 수식이 된다:
수식 4:
t동기_에러 = t오디오_지연 + t비행_시간 + t화상_레이턴시 + t차동_지연
여기서,
t동기_에러는 제로일 때 완벽한 사운드와 화상 동기화를 나타내고, 전술한 규약에 따라, 화상이 사운드에 비해 늦은 것을 나타내는 경우 음이고, 사운드가 화상에 비해 늦은 것을 나타내는 경우 양이며;
t차동_지연(본 명세서에서 "차동 레이턴시"라고도 지칭되고 "∂L"로 약칭됨)은 일부 디지털 시네마 미디어 블록에 이용가능한 설정이고, 이 설정을 통해 기술자는 화상이 프로젝터로 송신될 때와 오디오가 극장 오디오 장비로 출력될 때 사이의 상대적인 지연을 변경할 수 있다. 이러한 디지털 시네마 미디어 블록에는 제조사에 의해 변경되는 t차동_지연에 대한 공장 디폴트 값이 공급된다. 일부 제조사는 제로로 설정된 t차동_지연을 시스템에 전달하여, 기술자는 t오디오_지연을 수동으로 설정하여 t화상_레이턴시 및 t비행_시간을 오프셋하는 것에 의해 동기화를 달성하여야 한다. 다른 제조사는 t화상_레이턴시 및 일반적인 t비행_시간을 대략 오프셋하는 t차동_지연에 대한 공장 디폴트를 제공하여, t오디오_지연은 일반적인 강당보다 더 큰 것을 제외하고는 대략 제로일 수 있다.
오늘날 시네마에서, 디지털 기반이든 또는 필름-기반이든 상관없이, 2개의 수동 제어가 있는데, 하나는 t오디오_지연을 조절하고, 만약 이용가능하다면, 일반적으로 매일 운영자(everyday operator)에 의해 이루어지지 않는 기술자의 설정이고, 다른 것은 t차동_지연을 조절하고 필름 및 디지털 시네마 장비에서 상이한 기술을 나타낸다. 필름 프로젝터에서, t차동_지연은 필름 경로를 따라 필름 게이트에 더 가까이 또는 더 멀리 광학 사운드트랙 판독기를 물리적으로 재위치시키는 것에 의해, 즉, 필름 게이트에 더 가까이 광학 사운드트랙 판독기를 이동시키는 것에 의해 조절되고, t차동_지연은 보다 양의 값으로 된다(즉, 사운드는 더 늦게 판독된다). 수 십 년 동안, 필름의 오디오는 외부 프로세서를 거치지 않았으므로, 이 설정은 t비행_시간을 오프셋하는데에만 이용가능한 것이었다(즉, t오디오_지연 및 t화상_레이턴시는 본질적으로 제로이다). 디지털 시네마 미디어 블록에서, t차동_지연은 기술자에 이용가능한 구성이지만, 다시, 일반적으로 매일 운영자에 이용가능한 것은 아니었다.
디지털 시네마 시설에서, 두 지연(t차동_지연 및 t오디오_지연)은 t화상_레이턴시 및 t비행_시간을 오프셋하도록 올바르게 설정되어야 한다.
상기한 바로부터, 48 fps에서 디지털 시네마 컴포지션을 제공하도록 호출될 때 24 fps에서 동기화된 화상과 사운드를 제공하도록(t동기_에러 = 0이도록) 조절되고 전술한 예시적인 특성을 갖는 프로젝터를 구비하는 오늘날 (종래 기술) 디지털 시네마 강당 시스템은, t화상_레이턴시@24 - t화상_레이턴시@48의 t동기_에러가 (-88 1/3 - -46 2/3) = -41 2/3 mS이고 사운드보다 41 2/3 mS 더 빨리 또는 약 2 프레임 빨리 화상을 디스플레이하게 하는 것이 명확하다(즉, 사운드는 2 프레임 늦은 것으로 보인다). 일부 견해로는 동기화의 이러한 에러는 크지 않다. 상수 동기화 에러로서, 사람의 청중 멤버들은 이러한 오프셋을 수용한다. 그러나, 디지털 시네마 시스템이 혼합된 프레임 속도 디지털 시네마 컴포지션으로 플레이리스트를 실행할 때, t동기_에러는 상이한 프레임 속도를 갖는 컴포지션마다 변할 수 있다. 프레임 속도의 변동은 화상/사운드 동기화의 차이를 강조하여, 심지어 비-전문가인 청중에게도 보이고 눈에 띌 수 있다.
역사적으로, 사실상 모든 디지털 시네마 컴포지션은 동일한 프레임 속도(초당 24 프레임)로 존재하였다. 만약 있다해도, 소수의 컨텐츠 제공자가 다른 프레임 속도로 디지털 시네마 컴포지션을 제공하였으므로, 만약 있다해도, 소수의 상영자가 동일한 플레이리스트에서 상이한 프레임 속도 디지털 시네마 컴포지션을 컴파일하였다. 문제가 어쨌든 존재하는 정도까지, 상영자는 이 문제를 무시하였다.
따라서, 화상 정보가 상이한 프레임 속도를 구비할 때 화상 (비디오) 정보에 사운드 (오디오) 정보를 동기화하는 기술이 요구된다.
간략히, 본 발명의 원리의 예시적인 실시예에 따라, 디지털 시네마 컴포지션을 플레이아웃(play out)하는 동안 플레이 리스트(play list)에서 상이한 프레임 속도로 디지털 시네마 컴포지션에 대하여 사운드 정보를 대응하는 화상 정보와 동기화하는 방법은 상기 플레이 리스트에서 상기 디지털 시네마 컴포지션의 대응하는 화상 정보에 대해, 상기 디지털 시네마 컴포지션 프레임 속도에 따라 연관된 오디오 레이턴시 설정을 제일 먼저 수립하는 것에 의해 시작한다. 상기 대응하는 디지털 시네마 컴포지션 프레임 속도에 대해 상기 연관된 오디오 레이턴시 설정에 따라 상기 디지털 시네마 컴포지션을 플레이아웃하는 동안 상기 사운드 정보와 상기 화상 정보 사이의 타이밍이 조절된다.
도 1a 및 도 1b는 청중에 대해 화상 정보와 사운드 정보를 동기화하기 위한 타이밍 레이턴시 및 조절가능한 지연의 순 효과(net effect)를 도시하는, 본 발명의 원리의 디지털 시네마 극장 시스템의 제1 및 제2 예시적인 실시예를 각각 도시한 예시적인 블록도;
도 2는 기존의 디지털 시네마 시스템에서 가변 프로젝터 레이턴시 및 고정된 오디오 지연이 가변적인 동기화 에러를 생성할 수 있는 방식을 도시하는 예시적인 테이블을 도시한 도면;
도 3은 디지털 시네마 미디어 블록에서 동적 동기화 설정 및 극장 사운드 처리 시스템에서 정적 지연이 가변적인 프로젝터 레이턴시를 보상하여 본 발명의 원리에 따라 상이한 프레임 속도로 일관적인 화상-사운드 동기화를 달성하는 방식을 도시하는 제1 예시적인 테이블을 도시한 도면;
도 4는 디지털 시네마 미디어 블록에서 동적 동기화 설정이 가변적인 프로젝터 레이턴시를 보상하여 본 발명의 원리에 따라 상이한 프레임 속도로 일관적인 화상-사운드 동기화를 달성하는 방식을 도시하는 제2 예시적인 테이블을 도시한 도면;
도 5는 오디오 체인에서 동적 지연 설정이 가변 프로젝터 레이턴시의 대부분을 보상하여 - 전부를 보상하여야 하는 것은 아니다 - 본 발명의 원리에 따라 상이한 프레임 속도로 개선된 화상-사운드 동기화를 달성하는 방식을 도시하는 제3 예시적인 테이블을 도시한 도면;
도 6은 상이한 프레임 속도에 적용된 개별 차동 레이턴시를 열거하는 도 3의 테이블에 대응하는 예시적인 전이와 본 발명의 원리에 따라 각 프레임 속도 전이에 대응하는 화상 또는 오디오 정보에 예시적인 보정(amendment)을 도시한 도면;
도 7a 내지 도 7d는 본 발명의 원리에 따라 24 fps로부터 60 fps로 전이하는 동안 플레이아웃을 거치는 디지털 시네마 플레이 리스트의 화상 정보와 사운드 정보에 대한 효과를 도시하는 여러 대안적인 예시적인 타임라인을 도시한 도면;
도 8a 내지 도 8d는 본 발명의 원리에 따라 60 fps로부터 24 fps로 전이하는 동안 플레이아웃을 거치는 디지털 시네마 리스트의 화상 정보와 사운드 정보에 대한 효과를 도시하는 여러 대안적인 예시적인 타임라인을 도시한 도면;
도 9는 본 발명의 원리에 따라 화상 프레임 속도의 변화시 사운드 정보와 화상 정보의 차동 레이턴시를 변경하는 공정에 대한 예시적인 흐름도; 및
도 10은 본 발명의 원리에 따라 상이한 프레임 속도에 대해 디지털 시네마 미디어 블록의 레이턴시를 조절하기에 적절한 예시적인 유저 인터페이스를 도시한 도면.
도 1a 및 도 1b는 본 발명의 원리의 사운드 정보와 화상 정보 동기화 기술을 실시하는 디지털 시네마 극장 시스템(100A 및 100B)의 제1 및 제2 예시적인 실시예의 예시적인 블록도를 각각 도시한다. 도 1a를 참조하면, 디지털 극장 시스템(100A)은 디지털 시네마 컴포지션 저장 유닛(131)으로부터 지정된 프레임 속도로 수신된 다수의 디지털 시네마 컴포지션을 렌더링하는 디지털 시네마 디지털 시네마 미디어 블록(130A)을 포함한다. 디지털 시네마 미디어 블록(130A)은 렌더링된 화상을 디지털 시네마 프로젝터(140)에 제공하고, 대응하는 사운드를 극장 사운드 처리 시스템(150A)(산업계에서 "B-체인"으로도 알려져 있음)에 제공한다. 본 명세서에서 상세히 설명된 바와 같이, 디지털 시네마 컴포지션은 상이한 프레임 속도를 구비할 수 있다. 현재, 대부분의 디지털 시네마 컴포지션은 초당 24 프레임의 프레임 속도를 구비한다. 그러나, 일부 새로운 디지털 시네마 컴포지션은 이제 더 높은 프레임 속도, 일반적으로, 초당 48 또는 심지어 60 프레임을 구비하는데, 이는 전술한 바와 같이 특정 레이턴시 때문에 플레이아웃 동안 대응하는 사운드 (오디오) 정보와 동기화 문제를 야기할 수 있다.
디지털 시네마 디지털 시네마 미디어 블록(130A)은 일반적으로 디지털 시네마 컴포지션 저장 유닛(131)으로부터 수신된 디지털 시네마 컴포지션에 대해 화상 정보와 사운드 정보를 나타내는 데이터를 판독하는 여러 메커니즘을 포함한다. 디지털 시네마 미디어 블록(130A)은 화상 정보를 나타내는 데이터를 화상 처리 모듈(132)에 공급하고, 사운드 정보를 나타내는 데이터를 사운드 처리 모듈(133)에 공급한다. 사운드 정보와 화상 정보 사이에 동기화를 달성하기 위하여, 디지털 시네마 미디어 블록(130)은 일반적으로 제로(0) mS로 설정된 화상-사운드 차동 지연 값(134A)으로 한정된 바와 같이 화상 처리 모듈(132)이 사운드 처리 모듈(133)에 앞서 (또는 뒤에서) 실행할 수 있게 한다. 제로의 지연은 화상 처리 모듈(132)에 의해 출력된 이미지의 제1 픽셀이 저장 유닛(131)으로부터 판독된 컴포지션에서 이 제1 픽셀에 대응하는 제1 오디오 샘플과 연관된 사운드 처리 모듈(133)로부터 출력된 사운드와 본질적으로 동기화가 유지되는 것을 나타낸다. 본 발명의 원리의 이 예시적인 실시예에서, 지연 메모리(135A)는 플레이아웃을 거치는 디지털 시네마 컴포지션의 각 상이한 프레임 속도에 대해 차동 지연(134A)을 위한 상이한 설정을 공급할 수 있다. 다른 실시예에서, 지연 메모리(135A)로부터 설정을 판독하는 대신, 디지털 시네마 미디어 블록(130A)은 메모리(135A)에 저장된 다른 데이터로부터 지연 설정을 계산할 수 있고, 여기서 "다른 데이터"는, 예를 들어, 수식 1 및 변수 t고정프레임에 대한 값과 같은 특정 미리 결정된 파라미터를 구비하고 프레임 속도에 종속하는 수식일 수 있다).
메모리(135A)에 저장된 이 지연 데이터에 더하여 또는 이 대신에, 디지털 시네마 미디어 블록(130A)은, 각 특정 프레임 속도에 대한 고유 레이턴시(345)를 리포트하거나 또는 계산에 필요한 파라미터(예를 들어, 수식 1에 적절한 t고정프레임)를 리턴하는 능력이 디지털 시네마 프로젝터(140)에 주어진 것으로 가정하면, 프로젝터의 고유 레이턴시(145)에 관한 문의(inquiry) 후에 디지털 시네마 프로젝터(140)로부터 리턴된 데이터로부터 지연을 획득하거나 계산할 수 있다. 도 1a에 따른 예시적인 실시예에서, 디지털 시네마 미디어 블록(130A)은 플레이리스트에서 각 디지털 시네마 컴포지션의 프레임 속도를 고려하고, 프레임 속도에 변화가 필요할 때마다 사용할 지연 메모리(135A)로부터 적절한 차동 지연 값을 검색한다.
일반적으로, 디지털 시네마 미디어 블록(130A), 디지털 시네마 프로젝터(140) 및 극장 사운드 처리 시스템(150A)은 프로젝션 부쓰(booth)(120)에 존재한다. 벽(108)은 강당(110)으로부터 프로젝션 부쓰(120)를 분리한다. 벽(108)은 디지털 시네마 프로젝터(140)에 의해 생성된 프로젝션 빔(142)이 프로젝터 렌즈(141)를 통해 스크린(101)으로 비추는 유리 포털(glass portal)(109)을 구비한다. 일부 실시예에서, 디지털 시네마 미디어 블록(130A) 및 디지털 시네마 프로젝터(140)는 도 1a에 도시된 2개의 별개의 요소 대신 단일 통합된 유닛으로 존재할 수 있다. 극장 사운드 처리 시스템(150A)은 오디오를 증폭기(151)를 통해 스크린(101) 뒤에 위치된 하나 이상의 스피커(104)로 제공한다. (스피커(104)는 "메인 스피커" 또는 "메인"으로 표시된다). 강당은 어딘가에 위치된 추가적인 스피커(도시 생략)("서라운드 스피커" 또는 "서라운드"라고도 지칭됨)를 포함할 수 있다. 일부 강당은 일반적으로 스크린(101) 뒤에 또는 아래에 놓여 있는 저주파수 효과(low-frequency effect: LFE)라고 지칭되는 종종 서브우퍼(subwoofer)라고 지칭되는 특수한 트랜스듀서(도시 생략)를 더 구비하고, 이 구성에서, 이 특수한 트랜스듀서는 본 설명을 위해 메인 스피커(104)와 동일한 효과를 구비한다.
디지털 시네마 프로젝터(140)는 디지털 시네마 미디어 블록(130A)으로부터 화상 정보를 일반적으로 한번에 하나의 픽셀씩 수신한다. 프로젝션 파이프라인(143)은 종종 여러 단계에서 조립과 처리를 위한 화상 정보를 수신한다. 프로젝션 파이프라인(143)은 일반적으로 하나 이상의 프레임 버퍼를 포함한다. 파이프라인(143)의 마지막 단계는 처리된 이미지 데이터(화상 정보)를 복수의 이미저(일반적으로, 각 원색에 대해 하나씩)를 포함하는 광 엔진(144)으로 전달하고, 이 이미저는 조명기(도시 생략)에 의해 제공된 광을 변조한다. 렌즈(141)는 이미저로부터 변조된 광을 스크린(101)으로 프로젝션하여 청중이 시청하기 위한 화상을 렌더링한다. 디지털 시네마 프로젝터(140)는 디지털 시네마 미디어 블록(130A)이 제1 픽셀을 화상 처리 모듈(132)로부터 디지털 시네마 프로젝터(140)로 송신하는 시간으로부터, 이 픽셀이 스크린(101)에 나타나는 시간까지, 측정가능한 고유 레이턴시(145)(t화상_레이턴시)를 구비한다. 디지털 시네마 프로젝터(140)의 고유 레이턴시는 일반적으로 상수와 프레임-속도 종속 성분을 포함한다.
본 발명의 원리를 위하여, 해당 프레임 속도에 대해 고유 레이턴시에 미리 결정된 값이 존재할 수 있다. 실제로, 여러 메커니즘이 이 레이턴시를 결정하기 위해 존재한다. 예를 들어, 프로젝터 제조사, 극장 운영자 또는 기술자는 픽셀 조명에 응답하여 오실로스코프(도시 생략) 및 광전지(도시 생략)를 사용하는 것에 의해 이 레이턴시를 경험적으로 측정할 수 있다. 이러한 장비를 통해, 극장 운영자 또는 기술자는 디지털 시네마 미디어 블록(130A)으로부터 디지털 시네마 프로젝터(140)로 전송되는 화상 정보를 모니터링할 수 있고, 이 화상 정보가 상이한 프레임 속도 각각에서 스크린으로 프로젝션될 때까지 지연을 측정할 수 있다. 대안적으로, 고유 레이턴시(145)는 프로젝터의 사양으로부터 결정될 수 있다. 또 다른 방식으로, 고유 레이턴시의 변화는 사운드와 화상 사이에 관찰되거나 측정된 동기화 변화에 기초하여 추정될 수 있다(예를 들어, 뉴욕(NY)에 소재하는 파로아 에디토리얼(Pharoah Editorial, Inc)사에서 제조 및 배포한 바와 같이 적절한 테스트 미디어로 "Syncheck3"과 같은 동기화 체크기(synchronization checker)를 사용하여 측정될 수 있다). 다른 실시예(도시 생략)에서, 디지털 시네마 프로젝터(140)는 각 프레임 속도에 대한 고유 레이턴시(145)를 디지털 시네마 미디어 블록(130A) 또는 다른 제어기(도시 생략)에 리포트할 수 있다. 이후 디지털 시네마 미디어 블록(130A) 또는 다른 제어기(도시 생략)는 차동 지연과 오디오 지연(134A/152A)을 사용하여 적절한 보상 단계를 취할 수 있다.
복잡한 가중 구조의 전체 청중을 고려하는 대신, 측정 또는 추정을 위하여, "주요 좌석(prime seat)"(102)에 위치된 가상 청중 멤버(103)가 청중을 대표할 수 있다. "주요 좌석"(102)은 실제 좌석(예를 들어, 도 1a에서 좌석(102)) 또는 가상 좌석, 예를 들어, 복도 중간에 위치된 "주요 좌석"을 나타낼 수 있다. 주요 좌석(102)은 일반적으로 극장의 중심 쪽에 놓여 있고, 화상(비디오)과 사운드(오디오) 동기화, 및 사운드 이퀄리제이션(equalization), 소리의 세기(loudness), 화상의 휘도(brightness), 및 주요 좌석으로부터 점점 더 먼 좌석 위치에서 다소 균일하게 편향되도록 예상된 다른 파라미터를 설정하는 기준 위치로 기능한다. 이 파라미터를 설정하는 주요 좌석(102)을 적절히 선택하는 것에 의해, 상영자는 강당에 있는 모든 좌석에 걸쳐 예상된 시청 경험의 품질을 최대화할 수 있다. 전통적으로, 극장 운영자는 주요 좌석에 앉아 있는 가상 착석 청중 멤버(103)의 머리-높이에 대략 대응하는 강당 바닥(107) 위 높이에 있는 주요 좌석(102)의 위치에서 이들 파라미터를 측정하였다. 따라서, 이러한 측정은 가상 청중 멤버(103) 대신에 앉아 있는 실제 사람이 경험할 수 있는 바와 같은 이들 파라미터에 대한 값을 제공한다.
극장 운영자에 의해 이루어진 측정은 가상 청중 멤버(103)의 머리와 중심 메인 스피커(104) 사이에 거리(105)를 포함할 수 있다. 많은 경우에, 극장 운영자는 예를 들어 스크린이 스피커(104)를 은닉하기 때문에 주요 좌석(102)으로부터 스크린(101)까지의 거리에 기초하여 이 거리를 추정할 수 있다. 일부 경우에, 극장 운영자는 강당의 계획도(plan drawing)로부터 이 거리(105)를 수립할 수 있고, 다른 경우에, 극장 운영자는 이 거리(105)를 한정할 수 있고 이 한정된 거리를 사용하여 주요 좌석(102)의 위치를 (바닥(107)의 중심선을 따라) 지정할 수 있다. 예를 들어, 극장 운영자는 "주요 좌석이 강당의 중심선을 따라 스크린으로부터 2.5 스크린 높이에 놓여 있어야 한다"는 것을 지시하는 정책을 수립할 수 있고, 이 경우에 10-피트 높이 스크린은 25 피트의 추정된 주요 좌석과 스피커 간의 거리(105)를 선험적으로 형성할 수 있다.
이 기술 분야에 잘 알려진 바와 같이, 올바르게 조절된 강당에서, 스크린(101) 뒤에 있는 스피커(들)(104)로부터 오는 사운드는 강당에 있는 임의의 서라운드 스피커(도시 생략)로부터 대응하는 사운드가 도달하기 전에 하우스 내 모든 좌석(102 및 106)에 도달할 수 있다. 이것은 스크린으로부터 유래하도록 의도된 사운드가 스크린으로부터 유래하는 것으로 실제 보이는 것을 보장하는데, 만약 서라운드 스피커로부터 유래하는 사운드가 먼저 도달하고 스피커(들)(104)로부터 유래하는 대응하는 사운드가 일정 시간 더 늦게 도달하는 경우에는 그렇지 않다. 전통적으로, 모든 서라운드 스피커 채널에 적용된 극장 사운드 처리 시스템(150A)에서 고정된 서라운드 지연(도시 생략)을 적절히 설정하면 강당(100) 내 좌석이 메인 스피커(들)(104)로부터 사운드가 도달하기 전에 서라운드 스피커로부터 동시에 제공된 디지털 시네마 컴포지션의 사운드를 수신하지 않는 것을 보장한다. 서라운드 사운드 스피커(들)로부터 사운드는 메인 스피커(들)로부터 오는 사운드와 동시에 도달할 수는 있지만 그 보다 먼저 도달할 수는 없다. 메인 스피커에 대해 이 고정된 서라운드 지연을 설정하는 올바른 방법은 이 기술 분야에 잘 알려져 있고, 그 설정 값과 설정 방법은 그 어느 것도 본 발명의 원리의 화상과 사운드 동기화 기술을 적용할 때 변하지 않는다. 서라운드 사운드 지연은 상이한 프레임 속도와 연관된 레이턴시 지연(152A)과는 다르다. 그러나, 레이턴시 지연(152A)은 메인, 서라운드 및 LFE 채널에 종래 기술의 서라운드 지연에 더하여 및 동일하게 영향을 미친다.
도 1b는 본 발명의 원리의 동기화 기술을 실시하는 디지털 시네마 극장 시스템의 대안적인 바람직한 실시예(100B)를 도시한다. 도 1b의 디지털 시네마 극장 시스템(100B)은 도 1a의 디지털 시네마 극장 시스템(100A)과 모두 동일하거나 유사한 요소를 소유하고, 여기서 유사한 요소는 약간 다르게 연결되고/되거나 기능한다. 그리하여, 이 "유사한" 요소에 대해, 참조 부호는 도 1a에서 대응하는 요소에 대해 도 1b에서는 부호 "A" 대신 부호 "B"가 나타나는 것을 제외하고는 동일한 요소를 식별하는 기능을 한다. 도 1b의 디지털 시네마 극장 시스템(100B)은 수동으로 조절가능한 화상-사운드 차동 지연(134B)을 가지는 것에 의해 도 1a의 디지털 시네마 극장 시스템(100A)과는 다르다. 이것은 프레임 속도에 상관없이 지연을 제로 또는 일부 다른 값으로 수동으로 설정할 수 있게 한다. 이후, 디지털 극장 시스템(100B)은 신호(136)를 사용하여 디지털 시네마 미디어 블록(130B)에 의해 통신된 지시자에 따라 극장 사운드 처리 시스템(150B)에서 오디오 지연(152B)만을 자동적으로 조절한다. 도 1b의 예시적인 실시예에서, 디지털 시네마 미디어 블록(130B)은 특정 컴포지션을 플레이아웃하기 위해 프레임 속도에 기초하여 결정된 신호(136)에 기초하여 오디오 지연(t오디오_지연)에 대해 프리셋 값(135B)을 리콜(recall)할 수 있다. 또 다른 실시예(도시 생략)에서, 신호(136)는 오디오 지연(152B)을 위해 적절한 설정(t오디오_지연)을 나타내는 데이터를 포함할 수 있고, 이 경우에, 디지털 시네마 미디어 블록(130B)은 ((135A)와 (130A)에 대해 도시된 바와 같이 메모리(135B)를 미디어 블록(130B)에 연결하여) 지연(152B)을 신호(136)로 전달하기 위해 메모리(135B)로부터 오디오 지연(t오디오_지연)에 대해 프리셋을 직접 판독한다.
도 2는 극장 운영자가 본 발명의 이익 없이 (예를 들어, 상이한 프레임 속도에 대해 화상과 사운드 동기화를 달성하는 차동 지연 프리셋 값(135A) 없이) 오늘날 디지털 시네마 기술을 사용할 때 강당(100A)에서 관찰할 수 있는 것으로 예상할 수 있는 가상 예시적인 데이터를 도시한다. 고정된 조절 테이블(200)은 디지털 시네마 컴포지션이 초당 24 프레임, 48 프레임 및 60 프레임으로 각각 주어지는 경우, 시스템의 거동을 각각 나타내는 3개의 데이터 행을 나타낸다. 프레임 속도 칼럼(201)은 초당 프레임(frame/second: f/s)으로 대응하는 컴포지션의 플레이아웃 속도를 나타낸다. 프로젝터 레이턴시-관련된 칼럼(202-204)은 디지털 시네마 프로젝터(140)가 (수식 1에 따라, 및 전술한 부호 규약에 따라 이 예 및 다음 예에서) 사운드 (오디오) 요소에 대해 컴포지션의 화상 (비디오) 요소에 적용한 지연을 나타낸다. 디지털 시네마 프로젝터에서 사용된 상이한 파이프라인 아키텍처는 디지털 시네마 프로젝터(140)에 대해 칼럼(202)으로 도시된 "-2" 값으로 지시된 바와 같이 레이턴시 프레임(즉, 수식 1에 있는 프레임), 예를 들어, 2개 또는 3개의 레이턴시 프레임 또는 일부 상이한 프레임 수로 측정된 파이프라인 레이턴시 성분을 생성할 수 있다. 일부 특별한 경우(도시 생략)에, 프레임은, 예를 들어, 프로젝터의 이미지 처리 아키텍처가 임의의 단계에서 필드-인터레이싱 모드 또는 블록 동작 모드에서 사용되는 경우 비-정수 값일 수 있다. 일부 디지털 시네마 프로젝터는 도 1의 칼럼(203)에서 디지털 시네마 프로젝터(140)에 대해 도시된 프레임 속도(즉, t고정)에 대해 고정된 레이턴시 성분 불변을 구비한다. 칼럼(204)으로 표현된 총 프로젝터 레이턴시(t화상_레이턴시)는, 레이턴시 성분의 프레임(칼럼(202))을 수식 1에 따라 프레임 속도(칼럼(201))로 나눈 몫(quotient)에 고정된 레이턴시 성분(칼럼(203))을 더한 것의 합계를 포함한다. 칼럼(204)에 지시된 바와 같이, 더 높은 프레임 속도에서, 총 디지털 시네마 프로젝터 레이턴시는 떨어진다. 디지털 시네마 프로젝터 레이턴시는 프로젝터가 디지털 시네마 미디어 블록으로부터 수신한 후에만 이미지를 디스플레이할 수 있으나 사운드의 지연은 전혀 유도하지 않으므로 음의 값만을 구비할 수 있다.
도 2의 칼럼(206)은 극장 사운드 처리 시스템(150A)(즉, 도 1a의 B-체인)에 대해 지연 설정(152A)(여기서, 90mS)을 나타내거나, 또는 고정된 경우 또는 고유한 경우 사운드 처리 시스템 지연의 값을 간단히 나타낸다. 종래 기술의 시스템의 이 예시적인 경우에, 사운드 처리 시스템 지연 값은 모든 프레임 속도에서 변함 없이 유지된다. 이 값은 화상(비디오)에 대해 사운드(오디오)의 지연을 나타내고, 극장 사운드 처리 시스템(150A)은 수신 전에 오디오를 방사하지 않고 화상의 지연을 전혀 유도하지 않으므로 양의 값만을 구비할 수 있다. 칼럼(207)은 스피커와 주요 좌석 간의 거리(105)(이는 도 1a의 예에서 40 피트를 구성함)를 횡단하는 사운드의 비행 시간만큼 유도된 오디오 지연을 나타낸다. 지연에 대해 칼럼(207)에서 지시된 40mS의 값은 약간 상위 근사를 나타낸다. (보다 정확하게는, 20℃의 건조 공기에서, 사운드의 속도는 1126 ft/초이어서, 비행 시간은 40 피트에 대해 35.5 mS에 더 가까이 제공하고, 공기가 습한 경우 약간 더 낮고, 또는 공기가 차가운 경우 약간 더 높다). 설명을 위하여, 1-피트 진행 거리는 1 밀리초의 지연과 같다고 근사시키는 것이 편리하고 충분하다. 이 근사는 모든 프레임 속도에 대해 일정하게 유지되지만, 상이한 사이즈의 강당에서는 변할 수 있고 또는 주요 좌석(102)을 상이하게 선택하면 변할 수 있다.
칼럼(208)에 도시된 결과는 칼럼(201)에 있는 각 프레임 속도에서 도 1a 및 도 1b의 (102)로 도시된 주요 좌석에서 화상-사운드 순 레이턴시(t동기_에러)를 나타내고, 이상적으로는 항상 각 행에서 제로이어야 한다. 테이블(200)에서, 극장 운영자 또는 기술자는 디지털 시네마 미디어 블록 차동 레이턴시(t차동_지연)(134A)를 수동으로 설정하는 것에 의해 24 fps에서 이 이상적인 제로 레이턴시를 생성하는 종래의 수단을 사용하여 디지털 시네마 시스템을 튜닝하였다. (도 2는 종래 기술의 강당에 대한 값을 나타내고, 본 발명의 프레임 속도 의존 차동 지연 프리셋 값(135A)을 사용하지 않는다는 것이 주목된다). 각 행에 대해, 칼럼(208)에서 순 레이턴시는 동일한 행에 대해 수식 4에 따라 칼럼(204, 205, 206 및 207)에 있는 값의 합계를 포함한다. 24 fps에 대응하는 테이블(200)의 제1 행에 대해, 칼럼(204, 206 및 207)에 있는 값을 합산하면 다음 수학적 관계(-83 + 90 + 40) = 47 mS를 생성한다. 따라서, (칼럼(205)에 대해서와 같이) 디지털 시네마 미디어 블록 차동 지연(134A)을 값 -47 mS으로 설정하면 칼럼(208)에서 제로 합계를 생성하여, 주요 좌석(102)으로부터 관찰할 때 완벽히 동기화된 화상과 사운드를 생성하지만, 24 fps에서만 그러하다. 칼럼(208)의 제2 행과 제3 행에 도시된 바와 같이 다른 프레임 속도에 대해서는 칼럼(205 및 206) 각각에 설정된 고정된 값은 더 이상 제로의 순 레이턴시를 생성하지 않는다.
도 2에 언급된 효과는, 디지털 시네마 플레이리스트가 그 선행자(predecessor)보다 상이한 프레임 속도를 갖는 컴포지션을 제공할 때마다 별개의 수동 설정을 요구하거나, 또는 디지털 시네마 컴포지션이 상이한 프레임 속도를 구비할 때마다 청중에 가변 사운드와 화상 동기화를 제공하는 상당한 문제를 제기한다. 캘리포니아(CA), 버뱅크(Burbank)에 소재하는 도레미 랩스(Doremi Labs. Inc.)사; 캘리포니아, 샌프란시스코에 소재하는 돌비 레버러토리(Dolby Laboratories, Inc)사; 캘리포니아, 버뱅크에 소재하는 GDC 테크롤로지사(USA)(GDC Technolgy (USA) LLC); 캘리포니아, 버뱅크에 소재하는 큐베 시네마(Qube Cinema, Inc.)사; 및 캘리포니아, 로스앤젤레스에 소재하는 소니 프로페셔널 솔루션즈 오브 어메리카(Sony Professional Solutions of America)사에서 제조된 것과 같은 오늘날 디지털 시네마 미디어 블록(통합된 형상 팩터이든지 또는 외부 형상 팩터이든지 간에)은; 모두 이런 방식으로 동작하고, 프레임 속도에 독립적으로 디지털 시네마 미디어 블록에서 차동 지연을 위해 기껏해야 단일 설정을 제공한다. 유사하게, B-체인에 사용하기 위해 제조된 극장 사운드 처리 장비는, 만약 있다해도, 단일 전체 지연 값만을 제공한다. 이 지연을 조절하는 것은 일반적으로 디지털 시네마 미디어 블록 또는 사운드 프로세서가 부팅될 때 로딩되는 특정 구성을 편집하는 것에 의해 발생하지만, 일부 제조사는 대응하는 유저 인터페이스(도시 생략)를 사용하여 설정을 수동으로 조절할 수 있게 한다. 오늘날 시스템은 상이한 프레임 속도를 갖는 디지털 시네마 컴포지션에 사용하기 위해 자동적으로 선택된 별개의 설정을 전혀 제공하지 않는다.
일부 경우에 극장 운영자 또는 그 직원이 (예를 들어, 칼럼(202, 203, 204 및 205), 및 만약 고정된 경우, 칼럼(206)에 대해) 장비 제조사의 사양으로부터 순 레이턴시(예를 들어, 도 2의 칼럼(208)으로 표현된 값)를 계산할 수 있으나, 순 레이턴시(즉, t동기_에러)를 경험적으로 측정하는 것이 보다 일반적이다. 예를 들어, 극장을 튜닝하는 기술자는, 화상 또는 오디오가 다른 것에 뒤쳐지는지 및 얼마나 많은 밀리초만큼 뒤쳐지는지 여부의 디지털 판독을 제공하는, 뉴욕(NY)에 소재하는 파로아 에디토리얼사에 의한 Syncheck3과 같은 동기화 계측기(meter)를 사용할 수 있다. 기술자는 마이크를 통해 사운드를 모니터링하는 하나의 채널, 및 광검출기로 화상을 모니터링하는 다른 채널을 갖는 2개의-채널 오실로스코프로 순 레이턴시를 더 측정할 수 있다. 어느 경우이든, 기술자는 이러한 측정을 하는 특수 테스트 컨텐츠 클립, 예를 들어 단일 화이트 프레임과 나머지 블랙 프레임을 갖는 클립을 사용할 수 있다. 단일 화이트 프레임은 컨텐츠에서 오디오 톤 버스트(audio tone burst)에 대응하고 블랙 프레임은 침묵에 대응한다. 반복적으로 플레이하는 이 클립을 통해, 기술자는 계측기 또는 오실로스코프를 판독하여 순 레이턴시(칼럼(208)에서와 같이)를 분별하여 사운드(톤 버스트) 또는 화상(화이트 플래쉬) 중 어느 것이 주요 좌석에 제일 먼저 도달하는지 및 얼마나 빨리 먼저 도달하는지를 결정할 수 있다.
이러한 도구를 사용하여, 극장 운영자 또는 기술자는 측정된 순 레이턴시에 필요한 오프셋 조절을 하는 것에 의해 디지털 시네마 미디어 블록 동기화를 경험적으로 설정할 수 있다. 예를 들어 이러한 계측기가 화상이 10 mS만큼 사운드를 리드(lead)하는 것으로 지시하는 경우, 극장 운영자 또는 기술자는 - 10 mS만큼 차동 지연(134A/S134B)을 조절하여, 화상을 더 지연시킬 수 있다. (전술한 바와 같이, 본 명세서에 사용된 규약에 따라, 음의 값은 사운드에 대해 더 큰 화상 지연을 나타낸다). 대안적으로, 지연(152A/152B)이 적어도 10mS의 값을 구비한 경우, 지연(152A/152B)의 값은 제로 미만으로 될 수 없으므로, 극장 운영자 또는 기술자는 -10 mS만큼 오디오 지연(152A/152B)을 조절하여, 오디오 지연을 감소시킬 수 있다. 대안적으로, 이 조절의 조합이 이루어질 수 있다. 계측기가 사운드가 10 mS만큼 화상을 리드하는 것을 지시하는 경우, 극장 운영자 또는 기술자는 차동 지연(134A/134B) 또는 지연(152A/152B) 중 어느 것을 10 mS만큼 증분하여 화상에 대해 추가적인 10 mS만큼 사운드를 오프셋(지연)시킬 수 있다. 대안적으로, 극장 운영자 또는 기술자는, 5 mS만큼 차동 지연(134A/134B) 및 지연(152A/152B)을 모두 증분하거나, 또는 지연(152A/152B)이 제로 이상으로 유지되는 한, 총 10 mS(예를 들어, 3 mS 및 7 mS; -5 mS 및 15 mS 등)이 되도록 2개의 상이한 값을 증분할 수 있다.
극장 운영자 또는 기술자가 지연(134A/134B 및 152A/152B)을 설정하여 (칼럼(208)의 제1 행에서 보는 바와 같이) 24 fps의 프레임 속도에 대해 제로의 순 화상-사운드 레이턴시를 달성하는 방식에 상관없이, (예를 들어, 48 및 60 fps에 대해 각각 제2 및 제3 행에서와 같이) 상이한 프레임 속도 조건에서 (칼럼(205 및 206)에 걸쳐 도시된) 동일한 설정을 사용하면, 비-제로 값을 갖는 순 동기화(칼럼(208)에서 제2 및 제3 행에 도시된)를 초래한다. 즉, 종래 기술의 디지털 시네마 시스템이 24 fps에서 주요 좌석에서 화상과 사운드 동기화를 달성하였다 하더라도, 시스템은 다른 프레임 속도에서는 동기화를 제공하지 않는다.
본 발명의 원리의 원리에 따라, 상이한 프레임 속도에서 동기화를 유지하기 위해, 디지털 시네마 시스템은 테이블(300, 400 및 500)을 각각 도시하는 도 3, 도 4 및 도 5와 함께 설명된 바와 같이 각 상이한 프레임 속도에 대해 지연 값(134A/134B 및 152A/152B) 중 어느 하나 또는 둘 모두에 대해 선택된 상이한 값을 사용하여야 한다. 도 2 내지 도 5에 표현된 모든 예에서, 프로젝터(140)는 선택된 프레임 속도 각각에 대해 일관적으로 동일한 예시적인 거동을 나타낼 수 있고, 주요 좌석(102)에서 스피커(104)까지의 상대적 위치는 상수인 것으로 가정된다. 따라서, 각 선택된 프레임 속도에 대해, 프로젝터 레이턴시 칼럼(202-204)과 칼럼(207)에서 주요 좌석 값까지의 거리는 각 테이블(200, 300, 400, 500)에서 동일하게 유지된다.
도 3에서, 테이블(300)은 도 1a에서 디지털 극장 시스템(100A)의 구성에 따라 칼럼(301)의 상이한 프레임 속도 각각에 대한 예시적인 값을 도시하며, 여기서 지연 설정(152A)은 칼럼(306) 전체에 걸쳐 도시된 상수 값을 구비하고, 차동 지연(134A)에 대한 디지털 시네마 미디어 블록 차동 레이턴시 설정만이 칼럼(305)에 도시된 바와 같이 변한다. 칼럼(305)에 제시된 값은 칼럼(308)에서 제로 값으로 제시된 바와 같이 열거된 프레임 속도 각각에 대해 주요 좌석(102)에서 사운드와 화상의 상당한 동기화를 달성한다. 이 예에서, 차동 지연 값(134A)의 모든 레이턴시는 동일한 음의 부호를 가지는데, 즉, 모든 설정은 대응하는 사운드가 극장 사운드 처리 시스템(150A)으로 출력되고 나서 수 밀리초 후에 디지털 시네마 미디어 블록(130A)이 화상을 프로젝터(140)에 출력하는 것을 나타낸다.
도 4에서, 테이블(400)은 극장 사운드 처리 시스템(150A)이 칼럼(406)에서 제로로 표현된 무시가능한 레이턴시를 도입하는 상이한 구성을 도시한다. 이 값은 극장 사운드 처리 시스템(150A)에서 지연(152A)의 실제 설정을 구성할 수 있다. 대안적으로, 오디오 처리 장비는 지연 설정(152A)을 제공하지 않을 수 있고, 칼럼(406)에 도시된 바와 같이 B-체인에 본질적으로 제로인 레이턴시는 고유하다. 칼럼(401)에서 각 프레임 속도에 대해, 디지털 시네마 미디어 블록(130A)에서 차동 지연(134A)은 칼럼(408)에서 제로 값을 달성하기 위해 사운드 또는 화상 중 어느 것이 다른 것에 비해 지연이 요구되는지에 따라 칼럼(405)에 도시된 바와 같이 두 부호에 걸쳐 상이한 설정을 구비한다. 유사한 접근법은, 극장 사운드 처리 시스템(150A)이 고정되어 있으나 충분히 작은 지연(이 예에서는, 7 mS 미만)을 부과한 경우에 동일한 이익을 제공할 수 있는데, 이 경우에도 프레임 속도에 따라 두 부호의 값을 차동 지연(134A)에 제공할 것을 디지털 시네마 미디어 블록(130A)에 여전히 요구할 수 있다.
도 5에서, 테이블(500)은 디지털 시네마 미디어 블록(130B)이 가변적인 차동 지연(134A)을 구비하지 않는 (또는 제로로 설정된) 도 1b의 디지털 시네마 시스템(100B)에 대한 값을 도시한다. 대신, 디지털 시네마 미디어 블록(130B)은, 디지털 시네마 미디어 블록에서 방사된 화상과 사운드 사이에 차동 레이턴시(134B)가 '편집 동기(editorial sync)'라고도 지칭되는 제로로 유지되는 것을 보장한다. (대안적인 실시예는 수동으로 일부 상수 값, 종종 거의 제로로 설정된 디지털 시네마 미디어 블록 차동 레이턴시를 구비할 수 있으나, 일부 제조사는 오늘날 디지털 시네마 미디어 블록 장비 디폴트를 다른 비-제로 값으로 설정할 수 있다), 예시적인 테이블(500)에서, 칼럼(501)에서 상이한 프레임 속도 각각에 대해, 극장 사운드 처리 시스템(B-체인)(150B)은 이전에 지적된 바와 같이 제로 미만으로 떨어질 수 없는, 칼럼(506)에서 상이한 지연 값으로 자동적으로 설정된다. 지연(152B)이 제로 미만의 값(t오디오_지연)을 가질 수 없으므로, 일부 상황은 지연(152B)이 칼럼(506)의 60 fps 행에서 해시 엔트리(hashed entry)에 의해 도시된 바와 같이 화상과 사운드를 완벽히 동기화할 수 없는 경우를 생성할 수 있는데, 이 경우 제로의 최소 지연 설정은 사운드(오디오)가 주요 좌석(102)에 늦게 도달하는 크기를 보상하기에는 불충분하게 유지된다. 다시 말해, (칼럼(207)에 열거된) 스피커(104)로부터 비행 시간만큼 사운드에 부과된 피할 수 없는 지연은 (칼럼(204)에 열거된) 60 fps에서 프로젝터(140)에 의해 부과된 화상에 대한 총 지연보다 더 크게 유지되어, 궁극적으로 지연(152B)을 최소 제로로 설정하여도 이 차이를 충분히 보상하지 못하여, 이로 60 fps에서 일부 잔류 순 레이턴시가 존재하고 사운드는 주요 좌석(102)에서 7 mS만큼 늦게 도달하게 되는데, 이는 일부 상황에서 완전히 수용될 수 있다.
전술한 바와 같이, 도 1b의 디지털 시네마 미디어 블록(130B)은, 예를 들어, 프로젝터(140) 또는 별개의 제어기(도시 생략)로부터 신호(136) 또는 다른 제어 신호(도시 생략)에 응답하여 오디오 지연 프리셋 메모리(135B)에 제공된 값(t오디오_지연)으로 지연(152B)을 자동 설정하거나 이를 트리거할 수 있다. 이들 실시예 중 어느 것에서, 극장 사운드 처리 시스템(150B)은 오디오 지연(152B)에 사용할 설정을 결정하기에 충분한 현재 프레임 속도의 지시자를 수신한다. 다른 실시예에서, 오디오 지연(152B)에의 제어 신호는 오디오 지연 값(t오디오_지연) 그 자체를 나타낼 수 있다.
도 6은 도 4의 테이블(400)에 제시된 지연 설정에 대응하는 예시적인 상태 전이도(600)를 도시한다. 3개의 상태(610, 620 및 630) 각각은 24, 48 및 60 fps에서 디지털 시네마 컴포지션을 각각 플레이하는 도 1a의 디지털 시네마 미디어 블록(130A)에 대응한다. 각 상태에서, 화상-사운드 차동 레이턴시(∂L)(이는 t차동_지연을 나타내는 보다 콤팩트하고 편리한 표현으로 사용됨)는 도 4의 칼럼(405)의 컨텐츠에 따라 다음 값(43, 2 및 -7 mS)을 각각 가질 수 있다. 상태(610, 620 및 630)들 중에 전이(612, 621, 623, 632, 613 및 631)는 상태의 상이한 차동 레이턴시(∂L)들 사이에 전이를 가교하는데 필요한 사운드 또는 화상에 최소량의 패딩(padding)을 각 나타낸다.
상태(610)(24 fps)로부터 상태(620)(48 fps)로 전이(612)하면 화상-사운드 차동 레이턴시(∂L)는 43 mS로부터 2 mS로 변하게 된다. 그 결과, 차동 레이턴시는, 하나의 디지털 시네마 컴포지션으로부터 사운드(오디오)가 아래에 보다 상세히 설명된 바와 같이 크롭핑(cropping) 또는 오버랩(overlapping)(즉, 혼합이나 또는 크로스 페이드(cross-faded))를 거치지 않는 것으로 가정하면, 화상 내 갭에 대응하는 -41 mS만큼 변한다(이는 화상이 프로젝터에 의해 더 적은 지연을 보상하기 위해 미디어 블록에 의해 더 지연되기 때문이다). 일부 디지털 시네마 미디어 블록 또는 프로젝터는 전이(여기서, 24 또는 48 fps)에서 표현된 프레임 속도 중 하나 또는 둘 모두에서 블랙 이미지를 제공하는 것에 의해 이러한 화상 갭을 용이하게 제공할 수 있다. 이러한 상황에서, 차동 레이턴시 변화(여기서, -41 mS)는 편리한 정수 개의 프레임에 대응하지 않을 수 있고, 이 경우에 블랭킹 프레임 또는 블랙 프레임의 수는 그 다음 정수 카운트로 증가될 수 있고, 이 수의 프레임의 지속시간과 최소 값 사이의 차이는 사운드(오디오 출력)에 침묵으로 추가될 수도 있다. 이런 방식으로, 화상 갭이 최소값을 초과하여 수신하는 여분의 시간이 얼마이든지 간에 사운드는 동일하게 추가된 갭을 구비할 수 있다.
유사하게, 전이(623 및 613)는 -9 mS 및 -50 mS의 차동 레이턴시 변화를 각각 생성하여, 화상에 각각 도입되는 지속시간에 최소 블랭킹 갭을 요구한다. 역으로, 상태(620)로부터 상태(610)로 전이(621)는 ∂L이 2 mS로부터 43 mS로 변하게 하여, 오디오 트랙에 삽입된 41 mS 갭의 삽입을 요구하는 41 mS의 차동 레이턴시 변화를 야기하여, 침묵을 제공한다. 유사하게, 전이(632 및 631)는 9 mS 및 50mS의 차동 레이턴시 변화를 각각 생성하여, 오디오 트랙에 도입된 대응하는 갭을 요구한다. 이전과 같이, 일부 이유 때문에 최소값보다 더 긴 전이 시간이 필요한 경우, 사운드와 화상 신호는 최소값을 초과하는 동일한 증분 양만큼 패딩을 받는다.
도 7a는 디지털 시네마 컴포지션이 24 fps에서 플레이아웃되는 상태(610)로부터 디지털 시네마 컴포지션이 60 fps에서 플레이-아웃되는 상태(630)로 가는 전이(613)에 대응하고 좌측으로부터 우측으로 진행하는 예시적인 타임라인(700)을 도시한다. 타임라인(700)의 상부 절반은 디지털 시네마 컴포지션의 화상 (비디오) 요소를 나타내고, 하부 부분은 사운드 (오디오) 요소를 나타낸다. 예시적인 타임라인(700)은 디지털 극장 시스템(100A), 테이블(400) 및 상태도(600)에 비해 전술한 예와 일관성을 나타낸다. 따라서, 24 fps에서, ∂L은 43 mS이고, 이 이유 때문에 타임라인(700)에서, 화상 요소(701) 및 대응하는 사운드 요소(702)는 43 mS의 크기로 ∂L(703)만큼 서로 오프셋이 유지된다. (본 명세서에 사용된 규약에 따라, ∂L에 대해 양의 값은 사운드가 화상보다 뒤쳐지는 것을 나타낸다). 유사하게, 60 fps에서, ∂L은 -7 mS이어서, 화상 요소(704) 및 사운드 요소(705)가 -7 mS의 크기로 ∂L(706)만큼 오프셋되게 한다. 차동 레이턴시(703 및 706)의 차이는 타임라인(700)의 화상 정보에 50 mS 갭(707)을 생성한다. 디지털 시네마 프로젝터(140)의 요구조건과 호환가능하지 않은 경우, 갭(707)으로 표현된 간격에 대해, 디지털 시네마 미디어 블록(130A)은 화상 요소(704)의 시작까지 화상 요소(701)에 후속하는 화상 요소의 출력을 간단히 중지할 수 있다. 한편, 디지털 시네마 미디어 블록(130A)으로부터 극장 사운드 처리 시스템(150A)으로 사운드 정보를 출력하는 경우, 사운드 요소(702 및 705)들 사이에 갭 또는 인터럽션이 존재하지 않는다.
도 7b는 갭(707)을 허용하지 않는 프로젝터(140)와 연관된 상이한 예시적인 타임라인(710)을 도시한다. 대신, 디지털 시네마 미디어 블록(130A)은 적절한 수의 블랙 프레임(717)을 타임라인(710)의 화상 스트림에 주입할 수 있다. 프레임(717)의 총 지속시간은 갭(707)의 지속시간, 즉, 50 mS와 실질적으로 동일하여야 한다. 60 fps에서, 50 mS는 3개의 프레임에 대응한다. 프레임(717)을 화상 스트림에 주입한 후, 화상 요소(714)는 오디오 요소(715)에 대해 ∂L(716)(-7 mS)을 가지고 플레이된다. 타임라인(700)에서와 같이, 디지털 미디어 시네마 블록(130A)은 2개의 연속하는 사운드 요소(702 및 715)를 갭 또는 인터럽션 없이 극장 사운드 처리 시스템(150A)으로 출력한다. 이 접근법은 프레임(717) 및 이후 화상 요소(714)를 플레이하기 위하여 프로젝터(140)가 화상 요소(701)를 60 fps로 플레이하면서 24 fps로부터 동시에 스위칭하는 경우에는 잘 동작하지만, 또한 프로젝터(140)가 화상 요소(714)를 프로젝션하기 전에 60 fps에서 안정화할 수 있다면 동작할 수 있다.
도 7c는 프로젝터가 ∂L의 변화에 대응하는 시간 기간(즉, 갭(707)의 지속시간)에 24 fps로부터 60 fps로 스위칭할 수 없을 때 프로젝터(140)와 관련된 또다른 예시적인 타임라인(720)을 도시한다. 이 경우에, 디지털 시네마 미디어 블록(130)은 타임라인(720)의 화상과 사운드 트랙 각각으로 도입된 동일한 여분의 간격 'T'을 도입한다. 화상 트랙에서, 지속시간 'T'의 갭(727)이 ∂L의 변화에 대응하는 갭(729)(50 mS) 이전이나 이후에 추가된다('이전(before)' 이 도시된다). 사운드 트랙에서, 사운드 요소(702)에 후속하여, 실질적으로 동일한-지속시간 갭 또는 침묵 필러(fill)(728)가 도입되고, 이는 사운드 요소(725)를 리드한다(이는 화상 요소(724)에 대응하고 ∂L(726)로 도시된 바와 같이 -7mS만큼 이로부터 오프셋된다. 여러 실시예에서 요소(727 및 728)는 사운드에 대해 화상 또는 침묵에 대해 블랙 프레임을 나타내는 대응하는 신호 또는 필러(패딩이라고도 알려진 것)에 갭을 구성한다). 프로젝터(140) 및 극장 사운드 처리 시스템(150A)의 요구조건은 이러한 갭의 길이를 결정할 수 있다. 블랙 프레임으로 채워진 화상을 사용하면, 이들 프레임은 24 fps 또는 60 fps에서 발생할 수 있고, 지속시간 T은 이들 블랙 프레임의 총 지속시간에 대응할 수 있다. 타임라인(720)은 갭(729)이 허용가능하다고 가정하므로, 갭보다 선행하는 블랙 프레임이 필요할 것 같지는 않다. 일부 실시예에서, 간격 T을 나타내는 갭(729)과 갭(727)은 역순을 가질 수 있고, 갭(727)은 60 fps에서 블랙 프레임의 패딩을 포함하여 프로젝터(140)가 새로운 프레임 속도를 수용하거나 이에 동기화하는 것을 지원한다.
도 7d는, 도 7c의 타임 라인(720)과 유사하지만, 갭(729)이 블랙 프레임(739)으로 대체되어, 화상 트랙이 화상 요소(701)로부터 필러(737)(지속시간 'T'에 걸쳐 블랙 프레임)로, 블랙 프레임(739)으로, 화상 요소(734)로 연속적으로 흐르는 타임라인(730)을 도시한다. 사운드 요소(702)는 갭 또는 침묵(738)보다 선행하고 이 갭 또는 침묵 뒤에는 사운드 요소(735)가 후속하고 이 갭 또는 침묵은 화상 요소(734)에 대해 화상-사운드 차동 레이턴시(∂L)(736)를 유지한다. 이 예에서, 필러(737)는 글리치(glitch)-없는 동작을 위해 프로젝터(140)의 요구조건을 충족하는데 필요한 (즉, T + 50 mS 동안 블랙의 개입 간격으로 요소(701 및 734)에 대응하는 화상이 아닌 스크린(102)으로 프로젝션하는 것을 피하는데 필요한) 24 fps 또는 60 fps 또는 둘 모두(24 fps 이후 60 fps)의 블랙 프레임을 포함할 수 있다.
도 8a는 ∂L = -7 mS를 갖는 60 fps에서의 상태(630)로부터 ∂L = 43 mS를 갖는 24 fps에서의 상태(610)로 재귀 전이(631)를 포함하는 타임라인(800)을 도시한다. 화상 트랙에서, 60 fps에서의 화상 요소(801)는 24 fps에서의 화상 요소(804)와 인접한다. 이것은 프로젝터(140) 및 디지털 시네마 미디어 블록(130A)이 이들 값을 지원할 수 있는 것으로 가정한다. 사운드 트랙에서 화상 요소(801)에 대응하는 사운드 요소(802)는 -7 mS와 같은 ∂L(803)만큼 화상 요소(801)에 앞서 실행된다. 화상 요소(804)에 대응하는 사운드 요소(805)는 43 mS와 같은 ∂L(806)만큼 화상 요소(804) 뒤에서 실행되어, 타임라인(800)의 사운드 트랙에서 50 mS 갭(807)을 초래한다. 이것은 극장 사운드 처리 시스템(150A)이 글리치 없이 50 mS 침묵으로 이 갭을 해석하는 것으로 가정한다,
도 8b는 도 7b의 타임 라인(710)과 유사한 타임 라인(810)을 도시한다. 그러나, 타임라인(810)은 침묵(817)의 50 mS를 갖는 간격을 사운드 요소(802 및 815)들 사이에 패딩하는 디지털 시네마 미디어 블록(130A)을 도시한다. 여기서, 사운드 요소(815)는 43 mS와 같은 ∂L(816)만큼 대응하는 화상 요소(814)에 후속하여, 사운드 요소(802/815)들 사이에 50 msS 간격을 생성한다.
도 8c는 도 7c의 타임 라인(720)과 유사한 타임 라인(820)을 도시한다. 그러나, 도 7c의 타임 라인(720)과 대조적으로, 도 8c의 타임라인(820)은 프로젝터(140)(또는 디지털 시네마 미디어 블록(130A))가 60 fps로부터 24 fps로 바로 전이할 수 없어서, 성공적으로 스위칭하는데 일부 시간 기간 'T'를 요구하는 것으로 가정한다. 여기서, 사운드 요소(802 및 825)들 사이에 존재하는 50 mS 갭(829)에 더하여, (침묵 필러를 대체할 수 있는) 추가적인 갭(828)이 존재한다. 대응하는 갭 또는 블랙 프레임 필러(827)는 화상 요소(801 및 824)들 사이에 발생한다. 화상 요소(824)는 43 mS의 ∂L(826)을 갖는 사운드 요소(825)에 대응한다.
도 8d는 도 7d의 타임 라인(730)과 유사한 타임 라인을 도시한다. 도 7d의 타임 라인(730)과 비교해서, 이 도면의 타임라인(830)은 극장 사운드 처리 시스템(150A)이 사운드 요소(802 및 835)들 사이에 신호 손실을 완전히 수용할 수 없는 경우에 사용하기 위해 간격 'T'와 차동 레이턴시(803 및 836) 사이의 50 mS 차이에 대해 각각 침묵 패딩(838 및 839)을 사용한다. 지속시간 'T'는 임의의 지속시간을 구비할 수 있다. 그러나, 전술한 바와 같이, 프로젝터(140)는 디지털 시네마 미디어 블록(130A)으로부터 화상 신호에 갭을 용이하게 허용하지 않는 경우, 'T'의 지속시간은 60 fps 또는 24 fps 또는 이들 둘 모두에서 일정 개수의 블랙 프레임에 대응하여, 상태(610)로 전이할 때 새로운 프레임 속도로 전이를 제공할 수 있다. 타임라인(700, 710, 720, 730, 820 및 830) 중 어느 것에서, 디지털 시네마 프로젝터(140)는 예를 들어 청중에 보일 수 있는 글리치를 은닉하기 위하여 디지털 시네마 컴포지션이 하나의 프레임 속도로부터 다른 프레임 속도로 전이할 때 화상 요소들 사이에 비-제로의 지속시간 간격 동안 그 출력을 블랭킹할 수 있다.
도 9는 상이한 프레임 속도를 구비하여 차동 레이턴시(∂L)의 변화를 야기할 수 있는 경우에 2개의 연속하는 디지털 시네마 컴포지션들 사이에 전이를 관리하기 위해 도 1a의 디지털 시네마 시스템(100A)에 대해 전술한 예시적인 공정(900)을 도시한다. 일반적으로, 공정(900)으로 예시된 전이 관리 공정은 일반적으로 디지털 시네마 미디어 블록(예를 들어, 130A, 130B)으로 실행될 수 있다. 그러나, 전이 관리 공정의 일부 단계는 (예를 들어, 프로젝터(140)가 상이한 프레임 속도에서 레이턴시(145)에 대한 문의를 수신하는 미도시된 실시예에서) 프로젝터(140)와 통합을 요구할 수 있다. 나아가, 공정은 (예를 들어, 도 1b에서와 같이, 오디오 지연(152B)은 신호(136)에 의해 설정된 경우) 극장 사운드 처리 시스템(150B)과 통합을 요구할 수 있다.
전이 관리 공정(900)은 프로젝터(140)에 화상 출력 연결, 및 극장 사운드 처리 시스템(150A)에 사운드 출력 연결을 구비하는 도 1a의 디지털 시네마 미디어 블록(130A)으로 단계(901)에서 시작한다. 단계(902) 동안, 디지털 시네마 미디어 블록(130A)은 시스템이 (예를 들어, 기술자로부터 값을 수용하거나, 또는 프로젝터(140) 또는 다른 소스에 질문하는 것에 의해) 처리하도록 구성된 각 프레임 속도에 대해 차동 레이턴시를 수용한다. 이들 차동 레이턴시(∂L)는 메모리(135A)에 존재할 수 있다. 차동 레이턴시는 전술한 바와 같이 각 프레임 속도에 대해 경험적으로 제공될 수 있고, 또는 (칼럼(202, 203, 306, 406)에서 발견된 것과 같은) 성분 레이턴시와 지연 및 (칼럼(207)에서 지정된 것과 같은) 주요 좌석까지의 거리 또는 비행 시간이 제공될 수 있고 차동 레이턴시가 계산될 수 있다.
단계(903) 동안, 디지털 시네마 미디어 블록(130A)은 제1 디지털 시네마 컴포지션에 대해 제1 프레임 속도를 결정한다. 예를 들어, 디지털 시네마 미디어 블록(130A)은 디지털 시네마 컴포지션에서 메타데이터를 조사하는 것에 의해, 또는 대응하는 화상 에셋 파일 중 어느 것에서 메타데이터를 조사하는 것에 의해 프레임 속도를 결정할 수 있다. 단계(904) 동안, 디지털 시네마 미디어 블록(130A)은 메모리(135A)로부터 제1 프레임 속도에 대응하는 차동 레이턴시(∂L1)를 리콜하고, 차동 지연(134A)을 설정할 때 이 값을 적용한다. 디지털 시네마 미디어 블록(130A) 또는 프로젝터(140)가 새로이 설정된 프레임 속도로 조절되게 하는데 추가적인 지연이 필요한 경우, 이 지연 설정은 이 단계 동안 또한 발생한다. 그렇지 않은 경우 또는 이후, 제1 디지털 시네마 컴포지션은 ∂L1로 설정된 차동 지연(134A)을 갖는 디지털 시네마 미디어 블록(130A)에 의해 플레이아웃된다. 이것은 주요 좌석(102)에서 제로이거나 거의 제로인 값을 가지는 적절한 순 화상-사운드 레이턴시를 청중에 제공하게 한다.
단계(905) 동안, 디지털 시네마 미디어 블록(130A)은 제2 (그 다음) 디지털 시네마 컴포지션에 대응하는 제2 (그 다음) 프레임 속도를 결정한다. 이 단계 동안, 디지털 시네마 미디어 블록(130A)은 메모리(135A)로부터 대응하는 차동 레이턴시(∂L2)를 리콜한다. 그 다음에, 단계(906)는 디지털 시네마 미디어 블록(130A)이 ∂L1이 ∂L2와 같은지 (또는 현재 및 그 다음 프레임 속도가 서로 같은지) 여부를 비교하는 동작을 실행한다. 만약 그렇다면, 공정은 단계(910)로 분기되고 이 단계 동안, 제2 (그 다음) 디지털 시네마는 동일한 차동 레이턴시로 플레이된다. 일반적으로, 이것은 제1 및 제2 디지털 시네마 컴포지션의 플레이아웃 사이에 갭이나 필러가 필요치 않다는 것을 의미한다. 그러나, 디지털 시네마 프로젝터(140)가 지연을 요구하거나 부과할 수 있는 화상 포맷(예를 들어, 범위(scope)와 플랫(flat) 사이 또는 2D와 3D 사이)에 변화가 발생하면, 요구되는 차동 레이턴시에 변화가 없는 경우에도, 디지털 시네마 미디어 블록(130A)은 제2 디지털 시네마 컴포지션을 플레이아웃하기 전에 적절한 유형 및 지속시간의 갭 및/또는 필러를 사운드와 화상 트랙 각각에 삽입할 수 있다.
단계(906) 동안, 디지털 시네마 미디어 블록(130A)이 ∂L1 및 ∂L2가 동일하지 않는 것으로 결정한 경우, 단계(907) 동안, 디지털 시네마 미디어 블록은 새로운 차동 레이턴시(∂L2)가 현재 레이턴시(∂L1)보다 더 작은 값을 구비하는지 여부를 결정한다. 만약 그렇다면, 단계(909) 동안, 제1 디지털 시네마 컴포지션의 사운드 요소가 플레이를 종료할 때, 디지털 시네마 미디어 블록은 지속시간 ∂L1-∂L2의 사운드 패드(요구되는 바에 따라 침묵 또는 갭)를 (예를 들어, 갭(807) 또는 침묵 요소(817)와 같이) 사운드 트랙에 바로 이후 삽입하고, 처리는 단계(910)에서 계속된다. ∂L2 > ∂L1인 경우, 단계(907)로부터, 도 9의 공정(900)은 단계(908)로 분기하고 여기서 제1 디지털 시네마 컴포지션의 화상 요소가 플레이를 종료하면, 디지털 시네마 미디어 블록(130A)은 지속시간 ∂L2-∂L1의 화상 패드(요구되는 바에 따라 블랙 프레임 또는 갭)를 (예를 들어, 갭(707) 또는 블랙 프레임(717)과 같이) 화상 트랙으로 바로 이후 삽입하고, 여기서 또한, 처리는 단계(910)에서 계속된다.
단계(910) 동안, 디지털 시네마 미디어 블록(130A)은 제1 디지털 시네마 컴포지션에 후속하여 제2 디지털 시네마 컴포지션을 플레이하기 시작하지만, ∂L2로 설정된 차동 지연(134A)을 두고 플레이한다. 추가적인 지연이 필요치 않는 경우, 타임라인(720, 730, 820 및 830)에서와 같이, 제2 디지털 시네마 컴포지션은 제1 디지털 시네마 컴포지션의 사운드 요소 바로 다음에 제2 디지털 시네마 컴포지션의 사운드 요소, 또는 단계(909) 동안 삽입된 경우 사운드 패드와 함께, 제1 디지털 시네마 컴포지션 바로 이후 플레이아웃된다. 마찬가지로, 제2 디지털 시네마 컴포지션의 화상 요소는 단계(908) 동안 삽입된 경우 제1 디지털 시네마 컴포지션의 화상 요소 또는 화상 패드에 바로 후속한다. 전술한 바와 같이, 추가적인 지연이 필요한 경우, 디지털 시네마 미디어 블록(130A)은 매칭 갭(727 및 728, 737 및 738, 827 및 828, 및 837 및 838)을 갖고 단계(910) 동안 화상과 사운드 트랙에 이를 삽입한다. 이 매칭 갭은 타임라인(720, 730, 820, 830)에 도시된 바와 같이 (단계(908 또는 909)에서) 임의의 삽입된 패드 전에 일어날 수 있고; 또는 이 갭은 패드(도시 생략) 후에 삽입될 수 있다.
디지털 극장 시스템(100B)과 사용하기에 적절한 전이 관리 공정의 또 다른 예시적인 실시예에서, 단계(902)에서, (디지털 극장 시스템(100B)에서 사용되지 않는) 차동 레이턴시를 계산하는 대신, 적절한 오디오 지연 설정(t오디오_지연)이 경험적으로든 또는 계산에 의하든 대신 제공된다. (테이블(500)에서 60 fps에 대한 행에서와 같이) 오디오 지연(152B)에 대해 (칼럼(506)에서 제로와 같이) 최대 또는 최소 허용가능한 설정이 주요 좌석(120)에서 완벽한 화상-사운드 동기를 달성하기에 불충분할 수 있는 경우가 있을 수 있다. 이러한 경우에, 오디오 지연 설정(t오디오_지연)이 계산되고 있을 때, 계산된 값은 허용가능한 범위로 클램핑된다. 따라서, 테이블(500)에서 60 fps 행의 경우에, 계산하면, 극장 사운드 처리 시스템에 대해 이상적인 오디오 지연 값은 -7 mS일 수 있으나, 이 값은 하한을 초과하므로, 이 값은 최소 허용가능한 값(즉, 제로)으로 클램핑된다. 공정(900)에 대응하는 다른 단계에서, ∂Ln는 대응하는 t오디오_지연n으로 대체된다.
도 10은 수동 구성에 의존하는 일 실시예에 대한 단계(902)에서 사용될 수 있는 바와 같이 본 발명의 원리의 화상과 사운드 동기화 기술을 실시하는 하나의 예시적인 유저 인터페이스(1000)를 도시한다. 도 10의 인터페이스(1000)는 운영자가 칼럼(1020)에서 각 프레임 속도에 대한 상이한 차동 지연을 설정할 수 있게 하는 적절한 다이알로그(dialog)(1010)를 제공한다. 도시된 예에서, 운영자는 칼럼(405)에 도시된 특정 차동 지연 정보를 칼럼(1030)의 셀(cell)에 입력할 수 있거나 또는 증분/감분 화살표 버튼(1040 및 1042)을 사용하여 이러한 값을 각각 조절할 수 있다. 칼럼(1030)에 있는 설정을 조절한 후, 운영자는 OK 버튼(1050)을 눌러 이 설정을 메모리(135A)에 저장할 수 있고, 취소(CANCEL) 버튼(1052)을 눌러 이 설정에 임의의 변화를 중지시킬 수 있다.
운영자가 칼럼(405)에서와 같이 차동 레이턴시를 입력하는 대안적인 실시예(도시 생략)에서, 미디어 블록(130A)은 프로젝터 레이턴시에 대한 개별 성분 값(예를 들어, 칼럼(202, 203)), 극장 사운드 처리 시스템 오디오 지연(칼럼(306 또는 406))과 주요 좌석의 거리(105)(예를 들어, 칼럼(207)에서와 같이)로부터, 해당 프레임 속도에 대해 지연(135A)에 대응하는 차동 레이턴시를 연산할 수 있다. 이것은 프로젝터 사양이 레이턴시 정보를 명확히 제공하는 경우 해당하는 많은 상이한 프레임 속도에 대한 우수한 설계적 선택사항일 수 있다. 이러한 상황에서, 운영자가 OK 버튼을 누를 때, 디지털 미디어 시네마 블록(130A)은 대응하는 차동 레이턴시를 연산하고 이 값을 메모리(135A)에 저장할 수 있다. 대안적으로, 디지털 시네마 미디어 블록(130A)은 주어진 것으로 파라미터를 저장하고 필요할 때마다 차동 레이턴시를 연산할 수 있다. 메모리(135A)는 각 필요한 프레임 속도에 대해 차동 레이턴시를 나타내는 데이터를 저장하는 기능을 한다.
상기 사항은 상이한 프레임 속도에서 디지털 시네마 컴포지션에 대한 화상 (비디오)과 사운드 (오디오)를 동기화하는 방법 및 장치를 기술한다.

Claims (19)

  1. 디지털 시네마 컴포지션(digital cinema composition)을 플레이아웃(play out)하는 동안 플레이 리스트(play list)에서 상이한 프레임 속도(frame rate)를 갖는 디지털 시네마 컴포지션에 대하여 사운드 정보를 대응하는 화상 정보와 동기화하는 방법으로서,
    상기 플레이 리스트에서 상기 디지털 시네마 컴포지션의 대응하는 화상 정보에 대해, 상기 디지털 시네마 컴포지션 프레임 속도에 따라 연관된 오디오 레이턴시 설정을 수립하는 단계; 및
    상기 대응하는 디지털 시네마 컴포지션 프레임 속도에 대해 상기 연관된 오디오 레이턴시 설정에 따라 상기 디지털 시네마 컴포지션을 플레이아웃하는 동안 상기 사운드 정보와 상기 화상 정보 사이의 타이밍을 조절하는 단계를 포함하는 방법.
  2. 제1항에 있어서, 상기 사운드 정보와 상기 화상 정보 사이의 타이밍은 주어진 디지털 시네마 컴포지션 프레임 속도에서 대응하는 사운드 요소와 화상 요소 사이의 차동 레이턴시(differential latency)를 거의 제로(zero)로 하도록 조절되는 것인 방법.
  3. 제1항에 있어서, 상기 오디오 레이턴시 설정은 초당 24 프레임, 초당 48 프레임 및 초당 60 프레임의 디지털 시네마 컴포지션 프레임 속도로 수립되는 것인 방법.
  4. 제1항에 있어서, 상기 오디오 레이턴시 설정은 상기 화상 정보와 사운드 정보의 수신을 경험적으로 측정하여 수립되는 것인 방법.
  5. 제1항에 있어서, 상기 오디오 레이턴시 설정은 디지털 시네마 시스템 사양에 따라 계산된 것인 방법.
  6. 제1항에 있어서, 상기 사운드 정보와 화상 정보 사이의 타이밍은 상기 화상 요소가 상기 사운드 요소를 리드(lead)하는 경우 상기 화상 정보에서 화상 요소의 프리젠테이션을 지연시키도록 조절되는 것인 방법.
  7. 제1항에 있어서, 상기 사운드 정보와 화상 정보 사이의 타이밍은 상기 사운드 요소가 상기 화상 요소를 리드하는 경우 상기 사운드 정보 화상에서 상기 사운드 요소의 프리젠테이션을 지연시키도록 조절되는 것인 방법.
  8. 제1항에 있어서, 제2 프레임 속도로 제2 디지털 시네마 컴포지션을 플레이아웃하기 전에 제1 프레임 속도로 플레이아웃하는 제1 디지털 시네마 컴포지션의 상기 사운드 요소들 사이에 및 상기 화상 요소들 사이에 갭 또는 필러 중 하나를 삽입하는 단계를 더 포함하는 방법.
  9. 제8항에 있어서, 상기 사운드 요소에 대한 갭은 침묵을 포함하는 것인 방법,
  10. 제8항에 있어서, 상기 화상 요소들 사이의 필러는 블랭킹 프레임 또는 블랙 프레임 중 하나를 포함하는 것인 방법.
  11. 플레이 리스트에서 디지털 시네마 컴포지션을 프리젠테이션하는 디지털 시네마 시스템에서, 상기 디지털 시네마 컴포지션 프레임 속도에 상관없이 각 디지털 컴포지션에 대한 화상 정보 사운드 정보를 실질적으로 동기화하는 장치로서,
    프레임 속도로 수신된 디지털 시네마 컴포지션을 렌더링하는 디지털 시네마 미디어 블록을 포함하고, 상기 디지털 시네마 미디어 블록은,
    (a) 상기 플레이 리스트에서 상기 디지털 시네마 컴포지션의 대응하는 화상 정보에 대해, 상기 디지털 시네마 컴포지션 프레임 속도에 따라 연관된 오디오 레이턴시 설정을 수립하는 단계; 및
    (b) 상기 대응하는 디지털 시네마 컴포지션 프레임 속도에 대해 상기 연관된 오디오 레이턴시 설정에 따라 상기 디지털 시네마 컴포지션을 플레이아웃하는 동안 상기 사운드 정보와 상기 화상 정보 사이의 타이밍을 조절하는 단계를 포함하는 장치.
  12. 제11항에 있어서, 상기 디지털 시네마 미디어 블록은 상기 사운드 정보와 상기 화상 정보 사이의 타이밍을 조절하여, 주어진 디지털 시네마 컴포지션 프레임 속도에서 대응하는 사운드 요소와 화상 요소 사이의 차동 레이턴시를 거의 제로로 하는 것인 장치.
  13. 제11항에 있어서, 상기 디지털 시네마 미디어 블록은 초당 24 프레임, 초당 48 프레임 및 초당 60 프레임의 디지털 시네마 컴포지션 프레임 속도에 대해 상기 오디오 레이턴시 설정을 수립하는 것인 장치.
  14. 제11항에 있어서, 상기 디지털 시네마 미디어 블록은 상기 디지털 시네마 시스템의 사양에 따라 상기 오디오 레이턴시 설정을 계산하는 것인 장치.
  15. 제11항에 있어서, 상기 디지털 시네마 미디어 블록은 상기 화상 요소가 상기 사운드 요소를 리드하는 경우 상기 사운드 정보와 화상 정보 사이의 타이밍을 조절하여 상기 화상 정보에서 화상 요소의 프리젠테이션을 지연시키는 것인 장치.
  16. 제11항에 있어서, 상기 디지털 시네마 미디어 블록은 상기 사운드 요소가 상기 화상 요소를 리드하는 경우 상기 사운드 정보와 화상 정보 사이의 타이밍을 조절하여 상기 사운드 정보 화상에서 상기 사운드 요소의 프리젠테이션을 지연시키는 것인 장치.
  17. 제11항에 있어서, 상기 디지털 시네마 미디어 블록은 제2 프레임 속도로 제2 디지털 시네마 컴포지션을 플레이아웃하기 전에 제1 프레임 속도로 플레이아웃하는 제1 디지털 시네마 컴포지션의 상기 사운드 요소들 사이에 및 상기 화상 요소들 사이에 갭 또는 필러 중 하나를 삽입하는 것인 장치.
  18. 제17항에 있어서, 상기 사운드 요소에 대한 갭은 침묵을 포함하는 것인 장치.
  19. 제17항에 있어서, 상기 화상 요소들 사이의 필러는 블랭킹 프레임 또는 블랙 프레임 중 하나를 포함하는 것인 장치.
KR1020157002605A 2012-08-01 2013-02-15 화상 프레임 속도에 오디오 지연을 적응시키는 방법 및 장치 KR20150037949A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261678243P 2012-08-01 2012-08-01
US61/678,243 2012-08-01
PCT/US2013/026251 WO2014021936A1 (en) 2012-08-01 2013-02-15 Method and apparatus for adapting audio delays to picture frame rates

Publications (1)

Publication Number Publication Date
KR20150037949A true KR20150037949A (ko) 2015-04-08

Family

ID=47843395

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157002605A KR20150037949A (ko) 2012-08-01 2013-02-15 화상 프레임 속도에 오디오 지연을 적응시키는 방법 및 장치

Country Status (6)

Country Link
US (1) US9595299B2 (ko)
EP (1) EP2880867B1 (ko)
JP (1) JP2015529059A (ko)
KR (1) KR20150037949A (ko)
CN (1) CN104871550B (ko)
WO (1) WO2014021936A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160126136A (ko) * 2015-04-22 2016-11-02 삼성디스플레이 주식회사 멀티미디어 장치 및 이의 구동 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017103542A (ja) * 2015-11-30 2017-06-08 株式会社小野測器 同期装置、同期方法及び同期プログラム
US10334254B2 (en) * 2016-09-23 2019-06-25 Apple Inc. Feed-forward and feed-back metadata exchange in image processing pipelines to improve image quality
CN106572384B (zh) * 2016-11-15 2017-12-19 深圳市环球数码科技有限公司 一种实时音效处理系统和实时音效处理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4677466A (en) * 1985-07-29 1987-06-30 A. C. Nielsen Company Broadcast program identification method and apparatus
US7400653B2 (en) * 2004-06-18 2008-07-15 Dolby Laboratories Licensing Corporation Maintaining synchronization of streaming audio and video using internet protocol
EP1657929A1 (fr) * 2004-11-16 2006-05-17 Thomson Licensing Dispositif et méthode de synchronisation de différentes parties d'un service numérique
BRPI0607288A2 (pt) * 2005-02-07 2009-08-25 Thomson Licensing método e aparelho para reprodução de um sinal de vìdeo e um ou mais sinais de áudio relacionados com dados de áudio/vìdeo que são baseados em um sinal de vìdeo de frequência de quadro de 24 hz
JP4991129B2 (ja) * 2005-07-19 2012-08-01 Necディスプレイソリューションズ株式会社 映像音声再生装置および映像音声再生方法
KR100594995B1 (ko) 2006-03-17 2006-07-03 (주)동영아이텍 디지털 시네마 광고용 멀티미디어 파일 생성 시스템
ATE511313T1 (de) * 2007-03-06 2011-06-15 Thomson Licensing Digitales kino- anticamcorderaufzeichnungsverfahren und vorrichtung auf der basis von einzelbild- nachabtastung
US7430018B1 (en) 2008-03-24 2008-09-30 International Business Machines Corporation Timesharing of a display screen
GB0905317D0 (en) * 2008-07-14 2009-05-13 Musion Ip Ltd Video processing and telepresence system and method
JP5286050B2 (ja) 2008-11-28 2013-09-11 株式会社日立国際電気 符号化−復号化装置および映像伝送システム
US8363117B2 (en) * 2009-04-13 2013-01-29 Showscan Digital Llc Method and apparatus for photographing and projecting moving images
US8525885B2 (en) * 2011-05-15 2013-09-03 Videoq, Inc. Systems and methods for metering audio and video delays

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160126136A (ko) * 2015-04-22 2016-11-02 삼성디스플레이 주식회사 멀티미디어 장치 및 이의 구동 방법

Also Published As

Publication number Publication date
JP2015529059A (ja) 2015-10-01
CN104871550A (zh) 2015-08-26
EP2880867B1 (en) 2018-06-13
CN104871550B (zh) 2018-06-22
EP2880867A1 (en) 2015-06-10
US20150170712A1 (en) 2015-06-18
US9595299B2 (en) 2017-03-14
WO2014021936A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
US10992451B2 (en) Audio and video playback system and method for playing audio data applied thereto
ES2593032T3 (es) Audio alternativo para smartphones en una sala de cine
US8483414B2 (en) Image display device and method for determining an audio output position based on a displayed image
US7333154B2 (en) Method and apparatus for optimizing the presentation of audio visual works
KR101391380B1 (ko) 다면 상영을 위한 영상 보정 시스템 및 방법
JP5957760B2 (ja) 映像音声処理装置
TWI513305B (zh) 應用於多媒體內容的播放方法與播放裝置
JP5660895B2 (ja) ユーザー観察可能な信号を同期化させるための装置および方法
KR20150037949A (ko) 화상 프레임 속도에 오디오 지연을 적응시키는 방법 및 장치
KR20120105497A (ko) 가정 극장을 위한 최적화 컨텐트 보정
US20060083383A1 (en) Dynamically controlled digital audio signal processor
US20110134207A1 (en) Audio/video System
JP4256710B2 (ja) Av伝送方法及びav伝送装置、並びにav送信装置及びav受信装置
KR101455662B1 (ko) 다면 상영을 위한 영상 보정 시스템 및 방법
ES2233051T3 (es) Sistema y metodo para sincronizacion dinamica de una banda sonora digital con una imagen en movimiento.
JP2007221421A (ja) 映像音声再生システムおよびこれを構成するavセンターならびにモニター
JPH02200100A (ja) ビデオおよびオーディオ再生装置用音響投射装置
US20100166382A1 (en) Video and audio reproduction system, distribution device, and synchronization adjustment method
JPH08140200A (ja) 立体音像制御装置
KR100677162B1 (ko) A/v 동기를 자동 조정하는 av 시스템
JP6324829B2 (ja) 映像提供システムおよびプロラム
JP5581437B1 (ja) 映像提供システムおよびプロラム
Neuendorf et al. Immersive audio with MPEG 3D audio-status and outlook
JP2007221422A (ja) 映像音声再生システムおよびこれを構成するavセンターならびにモニター
Mori et al. Kansei-based investigation of methods for projection of digital content

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application