JP2015165704A - Encoding, distributing and displaying video data containing customized video content versions - Google Patents

Encoding, distributing and displaying video data containing customized video content versions Download PDF

Info

Publication number
JP2015165704A
JP2015165704A JP2015094732A JP2015094732A JP2015165704A JP 2015165704 A JP2015165704 A JP 2015165704A JP 2015094732 A JP2015094732 A JP 2015094732A JP 2015094732 A JP2015094732 A JP 2015094732A JP 2015165704 A JP2015165704 A JP 2015165704A
Authority
JP
Japan
Prior art keywords
display
video data
color
video
ambient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015094732A
Other languages
Japanese (ja)
Other versions
JP6158247B2 (en
Inventor
アトキンス,ロビン
atkins Robin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of JP2015165704A publication Critical patent/JP2015165704A/en
Application granted granted Critical
Publication of JP6158247B2 publication Critical patent/JP6158247B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6088Colour correction or control controlled by factors external to the apparatus by viewing conditions, i.e. conditions at picture output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25825Management of client data involving client display capabilities, e.g. screen resolution of a mobile phone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light

Abstract

PROBLEM TO BE SOLVED: To provide a method and an apparatus for processing video data containing two or more different versions of video content.SOLUTION: A display apparatus has: an input configured to receive video data and an input configured to receive ambient conditions for viewing the video data; and a processor configured to decode a base layer and at least first and second enhancement layers from the received video data, interpolate between at least two of the enhancement layers on the basis of the received ambient conditions, and generate a video data stream including a corrected base layer in accordance with the interpolated enhancement layers.

Description

本発明は、ビデオデータに関し、具体的にはビデオデータを配信する方法及び装置に関する。本発明の実施形態は、ビデオデータを配信する方法;ビデオデータフォーマット;ビデオデータを配信する装置;ビデオデータを受信する装置;及びビデオデータを処理する装置を提供する。   The present invention relates to video data, and more particularly to a method and apparatus for distributing video data. Embodiments of the present invention provide a method for distributing video data; a video data format; an apparatus for distributing video data; an apparatus for receiving video data; and an apparatus for processing video data.

[関連出願への相互参照]
この出願は、2010年6月15日に出願された米国仮特許出願第61/355,131号の優先権を主張するものである。この文献はここにその全体を参照援用する。
[背景技術]
ディスプレイには、テレビジョンと、コンピュータモニタと、ホームシネマディスプレイと、デジタルシネマディスプレイと、タブレットコンピュータ、セルラー電話、デジタルカメラ、コピー機、産業用制御装置などの専用ディスプレイと、医療用画像化、仮想現実、乗り物シミュレーションなどの特殊ディスプレイが含まれる。カラーディスプレイを用いて、画像データにより指定されたカラー画像を表示できる。
[Cross-reference to related applications]
This application claims priority from US Provisional Patent Application No. 61 / 355,131, filed Jun. 15, 2010. This document is hereby incorporated by reference in its entirety.
[Background technology]
The display includes a television, a computer monitor, a home cinema display, a digital cinema display, a dedicated display such as a tablet computer, a cellular phone, a digital camera, a copy machine, an industrial control device, a medical imaging, a virtual Includes special displays such as reality and vehicle simulation. A color image designated by image data can be displayed using a color display.

ディスプレイには、いろいろなディスプレイ基盤技術を組み込むことができる。例えば、ディスプレイは次のものであってもよい:陰極線管(CRT)ディスプレイ;バックライト型液晶ディスプレイ(LCD);プラズマディスプレイ;有機LEDディスプレイ(OLEDディスプレイ);レーザプロジェクタ;デジタルミラーデバイス(DMD)ディスプレイ;及びエレクトロルミネセントディスプレイ。これらの一般的な技術のどれであっても、幅広い構成及び組成の発光及び/又はフィルタリング素子を用いられる。次のエリアでは、ディスプレイによって機能が大きく異なることがある:表示可能な色の範囲(色域);最大輝度;コントラスト比;解像度;カラー深度;ダイナミックレンジ;ホワイトレベル、ホワイトポイント、ブラックポイント、グレイステップ数など。   Various display platform technologies can be incorporated into the display. For example, the display may be: a cathode ray tube (CRT) display; a backlit liquid crystal display (LCD); a plasma display; an organic LED display (OLED display); a laser projector; a digital mirror device (DMD) display And electroluminescent displays. Any of these common techniques can use light emitting and / or filtering elements with a wide range of configurations and compositions. The functions of the following areas may vary greatly depending on the display: range of colors that can be displayed (color gamut); maximum brightness; contrast ratio; resolution; color depth; dynamic range; white level, white point, black point, gray Number of steps etc.

そのため、再生されるディスプレイが異なると、同じビデオコンテンツでも見え方が異なることがある。ディスプレイによっては、修正せずにディスプレイ上に表示したビデオコンテンツは、ある面で(in one or more ways)クリエータの創作意図とは異なってしまっていることがある。   For this reason, if the display to be played is different, the same video content may appear differently. Depending on the display, the video content displayed on the display without modification may be in one or more ways different from the creator's intention to create.

現在のディスプレイには、ビデオコンテンツが創作された時に技術水準であったディスプレイを凌駕するものもある。例えば、ディスプレイによっては、ビデオ作品(video production)が創作された時に利用可能であったレガシーディスプレイより、明るいハイライト、大きなコントラスト比、及び/又は広い色域を有する画像を提供できるものもある。ビデオコンテンツに化体された創作意図から大きく逸脱することなく、改善されたこれらの機能を利用することが望ましい。   Some current displays surpass the display that was state of the art when video content was created. For example, some displays can provide images with brighter highlights, larger contrast ratios, and / or wider color gamuts than legacy displays that were available when video production was created. It would be desirable to take advantage of these improved features without significantly departing from the creative intent embodied in the video content.

高性能ディスプレイを利用するよう創作されたビデオコンテンツを、低機能のレガシーディスプレイで表示したい場合もある。ビデオコンテンツに化体された創作意図をできるだけ保つようビデオを再生するよう構成された方法及び装置を提供することが望ましい。   You may want to display video content created to use a high-performance display on a low-performance legacy display. It would be desirable to provide a method and apparatus configured to play a video so as to preserve the creative intent embodied in the video content as much as possible.

色と明るさの知覚は周辺状態により影響される。映画館の条件下で表示されるビデオは、周辺光が明るい場所で見た場合、まったく異なって知覚されることがある。さらに、周辺光の(色温度などの)特性はビデオコンテンツの見え方(viewer's perception)に影響を与える。ビデオコンテンツに化体された創作意図をできるだけ保つように、ビデオコンテンツを見る環境を考慮して、ビデオコンテンツの再生を調整(adapt)することが望ましい。   The perception of color and brightness is affected by ambient conditions. Video displayed under cinema conditions may be perceived quite differently when viewed in bright ambient light. Furthermore, the characteristics of ambient light (such as color temperature) affect the viewer's perception of video content. It is desirable to adapt the playback of the video content in consideration of the environment in which the video content is viewed so as to keep the creative intention embodied in the video content as much as possible.

(静止画像及び/又はビデオ画像を含む)画像を見る者に、その画像を見るディスプレイの機能を十分に引き出した視聴体験(viewing experiences)を提供する必要がある。信号中に符号化されたビデオその他の画像コンテンツが再生時に望んだように見えるよう、ビデオ信号の調整に適用できる装置及び方法が必要である。   There is a need to provide viewers with a viewing experience that fully exploits the capabilities of the display to view the image (including still and / or video images). There is a need for an apparatus and method that can be applied to the adjustment of a video signal so that video and other image content encoded in the signal will appear as desired during playback.

本発明は、異なる2つ以上のビデオコンテンツのバージョンを含むビデオデータを処理する方法と装置を提供する。異なるバージョンは、異なるディスプレイにおける表示、及び/又は異なる周辺条件下での視聴に対して最適化される。   The present invention provides a method and apparatus for processing video data that includes two or more different versions of video content. Different versions are optimized for display on different displays and / or for viewing under different ambient conditions.

本発明の一態様は、同じビデオコンテンツの複数のバージョンを一緒にパッケージングするステップを含む、ビデオデータを配信する方法を提供する。本発明の他の一態様は、ディスプレイのために最適化されたビデオコンテンツを配信する方法であって、異なる複数のビデオコンテンツのバージョンから最適化されたビデオコンテンツを生成するステップを有する方法を提供する。最適化されたビデオコンテンツは、例えば、異なる2つのビデオコンテンツのバージョン間の補間又は外挿により生成され得る。本発明の他の一態様は、ビデオコンテンツの異なる複数のバージョンから、目標ディスプレイに表示するのに最適化されたビデオコンテンツを生成するように構成されたデータ処理ステージを提供する。   One aspect of the present invention provides a method for distributing video data comprising the step of packaging together multiple versions of the same video content. Another aspect of the present invention provides a method of delivering video content optimized for display, the method comprising generating optimized video content from different versions of video content To do. Optimized video content can be generated, for example, by interpolation or extrapolation between two different versions of video content. Another aspect of the present invention provides a data processing stage configured to generate video content optimized for display on a target display from different versions of the video content.

本発明の他の一態様は、メディアサーバであって、同じビデオコンテンツの複数のバージョンを含むデータ記憶部を有し、目標ディスプレイにおける表示のために最適化された前記ビデオコンテンツのバージョンの一バージョンの選択と、前記ビデオコンテンツの異なる複数のバージョンから前記最適化されたビデオコンテンツの生成の一方又は両方により、目標ディスプレイにおける表示のために最適化されたビデオコンテンツを生成するように構成された、メディアサーバを提供する。   Another aspect of the present invention is a media server having a data store including multiple versions of the same video content, and a version of the video content version optimized for display on a target display And generating one or both of the optimized video content from different versions of the video content and generating optimized video content for display on a target display, Provide a media server.

他の一態様は、目標ディスプレイにおける表示のために最適化されたビデオコンテンツを配信する方法を提供する。該方法は、ビデオコンテンツの異なる少なくとも第1と第2のバージョンを有するビデオデータを提供するステップと、ビデオコンテンツの第1と第2のバージョンの間を補間又は外挿して、ビデオコンテンツの第3のバージョンを生成するステップとを有する。   Another aspect provides a method of delivering video content optimized for display on a target display. The method includes providing video data having at least first and second versions of the video content and interpolating or extrapolating between the first and second versions of the video content to provide a third video content. Generating a version of

他の一態様は、目標ディスプレイにおける表示のために最適化されたビデオコンテンツを配信する方法を提供する。該方法は、前記ビデオコンテンツの異なる複数のバージョンを含むビデオデータを1つのデータエンティティ中に設けるステップであって、前記異なるバージョンは異なる色域、異なるフレームレート、異なるビット深度、及び異なる空間的解像度のうち1つ以上を有するバージョンを含むステップを有する。該方法は、目標ディスプレイの機能を決定し、目標ディスプレイにおいて表示するため異なるバージョンのうちの一バージョンを選択して復号する。   Another aspect provides a method of delivering video content optimized for display on a target display. The method includes providing video data including different versions of the video content in a data entity, wherein the different versions have different color gamuts, different frame rates, different bit depths, and different spatial resolutions. Including a version having one or more of the following: The method determines the function of the target display and selects and decodes one of the different versions for display on the target display.

他の一態様は、データ処理ステージを有するビデオ処理装置を提供する。そのデータ処理ステージは、ビデオコンテンツの異なる複数のバージョンを符号化したビデオデータを読み取るように構成されている。異なるバージョンは、異なる色域、異なるフレームレート、及び異なるビット深度のうち1つ又は複数を有するバージョンを含む。該装置は、前記バージョンのうちの一バージョンが目標ディスプレイにおける表示に最適化されているか決定し、前記バージョンのうちの一バージョンが目標ディスプレイにおける表示に最適化されているとの決定に応じて、前記バージョンのうちの一バージョンを前記目標ディスプレイにおける表示のために供給するように構成される。   Another aspect provides a video processing apparatus having a data processing stage. The data processing stage is configured to read video data encoded with different versions of video content. Different versions include versions having one or more of different color gamuts, different frame rates, and different bit depths. The apparatus determines whether one of the versions is optimized for display on the target display, and in response to determining that one version of the version is optimized for display on the target display, A version of the version is configured to be provided for display on the target display.

他の一態様は、ビデオ処理装置を提供する。該装置は、ビデオ信号からベースレイヤと1つ又は複数のエンハンスメントレイヤを取り出し、それぞれが異なるビデオコンテンツのバージョンを符号化した複数の入力信号を生成するように構成されたデコーダと、前記複数の入力信号を受け取り、前記入力信号に対応する前記異なるバージョンの補間である出力信号を出力するように接続された補間部と、を有する。他の一態様は、異なる複数のビデオコンテンツのバージョンであって、異なる色域を有し、異なるフレームレートを有し、異なるビット深度を有し、または異なる周辺光のレベル下での視聴のために最適化された異なるバージョンを符号化したコンピュータ読み取り可能ビデオデータを有する持続的媒体を提供する。   Another aspect provides a video processing apparatus. The apparatus includes a decoder configured to extract a base layer and one or more enhancement layers from a video signal and generate a plurality of input signals each encoding a different version of video content; and the plurality of inputs And an interpolator connected to output an output signal that is a different version of the interpolation corresponding to the input signal. Another aspect is a plurality of different video content versions having different color gamuts, different frame rates, different bit depths, or for viewing under different ambient light levels A persistent medium having computer readable video data encoded with different versions optimized for the present invention is provided.

他の一態様は、カラーグレーディングステーションを提供する。該カラーグレーディングステーションは、 ビデオコンテンツを含むデータ記憶部と、複数のディスプレイと、コントローラとを有する。前記コントローラは、前記ビデオコンテンツを前記複数のディスプレイの各ディスプレイに表示し、前記複数のディスプレイの各ディスプレイに表示するため前記ビデオコンテンツの最適化を含む対応するユーザ入力を受け取り、それぞれが前記複数のディスプレイの一ディスプレイに関連した最適化を含む前記ビデオコンテンツの複数のバージョンを記憶し、前記異なる複数のビデオコンテンツのバージョンを符号化したコンピュータ読み取り可能ビデオデータに前記複数のバージョンを結合するコントローラと、を有する。   Another aspect provides a color grading station. The color grading station includes a data storage unit including video content, a plurality of displays, and a controller. The controller displays the video content on each display of the plurality of displays and receives corresponding user input including optimization of the video content for display on each display of the plurality of displays, each of the plurality of the plurality of displays. A controller for storing a plurality of versions of the video content including optimization related to one display of the display and combining the plurality of versions into computer readable video data encoding the different versions of the video content; Have

本発明のさらに別の態様と、本発明の具体的な実施形態の特徴は、以下に説明し、及び/又は図面に示す。   Additional aspects of the invention and features of specific embodiments of the invention are described below and / or illustrated in the drawings.

添付した図面は、本発明の限定的でない実施形態を示す。
ビデオデータ配信システムを示すブロック図である。 異なる複数の表示デバイスを含むユーザロケーションを示すブロック図である。 ビデオ製作システムを示す図である。 補間を行い最適なビデオ信号を提供するデータ処理ステージを示す図である。 補間により最適なビデオ信号を提供する方法を示すフローチャートである。 補間方法の一例を示す図である。 実施形態によるビデオ配信システムを示す図である。 他の実施形態によるビデオ配信システムを示す図である。
The accompanying drawings illustrate non-limiting embodiments of the invention.
It is a block diagram which shows a video data delivery system. FIG. 6 is a block diagram illustrating a user location including a plurality of different display devices. It is a figure which shows a video production system. FIG. 4 is a diagram illustrating a data processing stage that performs interpolation to provide an optimal video signal. 5 is a flowchart illustrating a method for providing an optimal video signal by interpolation. It is a figure which shows an example of the interpolation method. It is a figure which shows the video delivery system by embodiment. It is a figure which shows the video delivery system by other embodiment.

以下の説明では、本発明をよく理解してもらうために、具体的な詳細を記載する。しかし、本発明はこれらの具体的な事項がなくても実施することができる。他の例では、本発明を不必要に分かりにくくしないよう、周知の要素は図示せず、または詳細に説明しない。したがって、明細書と図面は例示であって限定ではないと考えるべきである。   In the following description, specific details are set forth in order to provide a thorough understanding of the present invention. However, the present invention can be practiced without these specific matters. In other instances, well-known elements have not been shown or described in detail so as not to unnecessarily obscure the present invention. Accordingly, the specification and drawings are to be regarded as illustrative and not restrictive.

この発明の一態様は、ビデオデータの配信に関する。フォーマットはベースレイヤと複数のエンハンスメントレイヤとを提供する。各エンハンスメントレイヤは、例えば、次のもの(1つ又は複数)を提供する:
−広い色域;
−相違する周辺条件への最適化(例えば、照度100ルクス以下の周辺光で見るようにベースレイヤが最適化されている場合、照度1000ルクス又はその他の照度の周辺光で見るように最適化されたバージョンを一エンハンスメントレイヤが提供する);
−高いフレームレート;
−大きいダイナミックレンジ;
−大きいビット深度;
−3次元情報(1つ以上の追加的視点など);
−大きい空間解像度。
実施形態によっては、ベースレイヤは、Rec.709準拠ビデオ信号などの低機能のビデオ信号に対応する。実施形態によっては、エンハンスメントレイヤは、人間の視覚系により知覚可能なすべての色を含む色域の色を指定するのに十分な色の範囲を含むフォーマットのビデオ信号など、高機能のビデオ信号に対応する。
One aspect of the present invention relates to distribution of video data. The format provides a base layer and a plurality of enhancement layers. Each enhancement layer provides, for example, the following (s):
-Wide color gamut;
-Optimized for different ambient conditions (e.g. if the base layer is optimized for viewing with ambient light of 100 lux or less, it is optimized for viewing with ambient light of 1000 lux or other illuminance) A single enhancement layer is provided);
-High frame rate;
-Large dynamic range;
-Large bit depth;
-3D information (such as one or more additional viewpoints);
-Large spatial resolution.
In some embodiments, the base layer is a Rec. It corresponds to low function video signals such as 709 compliant video signals. In some embodiments, the enhancement layer is applied to high performance video signals, such as video signals in a format that includes a range of colors sufficient to specify a color gamut that includes all colors perceivable by the human visual system. Correspond.

異なる複数のエンハンスメントレイヤを設けて、多様な看者の必要性を満たしても良い。図1は、ビデオデータ10がビデオソース12から複数のユーザロケーション15へ伝送網14により搬送される一実施形態を示す。この実施形態では、ビデオデータ10は、ベースレイヤ20と、第1及び第2のエンハンスメントレイヤ22A及び22Bとを含むフォーマットである。   Different enhancement layers may be provided to meet the needs of various viewers. FIG. 1 illustrates an embodiment in which video data 10 is carried by a transmission network 14 from a video source 12 to a plurality of user locations 15. In this embodiment, the video data 10 is in a format that includes a base layer 20 and first and second enhancement layers 22A and 22B.

伝送網14は、例えば、インターネットと、ケーブルテレビジョンシステムと、無線放送システムと、DVDなどの配布されるメディアと、ビデオデータを含むその他のデータ記憶デバイスと、その他の、ビデオデータ10をユーザロケーション15に配信できる任意のデータ通信システムとを含み得る。   The transmission network 14 includes, for example, the Internet, a cable television system, a wireless broadcasting system, a distributed medium such as a DVD, other data storage devices including video data, and other video data 10 in a user location. 15 and any data communication system that can be distributed.

ユーザロケーション15にはいろいろなディスプレイ16がある。図示した実施形態では、ユーザロケーション15Aはディスプレイ16Aを有し、ユーザロケーション15Bはディスプレイ16B−1と16B−2を有し、ユーザロケーション15Cはディスプレイ16Cを有する。   There are various displays 16 at the user location 15. In the illustrated embodiment, user location 15A has a display 16A, user location 15B has displays 16B-1 and 16B-2, and user location 15C has a display 16C.

ベースレイヤ20は、最小公倍数のディスプレイと互換性がある。例えば、ベースレイヤは、(Rec.709としても知られた)ITU−RリコメンデーションBT.709その他の広く受け入れられたフォーマットにより指定されたフォーマットであり、またはそのフォーマットに容易に変換できる。   The base layer 20 is compatible with the least common multiple display. For example, the base layer may be an ITU-R recommendation BT. (Also known as Rec. 709). 709 or a format specified by other widely accepted formats, or can be easily converted to that format.

この実施形態では、第1のエンハンスメントレイヤ22Aは、ベースレイヤの色域外の色を再生できるディスプレイに表示するのに適した拡張色域を有し、薄暗い周辺状態下での表示に最適化されたビデオデータのバージョンを提供する。第2のエンハンスメントレイヤ22Bは、エンハンスメントレイヤ22Aと似ているが、明るい周辺状態下での表示に最適化されている。   In this embodiment, the first enhancement layer 22A has an extended color gamut suitable for display on a display that can reproduce colors outside the base layer color gamut, and is optimized for display under dim ambient conditions. Provide a video data version. The second enhancement layer 22B is similar to the enhancement layer 22A, but is optimized for display under bright peripheral conditions.

ビデオデータ10は、表示される前に、データ処理ステージ18を通る。図示された実施形態に示したように、データ処理ステージ18は、(ディスプレイ16Aの場合のように)ディスプレイ16中にあってもよいし、(ユーザロケーション15Bの場合のように)ユーザロケーション15の上流デバイス19中にあってもよいし、(ユーザロケーション15Cの場合のように)ユーザロケーションの外の上流デバイス21中にあってもよい。上流デバイス21は、例えば、伝送網14中にあってもよいし、ビデオソース12にあってもよい。   Video data 10 passes through a data processing stage 18 before being displayed. As shown in the illustrated embodiment, the data processing stage 18 may be in the display 16 (as in the display 16A) or in the user location 15 (as in the user location 15B). It may be in the upstream device 19 or in the upstream device 21 outside the user location (as in the user location 15C). The upstream device 21 may be, for example, in the transmission network 14 or in the video source 12.

非限定的例として、上流デバイス19は、トランスコーダ、ケーブルモデム、セットトップボックスその他を含む。上流デバイス21は、トランスコーダ、ビデオ配信システムヘッドエンド、ビデオサーバその他を含む。   By way of non-limiting example, upstream device 19 includes a transcoder, cable modem, set top box, and the like. The upstream device 21 includes a transcoder, a video distribution system head end, a video server, and the like.

データ処理ステージ18は、ビデオデータ10から、具体的なディスプレイ16上に表示するのに最適化されたビデオストリーム23を生成するのに必要なデータを取り出す(extract)。実施形態によっては、データ処理ステージ18は、ディスプレイ16が見られている周辺状態に対して選択されたビデオストリーム23を取り出す。実施形態によっては、ディスプレイ16に付随する光センサ26が、周辺光(強さ及び/又は色)を検出し、その周辺光に関する周辺光情報27を、データ処理ステージ18に送る。データ処理ステージ18は、周辺光情報27を用いて、ディスプレイ16に適切なビデオストリーム23を配信するように、自機を設定する。   The data processing stage 18 extracts from the video data 10 the data necessary to generate a video stream 23 that is optimized for display on a specific display 16. In some embodiments, the data processing stage 18 retrieves the selected video stream 23 for the ambient state where the display 16 is viewed. In some embodiments, a light sensor 26 associated with the display 16 detects ambient light (intensity and / or color) and sends ambient light information 27 about the ambient light to the data processing stage 18. The data processing stage 18 uses the ambient light information 27 to set itself so as to distribute an appropriate video stream 23 to the display 16.

他の実施形態では、データ処理ステージ18は、前に記憶されたアカウント情報又はユーザ嗜好情報(図示せず)にアクセスし、ディスプレイ16に適切なビデオストリーム23を配信するように、自機を設定する。前に記憶された情報は、例えば、暗いシアターにおいて、あるディスプレイを用いることを示す。他の実施形態では、データ処理ステージ18は、ディスプレイの場所における周囲状態に関するユーザ入力を受け取り、そのユーザ入力を用いて、ディスプレイ16に適切なビデオストリーム23を配信するように自機を設定する。ユーザ入力は、例えば、コンピュータ、ディスプレイ、リモートコントローラ、ポータブルデジタルデバイス、スマートホンなどで受け取られ、任意の好適なデータ通信経路により、データ処理ステージ18に送られる。   In other embodiments, the data processing stage 18 configures itself to access previously stored account information or user preference information (not shown) and deliver the appropriate video stream 23 to the display 16. To do. Previously stored information indicates using a display, for example, in a dark theater. In other embodiments, the data processing stage 18 receives user input regarding ambient conditions at the display location and uses the user input to configure itself to deliver the appropriate video stream 23 to the display 16. User input is received, for example, by a computer, display, remote controller, portable digital device, smart phone, etc., and sent to the data processing stage 18 by any suitable data communication path.

データ処理ステージ18は、例えば、好適なソフトウェア及び/又はファームウェアを実行するプログラム式プロセッサ、好適な構成されたフィールドプログラマブルゲートアレイ(FPGA)などの構成可能ハードウェア、ハードウェア論理回路(例えば、集積回路に設けられているもの)、またはこれらの好適な組合せである。データ処理ステージ18は、コンピュータ、トランスコーダなどのビデオ処理デバイス、セットトップボックス、デジタルビデオレコーダなどに収容され、またはテレビジョンなどのディスプレイ、ホームシアターディスプレイ、デジタルカメラプロジェクタ、コンピュータビデオシステムなどに収容され、またはケーブルテレビジョンヘッドエンドなどのデータ伝送網のコンポーネント、ネットワークアクセスポイントなどに収容されてもよい。実施形態は、ここに説明するデータ処理ステージ18を収容した装置を提供する。   Data processing stage 18 includes, for example, a programmable processor executing suitable software and / or firmware, configurable hardware such as a suitably configured field programmable gate array (FPGA), hardware logic circuitry (eg, integrated circuit). Or any suitable combination thereof. The data processing stage 18 is accommodated in a video processing device such as a computer, a transcoder, a set top box, a digital video recorder, or the like, or in a display such as a television, a home theater display, a digital camera projector, a computer video system, etc. Or it may be accommodated in a component of a data transmission network such as a cable television head end, a network access point, or the like. Embodiments provide an apparatus containing a data processing stage 18 described herein.

実施形態によっては、データ処理ステージ18は、必要に応じて、ビデオデータ10を復号し、意図された表示先ディスプレイ16(intended destination display)に対して適切な1つ又は複数のベースレイヤ20、及び/又は1つ又は複数のエンハンスメントレイヤ22を選択する。他の実施形態では、データ処理ステージ18は、ベースレイヤ20及びエンハンスメントレイヤ22に基づき、しかしこれらとは異なるビデオデータを生成する。データ処理ステージ18は、新しいデータをビデオストリーム23として配信し、又は新しいデータを表示先ディスプレイ16に後で表示するためにファイルとして記憶する。   In some embodiments, the data processing stage 18 decodes the video data 10 as necessary, and one or more base layers 20 appropriate to the intended intended destination display 16, and One or more enhancement layers 22 are selected. In other embodiments, the data processing stage 18 generates video data based on, but different from, the base layer 20 and the enhancement layer 22. The data processing stage 18 distributes the new data as a video stream 23 or stores the new data as a file for later display on the destination display 16.

ビデオデータ10は、図1に示したようにストリーミングされるか、又はファイル構造になっていてもよい。図2に示すように、ユーザはビデオデータ10を含むファイル31を、様々な視聴デバイスでアクセスできるデータ記憶部30に保持できる。例えば、ユーザは、スマートホン32A、タブレットコンピュータ32B、通常のテレビジョン32C、ハイエンドホームシアタシステム32Dを有し、これらはすべてビデオコンテンツを表示できる。これらのデバイスはそれぞれビデオ表示用の機能が異なる。   Video data 10 may be streamed as shown in FIG. 1 or may have a file structure. As shown in FIG. 2, the user can hold a file 31 containing video data 10 in a data storage unit 30 that can be accessed by various viewing devices. For example, the user has a smartphone 32A, a tablet computer 32B, a regular television 32C, and a high-end home theater system 32D, all of which can display video content. Each of these devices has a different function for displaying video.

データ処理ステージ18は、デバイス32のひとつに対して適切なベースレイヤ20及び/又はエンハンスメントレイヤ22を選択することにより、選択されたデバイス32で再生するビデオデータ10のビデオコンテンツを準備し、そのデバイスでの再生のためのビデオファイル24又はストリーム23を生成する。ファイル24及び/又はストリーム23の生成は、データ処理ステージ18により、次の時点で行われる:
−事前に(例えば、ユーザがビデオデータ10をダウンロード又は取得した時に、データ処理ステージ18は、ユーザのデバイスで表示するのに最適なファイル24を自動的に生成及び記憶できる)。
−あるデバイスで再生するため、ビデオデータがダウンロードされた時に。
−あるデバイスがビデオデータ10を含むメディアコレクションに同期された時に。
−あるデバイスにビデオデータがストリーミングされている時に。
The data processing stage 18 prepares the video content of the video data 10 to be played on the selected device 32 by selecting the appropriate base layer 20 and / or enhancement layer 22 for one of the devices 32, and the device A video file 24 or a stream 23 is generated for playback on the computer. Generation of the file 24 and / or stream 23 is performed by the data processing stage 18 at the following times:
In advance (e.g., when the user downloads or acquires the video data 10, the data processing stage 18 can automatically generate and store a file 24 that is optimal for display on the user's device).
-When video data is downloaded for playback on a device.
When a device is synchronized to a media collection containing video data 10;
-When video data is being streamed to a device.

図3に示したように、異なるディスプレイにおいて、及び/又は異なる視聴条件下で、ビデオコンテンツを表示するのに最適化されたバージョンを含むビデオデータ10を提供することにより、ユーザに対するビデオコンテンツの見え方の創作的な制御の維持が容易になる。ビデオのプロデューサは、あるシーンにおいて使われる色のパレット、シーンのコントラスト、シーンの最大輝度などの要因によりユーザに伝えることを意図された創作意図を有することがある。これらの要因及び似た要因は、そのシーンがどのように見る者に知覚されるかに影響を与える。創作意図はコンテンツやプロデューサに依存し、分析的に判断するのは非常に困難である。   As shown in FIG. 3, the appearance of video content to a user by providing video data 10 that includes a version optimized for displaying the video content on different displays and / or under different viewing conditions. It is easier to maintain creative control. A video producer may have a creative intent intended to convey to the user due to factors such as the palette of colors used in a scene, the contrast of the scene, the maximum brightness of the scene, and the like. These and similar factors affect how the scene is perceived by the viewer. The creative intent depends on the content and the producer and is very difficult to judge analytically.

例えば、次の質問に答えるようにコンピュータをプログラムすることは難しいか、不可能である:「あるビデオコンテンツのあるプロデューサは、そのビデオコンテンツを、指定された周囲の視聴条件下において、指定された機能を有するあるディスプレイで見ることを意図した場合、いかにしてそのコンテンツを異ならせたか?」図3に示すように、ビデオデータ10はビデオコンテンツの複数のバージョンを含む。プロデューサPは、その複数のバージョンのそれぞれを、別々に最適化して承認してもよい。   For example, it is difficult or impossible to program a computer to answer the following question: “A certain producer of video content has been given that video content under specified ambient viewing conditions. How was the content different if it was intended to be viewed on a functional display? As shown in FIG. 3, the video data 10 includes multiple versions of the video content. The producer P may optimize and approve each of the multiple versions separately.

図示した実施形態では、プロデューサPは、複数の参照ディスプレイ26にアクセスできる。参照ディスプレイ26Aは、暗い環境において見る標準参照ディスプレイである。プロデューサは、ディスプレイ26Aにおいてベースレイヤ20のビデオコンテンツを見て、カラーグレーディングステーション28を用いて、プロデューサの創作意図に応じて、ディスプレイ26Aにおけるビデオコンテンツの見え方を最適化する。カラーグレーディングステーション28は、高画質ビデオデータ29を入力とする。ビデオデータ29は、例えば、高いダイナミックレンジ、広い色域、及び大きいビット深度を有する。   In the illustrated embodiment, producer P has access to multiple reference displays 26. The reference display 26A is a standard reference display viewed in a dark environment. The producer views the video content of the base layer 20 on the display 26A and uses the color grading station 28 to optimize the appearance of the video content on the display 26A according to the producer's creative intention. The color grading station 28 receives high-quality video data 29 as input. The video data 29 has, for example, a high dynamic range, a wide color gamut, and a large bit depth.

図示された実施形態では、プロデューサも、色域が広くダイナミックレンジが広いディスプレイ26Bにアクセスできる。プロデューサは、暗い周囲条件下でディスプレイ26Bにおいてエンハンスメントレイヤ22Aのビデオコンテンツを見て、カラーグレーディングステーション28を用いて、プロデューサの創作意図に応じて、ディスプレイ26Bにおけるエンハンスメントレイヤ22Aのビデオコンテンツの見え方を最適化する。   In the illustrated embodiment, the producer can also access a display 26B with a wide color gamut and a wide dynamic range. The producer looks at the enhancement layer 22A video content on the display 26B under dark ambient conditions and uses the color grading station 28 to determine how the enhancement layer 22A video content appears on the display 26B, depending on the producer's creative intent. Optimize.

また、プロデューサは、明るい周囲条件下でディスプレイ26Bにおいてエンハンスメントレイヤ22Bのビデオコンテンツを見て、カラーグレーディングステーション28を用いて、プロデューサの創作意図に応じて、ディスプレイ26Bにおけるエンハンスメントレイヤ22Bのビデオコンテンツの見え方を最適化する。カラーグレーディングステーション28は、プロデューサが、異なる周辺条件下で異なるディスプレイにおいて表示するためにビデオコンテンツの複数のバージョンを効率的に生成するのを支援する自動ツールまたは半自動ツールを有する。   The producer also looks at the enhancement layer 22B video content on the display 26B under bright ambient conditions and uses the color grading station 28 to view the enhancement layer 22B video content on the display 26B according to the producer's creative intentions. Optimize the way. The color grading station 28 has automated or semi-automated tools that assist producers in efficiently generating multiple versions of video content for display on different displays under different ambient conditions.

プロデューサがベースレイヤとエンハンスメントレイヤのビデオコンテンツのバージョンを承認すると、エンコーダ25は承認されたビデオコンテンツのバージョンをビデオデータ10に書き込む。   When the producer approves the base layer and enhancement layer video content versions, the encoder 25 writes the approved video content version to the video data 10.

このように、ビデオデータ10は、プロデューサPの創作意図に応じて、異なるディスプレイ及び/又は異なる視聴条件においての利用に最適化された、同じビデオコンテンツの異なる複数のバージョンを含む。これにより、ユーザは、プロデューサの創作意図にほぼ一致した見え方で、ビデオコンテンツを楽しむことができる。   In this way, the video data 10 includes different versions of the same video content that are optimized for use on different displays and / or different viewing conditions, depending on the creative intent of the producer P. As a result, the user can enjoy the video content in a manner that almost matches the producer's creation intention.

ビデオデータ10のベースレイヤ又はエンハンスメントレイヤが、表示するディスプレイ(destination display)に好適な方法ですでに最適化されている場合、そのレイヤに基づくビデオ信号を、表示するディスプレイに送る。実施形態によっては、データ処理ステージ18は、表示するディスプレイの機能と周辺条件が、ベースレイヤ20及びエンハンスメントレイヤ22の一方が最適化された機能と周辺条件に(厳密に又はあす閾値範囲内で)一致しているか判断するように構成されている。一致していれば、レイヤのうち一致しているものから得られるビデオ信号を、修正無しに出力する。   If the base layer or enhancement layer of the video data 10 has already been optimized in a manner suitable for the destination display, the video signal based on that layer is sent to the display for display. In some embodiments, the data processing stage 18 is configured so that the display function and peripheral conditions to be displayed are the functions and peripheral conditions optimized for one of the base layer 20 and the enhancement layer 22 (strictly or within a threshold range). It is configured to determine whether they match. If they match, the video signal obtained from the matching layer is output without correction.

ビデオデータ10は、どんな視聴条件においてもあらゆるディスプレイに対して最適化された複数のエンハンスメントレイヤ22を含む必要はない。上記の通り、データ処理ステージ18は、ベースレイヤとエンハンスメントレイヤに基づき、しかしそれとは異なる、あるディスプレイのためのビデオデータを生成できる。実施形態によっては、これはベースレイヤとエンハンスメントレイヤの間の補間及び/又は外挿、及び/又は2つのエンハンスメントレイヤの間の補間及び/又は外挿を含む。補間又は外挿は、2つのレイヤに関連する機能に対する、目標ディスプレイの機能に基づく。   Video data 10 need not include multiple enhancement layers 22 optimized for any display in any viewing condition. As described above, the data processing stage 18 can generate video data for a display that is based on, but different from, the base layer and the enhancement layer. In some embodiments, this includes interpolation and / or extrapolation between the base layer and the enhancement layer, and / or interpolation and / or extrapolation between the two enhancement layers. Interpolation or extrapolation is based on the function of the target display relative to the functions associated with the two layers.

データ処理ステージ18は、目標ディスプレイの機能、及び/又はその目標ディスプレイにおける周辺照明状態に関する情報を、何らかの方法で受け取る。例えば:
−データ処理ステージ18は、ある目標ディスプレイの機能に対してハードワイヤードであってもハードコーディッドであってもよい。これは、例えば、データ処理ステージ18がディスプレイに組み込まれているか、及び/又はあるディスプレイ専用である実施形態に最も適している。
−データ処理ステージ18は、ある目標ディスプレイの機能を記述する情報を含むメモリやレジスタセットなどを含む、又はそれにアクセスするように接続されている。これは、例えば、データ処理ステージ18が、1つ又は複数のディスプレイに対して専用であるセットトップボックスその他の装置に組み込まれている実施形態において最も適切である。
−データ処理ステージ18は、通信経路により目標ディスプレイと通信でき、その通信経路がビデオ信号も目標ディスプレイに搬送する。
−データ処理ステージ18は、インターネットその他のデータ通信経路により、相互にデータ通信しており、目標ディスプレイの機能に関する情報を含む情報を交換できる。
−目標ディスプレイは、サーバにドックされ、さもなければ定期的に接続される一デバイス中にあっても、その一デバイスに付随しており、データアップロードを受け取れる。デバイスは、サーバへの接続している間に、サーバ又はデータ処理ステージ18に目標ディスプレイの機能に関する情報を転送できる。
Data processing stage 18 receives in some way information about the capabilities of the target display and / or the ambient lighting conditions at the target display. For example:
The data processing stage 18 may be hardwired or hardcoded for a certain target display function. This is most appropriate for embodiments where, for example, the data processing stage 18 is integrated into the display and / or is dedicated to a display.
The data processing stage 18 includes or is connected to a memory, a register set, etc. that contains information describing the function of a target display. This is most appropriate, for example, in embodiments where the data processing stage 18 is incorporated into a set top box or other device that is dedicated to one or more displays.
The data processing stage 18 can communicate with the target display via a communication path, which also carries the video signal to the target display.
The data processing stage 18 is in data communication with each other via the Internet or other data communication path and can exchange information including information regarding the function of the target display.
-The target display is associated with one device, even in one device that is docked to the server and otherwise connected periodically, and can receive data uploads. While connected to the server, the device can transfer information regarding the capabilities of the target display to the server or data processing stage 18.

データ処理ステージ18は、2つ以上のベースレイヤ20とエンハンスメントレイヤ22に対応するビデオストリームから、補間及び/又は外挿により、ビデオストリーム23又はファイル24を求める。ビデオデータ10のビデオコンテンツのバージョンがすべて、創作意図を保つように(例えば、好適なカラータイミングにより)個別に最適化されている場合、補間又は外挿される値は、その創作意図を保つものであることが期待される。   The data processing stage 18 obtains a video stream 23 or a file 24 from video streams corresponding to two or more base layers 20 and enhancement layers 22 by interpolation and / or extrapolation. If all versions of the video content of the video data 10 are individually optimized to preserve the creative intent (eg, by suitable color timing), the values that are interpolated or extrapolated are those that preserve the creative intent. It is expected to be.

図4Aは、ビデオデータ10からの2つ以上のビデオコンテンツのバージョンに基づき最適化されたビデオデータを生成するように構成されたデータ処理ステージ18の一例のコンポーネントを示すブロック図である。図4Bは、入力された2つ以上のビデオコンテンツのバージョンに基づき最適化されたビデオデータを生成する方法70を示すフローチャートである。データ処理ステージ18は、ビデオデータ10から、ベースレイヤ20及び/又はエンハンスメントレイヤ22を取り出すデコーダ45を有する。図示した実施形態では、ビデオデータ10は、ベースレイヤ20と2つのエンハンスメントレイヤ22A、22Bを含む。実施形態によっては、デコーダ45は、あるディスプレイに対して最適化されたビデオコンテンツを生成するのに使われるベースレイヤ20とエンハンスメントレイヤ22のみを取り出す。デコーダ45は、補間/外挿ブロック48に2つの入力信号47A、47Bを供給する。   FIG. 4A is a block diagram illustrating an example component of data processing stage 18 configured to generate optimized video data based on two or more versions of video content from video data 10. FIG. 4B is a flowchart illustrating a method 70 for generating optimized video data based on two or more input versions of video content. The data processing stage 18 includes a decoder 45 that extracts the base layer 20 and / or the enhancement layer 22 from the video data 10. In the illustrated embodiment, the video data 10 includes a base layer 20 and two enhancement layers 22A, 22B. In some embodiments, the decoder 45 extracts only the base layer 20 and enhancement layer 22 that are used to generate video content optimized for a display. The decoder 45 supplies two input signals 47 A and 47 B to the interpolation / extrapolation block 48.

各入力信号47は画素値を含む。画素値は、例えば、色空間における色調座標及び/又は色座標の値を有する。実施形態によっては、色空間は知覚的に線形な色空間である。   Each input signal 47 includes a pixel value. The pixel value has, for example, a color coordinate and / or a color coordinate value in the color space. In some embodiments, the color space is a perceptually linear color space.

補間/外挿ブロック48は、入力信号47の対応画素値間の補間又は外挿をする(ステップ73)ことにより、出力値49を生成するように構成されている。補間/外挿ブロック48は、出力50として、修正ビデオ信号で出力値49を供給する(ステップ74)。補間/外挿ブロック48の制御入力52は、補間/外挿ブロック48の動作を制御する制御値を受け取る。単純な一実施形態では、補間/外挿ブロック48において、制御値に、第1と第2のビデオ信号47Aと47Bの対応する値の間の差分をかける。ブロック48により行われる補間/外挿は、制御入力52で受け取る値に基づく。制御入力52に与えられる値は、表示するディスプレイの機能の尺度に基づき、及び/又は表示するディスプレイにおける周辺条件の尺度に基づき決定される。   The interpolation / extrapolation block 48 is configured to generate an output value 49 by interpolating or extrapolating between corresponding pixel values of the input signal 47 (step 73). Interpolation / extrapolation block 48 provides output value 49 as an output 50 with a modified video signal (step 74). The control input 52 of the interpolation / extrapolation block 48 receives control values that control the operation of the interpolation / extrapolation block 48. In one simple embodiment, in the interpolation / extrapolation block 48, the control value is multiplied by the difference between the corresponding values of the first and second video signals 47A and 47B. The interpolation / extrapolation performed by block 48 is based on the value received at control input 52. The value provided to the control input 52 is determined based on a measure of the function of the display to be displayed and / or based on a measure of ambient conditions in the display to be displayed.

図4Cは、補間/外挿を行う一方法を示す。図4Cにおいて、第1のビデオ信号の値はyであり、第2のビデオ信号の対応する値はyである。図4Cの水平軸は、表示するディスプレイの機能又は周辺条件の尺度を示す。例えば、水平軸は、表示するディスプレイのダイナミックレンジを示し、または何らかのインデックスに応じた表示するディスプレイの最大照度の対数を示す。第1のビデオ信号47Aは、機能Aを有するディスプレイによる表示に最適化されたビデオコンテンツのバージョンを含み、第2のビデオ信号47Bは、機能Bを有するディスプレイによる表示に最適化されたビデオコンテンツのバージョンを含む。そのビデオ信号を表示するディスプレイ(destination display)が機能Cを有する場合、出力値は、例えば

Figure 2015165704
により決定される。(C−A)は正または負である。|C−A|は|B−A|より大きくても小さくてもよい。 FIG. 4C illustrates one method for performing interpolation / extrapolation. In Figure 4C, the value of the first video signal is y 1, the corresponding value of the second video signal is y 2. The horizontal axis of FIG. 4C shows the scale of the display function or ambient conditions to display. For example, the horizontal axis indicates the dynamic range of the display to be displayed, or the logarithm of the maximum illuminance of the display to be displayed according to some index. The first video signal 47A includes a version of video content that is optimized for display by a display having function A, and the second video signal 47B is a video content that is optimized for display by a display having function B. Includes version. When the display that displays the video signal (destination display) has the function C, the output value is, for example,
Figure 2015165704
Determined by. (CA) is positive or negative. | C-A | may be larger or smaller than | B-A |.

式(1)によると、y=yであれば、VOUTはyおよびyに等しい。よって、クリエータが、第1と第2のビデオ信号により表されるビデオコンテンツの第1と第2のバージョンにおいて、意図的にyとyを等しく設定した場合、式(1)を用いる実施形態では、及びこれと同じ特徴を有するその他の実施形態でも、出力ビデオ信号においてこの値は保たれる。一方、y≠yである場合、VOUTはyともyとも異なる。 According to equation (1), if y 1 = y 2 then V OUT is equal to y 1 and y 2 . Thus, if the creator intentionally sets y 1 and y 2 equal in the first and second versions of the video content represented by the first and second video signals, the implementation using equation (1) In form, and in other embodiments having the same characteristics, this value is maintained in the output video signal. On the other hand, when y 1 ≠ y 2 , V OUT is different from y 1 and y 2 .

実施形態によっては、データ処理ステージ18は、知覚曲線に沿って補間/外挿するように構成されている。例えば、データ処理ステージ18は、照度の対数で補間/外挿をするように構成されてもよい。実施形態によっては、ビデオデータは、補間/外挿する前に、知覚的に一様な色空間(例えば、IPTやLogYuv)で与えられ、またはそれに変換される。   In some embodiments, the data processing stage 18 is configured to interpolate / extrapolate along the perceptual curve. For example, the data processing stage 18 may be configured to perform interpolation / extrapolation with the logarithm of illuminance. In some embodiments, the video data is given or converted into a perceptually uniform color space (eg, IPT or LogYuv) before interpolation / extrapolation.

実施形態によっては、ビデオデータ間の補間は、

Figure 2015165704
により行われる。ここで、YはLogYxyやLogYuv鋳などの色空間における照度座標であり、(YVDRなどの)添字VDRはより高い機能(例えばより高いダイナミックレンジ及び/又はより広い色域)を有するビデオ信号からのデータを識別し、添字LDRはより低い機能を有するビデオ信号からのデータを識別し、添字MDRは出力又は目標ビデオ信号を識別し、αとβは補間定数であり、xとyは色座標である(例えば、LogYxy色空間中のxとyや、LogYu’v’色空間中のu’とv’)。ここで、αは例えば
Figure 2015165704
により与えられる。ここで、max(YVDR)は(高機能の)VDRビデオ信号で指定できるYの最大値であり、max(YLDR)は(低機能の)LDRビデオ信号で指定できるYの最大値であり、max(YTARGET)は目標ディスプレイで再生できるYの最大値であり、βはβ=1−αにより与えられる。 In some embodiments, the interpolation between video data is
Figure 2015165704
Is done. Here, Y is luminance coordinates in color space such as cast LogYxy and LogYuv, from a video signal having a (Y VDR like) subscript VDR higher functionality (e.g., higher dynamic range and / or wider gamut) The subscript LDR identifies the data from the lower function video signal, the subscript MDR identifies the output or target video signal, α and β are interpolation constants, and x and y are color coordinates. (For example, x and y in the LogYxy color space, and u ′ and v ′ in the LogYu′v ′ color space). Where α is, for example,
Figure 2015165704
Given by. Here, max (Y VDR ) is the maximum value of Y that can be specified in the (high function) VDR video signal, and max (Y LDR ) is the maximum value of Y that can be specified in the (low function) LDR video signal. , Max (Y TARGET ) is the maximum value of Y that can be reproduced on the target display, and β is given by β = 1−α.

例1:
一実施形態では、暗い周辺条件で見るために最適化されたビデオコンテンツの一バージョンと、明るい周辺条件で見るために最適化されたビデオコンテンツの他の一バージョンとをそれぞれ含む2つのエンハンスメントレイヤ間で、補間を行う。補間は固定でもよい。代替的な実施形態では、補間は、表示するディスプレイにおける周辺照明に依存して可変であってもよい。実施形態によっては、補間/外挿エンジン48の入力52に、周辺照明情報27が供給される。かかる実施形態では、周辺照明情報27は、2つの入力信号47Aと47Bに与えられる相対的な重みを制御する。
Example 1:
In one embodiment, between two enhancement layers, each containing one version of video content optimized for viewing in dark ambient conditions and another version of video content optimized for viewing in bright ambient conditions Then, interpolation is performed. Interpolation may be fixed. In alternative embodiments, the interpolation may be variable depending on the ambient lighting in the display to display. In some embodiments, ambient lighting information 27 is supplied to the input 52 of the interpolation / extrapolation engine 48. In such an embodiment, ambient lighting information 27 controls the relative weights provided to the two input signals 47A and 47B.

例2:
他の一実施形態では、表示するディスプレイ16又はデバイス32は、ベースレイヤ20で仮定された閾値より広い色域を有する。かかる実施形態では、広い色域のディスプレイに対して最適化されたベースレイヤ20とエンハンスメントレイヤ22との間で補間を行う。補間においてベースレイヤとエンハンスメントレイヤとに与えられる相対的な重みは、ベースレイヤ20とエンハンスメントレイヤ22で仮定された閾値と比較して表示するディスプレイの色域がどれだけ広いかの尺度に基づく。
Example 2:
In another embodiment, the display 16 or device 32 for display has a color gamut wider than the threshold assumed in the base layer 20. In such an embodiment, interpolation is performed between the base layer 20 and the enhancement layer 22 optimized for a wide color gamut display. The relative weight given to the base layer and the enhancement layer in the interpolation is based on a measure of how wide the display color gamut to display compared to the threshold assumed in the base layer 20 and the enhancement layer 22.

例3:
ある実施形態では、表示するディスプレイのために作成されたビデオ信号は、ビデオデータ10の3つ以上のビデオコンテンツのバージョンに基づく。例えば、表示するディスプレイは、ベースレイヤと、その表示ディスプレイにおける周辺照明とで仮定された色域より、ある点で広い色域の色を再生できる。データ処理ステージ18は、最初に、上記の「例1」で説明したように、表示するディスプレイにおける周辺条件に基づき2つのエンハンスメントレイヤ間を補間し、次に、上記の「例2」で説明したように、表示するディスプレイの相対的に機能に基づき、結果の信号とベースレイヤとの間の補間をする。
Example 3:
In some embodiments, the video signal created for the display to display is based on three or more video content versions of the video data 10. For example, the display to be displayed can reproduce colors having a color gamut wider than that assumed by the base layer and the ambient illuminance in the display. The data processing stage 18 first interpolates between the two enhancement layers based on the peripheral conditions on the display to be displayed, as described in “Example 1” above, and then described in “Example 2” above. Thus, the interpolation between the resulting signal and the base layer is based on the relative function of the display to be displayed.

ビデオデータ10は、異なるディスプレイ及び/又は視聴条件に対して最適化された2つ以上のビデオコンテンツのバージョンを含むことができる幅広い構成を有する。異なるビデオコンテンツのバージョンは、ビデオデータ10に個別に表し得るが、エンハンスメントレイヤをベースレイヤとの差分でエンコードする、又はその逆をする方がずっと効率的である。一例では、ビデオデータ10は、選択的に復号できる複数のレイヤを含むビットストリームを含む。例えば、「Scalable Video Coding」または「SVC」と呼ばれることもあるH.264/MPEG−4AVCビデオ圧縮標準のAnnexGにより規定された符号化方式と同様なスケーラブルなビデオコーデックを用いて、異なるレイヤを配信できる。   Video data 10 has a wide variety of configurations that can include two or more versions of video content optimized for different display and / or viewing conditions. Different versions of video content may be represented individually in the video data 10, but it is much more efficient to encode the enhancement layer with the difference from the base layer and vice versa. In one example, video data 10 includes a bitstream that includes multiple layers that can be selectively decoded. For example, H.264, sometimes referred to as “Scalable Video Coding” or “SVC”. Different layers can be distributed using a scalable video codec similar to the encoding method defined by Annex G of the H.264 / MPEG-4 AVC video compression standard.

図5Aと5Bは、実施形態によるビデオ配信システムを示す。図5Aにおいて、表示するディスプレイでの視聴に最適化されたビデオコンテンツのバージョンを含むビデオ信号がデコーダで生成される。デコーダは表示するディスプレイに対してローカルなものであってもよい。図5Bにおいて、表示するディスプレイにおける視聴に対して最適化されたビデオコンテンツのバージョンを含むビデオ信号は、最適化されたビデオ信号を受信するデコーダの上流にあるトランスコーダで生成される。各場合において、プロデューサPによりビデオコンテンツのバージョンに込められた創作意図が、システムにより配信されるビデオコンテンツを視聴するコンシューマに配信される。   5A and 5B show a video distribution system according to an embodiment. In FIG. 5A, a video signal containing a version of video content optimized for viewing on a display for display is generated at a decoder. The decoder may be local to the display for display. In FIG. 5B, a video signal including a version of video content optimized for viewing on a display for display is generated at a transcoder upstream of a decoder that receives the optimized video signal. In each case, the intent created by the producer P in the version of the video content is distributed to consumers who view the video content distributed by the system.

本発明のある実施態様は、プロセッサに本発明の方法を実行させるソフトウェア命令を実行するコンピュータプロセッサを含む。例えば、データ処理ステージのプロセッサは、アクセスできるプログラムメモリ中のソフトウェア命令を実行することにより、図4Bの方法を実施する。また、本発明は、プログラム製品の形体でも提供できる。プログラム製品は、データプロセッサにより実行されると、そのデータプロセッサに本発明の方法を実行させる命令を含む一組のコンピュータ読み取り可能信号を担う任意の媒体を含む。本発明によるプログラム製品は、どんな形体のものでもよい。プログラム製品には、例えば、フロッピーディスケット、ハードディスクドライブなどの磁気的データ記憶媒体、CD−ROM、DVDを含む光学的データ記憶媒体、ROM、フラッシュRAMを含む電子的データ記憶媒体などの持続的または物理的メディアを含む。プログラム製品上のコンピュータ読み取り可能信号は、任意的に圧縮され、暗号化されていてもよい。   Certain embodiments of the present invention include computer processors that execute software instructions that cause the processor to perform the methods of the present invention. For example, a processor in the data processing stage implements the method of FIG. 4B by executing software instructions in accessible program memory. The present invention can also be provided in the form of a program product. A program product includes any medium that carries a set of computer-readable signals that, when executed by a data processor, includes instructions that cause the data processor to perform the methods of the present invention. The program product according to the invention may be of any form. Program products include, for example, magnetic data storage media such as floppy diskettes and hard disk drives, optical data storage media including CD-ROM and DVD, and electronic data storage media including ROM and flash RAM. Media is included. The computer readable signal on the program product may optionally be compressed and encrypted.

上でコンポーネント(例えば、ソフトウェアモジュール、プロセッサ、アセンブリ、デバイス、回路など)と言った場合、別段の記載が無ければ、そのコンポーネント(「手段」と言った場合も含む)は、そのコンポーネントの等価物として、説明したコンポーネントの機能を実行する(すなわち、機能的に等価な)任意のコンポーネントを含み、本発明の例示した実施形態の機能を実行する開示された構成と構造的に等価でないコンポーネントも含むものと解すべきである。   When a component (eg, software module, processor, assembly, device, circuit, etc.) is referred to above, that component (including the case of “means”) is the equivalent of that component unless otherwise specified. As well as any component that performs (i.e., functionally equivalent) the functionality of the components described, and also includes components that are not structurally equivalent to the disclosed configurations that perform the functions of the illustrated embodiments of the invention. It should be understood.

したがって、本発明は、現在存在する、及び/又は将来開発される、ここに説明した、任意の要素(本発明の様々な部分又は特徴)及びその等価物を含み、またはこれらにより構成され、又はこれらにより基本的に構成されている。さらに、ここに例示的に開示した本発明は、ここには具体的に開示していなくても、任意の要素無しに実施できる。明らかに、上記の教示を考慮して、本発明の修正や変更が可能である。それゆえ、言うまでもなく、添付した請求項の範囲内において、ここで具体的に説明していなければ本発明を実施できる。   Accordingly, the present invention includes, or is constituted by, any elements (various parts or features of the present invention) and their equivalents as described herein that currently exist and / or will be developed in the future, or These are basically configured. Furthermore, the invention disclosed herein by way of example can be practiced without any elements, even if not specifically disclosed herein. Obviously, modifications and variations of the present invention are possible in light of the above teachings. Therefore, it should be understood that the invention may be practiced otherwise than as specifically described herein within the scope of the appended claims.

したがって、本発明はここに説明したいかなる形体でも実施でき、本発明のある部分の構成、特徴、及び機能を記載した以下の付記(Enumerated Example Embodiments)には限定されない。
(付記1) 目標ディスプレイにおける表示のために最適化されたビデオコンテンツを配信する方法であって、
前記ビデオコンテンツの異なる少なくとも第1と第2のバージョンを含むビデオデータを供給するステップと、
前記ビデオコンテンツの第1と第2のバージョンの間を補間又は外挿して、前記ビデオコンテンツの第3のバージョンを生成するステップと、を有する方法。
(付記2) 前記第1のバージョンは周辺光の第1のレベルに対して最適化され、前記第2のバージョンは周辺光の第2のレベルに対して最適化され、前記補間又は外挿は前記目標ディスプレイにおける周辺光のレベルに基づく、付記1に記載の方法。
(付記3) 光センサが前記目標ディスプレイにおける周辺光のレベルをモニタし、前記方法は、前記光センサにより検出された前記目標ディスプレイにおける周辺光のレベルに基づき、前記ビデオコンテンツの第1と第2のバージョンに相対的な重みを適用するステップを有する、付記2に記載の方法。
(付記4) 前記目標ディスプレイは、前記ビデオコンテンツの第1のバージョンで仮定された第1の色域と、前記ビデオコンテンツの第2のバージョンで仮定された第2の色域との間の表示色域を有し、前記方法は、前記第1と第2の色域の対応する尺度に対する前記表示色域の尺度に基づき、前記ビデオコンテンツの第1と第2のバージョンに相対的な重みを適用するステップを有する、付記1に記載の方法。
(付記5) 各バージョンは画像の画素の画素値を含み、補間は前記第1と第2のバージョンの対応する画素の画素値の間の補間を含む、付記1に記載の方法。
(付記6) 前記画素値は知覚的に線形な色空間における座標の値を含む、付記5に記載の方法。
(付記7) トランスコーダで実行され、前記方法は、前記ビデオコンテンツの第3のバージョンを符号化して、符号化した第3のバージョンを前記トランスコーダから目標ディスプレイに送るステップを有する、付記1に記載の方法。
(付記8) 前記ビデオコンテンツの第3のバージョンが表示されるデバイスの識別情報を受け取るステップと、
前記ビデオコンテンツの第1と第2のバージョンに関連する表示機能に対する前記デバイスの対応する表示機能に少なくとも部分的に基づき、前記補間又は外挿を制御するステップとを有する、付記1に記載の方法。
(付記9) 前記デバイスが前記ビデオコンテンツのダウンロードを受け取るように接続されたことに応じて、前記デバイスの表示機能を決定するステップを有する、付記8に記載の方法。
(付記10) 目標ディスプレイにおける表示のために最適化されたビデオコンテンツを配信する方法であって、
前記ビデオコンテンツの異なる複数のバージョンを含むビデオデータを1つのデータエンティティ中に設けるステップであって、前記異なるバージョンは異なる色域、異なるフレームレート、異なるビット深度、及び異なる空間的解像度のうち1つ以上を有するバージョンを含むステップと、
目標ディスプレイの機能を決定するステップと、
前記目標ディスプレイに表示する前記異なるバージョンのうちの一バージョンを選択して復号するステップと、を有する方法。
(付記11) 前記選択された、異なるバージョンのうちの一バージョンを復号するステップは、ベースレイヤとエンハンスメントレイヤを復号し、前記エンハンスメントレイヤに応じて前記ベースレイヤを修正するステップを有する、付記10に記載の方法。
(付記12) ビデオ処理装置であって、
データ処理ステージを有し、前記データ処理ステージは:
ビデオコンテンツの異なる複数のバージョンであって、異なる色域、異なるフレームレート、及び異なるビット深度にうち1つ以上を有する複数のバージョンを符号化したビデオデータを読み取り、
前記バージョンのうちの一バージョンが目標ディスプレイにおける表示に最適化されているか決定し、
前記バージョンのうちの一バージョンが目標ディスプレイにおける表示に最適化されているとの決定に応じて、前記バージョンのうちの一バージョンを前記目標ディスプレイにおける表示のために供給するように構成された、ビデオ処理装置。
(付記13) 前記異なるバージョンのうちの少なくとも二バージョンを結合して、前記異なるバージョンのうちの少なくとも二バージョンの補間である出力信号とする補間部を有する、付記12に記載のビデオ処理装置。
(付記14) 前記補間部は、制御入力を有し、前記第1と第2の入力ビデオ信号における対応する値間の差分に、前記制御入力で受け取った値に基づく量をかけるように構成された、付記13に記載のビデオ処理装置。
(付記15) 前記制御入力は、前記目標ディスプレイにおける周辺照明状態を示す信号を受け取るように接続された、付記14に記載のビデオ処理装置。
(付記16) 前記目標ディスプレイに組み込まれた、付記12に記載のビデオ処理装置。
(付記17) トランスコーダに組み込まれた、付記12に記載のビデオ処理装置。
(付記18) 前記データ処理ステージは、前記目標ディスプレイにおける周辺照明状態に関する情報を受け取り、前記バージョンのうちの一バージョンが前記周辺照明状態下において前記目標ディスプレイにおける表示のために最適化されているか決定するように構成された、付記12に記載のビデオ処理装置。
(付記19) ビデオ処理装置であって、
ビデオ信号からベースレイヤと1つ又は複数のエンハンスメントレイヤを取り出し、それぞれが異なるビデオコンテンツのバージョンを符号化した複数の入力信号を生成するように構成されたデコーダと、
前記複数の入力信号を受け取り、前記入力信号に対応する前記異なるバージョンの補間である出力信号を出力するように接続された補間部と、を有するビデオ処理装置。
(付記20) 目標ディスプレイにおける周辺照明状態を検出するように配置された光センサから周辺照明信号を受け取り、前記周辺照明信号の値に少なくとも部分的に基づき前記補間部を制御するように接続された、付記19に記載のビデオ処理装置。
(付記21) 前記補間部は、前記入力信号に関連する機能に対する前記目標ディスプレイの機能に基づき補間を実行するように構成された、付記19に記載のビデオ処理装置。
(付記22) 前記補間部は、制御入力を有し、前記第1と第2の入力ビデオ信号における対応する値間の差分に、前記制御入力で受け取った値に基づく量をかけるように構成された、付記19に記載のビデオ処理装置。
(付記23) 前記補間部は、知覚曲線に沿って補間または外挿を行うように構成された、付記19に記載のビデオ処理装置。
(付記24) 前記補間部は、照度の対数により補間または外挿を行うように構成された、付記19に記載のビデオ処理装置。
(付記25) 異なる複数のビデオコンテンツのバージョンであって、異なる色域を有し、異なるフレームレートを有し、異なるビット深度を有し、または異なる周辺光のレベル下での視聴のために最適化された異なるバージョンを符号化したコンピュータ読み取り可能ビデオデータを有する持続的媒体。
(付記26) 前記ビデオデータは、ベースレイヤと複数のエンハンスメントレイヤとを有し、前記異なるバージョンは、前記ベースレイヤと、前記エンハンスメントレイヤと組み合わせた前記ベースレイヤとを有する、付記25に記載の媒体。
(付記27) 前記ビデオデータは、ベースレイヤと複数のエンハンスメントレイヤとを有し、少なくとも一エンハンスメントレイヤは3次元情報を有する、付記25に記載の媒体。
(付記28) カラーグレーディングステーションであって、
ビデオコンテンツを含むデータ記憶部と、
複数のディスプレイと、
コントローラであって、前記コントローラは、
前記ビデオコンテンツを前記複数のディスプレイの各ディスプレイに表示し、
前記複数のディスプレイの各ディスプレイに表示するため前記ビデオコンテンツの最適化を含む対応するユーザ入力を受け取り、
それぞれが前記複数のディスプレイの一ディスプレイに関連した最適化を含む前記ビデオコンテンツの複数のバージョンを記憶し、
前記異なる複数のビデオコンテンツのバージョンを符号化したコンピュータ読み取り可能ビデオデータに前記複数のバージョンを結合するコントローラと、を有するカラーグレーディングステーション。
(付記29) 前記ビデオコンテンツはベースレイヤと複数のエンハンスメントレイヤとを有する、付記28に記載のカラーグレーディングステーション。
(付記30) メディアサーバであって、同じビデオコンテンツの複数のバージョンを含むデータ記憶部を有し、目標ディスプレイにおける表示のために最適化された前記ビデオコンテンツのバージョンの一バージョンの選択と、前記ビデオコンテンツの異なる複数のバージョンから前記最適化されたビデオコンテンツの生成の一方又は両方により、目標ディスプレイにおける表示のために最適化されたビデオコンテンツを生成するように構成された、メディアサーバ。
(付記31) ここに説明するか又は図面に示した新規で有用な発明的特徴、又は特徴の組合せ、又は特徴の部分的な組合せを有する装置。
(付記32) ここに説明するか又は図面に示した新規で有用な発明的ステップ及び/又は動作、又はステップ及び/又は動作の組合せ、又はステップ及び/又は動作の部分的な組合せを有する方法。
Accordingly, the present invention can be implemented in any of the forms described herein and is not limited to the following enumerated example embodiments that describe the structure, features, and functions of certain parts of the invention.
(Supplementary note 1) A method for delivering video content optimized for display on a target display,
Providing video data comprising at least first and second different versions of the video content;
Interpolating or extrapolating between the first and second versions of the video content to generate a third version of the video content.
(Supplementary note 2) The first version is optimized for a first level of ambient light, the second version is optimized for a second level of ambient light, and the interpolation or extrapolation is The method of claim 1, based on the level of ambient light at the target display.
(Supplementary note 3) A light sensor monitors the level of ambient light at the target display, and the method includes first and second of the video content based on the level of ambient light at the target display detected by the light sensor. The method of claim 2, comprising applying relative weights to versions of:
(Supplementary note 4) The target display is a display between a first color gamut assumed in the first version of the video content and a second color gamut assumed in the second version of the video content. A color gamut, the method weights relative to the first and second versions of the video content based on a measure of the display gamut relative to a corresponding measure of the first and second gamuts. The method of claim 1, comprising the step of applying.
(Supplementary note 5) The method according to supplementary note 1, wherein each version includes a pixel value of a pixel of the image, and the interpolation includes an interpolation between pixel values of corresponding pixels of the first and second versions.
(Supplementary note 6) The method according to supplementary note 5, wherein the pixel value includes a value of a coordinate in a perceptually linear color space.
(Supplementary note 7) The method according to Supplementary note 1, wherein the method comprises the steps of encoding a third version of the video content and sending the encoded third version from the transcoder to a target display, wherein the method is executed in a transcoder. The method described.
(Supplementary Note 8) Receiving identification information of a device on which the third version of the video content is displayed;
The method of claim 1, comprising controlling the interpolation or extrapolation based at least in part on a corresponding display function of the device relative to display functions associated with the first and second versions of the video content. .
(Supplementary note 9) The method according to supplementary note 8, comprising determining a display function of the device in response to the device being connected to receive the download of the video content.
(Supplementary Note 10) A method of delivering video content optimized for display on a target display, comprising:
Providing video data including different versions of the video content in one data entity, wherein the different versions are one of different color gamuts, different frame rates, different bit depths, and different spatial resolutions. Including a version having the above,
Determining the function of the target display;
Selecting and decoding one of the different versions for display on the target display.
(Supplementary note 11) In the supplementary note 10, the step of decoding one of the selected different versions has a step of decoding a base layer and an enhancement layer and modifying the base layer according to the enhancement layer. The method described.
(Supplementary note 12) A video processing apparatus,
A data processing stage, wherein the data processing stage is:
Reading video data encoding different versions of the video content, the versions having one or more of different gamuts, different frame rates, and different bit depths;
Determining if one of the versions is optimized for display on the target display;
A video configured to provide a version of the version for display on the target display in response to determining that a version of the version is optimized for display on the target display. Processing equipment.
(Additional remark 13) The video processing apparatus of Additional remark 12 which has an interpolation part which combines the at least 2 version of the said different versions, and makes it an output signal which is the interpolation of the at least 2 version of the said different versions.
(Supplementary Note 14) The interpolation unit has a control input, and is configured to multiply the difference between corresponding values in the first and second input video signals by an amount based on the value received at the control input. The video processing apparatus according to attachment 13.
(Supplementary note 15) The video processing device according to supplementary note 14, wherein the control input is connected to receive a signal indicating an ambient lighting state in the target display.
(Supplementary note 16) The video processing device according to supplementary note 12, incorporated in the target display.
(Supplementary note 17) The video processing device according to supplementary note 12, incorporated in a transcoder.
(Supplementary Note 18) The data processing stage receives information about ambient lighting conditions on the target display and determines whether one of the versions is optimized for display on the target display under the ambient lighting conditions. 13. A video processing apparatus according to appendix 12, configured to:
(Supplementary note 19) A video processing apparatus,
A decoder configured to extract a base layer and one or more enhancement layers from the video signal and generate a plurality of input signals, each encoding a different version of the video content;
An interpolator connected to receive the plurality of input signals and to output an output signal that is the different version of the interpolation corresponding to the input signals.
(Supplementary note 20) Connected to receive an ambient illumination signal from an optical sensor arranged to detect an ambient illumination condition in the target display and to control the interpolator based at least in part on a value of the ambient illumination signal 20. A video processing apparatus according to appendix 19.
(Supplementary note 21) The video processing device according to supplementary note 19, wherein the interpolation unit is configured to perform interpolation based on a function of the target display with respect to a function related to the input signal.
(Supplementary Note 22) The interpolation unit has a control input, and is configured to multiply the difference between corresponding values in the first and second input video signals by an amount based on the value received at the control input. The video processing apparatus according to appendix 19.
(Supplementary note 23) The video processing device according to supplementary note 19, wherein the interpolation unit is configured to perform interpolation or extrapolation along a perceptual curve.
(Supplementary note 24) The video processing device according to supplementary note 19, wherein the interpolation unit is configured to perform interpolation or extrapolation according to a logarithm of illuminance.
(Appendix 25) Different versions of video content, having different color gamuts, different frame rates, different bit depths, or optimal for viewing under different ambient light levels Persistent medium having computer readable video data encoded with different versions
(Supplementary note 26) The medium according to supplementary note 25, wherein the video data includes a base layer and a plurality of enhancement layers, and the different versions include the base layer and the base layer combined with the enhancement layer. .
(Supplementary note 27) The medium according to supplementary note 25, wherein the video data includes a base layer and a plurality of enhancement layers, and at least one enhancement layer includes three-dimensional information.
(Appendix 28) A color grading station,
A data storage unit containing video content;
Multiple displays,
A controller comprising:
Displaying the video content on each of the plurality of displays;
Receiving corresponding user input including optimization of the video content for display on each of the plurality of displays;
Storing a plurality of versions of the video content, each including optimizations associated with one display of the plurality of displays;
A color grading station comprising: a controller for combining the plurality of versions into computer readable video data encoding the plurality of different video content versions.
(Supplementary note 29) The color grading station according to supplementary note 28, wherein the video content has a base layer and a plurality of enhancement layers.
(Supplementary note 30) A media server comprising a data storage unit including a plurality of versions of the same video content, and selecting one version of the version of the video content optimized for display on a target display; A media server configured to generate video content optimized for display on a target display by one or both of generating the optimized video content from different versions of video content.
(Supplementary note 31) A device having the novel and useful inventive feature or combination of features or partial combination of features described herein or shown in the drawings.
(Supplementary note 32) A method having novel and useful inventive steps and / or actions, or combinations of steps and / or actions, or partial combinations of steps and / or actions as described herein or shown in the drawings.

上記開示を考慮して当業者には明らかなように、本発明の精神と範囲から逸脱することなく、本発明を実施するにあたり多くの変更と修正が可能である。したがって、本発明の範囲は以下の特許請求の範囲により画定される。   Many changes and modifications may be made in the practice of the invention without departing from the spirit and scope of the invention, as will be apparent to those skilled in the art in view of the above disclosure. Accordingly, the scope of the present invention is defined by the following claims.

Claims (16)

ディスプレイ装置であって、
ビデオデータと、前記ビデオデータを見る周囲条件を受け取るように構成された入力とを受け取るように構成された入力と、
受け取ったビデオデータからベースレイヤと、少なくとも第1と第2のエンハンスメントレイヤとを復号し、受け取った周囲条件に基づいて少なくとも2つのエンハンスメントレイヤの間を補間し、補間されたエンハンスメントレイヤに応じて修正されたベースレイヤを含むビデオデータストリームを生成するように構成されたプロセッサとを有する、ディスプレイ装置。
A display device,
An input configured to receive video data and an input configured to receive ambient conditions for viewing the video data;
Decodes the base layer and at least the first and second enhancement layers from the received video data, interpolates between at least two enhancement layers based on the received ambient conditions, and modifies according to the interpolated enhancement layer And a processor configured to generate a video data stream including a configured base layer.
周囲条件は周囲照明条件を含む、請求項1に記載のディスプレイ装置。   The display device according to claim 1, wherein the ambient conditions include ambient lighting conditions. 周囲条件は周囲の光の強さと色を含み、エンハンスメントレイヤは光の強さと色の異なる組み合わせの下でグレーディングされたエンハンスメントレイヤを含む、請求項1に記載のディスプレイ装置。   The display device of claim 1, wherein the ambient condition includes ambient light intensity and color, and the enhancement layer includes an enhancement layer graded under different combinations of light intensity and color. 周囲条件は周囲光の強さと色を含み、エンハンスメントレイヤは、光の強さと色の異なる組み合わせの下でグレーディングされたエンハンスメントレイヤを含み、エンハンスメントレイヤがグレーディングされたディスプレイの色域能力を超えて拡張された色域の画像を生成するのに用いられる、請求項1に記載のディスプレイ装置。   Ambient conditions include ambient light intensity and color, and enhancement layers include enhancement layers graded under different combinations of light intensity and color, and the enhancement layer extends beyond the gamut capabilities of the graded display The display device according to claim 1, wherein the display device is used to generate an image of a specified color gamut. ディスプレイは、エンハンスメントレイヤがグレーディングされたディスプレイよりも大きい色域能力を有する高ダイナミックレンジ(HDR)ディスプレイを含む、
請求項4に記載のディスプレイ装置。
The display includes a high dynamic range (HDR) display that has a larger color gamut capability than a display graded enhancement layer,
The display device according to claim 4.
セットトップボックス、デジタルビデオレコーダなどのうち一つと、テレビジョン、ホームシアタディスプレイ、デジタルシネマプロジェクタなどのディスプレイとを含む、
請求項1ないし5いずれか一項に記載のディスプレイ装置。
Including one of set-top boxes, digital video recorders, and displays such as televisions, home theater displays, digital cinema projectors,
The display device according to claim 1.
動画ビデオデータをグレーディングする方法であって、
動画データを取得するステップと、
監督またはプロデューサの意図に応じて動画データをグレーディングするステップと、
第1の照明状態セットの下で、グレーディングされた動画データを見るステップと、
第1の照明状態セットに基づき第1のエンハンスメントレイヤを生成するステップと、
第2の照明状態セットの下で、グレーディングされた動画データを見るステップと、
第2の照明状態セットに基づき第2のエンハンスメントレイヤを生成するステップと、
第1と第2のエンハンスメントレイヤを、第1と第2の照明状態に対応する周囲照明条件に基づき、表示するビデオデータを調整するときに利用できるようにするステップと
を有する、方法。
A method of grading video data,
Acquiring video data;
Grading video data according to the director ’s or producer ’s intent,
Viewing graded video data under a first set of lighting conditions;
Generating a first enhancement layer based on a first lighting state set;
Viewing graded video data under a second lighting state set;
Generating a second enhancement layer based on the second lighting state set;
Making the first and second enhancement layers available when adjusting video data to be displayed based on ambient lighting conditions corresponding to the first and second lighting conditions.
エンハンスメントレイヤを生成するステップは、色のグレーディングを実行するのに用いらルディスプレイに拡大した色域を有する高ダイナミックレンジ(HDR)ディスプレイを含む動画データを見る目標ディスプレイを考慮して、エンハンスメントレイヤを生成するステップを含む、
請求項7に記載の方法。
The step of generating the enhancement layer considers the target layer to view the video data including a high dynamic range (HDR) display having a color gamut expanded to a display that is used to perform color grading, and Including the step of generating,
The method of claim 7.
第1と第2の照明条件は、動画データを目標ディスプレイで見る時に通常生じる条件を含み、第1の照明条件は第2の照明条件とは反対である、請求項7に記載の方法。   8. The method of claim 7, wherein the first and second lighting conditions include conditions that normally occur when viewing moving image data on a target display, wherein the first lighting conditions are opposite to the second lighting conditions. 第1の照明条件は第1の色条件の光を含み、第2の照明条件は第2の色条件の光を含む、
請求項9に記載の方法。
The first illumination condition includes light of a first color condition, and the second illumination condition includes light of a second color condition;
The method of claim 9.
第1の照明条件は明るい周囲光を含み、第2の照明条件は暗い周囲光を含み、グレーディングされた動画データとエンハンスメントレイヤとの目標ディスプレイの色域は、照明条件の第1のセットの下だグレーディングされた動画を見るステップにおいて、グレーディングされた動画データを見るのに使われるディスプレイより広い色域を有するディスプレイである、
請求項7ないし10いずれか一項に記載の方法。
The first lighting condition includes bright ambient light, the second lighting condition includes dark ambient light, and the target display color gamut of the graded video data and enhancement layer is below the first set of lighting conditions. A display with a wider color gamut than the display used to view the graded video data in the step of viewing the graded video.
11. A method according to any one of claims 7 to 10.
カラーグレーディングステーションであって、
動画データを受け取るように構成された入力と、
動画データを表示するように構成されたディスプレイと、
ディスプレイ上に表示されている動画データへのグレーディング調整に関する入力を受け取るように構成されたプロセッサとを有し、
プロセッサは、動画データがディスプレイに表示される、対応する第1と第2の周囲光条件に基づいて、グレーディング調整に関する入力の第1のセットと第2のセットを受け取るように構成され、
プロセッサは、さらに、調整の第1のセットと第2のセットを、エンハンスメントレイヤとして、動画データとともにパッケージするように構成されている、
カラーグレーディングステーション。
A color grading station,
Input configured to receive video data,
A display configured to display video data;
A processor configured to receive input relating to grading adjustments to the video data displayed on the display;
The processor is configured to receive a first set and a second set of inputs related to grading adjustments based on corresponding first and second ambient light conditions at which video data is displayed on the display;
The processor is further configured to package the first set and the second set of adjustments as enhancement layers with the video data.
Color grading station.
周囲条件は周囲の光の強さと色を含み、エンハンスメントレイヤは光の強さと色の異なる組み合わせの下でグレーディングされたエンハンスメントレイヤを含む、
請求項12に記載のカラーグレーディングステーション。
Ambient conditions include ambient light intensity and color, and enhancement layers include enhancement layers graded under different combinations of light intensity and color.
The color grading station according to claim 12.
周囲条件は周囲光の強さと色を含み、エンハンスメントレイヤは、光の強さと色の異なる組み合わせの下でグレーディングされたエンハンスメントレイヤを含み、エンハンスメントレイヤがグレーディングされたディスプレイの色域能力を超えて拡張された色域の画像を生成するのに用いられる、請求項12に記載のカラーグレーディングステーション。   Ambient conditions include ambient light intensity and color, and enhancement layers include enhancement layers graded under different combinations of light intensity and color, and the enhancement layer extends beyond the gamut capabilities of the graded display 13. A color grading station according to claim 12, wherein the color grading station is used to generate an image of a specified color gamut. グレーディングされた動画データとエンハンスメントレイヤとの目標ディスプレイは高ダイナミックレンジ(HDR)ディスプレイを含む、
請求項12ないし14いずれか一項に記載のカラーグレーディングステーション。
Graded video data and enhancement layer target displays include high dynamic range (HDR) displays,
The color grading station according to claim 12.
第1と第2の照明条件は、動画データを目標ディスプレイで見る時に通常生じる条件を含み、第1の照明条件は第2の照明条件とは反対である、
請求項15に記載のカラーグレーディングステーション。
The first and second lighting conditions include conditions that normally occur when viewing the moving image data on the target display, and the first lighting conditions are opposite to the second lighting conditions.
The color grading station according to claim 15.
JP2015094732A 2010-06-15 2015-05-07 Encoding, distribution and display of video data including customized video content versions Active JP6158247B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US35513110P 2010-06-15 2010-06-15
US61/355,131 2010-06-15

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013514411A Division JP5786023B2 (en) 2010-06-15 2011-06-13 Encoding, distribution and display of video data including customized video content versions

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017112916A Division JP6509281B2 (en) 2010-06-15 2017-06-07 Display device and method

Publications (2)

Publication Number Publication Date
JP2015165704A true JP2015165704A (en) 2015-09-17
JP6158247B2 JP6158247B2 (en) 2017-07-05

Family

ID=44509989

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2013514411A Active JP5786023B2 (en) 2010-06-15 2011-06-13 Encoding, distribution and display of video data including customized video content versions
JP2015094732A Active JP6158247B2 (en) 2010-06-15 2015-05-07 Encoding, distribution and display of video data including customized video content versions
JP2017112916A Active JP6509281B2 (en) 2010-06-15 2017-06-07 Display device and method
JP2019068502A Active JP6934908B2 (en) 2010-06-15 2019-03-29 Video content distribution method and video processing equipment

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013514411A Active JP5786023B2 (en) 2010-06-15 2011-06-13 Encoding, distribution and display of video data including customized video content versions

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2017112916A Active JP6509281B2 (en) 2010-06-15 2017-06-07 Display device and method
JP2019068502A Active JP6934908B2 (en) 2010-06-15 2019-03-29 Video content distribution method and video processing equipment

Country Status (5)

Country Link
US (1) US9894314B2 (en)
EP (1) EP2583456A1 (en)
JP (4) JP5786023B2 (en)
KR (1) KR101438385B1 (en)
WO (1) WO2011159617A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9894314B2 (en) * 2010-06-15 2018-02-13 Dolby Laboratories Licensing Corporation Encoding, distributing and displaying video data containing customized video content versions
US9509935B2 (en) * 2010-07-22 2016-11-29 Dolby Laboratories Licensing Corporation Display management server
BR112013016607A2 (en) * 2010-12-30 2017-09-26 Thomson Licensing method of processing video content that allows adaptation to various types of display devices
US9042682B2 (en) * 2012-05-23 2015-05-26 Dolby Laboratories Licensing Corporation Content creation using interpolation between content versions
US20140195650A1 (en) * 2012-12-18 2014-07-10 5th Screen Media, Inc. Digital Media Objects, Digital Media Mapping, and Method of Automated Assembly
JP5947269B2 (en) * 2013-09-24 2016-07-06 ソニー株式会社 Encoding apparatus, encoding method, transmitting apparatus, and receiving apparatus
CN105379263B (en) 2013-11-13 2017-09-22 杜比实验室特许公司 Method and apparatus for the display management of guide image
WO2015076616A1 (en) * 2013-11-21 2015-05-28 엘지전자 주식회사 Signal transceiving apparatus and signal transceiving method
JP6241692B2 (en) * 2014-09-12 2017-12-06 ソニー株式会社 REPRODUCTION DEVICE, REPRODUCTION METHOD, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
EP3057318A1 (en) * 2015-02-13 2016-08-17 Alcatel Lucent Adapting coding parameters based on viewing experience and system constraints
AU2015227469A1 (en) * 2015-09-17 2017-04-06 Canon Kabushiki Kaisha Method, apparatus and system for displaying video data
EP3331325A1 (en) 2016-11-30 2018-06-06 Thomson Licensing Method and apparatus for creating, distributing and dynamically reproducing room illumination effects
US10681302B2 (en) * 2016-12-20 2020-06-09 Arris Enterprises Llc Display device auto brightness adjustment controlled by a source device
GB2562536B (en) 2017-05-19 2022-07-27 Displaylink Uk Ltd Adaptive compression by light level
US11317137B2 (en) * 2020-06-18 2022-04-26 Disney Enterprises, Inc. Supplementing entertainment content with ambient lighting
US11949927B2 (en) * 2020-10-30 2024-04-02 Stryker Corporation Methods and systems for hybrid and concurrent video distribution for healthcare campuses

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0918806A (en) * 1995-06-30 1997-01-17 Fuji Photo Film Co Ltd Method for displaying image and its device
JP2009244340A (en) * 2008-03-28 2009-10-22 Nanao Corp Correction method, display and computer program
WO2010021705A1 (en) * 2008-08-22 2010-02-25 Thomson Licensing Method and system for content delivery
JP2010124197A (en) * 2008-11-19 2010-06-03 Hitachi Ltd Television device

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7134091B2 (en) * 1999-02-01 2006-11-07 Microsoft Corporation Quality of displayed images with user preference information
US7860161B2 (en) 2003-12-15 2010-12-28 Microsoft Corporation Enhancement layer transcoding of fine-granular scalable video bitstreams
US8161388B2 (en) 2004-01-21 2012-04-17 Rodriguez Arturo A Interactive discovery of display device characteristics
DE602005007653D1 (en) 2004-04-12 2008-08-07 Ind Academic Coop Methods, apparatus and storage media for providing multimedia services taking into account terminal capabilities
JP2006005418A (en) * 2004-06-15 2006-01-05 Sharp Corp Apparatus, method, and program for receiving/reproducing information, and program recording medium
US20050281404A1 (en) 2004-06-17 2005-12-22 Matsushita Electric Industrial Co., Ltd. Scalable streaming media authentication
EP1776800A1 (en) 2004-08-11 2007-04-25 Vidiator Enterprises Inc. Multicast and broadcast streaming method and system
JP4734887B2 (en) 2004-10-15 2011-07-27 株式会社日立製作所 Video coding system, method and apparatus
JP5676070B2 (en) 2004-11-01 2015-02-25 テクニカラー インコーポレイテツド Method and system for mastering and distributing extended color space content
JP2006174045A (en) * 2004-12-15 2006-06-29 Ntt Communications Kk Image distribution device, program, and method therefor
US8094118B2 (en) * 2005-03-02 2012-01-10 University Of Southern California Dynamic backlight scaling for power minimization in a backlit TFT-LCD
US7894535B2 (en) * 2005-08-23 2011-02-22 Sony Ericsson Mobile Communications Ab Systems and methods for distributing and/or playing multicasted video signals in multiple display formats
US8189472B2 (en) 2005-09-07 2012-05-29 Mcdonald James F Optimizing bandwidth utilization to a subscriber premises
US8024768B2 (en) 2005-09-15 2011-09-20 Penthera Partners, Inc. Broadcasting video content to devices having different video presentation capabilities
KR20080087781A (en) 2005-09-21 2008-10-01 퀵커, 인크. Device-aware content delivery
WO2007056541A2 (en) * 2005-11-08 2007-05-18 Young Garrett J Apparatus and method for generating light from multi - primary colors
US20070146356A1 (en) * 2005-12-27 2007-06-28 Research In Motion Limited Method and device for setting or varying properties of elements on a visual display based on ambient light
US8699583B2 (en) 2006-07-11 2014-04-15 Nokia Corporation Scalable video coding and decoding
US8773494B2 (en) 2006-08-29 2014-07-08 Microsoft Corporation Techniques for managing visual compositions for a multimedia conference call
EP3484154A1 (en) 2006-10-25 2019-05-15 GE Video Compression, LLC Quality scalable coding
US9654751B2 (en) * 2006-12-21 2017-05-16 Thomson Licensing Method, apparatus and system for providing color grading for displays
JP2008288859A (en) 2007-05-17 2008-11-27 Olympus Corp Video display system with improved color reproduction
FR2917262A1 (en) 2007-06-05 2008-12-12 Thomson Licensing Sas DEVICE AND METHOD FOR CODING VIDEO CONTENT IN THE FORM OF A SCALABLE FLOW.
CN101690218B (en) * 2007-06-28 2014-02-19 汤姆逊许可公司 Method, apparatus and system for providing display device specific content over a network architecture
WO2009032214A2 (en) 2007-08-29 2009-03-12 The Regents Of The University Of California Network and device aware video scaling system, method, software, and device
EP2051525A1 (en) 2007-10-15 2009-04-22 Mitsubishi Electric Information Technology Centre Europe B.V. Bandwidth and content dependent transmission of scalable video layers
US8848787B2 (en) 2007-10-15 2014-09-30 Qualcomm Incorporated Enhancement layer coding for scalable video coding
JP5122920B2 (en) 2007-11-19 2013-01-16 オリンパス株式会社 Color reproduction system, color reproduction device, color reproduction method, and color reproduction program
WO2009097584A1 (en) 2008-01-30 2009-08-06 Proteogenix, Inc. Maternal serum biomarkers for detection of pre-eclampsia
KR20090097015A (en) 2008-03-10 2009-09-15 삼성전자주식회사 Apparatus of encoding image and apparatus of decoding image
EP2124386A1 (en) 2008-05-23 2009-11-25 Nokia Siemens Networks Oy Apparatus and method for multicast and/or broadcast service
US8514242B2 (en) * 2008-10-24 2013-08-20 Microsoft Corporation Enhanced user interface elements in ambient light
US9894314B2 (en) * 2010-06-15 2018-02-13 Dolby Laboratories Licensing Corporation Encoding, distributing and displaying video data containing customized video content versions
US9042682B2 (en) * 2012-05-23 2015-05-26 Dolby Laboratories Licensing Corporation Content creation using interpolation between content versions

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0918806A (en) * 1995-06-30 1997-01-17 Fuji Photo Film Co Ltd Method for displaying image and its device
JP2009244340A (en) * 2008-03-28 2009-10-22 Nanao Corp Correction method, display and computer program
WO2010021705A1 (en) * 2008-08-22 2010-02-25 Thomson Licensing Method and system for content delivery
JP2010124197A (en) * 2008-11-19 2010-06-03 Hitachi Ltd Television device

Also Published As

Publication number Publication date
JP6158247B2 (en) 2017-07-05
WO2011159617A1 (en) 2011-12-22
JP6509281B2 (en) 2019-05-08
JP2019106733A (en) 2019-06-27
KR20130028119A (en) 2013-03-18
JP2013535135A (en) 2013-09-09
JP2017204864A (en) 2017-11-16
KR101438385B1 (en) 2014-11-03
US9894314B2 (en) 2018-02-13
JP6934908B2 (en) 2021-09-15
US20130088644A1 (en) 2013-04-11
JP5786023B2 (en) 2015-09-30
EP2583456A1 (en) 2013-04-24

Similar Documents

Publication Publication Date Title
JP6934908B2 (en) Video content distribution method and video processing equipment
US10977849B2 (en) Systems and methods for appearance mapping for compositing overlay graphics
JP6430577B2 (en) Apparatus and method for dynamic range conversion of images
US11183143B2 (en) Transitioning between video priority and graphics priority
US10055866B2 (en) Systems and methods for appearance mapping for compositing overlay graphics
JP5992997B2 (en) Method and apparatus for generating a video encoded signal
EP2819414A2 (en) Image processing device and image processing method
KR102176398B1 (en) A image processing device and a image processing method
US20230319347A1 (en) Method, apparatus, and program product for authoring video content using stream embedded indicators
JP2019216457A (en) Display unit and display method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170607

R150 Certificate of patent or registration of utility model

Ref document number: 6158247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250