CN110992914B - 显示设备及控制该显示设备的方法 - Google Patents

显示设备及控制该显示设备的方法 Download PDF

Info

Publication number
CN110992914B
CN110992914B CN201911350815.1A CN201911350815A CN110992914B CN 110992914 B CN110992914 B CN 110992914B CN 201911350815 A CN201911350815 A CN 201911350815A CN 110992914 B CN110992914 B CN 110992914B
Authority
CN
China
Prior art keywords
image
luminance value
dynamic range
region
mapping function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911350815.1A
Other languages
English (en)
Other versions
CN110992914A (zh
Inventor
韩升勳
李尚昱
徐贵原
金昌源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150024271A external-priority patent/KR102308507B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN110992914A publication Critical patent/CN110992914A/zh
Application granted granted Critical
Publication of CN110992914B publication Critical patent/CN110992914B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/3413Details of control of colour illumination sources
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • G06T5/92
    • G06T5/94
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3607Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals for displaying colours or for displaying grey scales with a specific pixel layout, e.g. using sub-pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/77Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • G09G2320/064Adjustment of display parameters for control of overall brightness by time modulation of the brightness of the illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0428Gradation resolution change
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Abstract

一种显示设备,包括:内容接收单元,配置成接收高动态范围图像;图像处理单元,配置成在高动态范围图像内检测亮度值等于或大于参考亮度值的第一区域,并且基于第一区域的图像的特征信息对第一区域的图像执行色调映射;以及显示单元,配置成显示已执行色调映射的低动态范围图像。

Description

显示设备及控制该显示设备的方法
分案说明
本申请是基于申请日为2015年10月1日、申请号为201580054198.4的专利申请所递交的分案申请。
技术领域
实施方式涉及一种液晶显示器及其驱动方法,该液晶显示器具有热生成单元以预热液晶显示面板。
背景技术
通常,已知真实世界的亮度具有100,000,000:1的动态范围。此外,已知可由人眼区分的对比度范围(即,人眼的动态范围)为约1,000:1至10,000:1。已知根据最新技术的相机的动态范围为约10,000:1。
另一方面,广泛用作显示设备的液晶显示面板、等离子体显示面板、有机发光二极管面板等具有约100:1至1000:1的动态范围。
换言之,可从显示设备中输出的图像的动态范围比可由人眼区分的动态范围和可通过相机等检测的动态范围更窄。
这样,将动态范围比可从常规显示设备输出的图像的动态范围更大的图像称为高动态范围(HDR)图像。与高动态范围图像相反,将动态范围等于或小于可从常规显示设备输出的图像的动态范围的图像称为低动态范围(LDR)图像。
当从这样的图像源输入高动态范围图像时,显示设备执行将高动态范围图像转换成可显示的动态范围的操作。这样的操作称为“色调映射”。
相关技术中的色调映射方法包括以下方法:压缩整个动态范围并将高动态范围图像转换成低动态范围图像的方法;将高动态范围图像直接显示在具有低动态范围的显示设备上的方法等。
然而,根据将高动态范围图像的整个动态范围进行压缩的方法,存在的问题有:与原始图像相比,从显示设备输出的图像的明亮度显著降低。
此外,根据将高动态范围图像直接显示在具有低动态范围的显示设备上的方法,存在的问题有:不显示具有不能在显示设备上显示的亮度的图像。
发明内容
技术问题
因此,本公开的方面在于提供显示设备及其控制方法,通过该显示设备和控制方法,显示在显示设备上的图像可维持原始图像的明亮度没有变化,并且可显示高亮度区域中所包括的图像信息。
技术方案
根据所公开的实施方式的方面,提供了一种显示设备,该显示设备包括:内容接收单元,配置成接收高动态范围图像和高动态范围图像的亮度信息;图像处理单元,配置成基于亮度信息执行色调映射,以使得高动态范围图像转换成低动态范围图像;以及显示单元,配置成显示低动态范围图像,其中,亮度信息包括高动态范围图像的最大亮度值和最小亮度值。
亮度信息可包括场景中所包括的高动态范围图像的最大亮度值和最小亮度值。
亮度信息可包括形成帧的高动态范围图像的最大亮度值和最小亮度值。
亮度信息可包括整个内容中所包括的高动态范围图像的最大亮度值和最小亮度值。
图像处理单元可在高动态范围图像内检测亮度值等于或大于参考亮度值的第一区域,并且基于第一区域的图像的特征信息对第一区域的图像执行色调映射;特征信息可包括高动态范围图像的边缘信息、纹理信息和灰度(gradation)信息中的至少一者。
图像处理单元可在第一区域的图像内检测边缘区域,并且基于边缘区域中所包括的像素的直方图生成第一映射函数。
第一映射函数可具有根据边缘区域中所包括的像素的数量而发生变化的斜率。
在第一映射函数中,亮度值在边缘区域中所包括的像素数量多的位置处的斜率大于亮度值在边缘区域中所包括的数量少的位置处的斜率。
第一映射函数可以是通过对边缘区域中所包括的像素的直方图进行积分而获得的累计直方图。
图像处理单元可在第一区域的图像内检测纹理区域,并且基于纹理区域中所包括的像素的直方图生成第一映射函数。
图像处理单元可在第一区域的图像内检测灰度区域,并且基于灰度区域中所包括的像素的直方图生成第一映射函数。
图像处理单元可基于高动态范围图像的亮度值生成第二映射函数。
图像处理单元可根据第二映射函数对高动态范围图像执行第二色调映射,并且根据第一映射函数对执行了第二色调映射的图像执行第一色调映射。
图像处理单元可基于高动态范围图像内的第二区域的亮度值生成第二映射函数,其中,第二区域的亮度值小于参考亮度值。
图像处理单元可基于第一映射函数和第二映射函数生成色调映射函数,并且根据色调映射函数将高动态范围图像转换成低动态范围图像。图像处理单元可对高动态范围图像中所包括的多个像素当中、亮度值小于参考亮度值的第一像素执行线性色调映射,以及对多个像素当中、亮度值等于或大于参考亮度值的第二像素执行非线性色调映射。
当场景中所包括的高动态范围图像的场景平均亮度值小于参考亮度值时,图像处理单元可对高动态范围图像中所包括的多个像素当中、亮度值小于参考亮度值的第一像素执行线性色调映射,以及对多个像素当中、亮度值等于或大于参考亮度值的第二像素执行非线性色调映射。
当场景中所包括的高动态范围图像的场景平均场景平均亮度值等于或大于参考亮度值时,图像处理单元可对高动态范围图像中所包括的多个像素当中、亮度值小于场景平均亮度值的第一像素执行线性色调映射,以及对多个像素当中、亮度值等于或大于场景平均亮度值的第二像素执行非线性色调映射。
根据所公开的实施方式的另一方面,提供了控制显示设备的方法,该方法包括:接收高动态范围图像和高动态范围图像的亮度信息;基于亮度信息执行色调映射,以使得高动态范围图像转换成低动态范围图像;显示低动态范围图像,其中,亮度信息包括高动态范围图像的最大亮度值和最小亮度值。
亮度信息可包括场景中所包括的高动态范围图像的最大亮度值和最小亮度值。
亮度信息可包括形成帧的高动态范围图像的最大亮度值和最小亮度值。
亮度信息可包括整个内容中所包括的高动态范围图像的最大亮度值和最小亮度值。
执行色调映射可包括:在高动态范围图像内检测亮度值等于或大于参考亮度值的第一区域,并且基于第一区域的图像的特征信息生成色调映射函数;根据色调映射函数对高动态范围图像执行色调映射,以将高动态范围图像转换成低动态范围图像。特征信息可包括高动态范围图像的边缘信息、纹理信息和灰度信息中的至少一者。
根据所公开的实施方式的方面,提供了这样的显示设备及其控制方法,通过该显示设备及其控制方法,对高亮度区域和低亮度区域使用了不同的色调映射函数,因此,显示在显示设备上的图像可维持原始图像的明亮度,并且可显示高亮度区域中所包括的图像信息。
根据所公开的实施方式的另一方面,提供了控制显示设备的方法,该方法包括:确定图像的第一区域,所述图像的第一区域比图像的第二区域具有更高的亮度;确定与第一区域和第二区域相对应的第一映射函数和第二映射函数,其中,第一映射函数增强一个或多个图像特征,以及第二映射函数增加明亮度;以及响应于亮度、使用第一映射函数和第二映射函数对图像进行映射,以保持第二区域的图像的明亮度以及保持第一区域的图像的特征信息。
发明的有益效果
提供了这样的显示设备及其控制方法,通过该显示设备及其控制方法,显示在显示设备上的图像可维持原始图像的明亮度而不改变,并且可显示高亮度区域中所包括的图像信息。
附图说明
结合附图,根据实施方式的以下描述,本公开的这些和/或其他方面将变得明显以及更容易地理解,在附图中:
图1示出根据实施方式的显示设备的外型;
图2示出根据实施方式的显示设备的控制配置(control configuration);
图3示出根据实施方式的显示设备中所包括的示例性图像处理单元;
图4A和图4B示出根据实施方式由显示设备中所包括的图像处理单元进行的将图像数据线性化的示例性操作;
图5示出示例性原始图像;
图6示出图5中所示出的原始图像的亮度直方图;
图7示出根据像素的亮度值将图5中所示出的原始图像进行划分的示例;
图8示出根据亮度值将图5中所示出的原始图像进行划分所获得的示例性图像;
图9A和图9B示出根据亮度值将图5中所示出的原始图像进行划分所获得的另一示例性图像;
图10A和图10B示出图3中所示出的图像处理单元从第一区域提取特征点的示例;
图11A和图11B示出图3中所示出的图像处理单元基于第一区域的特征点生成第一映射函数的示例;
图12A和图12B示出图3中所示出的图像处理单元根据第一区域的特征点生成第一映射函数的另一示例;
图13A和图13B示出图3中所示出的图像处理单元基于第二区域的图像生成第二映射函数的示例;
图14示出由图3中所示出的图像处理单元生成的示例性色调映射函数;
图15A和图15B示出相关技术的显示设备对高动态范围图像执行色调映射时获得的结果;
图16示出根据实施方式的显示设备对高动态范围图像执行色调映射时获得的结果;
图17示出根据实施方式的显示设备的示例性高动态范围图像显示操作;
图18示出根据实施方式的显示设备中所包括的另一示例性图像处理单元;
图19A和图19B和图20示出图18中所示出的图像处理单元生成色调映射函数的示例;
图21示出根据实施方式的显示设备的另一示例性高动态范围图像显示操作;
图22示出根据实施方式的显示设备中所包括的另一示例性图像处理单元;
图23A和图23B示出图22中所示出的图像处理单元对第一区域的图像执行色调映射的示例;
图24A和图24B示出图22中所示出的图像处理单元对第二区域的图像执行色调映射的示例;
图25示出根据实施方式的显示设备的另一示例性高动态范围图像显示操作;
图26示出根据实施方式的显示设备中所包括的另一示例性图像处理单元;
图27示出由图26中所示出的图像处理单元生成的第三映射函数;
图28示出根据实施方式的显示设备的另一示例性高动态范围图像显示操作;
图29示出根据实施方式的显示设备中所包括的另一示例性图像处理单元;
图30和图31示出由图29中所示出的图像处理单元生成的第四映射函数;以及
图32示出根据实施方式的显示设备的另一示例性高动态范围图像显示操作。
具体实施方式
现在将详细参考实施方式,其示例在附图中中示出,在全部附图中相同的参考标记表示相同的元件。以下参照附图对实施方式进行描述。
本说明书中描述的实施方式和附图中示出的配置仅是本公开实施方式的示例性示例。实施方式覆盖在提交本申请时可以代替本文中的实施方式和附图的各种修改。
下文中,将参照附图对实施方式进行详细描述。
图1示出根据实施方式的显示设备的外型,以及图2示出根据实施方式的显示设备的控制配置。
显示设备100是可将从外面接收的图像信号进行处理以及将已处理的图像进行视觉显示的设备。下文中,将举例说明显示设备100为电视(TV)的情况,但是本实施方式不受此限制。例如,显示设备100可以各种类型实现,诸如,监控设备、移动多媒体设备或移动通信设备。显示设备100的类型不受限制,只要是视觉上显示图像的设备即可。
如图1和图2所示,显示设备100包括主体101,主体101形成显示设备100的外型并且容纳显示设备100的各部件。
可在主体101下方提供支承主体101的立架(stand)102。主体101可稳定地设置在靠立架102的平面上。然而,本实施方式不限于此,而是主体101可通过支架等安装在竖直表面上,诸如,墙壁表面。
在主体101的前部,可提供按钮组群121和显示面板143,其中,按钮组群121配置成从用户接收用户控制命令,显示面板143配置成根据用户控制命令显示图像。
此外,主体101中可设置有配置成实现显示设备100的功能的各种部件。主体101中可设置有图2中示出的控制配置。
具体地,显示设备100包括输入单元120、内容接收单元130、图像处理单元200、显示单元140、声音输出单元150和主控制单元110,其中,输入单元120配置成从用户接收用户控制命令;内容接收单元130配置成从外部设备接收包括图像和声音的内容;图像处理单元200配置成处理内容中所包括的图像数据;显示单元140配置成显示与内容中所包括的图像数据对应的图像;声音输出单元150配置成输出与内容中所包括的声音数据对应的声音;以及主控制单元110配置成从总体上控制显示设备100的操作。
输入单元120可包括配置成从用户接收各种用户控制命令的按钮组群121。例如,按钮组群121可包括音量按钮、信道按钮和电源按钮,其中,音量按钮用于调节来自声音输出单元150的声音输出的大小,信道按钮用于更改内容接收单元130接收内容的通信信道,以及电源按钮用于显示设备100的电源的开启或关闭等。
按钮组群121中所包括的各种按钮可使用按压开关、膜片开关或接触式开关,其中,按压开关配置成检测用户的按压,膜片开关或接触式开关配置成检测用户身体的部分的接触。然而,本实施方式不限于此,而是按钮组群121可使用各种输入方法,该输入方法可输出与用户的具体操作相对应的电信号。
此外,输入单元120可包括遥控器,该遥控器远程地从用户接收用户控制命令并且将接收的用户控制命令传输至显示设备100。
内容接收单元130可从各种外部设备接收各项内容。
例如,内容接收单元130可从天线、机顶盒、多媒体回放设备(例如,DVD播放器、CD播放器或蓝光播放器)接收内容,其中,天线配置成无线接收广播信号,机顶盒配置成以有线或无线方式接收广播信号并适当地转换所接收的广播信号,以及多媒体回放设备配置成播放存储在多媒体存储介质等中的内容。
具体地,内容接收单元130可包括多个连接器131、接收路径选择单元133和调谐器135,其中,连接器131连接至外部设备,接收路径选择单元133配置成从多个连接器131之中选择接收内容的路径,以及调谐器135配置成选择当接收广播信号等时接收广播信号的信道(或频率)。
连接器131可包括同轴电缆连接器(RF同轴电缆连接器)、高清晰度多媒体接口(HDMI)连接器、分量视频连接器、复合视频连接器、D-sub连接器等,其中,同轴电缆连接器配置成从天线接收包括内容的广播信号,高清晰度多媒体接口连接器配置成从机顶盒或多媒体回放设备接收内容。
接收路径选择单元133从如上所述的多个连接器131之中选择接收内容的连接器。例如,接收路径选择单元133可根据用户的用户控制命令自动地选择已接收内容的连接器131,或人工地选择将接收内容的连接器131。
调谐器135从接收广播信号时通过天线等接收的各种信号中提取特定频率(信道)的传输信号。换言之,调谐器135可根据用户的信道选择命令选择接收内容的信道(或频率)。
图像处理单元200处理由内容接收单元130接收的内容中的图像内容,并且将已处理的图像数据提供给显示单元140。
图像处理单元200可以是计算机,并且可包括图形处理器201和图形存储器203。
图形存储器203可存储用于图像处理的图像处理程序和图像处理数据,或临时存储从图形处理器201输出的图像数据或从内容接收单元130接收的图像数据。
图形存储器可包括诸如SRAM或DRAM的易失性存储器,以及诸如闪速存储器、只读存储器(ROM)、可擦可编程序只读存储器(EPROM)或电可擦可编程只读存储器(EEPROM)的非易失性存储器。
例如,非易失性存储器可半永久地存储用于图像处理的图像处理程序和图像处理数据。易失性存储器可临时存储从非易失性存储器加载的图像处理程序和图像处理数据、从内容接收单元130接收的图像数据或从图形处理器201输出的图像数据。
此外,非易失性存储器可设置成与易失性存储器分开,并且形成易失性存储器的辅助存储设备。
图形处理器201可根据存储在图形存储器203中的图像处理程序对存储在图形存储器203中的图像数据进行处理。例如,图形处理器201可执行诸如以下将描述的图像线性化和色调映射的图像处理。
虽然上文已单独描述图形处理器201和图形存储器203,但是本实施方式并不局限于图形处理器201和图形存储器203作为单独的芯片提供的情况。图形处理器201和图形存储器203可作为单个芯片提供。
以下将详细描述图像处理单元200的详细操作。
显示单元140可包括配置成视觉显示图像的显示面板143和配置成驱动显示面板143的显示驱动器141。
显示面板143可根据从显示驱动器141接收的图像数据输出图像。
显示面板143可包括像素,像素是显示图像的单位。每个像素可接收指示图像数据的电信号,并且输出与所接收的电信号相对应的光学信号。
以这种方式,将从显示面板143中所包括的多个像素中输出的光学信号进行组合,由此在显示面板143上显示一个图像。
此外,显示面板143可根据每个像素输出光学信号的方法分为若干类型。例如,显示面板143可分为发光显示器、透射式显示器或反射式显示器,其中,发光显示器中像素本身发光,透射式显示器配置成阻挡或透射从背光等发出的光,以及反射式显示器配置成反射或吸收来自外部光源的入射光。
显示面板143可使用阴极射线管(CRT)显示器、液晶显示(LCD)面板、发光二极管(LED)面板、有机发光二极管(OLED)、等离子体显示面板(PDP)、场致发射显示(FED)面板等。然而,显示面板143不限于此,并且显示面板143可使用各种显示方法,通过这些显示方法可视觉显示与图像数据相对应的图像。
显示驱动器141根据主控制单元110的控制信号从图像处理单元200接收图像数据,并且驱动显示面板143以显示与所接收的图像数据相对应的图像。
具体地,显示驱动器141将与图像数据对应的电信号传送至显示面板143的多个像素中的每个像素。
为了在短时间内将电信号传送至显示面板143的全部像素,显示驱动器141可使用各种方法将电信号传送至像素中的每一个。
例如,根据隔行扫描的方法,显示驱动器141可交替地将电信号传送至多个像素之中的奇数列的像素和偶数列的像素。
此外,根据逐行扫描的方法,显示驱动器141以列为单位顺序地将电信号传送多个像素。
以这种方式,当显示驱动器141将与图像数据相对应的电信号传递至显示面板143的像素中的每一个时,像素中的每一个均输出与所接收的电信号相对应的光学信号,从像素输出的光学信号进行组合并且显示面板143上显示一个图像。
声音输出单元150可根据主控制单元110的控制信号输出与内容接收单元130接收的内容内所包括的声音数据对应的声音。声音输出单元150可包括至少一个扬声器151,扬声器151配置成将电信号转换成声音信号。
主控制单元110可包括主处理器111和主存储器113。
主存储器113可存储用于控制显示设备100的操作的控制程序和控制数据,以及临时存储通过输入单元120接收的用户控制命令或从主处理器111输出的控制信号。
主存储器113可包括诸如SRAM或DRAM的易失性存储器,以及诸如闪速存储器、只读存储器(ROM)、可擦可编程序只读存储器(EPROM)或电可擦可编程只读存储器(EEPROM)的非易失性存储器。
例如,非易失性存储器可半永久地存储用于控制显示设备100的控制程序和控制数据。易失性存储器可临时存储从非易失性存储器加载的控制程序和控制数据、通过输入单元120接收的用户控制命令或从主处理器111输出的控制信号。
此外,非易失性存储器可与易失性存储器分开提供,并且形成易失性存储器的辅助存储设备。
主处理器111可根据存储在主存储器113中的控制程序对存储在主存储器113中的各种类型的数据进行处理。
例如,主处理器111可对通过输入单元120输入的用户控制命令进行处理、根据用户控制命令生成用于选择供内容接收单元130接收内容的路径的信道选择信号、以及根据用户控制命令生成用于调节从声音输出设备输出的声音的大小的音量控制信号。
虽然上文已单独描述主处理器111和主存储器113,但是本实施方式并不局限于主处理器111和主存储器113作为单独的芯片提供的情况。主处理器111和主存储器113可作为单个芯片提供。
主控制单元110可根据用户的控制命令控制显示设备100中所包括的各种部件的操作。具体地,主控制单元110可控制图像处理单元200对由内容接收单元130接收的图像数据执行图像处理,以及控制显示单元140显示图像已被处理的图像数据。
下文中将描述图像处理单元200的配置。
图3示出根据实施方式的显示设备中所包括的示例性图像处理单元。
如上所述,图像处理单元200包括作为硬件成分的图形处理器201和图形存储器203。
此外,图像处理单元200可包括作为软件成分的各种图像处理模块。具体地,图形处理器201可根据存储在图形存储器203中的图像处理程序和图像处理数据执行各种图像处理操作。当图像处理单元200根据由图形处理器201执行的图像处理操作进行划分时,图像处理单元200可包括如图3中所示出的各种图像处理模块。
如图3所示,图像处理单元200可包括:图像接收模块205,配置成接收图像数据ID和元数据MD;线性化模块210,配置成将图像数据线性化;区域划分模块220,配置成基于亮度划分图像;第一映射函数生成模块231,配置成生成具有高亮度的第一区域的色调映射函数;第二映射函数生成模块232,配置成生成具有低亮度的第二区域的色调映射函数;色调映射模块240,配置成执行色调映射;以及细节增强模块250,配置成对已执行色调映射的图像执行后处理操作。
图像接收模块205从内容接收单元130接收内容C,并且输出图像数据ID和元数据MD,其中,图像数据ID包括在接收的内容C中,元数据MD与图像数据ID相关。这里,元数据MD可包括关于图像数据ID的信息。
线性化模块210将图像数据ID线性化,并且输出线性化的原始图像I1。
区域划分模块220从线性化模块210接收原始图像I1,将接收的原始图像I1划分成第一区域R1和第二区域R2,并且输出第一区域R1的图像和第二区域R2的图像。
第一映射函数生成模块231从区域划分模块220接收第一区域R1的图像,并且基于第一区域R1的图像生成并输出第一映射函数MF1。
第二映射函数生成模块232从区域划分模块220接收第二区域R2的图像,并且基于第二区域R2的图像生成并输出第二映射函数MF2。
色调映射模块240分别从第一映射函数生成模块231和第二映射函数生成模块232接收第一映射函数MF1和第二映射函数MF2,并且基于第一映射函数MF1和第二映射函数MF2生成色调映射函数TMF。
此外,色调映射模块240根据生成的色调映射函数TMF在原始图像I1上执行色调映射并输出第一图像I2。
细节增强模块250从色调映射模块240接收第一图像I2,对接收的第一图像I2执行细节增强操作,并且输出执行了细节增强的第二图像I3。
图像处理单元200从内容接收单元130接收高动态范围的图像数据,根据所接收的高动态范围的图像数据生成低动态范围的显示图像,并且将生成的显示图像传送至显示单元140。
下文中将描述图像处理单元200中所包括的各个模块的操作。
首先,将对图像接收模块205进行描述。
图像接收模块205从由内容接收单元130接收的内容C中提取图像数据ID和元数据MD。
内容C包括表示原始图像的图像数据ID和与图像数据ID相关的元数据MD。
元数据MD可包括图像数据ID的亮度信息。当内容C是例如视频时,元数据MD则可包括整个内容C的亮度信息、内容C中所包括的每个场景的亮度信息、内容C中所包括的每个帧的亮度信息等。这里,帧是指形成视频的单个静止图像。此外,场景是指表示单个背景中的单个条件的一系列帧的束。换言之,场景可理解为图像没有显著变化的连续帧的束。
具体地,元数据MD可包括内容C中所包括的多个图像的最大亮度值、最小亮度值和平均亮度值。此外,元数据MD可包括每个场景中所包括的图像的最大亮度值、最小亮度值和平均亮度值。此外,元数据MD可包括形成每个帧的图像的最大亮度值、最小亮度值和平均亮度值。
以这种方式,除图像数据ID之外,图像接收模块205还可从内容C中提取每个场景的亮度信息或每个帧的亮度信息。
接着,将对线性化模块210进行描述。
图4A和图4B示出根据实施方式显示设备中所包括的图像处理单元将图像数据线性化的示例性操作。此外,图5示出示例性原始图像。图6示出图5中所示出的原始图像的亮度直方图。
如图4A和图4B所示,线性化模块210将从图像接收模块205接收的图像数据ID线性化,并且计算线性化的图像中所包括的像素中的每一个的亮度值。
由于各种原因,由内容接收单元130接收的图像数据可能与实际图像不同。例如,在根据图像传感器的实际成像目标的图像与根据图像数据的图像之间可能有差异,其中,图像传感器配置成获取图像目标的图像。此外,为了传输或存储图像数据而对图像进行压缩或编码的过程期间,最初传输的图像与根据图像数据的图像之间可能有差异。
具体地,由于高动态范围图像包括大量的信息,因此,为了通过通信网络传输图像或将图像存储在存储介质中,必须对图像进行压缩或编码。
最大亮度为L1max和最小亮度为L1min的原始图像可转换成可识别的动态范围为N1(N0至N1)的图像数据(在这种情况下,假定L1max与L1min之间的差值是大于N1的数)。例如,可将最大亮度L1max与最小亮度L1min之间的差值为10,000尼特(nits)的原始图像压缩成可表现范围为2000尼特的图像数据。
当图像的动态范围减小时,图像数据的尺寸减小。然而,存在将原始图像中所包括的信息的一些部分丢失的担忧。以这种方式,当原始图像的动态范围L1大于图像数据的动态范围N1时,为了使编码或压缩处理期间丢失的信息最小化,可使用图4A中示出的第一非线性映射函数F1。
当使用第一非线性映射函数F1时,以不同的压缩比将原始图像内包括大量信息的区域和包括少量信息的区域进行压缩。换言之,在包括大量信息的区域中,图像以低压缩比进行压缩。在包括少量信息的区域中,图像以高压缩比进行压缩。因此,能够提高压缩效率,并且图像数据可包括更大的信息量。
由内容接收单元130接收的内容C中所包括的图像数据ID可以是由图4A中示出的第一非线性映射函数F1非线性压缩的图像数据。
线性化模块210将以这种方式非线性压缩的图像数据线性化。
具体地,线性化模块210可使用图4B中示出的第二非线性映射函数F2和原始图像I1的亮度信息将非线性压缩的图像数据线性化。此外,原始图像I1的亮度信息可从如上所述的图像接收模块205中接收,原始图像I1的亮度信息可包括以场景为单位的最大亮度值和最小亮度值,或以帧为单位的最大亮度值和最小亮度值。
这里,第二非线性映射函数F2可使用第一非线性映射函数F1的反函数,其中,第一非线性映射函数F1用于将原始图像压缩为图像数据。
将原始图像压缩成图像数据的第一非线性映射函数F1与通过国际标准等公知的函数对应。因此,线性化模块210可基于第一非线性映射函数F1生成第二非线性映射函数F2。此外,第二非线性映射函数F2可预先存储在图形存储器203中。
从内容接收单元130接收的图像数据ID可由线性化模块210恢复成原始图像。
例如,恢复的原始图像可以是如图5中所示出的原始图像I1。
此外,线性化模块210可分析原始图像I1的亮度。
具体地,线性化模块210可获取原始图像I1的最大亮度值L1max、最小亮度值L1min和平均亮度值。
线性化模块210可使用各种方法获取原始图像I1的最大亮度值L1max、最小亮度值L1min和平均亮度值。
如上所述,可以图像数据ID的元数据MD的形式从外部设备中接收原始图像I1的最大亮度值L1max、最小亮度值L1min和平均亮度值。
在这种情况下,可以以内容C为单位、以图像的帧为单位或以图像的场景为单位提供最大亮度值L1max、最小亮度值L1min和平均亮度值。当以场景为单位提供该值时,线性化模块210可参考先前帧的最大亮度值L1max、最小亮度值L1min和平均亮度值。
当所接收的内容C的元数据MD不包括最大亮度值L1max、最小亮度值L1min或平均亮度值时,线性化模块210可根据线性化的原始图像直接计算最大亮度值L1max、最小亮度值L1min和平均亮度值。
线性化模块210可使用方程式1计算原始图像I1中所包括的像素的亮度值。这里,线性化的原始图像的像素中的每一个包括红色值、绿色值和蓝色值。
【方程式1】
L=0.2126R+0.7152G+0.0722B
(其中,L表示像素的亮度值,R表示像素的红色值,G表示像素的绿色值,以及B表示像素的蓝色值。)
可将原始图像中所包括的像素中的每一个的亮度值表示为亮度直方图。这里,原始图像I1的亮度直方图G1表示像素根据亮度值的频率分布。即,亮度直方图G1的X轴表示亮度值,以及Y轴表示与亮度值对应的像素的数量。
例如,线性化模块210可将图5中示出的原始图像I1表示为图6所示出的亮度直方图G1。如图6所示,在图5中所示出的原始图像I1的示例中,具有最低亮度的像素的数量最大,并且随着亮度增加,像素的数量减少。
上文已描述了亮度直方图G1以便理解,但是这仅是用于促进理解的示例。图像处理单元200并非一定生成亮度直方图G1。图像处理单元200可根据需要生成亮度直方图G1。
接下来,将对区域划分模块220进行描述。
图7示出根据像素的亮度值将图5中所示出的原始图像进行划分的示例。图8示出根据亮度值将图5中所示出的原始图像进行划分所获得的示例性图像。此外,图9A和图9B示出根据亮度值将图5中所示出的原始图像进行划分所获得的另一示例性图像。
如图7、图8和图9A和图9B所示,区域划分模块220基于根据多个像素的亮度的第一参考亮度值m将原始图像划分成第一区域R1和第二区域R2。具体地,区域划分模块220可将原始图像划分成包括亮度等于或大于参考亮度值m的像素的第一区域和包括亮度小于第一参考亮度值m的像素的第二区域。
当举例说明图6中所示的亮度直方图G1时,可基于如图7所示的第一参考亮度值m将原始图像I1的多个像素分为第一区域R1中所包括的像素或第二区域R2中所包括的像素。
这里,第一参考亮度值m可设置为最大亮度值或小于最大亮度值的亮度值,其中,该最大亮度值可以是从显示设备100中的最大限度输出。
此外,第一参考亮度值m可由用户设置,或可以是预定值。
如图8所示,当根据第一参考亮度值m将图5中所示的原始图像I1划分成第一区域R1和第二区域R2时,图像可划分成像素的亮度值等于或大于第一参考亮度值m的第一区域R1和像素的亮度值小于第一参考亮度值m的第二区域R2。
此外,区域划分模块220可将亮度值等于或大于第一参考亮度值m的像素以及处于亮度值等于或大于第一参考亮度值m的像素附近的像素设置为第一区域R1。这是因为在执行了色调映射之后需要维持图像的连续性。
例如,如图9A所示,区域划分模块220可将原始图像I1划分成多个区域。
然后,区域划分模块220可设置区域,以使得包括亮度值等于或大于第一参考亮度值m的像素的区域为第一区域R1,以及划分的区域中不包括亮度值等于或大于第一参考亮度值m的像素的区域为第二区域R2。
如图9B所示,当以这种方式将图5中所示的原始图像I1划分成第一区域R1和第二区域R2时,区域划分模块220可将亮度值等于或大于第一参考亮度值m的像素以及处于亮度值等于或大于第一参考亮度值m的这些像素附近的像素设置为第一区域R1。
接下来,将对第一映射函数生成模块231进行描述。
图10A和图10B示出图3中所示出的图像处理单元从第一区域提取特征点的示例。此外,图11A和图11B示出图3中所示出的图像处理单元基于第一区域的特征点生成第一映射函数的示例。图12A和图12B示出图3中所示出的图像处理单元根据第一区域的特征点生成第一映射函数的另一示例。
如图10A、图10B、图11A、图11B、图12A和图12B所示,第一映射函数生成模块231基于第一区域R1的图像生成第一映射函数MF1。
这里,第一映射函数MF1是指将原始图像I1内第一区域R1的作为高动态范围图像的图像转换成低动态范围图像的参数函数。换言之,第一区域R1的图像通过第一映射函数MF1转换成低动态范围图像。
具体地,第一映射函数MF1将亮度值介于第一参考亮度值m与最大原始亮度值L1max范围之间的高动态范围图像转换成亮度值介于第二参考亮度值n与最大显示亮度值L2max范围之间的低动态范围图像。这里,第二参考亮度值n可由用户设置,或可由显示设备100的设计者预先适当地设置。
第一映射函数生成模块231提取包括特征信息的像素,并且基于所提取的像素的直方图生成第一映射函数MF1。这里,特征信息可包括第一区域R1中所包括的图像的边缘信息、图像的纹理信息和图像的灰度信息。
第一映射函数生成模块231可生成第一映射函数MF1,该第一映射函数MF1用于直观显示第一区域R1的边缘、直观显示图像的纹理或直观显示图像的灰度。
例如,为了直观显示边缘区域,第一映射函数生成模块231可从第一区域R1中所包括的像素中提取这样的像素:所述像素的亮度值与相邻像素的亮度值不同并且等于或大于参考值。换言之,第一映射函数生成模块231可从图10A中示出的第一区域R1的图像中提取如图10B所示的像素FP:像素具有的亮度值等于或大于参考值,与相邻象素的亮度值不同。这里,可将亮度值等于或大于参考值、与相邻象素的亮度值不同的像素确定为定位在图像的边缘区域处。
此外,第一映射函数生成模块231可计算定位在边缘区域的像素(所述像素的亮度值等于或大于参考值、与相邻象素的亮度值不同)的频率分布。
如图11A所示,可将定位在边缘区域的像素的频率分布表示为边缘直方图G2。具体地,边缘直方图G2的X轴表示亮度值,以及Y轴表示亮度值等于或大于参考值、与相邻象素的亮度值不同的像素的数量。
如图11A所示,定位在边缘区域处的像素的数量在亮度值p附近时最大。在除亮度值p附近以外的亮度值中,亮度值等于或大于参考值、与相邻象素的亮度值不同的像素的数量很小。
为了将显示在显示设备100上的图像的边缘区域直观显示,第一映射函数生成模块231可为边缘区域像素数量多的亮度范围分配显示在显示设备100上的较宽的亮度范围,以及为边缘区域像素数量少的亮度范围分配显示在显示设备100上的较窄的亮度范围。
具体地,如图11B所示,第一映射函数生成模块231可生成第一映射函数MF1,在第一映射函数MF1中,定位在边缘区域处的像素数量多的位置处亮度值具有大的斜率,以及定位在边缘区域处的像素的数量少的位置处亮度值具有小的斜率。具体地,为了生成第一映射函数MF1,第一映射函数生成模块231可将通过对边缘直方图G2进行积分而获得的累计边缘直方图确定为第一映射函数MF1。
然而,通过第一映射函数生成模块231生成的第一映射函数MF1不限于此。
例如,当边缘直方图G2与图12A相同时,第一映射函数生成模块231可生成如图12B所示的第一映射函数MF1。
具体地,如图12B所示,第一映射函数生成模块231可生成第一映射函数MF1,第一映射函数MF1在定位于边缘区域处的像素的数量大的位置处的亮度值上具有恒定的斜率。
作为另一示例,为了直观显示图像的纹理,第一映射函数生成模块231可提取亮度值在恒定范围内变化的区域的像素。可将亮度值在恒定范围内变化的区域确定为呈现纹理的区域。
此外,第一映射函数生成模块231可计算呈现纹理的区域(亮度值在恒定范围内变化的区域)的像素的频率分布。
此外,第一映射函数生成模块231可生成第一映射函数,在第一映射函数中,呈现纹理的区域的像素数量多的位置处的亮度值附近出现大的斜率:以及呈现纹理的区域中的像素数量少的位置处的亮度值附近出现小的斜率。
作为另一示例,为了直观显示图像的灰度,第一映射函数生成模块231可提取亮度值不断且连续地变化的区域的像素。可将亮度值不断地且连续地变化的区域确定为呈现灰度的区域。
此外,第一映射函数生成模块231可计算呈现灰度的区域(亮度值不断地且连续地变化的区域)的像素的频率分布。
此外,第一映射函数生成模块231可生成第一映射函数,在第一映射函数中,呈现灰度的区域的像素数量大的位置处的亮度值具有大斜率,以及呈现灰度的区域的像素数量少的位置处的亮度值具有小斜率。
以这种方式,为了直观显示第一区域R1的图像中所包括的各项图像信息,第一映射函数生成模块231可生成各种第一映射函数MF1。
具体地,为了直观显示第一区域R1的图像中所包括的各项图像信息,第一映射函数生成模块231可计算包括特征信息的像素的频率分布,并且基于生成的频率分布生成第一映射函数MF1。
接下来,将对第二映射函数生成模块232进行描述。
图13A和图13B示出图3中所示出的图像处理单元基于第二区域的图像生成第二映射函数的示例。
如图13A和图13B所示,第二映射函数生成模块232基于第二区域R2的图像生成第二映射函数MF2。
这里,第二映射函数MF2是指将原始图像I1内第二区域R2的作为高动态范围图像的图像转换成低动态范围图像的参数函数。换言之,第二区域R2的图像通过第二映射函数MF2转换成低动态范围图像。
具体地,第二映射函数MF2将亮度值介于最小原始亮度值L1min与参考亮度值m范围之间的高动态范围图像转换成亮度值介于最小显示亮度值L2min与第二参考亮度值n范围之间的低动态范围图像。这里,如上所述,第二参考亮度值n可由用户设置,或可由显示设备100的设计者预先适当地设置。
具体地,第二映射函数生成模块232提取第二区域R2的亮度信息,并且基于提取的亮度信息生成第二映射函数MF2。
如图13A所示,第二区域R2的亮度信息可基于原始图像I1的亮度直方图G1获取。
第二映射函数生成模块232可生成第二映射函数MF2,以用于充分地保持第二区域R2的明亮度,并且防止第二区域R2的图像中所包括的图像信息丢失。
例如,第二映射函数生成模块232可为像素数量多的亮度区域分配显示在显示设备100上的较宽的亮度范围,以及为像素数量少的亮度区域分配显示在显示设备100上的较窄的亮度范围。
具体地,如图13A所示,当随着亮度值增加像素的数量减少时,第二映射函数生成模块232可生成第二映射函数MF2,如图13B所示,在第二映射函数MF2中,随着亮度值增加斜率减小。具体地,为了生成第二映射函数MF2,第二映射函数生成模块232可基于通过对亮度直方图G1进行积分而获得的累计亮度直方图生成第二映射函数MF2。
然而,通过第二映射函数生成模块232生成的第二映射函数MF2不限于此。
例如,第二映射函数生成模块232可生成线性色调映射函数、对数色调映射函数等。
线性色调映射函数将高动态范围图像转换成低动态范围图像,以使得高动态范围图像的亮度值和低动态范围图像的亮度值具有线性关系。
线性色调映射函数,作为维持像素之间的对比度的色调映射函数,具有的优势在于原始图像I1与显示图像I2(也称为第一图像I2)之间很少出现视觉差异。
对数色调映射函数将高动态范围图像转换成低动态范围图像,以使得高动态范围图像的亮度值和低动态范围图像的亮度值具有对数函数的关系。
在对数色调映射函数中,使用了这样的特征:依据韦伯定律人类视觉特征类似于对数函数增加。韦伯定律表明,人类的眼睛会感测暗区中的明亮度的轻微的变化,但是不易感测亮区中的明亮度的大的变化。
对数色调映射函数通常根据对数函数的特征增加图像的明亮度,并且在图像的暗区具有高对比度效果。
以这种方式,第二映射函数生成模块232可基于对数函数生成第二映射函数,或基于分区式系统生成第二映射函数。
接下来,将对色调映射模块240进行描述。
图14示出由图3中所示出的图像处理单元生成的示例性色调映射函数。图15A和图15B示出当相关技术的显示设备对高动态范围图像执行色调映射时获得的结果。图16示出根据实施方式的显示设备对高动态范围图像执行色调映射时获得的结果。
如图14、图15A、图15B和图16所示,色调映射模块240组合第一映射函数MF1和第二映射函数MF2、生成色调映射函数MF并且利用色调映射函数MF对原始图像I1执行色调映射。
这里,色调映射函数MF是指将作为高动态范围图像的原始图像I1转换成低动态范围图像的参数函数。换言之,原始图像I1根据色调映射函数MF转换成作为低动态范围图像的显示图像I2。
具体地,色调映射函数MF将原始图像I1转换成显示图像I2,其中,原始图像I1的亮度值介于最小原始亮度值L1min与最大原始亮度值L1max范围之间,显示图像I2的亮度值介于最小显示亮度值L2min与最大显示亮度值L2max范围之间。
当将图11B中示出的第一映射函数MF1和图13B中示出的第二映射函数MF2组合时,会生成根据图14中示出的实施方式的色调映射函数MF。
以这种方式生成的色调映射函数MF可保持作为低亮度区域的第二区域R2的图像的明亮度,以及保持作为高亮度区域的第一区域R1的图像的特征信息。
色调映射模块240可在原始图像I1上执行色调映射,并且生成第一图像I2。具体地,色调映射模块240可向色调映射函数MF应用原始图像I1中所包括的所有像素的亮度值,并且因此,执行色调映射。
这里,第一图像I2具有与可从显示设备100输出的亮度范围相同的亮度范围。
以这种方式,与基于对数函数的色调映射函数MF3相比,通过色调映射模块240生成的可保持低亮度区域的明亮度和高亮度区域的特征信息的色调映射函数MF可更直观显示高亮度区域中的图像。
例如,当使用图15A中示出的基于对数函数的色调映射函数MF3对图5中示出的原始图像I1执行色调映射时,输出图15B中示出的显示图像I2。
此外,当使用图16A中示出的色调映射函数MF对图5中示出的原始图像I1执行色调映射时,输出图16B中示出的显示图像I2。
如图15B所示,在通过基于对数函数的色调映射函数MF3已执行色调映射的显示图像I2中,高亮度区域R1中不会直观地显示图像。另一方面,如图16B所示,在通过由色调映射模块240生成的色调映射函数MF已执行色调映射的显示图像I2中,高亮度区域R1中直观地显示了图像。
接下来,将对细节增强模块250进行描述。
为了为用户提供进一步直观的图像,细节增强涉及对已执行色调映射的图像I2的处理。
这种细节增强可包括各种图像处理技术,诸如,对比度增强、直方图均衡化、图像锐化和图像平滑,其中,通过对比度增强最大化图像的亮区和暗区之间的差异;通过直方图均衡化调节直方图,从而将具有低对比度分布的图像变成具有统一对比度分布的图像;通过图像锐化细致地转换图像;以及通过图像平滑柔和地转换图像。
细节增强模块250可利用早已公知的各种图像处理技术对第一图像I2进行处理,并且输出执行了细节增强的第二图像I3。
以这种方式,图像处理单元200可将原始图像I1划分成第一区域R1(即,高亮度区域)和第二区域R2(即,低亮度区域),基于诸如图像的边缘、图像的纹理或图像的灰度的图像特征在第一区域R1上执行色调映射,以及基于图像的明亮度在第二区域R2上执行色调映射。
因此,图像处理单元200可处理原始图像I1,以使得作为高动态范围图像的原始图像I1直观地显示在具有低动态范围的显示面板143上。
下文中,将对根据实施方式的显示设备100的操作进行描述。
图17示出根据实施方式的显示设备的示例性高动态范围图像显示操作。
如图17所示,将对显示设备100的高动态范围图像的显示操作(1000)进行描述。
显示设备100从外界接收图像(1010)。显示设备100可通过内容接收单元130从外界接收内容,并且提取所接收的内容中所包括的图像数据ID和元数据MD。
元数据MD是包括关于图像数据ID的信息的数据,并且元数据MD可包括以场景的单位的亮度信息或以帧为单位的亮度信息。具体地,元数据MD可包括整个内容C的最大亮度值、最小亮度值和平均亮度值,每个场景中所包括的图像的最大亮度值、最小亮度值和平均亮度值,或形成每个帧的图像的最大亮度值、最小亮度值和平均亮度值。
提取图像数据ID和元数据MD,然后,显示设备100将所接收的图像线性化(1020)。为了获取原始图像I1,显示设备100可将图像数据线性化。
具体地,显示设备100的图像处理单元200可使用第二非线性映射函数F2,并且将图像数据恢复为原始图像I1。此外,图像处理单元200可基于恢复的原始图像I1中所包括的像素中的每一个的色值,计算原始图像I1的亮度信息。
将图像线性化,然后,显示设备100将原始图像I1划分成多个区域(1030)。显示设备100可将原始图像I1划分成第一区域R1和第二区域R2,其中,第一区域R1是高亮度区域,第二区域R2是低亮度区域。
具体地,显示设备100的图像处理单元200可将原始图像I1划分成第一区域R1和第二区域R2,其中,第一区域R1包括亮度值等于或大于参考亮度值的像素,第二区域R2包括亮度值小于参考亮度值m的像素。
划分图像,然后,显示设备100生成第一映射函数MF1和第二映射函数MF2(1040)。显示设备100可生成第一区域R1的图像的第一映射函数MF1和第二区域R2的图像的第二映射函数MF2。
具体地,显示设备100的图像处理单元200可从第一区域R1的图像中提取包括诸如边缘、纹理和灰度的特征信息的像素,并且基于包括特征信息的像素的直方图生成第一映射函数MF1。
此外,图像处理单元200可基于第二区域R2的图像的亮度直方图生成第二映射函数MF2。
在生成第一映射函数MF1和第二映射函数MF2之后,显示设备100生成色调映射函数并且在原始图像I1上执行色调映射(1050)。显示设备100可使用组合了第一映射函数MF1和第二映射函数MF2的色调映射函数MF,并且根据原始图像I1生成第一图像I2。
具体地,显示设备100的图像处理单元200可组合第一映射函数MF1和第二映射函数MF2,并且生成色调映射函数MF。此外,图像处理单元200可向色调映射函数MF应用原始图像I1中所包括的所有像素的亮度值,并且根据原始图像I1生成第一图像I2。
执行色调映射,然后,显示设备100对第一图像I2执行细节增强(1060)。为了进一步直观地显示第一图像I2,显示设备100可对第一图像I2执行诸如对比度增强的图像处理。
具体地,显示设备100的图像处理单元200可对第一图像I2执行诸如对比度增强的细节增强,由此生成第二图像I3。
执行细节增强,然后,显示设备100显示图像(1070)。显示设备100可通过显示单元140显示第二图像I3。
以这种方式,显示设备100可将原始图像I1划分成第一区域R1(即,高亮度区域)和第一区域R2(即,低亮度区域),基于诸如图像的边缘、纹理或灰度的图像特征在第一区域R1上执行色调映射,以及基于图像的明亮度在第二区域R2上执行色调映射。
因此,显示设备100可处理原始图像I1,以使得作为高动态范围图像的原始图像I1直观地显示在具有低动态范围的显示面板143上。
上文已对根据实施方式的显示设备100和其中包括的图像处理单元200的示例性结构和操作进行了描述。
然而,显示设备100中所包括的图像处理单元并不局限于图3中示出的图像处理单元200,而是各种显示设备100可包括各种图像处理单元。
下文中,将对根据实施方式的显示设备100中所包括的各种图像处理单元进行描述。与上文描述的图像处理单元200的配置相同的配置使用相同的参考标记表示。
图18示出根据实施方式的显示设备中所包括的另一示例性图像处理单元。图19A和图19B和图20示出图18中所示出的图像处理单元生成色调映射函数的示例。
如图18所示,图像处理单元200’可包括:图像接收模块205,配置成接收图像数据ID和元数据MD;线性化模块210,配置成将图像数据线性化;区域划分模块220,配置成基于亮度划分图像;第一映射函数生成模块231,配置成生成高亮度区域的色调映射函数;色调映射模块240’,配置成执行色调映射;以及细节增强模块250,配置成对已执行色调映射的图像执行后处理操作。
图像接收模块205从由内容接收单元130接收的内容C中提取图像数据ID和元数据MD。这里,内容C包括表示原始图像的图像数据ID和与图像数据ID相关的元数据MD。元数据MD可包括图像数据ID的亮度信息。当内容C是例如视频时,元数据MD则可包括整个内容C的亮度信息、内容C中所包括的每个场景的亮度信息和内容C中所包括的每个帧的亮度信息中至少一个。
线性化模块210将从图像接收模块205接收的图像数据ID线性化,并且分析线性化的图像的亮度。具体地,当内容C的元数据MD中不包括最大亮度值L1max、最小亮度值L1min或平均亮度值时,线性化模块210可根据线性化的原始图像直接计算最大亮度值L1max、最小亮度值L1min和平均亮度值。
区域划分模块220根据多个像素的亮度基于第一参考亮度值m将原始图像划分成第一区域R1和第二区域R2。具体地,区域划分模块220可将原始图像划分成第一区域和第二区域,其中,第一区域包括亮度等于或大于参考亮度值m的像素,第二区域包括亮度小于第一参考亮度值m的像素。
第一映射函数生成模块231从第一区域R1中提取包括特征信息的像素,并且基于所提取的像素的直方图生成第一映射函数MF1。这里,特征信息可包括第一区域R1中所包括的图像的边缘信息、图像的纹理信息和图像的灰度信息。
色调映射模块240’基于原始图像I1和第一映射函数MF1生成色调映射函数MF,并且利用色调映射函数MF对原始图像I1执行色调映射。
这里,色调映射函数MF是指将作为高动态范围图像的原始图像I1转换成低动态范围图像的参数函数。换言之,原始图像I1通过色调映射函数MF转换成作为低动态范围图像的显示图像I2。
首先,色调映射模块240’基于原始图像I1的亮度信息生成临时色调映射函数MF’。这里,临时色调映射函数MF’可用来最终生成色调映射函数MF。
如图19A所示,原始图像I1的亮度信息可基于原始图像I1的亮度直方图G1获取。
色调映射模块240’可生成临时色调映射函数MF’,以用于充分地维持原始图像I1的明亮度,并且防止原始图像I1中所包括的图像信息丢失。
例如,色调映射模块240’可为像素数量多的亮度区域分配显示在显示设备100上的较宽的亮度范围,以及为像素数量少的亮度区域分配显示在显示设备100上的较窄的亮度范围。
具体地,如图19A所示,当随着亮度值增加而像素的数量减少时,色调映射模块240’可生成临时色调映射函数MF’,如图19B所示,在临时色调映射函数MF’中,随着亮度值增加斜率减小。具体地,为了生成临时色调映射函数MF’,色调映射模块240’可将通过对亮度直方图G1进行积分而获得的累计亮度直方图确定为临时色调映射函数MF’。
然而,通过色调映射模块240’生成的临时色调映射函数MF’不限于此。
例如,色调映射模块240’可基于早已公知的对数函数生成色调映射函数,或基于早已公知的分区式系统生成色调映射函数。
已生成临时色调映射函数MF’的色调映射模块240’将临时色调映射函数MF’与从第一映射函数生成模块231接收的第一映射函数MF1组合,并且生成色调映射函数MF。
色调映射模块240’可使用各种方法将临时色调映射函数MF’与第一映射函数MF1组合。
例如,色调映射模块240’可将高亮度区域的临时色调映射函数MF’与第一映射函数MF1合成,并且生成色调映射函数MF。
具体地,色调映射模块240’可执行归一化,以使得第一映射函数MF1的输出具有“0”和“1”之间的值,将参考亮度值m以上的临时色调映射函数MF’与归一化的第一映射函数MF1合成,由此生成色调映射函数MF。
因此,通过临时色调映射函数MF’对原始图像I1执行色调映射,并且可通过第一映射函数MF1对原始图像I1内的第一区域R1中所包括的图像再次执行色调映射。
作为另一示例,色调映射模块240’可用第一映射函数MF1代替高亮度区域的临时色调映射函数MF’。具体地,色调映射模块240’可用第一映射函数MF1代替临时色调映射函数MF’内的参考亮度值m以上的部分。
在这种情况下,色调映射模块240’可计算与参考亮度值m对应的低动态范围的亮度值l,并且基于计算的低动态范围的参考亮度值l与低动态范围的最大亮度值L2max之间的差值,标度第一映射函数MF1的输出范围。具体地,色调映射模块240’可标度第一映射函数MF1的输出范围,以使得第一映射函数MF1的输出介于低动态范围的参考亮度值l与低动态范围的最大亮度值L2max范围之间。
当将图19B中示出的临时色调映射函数MF’和图11B中示出的第一映射函数MF1组合时,会生成图20中示出的色调映射函数MF。
以这种方式生成的色调映射函数MF可保持原始图像I1的明亮度以及保持作为高亮度区域的第一区域R1的图像的特征信息。
已生成色调映射函数MF的色调映射模块240’可使用色调映射函数MF对原始图像I1执行色调映射,并且生成第一图像I2。具体地,色调映射模块240’可向色调映射函数MF应用原始图像I1中所包括的所有像素的亮度值,并且因此,执行色调映射。
这里,第一图像I2具有与可从显示设备100输出的亮度范围相同的亮度范围。
以这种方式,通过色调映射模块240’生成的可保持低亮度区域的明亮度和高亮度区域的特征信息的色调映射函数MF与基于对数函数的色调映射函数相比,可更直观显示高亮度区域中的图像。
为了为用户提供进一步直观的图像,细节增强模块250对已执行色调映射的图像I2进行处理。这里,细节增强可包括各种图像处理技术,诸如,对比度增强、直方图均衡化、图像锐化和图像平滑,其中,通过对比度增强最大化图像的亮区和暗区之间的差异;通过直方图均衡化调节直方图从而将具有低对比度分布的图像变成具有统一对比度分布的图像;通过图像锐化细致地转换图像;以及通过图像平滑柔和地转换图像。
下文中,将对根据实施方式的显示设备100的操作进行描述。
图21示出根据实施方式的显示设备的另一示例性高动态范围图像显示操作。
如图21所示,将对显示设备100的高动态范围图像显示操作(1100)进行描述。
显示设备100从外界接收图像(1110)。显示设备100可通过内容接收单元130从外界接收内容,并且提取所接收的内容中所包括的图像数据ID和元数据MD。
元数据MD是包括关于图像数据ID的信息的数据,并且元数据MD可包括以场景为单位的亮度信息或以帧为单位的亮度信息。具体地,元数据MD可包括整个内容C的最大亮度值、最小亮度值和平均亮度值,每个场景中所包括的图像的最大亮度值、最小亮度值和平均亮度值,或形成每个帧的图像的最大亮度值、最小亮度值和平均亮度值。
提取图像数据ID和元数据MD,然后,显示设备100将所接收的图像线性化(1120)。为了获取原始图像I1,显示设备100可将图像数据线性化。
具体地,显示设备100的图像处理单元200’可使用第二非线性映射函数F2,并且将图像数据恢复为原始图像I1。此外,图像处理单元200’可基于恢复的原始图像I1中所包括的像素中的每一个的色值,计算原始图像I1的亮度信息。
将图像线性化,然后,显示设备100从原始图像I1检测第一区域(1130)。显示设备100可从原始图像I1检测作为高亮度区域的第一区域R1。
具体地,显示设备100的图像处理单元200’可从原始图像I1检测第一区域R1,第一区域R1包括亮度值等于或大于参考亮度值m的像素。
检测第一区域R1,然后,显示设备100生成第一映射函数MF1(1140)。显示设备100可生成第一区域R1的图像的第一映射函数MF1。
具体地,显示设备100的图像处理单元200’可从第一区域R1的图像中提取包括诸如边缘、纹理和灰度的特征信息的像素,并且基于包括特征信息的像素的直方图生成第一映射函数MF1。
在生成第一映射函数MF1之后,显示设备100生成色调映射函数并且对原始图像I1执行色调映射(1150)。显示设备100可生成临时色调映射函数MF’,并且根据原始图像I1利用临时色调映射函数MF’和第一映射函数MF1生成第一图像I2。
具体地,显示设备100的图像处理单元200’可基于原始图像I1的亮度直方图生成临时色调映射函数MF’,将临时色调映射函数MF’与第一映射函数MF1组合并生成色调映射函数MF。
此外,图像处理单元200’可向色调映射函数MF应用原始图像I1中所包括的所有像素的亮度值,由此根据原始图像I1生成第一图像I2。
执行色调映射,然后,显示设备100对第一图像I2执行细节增强(1160)。为了进一步直观地显示第一图像I2,显示设备100可对第一图像I2执行诸如对比度增强的图像处理。
具体地,显示设备100的图像处理单元200’可对第一图像I2执行诸如对比度增强的细节增强,由此生成第二图像I3。
执行细节增强,然后,显示设备100显示图像(1170)。显示设备100可通过显示单元140显示第二图像I3。
以这种方式,显示设备100可从原始图像I1检测第一区域R1,基于图像的明亮度对原始图像I1执行色调映射,然后,基于诸如边缘、纹理或灰度的图像特征在第一区域R1上执行色调映射。
因此,显示设备100可处理原始图像I1,以使得作为高动态范围图像的原始图像I1直观地显示在具有低动态范围的显示面板143上。
图22示出根据实施方式的显示设备中所包括的另一示例性图像处理单元。此外,图23A和图23B示出图22中所示出的图像处理单元对第一区域的图像执行色调映射的示例。图24A和图24B示出图22中所示出的图像处理单元对第二区域的图像执行色调映射的示例。此外,图25示出根据实施方式的显示设备的另一示例性高动态范围图像显示操作。
如图22所示,图像处理单元200”可包括:图像接收模块205,配置成接收图像数据ID和元数据MD;线性化模块210,配置成将图像数据线性化;区域划分模块220,配置成根据亮度划分图像;第一色调映射模块241,配置成在高亮度区域上执行色调映射;第二色调映射模块242,配置成在低亮度区域上执行色调映射;图像合成模块260,配置成将已执行色调映射的图像合成;以及细节增强模块250,配置成对图像执行后处理操作。
图像接收模块205从由内容接收单元130接收的内容C中提取图像数据ID和元数据MD。这里,内容C包括表示原始图像的图像数据ID和与图像数据ID相关的元数据MD。元数据MD可包括图像数据ID的亮度信息。当内容C是例如视频时,元数据MD可包括整个内容C的亮度信息、内容C中所包括的每个场景的亮度信息和内容C中所包括的每个帧的亮度信息中至少一个。
线性化模块210将从图像接收模块205接收的图像数据ID线性化,并且分析线性化的图像的亮度。具体地,当内容C的元数据MD中不包括最大亮度值L1max、最小亮度值L1min或平均亮度值时,线性化模块210可根据线性化的原始图像直接计算最大亮度值L1max、最小亮度值L1min和平均亮度值。
区域划分模块220基于根据多个像素的亮度的第一参考亮度值m将原始图像划分成第一区域R1和第二区域R2。具体地,区域划分模块220可将原始图像划分成第一区域和第二区域,其中,第一区域包括亮度等于或大于参考亮度值m的像素,以及第二区域包括亮度小于第一参考亮度值m的像素。
第一色调映射模块241基于第一区域R1的图像生成第一映射函数MF1,并且使用第一映射函数MF1对第一区域R1的图像执行色调映射。
这里,第一映射函数MF1是指将第一区域R1的作为高动态范围图像的图像转换成低动态范围图像的参数函数。换言之,第一区域R1的图像通过第一映射函数MF1转换成低动态范围图像。
具体地,第一映射函数MF1将亮度值介于第一参考亮度值m与最大原始亮度值L1max范围之间的高动态范围图像转换成亮度值介于第二参考亮度值n与最大显示亮度值L2max范围之间的低动态范围图像。
第一色调映射模块241提取包括特征信息的像素,并且基于所提取的像素的直方图生成第一映射函数MF1。这里,特征信息可包括第一区域R1中所包括的图像的边缘信息、图像的纹理信息和图像的灰度信息。
例如,为了直观显示边缘区域,第一色调映射模块241可从第一区域R1中所包括的像素中提取这样的像素:所述像素的亮度值与相邻象素不同并且等于或大于参考值的亮度值;并且基于所提取的像素的直方图生成第一映射函数MF1。
此外,第一色调映射模块241根据第一映射函数MF1对第一区域R1的图像执行色调映射,并且生成第一区域显示图像I2a。
例如,第一色调映射模块241可使用图23A中示出的第一映射函数MF1对图8中示出的第一区域R1的图像执行色调映射,并且输出如图23B所示的第一区域显示图像I2a。
第二色调映射模块242基于第二区域R2的图像生成第二映射函数MF2,并且使用第二映射函数MF2对第二区域R2的图像执行色调映射。
这里,第二映射函数MF2是指将第二区域R2的作为高动态范围图像的图像转换成作为低动态范围图像的参数函数。换言之,第二区域R2的图像通过第二映射函数MF2转换成低动态范围图像。
具体地,第二映射函数MF2将亮度值介于最小原始亮度值L1min与第一参考亮度值m范围之间的高动态范围图像转换成亮度值介于最小显示亮度值L2min与第二参考亮度值n范围之间的低动态范围图像。
第二色调映射模块242基于第二区域R2的图像的亮度直方图生成第二映射函数MF2。具体地,第二色调映射模块242可基于通过对第二区域R2的图像的亮度直方图进行积分而获得的累计亮度直方图生成第二映射函数MF2。
然而,本实施方式不限于此。第二色调映射模块242可基于线性函数、对数函数等生成第二映射函数MF2。
此外,第二色调映射模块242根据第二映射函数MF2对第二区域R2的图像执行色调映射,并且生成第二区域显示图像I2b。
例如,当使用图24A中示出的第二映射函数MF2对图8中示出的第二区域R2的图像执行色调映射时,第二色调映射模块242可生成如图24B所示的第二区域显示图像I2b。
图像合成模块260将从第一色调映射模块241接收的第一区域显示图像I2a与从第二色调映射模块242接收的第二区域显示图像I2b合成,并且生成第一图像I2。
例如,图像合成模块260可将第一区域显示图像I2a与图24B中示出的第二区域显示图像I2b合成,并且生成第一图像I2。
以这种方式,第一色调映射模块241可使用高亮度区域的特征信息执行色调映射。第二色调映射模块242可使用低亮度区域的明亮度信息执行色调映射。此外,图像合成模块可将从第一色调映射模块241输出的第一区域显示图像I2a与从第二色调映射模块242输出的第二区域显示图像I2b合成。
为了为用户提供进一步直观的图像,细节增强模块250对已执行色调映射的图像I2进行处理。这里,细节增强可包括各种图像处理技术,诸如,对比度增强、直方图均衡化、图像锐化和图像平滑,其中,通过对比度增强最大化图像的亮区和暗区之间的差异;通过直方图均衡化调节直方图,从而将具有低对比度分布的图像变成具有统一对比度分布的图像;通过图像锐化细致地转换图像;以及通过图像平滑柔和地转换图像。
下文中,将对根据实施方式的显示设备100的操作进行描述。
图25示出根据实施方式的显示设备的另一示例性高动态范围图像显示操作。
如图25所示,将对显示设备100的高动态范围图像显示操作(1200)进行描述。
显示设备100从外界接收图像(1210)。显示设备100可通过内容接收单元130从外界接收内容,并且提取所接收的内容中所包括的图像数据ID和元数据MD。
元数据MD是包括关于图像数据ID的信息的数据,并且元数据MD可包括以场景为单位的亮度信息或以帧为单位的亮度信息。具体地,元数据MD可包括整个内容C的最大亮度值、最小亮度值和平均亮度值,每个场景中所包括的图像的最大亮度值、最小亮度值和平均亮度值,或形成每个帧的图像的最大亮度值、最小亮度值和平均亮度值。
提取图像数据ID和元数据MD,然后,显示设备100将所接收的图像线性化(1120)。为了获取原始图像I1,显示设备100可将图像数据线性化。
具体地,显示设备100的图像处理单元200”可使用第二非线性映射函数F2,并且将图像数据恢复为原始图像I1。此外,图像处理单元200”可基于恢复的原始图像I1中所包括的像素中的每一个的色值,计算原始图像I1的亮度信息。
将图像线性化,然后,显示设备100将原始图像I1划分成多个区域(1230)。显示设备100可将原始图像I1划分成第一区域R1和第二区域R2,其中,第一区域R1是高亮度区域,第二区域R2是低亮度区域。
具体地,显示设备100的图像处理单元200”可将原始图像I1划分成第一区域R1和第二区域R2,其中,第一区域R1包括亮度值等于或大于参考亮度值m的像素,以及第二区域R2包括亮度值小于参考亮度值m的像素。
在划分图像之后,显示设备100生成第一映射函数MF1并对第一区域R1的图像执行色调映射(1240)。
显示设备100可生成第一区域R1的图像的第一映射函数MF1。具体地,显示设备100的图像处理单元200”可从第一区域R1的图像中提取包括诸如边缘、纹理和灰度的特征信息的像素,并且基于与包括特征信息的像素相关的直方图生成第一映射函数MF1。
此外,显示设备100可对第一区域R1的图像执行色调映射。具体地,显示设备100的图像处理单元200”可使用第一映射函数MF1,对第一区域R1的图像执行色调映射,并且生成第一区域显示图像I2a。
此外,显示设备100生成第二映射函数MF2并对第二区域R2的图像执行色调映射(1250)。
显示设备100可生成第二区域R2的图像的第二映射函数MF2。具体地,显示设备100的图像处理单元200”可基于第二区域R2的亮度直方图生成第二映射函数MF2。
此外,显示设备100可对第二区域R2的图像执行色调映射。具体地,显示设备100的图像处理单元200”可使用第二映射函数MF2,对第二区域R2的图像执行色调映射,并且生成第二区域显示图像I2b。
执行色调映射,然后,显示设备100将已执行色调映射的图像合成(1260)。具体地,显示设备100的图像处理单元200”可将第一区域显示图像I2a和第二区域显示图像I2b合成,并且生成第一图像I2。
然后,显示设备100对第一图像I2执行细节增强(1270)。为了进一步直观地显示第一图像I2,显示设备100可对第一图像I2执行诸如对比度增强的图像处理。
具体地,显示设备100的图像处理单元200”可对第一图像I2执行诸如对比度增强的细节增强,由此生成第二图像I3。
执行细节增强,然后,显示设备100显示图像(1280)。显示设备100可通过显示单元140显示第二图像I3。
以这种方式,显示设备100可将原始图像I1划分成作为高亮度区域的第一区域R1和作为低亮度区域的第一区域R2,基于诸如图像的边缘、纹理或灰度的图像特征在第一区域R1上执行色调映射,以及基于图像的明亮度在第二区域R2上执行色调映射。
因此,显示设备100可处理原始图像I1,以使得高动态范围图像的原始图像I1直观地显示在具有低动态范围的显示面板143上。
图26示出根据实施方式显示设备中所包括的另一示例性图像处理单元。图27示出由图26中所示出的图像处理单元生成的第三映射函数。
如图26和图27所示,图像处理单元200”’可包括:图像接收模块205,配置成接收图像数据ID和元数据MD;线性化模块210,配置成将图像数据线性化;第三映射函数生成模块233,配置成生成高动态范围图像的色调映射函数;色调映射模块240,配置成执行色调映射;以及细节增强模块250,配置成对已执行色调映射的图像执行后处理操作。
图像接收模块205从由内容接收单元130接收的内容C中提取图像数据ID和元数据MD。这里,内容C包括表示原始图像的图像数据ID和与图像数据ID相关的元数据MD。元数据MD可包括图像数据ID的亮度信息。当内容C是例如视频时,元数据MD可包括整个内容C的亮度信息、内容C中所包括的每个场景的亮度信息和内容C中所包括的每个帧的亮度信息中至少一个。
线性化模块210将从图像接收模块205接收的图像数据ID线性化,并且分析线性化的图像的亮度。具体地,当内容C的元数据MD中不包括最大亮度值L1max和最小亮度值L1min时,线性化模块210可根据线性化的原始图像直接计算最大亮度值L1max和最小亮度值L1min。
第三映射函数生成模块233从图像接收模块205接收元数据MD,并且基于所接收的元数据MD生成第三映射函数MF3。这里,元数据MD可包括整个内容C的亮度信息,即,整个内容C的最大亮度值L1max和最小亮度值L1min。
此外,第三映射函数MF3可限定在内容C的最大亮度值L1max与最小亮度值L1min之间。换言之,向第三映射函数MF3输入的最大值是内容C的最大亮度值L1max,以及向第三映射函数MF3输入的最小值是内容C的最小亮度值L1min。
以这种方式,通过基于整个内容C的亮度信息生成的第三映射函数MF3,可对整个内容C中所包括的原始图像I1执行色调映射。换言之,即使帧或场景发生变化,当内容C不发生变化时,则第三映射函数MF3不会变化。
原始图像I1可基于第三参考亮度值Th分为低亮度部分或高亮度部分。低亮度部分和高亮度部分可通过第三映射函数MF3进行不同地映射。换言之,映射低亮度部分的映射函数和映射高亮度部分的映射函数可彼此不同。
在这种情况下,原始图像I1的第三参考亮度值Th可与第一图像I2的目标平均亮度值Ave_target对应。换言之,第三参考亮度值Th映射为目标平均亮度值Ave_target。平均亮度值是指从显示面板143中所包括的所有像素输出的亮度值的平均值。目标平均亮度值Ave_target是平均亮度值的目标值。这样的目标平均亮度值Ave_target可根据显示面板143的类型和性能预先进行限定。
具体地,原始图像I1的第三参考亮度值Th可与第一图像I2的预定目标平均亮度值Ave_target相同。
第三映射函数MF3可包括低亮度部分的映射函数MF3-1和高亮度部分的映射函数MF3-2。
如图27所示,可对亮度值小于第三参考亮度值Th的低亮度部分进行线性映射。具体地,当第三参考亮度值Th与目标平均亮度值Ave_target相同时,原始图像I1的低亮度部分的亮度值与第一图像I2的低亮度部分的亮度值相同。
具体地,低亮度部分可根据方程式2进行映射。
【方程式2】
L2=G1L1
(其中,L1表示向第三映射函数输入的亮度值,L2表示从第三映射函数输出的亮度值,以及G1表示常量)
在方程式2中,G1的值可根据第三参考亮度值Th和目标平均亮度值Ave_target变化。具体地,确定G1以使得第三参考亮度值Th映射为目标平均亮度值Ave_target。
具体地,当第三参考亮度值Th与目标平均亮度值Ave_target相同时,G1具有为“1”的值。
如图27所示,可将亮度值大于第三参考亮度值Th的高亮度部分进行非线性映射。
为了映射高亮度部分,可使用方程式3。
【方程式3】
L2=a[1-(L1-1)2n]+(1-a)L1
(其中,L1表示向第三映射函数输入的亮度值,L2表示从第三映射函数输出的亮度值,以及a和n表示常量。)
在方程式3中,可预先确定“n”的值,并且“n”的值可根据整个内容C中所包括的原始图像I1的最大亮度值L1max和最小亮度值L1min变化。
色调映射模块240使用第三映射函数MF3并对原始图像I1执行色调映射。
具体地,将原始图像I1中所包括的所有像素的亮度值输入至第三映射函数MF3,并且基于从第三映射函数MF3输出的亮度值生成第一图像12。在这种情况下,亮度值小于第三参考亮度值Th的像素可通过方程式2进行映射,以及亮度值等于或大于第三参考亮度值Th的像素可通过方程式3进行映射。
为了为用户提供进一步直观的图像,细节增强模块250对已执行色调映射的图像12进行处理。这里,细节增强可包括各种图像处理技术,诸如,对比度增强、直方图均衡化、图像锐化和图像平滑,其中,通过对比度增强最大化图像的亮区和暗区之间的差异;通过直方图均衡化调节直方图从而将具有低对比度分布的图像变成具有统一对比度分布的图像;通过图像锐化细致地转换图像;以及通过图像平滑柔和地转换图像。
下文中,将对根据实施方式的显示设备100的操作进行描述。
图28示出根据实施方式的显示设备的另一示例性高动态范围图像显示操作。
如图28所示,将对显示设备100的高动态范围图像显示操作(1300)进行描述。
显示设备100从外界接收图像(1310)。显示设备100可通过内容接收单元130从外界接收内容,并且提取所接收的内容中所包括的图像数据ID和元数据MD。
元数据MD是包括关于图像数据ID的信息的数据,并且元数据MD可包括以场景为单位的亮度信息或以帧为单位的亮度信息。具体地,元数据MD可包括整个内容C的最大亮度值、最小亮度值和平均亮度值,每个场景中所包括的图像的最大亮度值、最小亮度值和平均亮度值,或形成每个帧的图像的最大亮度值、最小亮度值和平均亮度值。
提取图像数据ID和元数据MD,然后,显示设备100将所接收的图像线性化(1320)。为了获取原始图像I1,显示设备100可将图像数据线性化。
具体地,显示设备100的图像处理单元200”’可使用第二非线性映射函数F2,并且将图像数据恢复为原始图像I1。此外,图像处理单元200”’可基于恢复的原始图像I1中所包括的像素中的每一个的色值,计算原始图像I1的亮度信息。
线性化图像,然后,显示设备100生成第三映射函数MF3(1330)。显示设备100可基于元数据MD生成第三映射函数MF3。具体地,显示设备100可基于整个内容C的最大亮度值L1max和最小亮度值L1min生成第三映射函数MF3。
当原始图像I1中所包括的像素的亮度值小于第三参考亮度值时,第三映射函数MF3是方程式2。当原始图像I1中所包括的像素的亮度值等于或大于第三参考亮度值时,第三映射函数MF3是方程式3。
生成第三映射函数MF3,然后,显示设备100对原始图像I1执行色调映射(1340)。
具体地,显示设备100将原始图像I1中所包括的所有像素的亮度值输入至第三映射函数MF3,并且基于从第三映射函数MF3输出的亮度值生成第一图像I2。在这种情况下,当亮度值小于第三参考亮度值时,原始图像I1中所包括的像素可通过方程式2进行映射。当亮度值等于或大于第三参考亮度值时,原始图像I1中所包括的像素可通过方程式3进行映射。
执行色调映射,然后,显示设备100对第一图像I2执行细节增强(1350)。为了进一步直观地显示第一图像I2,显示设备100可在第一图像I2上执行诸如对比度增强的图像处理。
具体地,显示设备100的图像处理单元200”’可在第一图像I2上执行诸如对比度增强的细节增强,由此生成第二图像I3。
执行细节增强,然后,显示设备100显示图像(1360)。显示设备100可通过显示单元140显示第二图像I3。
以这种方式,显示设备100可在原始图像I1的低亮度区域上执行线性色调映射,以及在高亮度区域上执行非线性色调映射。
图29示出根据实施方式的显示设备中所包括的另一示例性图像处理单元。图30和图31示出由图29中所示出的图像处理单元生成的第四映射函数。
如图29、图30和图31所示,图像处理单元200””可包括:图像接收模块205,配置成接收图像数据ID和元数据MD;线性化模块210,配置成将图像数据线性化;第四映射函数生成模块234,配置成生成高动态范围图像的色调映射函数;色调映射模块240,配置成执行色调映射;以及细节增强模块250,配置成对已执行色调映射的图像执行后处理操作。
图像接收模块205从由内容接收单元130接收的内容C中提取图像数据ID和元数据MD。这里,内容C包括表示原始图像的图像数据ID和与图像数据ID相关的元数据MD。元数据MD可包括图像数据ID的亮度信息。当内容C是例如视频时,元数据MD则可包括整个内容C的亮度信息、内容C中所包括的每个场景的亮度信息和内容C中所包括的每个帧的亮度信息中至少一个。
线性化模块210将从图像接收模块205接收的图像数据ID线性化,并且分析线性化的图像的亮度。具体地,当内容C的元数据MD中不包括最大亮度值L1max和最小亮度值L1min时,线性化模块210可根据线性化的原始图像直接计算最大亮度值L1max和最小亮度值L1min。
第四映射函数生成模块234从图像接收模块205接收元数据MD,并且基于所接收的元数据MD生成第四映射函数MF4。这里,元数据MD可包括内容C中所包括的每个场景的亮度信息,即,每个场景的最大亮度值L1max和最小亮度值L1min。
此外,第四映射函数MF4可限定在每个场景的最大亮度值L1max与最小亮度值L1min之间。换言之,向第四映射函数MF4输入的最大值是对应场景的最大亮度值L1max,以及向第四映射函数MF4输入的最小值是对应场景的最小亮度值L1min。
以这种方式,通过基于场景的亮度信息生成的第四映射函数MF4,可对相应场景中所包括的原始图像I1执行色调映射。换言之,即使帧发生变化,当场景不发生变化时,则第四映射函数MF4不会变化。然而,即使内容C不发生变化,当场景发生变化时,第四映射函数MF4也改变。
第四映射函数MF4可根据指示整个场景的平均亮度值的场景平均亮度值Ave_scene变化。此外,原始图像I1可分为低亮度部分或高亮度部分。低亮度部分和高亮度部分可通过第四映射函数MF4进行不同地映射。换言之,映射低亮度部分的映射函数和映射高亮度部分的映射函数可彼此不同。
首先,将对场景平均亮度值Ave_scene小于第四参考亮度值Th时的第四映射函数MF4进行描述。
第四映射函数MF4可包括原始图像I1的低亮度部分的映射函数MF4-1和原始图像I1的高亮度部分的映射函数MF4-2。
在这种情况下,原始图像I1的低亮度部分和高亮度部分可基于第四参考亮度值Th进行划分。此外,原始图像I1的第四参考亮度值Th可与第一图像I2的目标平均亮度值Ave_target对应。换言之,第四参考亮度值Th映射为目标平均亮度值Ave_target。平均亮度值是指从显示面板143中所包括的所有像素中输出的亮度值的平均值。目标平均亮度值Ave_target是平均亮度值的目标值。这样的目标平均亮度值Ave_target可根据显示面板143的类型和性能预先进行限定。具体地,原始图像I1的第四参考亮度值Th可与第一图像I2的预定目标平均亮度值Ave_target相同。
如图30所示,可将亮度值小于第四参考亮度值Th的低亮度部分进行线性映射。具体地,当第四参考亮度值Th与目标平均亮度值Ave_target相同时,原始图像I1的低亮度部分的亮度值与第一图像I2的低亮度部分的亮度值相同。
具体地,低亮度部分可通过方程式2进行映射。
【方程式2】
L2=G1L1
(其中,L1表示向第四映射函数输入的亮度值,L2表示从第四映射函数输出的亮度值,以及G1是常量。)
在方程式2中,G1的值可根据第四参考亮度值Th和目标平均亮度值Ave_target变化。具体地,G1确定成使得第四参考亮度值Th映射为目标平均亮度值Ave_target。
具体地,当第四参考亮度值Th与目标平均亮度值Ave_target相同时,G1具有为“1”的值。
如图30所示,可将亮度等于或大于第四参考亮度等于或Th的高亮度部分进行非线性映射。
高亮度部分可通过方程式3进行映射。
以这种方式,当场景平均亮度值Ave_scene小于第四参考亮度值Th时,当原始图像I1中所包括的像素的亮度值小于第四参考亮度值Th时,则由第四映射函数生成模块234生成的第四映射函数MF4是方程式2,或当原始图像I1中所包括的像素的亮度值等于或大于第四参考亮度值Th时,则第四映射函数MF4是方程式3。
接下来,将对场景平均亮度值Ave_scene等于或大于第四参考亮度值Th时的第四映射函数MF4进行描述。
第四映射函数MF4可包括原始图像I1的低亮度部分的映射函数MF4-1和原始图像I1的高亮度部分的映射函数MF4-2。
在这种情况下,原始图像I1的低亮度部分和高亮度部分可基于场景平均亮度值Ave_scene进行划分。此外,原始图像I1的场景平均亮度值Ave_scene可与第一图像I2的目标平均亮度值Ave_target对应。换言之,场景平均亮度值Ave_scene映射为目标平均亮度值Ave_target。平均亮度值是指从显示面板143中所包括的所有像素中输出的亮度值的平均值。目标平均亮度值Ave_target是平均亮度值的目标值。这样的目标平均亮度值Ave_target可根据显示面板143的类型和性能预先进行限定。
如图31所示,可将亮度值小于场景平均亮度值Ave_scene的低亮度部分进行线性映射。
具体地,低亮度部分可通过方程式5进行映射。
【方程式5】
L2=G2L1
(其中,L1表示向第四映射函数输入的亮度值,L2表示从第四映射函数输出的亮度值,以及G2是常量。)
在方程式5中,G2的值可根据场景平均亮度值Ave_scene和目标平均亮度值Ave_target变化。具体地,确定G2以使得场景平均亮度值Ave_scene映射为目标平均亮度值Ave_target。
具体地,当场景变化时,由于场景平均亮度值变化,因此每当场景变化时G2便可能发生变化。
如图31所示,可将亮度值等于或大于场景平均亮度值Ave_scene的高亮度部分进行非线性映射。
高亮度部分可通过方程式6进行映射。
【方程式6】
L2=a[1-(L1-1)2n]+(1-a)L1
(其中,L1表示向第四映射函数输入的亮度值,Ave_target表示目标平均亮度值,L2表示从第四映射函数输出的亮度值,Ave_scene表示场景平均亮度值,以及a和n是常量。)
在方程式6中,可预先确定n的值,并且a的值可根据每个场景中所包括的原始图像I1的最大亮度值L1max和最小亮度值L1min确定。
以这种方式,当场景平均亮度值Ave_scene等于或大于第四参考亮度值Th时,当原始图像I1中所包括的像素的亮度值小于场景平均亮度值Ave_scene时,则由第四映射函数生成模块234生成的第四映射函数MF4是方程式5,或当原始图像I1中所包括的像素的亮度值等于或大于场景平均亮度值Ave_scene时,则第四映射函数MF4是方程式6。
色调映射模块240使用第四映射函数MF4对原始图像I1执行色调映射。
具体地,色调映射模块240将原始图像I1中所包括的所有像素的亮度值输入至第四映射函数MF4,并且基于从第四映射函数MF4输出的亮度值生成第一图像I2。
在这种情况下,当场景平均亮度值Ave_scene小于第四参考亮度值Th时,亮度值小于第四参考亮度值Th的像素可通过方程式2进行映射,以及亮度值等于或大于第四参考亮度值Th的像素可通过方程式3进行映射。
另外,当场景平均亮度值Ave_scene等于或大于第四场景平均亮度值Th时,亮度值小于场景平均亮度值Ave_scene的像素可通过方程式5进行映射,以及亮度值等于或大于场景平均亮度值Ave_scene的像素可通过方程式6进行映射。
为了为用户提供进一步直观的图像,细节增强模块250对已执行色调映射的图像I2进行处理。这里,细节增强可包括各种图像处理技术,诸如,对比度增强、直方图均衡化、图像锐化和图像平滑,其中,通过对比度增强最大化图像的亮区和暗区之间的差异;通过直方图均衡化调节直方图从而将具有低对比度分布的图像变成具有统一对比度分布的图像;通过图像锐化细致地转换图像;以及通过图像平滑柔和地转换图像。
下文中,将对根据实施方式的显示设备100的操作进行描述。
图32示出根据实施方式显示设备的另一示例性高动态范围图像的显示操作。
如图32所示,将对显示设备100的高动态范围图像的显示操作(1400)进行描述。
显示设备100从外界接收图像(1410)。显示设备100可通过内容接收单元130从外界接收内容,并且提取所接收的内容中所包括的图像数据ID和元数据MD。
元数据MD是包括关于图像数据ID的信息的数据,并且元数据MD可包括以场景为单位的亮度信息或以帧为单位的亮度信息。具体地,元数据MD可包括整个内容C的最大亮度值、最小亮度值和平均亮度值,每个场景中所包括的图像的最大亮度值、最小亮度值和平均亮度值,或形成每个帧的图像的最大亮度值、最小亮度值和平均亮度值。
提取图像数据ID和元数据MD,然后,显示设备100将所接收的图像线性化(1420)。为了获取原始图像I1,显示设备100可将图像数据线性化。
具体地,显示设备100的图像处理单元200””可使用第二非线性映射函数F2,并且可将图像数据恢复为原始图像I1。此外,图像处理单元200””可基于恢复的原始图像I1中所包括的像素中的每一个的色值,计算原始图像I1的亮度信息。
线性化图像,然后,显示设备100生成第四映射函数MF4(1430)。显示设备100可基于元数据MD生成第四映射函数MF4。具体地,显示设备100可基于每个场景的最大亮度值L1max、最小亮度值L1min和场景平均亮度值Ave_scene生成第四映射函数MF4。
具体地,当场景平均亮度值Ave_scene小于第四参考亮度值Th时,当原始图像I1中所包括的像素的亮度值小于第四参考亮度值Th时,则第四映射函数MF4是方程式2,或当原始图像I1中所包括的像素的亮度值等于或大于第四参考亮度值Th时,则第四映射函数MF4是方程式3。
当场景平均亮度值Ave_scene等于或大于第四参考亮度值Th时,当原始图像I1中所包括的像素的亮度值小于场景平均亮度值Ave_scene时,则第四映射函数MF4是方程式5,或当原始图像I1中所包括的像素的亮度值等于或大于场景平均亮度值Ave_scene时,则第四映射函数MF4是方程式6。
生成第四映射函数MF4,然后,显示设备100对原始图像I1执行色调映射(1440)。
具体地,显示设备100将原始图像I1中所包括的所有像素的亮度值输入至第四映射函数MF4,并且基于从第四映射函数MF4输出的亮度值生成第一图像I2。
在这种情况下,当场景平均亮度值Ave_scene小于第四参考亮度值Th时,亮度值小于第四参考亮度值Th的像素可通过方程式2进行映射,以及亮度值等于或大于第四参考亮度值Th的像素可通过方程式3进行映射。
另外,当场景平均亮度值Ave_scene等于或大于第四场景平均亮度值Th时,亮度值小于场景平均亮度值Ave_scene的像素可通过方程式5进行映射,以及亮度值等于或大于场景平均亮度值Ave_scene的像素可通过方程式6进行映射。
执行色调映射,然后,显示设备100对第一图像I2执行细节增强(1450)。为了进一步直观地显示第一图像I2,显示设备100可在第一图像I2上执行诸如对比度增强的图像处理。
具体地,显示设备100的图像处理单元200””可在第一图像I2上执行诸如对比度增强的细节增强,由此生成第二图像I3。
执行细节增强,然后,显示设备100显示图像(1460)。显示设备100可通过显示单元140显示第二图像I3。
以这种方式,显示设备100可在原始图像I1的低亮度区域上执行线性色调映射,以及在高亮度区域上执行非线性色调映射。
虽然已经示出和描述了若干实施方式,但是将理解的是,在不脱离实施方式的原理和精神的情况下,本领域技术人员可对这些实施方式进行改变,其中,实施方式的范围在权利要求及其等同物中进行限定。

Claims (17)

1.一种显示设备,包括:
内容接收单元,配置为接收高动态范围图像和所述高动态范围图像的亮度信息;
图像处理单元,配置为基于所述亮度信息执行基于分区的色调映射,以将所述高动态范围图像转换为低动态范围图像;以及
显示单元,配置为显示所述低动态范围图像,
其中,所述亮度信息包括场景中所包括的所述高动态范围图像的图像最大亮度值、图像最小亮度值和场景平均亮度值,
其中,当所述场景平均亮度值小于参考亮度值时,所述图像处理单元对所述高动态范围图像中所包括的多个像素中的、亮度值小于所述参考亮度值的第一像素执行线性色调映射,并且对所述多个像素中的、亮度值等于或大于所述参考亮度值的第二像素执行非线性色调映射。
2.根据权利要求1所述的显示设备,其中,所述亮度信息包括所述场景中所包括的所述高动态范围图像的场景最大亮度值和场景最小亮度值。
3.根据权利要求1所述的显示设备,其中,所述亮度信息包括帧中所包括的所述高动态范围图像的帧最大亮度值和帧最小亮度值。
4.根据权利要求1所述的显示设备,其中,所述亮度信息包括整个内容中所包括的所述高动态范围图像的内容最大亮度值和内容最小亮度值。
5.根据权利要求1所述的显示设备,其中,当所述场景中所包括的所述高动态范围图像的场景平均亮度值等于或大于参考亮度值时,所述图像处理单元对所述第一像素执行所述线性色调映射,并且对所述第二像素执行所述非线性色调映射。
6.一种显示设备,包括:
内容接收器,配置为接收高动态范围图像和所述高动态范围图像的亮度信息;
图像处理单元,配置为基于所述亮度信息执行色调映射,以将所述高动态范围图像转换为低动态范围图像;以及
显示器,配置为显示所述低动态范围图像,
其中,所述亮度信息包括所述高动态范围图像的图像最大亮度值和图像最小亮度值,
其中,所述图像处理单元检测所述高动态范围图像的、亮度值等于或大于参考亮度值的第一区域,并基于所述第一区域的区域图像的特征信息对所述第一区域的区域图像进行色调映射,
其中,所述特征信息包括所述第一区域中的多个像素的二维布局,
其中,所述图像处理单元检测所述第一区域的区域图像内的边缘区域,并基于所述边缘区域中所包括的像素的直方图来生成第一映射函数。
7.根据权利要求6所述的显示设备,其中,所述特征信息包括边缘信息、纹理信息和灰度信息中的至少一者。
8.根据权利要求7所述的显示设备,其中,所述第一映射函数是通过对所述边缘区域中所包括的像素的直方图进行积分而获得的累计直方图。
9.根据权利要求7所述的显示设备,其中,所述图像处理单元基于所述高动态范围图像内的、亮度值小于所述参考亮度值的第二区域的亮度值生成第二映射函数。
10.根据权利要求9所述的显示设备,其中,所述图像处理单元基于所述第一映射函数和所述第二映射函数生成色调映射函数,并且根据所述色调映射函数将所述高动态范围图像转换为所述低动态范围图像。
11.一种控制显示设备的方法,包括:
接收高动态范围图像和所述高动态范围图像的亮度信息;
基于所述亮度信息执行基于分区的色调映射,以将所述高动态范围图像转换为低动态范围图像;以及
显示所述低动态范围图像,
其中,所述亮度信息包括场景中所包括的所述高动态范围图像的图像最大亮度值、图像最小亮度值和场景平均亮度值,
其中,执行所述色调映射包括:当所述场景平均亮度值小于参考亮度值时,对所述高动态范围图像中所包括的多个像素中的、亮度值小于所述参考亮度值的第一像素执行线性色调映射,并且对所述多个像素中的、亮度值等于或大于所述参考亮度值的第二像素执行非线性色调映射。
12.根据权利要求11所述的方法,其中,所述亮度信息包括所述场景中所包括的所述高动态范围图像的场景最大亮度值和场景最小亮度值。
13.根据权利要求11所述的方法,其中,所述亮度信息包括形成帧的所述高动态范围图像的帧最大亮度值和帧最小亮度值。
14.根据权利要求11所述的方法,其中,所述亮度信息包括整个内容中所包括的所述高动态范围图像的内容最大亮度值和内容最小亮度值。
15.根据权利要求11所述的方法,其中,执行所述色调映射包括:
检测所述高动态范围图像内的、亮度值等于或大于参考亮度值的第一区域;
基于所述第一区域的区域图像的特征信息生成色调映射函数;以及
根据所述色调映射函数对所述高动态范围图像进行色调映射,以将所述高动态范围图像转换为所述低动态范围图像
其中,所述特征信息包括所述高动态范围图像的边缘信息、纹理信息和灰度信息中的至少一者。
16.根据权利要求11所述的方法,其中,执行所述基于分区的色调映射包括:
将所述高动态范围图像在空间上划分为第一区域和第二区域,所述高动态范围图像的第一区域具有比所述高动态范围图像的第二区域更高的亮度;
确定与所述第一区域和所述第二区域相对应的第一映射函数和第二映射函数,其中,所述第一映射函数增强一个或多个图像特征并且所述第二映射函数增加亮度;以及
响应于亮度,利用所述第一映射函数和所述第二映射函数对图像进行色调映射,以保持所述第二区域的图像的亮度并且保持所述第一区域的图像的特征信息。
17.根据权利要求16所述的方法,还包括:
将所述第一映射函数和所述第二映射函数联合,以生成联合的映射函数,
其中,对所述图像进行所述色调映射包括:
响应于图像亮度,利用所述联合的映射函数对所述图像进行色调映射。
CN201911350815.1A 2014-10-06 2015-10-01 显示设备及控制该显示设备的方法 Active CN110992914B (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2014-0134135 2014-10-06
KR20140134135 2014-10-06
KR1020150024271A KR102308507B1 (ko) 2014-10-06 2015-02-17 디스플레이 장치 및 그 제어 방법
KR10-2015-0024271 2015-02-17
CN201580054198.4A CN106796775B (zh) 2014-10-06 2015-10-01 显示设备及控制该显示设备的方法
PCT/KR2015/010387 WO2016056787A1 (en) 2014-10-06 2015-10-01 Display device and method of controlling the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201580054198.4A Division CN106796775B (zh) 2014-10-06 2015-10-01 显示设备及控制该显示设备的方法

Publications (2)

Publication Number Publication Date
CN110992914A CN110992914A (zh) 2020-04-10
CN110992914B true CN110992914B (zh) 2022-07-01

Family

ID=54293069

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911350815.1A Active CN110992914B (zh) 2014-10-06 2015-10-01 显示设备及控制该显示设备的方法

Country Status (4)

Country Link
US (3) US10089936B2 (zh)
EP (1) EP3007446B1 (zh)
CN (1) CN110992914B (zh)
WO (1) WO2016056787A1 (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6358718B2 (ja) * 2014-05-28 2018-07-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Hdr画像をエンコードするための方法及び装置、並びに、斯様なエンコードされた画像の使用のための方法及び装置
WO2016056787A1 (en) * 2014-10-06 2016-04-14 Samsung Electronics Co., Ltd. Display device and method of controlling the same
US9589313B2 (en) * 2015-01-09 2017-03-07 Vixs Systems, Inc. Dynamic range converter with pipelined architecture and methods for use therewith
US9860504B2 (en) 2015-01-09 2018-01-02 Vixs Systems, Inc. Color gamut mapper for dynamic range conversion and methods for use therewith
WO2016197033A1 (en) * 2015-06-05 2016-12-08 Apple Inc. Rendering and displaying high dynamic range content
KR102488954B1 (ko) * 2016-05-16 2023-01-16 엘지전자 주식회사 영상 처리 장치 및 그의 영상 처리 방법
CN106067177B (zh) * 2016-06-15 2020-06-26 深圳市万普拉斯科技有限公司 Hdr场景侦测方法和装置
JP6386636B2 (ja) * 2016-09-02 2018-09-05 シャープ株式会社 表示装置、プログラム、記録媒体、テレビジョン受像機、および表示システム
WO2018042985A1 (ja) * 2016-09-02 2018-03-08 シャープ株式会社 表示装置、プログラム、記録媒体、テレビジョン受像機、および送信装置
CN107818553B (zh) * 2016-09-12 2020-04-07 京东方科技集团股份有限公司 图像灰度值调整方法和装置
JP7018567B2 (ja) * 2017-04-21 2022-02-14 パナソニックIpマネジメント株式会社 再生装置、再生方法、表示装置、および、表示方法
DE112018003456T5 (de) * 2017-07-07 2020-03-19 Semiconductor Energy Laboratory Co., Ltd. Anzeigesystem und Betriebsverfahren des Anzeigesystems
BR112020009563A2 (pt) 2017-11-24 2020-11-03 Interdigital Vc Holdings, Inc. método e aparelho para correção de cor durante conversão hdr para sdr
CN108510951B (zh) * 2018-03-30 2019-09-17 惠科股份有限公司 液晶显示装置的驱动方法
US10997947B2 (en) 2018-05-29 2021-05-04 Samsung Electronics Co., Ltd. Electronic device and control method thereof
KR102562052B1 (ko) * 2018-05-29 2023-08-02 삼성전자주식회사 전자 장치 및 그 제어 방법
US11215999B2 (en) * 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
KR102528532B1 (ko) * 2018-08-23 2023-05-04 삼성전자주식회사 디스플레이 장치 및 그 휘도 제어 방법
KR102531676B1 (ko) * 2018-09-12 2023-05-11 삼성전자주식회사 디스플레이장치, 그 제어방법 및 기록매체
KR20200032584A (ko) * 2018-09-18 2020-03-26 엘지전자 주식회사 영상표시장치
KR102603620B1 (ko) * 2018-09-18 2023-11-16 엘지전자 주식회사 영상표시장치
EP3672254A1 (en) 2018-12-21 2020-06-24 InterDigital VC Holdings, Inc. Decoding an image
KR20200101048A (ko) 2019-02-19 2020-08-27 삼성전자주식회사 영상을 처리하는 전자 장치 및 그 영상 처리 방법
KR20200144775A (ko) 2019-06-19 2020-12-30 삼성전자주식회사 디스플레이장치 및 그 제어방법
US20220256071A1 (en) * 2019-08-12 2022-08-11 Dolby Laboratories Licensing Corporation Adaptive image data linearization for hdr image sensors
KR20210123608A (ko) * 2020-04-03 2021-10-14 에스케이하이닉스 주식회사 이미지 센싱 장치 및 그의 동작 방법
US11212458B2 (en) * 2020-04-15 2021-12-28 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium
US11810274B2 (en) * 2021-03-04 2023-11-07 Nvidia Corporation Tone management using tone gain functions for high dynamic range imaging applications

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5724456A (en) * 1995-03-31 1998-03-03 Polaroid Corporation Brightness adjustment of images using digital scene analysis
CN1463534A (zh) * 2001-05-31 2003-12-24 松下电器产业株式会社 图像处理装置和图像处理方法
US7116838B2 (en) * 2002-10-25 2006-10-03 Eastman Kodak Company Enhancing the tonal and spatial characteristics of digital images using selective spatial filters
US7058234B2 (en) * 2002-10-25 2006-06-06 Eastman Kodak Company Enhancing the tonal, spatial, and color characteristics of digital images using expansive and compressive tone scale functions
US7280703B2 (en) * 2002-11-14 2007-10-09 Eastman Kodak Company Method of spatially filtering a digital image using chrominance information
KR20040048790A (ko) 2002-12-03 2004-06-10 삼성전자주식회사 휘도 보정장치
US7580158B2 (en) * 2003-08-28 2009-08-25 Fujifilm Corporation Image processing apparatus, method and program
US20050117799A1 (en) * 2003-12-01 2005-06-02 Chiou-Shann Fuh Method and apparatus for transforming a high dynamic range image into a low dynamic range image
US7599578B2 (en) * 2004-09-17 2009-10-06 Nikon Corporation Apparatus, program, and method for image tone transformation, and electronic camera
JP4934326B2 (ja) * 2005-09-29 2012-05-16 富士フイルム株式会社 画像処理装置およびその処理方法
CN102438097B (zh) * 2006-04-19 2015-06-03 松下电器(美国)知识产权公司 图像处理装置与图像处理方法
JP2008165312A (ja) * 2006-12-27 2008-07-17 Konica Minolta Holdings Inc 画像処理装置及び画像処理方法
US8207931B2 (en) * 2007-05-31 2012-06-26 Hong Kong Applied Science and Technology Research Institute Company Limited Method of displaying a low dynamic range image in a high dynamic range
US8144985B2 (en) * 2007-12-21 2012-03-27 Sony Corporation Method of high dynamic range compression with detail preservation and noise constraints
US8150202B2 (en) * 2008-06-30 2012-04-03 Honeywell International Inc. Gaussian mixture model based illumination normalization for global enhancement
US20100002145A1 (en) * 2008-07-07 2010-01-07 Spence John P Adaptive optimization of a video signal
US8339475B2 (en) * 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining
KR101007101B1 (ko) * 2009-01-07 2011-01-10 한양대학교 산학협력단 적응형 톤 매핑 장치 및 방법, 그리고 이를 이용한 영상 처리 시스템
US8223180B2 (en) * 2009-08-24 2012-07-17 Samsung Electronics Co., Ltd. Gamut mapping which takes into account pixels in adjacent areas of a display unit
KR101665132B1 (ko) * 2010-01-28 2016-10-11 엘지전자 주식회사 영상표시기기의 화질 개선 장치 및 방법
EP2564373B1 (en) * 2010-04-26 2014-12-17 Robert Bosch GmbH Detection and/or enhancement of contrast differences in digital image data
CN101908207B (zh) * 2010-07-26 2012-02-08 北京理工大学 一种基于亮度分层的快速三边滤波器色调映射方法
KR101700362B1 (ko) * 2010-08-16 2017-01-31 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
US8391598B2 (en) * 2011-01-05 2013-03-05 Aptina Imaging Corporation Methods for performing local tone mapping
KR102602528B1 (ko) * 2011-05-27 2023-11-16 돌비 레버러토리즈 라이쎈싱 코오포레이션 변하는 레벨들의 메타데이터을 포함하는 컬러 관리를 제어하기 위한 스케일러블 시스템들
WO2013166544A1 (en) * 2012-05-10 2013-11-14 National Ict Australia Limited Reducing the dynamic range of image data
CN102722868B (zh) * 2012-05-23 2014-08-20 西安理工大学 一种高动态范围图像色调映射方法
CN102938837B (zh) * 2012-09-19 2016-06-01 中山大学 一种基于边缘保持全分模型的色调映射方法
US9064313B2 (en) * 2012-09-28 2015-06-23 Intel Corporation Adaptive tone map to a region of interest to yield a low dynamic range image
US9437171B2 (en) * 2012-12-05 2016-09-06 Texas Instruments Incorporated Local tone mapping for high dynamic range images
CN103024300B (zh) * 2012-12-25 2015-11-25 华为技术有限公司 一种高动态范围图像显示方法及装置
CN103353982B (zh) * 2013-05-15 2016-03-09 中山大学 一种基于直方图均衡化的色调映射方法
EP2819414A3 (en) * 2013-06-28 2015-02-25 Samsung Electronics Co., Ltd Image processing device and image processing method
RU2627048C1 (ru) * 2013-07-30 2017-08-03 Долби Лэборетериз Лайсенсинг Корпорейшн Система и способы для формирования сценовых стабилизированных метаданных
US9280811B2 (en) * 2014-03-06 2016-03-08 Samsung Electronics Co., Ltd. Multi-scale large radius edge-preserving low-pass filtering
US9275446B2 (en) * 2013-10-15 2016-03-01 Samsung Electronics Co., Ltd. Large radius edge-preserving low-pass filtering
JP6042583B2 (ja) * 2013-11-13 2016-12-14 ドルビー ラボラトリーズ ライセンシング コーポレイション Edrビデオのコンテンツ生成および支援ディスプレイ管理を行うためのワークフロー
JP6421504B2 (ja) * 2014-07-28 2018-11-14 ソニー株式会社 画像処理装置及び画像処理方法
JP6733547B2 (ja) * 2014-09-11 2020-08-05 ソニー株式会社 画像処理装置及び画像処理方法
WO2016056787A1 (en) * 2014-10-06 2016-04-14 Samsung Electronics Co., Ltd. Display device and method of controlling the same
JP5943112B1 (ja) * 2015-03-19 2016-06-29 富士ゼロックス株式会社 画像処理装置、画像処理システムおよびプログラム
US20160286241A1 (en) * 2015-03-24 2016-09-29 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US10056042B2 (en) * 2015-05-12 2018-08-21 Dolby Laboratories Licensing Corporation Metadata filtering for display mapping for high dynamic range images
US9842381B2 (en) * 2015-06-12 2017-12-12 Gopro, Inc. Global tone mapping
EP3131284A1 (en) * 2015-08-13 2017-02-15 Thomson Licensing Methods, systems and aparatus for hdr to hdr inverse tone mapping

Also Published As

Publication number Publication date
EP3007446A1 (en) 2016-04-13
US11721294B2 (en) 2023-08-08
US10679569B2 (en) 2020-06-09
EP3007446B1 (en) 2023-04-26
US20190027100A1 (en) 2019-01-24
CN110992914A (zh) 2020-04-10
US10089936B2 (en) 2018-10-02
US20160104438A1 (en) 2016-04-14
US20200258456A1 (en) 2020-08-13
WO2016056787A1 (en) 2016-04-14

Similar Documents

Publication Publication Date Title
CN110992914B (zh) 显示设备及控制该显示设备的方法
CN106796775B (zh) 显示设备及控制该显示设备的方法
US20200394771A1 (en) Image display apparatus
CN108370428B (zh) 显示装置和显示装置的控制方法以及电视接收机
US10692465B2 (en) Transitioning between video priority and graphics priority
US9672603B2 (en) Image processing apparatus, image processing method, display apparatus, and control method for display apparatus for generating and displaying a combined image of a high-dynamic-range image and a low-dynamic-range image
JP6697755B2 (ja) 映像表示装置及び映像表示方法
JP2024041933A (ja) 様々なレベルのメタデータを含む色管理を制御するスケーラブルシステム
EP2819414A2 (en) Image processing device and image processing method
US10410567B2 (en) Display signal processing system, display signal generation device, display device, processing method, display signal generation method, and display method
US10832636B2 (en) Image processing apparatus, image processing method, and program
US11122245B2 (en) Display apparatus, method for controlling the same and image providing apparatus
CN107409191B (zh) 信号处理装置、录像再生装置、信号处理方法以及存储介质
US10332481B2 (en) Adaptive display management using 3D look-up table interpolation
US11468823B2 (en) Video wall including multiple displays with reduced afterimage
US20190082138A1 (en) Inverse tone-mapping to a virtual display
US20180247581A1 (en) Display device, display method, recording medium, and television receiver
US11900005B2 (en) Video wall
JP2023516184A (ja) 逆トーンマッピングのための方法及び装置
JP2013114192A (ja) 画像処理装置、制御プログラム、及び画像処理装置の制御方法
US10939083B2 (en) Electronic apparatus and control method thereof
US20220139310A1 (en) Signal processing device and image display apparatus including the same
CN114387913B (zh) Led显示屏的edid调整方法及系统
US11881149B2 (en) Signal processing device and image display device comprising same

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant