CN117642768A - 显示设备及其操作方法 - Google Patents

显示设备及其操作方法 Download PDF

Info

Publication number
CN117642768A
CN117642768A CN202280048337.2A CN202280048337A CN117642768A CN 117642768 A CN117642768 A CN 117642768A CN 202280048337 A CN202280048337 A CN 202280048337A CN 117642768 A CN117642768 A CN 117642768A
Authority
CN
China
Prior art keywords
contrast enhancement
image
curve
information
enhancement curve
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280048337.2A
Other languages
English (en)
Inventor
金钟寰
徐贵原
赵纯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210115803A external-priority patent/KR20230032704A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN117642768A publication Critical patent/CN117642768A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Image Processing (AREA)

Abstract

一种显示设备,包括处理器,其提取与第一图像、包括在所述第一图像中的多个区域中的每一个以及包括在所述第一图像中的每个对象区域相对应的第一特征信息至第三特征信息。所述处理器:获得第一至第三对比度增强曲线,其中第一对比度增强曲线对应于第一图像并通过将所述第一特征信息应用于设置有第一参数信息的曲线生成网络而生成,所述二对比度增强曲线对应于所述多个区域中的每一个区域并通过将所述第二特征信息应用于对其设置了第二参数信息的曲线生成网络而生成,而所述第三对比度增强曲线对应于所述多个区域中的每一个区域并通过将所述第三特征信息应用于对其设置了第三参数信息的曲线生成网络而生成;通过将第一对比度增强曲线至第三对比度增强曲线应用于第一图像来生成第二图像。

Description

显示设备及其操作方法
技术领域
各种实施例涉及显示设备及其操作方法。更具体地,各种实施例涉及用于执行对比度增强处理的显示设备和显示设备的操作方法。
背景技术
显示设备执行对比度增强处理以增强图像的对比度。可以通过分析诸如整个图像的亮度的信息以生成用于灰度表示增强的全局对比度增强曲线,并将全局对比度增强曲线应用于整个图像来执行对比度增强处理。
替换地,可以通过将图像划分为具有相同大小的多个区域,分析诸如每个区域的亮度的信息以生成局部对比度增强曲线,并将全局对比度增强曲线和局部对比度增强曲线应用于每个区域来执行对比度增强处理。与仅应用全局对比度增强曲线的方法相比,应用局部对比度增强曲线和全局对比度增强曲线两者的方法实现了更加增强的图像对比度,但是根据划分区域的数量和大小,对比度增强的性能差异较大。
另外,当通过使用现有的基于规则的对比度增强算法来生成对比度增强曲线时,优化的对比度增强算法可以根据显示特性而变化。因此,为了生成优化的对比度增强曲线,可以在具有不同显示特性的显示设备中安装不同的对比度增强算法,因此,可能增加产品制造成本。
发明内容
技术问题
各种实施例可以提供一种能够通过考虑显示设备的显示特性、整个图像的特性、图像中包括的每个局部区域的特性和图像中包括的每个对象区域的特性中的全部来执行对比度增强处理的显示设备,以及显示设备的操作方法。
技术解决方案
根据本公开的实施例,一种显示设备包括:显示器;存储一个或多个指令的存储器;以及处理器,其被配置为执行存储在存储器中的一个或多个指令以提取与第一图像相对应的第一特征信息、与包括在第一图像中的多个区域中的每一个相对应的第二特征信息、以及与包括在第一图像中的多个对象区域中的每一个相对应的第三特征信息。所述处理器被配置为获得与所述第一图像对应的第一对比度增强曲线,其中通过将所述第一特征信息应用于设置有第一参数信息的曲线生成网络来生成所述第一对比度增强曲线,获得与所述多个区域中的每个区域对应的第二对比度增强曲线,其中通过将所述第二特征信息应用于设置有第二参数信息的曲线生成网络来生成所述第二对比度增强曲线,获得与所述多个对象区域中的每个对象区域相对应的第三对比度增强曲线,其中通过将所述第三特征信息应用于设置有第三参数信息的曲线生成网络生成所述第三对比度增强曲线。处理器被配置为通过将第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线应用于第一图像来生成第二图像,并且控制显示器显示第二图像。
处理器还可以被配置为执行一个或多个指令以从第一图像中提取一个或多个对象,并且通过基于提取的一个或多个对象将第一图像划分为多个对象区域来获得包括在第一图像中的多个对象区域。
可以基于第一图像中包括的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个来确定第一特征信息、第二特征信息和第三特征信息。
可以通过基于根据显示器的显示特性使用对比度增强算法获得的训练数据训练曲线生成网络来确定第一参数信息、第二参数信息和第三参数信息。
训练数据可以包括从多个训练图像中提取的特征信息,以及通过将对比度增强算法应用于多个训练图像而获得的对比度增强曲线信息。
处理器还可以被配置为通过将第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线顺序地应用于第一图像来生成第二图像。
处理器还可以被配置为基于第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线生成第四对比度增强曲线,其中,通过将第四对比度增强曲线应用于第一图像来生成第二图像。
处理器还可以被配置为通过使用加权平均方法合成第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线来生成第四对比度增强曲线。
处理器还可以被配置为:为多个区域中的每一个生成第四对比度增强曲线,通过内插与多个区域中的第一区域相对应的第四对比度增强曲线和与第一区域相邻的第二区域相对应的第四对比度增强曲线来生成第五对比度增强曲线,以及通过将第五对比度增强曲线应用于第一区域和第二区域之间的边界中的像素来生成第二图像。
根据本公开的实施例,一种显示设备的操作方法包括:接收第一图像,提取与第一图像相对应的第一特征信息、与第一图像中包括的多个区域中的每一个相对应的第二特征信息、以及与第一图像中包括的多个对象区域中的每一个相对应的第三特征信息;获得对应于所述第一图像的第一对比度增强曲线,其中通过将所述第一特征信息应用于其中设置有第一参数信息的曲线生成网络来生成所述第一对比度增强曲线;获得与多个区域中的每一个区域相对应的第二对比度增强曲线,其中通过应用所述第二特征信息和其中设置有第二参数信息的曲线生成网络生成所述第二对比度增强曲线;获得与所述多个对象区域中的每一个相对应的第三对比度增强曲线,其中通过应用所述第三特征信息和设置有第三参数信息的曲线生成网络来生成所述第三对比度增强曲线;通过将所述第一对比度增强曲线、所述第二对比度增强曲线和所述第三对比度增强曲线应用于所述第一图像来生成第二图像;以及显示所述第二图像。
公开的有利效果
根据本公开实施例的显示设备可以通过考虑整个图像的所有特性、图像中包括的每个局部区域的特性和图像中包括的每个对象区域的特性来执行对图像优化的对比度增强处理。
另外,根据本公开的实施例的显示设备可以执行针对显示特性优化的对比度增强处理。
另外,当应用根据本公开的实施例的对比度增强处理方法时,可以将相同的对比度增强模块应用于具有不同显示特性的多个显示设备,因此可以降低产品制造成本。
附图说明
通过参考附图描述本公开的某些实施例,本公开的上述和/或其他方面将更加明显,其中:
图1示出了根据本公开的实施例的显示设备。
图2是根据本公开的实施例的显示设备的操作方法的流程图。
图3是根据本公开的实施例的被配置为执行对比度增强处理的设备(或模块)的框图。
图4和图5被提及来描述根据本公开的实施例的由特征信息提取器执行的提取特征信息的方法。
图6和图7被提及来描述根据本公开的实施例的生成对比度增强曲线的方法。
图8被提及来描述根据本公开的实施例的应用对比度增强曲线的方法。
图9被提及来描述根据本公开的实施例的应用对比度增强曲线的方法。
图10被提及来描述根据本公开的实施例的应用对比度增强曲线的方法。
图11被提及来描述根据本公开的实施例的获得对曲线生成网络设置的参数信息的方法。
图12被提及来描述根据本公开的实施例的由多个显示设备执行的通过使用相同的对比度增强模块(设备)来执行对比度增强处理的方法。
图13是根据本公开的实施例的显示设备的框图。
图14是根据本公开的另一实施例的显示设备的框图。
具体实施方式
说明书中描述的实施例和附图中示出的配置仅仅是本公开的实施例的优选示例,并且可以在提交本申请时以各种不同的方式修改以替换说明书的实施例和附图。
在整个公开内容中,表述“a、b或c中的至少一个”表示仅a、仅b、仅c、a和b两者、a和c两者、b和c两者、a、b和c中的全部或其变体。
将示意性地描述说明书中使用的术语,然后将详细描述本公开。
本公开中使用的术语是当前在考虑本公开的功能时在本领域中广泛使用的那些通用术语,但是这些术语可以根据本领域普通技术人员的意图、先例或本领域的新技术而变化。此外,申请人可以选择指定的术语,并且在这种情况下,将在具体实施方式中描述其详细含义。因此,本公开中使用的术语不应被定义为简单的名称,而是基于术语的含义和总体描述来定义。
在整个说明书中,当某个部分“包括”某个组件时,这表示该部分可以进一步包括另一个组件而不是排除另一个组件,除非存在不同的公开内容。另外,在说明书中使用的诸如“…单元”和“…模块”之类的术语是指执行至少一个功能或操作的单元,并且这些单元可以被实现为硬件或软件或者实现为硬件和软件的组合。
在下文中,将参考附图详细描述本公开的实施例,使得本公开所属领域的普通技术人员可以容易地实现本公开。然而,本公开可以以许多不同的形式实施,并且不应被解释为限于本文阐述的本公开的实施例。在附图中,省略了与描述无关的部分以清楚地描述本公开,并且在整个说明书中相同的附图标记表示相同的元件。
在本说明书的实施例中,术语“用户”指示控制系统、功能或操作的人,并且可以包括开发者、管理器或安装工程师。
另外,在本说明书的实施例中,术语“图像”或“图片”可以指示静止图像、包括多个连续静止图像(或帧)的运动图片、或视频。
各种实施例可以提供一种能够通过考虑显示设备的显示特性、整个图像的特性、图像中包括的每个局部区域的特性和图像中包括的每个对象区域的特性中的全部来执行对比度增强处理的显示设备,以及显示设备的操作方法。
根据本公开实施例的显示设备可以通过考虑整个图像的特性、图像中包括的每个局部区域的特性和图像中包括的每个对象区域的特性中的所有来执行对图像优化的对比度增强处理。
另外,根据本公开的实施例的显示设备可以执行针对显示特性优化的对比度增强处理。
另外,当应用根据本公开的实施例的对比度增强处理方法时,可以将相同的对比度增强模块应用于具有不同显示特性的多个显示设备,因此可以降低产品制造成本。
图1示出了根据本公开的实施例的显示设备。
参照图1,根据本公开实施例的显示设备100可以是用于接收图像并对接收到的图像执行对比度增强处理的电子设备。例如,显示设备100可以以各种形式实现,诸如TV、蜂窝电话、平板个人计算机(PC)、数码相机、便携式摄像机、膝上型计算机、台式计算机、电子书终端、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航机、MP3播放器和可穿戴设备。
另外,显示设备100可以包括显示器,并且在显示器上显示已经对其执行了对比度增强处理的图像。另外,显示设备100可以是放置在固定位置处的固定电子设备、具有便携式形状的移动电子设备、或者能够接收数字广播信号的数字广播接收器。特别地,实施例可以容易地在具有诸如TV的大显示器的图像处理设备中实现,但不限于此。
根据本公开实施例的显示设备100可以对从外部设备或外部服务器输入或接收的图像10执行对比度增强处理,并且在显示器上显示对比度增强的图像。在这种情况下,显示设备100可以通过将对比度增强曲线30应用于输入图像10来获得对比度被增强的输出图像20。例如,对比度增强曲线30可以在包括X轴和Y轴的二维平面上表示,其中X轴指示输入像素亮度值,并且Y轴指示输出像素亮度值。显示设备100可以通过根据对比度增强曲线30改变输入图像10中包括的像素的亮度值来获得输出图像20。
根据本公开实施例的显示设备100可以通过对输入图像10应用基于输入图像10的全局(整体)特性的全局对比度增强曲线、基于每个区域的特性的局部对比度增强曲线、以及基于每个对象单元区域的特性的对象对比度增强曲线来获得对比度被增强的输出图像20。
根据本公开实施例的显示设备100可以基于从输入图像10的整个区域提取的特征信息来确定全局对比度增强曲线。具体地,显示设备100可以基于从输入图像10的整个区域提取的特征信息和曲线生成网络来生成与输入图像10相对应的全局对比度增强曲线。
另外,根据本公开实施例的显示设备100可以基于从输入图像10中包括的多个区域中的每一个提取的特征信息来确定局部对比度增强曲线。具体地,显示设备100可以基于从输入图像10中包括的多个区域中的每一个提取的特征信息和曲线生成网络来生成与多个区域中的每一个相对应的局部对比度增强曲线。
另外,根据本公开实施例的显示设备100可以基于从输入图像10中包括的多个对象区域中的每一个提取的特征信息来确定对象对比度增强曲线。具体地,显示设备100可以基于从输入图像10中包括的多个对象区域中的每一个提取的特征信息和曲线生成网络来生成与多个对象区域中的每一个相对应的对象对比度增强曲线。
可以基于整个图像、多个区域中的每一个或多个对象区域中的每一个中包括的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个来提取根据本公开的实施例的特征信息。
另外,可以通过基于根据显示设备100的显示特性使用对比度增强算法获得的训练数据训练曲线生成网络来确定在曲线生成网络中设置的参数信息。这里,训练数据可以包括从多个训练图像中提取的特征信息,以及通过将对比度增强算法应用于多个训练图像而获得的对比度增强曲线信息。
根据本公开实施例的显示设备100可以通过将全局对比度增强曲线、局部对比度增强曲线和对象对比度增强曲线顺序地应用于第一图像10来生成输出图像20。替换地,显示设备100可以基于全局对比度增强曲线、局部对比度增强曲线和对象对比度增强曲线生成合成对比度增强曲线,并通过将合成对比度增强曲线应用于第一图像10来生成输出图像20。
在下文中,参考附图详细描述本公开。
图2是根据本公开的实施例的显示设备的操作方法的流程图。
参照图2,在操作S210中,根据本公开的实施例的显示设备100可以接收第一图像。例如,显示设备100可以从外部设备或外部服务器接收第一图像或者接收第一图像作为输入。
在操作S220中,根据本公开实施例的显示设备100可以提取与所接收的第一图像相对应的第一特征信息、第二特征信息和第三特征信息。
例如,第一特征信息可以指示第一图像的整个区域的特性,并且第二特征信息可以指示包括在第一图像中的多个区域中的每一个的特性。另外,第三特征信息可以指示包括在第一图像中的多个对象区域中的每一个的特性。这里,第一图像的整个区域或部分区域的特性可以包括指示包括在第一图像的整个区域或部分区域中的像素的亮度信息、RGB信息、频率信息和噪声信息的直方图、平均值、中值、最小/最大值等,但不限于此。
在操作S230中,根据本公开实施例的显示设备100可以基于第一特征信息和第一参数信息生成第一对比度增强曲线(全局对比度增强曲线)。
例如,显示设备100可以从外部设备接收第一参数信息,并且第一参数信息可以包括预设值。显示设备100可以通过将包括在曲线生成网络中的节点的参数(权重或系数)设置为第一参数信息并将第一特征信息输入到设置有第一参数信息的曲线生成网络来获得第一对比度增强曲线信息(第一对比度增强曲线或第一对比度增强曲线中包括的点)作为输出。这里,第一参数信息可以包括通过用第一训练数据训练曲线生成网络而确定的值。这将在下面参考图11详细描述。
显示设备100可以基于第一对比度增强曲线信息生成第一对比度增强曲线。例如,显示设备100可以通过对包括在第一对比度增强曲线中的点进行插值来生成第一对比度增强曲线。然而,本实施例不限于此。
另外,在操作S240中,显示设备100可以基于第二特征信息和第二参数信息生成第二对比度增强曲线(局部对比度增强曲线)。
例如,显示设备100可以从外部设备接收第二参数信息,并且第二参数信息可以包括预设值。显示设备100可以通过将包括在曲线生成网络中的节点的参数(权重或系数)设置为第二参数信息并将第二特征信息输入到设置有第二参数信息的曲线生成网络来获得第二对比度增强曲线信息(第二对比度增强曲线或包括在第二对比度增强曲线中的点)作为输出。这里,第二参数信息可以包括通过用第二训练数据训练曲线生成网络而确定的值,并且这将在下面参考图11详细描述。
显示设备100可以基于第二对比度增强曲线信息生成第二对比度增强曲线。
另外,在操作S250中,显示设备100可以基于第三特征信息和第三参数信息生成第三对比度增强曲线(对象对比度增强曲线)。
例如,显示设备100可以从外部设备接收第三参数信息,并且第三参数信息可以包括预设值。显示设备100可以通过将包括在曲线生成网络中的节点的参数(权重或系数)设置为第三参数信息并将第三特征信息输入到设置有第三参数信息的曲线生成网络来获得第三对比度增强曲线信息(第三对比度增强曲线或第三对比度增强曲线中包括的点)作为输出。这里,第三参数信息可以包括通过用第三训练数据训练曲线生成网络而确定的值,并且这将在下面参考图11详细描述。
显示设备100可以基于第三对比度增强曲线信息生成第三对比度增强曲线。
在操作S260中,根据本公开实施例的显示设备100可以通过将在操作S230中生成的第一对比度增强曲线、在操作S240中生成的第二对比度增强曲线和在操作S250中生成的第三对比度增强曲线应用于第一图像来生成第二图像。
例如,显示设备100可以通过将第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线顺序地应用于第一图像来生成第二图像。这将在下面参考图8详细描述。
替代地,显示设备100可以基于第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线生成第四对比度增强曲线。这里,第四对比度增强曲线可以是第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线的加权和,但不限于此。另外,可以针对第一图像中包括的每个区域或每个像素生成第四对比度增强曲线,但不限于此。显示设备100可以通过将第四对比度增强曲线应用于第一图像来生成第二图像。这将在下面参考图9详细描述。
在操作S270中,显示设备100可以显示应用了第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线的第二图像。
图3是根据本公开的实施例的被配置为执行对比度增强处理的设备(或模块)的框图。
根据本公开的实施例,被配置为执行对比度增强处理的设备(或模块)300可以包括在图1所示的显示设备100的一部分、图13所示的显示设备100的一部分或图14所示的显示设备1400的一部分中。
参照图3,根据本公开的实施例的被配置为执行对比度增强处理的设备(或模块)300可以包括特征信息提取器310、对比度增强曲线生成器320和对比度增强曲线应用器330。
特征信息提取器310可以包括第一特征信息提取器311、第二特征信息提取器312和第三特征信息提取器313。这里,第一特征信息提取器311、第二特征信息提取器312和第三特征信息提取器313可以包括适当地操作以提取图像的整个区域或部分区域的特征信息的逻辑、电路、接口和/或代码。
第一特征信息提取器311可以基于包括在第一图像301的整个区域中的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个来提取第一图像301的整个区域的特性(第一特征信息)。例如,第一特征信息提取器311可以提取包括在第一图像301的整个区域中的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个的直方图、平均值、中值、最小值或最大值等作为第一图像301的整个区域的特性(第一特征信息),但不限于此。这将在下面参考图5详细描述。
另外,第二特征信息提取器312可以提取包括在第一图像301中的多个区域中的每个区域中的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个的直方图、平均值、最小值或最大值等作为包括在该多个区域中的每个区域的特性(第二特征信息)。然而,本实施例不限于此。
另外,第三特征信息提取器313可以提取包括在第一图像301中的多个对象区域中的每一个中的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个的直方图、平均值、最小值或最大值等作为包括在该多个对象区域中的每一个的特性(第三特征信息)。
参考图3,对比度增强曲线生成器320可以包括第一对比度增强曲线生成器321、第二对比度增强曲线生成器322和第三对比度增强曲线生成器323。这里,第一对比度增强曲线生成器321、第二对比度增强曲线生成器322和第三对比度增强曲线生成器323可以包括适当地操作以生成对比度增强曲线的逻辑、电路、接口和/或代码。
第一对比度增强曲线生成器321可以基于由第一特征信息提取器311提取的第一特征信息和曲线生成网络来生成第一对比度增强曲线。例如,第一对比度增强曲线生成器321可以从第一特征信息提取器311接收第一特征信息。另外,第一对比度增强曲线生成器321可以将包括在曲线生成网络中的参数(权重或系数)设置为第一参数信息。这里,可以从外部设备或服务器接收第一参数信息。
第一对比度增强曲线生成器321可以通过将第一特征信息输入到设置有第一参数信息的曲线生成网络来获得第一对比度增强曲线信息(第一对比度增强曲线或第一对比度增强曲线中包括的点)作为输出。第一对比度增强曲线生成器321可以基于第一对比度增强曲线信息生成第一对比度增强曲线。例如,第一对比度增强曲线生成器321可以通过对从曲线生成网络输出的第一对比度增强曲线中包括的点进行插值来生成第一对比度增强曲线。
另外,第二对比度增强曲线生成器322可以基于由第二特征信息提取器312提取的第二特征信息和曲线生成网络来生成第二对比度增强曲线。例如,第二对比度增强曲线生成器322可以将曲线生成网络中包括的参数(权重或系数)设置为第二参数信息。这里,可以从外部设备或服务器接收第二参数信息。第二对比度增强曲线生成器322可以通过将第二特征信息输入到设置有第二参数信息的曲线生成网络来获得第二对比度增强曲线信息(第二对比度增强曲线或第二对比度增强曲线中包括的点)作为输出。第二对比度增强曲线生成器322可以基于第二对比度增强曲线信息生成第二对比度增强曲线。
另外,第三对比度增强曲线生成器323可以基于由第三特征信息提取器313提取的第三特征信息和曲线生成网络来生成第三对比度增强曲线。例如,第三对比度增强曲线生成器323可以将包括在曲线生成网络中的参数(权重或系数)设置为第三参数信息。这里,可以从外部设备或服务器接收第三参数信息。第三对比度增强曲线生成器323可以通过将第三特征信息输入到设置有第三参数信息的曲线生成网络来获得第三对比度增强曲线信息(第三对比度增强曲线或第三对比度增强曲线中包括的点)作为输出。第三对比度增强曲线生成器323可以基于第三对比度增强曲线信息生成第三对比度增强曲线。
参考图3,对比度增强曲线应用器330可以通过将由对比度增强曲线生成器320生成的第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线应用于第一图像301来生成第二图像302。
例如,对比度增强曲线应用器330可以通过将第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线顺序地应用于第一图像301来生成第二图像302。这将在下面参考图8详细描述。
替代地,对比度增强曲线应用器330可以基于第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线生成第四对比度增强曲线,并且通过将第四对比度增强曲线应用于第一图像301来生成第二图像302。这将在下面参考图9详细描述。
图4和图5被提及用于描述根据本公开的实施例的由特征信息提取器执行的提取特征信息的方法。
参考图4,第一特征信息提取器311可以接收第一图像301作为输入,并且提取第一图像301的整个区域的特性作为第一特征信息。参考图5描述提取第一特征信息的方法。
参考图5,第一特征信息提取器311可以基于第一图像301中包括的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个来提取第一特征信息。例如,第一特征信息提取器311可以生成包括在第一图像301中的像素的亮度值(亮度信息)的亮度直方图510。第一特征信息提取器311可以提取生成的亮度直方图510作为第一特征信息。替换地,第一特征信息提取器311可以基于生成的亮度直方图510提取最大亮度值和最小亮度值作为第一特征信息。替换地,第一特征信息提取器311可以基于生成的亮度直方图510提取平均亮度值或中值亮度值作为第一特征信息。
另外,第一特征信息提取器311可以生成包括在第一图像301中的像素的每个RGB值(RGB信息)的RGB直方图520,并提取RGB直方图520作为第一特征信息。替换地,第一特征信息提取器311可以基于RGB直方图520提取最大RGB值或最小RGB值作为第一特征信息。替换地,第一特征信息提取器311可以基于生成的RGB直方图520提取平均RGB值或中值RGB值作为第一特征信息。
另外,第一特征信息提取器311可以生成包括在第一图像301中的像素的频率信息的频率直方图530,并提取频率直方图530作为第一特征信息。替换地,第一特征信息提取器311可以基于频率直方图530提取平均频率值或中值频率值作为第一特征信息。
另外,第一特征信息提取器311可生成包括在第一图像301中的像素的噪声信息的噪声直方图540,且提取噪声直方图540作为第一特征信息。替代地,第一特征信息提取器311可基于噪声直方图540提取平均噪声值或中值噪声值作为第一特征信息。
返回参考图4,第一图像301可以被划分为具有相同大小的N×M个区域。尽管为了便于描述,图4示出了第一图像301被划分为6×6区域,但是本实施例不限于此。
当第一图像301被划分为6×6区域时,第二特征信息提取器312可以提取36个区域410中的每一个的第二特征信息。第二特征信息提取器312可以基于包括在36个区域410中的每一个中的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个来提取第二特征信息。已经参考图5描述了基于亮度信息、RGB信息、频率信息或噪声信息中的至少一个来提取特征信息的方法,因此,在此省略其详细描述。
因此,第二特征信息提取器312可以提取36条第二特征信息。
另外,根据本公开实施例的第三特征信息提取器313可以从第一图像301提取对象。例如,第三特征信息提取器313可以通过使用对象提取网络来提取第一图像301中包括的对象,但不限于此。另外,尽管图4示出了第三特征信息提取器313从第一图像301提取对象,但是本实施例不限于此,并且可以通过单独的组件从第一图像301提取对象。
第三特征信息提取器313可以基于提取的对象执行聚类。可以基于多个区域将聚类图像420划分为多个对象区域。这里,多个区域可以是从第一图像301等分的6×6区域,并且可以基于区域单元来划分多个对象区域。
因此,如图4所示,第一图像301可以被划分为包括第一对象(例如,“人1”)的第一对象区域431、包括第二对象(例如,“人2”)的第二对象区域432、包括第三对象(例如,“天空”)的第三对象区域433、包括第四对象(例如,“水”)的第四对象区域434以及包括第五对象(例如,“地球”)的第五对象区域435。
图4中所示并且已经参考图4描述的划分对象区域的方法仅仅是说明性的,并且根据本公开实施例的第三特征信息提取器313可以通过使用各种方法来划分对象区域。
第三特征信息提取器313可以基于包括在多个对象区域440中的每一个中的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个来提取第三特征信息。已经参考图5描述了基于亮度信息、RGB信息、频率信息或噪声信息中的至少一个来提取特征信息的方法,因此,在此省略其详细描述。
因此,第三特征信息提取器313可提取五条第三特征信息。
图6和图7被提及用于描述根据本公开的实施例的生成对比度增强曲线的方法。
参照图6,根据本公开实施例的显示设备100可以从外部设备接收与第一特征信息(整个图像的特征信息)对应的第一参数信息、与第二特征信息(每个区域的特征信息)对应的第二参数信息和与第三特征信息(每个对象区域的特征信息)对应的第三参数信息。
这里,外部设备可以通过使用基于多个训练图像和多个对比度增强算法生成的多个训练数据集来训练曲线生成网络,从而确定多条参数信息。
根据本公开的实施例的第一参数信息、第二参数信息和第三参数信息可以是基于针对显示设备100中包括的显示器的显示特性优化的对比度增强算法训练的参数信息。例如,当针对显示设备100的显示特性优化的对比度增强算法是第一对比度增强算法时,可以通过利用使用第一对比度增强算法获得的训练数据训练曲线生成网络来获得第一参数信息、第二参数信息和第三参数信息。这将在下面参考图11详细描述。
根据本公开的实施例的对比度增强曲线生成器320可以通过使用曲线生成网络610来生成对比度增强曲线。根据本公开的实施例的曲线生成网络610可以包括被配置为接收特征信息作为输入和输出对比度增强曲线信息的结构。
根据本公开实施例的第一对比度增强曲线生成器321可以通过将包括在曲线生成网络610中的参数(权重或系数)设置为第一参数信息并将第一特征信息输入到设置有第一参数信息的曲线生成网络610来获得第一对比度增强曲线信息(第一对比度增强曲线或第一对比度增强曲线中包括的点)作为输出。第一对比度增强曲线生成器321可以基于第一对比度增强曲线信息生成第一对比度增强曲线。例如,当输出包括在第一对比度增强曲线中的点时,第一对比度增强曲线生成器321可以通过对点进行插值来生成第一对比度增强曲线。然而,本实施例不限于此。
如图7所示,第一对比度增强曲线710可以是应用于第一图像301的整个区域的全局对比度增强曲线。
另外,第二对比度增强曲线生成器322可以通过将包括在曲线生成网络610中的参数(权重或系数)设置为第二参数信息并将第二特征信息输入到设置有第二参数信息的曲线生成网络610来获得第二对比度增强曲线信息(第二对比度增强曲线或包括在第二对比度增强曲线中的点)作为输出。第二对比度增强曲线生成器322可以基于第二对比度增强曲线信息生成第二对比度增强曲线。
如图7所示,第二对比度增强曲线720可以是分别应用于包括在第一图像301中的区域的局部对比度增强曲线,并且所生成的第二对比度增强曲线720的数量与包括在第一图像301中的区域410的数量相同。例如,当第一图像301被划分为6×6区域时,第二对比度增强曲线720的数量为36,并且第二对比度增强曲线720可以分别应用于对应的区域。
另外,第三对比度增强曲线生成器323可以通过将包括在曲线生成网络610中的参数(权重或系数)设置为第三参数信息并将第三特征信息输入到设置有第三参数信息的曲线生成网络610来获得第三对比度增强曲线信息(第三对比度增强曲线或第三对比度增强曲线中包括的点)作为输出。第三对比度增强曲线生成器323可以基于第三对比度增强曲线信息生成第三对比度增强曲线。
如图7所示,第三对比度增强曲线730可以是分别应用于第一图像301中包括的对象区域的对象对比度增强曲线,并且所生成的第三对比度增强曲线730的数量与第一图像301中包括的多个对象区域440的数量相同。例如,当第一图像301被划分为五个对象区域时,第三对比度增强曲线730的数量是5,并且第三对比度增强曲线730可以分别应用于对应的区域。
图8被提及用于描述根据本公开的实施例的应用对比度增强曲线的方法。
参照图8,根据本公开的实施例的对比度增强曲线应用器330可以将第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线顺序地应用于第一图像301。
例如,对比度增强曲线应用器330可以通过将第一对比度增强曲线710应用于第一图像301的整个区域来生成第三图像810。
另外,对比度增强曲线应用器330可以通过将第二对比度增强曲线720应用于第三图像810的相应区域来生成第四图像820。例如,当第一图像301被划分为6×6区域时,第三图像810包括与第一图像301相同的36个区域,并且可以生成分别对应于36个区域的第二对比度增强曲线720。因此,对比度增强曲线应用器330可以通过分别将第二对比度增强曲线720应用于36个区域来生成第四图像820。
另外,对比度增强曲线应用器330可以通过将针对各个对象区域生成的第三对比度增强曲线730应用于第四图像820来生成第二图像830。当第一图像301被划分为五个对象区域时,第四图像820包括与第一图像301相同的五个对象区域,并且可以生成分别对应于五个对象区域的第三对比度增强曲线730。因此,对比度增强曲线应用器330可以通过分别将第三对比度增强曲线730应用于五个对象区域来生成第二图像830。
图9被提及用于描述根据本公开的实施例的应用对比度增强曲线的方法。
参照图9,根据本公开的实施例的对比度增强曲线应用器330可以基于第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线为每个区域或每个像素生成最终对比度增强曲线(第四对比度增强曲线)。在此,区域指示根据本公开的实施例的当第一图像被划分为多个区域以提取第二特征信息时的一个划分区域。
例如,当以区域为单位划分根据本公开实施例的第一图像301中包括的对象区域时,可以为每个区域生成第四对比度增强曲线。否则,当以像素为单位划分第一图像301中包括的对象区域而不管区域如何时,可以为每个像素生成第四对比度增强曲线。然而,本实施例不限于此。
当为每个区域生成第四对比度增强曲线时,第一图像301中包括的多个区域中的第一区域910可以包括在第二对象区域920中。对比度增强曲线应用器330可以通过向第一区域910应用第一对比度增强曲线710、对应于第一区域910的第二对比度增强曲线721和对应于第二对象区域920的第三对比度增强曲线732来生成第四对比度增强曲线940。在这种情况下,对比度增强曲线应用器330可以将第一对比度增强曲线710、与第一区域910对应的第二对比度增强曲线721和与第二对象区域920对应的第三对比度增强曲线732的加权平均值确定为第四对比度增强曲线940,但不限于此。
对比度增强曲线应用器330可以向第一区域910应用与第一区域910对应的第四对比度增强曲线940。另外,可以通过以与上述相同的方式为第一图像301中包括的每个区域生成最终对比度增强曲线并将生成的最终对比度增强曲线应用于每个区域来生成第二图像。
可替换地,当为每个像素生成第四对比度增强曲线时,第一图像301中包括的第一像素可以包括在多个划分区域中的第二区域中,并且包括在多个划分对象区域中的第三对象区域中。对比度增强曲线应用器330可以基于第一对比度增强曲线、对应于第二区域的第二对比度增强曲线和对应于第三对象区域的第三对比度增强曲线来生成第四对比度增强曲线。在这种情况下,对比度增强曲线应用器330可以将第一对比度增强曲线、与第二区域对应的第二对比度增强曲线和与第三对象区域对应的第三对比度增强曲线的加权平均值确定为第四对比度增强曲线,但不限于此。
对比度增强曲线应用器330可以向第一像素应用与第一像素对应的第四对比度增强曲线。另外,可以通过以与上述相同的方式为第一图像301中包括的每个像素生成最终对比度增强曲线并将生成的最终对比度增强曲线应用于每个像素来生成第二图像。
图10被提及用于描述根据本公开的实施例的应用对比度增强曲线的方法。
当根据本公开的实施例的对比度增强曲线应用器330为第一图像301中包括的每个区域生成最终对比度增强曲线并将生成的最终对比度增强曲线应用于每个区域时,在区域之间的边界中可能发生亮度差。例如,对比度增强曲线应用器330可以生成对应于包括在第一图像301中的多个区域中的第一区域1010的第一最终对比度增强曲线1015,并且生成对应于第二区域1020的第二最终对比度增强曲线1025。对比度增强曲线应用器330可以通过将第一最终对比度增强曲线1015应用于包括在第一区域1010中的像素来执行对比度增强处理。另外,对比度增强曲线应用器330可以通过将第二最终对比度增强曲线1025应用于包括在第二区域1020中的像素来执行对比度增强处理。
因此,当第一最终对比度增强曲线1015应用于位于与第二区域1020相邻的第一区域1010的边界处的第一像素1011,并且第二最终对比度增强曲线1025应用于位于与第一区域1010相邻的第二区域1020的边界处的第二像素1021时,在第一像素1011和第二像素1021之间可能发生显著的亮度差异。当在相邻像素之间发生显著的亮度差异时,可能不自然地观看图像。
根据本公开的实施例的对比度增强曲线应用器330可以通过内插对应于第一区域1010的第一最终对比度增强曲线1015和对应于第二区域1020的第二最终对比度增强曲线1025来生成第三最终对比度增强曲线1035。对比度增强曲线应用器330可以通过将第三最终对比度增强曲线1035应用于第一像素1011和第二像素1021来执行对比度增强处理,从而防止相邻像素之间出现显著的亮度差。
另外,除了第一区域1010之外,可以通过使用分别对应于与第二区域1020右侧相邻的第三区域(未示出)、与第二区域1020左侧相邻的第四区域(未示出)和与第二区域1020底部相邻的第五区域(未示出)的最终对比度增强曲线来执行对位于第二区域1020边缘处的像素的对比度增强处理。
可以以各种方式确定与一个区域相邻的区域,并且可以通过向位于边界处的像素应用对比度增强曲线来执行对比度增强处理,该对比度增强曲线通过以各种方法内插对应区域的最终对比度增强曲线和对应于相邻区域的最终对比度增强曲线而获得。
图11被提及用于描述根据本公开的实施例的获得设置到曲线生成网络的参数信息的方法。
参照图11,根据本公开的实施例的参数信息可以由外部设备确定,并且在这种情况下,外部设备可以是除了根据本公开的实施例的显示设备100之外的单独的设备。例如,外部设备可以通过基于训练数据集训练曲线生成网络1110来确定曲线生成网络1110中包括的参数(权重或系数)。
曲线生成网络1110可以是包括多个层的深度神经网络(DNN),并且为了神经网络正确地输出与输入数据相对应的结果数据,可以根据目的训练神经网络。这里,术语“训练”可以指示训练神经网络,使得神经网络在没有任何帮助的情况下发现或掌握将各种数据输入到神经网络并分析输入数据的方法、对输入数据进行分类的方法、从输入数据中提取生成结果数据所需的特征的方法等。特别地,通过训练过程,神经网络可以学习训练数据以优化和设置神经网络内的参数(权重或系数)。具有优化参数的神经网络集可以对输入数据执行自学习并输出目标结果。
根据本公开的实施例的曲线生成网络1110可以是被配置为接收图像或区域的特征信息作为输入并输出对比度增强曲线信息(对比度增强曲线或对比度增强曲线中包括的点)的神经网络。
外部设备可以通过基于多个训练数据集训练曲线生成网络1110来获得多条参数信息。在此,可以基于多个训练图像1120和多个对比度增强算法来生成多个训练数据集。另外,一个训练数据集可以包括从多个训练图像1120提取的训练特征信息(输入数据)1130和与训练特征信息1130对应的训练对比度增强曲线信息1140。这里,可以通过将对比度增强算法应用于多个训练图像1120来获得训练对比度增强曲线信息1140。
另外,训练特征信息1130可以包括第一训练特征信息、第二训练特征信息和第三训练特征信息。例如,第一训练特征信息可以是从多个训练图像1120中的每一个提取的特征信息。第二训练特征信息可以是从多个训练图像1120中的每一个划分的多个区域中的每一个的特征信息。第三训练特征信息可以是从多个训练图像1120中的每一个划分的多个对象区域中的每一个的特征信息。
另外,即使对于相同的训练图像,也可以根据应用于训练图像的对比度增强算法来不同地确定与训练图像相对应的训练对比度增强曲线信息。因此,多条训练对比度增强曲线信息可以对应于一条训练特征信息。
具体地,可以根据应用于多个训练图像1120中的每一个的对比度增强算法来确定与第一训练特征信息相对应的多条训练对比度增强曲线信息。例如,可以通过将第一对比度增强算法应用于多个训练图像1120中的每一个来获得第一训练对比度增强曲线信息。因此,外部设备可以获得包括第一训练特征信息和第一训练对比度增强曲线信息的第一训练数据集。外部设备可以通过基于第一训练数据集训练曲线生成网络1110来确定第一参数信息。
例如,外部设备可以通过以最小化通过将第一训练特征信息输入到曲线生成网络1110而输出的数据(输出数据)与第一训练对比度增强曲线信息之间的差异的方式更新曲线生成网络1110中包括的参数来确定第一参数信息。
另外,可以通过将第二对比度增强算法应用于多个训练图像1120中的每一个来获得第二训练对比度增强曲线信息。因此,外部设备可以获得包括第一训练特征信息和第二训练对比度增强曲线信息的第二训练数据集。外部设备可以通过基于第二训练数据集训练曲线生成网络1110来确定第四参数信息。
另外,可以通过将第三对比度增强算法应用于多个训练图像1120中的每一个来获得第三训练对比度增强曲线信息。因此,外部设备可以获得包括第一训练特征信息和第三训练对比度增强曲线信息的第三训练数据集。外部设备可以通过基于第三训练数据集训练曲线生成网络1110来确定第七参数信息。
以与上述相同的方式,还可以根据应用于多个划分区域中的每一个的对比度增强算法来不同地获得与第二训练特征信息相对应的对比度增强曲线信息。例如,可以通过将第一对比度增强算法应用于多个划分区域中的每一个来获得第四对比度增强曲线信息,可以通过将第二对比度增强算法应用于多个划分区域中的每一个来获得第五对比度增强曲线信息,并且可以通过将第三对比度增强算法应用于多个划分区域中的每一个来获得第六对比度增强曲线信息。
因此,外部设备可以获得包括第二训练特征信息和第四对比度增强曲线信息的第四训练数据集、包括第二训练特征信息和第五对比度增强曲线信息的第五训练数据集、以及包括第二训练特征信息和第六对比度增强曲线信息的第六训练数据集。
外部设备可以通过基于第四训练数据集训练曲线生成网络1110来确定第二参数信息。外部设备可以通过基于第五训练数据集训练曲线生成网络1110来确定第五参数信息,并且通过基于第六训练数据集训练曲线生成网络1110来确定第八参数信息。
另外,还可以根据应用于多个对象区域中的每一个的对比度增强算法来不同地获得与第三训练特征信息相对应的对比度增强曲线信息。例如,可以通过将第一对比度增强算法应用于多个对象区域中的每一个来获得第七对比度增强曲线信息,可以通过将第二对比度增强算法应用于多个对象区域中的每一个来获得第八对比度增强曲线信息,并且可以通过将第三对比度增强算法应用于多个对象区域中的每一个来获得第九对比度增强曲线信息。
因此,外部设备可以获得包括第三训练特征信息和第七对比度增强曲线信息的第七训练数据集、包括第三训练特征信息和第八对比度增强曲线信息的第八训练数据集、以及包括第三训练特征信息和第九对比度增强曲线信息的第九训练数据集。
外部设备可以通过基于第七训练数据集训练曲线生成网络1110来确定第三参数信息。外部设备可以通过基于第八训练数据集训练曲线生成网络1110来确定第六参数信息,并且通过基于第九训练数据集训练曲线生成网络1110来确定第九参数信息。
根据本公开的实施例的显示设备100可以从外部设备接收参数信息。在这种情况下,显示设备100可以接收通过利用训练数据训练曲线生成网络1110而获得的参数信息,该训练数据通过应用针对显示设备100的显示特性优化的对比度增强算法而获得。
例如,当针对包括在显示设备100中的显示器的显示特性优化的对比度增强算法是第一对比度增强算法时,显示设备100可以从外部设备接收第一参数信息、第二参数信息和第三参数信息。
替换地,当针对包括在显示设备100中的显示器的显示特性优化的对比度增强算法是第二对比度增强算法时,显示设备100可以从外部设备接收第四参数信息、第五参数信息和第六参数信息。
图12被提及用于描述根据本公开的实施例的由多个显示设备执行的通过使用相同的对比度增强模块(设备)来执行对比度增强处理的方法。
参照图12,根据本公开的实施例的多个显示设备(例如,第一显示设备1210、第二显示设备1220和第三显示设备1230)可以包括具有不同显示特性的显示器。第一显示设备1210可以包括第一显示器1215,并且第一显示器1215可以包括自发光显示器,诸如有机发光二极管(OLED)或微发光二极管(LED)。因此,第一显示器1215可以具有第一显示特性(例如,自发光特性)。
另外,第二显示设备1220可以包括第二显示器1225,并且第二显示器1225可以包括非自发光显示器,诸如液晶显示器(LCD)。因此,第二显示器1225可以具有第二显示特性(例如,非自发光特性)。
另外,第三显示设备1230可以包括第三显示器1235,并且第三显示器1235可以是与自发光显示器和非自发光显示器不同的显示器。例如,第三显示设备1230可以包括使用屏幕的激光投影仪等。因此,第三显示设备1230可以具有第三显示特性,并且第一显示特性、第二显示特性和显示特性可以彼此不同。
当根据本公开的实施例的多个显示设备1210、1220和1230对输入图像执行对比度增强处理时,可能需要应用针对显示特性优化的不同对比度增强算法。例如,对于具有非自发光特性的显示器,低灰度区域的对比度增强处理是重要的,因为显示器通过使用背光单元发光,而对于具有自发光特性的显示器,需要以有效功率增强对比度的技术,因为不容易表现出比具有非自发光特性的显示器更高的亮度。
当将相同的对比度增强算法应用于具有不同显示特性的多个显示设备1210、1220和1230时,难以根据显示特性优化对比度增强处理。因此,多个显示设备1210、1220和1230需要对比度增强模块(设备或处理器),根据显示特性对该对比度增强模块应用不同的对比度增强算法。
根据本公开的实施例的多个显示设备1210、1220和1230可以包括相同的对比度增强模块1240,并且对比度增强模块1240可以是被配置为执行对比度增强处理的设备300,其在图3中示出并参考图3描述。然而,本实施例不限于此。
根据本公开的实施例的对比度增强模块1240可以包括曲线生成网络,该曲线生成网络被配置为生成对比度增强处理所需的对比度增强曲线。在这种情况下,设置为包括在曲线生成网络中的参数(权重或系数)的参数信息可以根据显示特性而变化,并且可以通过不同地设置包括在曲线生成网络中的参数以执行对比度增强处理来表现出通过应用不同的对比度增强算法来执行对比度增强处理的效果。
根据本公开的实施例的多个显示设备1210、1220和1230中的每一个可以接收使用根据显示特性优化的对比度增强算法确定的参数信息。
参考图12,外部设备1250可以通过用训练数据训练曲线生成网络来获得为曲线生成网络设置的参数信息,如图11所示和参考图11所述。
例如,外部设备1250可以通过利用应用了第一对比度增强算法的训练数据训练曲线生成网络来获得第一参数信息、第二参数信息和第三参数信息。另外,外部设备1250可以通过利用应用了第二对比度增强算法的训练数据训练曲线生成网络来获得第四参数信息、第五参数信息和第六参数信息。另外,外部设备1250可以通过利用应用第三对比度增强算法的训练数据训练曲线生成网络来获得第七参数信息、第八参数信息和第九参数信息。
已经参考图11详细描述了由外部设备1250执行的获得第一条至第九条参数信息的方法,因此,在此省略其详细描述。
返回参考图12,包括在第一显示设备1210中的第一显示器1215具有自发光特性,并且针对自发光特性优化的对比度增强算法可以是第一对比度增强算法。第一显示设备1210可以从外部设备1250接收第一参数信息、第二参数信息和第三参数信息。第一显示设备1210可以通过使用第一参数信息、第二参数信息和第三参数信息来生成全局对比度增强曲线、局部对比度增强曲线和对象对比度增强曲线。第一显示设备1210可以通过将全局对比度增强曲线、局部对比度增强曲线和对象对比度增强曲线应用于输入图像来生成对比度增强的输出图像,并将对比度增强的输出图像输出到第一显示器1215。
另外,包括在第二显示设备1220中的第二显示器1225具有非自发光特性,并且针对非自发光特性优化的对比度增强算法可以是第二对比度增强算法。第二显示设备1220可以从外部设备1250接收第四参数信息、第五参数信息和第六参数信息。第二显示设备1220可以通过使用第四参数信息、第五参数信息和第六参数信息来生成全局对比度增强曲线、局部对比度增强曲线和对象对比度增强曲线。第二显示设备1220可以通过将全局对比度增强曲线、局部对比度增强曲线和对象对比度增强曲线应用于输入图像来生成对比度增强的输出图像,并将对比度增强的输出图像输出到第二显示器1225。
包括根据本公开的实施例的曲线生成网络的对比度增强模块1240可以以片上系统(SoC)的形式实现,并且多个显示设备1210、1220和1230可以包括相同的SoC。因此,相同的SoC可以应用于具有不同显示特性的多个显示设备1210、1220和1230,因此,可以降低显示设备的制造成本。
另外,多个显示设备1210、1220和1230中的每一个可以通过使用相同的对比度增强模块1240来执行根据显示特性优化的对比度增强处理。另外,当对比度增强算法被改变或更新时,外部设备1250可以通过用应用改变或更新的对比度增强算法的训练数据训练曲线生成网络来获得新的参数信息,并且显示设备可以接收新的参数信息并使用新的参数信息进行对比度增强处理。
图13是根据本公开的实施例的显示设备的框图。
参照图13,根据本公开的实施例的显示设备100可以包括图像接收器110、处理器120、存储器130和显示器140。
根据本公开的实施例的图像接收器110可以包括通信接口、输入/输出接口等。例如,通信接口可以向外部设备或服务器发送数据或信号以及从外部设备或服务器接收数据或信号。例如,通信接口可以包括Wi-Fi模块、蓝牙模块、红外通信模块、无线通信模块、局域网(LAN)模块、以太网模块、有线通信模块等。这里,每个通信模块可以以至少一个硬件芯片的形式实现。
Wi-Fi模块和蓝牙模块分别通过Wi-Fi方案和蓝牙方案执行通信。当使用Wi-Fi模块或蓝牙模块时,可以首先发送和接收诸如服务集标识符(SSID)和会话密钥的各种连接信息,可以通过使用各种连接信息来连接通信,然后可以发送和接收各种信息。无线通信模块可以包括至少一个通信芯片,该至少一个通信芯片被配置为根据诸如Zigbee、第三代(3G)、第三代合作伙伴计划(3GPP)、长期演进(LTE)、高级LTE(LTE-A)、第四代(4G)和第五代(5G)的各种无线通信标准执行通信。
另外,输入/输出接口从显示设备100的外部接收视频(例如,运动图像等)、音频(例如,语音、音乐等)和附加信息(例如,电子节目指南(EPG)等)。输入/输出接口可以包括高清多媒体接口(HDMI)端口、移动高清链路(MHL)端口、通用串行总线(USB)端口、显示端口(DP)、雷电端口、视频图形阵列(VGA)端口、RGB端口、D-超小型(D-SUB)端口、数字视频接口(DVI)端口、组件插孔或PC端口中的至少一个。
根据本公开的实施例的图像接收器110可以接收一个或多个图像。
根据本公开的实施例的处理器120可以控制显示设备100的一般操作和显示设备100的内部组件之间的信号流,并执行数据处理功能。
处理器120可以包括单核、双核、三核、四核或其倍数的核。另外,处理器120可以包括多个处理器。例如,处理器120可以由主处理器(未示出)和在睡眠模式下操作的子处理器(未示出)来实现。
另外,处理器120可以包括中央处理单元(CPU)、图形处理单元(GPU)或视频处理单元(VPU)中的至少一个。替代地,根据本公开的实施例,处理器120可以以包括CPU、GPU或VPU中的至少一个的SoC的形式实现。
根据本公开的实施例的存储器130可以存储各种数据、程序或应用以操作和控制显示设备100。
另外,存储在存储器130中的程序可以包括一个或多个指令。存储在存储器130中的程序(一个或多个指令)或应用可以由处理器120执行。
根据本公开的实施例的处理器120可以包括图3的设备(或模块)300中包括的组件中的至少一个,其被配置为执行对比度增强处理。
根据本公开的实施例的处理器120可以提取与接收的第一图像相对应的第一特征信息、第二特征信息和第三特征信息。例如,第一特征信息可以指示第一图像的整个区域的特性,并且第二特征信息可以指示包括在第一图像中的多个区域中的每一个的特性。另外,第三特征信息可以指示包括在第一图像中的多个对象区域中的每一个的特性。这里,第一图像的整个区域或部分区域的特性可以包括指示包括在第一图像的整个区域或部分区域中的像素的亮度信息、RGB信息、频率信息和噪声信息的直方图、平均值、中值、最小/最大值等,但不限于此。
处理器120可以基于第一特征信息和第一参数信息生成第一对比度增强曲线(全局对比度增强曲线)。例如,处理器120可以通过将包括在曲线生成网络中的节点的参数(权重或系数)设置为从外部设备接收的第一参数信息并将第一特征信息输入到设置有第一参数信息的曲线生成网络来获得第一对比度增强曲线信息(第一对比度增强曲线或第一对比度增强曲线中包括的点)作为输出。另外,处理器120可以基于第一对比度增强曲线信息生成第一对比度增强曲线。
另外,处理器120可以以与生成第一对比度增强曲线的方法相同的方法基于第二特征信息和第二参数信息生成第二对比度增强曲线(局部对比度增强曲线)。另外,处理器120可以以与生成第一对比度增强曲线的方法相同的方法基于第三特征信息和第三参数信息生成第三对比度增强曲线(对象对比度增强曲线)。
处理器120可以通过将第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线应用于第一图像来生成第二图像。
例如,处理器120可以通过将第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线顺序地应用于第一图像来生成第二图像。可替换地,处理器120可以基于第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线生成第四对比度增强曲线。这里,第四对比度增强曲线可以是第一对比度增强曲线、第二对比度增强曲线和第三对比度增强曲线的加权和,但不限于此。另外,可以针对第一图像中包括的每个像素生成第四对比度增强曲线,但不限于此。处理器120可以通过将第四对比度增强曲线应用于第一图像来生成第二图像。
处理器120可以控制显示器140显示第二图像。
根据本公开实施例的显示器140可以通过转换在处理器120中处理的图像信号、数据信号、屏上显示(OSD)信号、控制信号等来生成驱动信号。显示器140可以由等离子显示面板(PDP)、LCD、OLED、柔性显示器、三维(3D)显示器等实现。另外,显示器140可以包括触摸屏,并且除了输出设备之外还可以用作输入设备。
根据本公开的实施例的显示器140可以显示对比度已经增强的第二图像。
图14是根据本公开的另一实施例的显示设备的框图。
参照图14,图14的显示设备1400可以是参照图1至图11描述的显示设备100的实施例。
参照图14,根据本公开的实施例的显示设备1400可以包括调谐器1440、处理器1410、显示器1420、通信接口1450、传感器1430、输入/输出接口1470、视频处理器1480、音频处理器1485、音频输出接口1460、存储器1490和电源1495。
图14的通信接口1450对应于包括在图13的图像接收器110中的通信接口,图14的输入/输出接口1470对应于包括在图13的图像接收器110中的输入/输出接口,并且图14的处理器1410、存储器1490和显示器1420分别对应于图13的处理器120、存储器130和显示器140。因此,这里不再重复参考图13进行的相同描述。
根据本公开实施例的调谐器1440可以通过以有线或无线方式接收的广播信号的放大、混频、谐振等,从多个频率分量中仅调谐和选择要由显示设备1400接收的频道的频率。广播信号可以包括音频、视频和附加信息(例如,EPG)。
调谐器1440可以从诸如地面广播站、有线广播站、卫星广播站和互联网广播站的各种源接收广播信号。调谐器1440还可以从诸如模拟广播站或数字广播站的源接收广播信号。
传感器1430感测用户的语音、用户的图像或用户的交互,并且可以包括麦克风1431、相机1432和光接收器1433。
麦克风1431接收用户发出的语音。麦克风1431可以将接收到的语音转换为电信号并将电信号输出到处理器1410。用户的语音可以包括例如与显示设备1400的菜单或功能对应的语音。
相机1432可以接收与包括相机识别范围内的姿势的用户运动相对应的视频(例如,连续帧)。处理器1410可以通过使用接收到的运动的识别结果来选择显示在显示设备1400上的菜单或者执行与运动识别结果相对应的控制。
光接收器1433通过显示器1420的边框的光学窗口(未示出)等接收从外部控制设备接收的光信号(包括控制信号)。光接收器1433可以从控制设备接收与用户输入(例如,触摸、按压、触摸手势、语音或运动)相对应的光信号。可以在处理器1410的控制下从接收的光信号中提取控制信号。
处理器1410控制显示设备1400的一般操作和显示设备1400的内部组件之间的信号流,并执行数据处理功能。当接收到用户输入时或者当满足先前设置和存储的条件时,处理器1410可以执行存储在存储器1490中的操作系统(OS)和各种应用。
处理器1410可以包括存储从显示设备1400的外部输入的信号或数据或用作与要由显示设备1400执行的各种任务相对应的存储区域的随机接入设备(RAM)、存储用于控制显示设备1400的控制程序的只读存储器(ROM)和处理器。
视频处理器1480处理由显示设备1400接收的视频数据。视频处理器1480可对视频数据执行各种图像处理,诸如解码、缩放、噪声去除、帧速率转换和分辨率转换。
音频处理器1485处理音频数据。音频处理器1485可以对音频数据执行各种处理,诸如解码、放大和噪声去除。音频处理器1485可以包括多个音频处理模块,以处理与多条内容相对应的音频。
音频输出接口1460在处理器1410的控制下输出包括在通过调谐器1440接收的广播信号中的音频。音频输出接口1460可以输出通过通信接口1450或输入/输出接口1470输入的音频(例如,语音或声音)。另外,音频输出接口1460可以在处理器1410的控制下输出存储在存储器1490中的音频。音频输出接口1460可以包括扬声器、耳机输出端或索尼/飞利浦数字接口(S/PDIF)输出端中的至少一个。
在处理器1410的控制下,电源1495将从外部电源输入的电力提供给显示设备1400的内部组件。替换地,电源1495可以在处理器1410的控制下将从位于显示设备1400内部的一个或多个电池(未示出)输出的电力提供给内部组件。
存储器1490可以在处理器1410的控制下存储用于驱动和控制显示设备1400的各种数据、程序或应用。存储器1490可以包括未示出的广播接收模块、信道控制模块、音量控制模块、通信控制模块、语音识别模块、运动识别模块、光接收模块、显示控制模块、音频控制模块、外部输入控制模块、电力控制模块、用于控制以无线方式(例如,蓝牙)连接的外部设备的电力的模块、语音数据库(DB)或运动DB。存储器1490的未示出的模块和DB可以以软件形式实现,以在显示设备1400中执行广播接收控制功能、频道控制功能、音量控制功能、通信控制功能、语音识别功能、运动识别功能、光接收控制功能、显示控制功能、音频控制功能、外部输入控制功能、电力控制功能或控制以无线方式(例如,蓝牙)连接的外部设备的电力的功能。处理器1410可以通过使用存储在存储器1490中的软件来执行每个功能。
图13和图14所示的显示设备100和1400的框图仅是说明性的。可以根据实际实现的电子设备100和1400的规范来集成、添加或省略框图的每个组件。也就是说,根据情况,可以将两个或更多个组件集成到一个组件中,或者可以将一个组件分成两个或更多个组件。另外,由每个框执行的功能是为了描述实施例,并且其特定操作或设备不限制本公开的正确范围。
根据本公开的实施例,操作显示设备的方法可以以可由各种计算机装置执行并记录在非暂时性计算机可读记录介质上的程序命令的形式实现。非暂时性计算机可读记录介质可以包括单独或组合采用的程序命令、数据文件、数据结构等。记录在非暂时性计算机可读记录介质上的程序命令可以是为本公开专门设计和构造的,或者可以是计算机软件领域的普通技术人员已知的和可用的。非暂时性计算机可读记录介质的示例包括磁介质(例如硬盘、软盘或磁带)、光学介质(例如光盘只读存储器(CD-ROM)或数字通用光盘(DVD))、磁光介质(例如光磁软盘)以及专门配置为存储和执行程序命令的硬件设备(例如ROM、RAM或闪存)。程序命令的示例包括可以由计算机使用解释器执行的高级语言代码以及由编译器生成的机器语言代码。
此外,根据实施例的操作电子设备的方法可以通过被包括在计算机程序产品中来提供。计算机程序产品可以在卖方和买方之间交易。
计算机程序产品可以包括软件(S/W)程序和存储S/W程序的非暂时性计算机可读存储介质。例如,计算机程序产品可以包括通过电子设备的制造公司或电子市场(例如,Google PlayStore或App Store)电子分发的S/W程序形式的产品(例如,可下载的应用)。对于电子分发,S/W程序的至少一部分可以存储在存储介质中或临时生成。在这种情况下,存储介质可以包括在制造公司的服务器、电子市场的服务器或被配置为临时存储S/W程序的中继服务器中。
计算机程序产品可以包括在包括服务器和客户端设备的系统中的服务器的存储介质或客户端设备的存储介质。替换地,当存在通过通信连接到服务器或客户端设备的第三设备(例如,智能电话)时,计算机程序产品可以包括第三设备的存储介质。替换地,计算机程序产品可以包括S/W程序,该S/W程序将从服务器发送到客户端设备或第三设备,或者从第三设备发送到客户端设备。
在这种情况下,服务器、客户端设备和第三设备中的一个可以执行计算机程序产品并执行根据实施例的方法。替换地,服务器、客户端设备和第三设备中的两个或更多个可以执行计算机程序产品并以分布式方式执行根据实施例的方法。
例如,服务器(例如,云服务器或人工智能服务器)可以执行存储在服务器中的计算机程序产品,以控制通过通信连接到服务器的客户端设备,其中客户端设备执行根据所公开的实施例的方法。
虽然已经详细描述了实施例,但是本公开的正确范围不限于此,并且使用权利要求中限定的本公开的基本概念的本领域普通技术人员的各种修改和改进形式也属于本公开的正确范围。

Claims (15)

1.一种显示设备,包括:
显示器;
存储一个或多个指令的存储器;以及
处理器,其被配置为执行存储于所述存储器中的一个或多个指令以:
提取对应于第一图像的第一特征信息、对应于包括在所述第一图像中的多个区域中的每一个的第二特征信息、以及对应于包括在所述第一图像中的多个对象区域中的每一个的第三特征信息,
获得与所述第一图像对应的第一对比度增强曲线,所述第一对比度增强曲线是通过将所述第一特征信息应用于设置有第一参数信息的曲线生成网络而生成的,
获得与所述多个区域中的每个区域相对应的第二对比度增强曲线,所述第二对比度增强曲线是通过将所述第二特征信息应用于设置有第二参数信息的曲线生成网络而生成的,
获得与所述多个对象区域中的每个区域相对应的第三对比度增强曲线,所述第三对比度增强曲线是通过将所述第三特征信息应用于设置有第三参数信息的曲线生成网络而生成的,
通过将所述第一对比度增强曲线、所述第二对比度增强曲线和所述第三对比度增强曲线应用于所述第一图像来生成第二图像,以及
控制所述显示器显示所述第二图像。
2.根据权利要求1所述的显示设备,其中,所述处理器还被配置为从所述第一图像中提取一个或多个对象,并且通过基于所提取的一个或多个对象将所述第一图像划分为所述多个对象区域来获得包括在所述第一图像中的多个对象区域。
3.根据权利要求1所述的显示设备,其中,基于包括所述第一图像中的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个来确定所述第一特征信息、所述第二特征信息和所述第三特征信息。
4.根据权利要求1所述的显示设备,其中,通过基于根据所述显示器的显示特性使用对比度增强算法获得的训练数据训练所述曲线生成网络来确定所述第一参数信息、所述第二参数信息和所述第三参数信息。
5.根据权利要求4所述的显示设备,其中,所述训练数据包括从多个训练图像中提取的特征信息,以及通过将所述对比度增强算法应用于所述多个训练图像而获得的对比度增强曲线信息。
6.根据权利要求1所述的显示设备,其中,所述处理器通过将所述第一对比度增强曲线、所述第二对比度增强曲线和所述第三对比度增强曲线顺序地应用于所述第一图像来生成所述第二图像。
7.根据权利要求1所述的显示设备,其中,所述处理器还被配置为:
基于所述第一对比度增强曲线、所述第二对比度增强曲线和所述第三对比度增强曲线获得第四对比度增强曲线,
其中,通过将所述第四对比度增强曲线应用于所述第一图像来生成所述第二图像。
8.根据权利要求7所述的显示设备,其中,所述处理器通过使用加权平均方法合成所述第一对比度增强曲线、所述第二对比度增强曲线和所述第三对比度增强曲线来生成所述第四对比度增强曲线。
9.根据权利要求7所述的显示设备,其中,所述处理器还被配置为针对所述多个区域中的每个区域生成所述第四对比度增强曲线,
通过内插对应于所述多个区域中的第一区域的第四对比度增强曲线和对应于与所述第一区域相邻的第二区域的第四对比度增强曲线来生成第五对比度增强曲线,以及
通过将所述第五对比度增强曲线应用于所述第一区域和所述第二区域之间的边界中的像素来生成所述第二图像。
10.一种显示设备的操作方法,所述操作方法包括:
接收第一图像;
提取对应于所述第一图像的第一特征信息、对应于包括在所述第一图像中的多个区域中的每一个的第二特征信息、以及对应于包括在所述第一图像中的多个对象区域中的每一个的第三特征信息;
获得对应于所述第一图像的第一对比度增强曲线,所述第一对比度增强曲线是通过将所述第一特征信息应用于其中设置有第一参数信息的曲线生成网络而生成的;
获得与所述多个区域中的每个区域相对应的第二对比度增强曲线,所述第二对比度增强曲线是通过将所述第二特征信息应用于其中设置有第二参数信息的曲线生成网络而生成的;
获得与所述多个对象区域中的每个区域相对应的第三对比度增强曲线,所述第三对比度增强曲线是通过将所述第三特征信息应用于设置有第三参数信息的曲线生成网络而生成的;
通过将所述第一对比度增强曲线、所述第二对比度增强曲线和所述第三对比度增强曲线应用于所述第一图像来生成第二图像;以及
显示所述第二图像。
11.根据权利要求10所述的操作方法,还包括:
从所述第一图像提取一个或多个对象,以及
通过基于所提取的一个或多个对象将所述第一图像划分为所述多个对象区域来获得包括在所述第一图像中的多个对象区域。
12.根据权利要求10所述的操作方法,其中,提取所述第一特征信息、所述第二特征信息和所述第三特征信息包括:基于包括在所述第一图像中的像素的亮度信息、RGB信息、频率信息或噪声信息中的至少一个来确定所述第一特征信息、所述第二特征信息和所述第三特征信息。
13.根据权利要求10所述的操作方法,其中,通过基于根据所述显示器的显示特性使用对比度增强算法获得的训练数据训练所述曲线生成网络来确定所述第一特征信息、所述第二特征信息和所述第三特征信息。
14.根据权利要求13所述的操作方法,其中,所述训练数据包括从多个训练图像中提取的特征信息,以及通过将所述对比度增强算法应用于所述多个训练图像而获得的对比度增强曲线信息。
15.一种非暂时性计算机可读记录介质,其中存储有用于执行根据权利要求10所述的操作方法的程序。
CN202280048337.2A 2021-08-31 2022-04-22 显示设备及其操作方法 Pending CN117642768A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2021-0115803 2021-08-31
KR1020210115803A KR20230032704A (ko) 2021-08-31 2021-08-31 디스플레이 장치 및 그 동작방법
PCT/KR2022/005757 WO2023033295A1 (ko) 2021-08-31 2022-04-22 디스플레이 장치 및 그 동작방법

Publications (1)

Publication Number Publication Date
CN117642768A true CN117642768A (zh) 2024-03-01

Family

ID=85288043

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280048337.2A Pending CN117642768A (zh) 2021-08-31 2022-04-22 显示设备及其操作方法

Country Status (2)

Country Link
EP (1) EP4307089A1 (zh)
CN (1) CN117642768A (zh)

Also Published As

Publication number Publication date
EP4307089A1 (en) 2024-01-17
US20230066869A1 (en) 2023-03-02

Similar Documents

Publication Publication Date Title
CN113016189B (zh) 识别音频场景的电子设备和方法
US20200160494A1 (en) Image processing apparatus and method of operating the same
US10810462B2 (en) Object detection with adaptive channel features
EP3471018B1 (en) Method and apparatus for evaluating illumination condition in face image
US11514107B2 (en) Image display apparatus and operation method of the same
US11205391B2 (en) Image and audio processing apparatus and operating method of the same
US11699289B2 (en) Display device for generating multimedia content, and operation method of the display device
US20230281956A1 (en) Method for generating objective function, apparatus, electronic device and computer readable medium
CN113923378A (zh) 视频处理方法、装置、设备及存储介质
KR102623148B1 (ko) 전자 장치 및 전자 장치의 제어 방법
CN113475091B (zh) 显示设备及其图像显示方法
CN112348910A (zh) 获取图像的方法、装置、设备和计算机可读介质
WO2023138441A1 (zh) 视频生成方法、装置、设备及存储介质
US11996024B2 (en) Display device and operating method thereof
EP4307089A1 (en) Display device and operation method thereof
CN113905177B (zh) 视频生成方法、装置、设备及存储介质
US11373280B2 (en) Electronic device and method of training a learning model for contrast ratio of an image
KR20230032704A (ko) 디스플레이 장치 및 그 동작방법
US20220245767A1 (en) Image processing apparatus and operation method thereof
EP4318378A1 (en) Display device and operation method thereof
EP4362453A1 (en) Display device and operation method thereof
KR20230050127A (ko) 디스플레이 장치 및 그 동작방법
KR20220108610A (ko) 영상 처리 장치 및 그 동작방법
KR20230059029A (ko) 전자 장치 및 그 동작 방법
KR20230143066A (ko) 디스플레이 장치 및 그 동작 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication