CN117593236A - 图像的显示方法、装置和终端设备 - Google Patents
图像的显示方法、装置和终端设备 Download PDFInfo
- Publication number
- CN117593236A CN117593236A CN202210794124.6A CN202210794124A CN117593236A CN 117593236 A CN117593236 A CN 117593236A CN 202210794124 A CN202210794124 A CN 202210794124A CN 117593236 A CN117593236 A CN 117593236A
- Authority
- CN
- China
- Prior art keywords
- image
- information
- tone mapping
- original image
- metadata
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000013507 mapping Methods 0.000 claims abstract description 186
- 238000012545 processing Methods 0.000 claims abstract description 110
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 230000009467 reduction Effects 0.000 claims description 25
- 238000001914 filtration Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 13
- 230000006835 compression Effects 0.000 claims description 10
- 238000007906 compression Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 abstract description 32
- 238000004891 communication Methods 0.000 description 36
- 230000006854 communication Effects 0.000 description 36
- 230000006870 function Effects 0.000 description 35
- 238000004422 calculation algorithm Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 17
- 238000007726 management method Methods 0.000 description 15
- 230000005236 sound signal Effects 0.000 description 13
- 238000010295 mobile communication Methods 0.000 description 12
- 210000000988 bone and bone Anatomy 0.000 description 9
- 230000004927 fusion Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000001795 light effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002138 osteoinductive effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/68—Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/67—Circuits for processing colour signals for matrixing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
本申请实施例提供一种图像的显示方法、装置和终端设备,上述方法中,获取原始图像,进行RAW域处理,获得YUV图像,然后进行分流处理,获得图像流和检测流,从检测流的YUV图像中获取Y分量的图像,对Y分量的图像进行检测,获取人脸框信息和场景信息,进而生成局部色调映射曲线和对应的对比度增强的强度信息,有效提升了录制端视频源的亮度对比度效果;然后,根据局部色调映射曲线和对比度增强的强度信息,对图像流中的YUV图像进行色调映射处理,获得待处理图像,最后根据元数据的全局色调映射曲线信息和局部色调映射曲线信息,进行显示或编码,从而可以实现与显示端的联动,达到较优的端到端录制显示效果。
Description
技术领域
本申请实施例涉及智能终端技术领域,特别涉及一种图像的显示方法、装置和终端设备。
背景技术
随着媒体技术的发展,用户对于更高质量的视频有着更多需求,包括更高分辨率、更高帧率、更高比特位宽、更广色域空间和/或更高动态范围这些维度都被提上日程。当前视频类应用的研究方向一般包括视频插帧、视频超分和/或高动态视频等。图1为现有相关技术中高动态范围效果的对比示意图,如图1所示,高动态范围的优势点在于更高比特位宽、更高动态范围和/或更广色域空间。现在已经有很多高动态视频标准,比如混合对数伽码(hybrid log-gamma,HLG)、高动态范围10(high dynamic range 10,HDR10)、HDR10+以及杜比视界(dolby vision)公司推出的私有HDR。中国超高清视频产业联盟也推出了HDRvivid视频标准,旨在呈现丰富色彩及层次,提高敏感对比,增强纵深感及细节,画面更趋于真实世界的HDR画质。
但是,现有的HDR视频标准均只定义了显示端的适配,对于录制端的方案并没有进行设计。
发明内容
本申请实施例提供了一种图像的显示方法、装置和终端设备,本申请实施例还提供一种计算机可读存储介质,以实现提升录制端视频源的亮度对比度效果,并且与显示端进行端到端的适配,达到最优的端到端录制显示效果。
第一方面,本申请实施例提供了一种图像的显示方法,包括:获取摄像头采集的当前拍摄场景的原始图像;对所述原始图像进行RAW域处理,获得YUV图像;对所述YUV图像进行分流处理,获得图像流和检测流;从所述检测流的YUV图像中获取Y分量的图像;对所述Y分量的图像进行检测,获取人脸框信息和场景信息;根据所述Y分量的图像、所述人脸框信息和场景信息生成局部色调映射曲线和对应的对比度增强的强度信息;对所述图像流中的YUV图像进行降噪和颜色处理,以及根据所述局部色调映射曲线和所述对比度增强的强度信息,对进行降噪和颜色处理后的YUV图像进行色调映射处理,获得待处理图像;获取元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息;根据所述元数据的全局色调映射曲线信息和所述元数据的局部色调映射曲线信息,对所述待处理图像进行显示或编码。
上述图像的显示方法中,获取摄像头采集的当前拍摄场景的原始图像,对上述原始图像进行RAW域处理,获得YUV图像,然后对上述YUV图像进行分流处理,获得图像流和检测流,从上述检测流的YUV图像中获取Y分量的图像,对上述Y分量的图像进行检测,获取人脸框信息和场景信息,进而根据上述Y分量的图像、上述人脸框信息和场景信息生成局部色调映射曲线和对应的对比度增强的强度信息,有效提升了录制端视频源的亮度对比度效果;然后,对上述图像流中的YUV图像进行降噪和颜色处理,以及根据上述局部色调映射曲线和上述对比度增强的强度信息,对进行降噪和颜色处理后的YUV图像进行色调映射处理,获得待处理图像,最后获取元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息,根据上述元数据的全局色调映射曲线信息和上述元数据的局部色调映射曲线信息,对上述待处理图像进行显示或编码,从而可以实现利用元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息,达到与显示端的联动,可以达到较优的端到端录制显示效果。
其中一种可能的实现方式中,所述对所述原始图像进行RAW域处理,获得YUV图像之前,还包括:对所述摄像头采集的原始图像进行3A统计,获得所述原始图像的3A统计信息;根据所述3A统计信息确定当前拍摄场景的动态范围和环境亮度;根据所述动态范围和所述环境亮度确定当前拍摄场景为高动态场景之后,指示所述摄像头按照交叠出图的方式输出原始图像;获取所述摄像头按照交叠出图的方式输出的至少两帧原始图像;对所述至少两帧原始图像进行融合,获得高动态单帧原始图像;对所述高动态单帧原始图像进行直方图统计,获得直方图统计信息;根据所述直方图统计信息,对所述高动态单帧原始图像进行比特位宽压缩,获得压缩后的原始图像;所述对所述原始图像进行RAW域处理,获得YUV图像包括:对所述压缩后的原始图像进行RAW域处理,获得YUV图像。
其中一种可能的实现方式中,所述获取元数据的全局色调映射曲线信息包括:对所述待处理图像进行全局直方图统计,获得全局直方图信息;根据所述全局直方图信息对像素的分布信息进行统计,获得元数据的统计信息;根据所述元数据的统计信息,计算全局色调映射基础曲线;根据场景切换信息,对所述全局色调映射基础曲线进行滤波参数的控制;其中,所述场景切换信息包括对所述Y分量的图像进行检测而获取的场景信息,以及对所述Y分量的图像进行计算获得的场景信息;利用滤波后的全局色调映射基础曲线,生成元数据的全局色调映射曲线信息。
其中一种可能的实现方式中,所述获取元数据的局部色调映射曲线信息包括:对所述Y分量的图像进行网格划分;获取每个网格内的图像的局部统计直方图;利用所述滤波后的全局色调映射基础曲线,对所述局部统计直方图进行更新;根据更新后的局部统计直方图生成每个网格内的图像的局部色调映射曲线;根据所述场景切换信息和所述网格的空间相邻信息,对所述局部色调映射曲线进行时域和空域的滤波,生成元数据的局部色调映射曲线信息。
其中一种可能的实现方式中,所述根据所述3A统计信息确定当前拍摄场景的动态范围和环境亮度之后,还包括:根据所述动态范围和所述环境亮度确定当前拍摄场景为非高动态场景之后,指示所述摄像头按照单帧出图的方式输出原始图像,获得单帧原始图像;对所述单帧原始图像进行直方图统计,获得所述单帧原始图像的直方图信息,根据所述单帧原始图像的直方图信息,生成全局色调映射曲线;对所述单帧原始图像进行RAW域处理,获得单帧YUV图像;根据所述全局色调映射曲线,对所述单帧YUV图像进行色调映射处理,获得待处理图像。
第二方面,本申请实施例提供一种图像的显示装置,该装置包含在终端设备中,该装置具有实现第一方面及第一方面的可能实现方式中终端设备行为的功能。功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块或单元。例如,获取模块、RAW域处理模块、分流模块、检测模块、生成模块、降噪处理模块、色调映射模块和显示编码模块等。
第三方面,本申请实施例提供一种终端设备,包括:一个或多个处理器;存储器;多个应用程序;以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述终端设备执行时,使得所述终端设备执行以下步骤:获取摄像头采集的当前拍摄场景的原始图像;对所述原始图像进行RAW域处理,获得YUV图像;对所述YUV图像进行分流处理,获得图像流和检测流;从所述检测流的YUV图像中获取Y分量的图像;对所述Y分量的图像进行检测,获取人脸框信息和场景信息;根据所述Y分量的图像、所述人脸框信息和场景信息生成局部色调映射曲线和对应的对比度增强的强度信息;对所述图像流中的YUV图像进行降噪和颜色处理,以及根据所述局部色调映射曲线和所述对比度增强的强度信息,对进行降噪和颜色处理后的YUV图像进行色调映射处理,获得待处理图像;获取元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息;根据所述元数据的全局色调映射曲线信息和所述元数据的局部色调映射曲线信息,对所述待处理图像进行显示或编码。
其中一种可能的实现方式中,当所述指令被所述终端设备执行时,使得所述终端设备执行所述对所述原始图像进行RAW域处理,获得YUV图像的步骤之前,还执行以下步骤:对所述摄像头采集的原始图像进行3A统计,获得所述原始图像的3A统计信息;根据所述3A统计信息确定当前拍摄场景的动态范围和环境亮度;根据所述动态范围和所述环境亮度确定当前拍摄场景为高动态场景之后,指示所述摄像头按照交叠出图的方式输出原始图像;获取所述摄像头按照交叠出图的方式输出的至少两帧原始图像;对所述至少两帧原始图像进行融合,获得高动态单帧原始图像;对所述高动态单帧原始图像进行直方图统计,获得直方图统计信息;根据所述直方图统计信息,对所述高动态单帧原始图像进行比特位宽压缩,获得压缩后的原始图像;当所述指令被所述终端设备执行时,使得所述终端设备执行所述对所述原始图像进行RAW域处理,获得YUV图像的步骤包括:对所述压缩后的原始图像进行RAW域处理,获得YUV图像。
其中一种可能的实现方式中,当所述指令被所述终端设备执行时,使得所述终端设备执行所述获取元数据的全局色调映射曲线信息的步骤包括:对所述待处理图像进行全局直方图统计,获得全局直方图信息;根据所述全局直方图信息对像素的分布信息进行统计,获得元数据的统计信息;根据所述元数据的统计信息,计算全局色调映射基础曲线;根据场景切换信息,对所述全局色调映射基础曲线进行滤波参数的控制;其中,所述场景切换信息包括对所述Y分量的图像进行检测而获取的场景信息,以及对所述Y分量的图像进行计算获得的场景信息;利用滤波后的全局色调映射基础曲线,生成元数据的全局色调映射曲线信息。
其中一种可能的实现方式中,当所述指令被所述终端设备执行时,使得所述终端设备执行所述获取元数据的局部色调映射曲线信息的步骤包括:对所述Y分量的图像进行网格划分;获取每个网格内的图像的局部统计直方图;利用所述滤波后的全局色调映射基础曲线,对所述局部统计直方图进行更新;根据更新后的局部统计直方图生成每个网格内的图像的局部色调映射曲线;根据所述场景切换信息和所述网格的空间相邻信息,对所述局部色调映射曲线进行时域和空域的滤波,生成元数据的局部色调映射曲线信息。
其中一种可能的实现方式中,当所述指令被所述终端设备执行时,使得所述终端设备执行所述根据所述3A统计信息确定当前拍摄场景的动态范围和环境亮度的步骤之后,还执行以下步骤:根据所述动态范围和所述环境亮度确定当前拍摄场景为非高动态场景之后,指示所述摄像头按照单帧出图的方式输出原始图像,获得单帧原始图像;对所述单帧原始图像进行直方图统计,获得所述单帧原始图像的直方图信息,根据所述单帧原始图像的直方图信息,生成全局色调映射曲线;对所述单帧原始图像进行RAW域处理,获得单帧YUV图像;根据所述全局色调映射曲线,对所述单帧YUV图像进行色调映射处理,获得待处理图像。
应当理解的是,本申请实施例的第三方面与本申请实施例的第一方面的技术方案一致,各方面及对应的可行实施方式所取得的有益效果相似,不再赘述。
第四方面,本申请实施例提供一种计算机可读存储介质,上述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行第一方面提供的方法。
第五方面,本申请实施例提供一种计算机程序,当上述计算机程序被计算机执行时,用于执行第一方面提供的方法。
在一种可能的设计中,第五方面中的程序可以全部或者部分存储在与处理器封装在一起的存储介质上,也可以部分或者全部存储在不与处理器封装在一起的存储器上。
附图说明
图1为现有相关技术中高动态范围效果的对比示意图;
图2为现有相关技术中提供的多种DOL出帧方式的示意图;
图3为现有相关技术提供的一种HDR编解码流程;
图4为本申请一个实施例提供的终端设备的结构示意图;
图5为本申请一个实施例提供的图像的显示方法的框架示意图;
图6为本申请一个实施例提供的图像的显示方法的流程图;
图7(a)为本申请一个实施例提供的录制端IPE和元数据生成模块的框架示意图;
图7(b)为本申请一个实施例提供的获得待处理图像的算法流程图;
图8为本申请另一个实施例提供的图像的显示方法的流程图;
图9为本申请一个实施例提供的高动态场景下针对HDR vivid的IFE处理流程;
图10为本申请再一个实施例提供的图像的显示方法的流程图;
图11为本申请再一个实施例提供的图像的显示方法的流程图;
图12为本申请一个实施例提供的非高动态场景下RAW域的处理流程图;
图13为本申请另一个实施例提供的终端设备的结构示意图;
图14为本申请再一个实施例提供的终端设备的结构示意图。
具体实施方式
本申请的实施方式部分使用的术语仅用于对本申请的具体实施例进行解释,而非旨在限定本申请。
现有相关技术提供的一种HDR方案中,使用交织高动态范围(stagger highdynamic range,sHDR)的高动态多帧融合方案提升动态范围作为录制端能力,再加上dolbyvision提供的HDR播放能力达到端到端的HDR效果。
在HDR多帧融合针对视频可使用的方案,并且在手机产品中使用了交叠出图(DOL)的出帧方式,整体形成了sHDR的视频HDR录制方案。具体的DOL的出帧方式如图2所示,图2为现有相关技术中提供的多种DOL出帧方式的示意图。目前器件一般支持这3种DOL的出帧方式,具体的DOL出帧方式为长短帧交叠曝光的出帧方式。其中,无交叠的交叠出图(NDOL)的交叠允许范围为同一时序帧中长中短三帧之间相邻帧的读取数据时间无允许交叠;传统DOL(traditional DOL)的交叠允许范围为前后不同时序帧之间不允许读取数据时间有交叠;全交叠的交叠出图(full overlap DOL)的交叠允许范围为前后相邻时序中第一个出帧的视频帧对应的读取数据时间不可以有交叠。即sHDR是利用器件出图时允许对于同一时序可以交叠出图,但是不同的配置下交叠的程度有所差异。利用交叠出图得到不同曝光的视频帧数据送给算法进行长短帧融合。采用的融合算法策略主要包括,采用长短帧之间进行配准与鬼影检测,确定融合权重得到融合后的结果。利用上述方案实现录制端HDR效果。
其编解码与显示端利用杜比的HDR标准实现端到端的HDR录制与显示效果。通过前端整体通路设置为10比特与2020色域空间,同时使用混合对数伽码(hybrid log gamma,HLG)的伽玛(gamma)曲线,送入杜比支持的显示端HDR效果,达到端到端的HDR能力。其中,杜比的一种实现HDR显示的方式如图3所示,图3为现有相关技术提供的一种HDR编解码流程。
但是,上述HDR方案没有考虑在图像信号处理器(image signal processor,ISP)系统中对比度与光影效果的录制方案;上述方案符合杜比的标准,在元数据(metadata)中虽然使用了动态metadata,但是所使用的metadata仅包含了全局metadata,并未包含局部metadata,无法保证局部光影效果与对比度。
现有相关技术提供的另一种HDR方案是HDR10标准,HDR10标准是2015年由消费者技术协会(consumer technology association,CTA)提出的开放标准,其主要设计了端到端的HDR标准,变换曲线定义为ST 2084曲线,色域空间保持BT.2020,比特位宽为10比特。对应的端到端的方案比较简单,相应的metadata仅支持静态metadata。
该方案仅使用了静态metadata,无法保障每一帧视频的效果达到最优的适配显示设备的目标。
现有相关技术提供的另一种HDR方案是HLG标准,HLG标准的出发点是针对实时电视业务,直接使用HLG曲线,端到端使用10比特位宽,无metadata信息。其主要特点在于兼容标准动态范围(standard dynamic range,SDR)显示设备。
但是这种方案无metadata信息,无法根据显示端能力进行效果适配,并且没有考虑录制端的相关能力提升。
基于以上问题,本申请实施例提供一种图像的显示方法,该方法提供一种针对HDRvivid视频标准的录制端算法方案,有效提升了录制端视频源的亮度对比度效果,并且与显示端进行端到端的适配,可以达到较优的端到端录制显示效果。
本申请实施例提供的图像的显示方法可以应用于终端设备,其中,上述终端设备可以为智能手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobilepersonal computer,UMPC)、上网本或个人数字助理(personal digital assistant,PDA)等设备;本申请实施例对终端设备的具体类型不作任何限制。
示例性的,图4为本申请一个实施例提供的终端设备的结构示意图,如图4所示,终端设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对终端设备100的具体限定。在本申请另一些实施例中,终端设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,DCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现终端设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现终端设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现终端设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为终端设备100充电,也可以用于终端设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对终端设备100的结构限定。在本申请另一些实施例中,终端设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过终端设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为终端设备100供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
终端设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。终端设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在终端设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在终端设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,终端设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得终端设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
终端设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,终端设备100可以包括1个或N个显示屏194,N为大于1的正整数。
终端设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,终端设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当终端设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。终端设备100可以支持一种或多种视频编解码器。这样,终端设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现终端设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展终端设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储终端设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行终端设备100的各种功能应用以及数据处理。
终端设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。终端设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当终端设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。终端设备100可以设置至少一个麦克风170C。在另一些实施例中,终端设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,终端设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。终端设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,终端设备100根据压力传感器180A检测所述触摸操作强度。终端设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定终端设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定终端设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测终端设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消终端设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,终端设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。终端设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当终端设备100是翻盖机时,终端设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测终端设备100在各个方向上(一般为三轴)加速度的大小。当终端设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。终端设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,终端设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。终端设备100通过发光二极管向外发射红外光。终端设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定终端设备100附近有物体。当检测到不充分的反射光时,终端设备100可以确定终端设备100附近没有物体。终端设备100可以利用接近光传感器180G检测用户手持终端设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。终端设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测终端设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。终端设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,终端设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,终端设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,终端设备100对电池142加热,以避免低温导致终端设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,终端设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于终端设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。终端设备100可以接收按键输入,产生与终端设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和终端设备100的接触和分离。终端设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。终端设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,终端设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在终端设备100中,不能和终端设备100分离。
为了便于理解,本申请以下实施例将以具有图4所示结构的终端设备为例,结合附图和应用场景,对本申请实施例提供的图像的显示方法进行具体阐述。
图5为本申请一个实施例提供的图像的显示方法的框架示意图,图5示出了光学器件出图模块,出图后区分高动态和非高动态分别进行不同的预处理模块,ISP内部前端处理模块(IFE),ISP内部处理模块(IPE),metadata生成模块分别将生成的元数据送给预览流和录制流,预览流直接通过grapic层与显示端交互,录制流直接通过编解码器与显示端交互。显示端获得元数据后,利用元数据中的全局色调映射(global tone mapping,GTM)和局部色调映射信息以及实际显示屏的亮度进行亮度拟合获得对应屏幕亮度下的色调映射曲线,从而达到端到端的匹配显示效果。
图6为本申请一个实施例提供的图像的显示方法的流程图,如图6所示,上述图像的显示方法可以包括:
步骤601,获取摄像头采集的当前拍摄场景的原始图像。
具体地,摄像头采集的当前拍摄场景的原始图像可以为图5中传感器(sensor)出图模块51输出的图像。
步骤602,对上述原始图像进行RAW域处理,获得YUV图像。
步骤603,对上述YUV图像进行分流处理,获得图像流和检测流。
具体地,可以在图5所示的IFE模块52中对上述YUV图像进行分流处理,获得图像流和检测流;其中,图像流可以包括预览流和录制流,检测流用于进行各种模式识别类检测算法。
步骤604,从上述检测流的YUV图像中获取Y分量的图像。
具体地,参见图7(a),图7(a)为本申请一个实施例提供的录制端IPE和元数据生成模块的框架示意图,图7(a)以录制流为例进行说明。如图7(a)所示,YUV图像在IFE经过分流处理,被分成了3路流,分别为检测流、预览流和录制流。从检测流的YUV图像中获取的Y分量的图像输入局部色调映射(local tone mapping,LTM)新算法模块71。
此处的Y分量的图像的分辨率可以根据实际应用进行参数控制。
步骤605,对上述Y分量的图像进行检测,获取人脸框信息和场景信息。
继续参见图7(a),将从检测流的YUV图像中获取的Y分量的图像输入感知引擎72,利用感知引擎72中的检测类算法获取人脸框信息和场景信息等信息,然后将上述人脸框信息和场景信息等信息输入LTM新算法模块71。
步骤606,根据上述Y分量的图像、上述人脸框信息和场景信息生成局部色调映射曲线和对应的对比度增强的强度信息。
具体地,LTM新算法模块71根据上述Y分量的图像、上述人脸框信息和场景信息,利用AI算法与传统算法相结合的方式生成局部色调映射曲线和对应的对比度增强的强度信息。然后,将生成的局部色调映射曲线和对应的对比度增强的强度信息送入IPE内的LTM硬件模块73,直接利用LTM硬件模块73实现局部色调映射。
步骤607,对上述图像流中的YUV图像进行降噪和颜色处理,以及根据上述局部色调映射曲线和上述对比度增强的强度信息,对进行降噪和颜色处理后的YUV图像进行色调映射处理,获得待处理图像。
具体地,参见图7(a),在IPE中,对上述图像流中的YUV图像进行降噪和颜色处理,并根据上述局部色调映射曲线和上述对比度增强的强度信息,对上述图像流中的YUV图像进行色调映射处理,获得待处理图像。然后,上述待处理图像被送入元数据生成模块74。
下面对获得待处理图像的算法流程进行详细说明,图7(b)为本申请一个实施例提供的获得待处理图像的算法流程图。参见图7(b),在步骤604,从上述检测流的YUV图像中获取Y分量的图像之后,可以对上述Y分量的图像进行降采样(例如:1/8下采样),然后,将降采样后的Y分量的图像输入LTM新算法模块71。本实施例中,LTM新算法模块71可以采用AI网络实现,如上所述,LTM新算法模块71的输入为降采样后的Y分量的图像,输出图的标签(label)为按照调色师调节后的高动态范围高对比度的目标效果图,输出为LTM硬件模块73进行色调映射处理所需的对比度增强的强度信息,可以配置如下参数:正向缩放(lceScalePos)、反向缩放(lceScaleNeg)、局部色调映射缩放比例(ltmscale)、局部色调映射曲线(ltmcurve)和局部对比度增强阈值(lceThd)。LTM新算法模块71的损失函数可以配置为:将上述对比度增强的强度信息配置到LTM硬件模块73后实际出图的结果与label尽可能接近为目标。
本实施例中,LTM硬件模块73可以采用如下方案:利用vgrid进行滤波后得到低频图像mask,利用原始Y分量的图像与mask之间的差值作为高频部分,对高频部分进行放大,达到局部对比度增强的目标。其计算公式为:yy2={mask+(yy1-mask)*lceScalePos/lceScaleNeg}*ltmscale*ltmcurve,其中,yy1表示输入的Y分量的图像,yy2表示输出的Y分量的图像(即本步骤获得的待处理图像),mask表示低频图像,lceScalePos为yy1-mask>0的时候使用该差值乘以lceScalePos,否则乘以lceScaleNeg,然后再对该差值进一步进行动态范围的提拉,继续乘以ltmscale和ltmcurve。其中yy1-mask的差值会被裁剪(clip)到lceThd值范围内。
步骤608,获取元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息。
步骤609,根据上述元数据的全局色调映射曲线信息和上述元数据的局部色调映射曲线信息,对上述待处理图像进行显示或编码。
具体地,元数据生成模块74可以根据元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息,对上述待处理图像进行显示或编码(encoder)。
上述图像的显示方法中,获取摄像头采集的当前拍摄场景的原始图像,对上述原始图像进行RAW域处理,获得YUV图像,然后对上述YUV图像进行分流处理,获得图像流和检测流,从上述检测流的YUV图像中获取Y分量的图像,对上述Y分量的图像进行检测,获取人脸框信息和场景信息,进而根据上述Y分量的图像、上述人脸框信息和场景信息生成局部色调映射曲线和对应的对比度增强的强度信息,有效提升了录制端视频源的亮度对比度效果;然后,对上述图像流中的YUV图像进行降噪和颜色处理,以及根据上述局部色调映射曲线和上述对比度增强的强度信息,对进行降噪和颜色处理后的YUV图像进行色调映射处理,获得待处理图像,最后获取元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息,根据上述元数据的全局色调映射曲线信息和上述元数据的局部色调映射曲线信息,对上述待处理图像进行显示或编码,从而可以实现利用元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息,达到与显示端的联动,可以达到较优的端到端录制显示效果。
图8为本申请另一个实施例提供的图像的显示方法的流程图,如图8所示,本申请图6所示实施例中,步骤602之前,还可以包括:
步骤801,对上述摄像头采集的原始图像进行3A统计,获得上述原始图像的3A统计信息。
具体地,3A即自动对焦(auto focus,AF)、自动曝光(automatic exposure,AE)和自动白平衡(auto white balance,AWB)。自动曝光控制能够自动调节图像的明暗度,自动对焦控制能够自动调节图像的焦距,自动白平衡能够使画面在不同光线照射下的色差得到补偿,从而呈现较高画质的图像信息。这样,对上述摄像头采集的原始图像进行3A统计可以包括:对上述摄像头采集的原始图像进行自动曝光、自动对焦和自动白平衡。
图9为本申请一个实施例提供的高动态场景下针对HDR vivid的IFE处理流程,图9中,摄像头采集的原始图像经过浅层特征提取(shallow feature extraction,SFE)处理之后,可以在BG/Bhist模块进行3A统计。
步骤802,根据上述3A统计信息确定当前拍摄场景的动态范围和环境亮度。
步骤803,根据上述动态范围和上述环境亮度确定当前拍摄场景为高动态场景之后,指示上述摄像头按照交叠出图的方式输出原始图像。
本实施例中,上述交叠出图的方式可以为两帧长短帧交叠出图,当然上述交叠出图的方式并不仅限于此,还可以采用其他的交叠出图的方式,例如:长中短三帧交叠出图,但本实施例以两帧长短帧交叠出图为例进行说明。
步骤804,获取上述摄像头按照交叠出图的方式输出的至少两帧原始图像。
步骤805,对上述至少两帧原始图像进行融合,获得高动态单帧原始图像。
具体地,参见图9,上述至少两帧原始图像被送入HDR merge模块,在HDR merge模块对上述至少两帧原始图像进行融合,获得高动态单帧原始图像,然后,上述高动态单帧原始图像被送入图9中的Hist stats模块。
步骤806,对上述高动态单帧原始图像进行直方图统计,获得直方图统计信息。
具体地,在Hist stats模块对上述高动态单帧原始图像进行直方图统计,获得直方图统计信息。
步骤807,根据上述直方图统计信息,对上述高动态单帧原始图像进行比特位宽压缩,获得压缩后的原始图像。
具体地,图9中的HDR merge模块为了保证长短帧的动态范围均融合在输出的高动态单帧原始图像中,因此会保留较高比特位宽,比如输入的长帧和短帧分别为10比特,输出的高动态单帧原始图像的比特位宽为18比特,因此融合后的高动态单帧原始图像可以同时保留长帧的暗区细节,又可以保留短帧的高光细节。继续参见图7(a),SFE输出的高动态单帧原始图像进入图7(a)中的RAW域处理模块75之后,RAW域处理模块75可以根据上述直方图统计信息,对上述高动态单帧原始图像进行比特位宽压缩,例如将18比特压缩为10比特,并将该10比特位宽的原始图像继续走后续的ISP流程。
这样,本实施例中,步骤602可以为:
步骤808,对上述压缩后的原始图像进行RAW域处理,获得YUV图像。
另外,需要说明的是,本实施例中,步骤804之后,可以将按照交叠出图的方式输出的至少两帧原始图像输入图9中的BG/Bhist模块,进行直方图统计,获得上述至少两帧原始图像的直方图统计信息,该至少两帧原始图像的直方图统计信息可以进一步驱动下一帧的摄像头的出图方式和亮度情况配置。
本实施例通过在HDR场景下对HDR融合后的高比特位宽图设计对应的比特位宽压缩方法,达到同时保持高光和暗光区域的细节,并且实现了对亮度和对比度的调节,可以达到最优的局部亮度和对比度效果。
图10为本申请再一个实施例提供的图像的显示方法的流程图,如图10所示,本申请图6所示实施例步骤608中,获取元数据的全局色调映射曲线信息可以包括:
步骤1001,对上述待处理图像进行全局直方图统计,获得全局直方图信息。
步骤1002,根据上述全局直方图信息对像素的分布信息进行统计,获得元数据的统计信息。
步骤1003,根据上述元数据的统计信息,计算全局色调映射基础曲线。
步骤1004,根据场景切换信息,对上述全局色调映射基础曲线进行滤波参数的控制。其中,上述场景切换信息包括对上述Y分量的图像进行检测而获取的场景信息,以及对上述Y分量的图像进行计算获得的场景信息。具体实现时,参见图7(a),感知引擎72对上述Y分量的图像进行检测获取的场景信息,LTM新算法模块71对上述Y分量的图像进行计算获得的场景信息,均被送入元数据生成模块74,元数据生成模块74利用上述场景信息进行场景平滑性判断,保障场景切换时对应的元数据可以快速切换,同时场景不切换时内部计算的元数据可以平滑过渡,效果平滑。
步骤1005,利用滤波后的全局色调映射基础曲线,生成元数据的全局色调映射曲线信息。
概括来说,获取元数据的全局色调映射曲线信息的方法可以是计算三次样条曲线(该方法直接使用HDR vivid标准中定义的方式),同时根据场景切换信息对全局色调映射基础曲线进行无线脉冲响应(infinite impulse response,IIR)滤波参数的控制。最后,利用滤波后的全局色调映射基础曲线生成元数据的全局色调映射曲线信息。
如图10所示,步骤608中,获取元数据的局部色调映射曲线信息可以包括:
步骤1006,对上述Y分量的图像进行网格划分。
步骤1007,获取每个网格内的图像的局部统计直方图。
步骤1008,利用滤波后的全局色调映射基础曲线,对上述局部统计直方图进行更新。
步骤1009,根据更新后的局部统计直方图生成每个网格内的图像的局部色调映射曲线。
具体地,可以在每个小网格内部都利用滤波后的全局色调映射基础曲线进行局部直方图更新,然后对每个小网格都当成是一个全局图,分别利用生成全局色调映射基础曲线的方法为每个小网格生成对应的色调映射曲线,即局部色调映射曲线。
步骤1010,根据上述场景切换信息和上述网格的空间相邻信息,对上述局部色调映射曲线进行时域和空域的滤波,生成元数据的局部色调映射曲线信息。
本实施例中,每个小网格内的局部色调映射曲线与元数据的局部色调映射曲线信息的对应关系符合HDR vivid的GTM标准定义。
图11为本申请再一个实施例提供的图像的显示方法的流程图,如图11所示,本申请图8所示实施例中,步骤802之后,还可以包括:
步骤1101,根据上述动态范围和上述环境亮度确定当前拍摄场景为非高动态场景之后,指示摄像头按照单帧出图的方式输出原始图像,获得单帧原始图像。
步骤1102,对上述单帧原始图像进行直方图统计,获得上述单帧原始图像的直方图信息,根据上述单帧原始图像的直方图信息,生成全局色调映射曲线。
步骤1103,对上述单帧原始图像进行RAW域处理,获得单帧YUV图像。
步骤1104,根据上述全局色调映射曲线,对上述单帧YUV图像进行色调映射处理,获得待处理图像。然后,执行步骤608。
具体来说,参见图12,图12为本申请一个实施例提供的非高动态场景下RAW域的处理流程图,在根据动态范围和环境亮度确定当前拍摄场景为非高动态场景之后,不需要利用长短帧融合的机制达到更优的动态范围,直接单帧出图即可,因此可以指示摄像头按照单帧出图的方式输出原始图像,获得单帧原始图像。与图9相比,相应的流程差异主要在于RAW域的处理,此部分的具体流程如图12所示。
本实施例中,摄像头的出图方式为单帧出图,因此不需要进入HDR merge模块,而是将单帧原始图像直接送入IFE模块,因此上述单帧原始图像的位宽直接为10比特位宽,不需要进行比特位宽压缩,因此IFE模块内部的bayer_GTM和bayer_LTM模块也不需要对上述单帧原始图像执行操作,上述单帧原始图像直接进入GTM硬件模块即可,由GTM硬件模块对上述单帧原始图像进行RAW域处理,获得单帧YUV图像。另外,本实施例中,参见图12,BG/Bhist模块可以对上述单帧原始图像进行直方图统计,获得上述单帧原始图像的直方图信息,然后将上述单帧原始图像的直方图信息提供给GTM新算法模块,由GTM新算法模块计算得到全局色调映射曲线。
GTM新算法模块将该全局色调映射曲线送入GTM硬件模块,GTM硬件模块根据上述全局色调映射曲线,对上述单帧YUV图像进行色调映射处理,获得待处理图像。然后执行步骤608和步骤609。
本申请实施例提供的图像的显示方法可以保证高动态和非高动态场景下亮度、对比度的效果,并且利用全局和局部色调映射的方式保证了视频帧内全局和局部区域的点高度、对比度效果;还提供了一套端到端的录制端与显示端配合的联动HDR vivid系统方案,保障了在各种HDR亮度显示屏上都可以有最优的显示效果。
可以理解的是,上述实施例中的部分或全部步骤或操作仅是示例,本申请实施例还可以执行其它操作或者各种操作的变形。此外,各个步骤可以按照上述实施例呈现的不同的顺序来执行,并且有可能并非要执行上述实施例中的全部操作。
可以理解的是,终端设备为了实现上述功能,其包含了执行各个功能相应的硬件和/或软件模块。结合本申请所公开的实施例描述的各示例的算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以结合实施例对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本实施例可以根据上述方法实施例对终端设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个模块中。上述集成的模块可以采用硬件的形式实现。需要说明的是,本实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图13为本申请另一个实施例提供的终端设备的结构示意图,在采用对应各个功能划分各个功能模块的情况下,图13示出了上述实施例中涉及的终端设备1300的一种可能的组成示意图,如图13所示,该终端设备1300可以包括:获取模块1301、RAW域处理模块1302、分流模块1303、检测模块1304、生成模块1305、降噪处理模块1306、色调映射模块1307和显示编码模块1308;
其中,获取模块1301,用于获取摄像头采集的当前拍摄场景的原始图像;
RAW域处理模块1302,用于对上述原始图像进行RAW域处理,获得YUV图像;
分流模块1303,用于对上述YUV图像进行分流处理,获得图像流和检测流;
获取模块1301,还用于从上述检测流的YUV图像中获取Y分量的图像;
检测模块1304,用于对上述Y分量的图像进行检测,获取人脸框信息和场景信息;
生成模块1305,用于根据上述Y分量的图像、上述人脸框信息和场景信息生成局部色调映射曲线和对应的对比度增强的强度信息;
降噪处理模块1306,用于对上述图像流中的YUV图像进行降噪和颜色处理;
色调映射模块1307,用于根据上述局部色调映射曲线和上述对比度增强的强度信息,对进行降噪和颜色处理后的YUV图像进行色调映射处理,获得待处理图像;
获取模块1301,还用于获取元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息;
显示编码模块1308,用于根据上述元数据的全局色调映射曲线信息和上述元数据的局部色调映射曲线信息,对上述待处理图像进行显示或编码。
需要说明的是,本申请图6所示方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
本实施例提供的终端设备1300,用于执行本申请图6所示实施例提供的图像的显示方法,因此可以达到与上述方法相同的效果。
图14为本申请再一个实施例提供的终端设备的结构示意图,与图13所示的终端设备相比,不同之处在于,图14所示的终端设备1300还可以包括:统计模块1309、确定模块1310、指示模块1311、融合模块1312和压缩模块1313;
统计模块1309,用于在RAW域处理模块1302对上述原始图像进行RAW域处理,获得YUV图像之前,对上述摄像头采集的原始图像进行3A统计,获得上述原始图像的3A统计信息;
确定模块1310,用于根据上述3A统计信息确定当前拍摄场景的动态范围和环境亮度;
指示模块1311,用于根据上述动态范围和上述环境亮度确定当前拍摄场景为高动态场景之后,指示上述摄像头按照交叠出图的方式输出原始图像;
获取模块1301,还用于获取上述摄像头按照交叠出图的方式输出的至少两帧原始图像;
融合模块1312,用于对上述至少两帧原始图像进行融合,获得高动态单帧原始图像;
统计模块1309,还用于对上述高动态单帧原始图像进行直方图统计,获得直方图统计信息;
压缩模块1313,用于根据上述直方图统计信息,对上述高动态单帧原始图像进行比特位宽压缩,获得压缩后的原始图像;
这样,RAW域处理模块1302,具体用于对上述压缩后的原始图像进行RAW域处理,获得YUV图像。
本实施例中,获取模块1301,具体用于对上述待处理图像进行全局直方图统计,获得全局直方图信息;根据所述全局直方图信息对像素的分布信息进行统计,获得元数据的统计信息;根据所述元数据的统计信息,计算全局色调映射基础曲线;根据场景切换信息,对所述全局色调映射基础曲线进行滤波参数的控制;以及利用滤波后的全局色调映射基础曲线,生成元数据的全局色调映射曲线信息;其中,所述场景切换信息包括对所述Y分量的图像进行检测而获取的场景信息,以及对所述Y分量的图像进行计算获得的场景信息。
另外,获取模块1301,具体用于对上述Y分量的图像进行网格划分,获取每个网格内的图像的局部统计直方图;利用所述滤波后的全局色调映射基础曲线,对所述局部统计直方图进行更新;根据更新后的局部统计直方图生成每个网格内的图像的局部色调映射曲线;以及根据所述场景切换信息和所述网格的空间相邻信息,对所述局部色调映射曲线进行时域和空域的滤波,生成元数据的局部色调映射曲线信息。
进一步地,指示模块1311,还用于在确定模块1310确定当前拍摄场景的动态范围和环境亮度之后,根据上述动态范围和上述环境亮度确定当前拍摄场景为非高动态场景之后,指示摄像头按照单帧出图的方式输出原始图像,获得单帧原始图像;
统计模块1309,还用于对上述单帧原始图像进行直方图统计,获得上述单帧原始图像的直方图信息,根据上述单帧原始图像的直方图信息,生成全局色调映射曲线;
RAW域处理模块1302,还用于对上述单帧原始图像进行RAW域处理,获得单帧YUV图像;
色调映射模块1307,还用于根据上述全局色调映射曲线,对上述单帧YUV图像进行色调映射处理,获得待处理图像。
需要说明的是,本申请图6~图12所示方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
本实施例提供的终端设备1300,用于执行本申请图6~图12所示实施例提供的图像的显示方法,因此可以达到与上述方法相同的效果。
应当理解的是,终端设备1300可以对应于图4所示的终端设备100。其中,终端设备1300中各模块的功能可以由图4所示的终端设备100中的处理器110实现。
在采用集成的单元的情况下,终端设备1300可以包括处理模块、存储模块和通信模块。
其中,处理模块可以用于对终端设备1300的动作进行控制管理,例如,可以用于支持终端设备1300执行图13和图14中各模块执行的步骤。存储模块可以用于支持终端设备1300存储程序代码和数据等。通信模块,可以用于支持终端设备1300与其他设备的通信。
其中,处理模块可以是处理器或控制器,其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框、模块和电路。处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,数字信号处理(digital signal processing,DSP)和微处理器的组合等等。存储模块可以是存储器。通信模块具体可以为射频电路、蓝牙芯片和/或Wi-Fi芯片等与其他电子设备交互的设备。
在一个实施例中,当处理模块为处理器,存储模块为存储器时,本实施例所涉及的终端设备1300可以为具有图4所示结构的设备。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行本申请图6~图12所示实施例提供的方法。
本申请实施例还提供一种计算机程序产品,该计算机程序产品包括计算机程序,当其在计算机上运行时,使得计算机执行本申请图6~图12所示实施例提供的方法。
本申请实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示单独存在A、同时存在A和B、单独存在B的情况。其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项”及其类似表达,是指的这些项中的任意组合,包括单项或复数项的任意组合。例如,a,b和c中的至少一项可以表示:a,b,c,a和b,a和c,b和c或a和b和c,其中a,b,c可以是单个,也可以是多个。
本领域普通技术人员可以意识到,本文中公开的实施例中描述的各单元及算法步骤,能够以电子硬件、计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,任一功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。本申请的保护范围应以所述权利要求的保护范围为准。
Claims (12)
1.一种图像的显示方法,其特征在于,包括:
获取摄像头采集的当前拍摄场景的原始图像;
对所述原始图像进行RAW域处理,获得YUV图像;
对所述YUV图像进行分流处理,获得图像流和检测流;
从所述检测流的YUV图像中获取Y分量的图像;
对所述Y分量的图像进行检测,获取人脸框信息和场景信息;
根据所述Y分量的图像、所述人脸框信息和场景信息生成局部色调映射曲线和对应的对比度增强的强度信息;
对所述图像流中的YUV图像进行降噪和颜色处理,以及根据所述局部色调映射曲线和所述对比度增强的强度信息,对进行降噪和颜色处理后的YUV图像进行色调映射处理,获得待处理图像;
获取元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息;
根据所述元数据的全局色调映射曲线信息和所述元数据的局部色调映射曲线信息,对所述待处理图像进行显示或编码。
2.根据权利要求1所述的方法,其特征在于,所述对所述原始图像进行RAW域处理,获得YUV图像之前,还包括:
对所述摄像头采集的原始图像进行3A统计,获得所述原始图像的3A统计信息;
根据所述3A统计信息确定当前拍摄场景的动态范围和环境亮度;
根据所述动态范围和所述环境亮度确定当前拍摄场景为高动态场景之后,指示所述摄像头按照交叠出图的方式输出原始图像;
获取所述摄像头按照交叠出图的方式输出的至少两帧原始图像;
对所述至少两帧原始图像进行融合,获得高动态单帧原始图像;
对所述高动态单帧原始图像进行直方图统计,获得直方图统计信息;
根据所述直方图统计信息,对所述高动态单帧原始图像进行比特位宽压缩,获得压缩后的原始图像;
所述对所述原始图像进行RAW域处理,获得YUV图像包括:
对所述压缩后的原始图像进行RAW域处理,获得YUV图像。
3.根据权利要求1所述的方法,其特征在于,所述获取元数据的全局色调映射曲线信息包括:
对所述待处理图像进行全局直方图统计,获得全局直方图信息;
根据所述全局直方图信息对像素的分布信息进行统计,获得元数据的统计信息;
根据所述元数据的统计信息,计算全局色调映射基础曲线;
根据场景切换信息,对所述全局色调映射基础曲线进行滤波参数的控制;其中,所述场景切换信息包括对所述Y分量的图像进行检测而获取的场景信息,以及对所述Y分量的图像进行计算获得的场景信息;
利用滤波后的全局色调映射基础曲线,生成元数据的全局色调映射曲线信息。
4.根据权利要求3所述的方法,其特征在于,所述获取元数据的局部色调映射曲线信息包括:
对所述Y分量的图像进行网格划分;
获取每个网格内的图像的局部统计直方图;
利用所述滤波后的全局色调映射基础曲线,对所述局部统计直方图进行更新;
根据更新后的局部统计直方图生成每个网格内的图像的局部色调映射曲线;
根据所述场景切换信息和所述网格的空间相邻信息,对所述局部色调映射曲线进行时域和空域的滤波,生成元数据的局部色调映射曲线信息。
5.根据权利要求2所述的方法,其特征在于,所述根据所述3A统计信息确定当前拍摄场景的动态范围和环境亮度之后,还包括:
根据所述动态范围和所述环境亮度确定当前拍摄场景为非高动态场景之后,指示所述摄像头按照单帧出图的方式输出原始图像,获得单帧原始图像;
对所述单帧原始图像进行直方图统计,获得所述单帧原始图像的直方图信息,根据所述单帧原始图像的直方图信息,生成全局色调映射曲线;
对所述单帧原始图像进行RAW域处理,获得单帧YUV图像;
根据所述全局色调映射曲线,对所述单帧YUV图像进行色调映射处理,获得待处理图像。
6.一种图像的显示装置,其特征在于,包括:
获取模块,用于获取摄像头采集的当前拍摄场景的原始图像;
RAW域处理模块,用于对所述原始图像进行RAW域处理,获得YUV图像;
分流模块,用于对所述YUV图像进行分流处理,获得图像流和检测流;
所述获取模块,还用于从所述检测流的YUV图像中获取Y分量的图像;
检测模块,用于对所述Y分量的图像进行检测,获取人脸框信息和场景信息;
生成模块,用于根据所述Y分量的图像、所述人脸框信息和场景信息生成局部色调映射曲线和对应的对比度增强的强度信息;
降噪处理模块,用于对所述图像流中的YUV图像进行降噪和颜色处理;
色调映射模块,用于根据所述局部色调映射曲线和所述对比度增强的强度信息,对进行降噪和颜色处理后的YUV图像进行色调映射处理,获得待处理图像;
所述获取模块,还用于获取元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息;
显示编码模块,用于根据所述元数据的全局色调映射曲线信息和所述元数据的局部色调映射曲线信息,对所述待处理图像进行显示或编码。
7.一种终端设备,其特征在于,包括:
一个或多个处理器;存储器;多个应用程序;以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述终端设备执行时,使得所述终端设备执行以下步骤:
获取摄像头采集的当前拍摄场景的原始图像;
对所述原始图像进行RAW域处理,获得YUV图像;
对所述YUV图像进行分流处理,获得图像流和检测流;
从所述检测流的YUV图像中获取Y分量的图像;
对所述Y分量的图像进行检测,获取人脸框信息和场景信息;
根据所述Y分量的图像、所述人脸框信息和场景信息生成局部色调映射曲线和对应的对比度增强的强度信息;
对所述图像流中的YUV图像进行降噪和颜色处理,以及根据所述局部色调映射曲线和所述对比度增强的强度信息,对进行降噪和颜色处理后的YUV图像进行色调映射处理,获得待处理图像;
获取元数据的全局色调映射曲线信息和元数据的局部色调映射曲线信息;
根据所述元数据的全局色调映射曲线信息和所述元数据的局部色调映射曲线信息,对所述待处理图像进行显示或编码。
8.根据权利要求7所述的终端设备,其特征在于,当所述指令被所述终端设备执行时,使得所述终端设备执行所述对所述原始图像进行RAW域处理,获得YUV图像的步骤之前,还执行以下步骤:
对所述摄像头采集的原始图像进行3A统计,获得所述原始图像的3A统计信息;
根据所述3A统计信息确定当前拍摄场景的动态范围和环境亮度;
根据所述动态范围和所述环境亮度确定当前拍摄场景为高动态场景之后,指示所述摄像头按照交叠出图的方式输出原始图像;
获取所述摄像头按照交叠出图的方式输出的至少两帧原始图像;
对所述至少两帧原始图像进行融合,获得高动态单帧原始图像;
对所述高动态单帧原始图像进行直方图统计,获得直方图统计信息;
根据所述直方图统计信息,对所述高动态单帧原始图像进行比特位宽压缩,获得压缩后的原始图像;
当所述指令被所述终端设备执行时,使得所述终端设备执行所述对所述原始图像进行RAW域处理,获得YUV图像的步骤包括:
对所述压缩后的原始图像进行RAW域处理,获得YUV图像。
9.根据权利要求7所述的终端设备,其特征在于,当所述指令被所述终端设备执行时,使得所述终端设备执行所述获取元数据的全局色调映射曲线信息的步骤包括:
对所述待处理图像进行全局直方图统计,获得全局直方图信息;
根据所述全局直方图信息对像素的分布信息进行统计,获得元数据的统计信息;
根据所述元数据的统计信息,计算全局色调映射基础曲线;
根据场景切换信息,对所述全局色调映射基础曲线进行滤波参数的控制;其中,所述场景切换信息包括对所述Y分量的图像进行检测而获取的场景信息,以及对所述Y分量的图像进行计算获得的场景信息;
利用滤波后的全局色调映射基础曲线,生成元数据的全局色调映射曲线信息。
10.根据权利要求9所述的终端设备,其特征在于,当所述指令被所述终端设备执行时,使得所述终端设备执行所述获取元数据的局部色调映射曲线信息的步骤包括:
对所述Y分量的图像进行网格划分;
获取每个网格内的图像的局部统计直方图;
利用所述滤波后的全局色调映射基础曲线,对所述局部统计直方图进行更新;
根据更新后的局部统计直方图生成每个网格内的图像的局部色调映射曲线;
根据所述场景切换信息和所述网格的空间相邻信息,对所述局部色调映射曲线进行时域和空域的滤波,生成元数据的局部色调映射曲线信息。
11.根据权利要求8所述的终端设备,其特征在于,当所述指令被所述终端设备执行时,使得所述终端设备执行所述根据所述3A统计信息确定当前拍摄场景的动态范围和环境亮度的步骤之后,还执行以下步骤:
根据所述动态范围和所述环境亮度确定当前拍摄场景为非高动态场景之后,指示所述摄像头按照单帧出图的方式输出原始图像,获得单帧原始图像;
对所述单帧原始图像进行直方图统计,获得所述单帧原始图像的直方图信息,根据所述单帧原始图像的直方图信息,生成全局色调映射曲线;
对所述单帧原始图像进行RAW域处理,获得单帧YUV图像;
根据所述全局色调映射曲线,对所述单帧YUV图像进行色调映射处理,获得待处理图像。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行如权利要求1-5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210794124.6A CN117593236A (zh) | 2022-07-05 | 2022-07-05 | 图像的显示方法、装置和终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210794124.6A CN117593236A (zh) | 2022-07-05 | 2022-07-05 | 图像的显示方法、装置和终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117593236A true CN117593236A (zh) | 2024-02-23 |
Family
ID=89913846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210794124.6A Pending CN117593236A (zh) | 2022-07-05 | 2022-07-05 | 图像的显示方法、装置和终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117593236A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118212236A (zh) * | 2024-05-21 | 2024-06-18 | 山东新美达科技材料有限公司 | 一种彩色涂层钢板表面图像处理方法 |
-
2022
- 2022-07-05 CN CN202210794124.6A patent/CN117593236A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118212236A (zh) * | 2024-05-21 | 2024-06-18 | 山东新美达科技材料有限公司 | 一种彩色涂层钢板表面图像处理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113905179B (zh) | 一种终端切换摄像头的方法及终端 | |
CN113810600B (zh) | 终端的图像处理方法、装置和终端设备 | |
CN113810601B (zh) | 终端的图像处理方法、装置和终端设备 | |
CN111552451B (zh) | 显示控制方法及装置、计算机可读介质及终端设备 | |
CN113709464B (zh) | 视频编码方法及相关设备 | |
CN114422340B (zh) | 日志上报方法、电子设备及存储介质 | |
CN114489533A (zh) | 投屏方法、装置、电子设备及计算机可读存储介质 | |
CN113542580B (zh) | 去除眼镜光斑的方法、装置及电子设备 | |
CN114880251B (zh) | 存储单元的访问方法、访问装置和终端设备 | |
CN115412678B (zh) | 曝光处理方法、装置及电子设备 | |
CN117593236A (zh) | 图像的显示方法、装置和终端设备 | |
CN115665632B (zh) | 音频电路、相关装置和控制方法 | |
CN114466238B (zh) | 帧解复用方法、电子设备及存储介质 | |
CN115706869A (zh) | 终端的图像处理方法、装置和终端设备 | |
CN114079725B (zh) | 视频防抖方法、终端设备和计算机可读存储介质 | |
CN115696067B (zh) | 终端的图像处理方法、终端设备和计算机可读存储介质 | |
CN114520870B (zh) | 一种显示方法及终端 | |
CN116708317B (zh) | 数据包mtu的调整方法、装置和终端设备 | |
CN116048769B (zh) | 内存回收方法、装置和终端设备 | |
CN117974519B (zh) | 一种图像处理方法及相关设备 | |
CN117714835B (zh) | 一种图像处理方法、电子设备及可读存储介质 | |
CN115209027B (zh) | 相机对焦的方法及电子设备 | |
CN116233599B (zh) | 一种录像模式推荐方法和电子设备 | |
CN116095512B (zh) | 终端设备的拍照方法及相关装置 | |
CN116055872B (zh) | 图像获取方法、电子设备和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |