CN109379625B - 视频处理方法、装置、电子设备和计算机可读介质 - Google Patents

视频处理方法、装置、电子设备和计算机可读介质 Download PDF

Info

Publication number
CN109379625B
CN109379625B CN201811427955.XA CN201811427955A CN109379625B CN 109379625 B CN109379625 B CN 109379625B CN 201811427955 A CN201811427955 A CN 201811427955A CN 109379625 B CN109379625 B CN 109379625B
Authority
CN
China
Prior art keywords
image data
image
video
target
graphics processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811427955.XA
Other languages
English (en)
Other versions
CN109379625A (zh
Inventor
杨海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201811427955.XA priority Critical patent/CN109379625B/zh
Publication of CN109379625A publication Critical patent/CN109379625A/zh
Priority to PCT/CN2019/109115 priority patent/WO2020108082A1/zh
Priority to EP19891341.0A priority patent/EP3886448A4/en
Application granted granted Critical
Publication of CN109379625B publication Critical patent/CN109379625B/zh
Priority to US17/328,202 priority patent/US20210281771A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • G06T5/70
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42653Internal components of the client ; Characteristics thereof for processing graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter

Abstract

本申请公开了一种视频处理方法、装置、电子设备及计算机可读介质,涉及视频处理技术领域。该方法包括:所述中央处理器获取视频文件对应的目标帧图像;确定所述目标帧图像中的目标区域;将所述目标区域对应的第一图像数据发送至图形处理器,指示所述图形处理器对所述第一图像数据执行视频增强操作;将所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据与视频增强后的所述第一图像数据合成为待显示图像。因此,将需要优化的区域的图像数据发送至处理速度更快的图形处理器处理,而将不需要优化的区域的图像数据由中央处理器处理,则能够利用图形处理器的并行处理能力,而增加对视频的目标区域的处理速度,能够缩小处理所需要的时间。

Description

视频处理方法、装置、电子设备和计算机可读介质
技术领域
本申请涉及视频处理技术领域,更具体地,涉及一种视频处理方法、装置、电子设备及计算机可读介质。
背景技术
随着电子技术和信息技术的发展,越来越多的设备能够播放视频。设备在视频播放的过程中,需要对视频执行解码、渲染以及合成等操作,再在显示屏上显示。在监控的重要场所,需要回放观察感兴趣区域或目标。传统的快速视频浏览技术主要有快放和视频摘要两种,其中快放技术是以正常速度的几倍甚至十几倍的速度回放原始高清视频,但是为了提高速度,通常需要降低分辨率或者丢帧。
发明内容
本申请提出了一种视频处理方法、装置、电子设备及计算机可读介质,以改善上述缺陷。
第一方面,本申请实施例提供了一种视频处理方法,应用于电子设备的中央处理器,所述电子设备还包括图形处理器,该方法包括:所述中央处理器获取视频文件对应的目标帧图像;确定所述目标帧图像中的目标区域;将所述目标区域对应的第一图像数据发送至图形处理器,指示所述图形处理器对所述第一图像数据执行视频增强操作;将所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据与视频增强后的所述第一图像数据合成为待显示图像。
第二方面,本申请实施例还提供了一种视频处理装置,应用于电子设备的中央处理器,所述电子设备还包括图形处理器。所述视频处理装置包括:获取单元、确定单元、优化单元和合成单元。获取单元,用于获取视频文件对应的目标帧图像。确定单元,用于确定所述目标帧图像中的目标区域。优化单元,用于将所述目标区域对应的第一图像数据发送至图形处理器,指示所述图形处理器对所述第一图像数据执行视频增强操作。合成单元,用于将所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据与视频增强后的所述第一图像数据合成为待显示图像。
第三方面,本申请实施例还提供了一种电子设备,包括:中央处理器和图形处理器;存储器;屏幕;一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述中央处理器执行,所述一个或多个程序配置用于执行上述方法。
第四方面,本申请实施例还提供了一种计算机可读取存储介质,计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行上述方法。
本申请提供的方案,中央处理器获取视频文件对应的目标帧图像,确定所述目标帧图像中的目标区域,从而就过去到目标区域对应的第一图像数据,以及该目标区域之外的区域对应的第二图像数据,将第一图像数据发送至图形处理器,指示所述图形处理器对所述第一图像数据执行视频增强操作,将所述第二图像数据与视频增强后的所述第一图像数据合成为待显示图像。因此,将需要优化的区域的图像数据发送至处理速度更快的图形处理器处理,而将不需要优化的区域的图像数据由中央处理器处理,则能够利用图形处理器的并行处理能力,而增加对视频的目标区域的处理速度,能够缩小处理所需要的时间。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请一实施例提供的视频播放架构的框图;
图2示出了本申请实施例提供的图像渲染架构的框图;
图3示出了本申请一实施例提供的视频处理方法的方法流程图;
图4示出了本申请实施例提供的待优化类型选择界面的示意图;
图5示出了本申请实施例提供的待优化类型选择界面的隐藏效果的示意图;
图6示出了本申请另一实施例提供的视频处理方法的方法流程图;
图7示出了本申请又一实施例提供的视频处理方法的方法流程图;
图8示出了本申请实施例提供的第一图像和第二图像的示意图;
图9示出了本申请一实施例提供的视频处理装置的模块框图;
图10示出了本申请实施例提供的电子设备的结构框图;
图11示出了本申请实施例的用于保存或者携带实现根据本申请实施例的视频处理方法的程序代码的存储单元。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
请参阅图1,示出了视频播放架构的框图。具体地,操作系统在获取到待播放的数据的时候,接下来的工作就是解析音视频数据了。一般的视频文件都有视频流和音频流两部分组成,不同的视频格式音视频的封装格式肯定不一样。将音频流和视频流合成文件的过程称为muxer,反之从媒体文件中分离音频流和视频流的过程称为demuxer.播放视频文件就需要从文件流中分离出音频流和视频流,分别对其进行解码,解码后的视频帧可以直接渲染,音频帧可以送到音频输出设备的缓冲区进行播放,当然,视频渲染和音频播放的时间戳一定要控制同步。
具体地,视频解码可以包括硬解码和软解码,硬件解码是将原来全部交由中央处理器(Central Processing Unit,CPU)来处理的视频数据的一部分交由图像处理器(Graphics Processing Unit,GPU)来做,而GPU的并行运算能力要远远高于CPU,这样可以大大的降低对CPU的负载,CPU的占用率较低了之后就可以同时运行一些其他的程序了,当然,对于较好的处理器来说,比如i5 2320,或者AMD任何一款四核心处理器来说,硬解和软件依据需求而选定。
具体地,如图1所示,多媒体框架通过与客户端的API接口获取客户端待播放的视频文件,并交由视频解码器,其中,多媒体框架(Media Framework)为Android系统中多媒体框架,MediaPlayer、MediaPlayerService和Stagefrightplayer三个部分构成了Android多媒体的基本框架。多媒体框架部分采用了C/S的结构,MediaPlayer作为C/S结构的Client端,MediaPlayerService和Stagefrightplayer作为C/S结构Server端,承担着播放多媒体文件的责任,通过Stagefrightplayer,Server端完成Client端的请求并作出响应。VideoDecode是一款集成了最常用的音频和视频解码与播放的超级解码器,用于将视频数据解码。
软解码,即通过软件让CPU来对视频进行解码处理,解码之后再调用GPU对视频渲染合并之后在屏幕上显示。而硬解码,指不借助于CPU,而通过专用的子卡设备来独立完成视频解码任务。
不论是硬解码还是软解码,在将视频数据解码之后,会将解码后的视频数据发送至图层传递模块(SurfaceFlinger),由SurfaceFlinger将解码后的视频数据渲染和合成之后,在显示屏上显示。其中,SurfaceFlinger是一个独立的Service,它接收所有Window的Surface作为输入,根据ZOrder、透明度、大小、位置等参数,计算出每个Surface在最终合成图像中的位置,然后交由HWComposer或OpenGL生成最终的显示Buffer,然后显示到特定的显示设备上。
如图1所示,软解码中,CPU将视频数据解码之后交给SurfaceFlinger渲染和合成,而硬解码由GPU解码之后,交由SurfaceFlinger渲染和合成。而SurfaceFlinger会调用GPU实现图像的渲染和合成,并在显示屏上显示。
作为一种实施方式,图像渲染的过程如图2所示,CPU获取客户端发送的待播放的视频文件,解码之后获取解码之后的视频数据,将视频数据发送至GPU,GPU渲染完成后将渲染结果放入帧缓冲区(如图2中的FrameBuffer),随后视频控制器会按照HSync信号逐行读取帧缓冲区的数据,经过数模转换传递给显示器显示。
发明人在研究中发现,在监控的重要场所,需要回放观察感兴趣区域或目标。传统的快速视频浏览技术主要有快放和视频摘要两种,其中快放技术是以正常速度的几倍甚至十几倍的速度回放原始高清视频,但是为了提高速度,通常需要降低分辨率或者丢帧,这使得用户边看监控视频的时候边对该视频中的目标区域优化很难实现。
因此,为了克服上述缺陷,本申请实施例提供了一种视频处理方法,应用于电子设备,该电子设备还包括中央处理器和图形处理器,于本申请实施例中,以处理器为执行主体,则该方法包括:S301至S304。
S301:获取视频文件对应的目标帧图像。
具体地,当电子设备的客户端播放视频的时候,电子设备能够获取欲播放的视频文件,然后再对视频文件解码,具体地,可以采用上述的软解码或者硬解码对视频文件解码,在解码之后就能够获取视频文件对应的待渲染的多帧图像数据,之后需要将多帧图像数据渲染之后才能够在显示屏上显示。
具体地,电子设备包括中央处理器和图像处理器,获取视频文件对应的待渲染的多帧图像数据的具体实施方式,中央处理器获取客户端发送的待播放的视频文件,作为一种实施方式,中央处理器获取客户端发送的视频播放请求,该视频播放请求包括待播放的视频文件,具体地,可以是视频播放请求包括待播放的视频文件的身份信息,该身份信息可以是视频文件的名称,基于该视频文件的身份信息能够由存储该视频文件的存储空间内查找到该视频文件。
具体地,可以对客户端的界面上的不同的视频文件对应的播放按钮的触控状态,获取视频播放请求,具体地,客户端的视频列表界面内显示有多个视频对应的显示内容,多个视频对应的显示内容包括每个视频对应的缩略图,该缩略图可以作为一个触摸按键使用,用户点击该缩略图,客户端能够检测到用户所选点击的缩略图,也就能够确定欲播放的视频文件。
客户端响应用户在视频列表内选中的视频,进入视频的播放界面,点击该播放界面的播放按钮,客户端通过对用户触控操作的监听,能够检测到用户当前所点击的视频文件,然后,客户端将视频文件发送至CPU,由CPU选择硬解码或者软解码对该视频文件进行解码。待播放的视频文件经过解码之后,被解析成多帧图像数据。
于本申请实施例中,中央处理器获取待播放的视频文件,并根据软解码算法对所述视频文件处理,以获取到所述视频文件对应的多帧图像数据。
则图像处理器获取视频文件对应的多帧图像数据并存储至离屏渲染缓冲区的具体实施方式可以是:拦截所述中央处理器发送至所述帧缓冲区的与所述视频文件对应的多帧图像数据,将所拦截的多帧图像数据存储至离屏渲染缓冲区。
具体地,可以是在图像处理器内设置一个程序插件,该程序插件检测中央处理器发送至图像处理器的待渲染的视频文件。则在中央处理器将视频文件解码获取到待渲染的图像数据时,将待渲染的图像数据发送至GPU,然后被程序插件截获,并存储至离屏渲染缓冲区。在离屏渲染缓冲区对图像执行本方法以优化该图像之后再播放。
具体地,以视频文件中的某一帧图像为例,具体地,以目标帧图像为例,该目标帧图像为视频文件对应的多帧图像中的某一帧图像。电子设备的中央处理器在获取到客户端请求播放的视频文件之后,对该视频文件解码以获取多帧图像,则选择当前要处理的图像作为目标帧图像。
S302:确定所述目标帧图像中的目标区域。
具体地,识别图像采集装置所采集的图像内的目标物并将所述目标物归类,具体地,可以是采用目标检测算法或者目标提取算法获取目标物。则具体的可以是通过目标提取或者聚类算法提取出图像采集装置采集的图像内的所有轮廓线信息,然后再在预先学习的模型中查找到每个轮廓线对应的物体的类别,其中,该学习模型对用一个匹配数据库,该匹配数据库内存储有多个轮廓线信息和每个轮廓线信息对应的类别,其中,该类别包括人体、动物、山川、河流、湖面、建筑物、道路等。
例如,当目标物是动物时,可以通过采集目标物的轮廓以及特征信息,例如,耳朵、犄角、耳朵及四肢。当目标物是人体时,可以通过对目标物进行人脸特征提取,其中,人脸特征提取的方法可以包括基于知识的表征算法或者基于代数特征或统计学习的表征方法。
作为一种实施方式,该目标区域对应目标物体,则该目标物体可以是视频中的运动物体,由此,能够对视频内的运动物体进行优化,而对那些静止的背景物体不优化,具体地,确定所述目标帧图像中的目标区域的具体实施方式可以是:获取所述视频文件中,所述目标帧图像之前的指定时间段内的多帧图像;获取所述多帧图像对应的多个运动物体;由所述多个运动物体中确定目标运动物体;将所述目标帧图像中所述目标运动物体对应的区域作为目标区域。
其中,指定时间段可以是目标帧图像之前的连续预设数量帧所对应的时间段,例如,该视频文件的视频帧率是20Hz,则表示1秒钟具有20帧图像,则指定时间段的时长的计算方式为:(1/20)*k,其中,k为预设数量,例如,预设数量为40,则指定时间段的时长为2秒。当然,该指定时间段的时长可以是用户根据需求而设定,则如果该指定时间段的时长为2秒,则指定时间段为目标帧图像之前的2秒的时间段。则假设目标帧图像对应的视频文件的时间点为第20秒,则指定时间段为第18秒至第20秒之间的时间段,从而对该时间段内进行运动目标的提取,从而获取多个运动物体,则作为一种实施方式,可以将该多个运动物体在屏幕上显示,具体地,可以是从视频文件的指定时间段内的多帧图像内获取运动物体的缩略图,并将该缩略图在屏幕上显示,获取用于基于该缩略图所选定的缩略图,将所选定的缩略图对应的运动物体作为目标运动物体。将所述目标帧图像中所述目标运动物体对应的区域作为目标区域。
作为另一种实施方式,还可以是,获取参考图片,该参考图片可以是用户输入至电子设备内的图片,例如,用户使用电子设备的摄像头拍摄参考照片,从而获取该参考照片的图像,即参考图片,也可以是由服务器或者网络平台获取到参考图片,电子设备获取该参考图片内的目标物体,例如,参考图片内的人脸图像,在多个运动物体中查找与参考图片内的目标物体匹配的运动物体,作为目标运动物体。
在另一些实施例中,还可以是用户在屏幕上通过触摸手势所选定的目标物,可以作为视频文件对应的待优化目标物,该待优化目标物对应的区域为目标区域。
另外,考虑到触摸手势的检测可能存在误判,即用户不慎触碰屏幕而非对屏幕的某个区域持续按压,即非选定屏幕的某个区域,则可以在检测到作用于屏幕的触摸手势之后,确定该触摸手势的持续时间,如果该持续时间大于预设时间长度,则认为该触摸手势有效,如果小于或等于预设时间长度,则舍弃该触摸手势,而认为有效的触摸手势,可以继续执行确定所述触摸手势所对应的所述屏幕的目标位置的操作。其中,预设时间长度为用户根据需求而设定的时间长度,例如,可以是1-3秒。
根据上述的触摸手势记录表确定该触摸手势对应的目标位置,具体地,屏幕可以根据触摸屏上各个独立的触摸单元(可以是触摸电容等)而设定位置,例如,以屏幕的顶部最左侧的触摸单元为起点,然后横向和竖向设置坐标系,则坐标系内的每个坐标都可以根据触摸单元的排列确定坐标,例如,(10,20)的坐标表示横向的第10个触摸单元以及纵向的第20个触摸单元。
当用户触摸屏幕时,若输入的触摸手势能够被屏幕的一定区域内的触摸单元感应到,则感应到触摸手势的触摸单元的位置就是触摸手势对应的屏幕的目标位置,从而该目标位置对应的区域即为目标区域。
S303:将所述目标区域对应的第一图像数据发送至图形处理器,指示所述图形处理器对所述第一图像数据执行视频增强操作。
所述视频增强操作用于通过优化参数处理所述视频文件中的图像提高所述视频文件的画质。画质包括视频的清晰度、锐度、镜头畸变、色彩、解析度、色域范围以及纯度等决定视频观看效果的参数。则不同参数的组合能够实现不同的显示增强效果,例如,以人像所在的位置为中心实现桶型畸变的效果,并且将当前画面的色调修改为灰色,则能够营造一种恐怖氛围的效果。
其中,视频增强操作包括曝光度增强、去噪、边缘锐化、对比度增加或饱和度增加的至少一种。
其中,曝光度增强,用于提高图像的亮度,则可以通过图像的直方图,将亮度值交底的区域增加亮度值,另外,也可以是通过非线性叠加,增加图像亮度,具体地,I表示要处理的较暗图像,T表示处理后的比较亮的图像,则曝光度增强的方式为T(x)=I(x)+(1-I(x))*I(x)。其中,T和I都是[0,1]取值的图像。如果一次效果不好算法可以多次迭代。
其中,对图像数据去噪用于去除图像的噪声,具体地,图像在生成和传输过程中常常因受到各种噪声的干扰和影响而是图像降质,这对后续图像的处理和图像视觉效应将产生不利影响。噪声种类很多,比如:电噪声,机械噪声,信道噪声和其他噪声。因此,为了抑制噪声,改善图像质量,便于更高层次的处理,必须对图像进行去噪预处理。从噪声的概率分布情况来看,可分为高斯噪声、瑞利噪声、伽马噪声、指数噪声和均匀噪声。
具体地,可以通过高斯滤波器对图像去噪,其中,高斯滤波器是一种线性滤波器,能够有效的抑制噪声,平滑图像。其作用原理和均值滤波器类似,都是取滤波器窗口内的像素的均值作为输出。其窗口模板的系数和均值滤波器不同,均值滤波器的模板系数都是相同的为1;而高斯滤波器的模板系数,则随着距离模板中心的增大而系数减小。所以,高斯滤波器相比于均值滤波器对图像模糊程度较小。
例如,产生一个5×5的高斯滤波窗口,以模板的中心位置为坐标原点进行取样。将模板各个位置的坐标带入高斯函数,得到的值就是模板的系数。再将该高斯滤波窗口与图像卷积就能够对图像去噪。
其中,边缘锐化用于使模糊的图像变得更加清晰起来。图像锐化一般有两种方法:一种是微分法,另外一种是高通滤波法。
其中,对比度增加用于增强图像的画质,使得图像内的颜色更加鲜明,具体地,对比度拉伸是图像增强的一种方法,也属于灰度变换操作。通过灰度变换,将灰度值拉伸到整个0-255的区间,那么其对比度显然是大幅增强的。可以用如下的公式来将某个像素的灰度值映射到更大的灰度空间:
I(x,y)=[(I(x,y)-Imin)/(Imax-Imin)](MAX-MIN)+MIN;
其中Imin,Imax是原始图像的最小灰度值和最大灰度值,MIN和MAX是要拉伸到的灰度空间的灰度最小值和最大值。
具体地,用户可以在电子设备内为待播放的视频文件设置待优化类型,其中,待优化类型可以是目标物的类型,例如,可以是男性、女性、天空、山川、河流或者招牌等。具体地,可以是在视频播放界面时,用户输入待优化类型,如图4所示,在该视频界面上显示有视频增强的总开关501和各个目标物类型的子开关502,具体地,视频增强的总开关501用于开启或关闭视频增强的功能,其中,视频增强的功能用于对该视频文件的图像数据优化,当视频增强的总开关501开启的时候,用户能够选择开启某个或某些目标物类型的子开关502,如图4所示,类型1对应一个目标物类型,例如是男性,类型2对应另一个目标物类型,例如是女性,其中,类型1和类型2为示例性的文字,具体地,在实际使用中可以根据具体的目标物类型而更改文字,例如,将类型1更改为男性角色。
在视频增强的总开关501开启的时候,用户选择开启所需要优化的待优化的目标物的类型,即开启所需优化的类型的子开关502,则电子设备能够获取该视频文件对应的待优化类型。
而在视频增强的总开关501关闭的时候,待优化类型选择窗口内的各类型对应的子开关502是灰色的,即无法选择开启或关闭,即不响应应用对该子开关的操作。
另外,图4所示的待优化类型选择界面可以被隐藏,具体地,如图5所示,在该待优化类型选择窗口的边侧设置有滑动按钮503,通过该滑动按钮503可以将该待优化类型选择窗口隐藏和滑出,作为一种实施方式,可以是在待优化类型选择窗口处于隐藏的状态时,点击该滑动按钮503能够将待优化类型选择窗口滑出,而在待优化类型选择窗口处于滑出的状态时,点击该滑动按钮503能够将待优化类型选择窗口隐藏。
另外,在选择一个待优化类型的时候,用户能够输入优化程度指示,基于该优化程度指示,能够调整该优化类型的优化程度,例如,选中曝光度增强,则用户输入曝光度增强程度指示,例如,用过输入界面,也可以通过按下音量键,比如,每按下一次加音量键则将曝光度程度增加2%,对应地,每按下一次减音量键则将曝光度程度降低2%,则用户能够自由调节优化程度。
则每个在线视频数据在优化之后存储至帧缓冲区,等待屏幕的刷新频率被取出之后经过合成,然后在屏幕上显示,具体地,可以是将每个所述在线视频数据解码以获取每个所述在线视频数据对应的多帧待渲染图像数据并存储至图像缓冲区;根据所述屏幕刷新帧率由所述图像缓冲区内获取每个所述在线视频数据对应的一帧待渲染图像数据;将所获取的多个待渲染图像数据渲染合成为一帧合成图像;将所述合成图像在所述屏幕上显示。
另外,考虑到有一些视频文件图像比较小,则采用中央处理器处理的时候,不会对中央处理器造成太多的负担,且中央处理器处理的速度依然能够满足要求,则不必一定采用图形处理器来处理,则可以结合图像大小来确定是否采用图形处理器来处理,具体地,获取所述视频文件的图像大小,判断所述图像大小是否满足指定条件,如果满足,则将所述目标区域对应的第一图像数据发送至图形处理器,指示所述图形处理器对所述第一图像数据执行视频增强操作,如果不满足,则对所述第一图像数据执行视频增强操作,也就是说,在不满足的情况下,直接有中央处理器对第一图像数据执行视频增强操作。
其中,视频文件的图像大小可以包括图像数据大小和图像尺寸,其中,图像数据大小记为视频文件的指定帧图像的数据大小,即指定帧图像所占的存储空间的大小,例如,指定帧图像的大小为1M,则图像数据大小为1M,其中,指定帧图像的数据大小可以是视频文件所有帧图像的数据大小的算数值,其中,算术值可以是平均值、最小值或者最大值,也可以是,视频文件的第一帧图像的数据大小,还是可以是视频文件的所有关键帧图像的数据大小的平均值、最小值或者最大值,另外,考虑到视频文件可能是在线视频文件,则视频文件的的指定帧图像的数据大小可以是,获取当前所现在的视频文件的所有帧图像的数据大小的算术值。
则图像尺寸可以是视频文件的物理分辨率,即视频文件的图像分辨率。
具体地,如果图像大小为图像数据大小,则判断所述图像大小是否满足指定条件的具体实施方式为,判断所述图像数据大小是否大于指定值,如果大于指定值,则判定图像大小满足指定条件,如果小于或等于指定值,则判定图像大小不满足指定条件。
则如果图像大小为图像尺寸,则判断所述图像大小是否满足指定条件的具体实施方式为,判断所述图像尺寸是否大于指定图像尺寸。若大于指定图像尺寸,则判定所述图像大小满足指定条件,若小于或等于指定图像尺寸,则判定所述图像大小不满足指定条件。
其中,指定图像尺寸可以根据实际使用而设定,例如,图像尺寸可以是1280×720的分辨率。则如果待播放视频文件的图像尺寸大于1280×720的分辨率,则判定所述图像大小满足指定条件。而如果待播放视频文件的图像尺寸小于或等于1280×720的分辨率,判定所述图像大小不满足指定条件。
S304:将所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据与视频增强后的所述第一图像数据合成为待显示图像。
具体地,目标帧图像的对应的所有图像数据为目标图像数据,则目标图像数据由第一图像数据和第二图像数据构成,且第一图像数据和第二图像数据均对应有像素区域,例如,第一图像数据对应第一像素区域,而第二图像数据对应第二像素区域,则在第一图像数据经过视频增强操作之后,其所对应的像素区域依然是第一像素区域,则中央处理器基于第一像素区域和第二像素区域,将第一图像数据和第二图像数据整合待显示图像,该待显示图像能够在屏幕上显示。
另外,除了可以通过上述图4所示的界面选择不同的优化策略,还可以根据该第一图像数据来选定优化策略,具体地,请参阅图6,本申请实施例提供了一种视频处理方法,应用于电子设备,该电子设备还包括中央处理器和图形处理器,于本申请实施例中,以处理器为执行主体,则该方法包括:S601至S606。
S601:中央处理器获取视频文件对应的目标帧图像。
考虑到视频文件对应的图像比较多的时候,可能处理速度比较慢,而对于一些监控的领域,要求实时知道目标物的位置和移动轨迹,而不必精确获知该目标物的精确的动作,例如,针对可疑车辆的监控,只需要知道该车辆在某个时刻所处的具体位置就可以,而不必知道车辆的精细的行驶路径,则可以在视频文件的视频帧率较大的情况下,对该视频文件降帧,具体地,获取视频文件的视频帧率,判断该视频帧率是否大于指定帧率,如果是,则对该视频文件降帧,则将降帧后的视频文件作为本次所获取的视频文件,以执行S601以及后续操作。
其中,指定帧率可以用户根据需求而设定的,例如,可以是60Hz。具体的降帧操作可以采用以下方式:
第一种,当在线视频数据的当前帧率达到降帧条件时,按照预设降帧间隔数对在线视频数据进行跳帧参考;或者,
第二种,当在线视频数据的当前帧率达到降帧条件时,从最后一帧开始向前依次丢弃第一预设数量的帧数。
在进行降帧时,可通过上述两种方法对在线视频数据进行降帧。对于第一种的降帧方法,进行跳帧参考的时候优先参考携带重要信息的关键帧,丢弃次重要的非关键帧。或者,预设间隔数也可设定为每隔一帧或每隔两帧,例如,在线视频数据的当前帧率为每秒24帧,当第一预设间隔数设定为每隔一帧时,在线视频数据采用1/2跳帧参考,即丢弃掉一半的帧数,此时在线视频数据的帧率为每秒12帧;或者,当第一预设间隔数设定为每隔两帧时,在线视频数据采用1/3跳帧参考,此时在线视频数据的帧率为每秒8帧。对于第二种的降帧方法,第一预设数量可设定为10帧,例如,在线视频数据的当前帧率为每秒24帧,当在线视频数据当前帧率达到降帧条件时,从24帧的最后一帧开始向前依次丢弃掉10帧,则在线视频数据的帧率降低为每秒14帧。此外,为避免在线视频数据出现马赛克情况,可一帧一帧的降,直到帧率降低到与当前网络情况相适配为止。对于第二种的降帧方法,由于非关键帧为次要帧,关键帧为主要帧,因此从后向前丢帧时优先丢弃次重要的非关键帧,保留携带重要信息的关键帧。
通过降帧后,能够减少电子设备每秒需要里的图像的数量,从而提供对目标区域的优化速度,进而提高实时性。
S602:确定所述目标帧图像中的目标区域。
S603:获取所述目标帧图像中的所述目标区域对应的第一图像数据。
S604:确定所述第一图像数据对应的优化策略。
作为一种实施方式,可以根据目标区域的第一图像数据的类型的不同而选择不同的优化策略,具体地,该类型可以是人物类、动物类、食物类、风景类等。
再根据类型与视频增强算法的对应关系,确定第一图像数据的类型对应的优化策略,具体地,该优化策略可以包括曝光度增强、去噪、边缘锐化、对比度增加或饱和度增加的至少一种,则不同类型的目标物对应的曝光度增强、去噪、边缘锐化、对比度增加或饱和度增加的选择不同,例如,如表1所示:
表1
Figure BDA0001882067410000111
根据表1所示的对应关系,就能够确定第一图像数据的类型对应的优化策略,进而第一图像数据的图像的参数优化,从而能够使得该目标区域内的图像呈现出超清视效。
作为另一种实施方式,获取所述第一图像数据的分辨率;根据所述第一图像数据的分辨率确定所述第一图像数据对应的优化策略。
在一些实施例中,判断所述第一图像数据的分辨率是否大于预设分别率,如果小于,则为所述第一图像数据配置的优化策略包括去噪和边缘锐化,如果大于或等于,则为所述第一图像数据配置的优化策略包括饱和度增加。
在另一些实施例中,判断所述第一图像数据的分辨率是否大于预设分别率,如果小于,则为所述第一图像数据配置第一优化策略,如果大于或等于,则为所述第一图像数据配置第二优化策略。
其中,第一优化策略和第二优化策略均包括曝光度增强、去噪、边缘锐化、对比度增加和饱和度增加等5个优化项,而第一优化策略和第二优化策略所对应的每个优化项的优化级别不同,例如,第一优化策略中的曝光度增强的优化级别为b1,去噪的优化级别为q1,边缘锐化的优化级别为r1,对比度增加的优化级别为d1以及饱和度增加的优化级别为h1。第二优化策略中的曝光度增强的优化级别为b2,去噪的优化级别为q2,边缘锐化的优化级别为r2,对比度增加的优化级别为d2以及饱和度增加的优化级别为h2,其中,q1大于q2,r1大于r2,h1小于h2。例如,每个级别采用0-9的数值表示级别,数值越大级别越高,则优化程度越高,以曝光度为例,曝光度的优化级别越高,所提高图像的亮度越高。则第一优化策略中的去噪和边缘锐化的优化级别分别为8和9,而第二优化策略中的去噪和边缘锐化的优化级别分别为3和4,则第一图像数据的分辨率小于预设分别率的情况下,与第一图像数据的分辨率大于或等于预设分别率的情况相比,强化去噪和边缘锐化,同理,第一图像数据的分辨率大于或等于预设分别率的情况与第一图像数据的分辨率小于预设分别率的情况相比,强化饱和度增加以及细节增强。
S605:将所述第一图像数据和所述优化策略发送至所述图形处理器,指示所述图形处理器根据所述优化策略对所述第一图像数据执行视频增强操作。
S606:将所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据与视频增强后的所述第一图像数据合成为待显示图像。
需要说明的是,上述步骤中为详细描述的部分,可参考前述实施例,在此不再赘述。
请参阅图7,本申请实施例提供了一种视频处理方法,应用于电子设备,该电子设备还包括中央处理器和图形处理器以及屏幕,于本申请实施例中,以处理器为执行主体,则该方法包括:S701至S710。
S701:中央处理器获取视频文件对应的目标帧图像。
S702:确定所述目标帧图像中的目标区域。
S703:获取所述目标帧图像中的所述目标区域对应的第一图像数据。
具体地,如图8所示,目标帧图像可以划分为第一图像和第二图像,其中,第一图像为目标区域对应的图像,而第二图像为目标区域之外的区域对应的图像,则第一图像对应的数据为第一图像数据,第二图像对应的数据为第二图像数据。
S704:将所述第一图像数据存储至离屏渲染缓冲区。
作为一种实施方式,预先在GPU内设置一个离屏渲染缓冲区,具体地,GPU会调用渲染客户端模块对待渲染的多帧图像数据渲染合成之后发送至显示屏上显示,具体地,该渲染客户端模块可以是OpenGL模块。OpenGL渲染管线的最终位置是在帧缓冲区中。帧缓冲区是一系列二维的像素存储数组,包括了颜色缓冲区、深度缓冲区、模板缓冲区以及累积缓冲区。默认情况下OpenGL使用的是窗口系统提供的帧缓冲区。
OpenGL的GL_ARB_framebuffer_object这个扩展提供了一种方式来创建额外的帧缓冲区对象(Frame Buffer Object,FBO)。使用帧缓冲区对象,OpenGL可以将原先绘制到窗口提供的帧缓冲区重定向到FBO之中。
则通过FBO在帧缓冲区之外再设置一个缓冲区,即离屏渲染缓冲区。然后,将所获取的多帧图像数据存储至离屏渲染缓冲区。具体地,离屏渲染缓冲区可以是对应图像处理器的一个存储空间,即离屏渲染缓冲区本身没有用于存储图像的空间,而是与图像处理器内的一个存储空间映射之后,图像实际存储在离屏渲染缓冲区对应的图像处理器内的一个存储空间内。
将第一图像数据与离屏渲染缓冲区绑定的方式,就能够将第一图像数据存储至离屏渲染缓冲区,即在离屏渲染缓冲区能够查找到第一图像数据。
S705:指示所述图形处理器对所述离屏渲染缓冲区内的第一图像数据执行视频增强操作。
将视频增强算法对应的特征数据与待渲染的第一图像数据卷积,以对第一图像数据优化,具体地,通过将所述渲染对象和数据纹理对象渲染,对所述离屏渲染缓冲区内的第一图像数据进行优化,即执行渲染到纹理(Render To Texture,RTT)的操作。其中,渲染对象就是第一图像数据,具体地,可以通过渲染对象将第一图像数据存储到FBO内,其中,渲染对象可以作为一个变量,将第一图像数据赋给渲染对象,再将渲染对象于FBO绑定,就可以实现将第一图像数据存储至离屏渲染缓冲区。例如,在FBO内设置一个句柄,该句柄指向第一图像数据,则该句柄就可以是渲染对象。
其中,将视频增强算法赋值给纹理对象,其中,视频增强算法对应的特征数据即为视频增强算法的参数,例如,去噪中的中值滤波的各个参数值。则视频增强算法的具体操作可以参考上述实施例。
S706:获取所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据。
S707:获取所述图形处理器发送的视频增强后的所述第一图像数据。
S708:将所述第二图像数据与视频增强后的所述第一图像数据合成为待显示图像并存储至帧缓冲区内。
其中,帧缓冲区对应于屏幕,用于存放需要在屏幕上显示的数据,例如图2所示的Framebuffer,Framebuffer是出现在操作系统内核当中的一种驱动程序接口。以安卓系统为例,Linux是工作在保护模式下,所以用户态进程是无法像DOS系统那样,使用显卡BIOS里提供的中断调用来实现直接将数据写入并在屏幕上显示,Linux抽象出Framebuffer这个设备来供用户进程实现直接将数据写入并在屏幕上显示。Framebuffer机制模仿显卡的功能,可以通过Framebuffer的读写直接对显存进行操作。具体地,可以将Framebuffer看成是显示内存的一个映像,将其映射到进程地址空间之后,就可以直接进行读写操作,而写入的数据可以在屏幕上显示。
则帧缓冲区可以看作是一个存放数据的空间,CPU或者GPU将要显示的数据放入该帧缓冲区,而Framebuffer本身不具备任何运算数据的能力,由视频控制器按照屏幕刷新频率读取Framebuffer内的数据在屏幕上显示。
具体地,将渲染对象绑定到Framebuffer,则此时的渲染对象已经被视频增强算法优化,即渲染对象为优化后的第一图像数据。则将优化后的第一图像数据发送至Framebuffer以存储。
然后,视频增强后的所述第一图像数据和第二图像数据均存储至帧缓冲区,则中央处理器在帧换成去内将第一图像数据和第二图像数据,以获得待显示图像。
S709:基于屏幕刷新频率由所述帧缓冲区内获取所述待显示图像。
S710:将所述待显示图像在所述电子设备的屏幕上显示。
作为一种实施方式,图像处理器会根据屏幕的刷新频率由所述帧缓冲区内逐帧读取图像数据,并经渲染合成处理后在所述屏幕上显示。
由此,通过离屏渲染的方式,将目标区域对应的第一图像数据优化之后再发送至帧缓冲区,以使帧缓冲区内的数据为视频增强之后的数据,与将第一图像数据存储至帧缓冲区,并在帧缓冲区内执行视频增强操作,然后再在帧缓冲区内将将所述第二图像数据存储至视频增强后的所述第一图像数据合成为待显示图像的操作方式相比,能够避免在帧缓冲区内的第一图像数据还未优化,就由于屏幕刷新评率的到来而直接在屏幕上显示,而影响用户体验。
需要说明的是,上述步骤中为详细描述的部分,可参考前述实施例,在此不再赘述。
请参阅图9,其示出了本申请实施例提供的一种视频处理装置的结构框图,该视频处理装置900可以包括:获取单元901、确定单元902、优化单元903和合成单元904。
获取单元901,用于获取视频文件对应的目标帧图像。
确定单元902,用于确定所述目标帧图像中的目标区域。
具体地,确定单元902还用于获取所述视频文件中,所述目标帧图像之前的指定时间段内的多帧图像;获取所述多帧图像对应的多个运动物体;由所述多个运动物体中确定目标运动物体;将所述目标帧图像中所述目标运动物体对应的区域作为目标区域。
优化单元903,用于将所述目标区域对应的第一图像数据发送至图形处理器,指示所述图形处理器对所述第一图像数据执行视频增强操作。
具体地,优化单元903还用于获取所述目标帧图像中的所述目标区域对应的第一图像数据,确定所述第一图像数据对应的优化策略;将所述第一图像数据和所述优化策略发送至所述图形处理器,指示所述图形处理器根据所述优化策略对所述第一图像数据执行视频增强操作。其中,确定所述第一图像数据对应的优化策略的方式为:获取所述第一图像数据的分辨率;根据所述第一图像数据的分辨率确定所述第一图像数据对应的优化策略。
另外,优化单元903还用于获取所述目标帧图像中的所述目标区域对应的第一图像数据;将所述第一图像数据存储至离屏渲染缓冲区;指示所述图形处理器对所述离屏渲染缓冲区内的第一图像数据执行视频增强操作。
合成单元904,用于将所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据与视频增强后的所述第一图像数据合成为待显示图像。
另外,合成单元904还用于获取所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据;获取所述图形处理器发送的视频增强后的所述第一图像数据;将所述第二图像数据与视频增强后的所述第一图像数据合成为待显示图像并存储至帧缓冲区内。
进一步的,合成单元904还用于基于屏幕刷新频率由所述帧缓冲区内获取所述待显示图像;将所述待显示图像在所述电子设备的屏幕上显示。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,模块相互之间的耦合可以是电性,机械或其它形式的耦合。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
请参考图10,其示出了本申请实施例提供的一种电子设备的结构框图。该电子设备100可以是智能手机、平板电脑、电子书等能够运行客户端的电子设备。本申请中的电子设备100可以包括一个或多个如下部件:处理器110、存储器120、屏幕140以及一个或多个客户端,其中一个或多个客户端可以被存储在存储器120中并被配置为由一个或多个处理器110执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
处理器110可以包括一个或者多个处理核。处理器110利用各种接口和线路连接整个电子设备100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行电子设备100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。
具体地,处理器110可以包括中央处理器111(Central Processing Unit,CPU)、图像处理器112(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和客户端等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。
存储器120可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储终端100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
所述屏幕120用于显示由用户输入的信息、提供给用户的信息以及电子设备的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、数字、视频和其任意组合来构成,在一个实例中,触摸屏可设置于所述显示面板上从而与所述显示面板构成一个整体。
请参考图11,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读介质1100中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质1100可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质1100包括非易失性计算机可读介质(non-transitorycomputer-readable storage medium)。计算机可读存储介质1100具有执行上述方法中的任何方法步骤的程序代码1111的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码1111可以例如以适当形式进行压缩。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (9)

1.一种视频处理方法,其特征在于,应用于电子设备的中央处理器,所述电子设备还包括图形处理器,所述方法包括:
所述中央处理器获取视频文件对应的目标帧图像;
获取所述视频文件中,所述目标帧图像之前的指定时间段内的多帧图像;
获取所述多帧图像对应的多个运动物体的缩略图,并将多个所述缩略图在所述电子设备的屏幕上显示;
获取用户基于所显示的多个所述缩略图所选定的缩略图;
将所选定的缩略图对应的运动物体作为目标运动物体;
将所述目标帧图像中所述目标运动物体对应的区域作为目标区域;
将所述目标区域对应的第一图像数据发送至图形处理器,指示所述图形处理器对所述第一图像数据执行视频增强操作,所述视频增强操作用于通过优化参数处理所述视频文件中的图像提高所述视频文件的画质;
将所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据与视频增强后的所述第一图像数据合成为待显示图像。
2.根据权利要求1所述的方法,其特征在于,所述将所述目标区域对应的第一图像数据发送至图形处理器,以使所述图形处理器对所述第一图像数据执行视频增强操作,包括:
获取所述目标帧图像中的所述目标区域对应的第一图像数据;
确定所述第一图像数据对应的优化策略;
将所述第一图像数据和所述优化策略发送至所述图形处理器,指示所述图形处理器根据所述优化策略对所述第一图像数据执行视频增强操作。
3.根据权利要求2所述的方法,其特征在于,所述确定所述第一图像数据对应的优化策略,包括:
获取所述第一图像数据的分辨率;
根据所述第一图像数据的分辨率确定所述第一图像数据对应的优化策略。
4.根据权利要求1所述的方法,其特征在于,所述将所述目标区域对应的第一图像数据发送至图形处理器,以使所述图形处理器对所述第一图像数据执行视频增强操作,包括:
获取所述目标帧图像中的所述目标区域对应的第一图像数据;
将所述第一图像数据存储至离屏渲染缓冲区;
指示所述图形处理器对所述离屏渲染缓冲区内的第一图像数据执行视频增强操作。
5.根据权利要求4所述的方法,其特征在于,所述将所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据与视频增强后的所述第一图像数据合成为待显示图像,包括:
获取所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据;
获取所述图形处理器发送的视频增强后的所述第一图像数据;
将所述第二图像数据与视频增强后的所述第一图像数据合成为待显示图像并存储至帧缓冲区内。
6.根据权利要求5所述的方法,其特征在于,所述将所述第二图像数据存储至视频增强后的所述第一图像数据合成为待显示图像并存储至帧缓冲区内之后,还包括:
基于屏幕刷新频率由所述帧缓冲区内获取所述待显示图像;
将所述待显示图像在所述电子设备的屏幕上显示。
7.一种视频处理装置,其特征在于,应用于电子设备的中央处理器,所述电子设备还包括图形处理器,所述视频处理装置包括:
获取单元,用于获取视频文件对应的目标帧图像;
确定单元,用于获取所述视频文件中,所述目标帧图像之前的指定时间段内的多帧图像;获取所述多帧图像对应的多个运动物体的缩略图,并将多个所述缩略图在所述电子设备的屏幕上显示;获取用户基于所显示的多个所述缩略图所选定的缩略图;将所选定的缩略图对应的运动物体作为目标运动物体;将所述目标帧图像中所述目标运动物体对应的区域作为目标区域;
优化单元,用于将所述目标区域对应的第一图像数据发送至图形处理器,指示所述图形处理器对所述第一图像数据执行视频增强操作;
合成单元,用于将所述目标帧图像中的所述目标区域之外的区域对应的第二图像数据与视频增强后的所述第一图像数据合成为待显示图像。
8.一种电子设备,其特征在于,包括:
中央处理器和图形处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述中央处理器执行,所述一个或多个程序配置用于执行如权利要求1-6任一项所述的方法。
9.一种计算机可读介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行所述权利要求1-6任一项所述方法。
CN201811427955.XA 2018-11-27 2018-11-27 视频处理方法、装置、电子设备和计算机可读介质 Active CN109379625B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201811427955.XA CN109379625B (zh) 2018-11-27 2018-11-27 视频处理方法、装置、电子设备和计算机可读介质
PCT/CN2019/109115 WO2020108082A1 (zh) 2018-11-27 2019-09-29 视频处理方法、装置、电子设备和计算机可读介质
EP19891341.0A EP3886448A4 (en) 2018-11-27 2019-09-29 VIDEO PROCESSING METHOD AND DEVICE, ELECTRONIC DEVICE AND COMPUTER READABLE STORAGE MEDIUM
US17/328,202 US20210281771A1 (en) 2018-11-27 2021-05-24 Video processing method, electronic device and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811427955.XA CN109379625B (zh) 2018-11-27 2018-11-27 视频处理方法、装置、电子设备和计算机可读介质

Publications (2)

Publication Number Publication Date
CN109379625A CN109379625A (zh) 2019-02-22
CN109379625B true CN109379625B (zh) 2020-05-19

Family

ID=65377390

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811427955.XA Active CN109379625B (zh) 2018-11-27 2018-11-27 视频处理方法、装置、电子设备和计算机可读介质

Country Status (4)

Country Link
US (1) US20210281771A1 (zh)
EP (1) EP3886448A4 (zh)
CN (1) CN109379625B (zh)
WO (1) WO2020108082A1 (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109379625B (zh) * 2018-11-27 2020-05-19 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备和计算机可读介质
CN110278415B (zh) * 2019-07-02 2020-04-28 浙江大学 一种网络摄像机视频质量提升方法
CN112492401B (zh) * 2019-09-11 2022-08-12 腾讯科技(深圳)有限公司 基于视频的互动方法、装置、计算机可读介质及电子设备
CN110730335A (zh) * 2019-11-14 2020-01-24 深圳市高巨创新科技开发有限公司 无人机视频实时预览方法及其系统
CN112860252A (zh) * 2019-11-27 2021-05-28 Oppo广东移动通信有限公司 界面绘制方法及相关产品
CN111147954A (zh) * 2019-12-30 2020-05-12 北京奇艺世纪科技有限公司 一种缩略图抽取方法及装置
WO2021145715A1 (en) 2020-01-16 2021-07-22 Samsung Electronics Co., Ltd. Apparatus and method for enhancing videos
TWI735237B (zh) * 2020-05-22 2021-08-01 茂傑國際股份有限公司 360度全景影像選擇顯示之攝影機及方法
CN112416191B (zh) * 2020-09-17 2022-08-19 上海哔哩哔哩科技有限公司 录屏处理方法、装置、计算机设备和计算机可读存储介质
CN114511683A (zh) * 2020-10-27 2022-05-17 北京京东方光电科技有限公司 显示切换控制方法及系统、电子设备和存储介质
CN112596843B (zh) * 2020-12-29 2023-07-25 北京元心科技有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN112667340A (zh) * 2020-12-31 2021-04-16 努比亚技术有限公司 屏幕刷新控制方法、移动终端及计算机可读存储介质
CN113132800B (zh) * 2021-04-14 2022-09-02 Oppo广东移动通信有限公司 视频处理方法、装置、视频播放器、电子设备及可读介质
CN113115085A (zh) * 2021-04-16 2021-07-13 海信电子科技(武汉)有限公司 一种视频播放方法及显示设备
CN113271476B (zh) * 2021-05-12 2022-07-12 湖南泽天智航电子技术有限公司 一种提升视频数据流帧的同步方法、设备、装置及系统
CN113515246A (zh) * 2021-05-17 2021-10-19 广州文石信息科技有限公司 一种电子墨水屏显示控制方法、装置、设备及存储介质
CN113506225A (zh) * 2021-06-17 2021-10-15 展讯半导体(南京)有限公司 图像处理方法、系统、电子设备及存储介质
CN113784084B (zh) * 2021-09-27 2023-05-23 联想(北京)有限公司 一种处理方法及装置
CN114390307A (zh) * 2021-12-28 2022-04-22 广州虎牙科技有限公司 图像画质增强方法、装置、终端及可读存储介质
CN114339412B (zh) * 2021-12-30 2024-02-27 咪咕文化科技有限公司 视频质量增强方法、移动终端、存储介质及装置
CN116468882B (zh) * 2022-01-07 2024-03-15 荣耀终端有限公司 图像处理方法、装置、设备、存储介质
CN114511359B (zh) * 2022-02-17 2022-11-22 北京优酷科技有限公司 显示方法、装置、设备及介质
CN114598902B (zh) * 2022-03-09 2023-12-22 安徽文香科技股份有限公司 一种视频帧处理方法、装置及电子设备
CN114860141A (zh) * 2022-05-23 2022-08-05 Oppo广东移动通信有限公司 图像显示方法、装置、电子设备及计算机可读介质
WO2023245343A1 (zh) * 2022-06-20 2023-12-28 北京小米移动软件有限公司 一种图像处理方法、图像处理装置及存储介质
TWI811043B (zh) * 2022-07-28 2023-08-01 大陸商星宸科技股份有限公司 影像處理系統及其影像物件疊加裝置及方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098256B2 (en) * 2005-09-29 2012-01-17 Apple Inc. Video acquisition with integrated GPU processing
CN102446352A (zh) * 2011-09-13 2012-05-09 深圳市万兴软件有限公司 视频图像处理方法及装置
CN102625030A (zh) * 2011-02-01 2012-08-01 株式会社理光 视频增强方法和系统
CN103177744A (zh) * 2011-12-21 2013-06-26 深圳市快播科技有限公司 一种用于移动设备的低功耗播放方法和装置
CN103310411A (zh) * 2012-09-25 2013-09-18 中兴通讯股份有限公司 一种图像局部增强方法和装置
CN103440117A (zh) * 2013-08-29 2013-12-11 广东威创视讯科技股份有限公司 视频图像处理的方法及系统
CN108010491A (zh) * 2017-11-08 2018-05-08 孙兴珍 一种基于瞳孔半径检测的背景光调节方法
CN109168068A (zh) * 2018-08-23 2019-01-08 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100698845B1 (ko) * 2005-12-28 2007-03-22 삼성전자주식회사 인물 외형 추출 알고리즘을 이용한 영상 편집 방법 및 그장치
JP4620150B2 (ja) * 2008-10-23 2011-01-26 株式会社東芝 電子機器および映像処理方法
JP4496264B2 (ja) * 2008-10-24 2010-07-07 株式会社東芝 電子機器及び映像表示方法
JP2014029566A (ja) * 2012-07-03 2014-02-13 Interactive Communication Design Co Ltd 画像処理装置、画像処理方法、及び画像処理プログラム
US10715862B2 (en) * 2015-02-24 2020-07-14 Visenze Pte Ltd Method and system for identifying relevant media content
CN105227867A (zh) * 2015-09-14 2016-01-06 联想(北京)有限公司 一种图像处理方法及电子设备
US9865062B2 (en) * 2016-02-12 2018-01-09 Qualcomm Incorporated Systems and methods for determining a region in an image
US20170244894A1 (en) * 2016-02-22 2017-08-24 Seastar Labs, Inc. Method and Apparatus for Managing Latency of Remote Video Production
US9998720B2 (en) * 2016-05-11 2018-06-12 Mediatek Inc. Image processing method for locally adjusting image data of real-time image
JP6206857B1 (ja) * 2016-08-24 2017-10-04 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
CN106534667B (zh) * 2016-10-31 2020-02-11 努比亚技术有限公司 分布式协同渲染方法及终端
US20180160165A1 (en) * 2016-12-06 2018-06-07 Google Inc. Long-Hold Video Surfing
CN106991675A (zh) * 2017-03-31 2017-07-28 联想(北京)有限公司 一种图像处理方法及电子设备
US10715727B2 (en) * 2017-05-16 2020-07-14 Apple Inc. Synthetic long exposure image with optional enhancement using a guide image
CN108681436B (zh) * 2018-03-13 2020-09-22 Oppo广东移动通信有限公司 画质参数调节方法、装置、终端及存储介质
CN108737750A (zh) * 2018-06-07 2018-11-02 北京旷视科技有限公司 图像处理方法、装置及电子设备
CN109379625B (zh) * 2018-11-27 2020-05-19 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备和计算机可读介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098256B2 (en) * 2005-09-29 2012-01-17 Apple Inc. Video acquisition with integrated GPU processing
CN102625030A (zh) * 2011-02-01 2012-08-01 株式会社理光 视频增强方法和系统
CN102446352A (zh) * 2011-09-13 2012-05-09 深圳市万兴软件有限公司 视频图像处理方法及装置
CN103177744A (zh) * 2011-12-21 2013-06-26 深圳市快播科技有限公司 一种用于移动设备的低功耗播放方法和装置
CN103310411A (zh) * 2012-09-25 2013-09-18 中兴通讯股份有限公司 一种图像局部增强方法和装置
CN103440117A (zh) * 2013-08-29 2013-12-11 广东威创视讯科技股份有限公司 视频图像处理的方法及系统
CN108010491A (zh) * 2017-11-08 2018-05-08 孙兴珍 一种基于瞳孔半径检测的背景光调节方法
CN109168068A (zh) * 2018-08-23 2019-01-08 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质

Also Published As

Publication number Publication date
US20210281771A1 (en) 2021-09-09
CN109379625A (zh) 2019-02-22
WO2020108082A1 (zh) 2020-06-04
EP3886448A4 (en) 2021-12-15
EP3886448A1 (en) 2021-09-29

Similar Documents

Publication Publication Date Title
CN109379625B (zh) 视频处理方法、装置、电子设备和计算机可读介质
CN109242802B (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN109525901B (zh) 视频处理方法、装置、电子设备及计算机可读介质
CN109218802B (zh) 视频处理方法、装置、电子设备及计算机可读介质
CN109168068B (zh) 视频处理方法、装置、电子设备及计算机可读介质
US11706484B2 (en) Video processing method, electronic device and computer-readable medium
US11418832B2 (en) Video processing method, electronic device and computer-readable storage medium
CN109685726B (zh) 游戏场景处理方法、装置、电子设备以及存储介质
US20210287631A1 (en) Video Processing Method, Electronic Device and Storage Medium
CN109361949B (zh) 视频处理方法、装置、电子设备以及存储介质
WO2020107989A1 (zh) 视频处理方法、装置、电子设备以及存储介质
US20150178946A1 (en) Image adjustment using texture mask
CN109660821B (zh) 视频处理方法、装置、电子设备及存储介质
CN112596843B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
WO2020108010A1 (zh) 视频处理方法、装置、电子设备以及存储介质
WO2020108060A1 (zh) 视频处理方法、装置、电子设备以及存储介质
WO2022218042A1 (zh) 视频处理方法、装置、视频播放器、电子设备及可读介质
CN109167946B (zh) 视频处理方法、装置、电子设备以及存储介质
CN109218803B (zh) 视频增强控制方法、装置以及电子设备
CN114860141A (zh) 图像显示方法、装置、电子设备及计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant