CN110620946B - 字幕显示方法及装置 - Google Patents

字幕显示方法及装置 Download PDF

Info

Publication number
CN110620946B
CN110620946B CN201810638725.1A CN201810638725A CN110620946B CN 110620946 B CN110620946 B CN 110620946B CN 201810638725 A CN201810638725 A CN 201810638725A CN 110620946 B CN110620946 B CN 110620946B
Authority
CN
China
Prior art keywords
area
key
video picture
subtitle
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810638725.1A
Other languages
English (en)
Other versions
CN110620946A (zh
Inventor
张磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba China Co Ltd
Original Assignee
Alibaba China Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba China Co Ltd filed Critical Alibaba China Co Ltd
Priority to CN201810638725.1A priority Critical patent/CN110620946B/zh
Priority to TW108109578A priority patent/TW202002610A/zh
Priority to US16/442,329 priority patent/US10645332B2/en
Priority to PCT/US2019/037364 priority patent/WO2019245927A1/en
Publication of CN110620946A publication Critical patent/CN110620946A/zh
Application granted granted Critical
Publication of CN110620946B publication Critical patent/CN110620946B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Abstract

本公开涉及一种字幕显示方法及装置,所述方法包括:在接收到针对视频的播放请求时,确定视频中视频画面的字幕信息;识别所述视频画面中的关键区域;在所述视频画面中除所述关键区域以外的区域确定字幕显示区域;在所述视频的播放过程中,在所述字幕显示区域显示所述字幕信息中的字幕内容。在公开本实施例中,在除所述关键区域以外的区域确定字幕显示区域,可以避免关键区域内的显示内容被字幕遮挡,提高观看者的观看体验。

Description

字幕显示方法及装置
技术领域
本公开涉及显示技术领域,尤其涉及一种字幕显示方法及装置。
背景技术
在传统的字幕显示方法中,字幕通常固定显示在视频画面的固定位置。当字幕内容较多时,或当视频画面中关键内容所占的显示区域较大时,字幕容易遮挡观看者感兴趣的内容,给观看者带来不好的观看感受。
发明内容
有鉴于此,本公开提出了一种字幕显示方法及装置,用以解决字幕可能遮挡视频画面中的关键内容的问题。
根据本公开的一方面,提供了一种字幕显示方法,所述方法包括:
在接收到针对视频的播放请求时,确定视频中视频画面的字幕信息;
识别所述视频画面中的关键区域;
在所述视频画面中除所述关键区域以外的区域确定字幕显示区域,
在所述视频的播放过程中,在所述字幕显示区域显示所述字幕信息中的字幕内容。
在一种可能的实现方式中,识别所述视频画面中的关键区域,包括:
利用深度学习算法,识别所述视频画面中的关键区域。
在一种可能的实现方式中,利用深度学习算法,识别所述视频画面中的关键区域,包括:
利用深度学习算法在所述视频画面中确定目标对象;
将所述目标对象所在的显示区域,确定为关键区域。
在一种可能的实现方式中,将所述目标对象所在的显示区域,确定为所述视频画面的关键区域,包括:
利用深度学习算法确定所述目标对象的关键部位;
将所述关键部位所在的显示区域,确定为关键区域。
在一种可能的实现方式中,所述目标对象包括面部,利用深度学习算法在所述视频画面中确定目标对象,包括:
利用面部识别算法,在所述视频画面中检测得到面部。
在一种可能的实现方式中,识别所述视频画面中关键区域,包括:
利用关键窗口在所述视频画面中遍历,并将所述关键窗口所在的区域确定为候选区域,所述关键窗口的面积小于所述视频画面的面积;
提取所述候选区域内的特征,并根据提取到的特征确定所述候选区域内是否包括目标对象;
当所述候选区域内包括目标对象时,将所述候选区域确定为关键区域。
在一种可能的实现方式中,识别所述视频画面中的关键区域,包括:
当所述视频画面为所述视频画面之前的视频画面的近景画面时,识别所述视频画面中的关键区域。
在一种可能的实现方式中,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域,包括:
根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
在一种可能的实现方式中,所述字幕信息包括所述视频画面的原始字幕显示区域,根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域,包括:
当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域。
在一种可能的实现方式中,当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域,包括:
当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域分为至少两个显示子区域,并将至少两个所述显示子区域调整至所述视频画面中除所述关键区域以外的区域。
在一种可能的实现方式中,根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域,包括:
根据所述字幕信息中的字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
根据本公开的一方面,提供了一种字幕显示装置,所述装置包括:
字幕信息确定模块,用于在接收到针对视频的播放请求时,确定视频中视频画面的字幕信息;
关键区域确定模块,用于识别所述视频画面中的关键区域;
显示区域确定模块,用于在所述视频画面中除所述关键区域以外的区域确定字幕显示区域;
播放模块,用于在所述视频的播放过程中,在所述字幕显示区域显示所述字幕信息中的字幕内容。
在一种可能的实现方式中,所述关键区域确定模块包括:
第一关键区域确定子模块,用于利用深度学习算法,识别所述视频画面中的关键区域
在一种可能的实现方式中,所述第一关键区域确定子模块,包括:
目标对象确定子模块,用于利用深度学习算法在所述视频画面中确定目标对象;
第二关键区域确定子模块,用于将所述目标对象所在的显示区域,确定为关键区域。
在一种可能的实现方式中,所述第二关键区域确定子模块,包括:
关键部位确定子模块,用于利用深度学习算法确定所述目标对象的关键部位;
第三关键区域确定子模块,用于将所述关键部位所在的显示区域,确定为关键区域。
在一种可能的实现方式中,所述目标对象包括面部,所述目标对象确定子模块,包括:
面部检测子模块,用于利用面部识别算法,在所述视频画面中检测得到面部。
在一种可能的实现方式中,所述关键区域确定模块,包括:
遍历子模块,用于利用关键窗口在所述视频画面中遍历,并将所述关键窗口所在的区域确定为候选区域,所述关键窗口的面积小于所述视频画面的面积;
特征提取子模块,用于提取所述候选区域内的特征,并根据提取到的特征确定所述候选区域内是否包括目标对象;
第四关键区域确定子模块,用于当所述候选区域内包括目标对象时,将所述候选区域确定为关键区域。
在一种可能的实现方式中,所述关键区域确定模块,包括:
第五关键区域确定子模块,用于当所述视频画面为所述视频画面之前的视频画面的近景画面时,利用深度学习算法在所述视频画面中确定关键区域。
在一种可能的实现方式中,所述显示区域确定模块,包括:
第一显示区域确定子模块,用于根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
在一种可能的实现方式中,所述字幕信息包括所述视频画面的原始字幕显示区域,所述第一显示区域确定子模块,包括:
第二显示区域确定子模块,用于当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域。
在一种可能的实现方式中,所述第二显示区域确定子模块,包括:
第三显示区域确定子模块,用于当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域分为至少两个显示子区域,并将至少两个所述显示子区域调整至所述视频画面中除所述关键区域以外的区域。
在一种可能的实现方式中,所述第一显示区域确定子模块,包括:
第四显示区域确定子模块,用于根据所述字幕信息中的字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
根据本公开的一方面,提供了一种字幕显示装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行上述字幕显示方法。
根据本公开的一方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述字幕显示方法。
在本公开实施例中,在接收到针对视频的播放请求时,在视频画面中确定字幕信息,以及在视频画面中确定关键区域后,可以在视频画面中除所述关键区域以外的区域确定字幕显示区域。本公开实施例可以对视频进行在线的实时处理,在视频的播放过程中对视频画面中的关键区域进行自动识别,播放出的视频画面中,字幕不会遮挡关键区域中的显示内容,提高观看者的观看体验。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开一实施例的字幕显示方法的流程图;
图2示出根据本公开一实施例的字幕显示方法的流程图;
图3示出根据本公开一实施例的字幕显示方法的流程图;
图4示出根据本公开一实施例的字幕显示方法中步骤S20的流程图;
图5示出根据本公开一实施例的字幕显示方法的流程图;
图6示出根据本公开一实施例的字幕显示方法的流程图;
图7示出根据本公开一实施例的字幕显示方法中字幕调整前的示意图;
图8示出根据本公开一实施例的字幕显示方法中字幕调整后的示意图;
图9示出根据本公开一实施例的字幕显示方法中字幕调整后的示意图;
图10示出根据本公开一实施例的字幕显示装置的框图;
图11示出根据本公开一实施例的字幕显示装置的框图;
图12是根据一示例性实施例示出的一种用于字幕显示装置的框图;
图13是根据一示例性实施例示出的一种用于字幕显示装置的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出根据本公开一实施例的字幕显示方法的流程图,如图1所示,所述字幕显示方法包括:
步骤S10,在接收到针对视频的播放请求时,确定视频中视频画面的字幕信息。
在一种可能的实现方式中,视频可以是边拍摄边播出的直播视频,也可以是已经拍摄完成的录播视频;可以是利用拍摄设备拍摄到的视频,也可以是利用手工绘制或电脑设备制作出的视频。本公开对视频的类型和格式不做限定。
视频画面可以包括视频中的帧画面。视频画面可以包括二维视频的视频画面,也可以包括多维视频的视频画面。视频画面可以包括彩色视频画面,也可以包括黑白视频画面或单色视频画面。
字幕信息可以只包括字幕内容。可以根据需求确定字幕的显示位置后,将字幕添加至视频画面中,或在播放视频画面时在确定出的显示位置显示字幕。
字幕信息也可以包括字幕内容、字幕的显示位置信息。可以根据字幕的显示位置信息将字幕添加至视频画面中,或在播放视频画面时在显示位置信息确定的位置显示字幕。
字幕信息可以以文件的形式独立于视频画面所在的文件,也可以包括在视频画面的文件中。
步骤S20,识别所述视频画面中的关键区域。
在一种可能的实现方式中,关键区域可以是视频画面中包含关键内容的区域。可以根据视频画面中的显示内容确定关键内容,并根据关键内容确定视频画面中的关键区域。
视频画面中的显示内容可以包括主体和背景。可以将视频画面中的主体确定为视频画面的关键内容,将主体对应的显示区域确定为视频画面的关键区域。例如,视频画面A为赛车场的画面,视频画面A中的主体为赛车,背景包括赛车道和天空。可以将赛车确定为视频画面的关键内容,并将赛车对应的显示区域,确定为视频画面的关键区域。
也可以将视频画面中观看者可能感兴趣的显示内容确定为视频画面的关键内容。可以根据需求预设观看者可能感兴趣的关键内容。例如,在视频画面A中,背景的天空中有一架航拍的无人机,或天空中有一朵云,都是观看者可能感兴趣的内容,可以将无人机或云确定为视频画面A中的关键内容,并将无人机或云对应的显示区域,确定为视频画面A的关键区域。
在接收到针对视频的播放请求时,可以利用图像识别或深度学习算法等技术,识别视频画面中的关键内容,并根据识别出的关键内容确定视频画面中的关键区域。
步骤S30,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
在一种可能的实现方式中,当视频画面中包括关键区域时,观看者的视线会集中在关键区域内的关键内容上。关键区域可以出现在视频画面的任意位置,如果关键区域被字幕遮挡,观看者的观看感受差。
在一种可能的实现方式中,可以不考虑字幕信息,在视频画面中除关键区域以外的区域确定字幕显示区域。可以根据预先设置的参数(例如大小、位置等)来确定字幕显示区域。
其中,预先设置的大小参数,可以使确定出的字幕显示区域有足够的字幕显示空间,无论字幕内容中的字数有多少,都可以在字幕显示区域中完整地进行显示。预先设置的位置参数,可以使字幕显示区域在不遮挡视频画面中的关键区域的同时,因为显示位置的固定,给观看者带来良好的观看体验。例如,可以在视频画面下方三分之一的区域内确定字幕显示区域,也可以在视频画面的右侧四分之一的区域内字幕显示区域。不同视频画面的字幕显示区域的位置可以相同也可以不同。
在一种可能的实现方式中,可以根据字幕信息,在视频画面中除关键区域以外的区域确定字幕显示区域。例如,当根据字幕信息中的显示位置信息显示字幕,会遮挡关键区域时,可以将根据显示位置信息确定的字幕显示位置进行调整,调整至所述视频画面中除所述关键区域以外的区域,以使在调整后的字幕显示区域显示的字幕,不会遮挡视频画面中的关键内容。
步骤S40,在所述视频的播放过程中,在所述字幕显示区域显示所述字幕信息中的字幕内容。
在一种可能的实现方式中,可以根据字幕内容和本实施例确定出的字幕显示区域,获取更新后的字幕信息。更新后的字幕信息可以以文件的形式独立于视频画面所在文件,也可以放置于与视频画面所在的文件中。在播放视频画面时,可以根据更新后的字幕信息,调取字幕内容并在确定出的字幕显示区域进行显示。
还可以根据确定出的字幕显示区域,将字幕内容嵌入视频画面中作为内嵌字幕。在播放视频画面即同时播出字幕,且字幕不会遮挡关键内容。
可以由提供视频画面的服务器执行上述字幕显示方法。也可由用于播放视频画面的终端执行上述字幕显示方法。本公开对上述字幕显示方法的执行主体不做限定。例如步骤S40在由服务器执行时,服务器可控制终端在所述视频的播放过程中,在所述字幕显示区域显示所述字幕信息中的字幕内容。
在本实施例中,在接收到针对视频的播放请求时,在视频画面中确定字幕信息,在视频画面中确定关键区域后,可以在视频画面中除所述关键区域以外的区域确定字幕显示区域。在所述视频的播放过程中,在除所述关键区域以外的区域确定字幕显示区域,可以避免关键区域内的显示内容被字幕遮挡,提高观看者的观看体验。
本实施例可实现视频播放中字幕的实时调整,例如,在新闻等直播节目中,视频画面可以是直播画面。可以对视频中的直播画面进行实时处理,在拍摄到的直播画面中实时的确定字幕显示区域,播放直播画面并在确定的字幕显示区域显示字幕。使得直播节目中直播画面的字幕不遮挡关键区域,从而提高直播节目的观看性。
图2示出根据本公开一实施例的字幕显示方法的流程图,如图2所示,所述字幕显示方法中步骤S20包括:
步骤S21,利用深度学习算法,识别所述视频画面中的关键区域。
在一种可能的实现方式中,一幅图像可以使用多种方式来表示,例如可以将一幅图像表示成每个像素值强度的向量、一系列不同形状的边,或多个特定形状的子区域。可以将图像中上述的底层特征(每个像素值强度的向量等),经过组合形成图像的高层的特征或高层的属性类别(图像中的对象属性或特征,例如图像中的对象为猫)。深度学习可以利用底层的特征学习和分层特征提取等高效的算法,得到高层的特征。利用深度学习可以使用某些特定的表示方法,依据实例(例如图像)完成学习任务(例如进行人脸识别或面部表情识别等),得到实例的高层特征(识别出人脸或确定面部表情为微笑)。本公开不限定深度学习算法的具体实现方式。
可以利用深度学习算法,在视频画面中确定关键内容。例如可以利用深度学习算法,在视频画面中识别出主体或观看者可能感兴趣的关键内容。根据关键内容,可以在视频画面中确定关键区域。一个视频画面中可以包括一个或多个关键区域。关键区域的大小和形状可以相同,也可以不同。可以根据需求设定关键区域的大小和形状。
在本实施例中,可以利用深度学习算法在视频画面中确定关键区域。利用深度学习算法可以提高确定关键区域的处理效率。在除所述关键区域以外的区域确定字幕显示区域,可以避免关键区域内的显示内容被字幕遮挡,提高观看者的观看体验。
在一种可能的实现方式中,可以利用深度学习算法强大的处理能力,对视频中的视频画面进行实时的处理,包括实时确定视频画面中的关键区域,以及实时播放视频画面,且实时播放的视频画面中包括不遮挡关键区域的字幕。图3示出根据本公开一实施例的字幕显示方法的流程图,如图3所示,所述字幕显示方法中步骤S21包括:
步骤S211,利用深度学习算法在所述视频画面中确定目标对象。
在一种可能的实现方式中,可以根据需求确定视频画面中的目标对象。目标对象可以为人、动物、植物、汽车、建筑物、自然景观等不同类型的对象。目标对象也可以为人的面部、人的腿部、动物的面部等不同类型对象上的设定部位。
根据视频画面的显示内容,可以将一个或多个类型的对象,确定为目标对象。例如可以将视频画面中的主体确定为目标对象。
可以利用深度学习算法确定视频画面中的目标对象。例如视频画面中包括人、汽车和建筑物。可以将人和汽车确定为目标对象。可以利用包括人或汽车的样本图像,对深度学习神经网络进行训练,深度学习神经网络可以是利用深度学习算法进行目标对象识别的神经网络。训练好的深度学习神经网络可以在图像中识别出人和汽车。将视频画面B输入训练好的深度学习神经网络,可以根据深度学习神经网络的输出结果,在视频画面B中确定出人和汽车。
在一种可能的实现方式中,所述目标对象包括面部,利用深度学习算法在所述视频画面中确定目标对象,包括:
利用面部识别算法,在所述视频画面中检测得到面部。
在一种可能的实现方式中,深度学习算法可以包括面部识别算法。面部识别算法可以包括:基于面部特征的识别算法、基于整幅面部图像的识别算法、基于模板的识别算法和利用神经网络进行识别的算法。
利用面部识别算法进行面部检测,可以检测出视频画面中是否存在面部,可以将面部从视频画面中检测出来,并定位出面部在视频画面中的位置。例如,可以利用基于Eigenface(特征脸)的面部识别算法,在视频画面中检测得到面部。本公开不限定面部识别算法的实现方式。
面部可以包括人脸。面部识别算法可以包括人脸识别算法。
步骤S212,将所述目标对象所在的显示区域,确定为关键区域。
在一种可能的实现方式中,在视频画面中确定出目标对象后,可以将目标对象所在的显示区域确定为关键区域。关键区域可以与目标对象所在的显示区域的大小和形状保持一致。关键区域的形状也可以是预设的形状,例如矩形。
在本实施例中,利用深度学习算法在视频画面中确定目标对象,将视频画面中目标对象所在的显示区域,确定为关键区域。根据目标对象确定的关键区域,针对性强、定位结果准确。
在一种可能的实现法方式中,所述字幕显示方法中步骤S212包括:
利用深度学习算法确定所述目标对象的关键部位;
将所述关键部位所在的显示区域,确定为关键区域。
在一种可能的实现方式中,当视频画面中确定出较大的目标对象(即目标对象占视频画面的比例超过阈值),或在视频画面中确定出多个目标对象时,关键区域在视频画面中所占的比例也较大,最终导致字幕的显示位置不合理。例如,视频画面C为赛车画面的近景,赛车所在的显示区域在视频画面C中占据了80%的面积。如果只根据目标对象确定关键区域,只能将字幕显示在视频画面的两侧或顶部,字幕的显示位置不合理。观看者的观看体验差。
可以利用深度学习算法,在目标对象上确定关键部位。例如,当目标对象为人时,人的面部表情和肢体动作通常是视频画面中的关键内容,可以将人的面部、手等部位确定为关键部位。当目标对象为人的面部时,也可以将面部的嘴、眼睛等部位,确定为关键部位。当目标对象为赛车时,驾驶员、车标、车身图像或车轮部分,均可以确定为关键部位。
在一种可能的实现方式中,当根据关键部位确定出的关键区域,在视频画面中仍占占据较大面积时,可以继续在关键部位中确定子部位,并将子部位所在的显示区域确定为关键区域。例如,目标对象为人,关键部位为面部,但面部所在的显示区域仍然占据了视频画面的50%,可以进一步将面部中的子部位,例如嘴和眼睛所在的区域确定为关键区域。
目标对象的关键部位可以为一个或多个。可以根据需求确定目标对象的关键部位。确定出关键部位后,可以将关键部位所在的显示区域,确定为关键区域。
在本实施例中,利用深度学习算法在目标对象中确定关键部位,可以将目标对象的关键部位所在的显示区域,确定为关键区域。根据关键部位确定的关键区域,针对性更强。关键区域在视频画面所占的比例合理。最终视频画面中字幕的显示位置也更加合理。
图4示出根据本公开一实施例的字幕显示方法中步骤S20的流程图,如图4所示,所述字幕显示方法中步骤S20包括:
步骤S22,利用关键窗口在所述视频画面中遍历,并将所述关键窗口所在的区域确定为候选区域,所述关键窗口的面积小于所述视频画面的面积。
在一种可能的实现方式中,关键窗口包括设定尺寸和/或设定形状的窗口。可以根据视频画面的尺寸确定关键窗口的尺寸。例如,视频画面的尺寸为272mm*204mm,关键窗口的形状可以为矩形,尺寸可以为27mm*20mm。
可以根据设定的步长,利用关键窗口在视频画面中遍历,并将关键窗口内的视频画面对应的区域,确定为候选区域。例如,将关键窗口1按照设定步长1mm视频画面D中滑动,遍历视频画面D共得到M个候选区域。
关键窗口的大小可以基本包括视频画面中目标对象的整体。可以根据视频画面内容的不同调整关键窗口的大小。
可以利用大小不同的多个关键窗口,在一个或多个视频画面中遍历后得到候选区域。
各候选区域中的内容可以重叠,也可以不重叠。
步骤S23,提取所述候选区域内的特征,并根据提取到的特征确定所述候选区域内是否包括目标对象。
在一种可能的实现方式中,可以利用深度学习算法,提取候选区域内的特征,并将提取到的特征与目标对象的特征进行比较。根据比较结果,可以判断候选区域内是否包括目标对象。
例如,在视频画面E中,包括天空、草地和奔跑的马。目标对象为马。可以利用关键窗口遍历视频画面E后,得到N个候选区域。将N个候选区域输入深度学习神经网络。深度学习神经网络可以提取各候选区域内的特征,将提取到的特征与马的特征进行比较,并根据比较结果确定各候选区域内是否包括马。
步骤S24,当所述候选区域内包括目标对象时,将所述候选区域确定为关键区域。
在一种可能的实现方式中,根据深度学习神经网络的输出结果,可以判断第K个候选区域内包括目标对象马。可以将第K个候选区域确定为关键区域。
在本实施例中,可以根据关键窗口在视频画面中确定候选区域,并根据深度学习算法提取候选区域的特征后,确定候选区域中是否包括目标对象。将包括目标对象的候选区域确定为关键区域。利用遍历窗口和深度学习算法中的特征提取,可以提高在视频画面中确定关键区域的处理效率。
图5示出根据本公开一实施例的字幕显示方法的流程图,如图5所示,所述字幕显示方法中步骤S20包括:
步骤S25,当所述视频画面为所述视频画面之前的视频画面的近景画面时,利用深度学习算法在所述视频画面中确定关键区域。
在一种可能的实现方式中,在视频画面所属的视频中,针对相同的对象,可以利用远景和近景进行展示。其中,拍摄远景时,目标对象距离拍摄设备较远,在拍摄到的视频画面中目标对象占据的面积较小,远景的视频画面通常包括目标对象的整体。拍摄近景时,目标对象距离拍摄设备较近,在视频画面中目标对象占据的面积较大,近景的视频画面通常只包括目标对象的局部。因此,近景的视频画面通常比远景的视频画面具有更多的细节内容。
可以通过识别视频画面中的显示内容,确定视频画面是否为之前视频画面的近景画面。例如,可以根据视频画面与之前的视频画面是否包括了相同的目标对象,且目标对象在视频画面中所占的显示区域的面积,比目标对象在之前视频画面中所占的显示区域的面积是否更大,来确定视频画面是否为之前的视频画面的近景画面。
当视频画面为之前的视频画面的近景画面时,需要在视频画面中确定关键区域,以免字幕遮盖住视频画面中的细节内容。
在一种可能的实现方式中,当视频画面不是所述视频画面之前的视频画面的近景画面,且之前的视频画面中没有关键区域时,可以不在视频画面中确定关键区域。
在本实施例中,当视频画面为所述视频画面之前的视频画面的近景画面时,在所述视频画面中确定关键区域。可以根据视频画面与之前视频画面的关联关系,方便快捷地确定是否需要在视频画面中确定关键区域,以提高本公开实施例的执行效率。
图6示出根据本公开一实施例的字幕显示方法的流程图,如图6所示,所述字幕显示方法中步骤S30包括:
步骤S31,根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
在一种可能的实现方式中,可以只根据字幕信息中的字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。例如,可以根据字幕内容中字数的多少,在除关键区域以外的区域内确定字幕显示区域。在保证字幕显示区域有足够的空间来清晰地显示字幕的同时,字幕显示区域的位置也可以更加灵活地进行设置。
在一种可能的实现方式中,也可以根据字幕信息中的字幕内容和显示位置信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。当根据字幕信息中的显示位置信息显示的字幕,会遮挡关键区域时,可以根据字幕内容中的字数,直接在所述视频画面中除所述关键区域以外的区域确定出大小与字数成正比的字幕显示区域。也可以将根据字幕信息中的显示位置信息确定的字幕显示区域,调整至所述视频画面中除所述关键区域以外的区域。
当根据字幕信息中的显示位置信息显示的字幕,不会遮挡关键区域时,可以不对根据显示位置信息确定的字幕显示区域进行调整,直接根据显示位置信息确定最终的字幕显示区域。也可以将根据显示位置信息确定的字幕显示区域进行调整,调整至所述视频画面中除所述关键区域以外的其它区域。
在本实施例中,根据字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。可以使得视频画面中的字幕不会遮挡关键内容,也可以更加灵活地设置字幕显示区域的位置和大小。
在一种可能的实现方式中,所述字幕信息包括所述视频画面的原始字幕显示区域,所述字幕显示方法中步骤S31包括:
当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域。
在一种可能的实现方式中,当字幕信息包括字幕的显示位置信息时,视频画面中字幕的显示区域已经被确定。字幕的显示位置信息可以包括原始字幕显示区域。
在一种可能的实现方式中,当原始字幕显示区域和关键区域有重叠时,字幕会遮挡关键区域中的关键内容。可以将原始字幕显示区域移动至所述视频画面中除所述关键区域以外的区域,得到调整后的字幕显示区域。
可以将原始字幕显示区域整体调整至所述视频画面中除所述关键区域以外的任意区域或设定范围内的区域。可以将原始字幕显示区域向上、向下或向任意方向调整,以使调整后的字幕显示区域与关键区域不重叠。
调整后的字幕显示区域如果位置调整过大,视频画面在观看时,可能与之前视频画面的字幕位置差异过大,导致观看者有不好的观看体验。可以将原始字幕显示区域按照设定的移动方向进行调整,例如向下调整。可以将原始字幕显示区域按照设定的移动距离进行调整,例如,可以将原始字幕显示区域移动1厘米。也可以将原始字幕显示区域移动至设定的位置或按照设定的显示方向进行显示。例如,可以将原始字幕显示区域移动至屏幕的最右侧进行竖向显示。
在一种可能的实现方式中,当原始字幕显示区域和关键区域有重叠时,也可以只根据字幕信息中的字幕内容,忽略字幕的显示位置信息,在视频画面中除所述关键区域以外的区域重新确定字幕显示区域。
在一种可能的实现方式中,当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域,包括:
当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域分为至少两个显示子区域,并将至少两个所述显示子区域调整至所述视频画面中除所述关键区域以外的区域。
在一种可能的实现方式中,可以将原始字幕显示区域分为至少两个显示子区域,再将与关键区域重叠的显示子区域调整至所述视频画面中除所述关键区域以外的区域,并将剩余的显示子区域的位置进行相应的调整。调整后的显示子区域能够按照正常的显示顺序显示字幕,例如,调整后的显示子区域在同一条水平线上,不影响字幕的观看体验。
例如,可以将原始字幕显示区域分为两个显示子区域,并将两个显示子区域分别向左和向右移动,调整后的两个显示子区域可以分别在关键区域的左侧相邻和右侧相邻的位置,且两个显示子区域在同一条水平线上。
在本实施例中,当原始字幕显示区域与关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域。通过将与关键区域有重叠的原始字幕显示区域进行调整,可以避免字幕遮挡关键区域的显示内容,为观看者提供良好的观看体验。
在一种可能的实现方式中,所述字幕显示方法中步骤S31,包括:
根据所述字幕信息中的字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
在一种可能的实现方式中,当字幕信息中只包括字幕内容时,可以根据字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。当字幕信息中包括字幕内容和显示位置信息时,也可以只考虑字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
可以根据字幕内容中字数的多少,在所述视频画面中除所述关键区域以外的区域,确定大小与字数成正比的字幕显示区域。可以在视频画面的设定位置,确定大小与字数成正比的字幕显示区域。例如,在视频画面的右侧四分之一处,确定字幕显示区域。也可以根据确定出的字幕显示区域的大小,在视频画面的相应位置确定字幕显示区域。例如,当字幕内容中字数较少时,确定出的字幕显示区域较小,可以在视频画面的底部确定字幕显示区域。当字幕内容中字数较多时,确定出的字幕显示区域较大,可以在视频画面的上部或两侧确定字幕显示区域。
在本实施例中,根据字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。可以使确定出的字幕显示区域的大小更适应字幕内容中的字数的多少。也可以根据字幕显示区域的大小不同更合理的设置字幕显示区域的位置。
应用示例
图7示出根据本公开一实施例的字幕显示方法中字幕调整前的示意图。将人脸确定为目标对象之一。在如图7所示的视频画面A中,字幕信息包括原始字幕显示区域。在播放视频画面A时,在原始字幕显示区域显示的字幕遮挡了部分人脸,观看者的观看体验差。
可以利用深度学习算法,确定视频画面A中包括人脸。并将人脸所在的区域确定为关键区域。在图7中,原始字幕显示区域和关键区域有重叠。可以将原始字幕显示区域调整至视频画面A中除关键区域以外的区域。
图8示出根据本公开一实施例的字幕显示方法中字幕调整后的示意图。如图8所示,将原始字幕显示区域的位置进行了调整,调整后的字幕显示区域在人脸的右侧,字幕不再遮挡人脸。观看者的观看体验良好。
图9示出根据本公开一实施例的字幕显示方法中字幕调整后的示意图。如图9所示,将原始字幕显示区域分为两个子区域后,将两个子区域分别调整至关键区域的左右两侧,调整后的字幕显示区域包括两个子区域,字幕不再遮挡人脸。观看者的观看体验良好。
图10示出根据本公开一实施例的字幕显示装置的框图,如图10所示,所述字幕显示装置包括:
字幕信息确定模块10,用于在接收到针对视频的播放请求时,确定视频中视频画面的字幕信息;
关键区域确定模块20,用于识别所述视频画面中的关键区域;
显示区域确定模块30,用于在所述视频画面中除所述关键区域以外的区域确定字幕显示区域;
播放模块40,用于在所述视频的播放过程中,在所述字幕显示区域显示所述字幕信息中的字幕内容。
图11示出根据本公开一实施例的字幕显示装置的框图,如图11所示,在一种可能的实现方式中,所述关键区域确定模块20包括:
第一关键区域确定子模块21,用于利用深度学习算法,识别所述视频画面中的关键区域
在一种可能的实现方式中,所述第一关键区域确定子模块21,包括:
目标对象确定子模块,用于利用深度学习算法在所述视频画面中确定目标对象;
第二关键区域确定子模块,用于将所述目标对象所在的显示区域,确定为关键区域。
在一种可能的实现方式中,所述第二关键区域确定子模块,包括:
关键部位确定子模块,用于利用深度学习算法确定所述目标对象的关键部位;
第三关键区域确定子模块,用于将所述关键部位所在的显示区域,确定为关键区域。
在一种可能的实现方式中,所述目标对象包括面部,所述目标对象确定子模块,包括:
面部检测子模块,用于利用面部识别算法,在所述视频画面中检测得到面部。
在一种可能的实现方式中,所述关键区域确定模块20,包括:
遍历子模块22,用于利用关键窗口在所述视频画面中遍历,并将所述关键窗口所在的区域确定为候选区域,所述关键窗口的面积小于所述视频画面的面积;
特征提取子模块23,用于提取所述候选区域内的特征,并根据提取到的特征确定所述候选区域内是否包括目标对象;
第四关键区域确定子模块24,用于当所述候选区域内包括目标对象时,将所述候选区域确定为关键区域。
在一种可能的实现方式中,所述关键区域确定子模块20,包括:
第五关键区域确定子模块25,用于当所述视频画面为所述视频画面之前的视频画面的近景画面时,利用深度学习算法在所述视频画面中确定关键区域。
在一种可能的实现方式中,所述显示区域确定模块30,包括:
第一显示区域确定子模块31,用于根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
在一种可能的实现方式中,所述字幕信息包括所述视频画面的原始字幕显示区域,所述第一显示区域确定子模块31,包括:
第二显示区域确定子模块,用于当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域。
在一种可能的实现方式中,所述第二显示区域确定子模块,包括:
第三显示区域确定子模块,用于当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域分为至少两个显示子区域,并将至少两个所述显示子区域调整至所述视频画面中除所述关键区域以外的区域。
在一种可能的实现方式中,所述第一显示区域确定子模块31,包括:
第四显示区域确定子模块,用于根据所述字幕信息中的字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
图12是根据一示例性实施例示出的一种用于字幕显示装置的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图12,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由装置800的处理器820执行以完成上述方法。
图13是根据一示例性实施例示出的一种用于字幕显示装置的框图。例如,装置1900可以被提供为一服务器。参照图13,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由装置1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (22)

1.一种字幕显示方法,其特征在于,所述方法包括:
在接收到针对视频的播放请求时,确定视频中视频画面的字幕信息;
识别所述视频画面中的关键区域;
在所述视频画面中除所述关键区域以外的区域确定字幕显示区域;
在所述视频的播放过程中,在所述字幕显示区域显示所述字幕信息中的字幕内容,根据所述字幕显示区域,将所述字幕内容嵌入所述视频画面中作为内嵌字幕;
其中,识别所述视频画面中的关键区域,包括:
当所述视频画面为所述视频画面之前的视频画面的近景画面时,识别所述视频画面中的关键区域;当所述视频画面不是所述视频画面之前的视频画面的近景画面,且所述之前的视频画面中没有关键区域时,不在所述视频画面中确定关键区域。
2.根据权利要求1所述的方法,其特征在于,识别所述视频画面中的关键区域,包括:
利用深度学习算法,识别所述视频画面中的关键区域。
3.根据权利要求2所述的方法,其特征在于,利用深度学习算法,识别所述视频画面中的关键区域,包括:
利用深度学习算法在所述视频画面中确定目标对象;
将所述目标对象所在的显示区域,确定为关键区域。
4.根据权利要求3所述的方法,其特征在于,将所述目标对象所在的显示区域,确定为所述视频画面的关键区域,包括:
利用深度学习算法确定所述目标对象的关键部位;
将所述关键部位所在的显示区域,确定为关键区域。
5.根据权利要求3所述的方法,其特征在于,所述目标对象包括面部,利用深度学习算法在所述视频画面中确定目标对象,包括:
利用面部识别算法,在所述视频画面中检测得到面部。
6.根据权利要求1所述的方法,其特征在于,识别所述视频画面中关键区域,包括:
利用关键窗口在所述视频画面中遍历,并将所述关键窗口所在的区域确定为候选区域,所述关键窗口的面积小于所述视频画面的面积;
提取所述候选区域内的特征,并根据提取到的特征确定所述候选区域内是否包括目标对象;
当所述候选区域内包括目标对象时,将所述候选区域确定为关键区域。
7.根据权利要求1所述的方法,其特征在于,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域,包括:
根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
8.根据权利要求7所述的方法,其特征在于,所述字幕信息包括所述视频画面的原始字幕显示区域,
根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域,包括:
当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域。
9.根据权利要求8所述的方法,其特征在于,当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域,包括:
当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域分为至少两个显示子区域,并将至少两个所述显示子区域调整至所述视频画面中除所述关键区域以外的区域。
10.根据权利要求7所述的方法,其特征在于,根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域,包括:
根据所述字幕信息中的字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
11.一种字幕显示装置,其特征在于,所述装置包括:
字幕信息确定模块,用于在接收到针对视频的播放请求时,确定视频中视频画面的字幕信息;
关键区域确定模块,用于识别所述视频画面中的关键区域;
显示区域确定模块,用于在所述视频画面中除所述关键区域以外的区域确定字幕显示区域;
播放模块,用于在所述视频的播放过程中,在所述字幕显示区域显示所述字幕信息中的字幕内容,根据所述字幕显示区域,将所述字幕内容嵌入所述视频画面中作为内嵌字幕;
其中,所述关键区域确定模块,包括:
第五关键区域确定子模块,用于当所述视频画面为所述视频画面之前的视频画面的近景画面时,利用深度学习算法在所述视频画面中确定关键区域;当所述视频画面不是所述视频画面之前的视频画面的近景画面,且所述之前的视频画面中没有关键区域时,不在所述视频画面中确定关键区域。
12.根据权利要求11所述的装置,其特征在于,所述关键区域确定模块包括:
第一关键区域确定子模块,用于利用深度学习算法,识别所述视频画面中的关键区域。
13.根据权利要求12所述的装置,其特征在于,所述第一关键区域确定子模块,包括:
目标对象确定子模块,用于利用深度学习算法在所述视频画面中确定目标对象;
第二关键区域确定子模块,用于将所述目标对象所在的显示区域,确定为关键区域。
14.根据权利要求13所述的装置,其特征在于,所述第二关键区域确定子模块,包括:
关键部位确定子模块,用于利用深度学习算法确定所述目标对象的关键部位;
第三关键区域确定子模块,用于将所述关键部位所在的显示区域,确定为关键区域。
15.根据权利要求13所述的装置,其特征在于,所述目标对象包括面部,所述目标对象确定子模块,包括:
面部检测子模块,用于利用面部识别算法,在所述视频画面中检测得到面部。
16.根据权利要求11所述的装置,其特征在于,所述关键区域确定模块,包括:
遍历子模块,用于利用关键窗口在所述视频画面中遍历,并将所述关键窗口所在的区域确定为候选区域,所述关键窗口的面积小于所述视频画面的面积;
特征提取子模块,用于提取所述候选区域内的特征,并根据提取到的特征确定所述候选区域内是否包括目标对象;
第四关键区域确定子模块,用于当所述候选区域内包括目标对象时,将所述候选区域确定为关键区域。
17.根据权利要求11所述的装置,其特征在于,所述显示区域确定模块,包括:
第一显示区域确定子模块,用于根据所述字幕信息,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
18.根据权利要求17所述的装置,其特征在于,所述字幕信息包括所述视频画面的原始字幕显示区域,所述第一显示区域确定子模块,包括:
第二显示区域确定子模块,用于当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域调整至所述视频画面中除所述关键区域以外的区域。
19.根据权利要求18所述的装置,其特征在于,所述第二显示区域确定子模块,包括:
第三显示区域确定子模块,用于当所述原始字幕显示区域和所述关键区域有重叠时,将所述原始字幕显示区域分为至少两个显示子区域,并将至少两个所述显示子区域调整至所述视频画面中除所述关键区域以外的区域。
20.根据权利要求17所述的装置,其特征在于,所述第一显示区域确定子模块,包括:
第四显示区域确定子模块,用于根据所述字幕信息中的字幕内容,在所述视频画面中除所述关键区域以外的区域确定字幕显示区域。
21.一种字幕显示装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1至10任一项所述的方法。
22.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至10中任意一项所述的方法。
CN201810638725.1A 2018-06-20 2018-06-20 字幕显示方法及装置 Active CN110620946B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810638725.1A CN110620946B (zh) 2018-06-20 2018-06-20 字幕显示方法及装置
TW108109578A TW202002610A (zh) 2018-06-20 2019-03-20 字幕顯示方法及裝置
US16/442,329 US10645332B2 (en) 2018-06-20 2019-06-14 Subtitle displaying method and apparatus
PCT/US2019/037364 WO2019245927A1 (en) 2018-06-20 2019-06-14 Subtitle displaying method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810638725.1A CN110620946B (zh) 2018-06-20 2018-06-20 字幕显示方法及装置

Publications (2)

Publication Number Publication Date
CN110620946A CN110620946A (zh) 2019-12-27
CN110620946B true CN110620946B (zh) 2022-03-18

Family

ID=68919897

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810638725.1A Active CN110620946B (zh) 2018-06-20 2018-06-20 字幕显示方法及装置

Country Status (4)

Country Link
US (1) US10645332B2 (zh)
CN (1) CN110620946B (zh)
TW (1) TW202002610A (zh)
WO (1) WO2019245927A1 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107690078B (zh) * 2017-09-28 2020-04-21 腾讯科技(深圳)有限公司 弹幕信息显示方法、提供方法以及设备
CN112866785B (zh) * 2018-08-17 2021-10-29 腾讯科技(深圳)有限公司 图片生成方法、装置、设备及存储介质
CN110286813B (zh) * 2019-05-22 2020-12-01 北京达佳互联信息技术有限公司 图标位置确定方法和装置
US11070891B1 (en) * 2019-12-10 2021-07-20 Amazon Technologies, Inc. Optimization of subtitles for video content
CN111294646B (zh) * 2020-02-17 2022-08-30 腾讯科技(深圳)有限公司 一种视频处理方法、装置、设备及存储介质
CN114731461A (zh) * 2020-07-29 2022-07-08 谷歌有限责任公司 非遮挡视频叠加
CN112087546B (zh) * 2020-09-11 2021-11-09 维沃移动通信有限公司 消息显示方法、装置、电子设备和可读存储介质
CN112383810A (zh) * 2020-11-10 2021-02-19 北京字跳网络技术有限公司 歌词视频展示方法、装置、电子设备及计算机可读介质
CN112738629B (zh) * 2020-12-29 2023-03-10 北京达佳互联信息技术有限公司 视频展示方法、装置、电子设备和存储介质
CN112911404A (zh) * 2021-01-25 2021-06-04 当趣网络科技(杭州)有限公司 视频字幕处理方法、装置、电子设备及介质
CN112954441B (zh) * 2021-03-02 2023-06-06 北京字节跳动网络技术有限公司 视频编辑及播放方法、装置、设备、介质
CN113326844B (zh) * 2021-06-18 2023-04-18 咪咕数字传媒有限公司 视频字幕添加方法、装置、计算设备及计算机存储介质
CN114567798B (zh) * 2022-02-28 2023-12-12 南京烽火星空通信发展有限公司 一种针对互联网短视频变种的溯源方法
TWI826293B (zh) * 2023-03-22 2023-12-11 宏碁股份有限公司 自動調整視訊會議版面之方法及應用其之電子裝置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101645137A (zh) * 2009-07-17 2010-02-10 中国科学院声学研究所 足球视频远景镜头中对足球位置的自动检测方法

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7571386B2 (en) * 2004-05-03 2009-08-04 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses associated therewith
JP2007065928A (ja) 2005-08-30 2007-03-15 Toshiba Corp 情報記憶媒体、情報処理方法、情報転送方法、情報再生方法、情報再生装置、情報記録方法、情報記録装置、及びプログラム
JP2007004896A (ja) 2005-06-23 2007-01-11 Toshiba Corp 情報記憶媒体、情報転送方法、情報再生方法、及び情報記録方法
JP2007048348A (ja) 2005-08-08 2007-02-22 Toshiba Corp 情報記憶媒体、情報再生装置、情報再生方法、及び情報再生プログラム
JP2007080357A (ja) 2005-09-13 2007-03-29 Toshiba Corp 情報記憶媒体、情報再生方法、情報再生装置
JP2007115293A (ja) 2005-10-17 2007-05-10 Toshiba Corp 情報記憶媒体、プログラム、情報再生方法、情報再生装置、データ転送方法、及びデータ処理方法
JP2007207328A (ja) 2006-01-31 2007-08-16 Toshiba Corp 情報記憶媒体、プログラム、情報再生方法、情報再生装置、データ転送方法、及びデータ処理方法
KR100736095B1 (ko) 2006-02-24 2007-07-06 삼성전자주식회사 실시간 동영상 스트림의 화면 크기를 제어하는 장치 및방법
JP2007305173A (ja) 2006-05-08 2007-11-22 Toshiba Corp 情報記憶媒体、情報再生方法、及び情報再生装置
JP4954291B2 (ja) 2007-11-12 2012-06-13 三菱電機株式会社 デジタル放送受信機
US8079054B1 (en) * 2008-04-14 2011-12-13 Adobe Systems Incorporated Location for secondary content based on data differential
US20110019088A1 (en) 2008-04-17 2011-01-27 Daisuke Kase Digital television signal processor and method of displaying subtitle
US20090273711A1 (en) * 2008-04-30 2009-11-05 Centre De Recherche Informatique De Montreal (Crim) Method and apparatus for caption production
JP4577409B2 (ja) * 2008-06-10 2010-11-10 ソニー株式会社 再生装置、再生方法、プログラム、及び、データ構造
JP4518194B2 (ja) * 2008-06-10 2010-08-04 ソニー株式会社 生成装置、生成方法、及び、プログラム
US8166398B2 (en) 2008-10-29 2012-04-24 Cyberlink Corp. Method and system for dynamically displaying a control bar of a multimedia player
US20110285726A1 (en) 2009-02-18 2011-11-24 William Gibbens Redmann Method and apparatus for preparing subtitles for display
JP2010226351A (ja) * 2009-03-23 2010-10-07 Fujitsu Ten Ltd 映像再生装置
US9025933B2 (en) * 2010-02-12 2015-05-05 Sony Corporation Information processing device, information processing method, playback device, playback method, program and recording medium
US9241149B2 (en) 2010-04-01 2016-01-19 Thomson Licensing Subtitles in three-dimensional (3D) presentation
JP5728649B2 (ja) 2010-08-06 2015-06-03 パナソニックIpマネジメント株式会社 再生装置、集積回路、再生方法、プログラム
US20120206567A1 (en) * 2010-09-13 2012-08-16 Trident Microsystems (Far East) Ltd. Subtitle detection system and method to television video
US8754984B2 (en) * 2011-05-02 2014-06-17 Futurewei Technologies, Inc. System and method for video caption re-overlaying for video adaptation and retargeting
JP5790187B2 (ja) 2011-06-16 2015-10-07 ソニー株式会社 表示装置
US20130177891A1 (en) 2011-07-02 2013-07-11 Joachim Hammerschmidt Audio-visual learning system
JP2013051660A (ja) 2011-08-04 2013-03-14 Sony Corp 送信装置、送信方法および受信装置
US9407897B2 (en) * 2011-09-30 2016-08-02 Panasonic Intellectual Property Management Co., Ltd. Video processing apparatus and video processing method
WO2012167568A1 (zh) * 2011-11-23 2012-12-13 华为技术有限公司 视频广告播放方法、设备和系统
US9467750B2 (en) * 2013-05-31 2016-10-11 Adobe Systems Incorporated Placing unobtrusive overlays in video content
CN104035690B (zh) * 2014-06-25 2017-11-03 联想(北京)有限公司 一种字幕显示位置调整方法及电子设备
CN106254933B (zh) * 2016-08-08 2020-02-18 腾讯科技(深圳)有限公司 字幕提取方法及装置
US20180211556A1 (en) 2017-01-23 2018-07-26 Rovi Guides, Inc. Systems and methods for adjusting display lengths of subtitles based on a user's reading speed

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101645137A (zh) * 2009-07-17 2010-02-10 中国科学院声学研究所 足球视频远景镜头中对足球位置的自动检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
车载单目远红外行人检测关键技术研究;王国华;《中国优秀博士学位论文全文数据库信息科技辑》;20170515;全文 *

Also Published As

Publication number Publication date
US10645332B2 (en) 2020-05-05
US20190394419A1 (en) 2019-12-26
WO2019245927A1 (en) 2019-12-26
CN110620946A (zh) 2019-12-27
TW202002610A (zh) 2020-01-01

Similar Documents

Publication Publication Date Title
CN110620946B (zh) 字幕显示方法及装置
CN108986199B (zh) 虚拟模型处理方法、装置、电子设备及存储介质
CN109257645B (zh) 视频封面生成方法及装置
WO2016192325A1 (zh) 视频文件的标识处理方法及装置
CN105611373B (zh) 视频图像处理方法及装置
CN108985176B (zh) 图像生成方法及装置
CN109087238B (zh) 图像处理方法和装置、电子设备以及计算机可读存储介质
US10217487B2 (en) Method and device for controlling playback
CN110619350B (zh) 图像检测方法、装置及存储介质
CN108347482B (zh) 信息采集方法及装置
CN108848389B (zh) 一种全景视频处理方法及播放系统
CN109784164B (zh) 前景识别方法、装置、电子设备及存储介质
US11574415B2 (en) Method and apparatus for determining an icon position
CN108986117B (zh) 视频图像分割方法及装置
CN106131441A (zh) 拍照方法及装置、电子设备
CN106454411B (zh) 台标处理方法和装置
CN112219224A (zh) 图像处理方法及装置、电子设备和存储介质
CN110620947A (zh) 字幕显示区域确定方法及装置
CN107105311B (zh) 直播方法及装置
CN112990197A (zh) 车牌识别方法及装置、电子设备和存储介质
CN112235510A (zh) 拍摄方法、装置、电子设备和介质
CN112330717A (zh) 目标跟踪方法及装置、电子设备和存储介质
CN111832338A (zh) 对象检测方法及装置、电子设备和存储介质
CN113315903B (zh) 图像获取方法和装置、电子设备、存储介质
US11252341B2 (en) Method and device for shooting image, and storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200521

Address after: 310052 room 508, floor 5, building 4, No. 699, Wangshang Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province

Applicant after: Alibaba (China) Co.,Ltd.

Address before: 100000 room 26, 9 Building 9, Wangjing east garden four, Chaoyang District, Beijing.

Applicant before: BEIJING YOUKU TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant