CN105791692A - 一种信息处理方法及终端 - Google Patents

一种信息处理方法及终端 Download PDF

Info

Publication number
CN105791692A
CN105791692A CN201610143985.2A CN201610143985A CN105791692A CN 105791692 A CN105791692 A CN 105791692A CN 201610143985 A CN201610143985 A CN 201610143985A CN 105791692 A CN105791692 A CN 105791692A
Authority
CN
China
Prior art keywords
information
media information
paster
video
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610143985.2A
Other languages
English (en)
Other versions
CN105791692B (zh
Inventor
汪倩怡
戴阳刚
应磊
吴发强
崔凌睿
邬振海
高雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201610143985.2A priority Critical patent/CN105791692B/zh
Publication of CN105791692A publication Critical patent/CN105791692A/zh
Priority to PCT/CN2017/076576 priority patent/WO2017157272A1/zh
Priority to KR1020187026680A priority patent/KR102135215B1/ko
Priority to JP2018527883A priority patent/JP2019504532A/ja
Priority to US15/962,663 priority patent/US11140436B2/en
Application granted granted Critical
Publication of CN105791692B publication Critical patent/CN105791692B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种信息处理方法及终端,其中,所述方法包括:在终端开启应用,获取第一操作,触发第一媒体信息的采集;终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;终端接收服务器推送的与所述关键信息对应的第二媒体信息;将第一媒体信息和第二媒体信息按照预设配置进行视频合成。

Description

一种信息处理方法及终端
技术领域
本发明涉及通讯技术,尤其涉及一种信息处理方法及终端。
背景技术
用户利用终端如手机中的应用来录制视频,将录制的视频进行信息分享,是常见的信息处理方案,录制的视频,还可以附加一些与视频内容相关或不相关的其他信息,来得到合成的视频。
要得到该合成的视频,需要执行附加其他信息的操作是非常复杂和繁琐的,需要用户去素材库选择这些信息,比如,就与视频内容相关的信息而言,用户需要去素材库选择与视频内容中某段视频信息相关的信息,即便选择的该信息是符合相关性需求的,还要进一步考虑:将该信息附加到视频内容中的哪个位置,哪个时间点等等因素,这种交互模式非常复杂,需要多次交互,势必导致处理效率低下,且来回交互往复,处理的时间成本也很高,最终达到的合成视频的效果也可能差强人意,并不符合真实的用户需求,用户可能重新再合成一次,那么,利用终端进行视频合成的信息处理成本会持续增加。然而,相关技术中,对于该问题,尚无有效解决方案。
发明内容
有鉴于此,本发明实施例希望提供一种信息处理方法及终端,至少解决了现有技术存在的问题。
本发明实施例的技术方案是这样实现的:
本发明实施例的一种信息处理方法,所述方法包括:
在终端开启应用,获取第一操作,触发第一媒体信息的采集;
终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;
终端接收服务器推送的与所述关键信息对应的第二媒体信息;
将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
上述方案中,所述关键信息,还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
上述方案中,所述方法还包括:
将第一媒体信息和第二媒体信息按照预设配置进行视频合成之前,终端接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
上述方案中,所述将第一媒体信息和第二媒体信息按照预设配置进行视频合成,包括:
响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内;或者,
响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
上述方案中,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
上述方案中,所述响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成包括:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器后,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
上述方案中,所述响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,包括:
响应所述文字信息,将检测到的文字信息上报服务器,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
本发明实施例的一种终端,所述终端包括:
触发单元,用于在终端开启应用,获取第一操作,触发第一媒体信息的采集;
检测单元,用于采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;
接收单元,用于接收服务器推送的与所述关键信息对应的第二媒体信息;
合成单元,用于将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
上述方案中,所述关键信息,还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
上述方案中,所述接收单元,进一步用于:接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
上述方案中,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内;或者,
响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
上述方案中,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
上述方案中,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
上述方案中,所述合成单元,进一步用于:
响应所述文字信息,将检测到的文字信息上报服务器后,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
本发明实施例的信息处理方法包括:在终端开启应用,获取第一操作,触发第一媒体信息的采集;终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;终端接收服务器推送的与所述关键信息对应的第二媒体信息;将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
采用本发明实施例,实时采集第一媒体信息的过程中,检测到表情变化或用户动作变化时,基于变化量从服务器得到对应的第二媒体信息,将第一媒体信息和第二媒体信息按照预设配置进行视频合成,则在第一媒体信息采集结束后,重新回放该第一媒体信息,在第一媒体信息的指定位置和指定时间显示有对应的第二媒体信息。由于,第二媒体信息无需用户手动选择和添加,因此,简化了操作流程,提高了处理效率;根据采集第一媒体信息的过程中得到的检测结果(如表情变化或用户动作变化)请求索取的对应第二媒体信息也更符合真实的用户需求(首先是第二媒体信息的内容本身比较精准,其次,第二媒体信息出现的位置和时间也能配合上如表情变化或用户动作变化等检测结果,位置和时间点也精准),符合需求,不仅减少了多次交互,也不需要后续再次调整和重新合成,降低了视频合成的信息处理成本和时间成本。
附图说明
图1为本发明实施例中进行信息交互的各方硬件实体的示意图;
图2为本发明实施例一的一个实现流程示意图;
图3为应用本发明实施例的应用场景示意图;
图4为应用本发明实施例的触发视频录制的示意图;
图5-6为采用现有技术的多个场景示意图;
图7-12为应用本发明实施例的多个场景示意图;
图13为本发明实施例二的一个实现流程示意图;
图14为本发明实施例三的一个组成结构示意图;
图15为本发明实施例四的一个硬件组成结构示意图;
图16为应用本发明实施例的RGB与透明度分开存储的场景示意图;
图17为应用本发明实施例的一个实例的系统架构图。
具体实施方式
下面结合附图对技术方案的实施作进一步的详细描述。
图1为本发明实施例中进行信息交互的各方硬件实体的示意图,图1中包括:服务器11、终端设备21-24,终端设备21-24通过有线网络或者无线网络与服务器进行信息交互,终端设备包括手机、台式机、PC机、一体机等类型。其中,终端设备中安装有满足用户日常和工作所需的多种应用,如果用户喜欢拍照和录视频,会安装诸如图片处理应用,视频处理应用等应用,出于社交分享的需求,也会安装社交应用,还可以将运用图片处理应用和视频处理应用得到的处理结果通过社交应用进行信息分享。采用本发明实施例,基于上述图1所示的系统,终端定期从服务器获取各个应用的更新数据包在本地保存,当需要使用终端上的应用,则开启应用(如视频处理应用),获取第一操作(如开启视频录制的操作),触发第一媒体信息(如视频)的采集;终端在采集所述第一媒体信息(如视频)的过程中检测到符合预设条件的人脸区域内的表情变化(如微笑)或采集框内的用户动作变化(如眨眼睛或比划剪刀手)时,将得到的变化量作为关键信息上报给服务器;终端接收服务器推送的与所述关键信息对应的第二媒体信息(如贴纸);将第一媒体信息(如视频)和第二媒体信息(贴纸)按照预设配置进行视频合成。采用本发明实施例,实时采集第一媒体信息的过程中,检测到表情变化或用户动作变化时,基于变化量从服务器得到对应的第二媒体信息,将第一媒体信息和第二媒体信息按照预设配置进行视频合成,则在第一媒体信息采集结束后,重新回放该第一媒体信息,在第一媒体信息的指定位置和指定时间显示有对应的第二媒体信息。由于,第二媒体信息无需用户手动选择和添加,因此,简化了操作流程,提高了处理效率;根据采集第一媒体信息的过程中得到的检测结果(如表情变化或用户动作变化)请求索取的对应第二媒体信息也更符合真实的用户需求(首先是第二媒体信息的内容本身比较精准,其次,第二媒体信息出现的位置和时间也能配合上如表情变化或用户动作变化等检测结果,位置和时间点也精准),符合需求,不仅减少了多次交互,也不需要后续再次调整和重新合成,降低了视频合成的信息处理成本和时间成本。
上述图1的例子只是实现本发明实施例的一个系统架构实例,本发明实施例并不限于上述图1所述的系统结构,基于该系统架构,提出本发明各个实施例。
实施例一:
本发明实施例的信息处理方法,如图2所示,所述方法包括:
步骤101、在终端开启应用,获取第一操作,触发第一媒体信息的采集。
这里,一个应用场景中,如图3所示,用户躺在沙发上正在使用终端(如手机11),手机11的用户界面上包含各种类型的应用图标,如音乐播放图标,功能设置图标,邮件收发图标等等,用户执行第一操作,如用手指点击A1标识的视频处理应用图标,进入视频录制的处理过程,从而触发第一媒体信息(如视频)的采集。比如,可以录制一段室内的场景,或者,给自己进行自拍等等。
步骤102、终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器。
这里,仍然结合步骤101中的应用场景,在视频录制的处理过程中,通过人脸识别定位机制,表情识别机制,终端可以捕获到人脸区域内的表情变化(如微笑,哭泣,皱眉等等)。除了在人脸区域内的检测,如识别出表情变化,还可以检测到采集框(或称取景框)内的用户动作变化(如比剪刀手),不限于人脸区域。还可以将人脸区域中的表情变化与用户动作变化(如比剪刀手)进行组合识别,比如,将剪刀手和脸部表情中的微笑相结合进行组合识别。
在人脸识别的过程中,人脸识别技术是基于人的脸部特征,对视频录制中的人脸图像或者视频流进行采集,首先判断视频流中是否存在人脸,如果存在人脸,则进一步的给出脸的位置和大小,及定位出各个主要面部器官的位置信息,得到人脸中五官的各自位置和初始形态,当形态发生变化(如微笑时上下嘴唇的位置会相对初始形态产生位移和形变),则说明人脸五官的面部表情出现变化,也可以通过表情识别机制来识别出表情的变化。本发明实施例的人脸识别有别于常规的人脸识别,常规的人脸识别是为了通过构建的人脸识别系统来识别出用户的身份,是将识别出的人脸与已知人脸进行比对,以便于身份确认以及身份查找。
在表情识别过程中,可以分为四个阶段:如人脸图像的获取与预处理;人脸检测;表情特征提取和表情分类。如果仅仅通过人脸识别和定位机制,会存在不精确的问题,而表情识别机制是一种更加准确的处理策略,表情识别与人脸识别密切相关,如在人脸检测中的定位和人脸跟踪这些环节上是类似的,特征提取上不同。举例来说,人脸识别提取的特征是:不同人脸的个体差异和特性,面部表情作为干扰信号存在(不过多关注面部表情),而本发明实施例是需要关注表情的变化来触发对应的第二媒体信息(贴纸信息),因此,可以忽略个体差异,而关注于提取人脸在不同表情模式下的差异特征的特征提取,可以结合个体差异,也可以为了提高表情识别精度而将个体差异作为干扰信号处理(不过多关注个体差异)。特征提取是人脸表情识别中的核心步骤,决定着最终的识别结果,影响识别率的高低。其中,所述特征提取可以分为:静态图像特征提取和运动图像特征提取。就静态图像特征提取而言,提取的是表情的形变特征(或称为表情的暂态特征),就运动图像特征提取而言,对于运动图像,不仅要提取每一帧的表情形变特征,还要提取连续序列的运动特征。形变特征提取可以依赖中性表情或模型,从而把产生的表情与中性表情做比较来提取出形变特征,而运动特征的提取则直接依赖于表情产生的面部变化。表情有多种划分方式,1)如按照基本表情划分,如高兴、悲伤、惊讶、恐惧、愤怒和厌恶等,建立不同的人脸表情图像库以便后续的匹配和识别。2)按照情绪分类,如愉快,不愉快,激动,平静,紧张,轻松等。
步骤103、终端接收服务器推送的与所述关键信息对应的第二媒体信息。
这里,一种具体实现可以为:步骤102推送关键信息给服务器之后,服务器根据关键信息从素材库匹配对应的第二媒体信息(如贴纸信息),将第二媒体信息(如贴纸信息)推送给终端,以便后续在步骤104中与第一媒体信息(如视频)进行视频合成。无需用户手动选择贴纸信息,而是根据关键信息匹配后自动推送给终端,在终端采集第一媒体信息(如视频)的过程中自动合成(如将视频和贴纸信息相叠加)视频处理结果(含贴纸信息的新视频信息),在第一媒体信息(如视频)的指定位置和指定时间显示贴纸信息。
步骤104、将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
在本发明实施例一实施方式中,所述关键信息还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
现有技术中,如图5中的文字信息,具体的,在视频信息中包含A2所标识的“红红火火”,是视频信息录制完成后添加的如A2’所标识贴纸信息“红红火火”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。如图6所示为现有技术的另一个应用场景,具体的,在视频信息中包含A3所标识的“男朋友”,视频信息录制完成后添加的如A3’所标识贴纸信息“男朋友”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。这种处理,非常繁琐,需要多次用户交互,后续找的贴纸也不一定就是用户真正需要的,即便是用户真正需要的,也需要用户手工在已经录制完成的视频信息上手动添加,比如将贴纸移动到视频信息的合适位置上等等。
而采用本发明实施例,如图7视频录制中的文字信息,合成的结果是:在文字信息中包含的关键信息为A4所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A4’所标识。如图8视频录制中的文字信息,具体的,在文字信息中包含的关键信息为A5所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A5’所标识。在图7-8中,B1用于标识视频录制过程中的控制按钮,B2用于标识视频录制结束后的回放按钮。如图9所示为一个录制视频过程中将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,在图9中,对应录制的视频信息中播放语音为“祝姐妹们过年吃不胖”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息以卷轴形式打开并显示的动态贴纸效果“吃不胖”。图10为另一个采用本发明实施例录制视频后,将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,其中,当对应录制的视频信息中播放语音为“年终奖多多”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息,以动态贴纸效果显示“年终奖多多”,并配合有这种货币单位的指示符,将其与“年终奖多多”的文字相结合。
对应视频录制中有“年终奖多多”这种情况,除了显示对应内容的贴纸信息(如图10所示),还可以通过识别人脸表情或用户动作而得到其他的贴纸形态,如图11所示,当对应录制的视频信息中播放语音为如A6标识的“年终奖多多”时,或者是用户开心的眨眼,或者用户动作和语音相结合,那么,在视频界面除了可以显示对应的文字信息(如图10所示),还可以在这个“开心的眨眼”的时间点,在视频界面上还显示有合成的贴纸信息,如A6’标识的“眼睛变成2个钱”,除了眨眼,还可以是用户动作(如打响指)触发显示A6’标识的“眼睛变成2个钱”或者如图10所示的“年终奖多多”。
图12所示为另一个采用本发明实施例的应用实例,在图12中,还可以通过识别人脸表情得到其他的贴纸形态,如图12所示,当对应录制的视频信息中播放语音为如A7标识的“我真有这么漂亮吗”时,识别出人脸脸颊的位置,在人脸脸颊的位置叠加如A7’所示的贴纸信息(具体为五官贴纸类型中的红脸蛋或腮红或红晕),那么,在视频界面在出现“我真有这么漂亮吗”的时间点,在视频界面上还显示有合成的贴纸信息,人脸上有红晕。
实施例二:
本发明实施例的信息处理方法,如图13所示,所述方法包括:
步骤201、在终端开启应用,获取第一操作,触发第一媒体信息的采集。
这里,一个应用场景中,如图3所示,用户躺在沙发上正在使用终端(如手机11),手机11的用户界面上包含各种类型的应用图标,如音乐播放图标,功能设置图标,邮件收发图标等等,用户执行第一操作,如用手指点击A1标识的视频处理应用图标,进入视频录制的处理过程,从而触发第一媒体信息(如视频)的采集。比如,可以录制一段室内的场景,或者,给自己进行自拍等等。
步骤202、终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器。
这里,仍然结合步骤201中的应用场景,在视频录制的处理过程中,通过人脸识别定位机制,表情识别机制,终端可以捕获到人脸区域内的表情变化(如微笑,哭泣,皱眉等等)。除了在人脸区域内的检测,如识别出表情变化,还可以检测到采集框(或称取景框)内的用户动作变化(如比剪刀手),不限于人脸区域。还可以将人脸区域中的表情变化与用户动作变化(如比剪刀手)进行组合识别,比如,将剪刀手和脸部表情中的微笑相结合进行组合识别。
在人脸识别的过程中,人脸识别技术是基于人的脸部特征,对视频录制中的人脸图像或者视频流进行采集,首先判断视频流中是否存在人脸,如果存在人脸,则进一步的给出脸的位置和大小,及定位出各个主要面部器官的位置信息,得到人脸中五官的各自位置和初始形态,当形态发生变化(如微笑时上下嘴唇的位置会相对初始形态产生位移和形变),则说明人脸五官的面部表情出现变化,也可以通过表情识别机制来识别出表情的变化。本发明实施例的人脸识别有别于常规的人脸识别,常规的人脸识别是为了通过构建的人脸识别系统来识别出用户的身份,是将识别出的人脸与已知人脸进行比对,以便于身份确认以及身份查找。
在表情识别过程中,可以分为四个阶段:如人脸图像的获取与预处理;人脸检测;表情特征提取和表情分类。如果仅仅通过人脸识别和定位机制,会存在不精确的问题,而表情识别机制是一种更加准确的处理策略,表情识别与人脸识别密切相关,如在人脸检测中的定位和人脸跟踪这些环节上是类似的,特征提取上不同。举例来说,人脸识别提取的特征是:不同人脸的个体差异和特性,面部表情作为干扰信号存在(不过多关注面部表情),而本发明实施例是需要关注表情的变化来触发对应的第二媒体信息(贴纸信息),因此,可以忽略个体差异,而关注于提取人脸在不同表情模式下的差异特征的特征提取,可以结合个体差异,也可以为了提高表情识别精度而将个体差异作为干扰信号处理(不过多关注个体差异)。特征提取是人脸表情识别中的核心步骤,决定着最终的识别结果,影响识别率的高低。其中,所述特征提取可以分为:静态图像特征提取和运动图像特征提取。就静态图像特征提取而言,提取的是表情的形变特征(或称为表情的暂态特征),就运动图像特征提取而言,对于运动图像,不仅要提取每一帧的表情形变特征,还要提取连续序列的运动特征。形变特征提取可以依赖中性表情或模型,从而把产生的表情与中性表情做比较来提取出形变特征,而运动特征的提取则直接依赖于表情产生的面部变化。表情有多种划分方式,1)如按照基本表情划分,如高兴、悲伤、惊讶、恐惧、愤怒和厌恶等,建立不同的人脸表情图像库以便后续的匹配和识别。2)按照情绪分类,如愉快,不愉快,激动,平静,紧张,轻松等。
步骤203、服务器从素材库中选取与关键信息对应的第二媒体信息和第二媒体信息的描述文件。
步骤204、终端接收服务器推送的与所述关键信息对应的第二媒体信息和第二媒体信息的描述文件。
这里,一种具体实现可以为:步骤202推送关键信息给服务器之后,服务器根据关键信息从素材库匹配对应的第二媒体信息(如贴纸信息),将第二媒体信息(如贴纸信息)推送给终端,以便后续在步骤104中与第一媒体信息(如视频)进行视频合成。无需用户手动选择贴纸信息,而是根据关键信息匹配后自动推送给终端,在终端采集第一媒体信息(如视频)的过程中自动合成(如将视频和贴纸信息相叠加)视频处理结果(含贴纸信息的新视频信息),在第一媒体信息(如视频)的指定位置和指定时间显示贴纸信息。
这里,步骤204中,与所述关键信息对应的第二媒体信息的描述文件和第二媒体信息可以同时发送或者分别发送,取决于当时的网络状况,如果网络状况好,则同时发送,如果网络状况不好,为了避免网络不好,丢失数据,可以分别发放。
步骤205、将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
在本发明实施例一实施方式中,所述关键信息还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
现有技术中,如图5中的文字信息,具体的,在视频信息中包含A2所标识的“红红火火”,是视频信息录制完成后添加的如A2’所标识贴纸信息“红红火火”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。如图6所示为现有技术的另一个应用场景,具体的,在视频信息中包含A3所标识的“男朋友”,视频信息录制完成后添加的如A3’所标识贴纸信息“男朋友”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。这种处理,非常繁琐,需要多次用户交互,后续找的贴纸也不一定就是用户真正需要的,即便是用户真正需要的,也需要用户手工在已经录制完成的视频信息上手动添加,比如将贴纸移动到视频信息的合适位置上等等。
而采用本发明实施例,如图7视频录制中的文字信息,合成的结果是:在文字信息中包含的关键信息为A4所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A4’所标识。如图8视频录制中的文字信息,具体的,在文字信息中包含的关键信息为A5所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A5’所标识。在图7-8中,B1用于标识视频录制过程中的控制按钮,B2用于标识视频录制结束后的回放按钮。如图9所示为一个录制视频过程中将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,在图9中,对应录制的视频信息中播放语音为“祝姐妹们过年吃不胖”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息以卷轴形式打开并显示的动态贴纸效果“吃不胖”。图10为另一个采用本发明实施例录制视频后,将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,其中,当对应录制的视频信息中播放语音为“年终奖多多”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息,以动态贴纸效果显示“年终奖多多”,并配合有这种货币单位的指示符,将其与“年终奖多多”的文字相结合。
对应视频录制中有“年终奖多多”这种情况,除了显示对应内容的贴纸信息(如图10所示),还可以通过识别人脸表情或用户动作而得到其他的贴纸形态,如图11所示,当对应录制的视频信息中播放语音为如A6标识的“年终奖多多”时,或者是用户开心的眨眼,或者用户动作和语音相结合,那么,在视频界面除了可以显示对应的文字信息(如图10所示),还可以在这个“开心的眨眼”的时间点,在视频界面上还显示有合成的贴纸信息,如A6’标识的“眼睛变成2个钱”,除了眨眼,还可以是用户动作(如打响指)触发显示A6’标识的“眼睛变成2个钱”或者如图10所示的“年终奖多多”。
图12所示为另一个采用本发明实施例的应用实例,在图12中,还可以通过识别人脸表情得到其他的贴纸形态,如图12所示,当对应录制的视频信息中播放语音为如A7标识的“我真有这么漂亮吗”时,识别出人脸脸颊的位置,在人脸脸颊的位置叠加如A7’所示的贴纸信息(具体为五官贴纸类型中的红脸蛋或腮红或红晕),那么,在视频界面在出现“我真有这么漂亮吗”的时间点,在视频界面上还显示有合成的贴纸信息,人脸上有红晕。
在本发明实施例一实施方式中,所述将第一媒体信息和第二媒体信息按照预设配置进行视频合成,包括:
第一种实现方案:响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
第二种实现方案:响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
两种方案的区别在于:第一种方案,需要得到特征坐标(特征检测结果中的部分信息或全部信息),以便结合特征坐标,确定将贴纸信息放到视频信息中哪个合适的指定位置,第二媒体信息可以决定时间点,贴纸信息的摆放是有固定位置和固定时间要求的,根据这个指定位置和时间点,就可以实现在合适的位置,合适的时间点叠加贴纸信息到视频信息上,比如,如图12所示的“脸上出现腮红”这种场景;第二种方案中,可以不考虑特征坐标,第二媒体信息可以决定时间点,和贴纸的大小等属性,还可以包括贴纸信息的中心点位置,贴纸的摆放虽然也有固定位置和固定时间要求的,但是,相比于第一种方案,更具有任意性,如图7所示,只要出现“吃不胖”就行,不限定“吃不胖”一定在人脸区域的哪个相对位置显示,而第一种方案中,是由表情变化或用户动作变化触发的贴纸请求,因此,务必要配合表情变化或用户动作变化来显示。
在本发明实施例一实施方式中,所述第二多媒体信息包括以下至少一类:1)由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息,如五官贴纸和触发类贴纸;2)由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息普通贴纸和背景贴纸。
在本发明实施例一实施方式中,所述响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成包括:
a1、响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器后,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
a2、检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
a3、解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
a4、按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
在本发明实施例一实施方式中,所述响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,包括:
b1、响应所述文字信息,将检测到的文字信息上报服务器,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
b2、解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
b3、按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
实施例三:
本发明实施例的终端,如图14所示,所述终端包括:触发单元21,用于在终端开启应用,获取第一操作,触发第一媒体信息的采集;及检测单元22,用于采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;及接收单元23,用于接收服务器推送的与所述关键信息对应的第二媒体信息;及合成单元24,用于将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
这里,一个应用场景中,如图3所示,用户躺在沙发上正在使用终端(如手机11),手机11的用户界面上包含各种类型的应用图标,如音乐播放图标,功能设置图标,邮件收发图标等等,用户执行第一操作,如用手指点击A1标识的视频处理应用图标,进入视频录制的处理过程,从而触发第一媒体信息(如视频)的采集。比如,可以录制一段室内的场景,或者,给自己进行自拍等等。在视频录制的处理过程中,通过人脸识别定位机制,表情识别机制,终端可以捕获到人脸区域内的表情变化(如微笑,哭泣,皱眉等等)。除了在人脸区域内的检测,如识别出表情变化,还可以检测到采集框(或称取景框)内的用户动作变化(如比剪刀手),不限于人脸区域。还可以将人脸区域中的表情变化与用户动作变化(如比剪刀手)进行组合识别,比如,将剪刀手和脸部表情中的微笑相结合进行组合识别。
在人脸识别的过程中,人脸识别技术是基于人的脸部特征,对视频录制中的人脸图像或者视频流进行采集,首先判断视频流中是否存在人脸,如果存在人脸,则进一步的给出脸的位置和大小,及定位出各个主要面部器官的位置信息,得到人脸中五官的各自位置和初始形态,当形态发生变化(如微笑时上下嘴唇的位置会相对初始形态产生位移和形变),则说明人脸五官的面部表情出现变化,也可以通过表情识别机制来识别出表情的变化。本发明实施例的人脸识别有别于常规的人脸识别,常规的人脸识别是为了通过构建的人脸识别系统来识别出用户的身份,是将识别出的人脸与已知人脸进行比对,以便于身份确认以及身份查找。
在表情识别过程中,可以分为四个阶段:如人脸图像的获取与预处理;人脸检测;表情特征提取和表情分类。如果仅仅通过人脸识别和定位机制,会存在不精确的问题,而表情识别机制是一种更加准确的处理策略,表情识别与人脸识别密切相关,如在人脸检测中的定位和人脸跟踪这些环节上是类似的,特征提取上不同。举例来说,人脸识别提取的特征是:不同人脸的个体差异和特性,面部表情作为干扰信号存在(不过多关注面部表情),而本发明实施例是需要关注表情的变化来触发对应的第二媒体信息(贴纸信息),因此,可以忽略个体差异,而关注于提取人脸在不同表情模式下的差异特征的特征提取,可以结合个体差异,也可以为了提高表情识别精度而将个体差异作为干扰信号处理(不过多关注个体差异)。特征提取是人脸表情识别中的核心步骤,决定着最终的识别结果,影响识别率的高低。其中,所述特征提取可以分为:静态图像特征提取和运动图像特征提取。就静态图像特征提取而言,提取的是表情的形变特征(或称为表情的暂态特征),就运动图像特征提取而言,对于运动图像,不仅要提取每一帧的表情形变特征,还要提取连续序列的运动特征。形变特征提取可以依赖中性表情或模型,从而把产生的表情与中性表情做比较来提取出形变特征,而运动特征的提取则直接依赖于表情产生的面部变化。表情有多种划分方式,1)如按照基本表情划分,如高兴、悲伤、惊讶、恐惧、愤怒和厌恶等,建立不同的人脸表情图像库以便后续的匹配和识别。2)按照情绪分类,如愉快,不愉快,激动,平静,紧张,轻松等。
在本发明实施例一实施方式中,所述关键信息还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
现有技术中,如图5中的文字信息,具体的,在视频信息中包含A2所标识的“红红火火”,是视频信息录制完成后添加的如A2’所标识贴纸信息“红红火火”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。如图6所示为现有技术的另一个应用场景,具体的,在视频信息中包含A3所标识的“男朋友”,视频信息录制完成后添加的如A3’所标识贴纸信息“男朋友”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。这种处理,非常繁琐,需要多次用户交互,后续找的贴纸也不一定就是用户真正需要的,即便是用户真正需要的,也需要用户手工在已经录制完成的视频信息上手动添加,比如将贴纸移动到视频信息的合适位置上等等。
而采用本发明实施例,如图7视频录制中的文字信息,合成的结果是:在文字信息中包含的关键信息为A4所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A4’所标识。如图8视频录制中的文字信息,具体的,在文字信息中包含的关键信息为A5所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A5’所标识。在图7-8中,B1用于标识视频录制过程中的控制按钮,B2用于标识视频录制结束后的回放按钮。如图9所示为一个录制视频过程中将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,在图9中,对应录制的视频信息中播放语音为“祝姐妹们过年吃不胖”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息以卷轴形式打开并显示的动态贴纸效果“吃不胖”。图10为另一个采用本发明实施例录制视频后,将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,其中,当对应录制的视频信息中播放语音为“年终奖多多”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息,以动态贴纸效果显示“年终奖多多”,并配合有这种货币单位的指示符,将其与“年终奖多多”的文字相结合。
对应视频录制中有“年终奖多多”这种情况,除了显示对应内容的贴纸信息(如图10所示),还可以通过识别人脸表情或用户动作而得到其他的贴纸形态,如图11所示,当对应录制的视频信息中播放语音为如A6标识的“年终奖多多”时,或者是用户开心的眨眼,或者用户动作和语音相结合,那么,在视频界面除了可以显示对应的文字信息(如图10所示),还可以在这个“开心的眨眼”的时间点,在视频界面上还显示有合成的贴纸信息,如A6’标识的“眼睛变成2个钱”,除了眨眼,还可以是用户动作(如打响指)触发显示A6’标识的“眼睛变成2个钱”或者如图10所示的“年终奖多多”。
图12所示为另一个采用本发明实施例的应用实例,在图12中,还可以通过识别人脸表情得到其他的贴纸形态,如图12所示,当对应录制的视频信息中播放语音为如A7标识的“我真有这么漂亮吗”时,识别出人脸脸颊的位置,在人脸脸颊的位置叠加如A7’所示的贴纸信息(具体为五官贴纸类型中的红脸蛋或腮红或红晕),那么,在视频界面在出现“我真有这么漂亮吗”的时间点,在视频界面上还显示有合成的贴纸信息,人脸上有红晕。
在本发明实施例一实施方式中,所述接收单元,进一步用于:接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
在本发明实施例一实施方式中,所述合成单元包括两种具体实现:
第一种具体实现:响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
第二种具体实现:响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
在本发明实施例一实施方式中,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
在本发明实施例一实施方式中,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
在本发明实施例一实施方式中,所述合成单元,进一步用于:
响应所述文字信息,将检测到的文字信息上报服务器后,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
实施例四:
这里需要指出的是,上述终端可以为PC这种电子设备,还可以为如PAD,平板电脑,手提电脑这种便携电子设备、还可以为如手机这种智能移动终端,不限于这里的描述;所述服务器可以是通过集群系统构成的,为实现各单元功能而合并为一或各单元功能分体设置的电子设备,终端和服务器都至少包括用于存储数据的数据库和用于数据处理的处理器,或者包括设置于服务器内的存储介质或独立设置的存储介质。
其中,对于用于数据处理的处理器而言,在执行处理时,可以采用微处理器、中央处理器(CPU,CentralProcessingUnit)、数字信号处理器(DSP,DigitalSingnalProcessor)或可编程逻辑阵列(FPGA,Field-ProgrammableGateArray)实现;对于存储介质来说,包含操作指令,该操作指令可以为计算机可执行代码,通过所述操作指令来实现上述本发明实施例信息处理方法流程中的各个步骤。
该终端和该服务器作为硬件实体S11的一个示例如图15所示。所述装置包括处理器41、存储介质42以及至少一个外部通信接口43;所述处理器41、存储介质42以及外部通信接口43均通过总线44连接。
这里需要指出的是:以上涉及终端和服务器项的描述,与上述方法描述是类似的,同方法的有益效果描述,不做赘述。对于本发明终端和服务器实施例中未披露的技术细节,请参照本发明方法实施例的描述。
以一个现实应用场景为例对本发明实施例阐述如下:
首先对应用场景进行介绍:一,在视频素材中,根据素材演绎的内容,经常会要加一些相关联的动态贴纸,让视频显得更加丰富。A)比如:拜年视频中,当表达恭喜发财时,会希望有一些从天而降的金币;B)又比如:当视频内容想发表主角娇羞状态时,会希望能在用户脸上加上红晕的特效。二,视频中会有和某个明星合演的需求,这个时候也可以将明星直接做成前景的贴纸,然后让用户和明星合影。现有技术中,经视频处理技术得到的示意图如图5-6所示。其中,如图5中的文字信息,具体的,在视频信息中包含A2所标识的“红红火火”,是视频信息录制完成后添加的如A2’所标识贴纸信息“红红火火”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。如图6所示为现有技术的另一个应用场景,具体的,在视频信息中包含A3所标识的“男朋友”,视频信息录制完成后添加的如A3’所标识贴纸信息“男朋友”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。这种处理,非常繁琐,需要多次用户交互,后续找的贴纸也不一定就是用户真正需要的,即便是用户真正需要的,也需要用户手工在已经录制完成的视频信息上手动添加,比如将贴纸移动到视频信息的合适位置上等等。
上述图5-6的场景中,采用的现有视频处理技术为:应用(APP)会提供一些固定的贴纸,然后用户先录制视频,录制后,由用户自己去贴纸素材库里选择自己认为相关素材,然后通过复杂的交互,决定每张贴纸在什么时间点加上,加多久。且有些APP允许贴纸移动,然后要按住贴纸,拖动决定移动到哪个具体的位置,这样的后果是:需要终端与服务器间多次繁琐的交互,处理效率低下,在视频录制完成后手动选择贴纸再最终合成,视频处理成本高,浪费时间,还不一定符合用户需求。
针对上述应用场景,采用本发明实施例,是一种视频相关实时动效贴纸方案。采用本发明的人脸识别及定位机制,表情识别机制,视频合成处理机制,可以不需要用户通过复杂的操作,去一堆素材中选择某个和该视频素材相关的贴纸信息,而是选择了某段素材视频,在录制的过程中,就能看到对应的地方,在对应的时间,出现对应的贴纸信息,可以称为在视频录制的过程中就实时的在相应指定位置和指定时间点叠加上对应的贴纸信息,如图7-12所示。
采用本发明实施例,如图7视频录制中的文字信息,合成的结果是:在文字信息中包含的关键信息为A4所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A4’所标识。如图8视频录制中的文字信息,具体的,在文字信息中包含的关键信息为A5所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A5’所标识。在图7-8中,B1用于标识视频录制过程中的控制按钮,B2用于标识视频录制结束后的回放按钮。如图9所示为一个录制视频过程中将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,在图9中,对应录制的视频信息中播放语音为“祝姐妹们过年吃不胖”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息以卷轴形式打开并显示的动态贴纸效果“吃不胖”。图10为另一个采用本发明实施例录制视频后,将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,其中,当对应录制的视频信息中播放语音为“年终奖多多”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息,以动态贴纸效果显示“年终奖多多”,并配合有这种货币单位的指示符,将其与“年终奖多多”的文字相结合。
对应视频录制中有“年终奖多多”这种情况,除了显示对应内容的贴纸信息(如图10所示),还可以通过识别人脸表情或用户动作而得到其他的贴纸形态,如图11所示,当对应录制的视频信息中播放语音为如A6标识的“年终奖多多”时,或者是用户开心的眨眼,或者用户动作和语音相结合,那么,在视频界面除了可以显示对应的文字信息(如图10所示),还可以在这个“开心的眨眼”的时间点,在视频界面上还显示有合成的贴纸信息,如A6’标识的“眼睛变成2个钱”,除了眨眼,还可以是用户动作(如打响指)触发显示A6’标识的“眼睛变成2个钱”或者如图10所示的“年终奖多多”。
图12所示为另一个采用本发明实施例的应用实例,在图12中,还可以通过识别人脸表情得到其他的贴纸形态,如图12所示,当对应录制的视频信息中播放语音为如A7标识的“我真有这么漂亮吗”时,识别出人脸脸颊的位置,在人脸脸颊的位置叠加如A7’所示的贴纸信息(具体为五官贴纸类型中的红脸蛋或腮红或红晕),那么,在视频界面在出现“我真有这么漂亮吗”的时间点,在视频界面上还显示有合成的贴纸信息,人脸上有红晕。
在录制完时,对应的贴纸信息也已经出现在视频里了。
这里需要指出的是:贴纸信息分为以下几种:
A)普通贴纸:比如天上掉下的金币,抖动的红包,盛开的一朵小花都属于这类贴纸
B)五官贴纸:可以指定出现在五官某个具体的位置,并且会跟随五官移动的贴纸。如:脸蛋的红晕,眼镜等
C)触发类贴纸:检测到某个具体的动作时,出现的变化的一组贴纸,出现的一组贴纸既可以是普通贴纸,也可以是五官贴纸
D)背景贴纸:盖在视频最上方,并且重复播放的几帧视频,如图8中“吃不胖”的边框(如边框类贴纸)。
对于上述贴纸信息的四种类型,触发类贴纸和五官类贴纸信息是如图17所示,需要贴纸信息与特征坐标相结合,之后再与录制视频合成(需要与图17中的特征检测和素材解析器发生关系,再与视频合成器发生关系,因为表情,动作,五官变化这种,坐标都是会变化的),而除去触发类贴纸和五官类贴纸信息之外,其他几种(普通贴纸和背景贴纸),都是贴纸信息直接与录制视频合成(也就是说,仅与图17中的视频合成器发生关系,因为坐标通常不会变)。
要想实现上述图7-12所示的最终效果,在技术实现上,还包括以下内容:
一,将每个视频的贴纸信息作为素材的一部分,在素材包中,并且随素材下发。所述素材除了包括贴纸信息,还包括贴纸信息的描述文件等等。
二,动态的素材包括两部分:
A)贴纸信息的原始形态,主要有三种格式:i)静态贴图;ii)动态的Gif图;iii)视频。其中中,对于图片类的贴纸信息文件(如静态贴图和动态的Gif图),用png等带透明度的图片进行叠加来实现视频合成即可;而对于多数视频类的贴纸信息文件(如视频),由于其是不带透明度的,当使用视频作为素材时,素材视频的分辨率是拍摄视频的两倍,其中一半的像素用来表示贴纸的RGB值,另一半像素用来表示贴纸的透明度,即:视频类贴纸信息的存储方式是:RGB和透明通道分开,将拍摄的视频,分为一半是素材RGB,一半是素材透明度进行存储,如图16所示。RGB这种色彩模式是一种颜色标准,是通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加来得到各式各样的颜色的,RGB即是代表红、绿、蓝三个通道的颜色,这个标准几乎包括了人类视力所能感知的所有颜色。
在贴纸信息和拍摄的视频进行视频叠加的视频合成时,当贴纸信息上某个像素的透明度位a时,合成视频的RGB值=a*视频类贴纸信息的RGB值+(1-a)*拍摄视频的RGB值。
B)贴纸的描述文件,该描述文件包含的信息为:i)贴图出现的中心点位置;ii)贴图出现时间,从而,根据贴纸信息和贴纸描述文件,可以为终端主动推送贴纸(在正在录制视频的合适的位置,合适的时间点,叠加上合适的动态贴纸,无需用户手动选择贴纸)。其中,贴图出现时间包括:a)一次性播放的动态贴图:设定什么时候开始;b)重复播放的动态贴图:设定开始和结束时间
C)五官类贴纸需要设定:五官类型的信息包括:i)头顶;ii)眼睛;iii)脸蛋;iv)嘴巴;v)鼻子。
D)触发类贴纸需要设定:触发条件,触发条件包括:i)张嘴;ii)眨眼;iii)微笑;iv)抖眉毛。
E)不同素材的层级关系
三,素材预览时,解析动态贴纸的文件。
四,录制过程中,按照贴纸信息的描述文件,绘制动态贴纸,已达到实时可见的目的,如果是五官类和触发类贴纸,在系统构成中还包括了人脸检测算法(使用现有的人脸检测算法,算法本身不包括在专利内),绘制贴纸时根据人脸检测的结果将贴纸绘制在恰当的位置,如图17所示为整个系统的结构示意图(图17中的模块都位于终端侧)。对于触发类贴纸和五官类贴纸信息,需要贴纸信息与特征坐标相结合,之后再与录制视频合成,即:需要与特征检测和素材解析器发生关系,再与视频合成器发生关系,因为表情,动作,五官变化这种,坐标都是会变化的,具体的,终端通过应用(如相机应用)拍摄原始视频,在拍摄过程中,终端通过特征检测器来检测原始视频中每一帧图像中的人脸区域或者取景框内用户动作的特征,分析出具体的特征参数及其对应的特征坐标(初始坐标和形变后的目的坐标),终端收到基于服务器匹配特征参数后发送的贴纸信息和贴纸信息的描述文件后,通过素材解析器对贴纸信息和贴纸信息的描述文件进行解析,以得到贴纸信息及其属性和叠加位置和叠加时间点等信息,将贴纸信息按照特征坐标,贴纸信息的描述文件指示的叠加位置和叠加时间点等信息,通过视频合成器将贴纸信息与正在拍摄的原始视频进行视频合成,生成含有贴纸信息的视频处理结果。而除去触发类贴纸和五官类贴纸信息之外,其他几种(普通贴纸和背景贴纸),都是贴纸信息直接与录制视频合成,即:仅与视频合成器发生关系,因为坐标通常不会变,具体的,终端通过应用(如相机应用)拍摄原始视频,在拍摄过程中,终端收到基于服务器匹配视频中文字信息后发送的贴纸信息和贴纸信息的描述文件后,通过素材解析器对贴纸信息和贴纸信息的描述文件进行解析,以得到贴纸信息及其属性和叠加位置和叠加时间点等信息,将贴纸信息按照贴纸信息的描述文件指示的叠加位置和叠加时间点等信息,通过视频合成器将贴纸信息与正在拍摄的原始视频进行视频合成,生成含有贴纸信息的视频处理结果。
五,最终在录制时将动态贴纸一起录制到视频中,已完成视频录制。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (14)

1.一种信息处理方法,其特征在于,所述方法包括:
在终端开启应用,获取第一操作,触发第一媒体信息的采集;
终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;
终端接收服务器推送的与所述关键信息对应的第二媒体信息;
将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
2.根据权利要求1所述的方法,其特征在于,所述关键信息,还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
将第一媒体信息和第二媒体信息按照预设配置进行视频合成之前,终端接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
4.根据权利要求3所述的方法,其特征在于,所述将第一媒体信息和第二媒体信息按照预设配置进行视频合成,包括:
响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内;或者,
响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
6.根据权利要求5所述的方法,其特征在于,所述响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成包括:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器后,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
7.根据权利要求5所述的方法,其特征在于,所述响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,包括:
响应所述文字信息,将检测到的文字信息上报服务器,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
8.一种终端,其特征在于,所述终端包括:
触发单元,用于在终端开启应用,获取第一操作,触发第一媒体信息的采集;
检测单元,用于采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;
接收单元,用于接收服务器推送的与所述关键信息对应的第二媒体信息;
合成单元,用于将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
9.根据权利要求8所述的终端,其特征在于,所述关键信息,还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
10.根据权利要求9所述的终端,其特征在于,所述接收单元,进一步用于:接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
11.根据权利要求10所述的终端,其特征在于,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内;或者,
响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
12.根据权利要求8至11任一项所述的终端,其特征在于,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
13.根据权利要求12所述的终端,其特征在于,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
14.根据权利要求12所述的终端,其特征在于,所述合成单元,进一步用于:
响应所述文字信息,将检测到的文字信息上报服务器后,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
CN201610143985.2A 2016-03-14 2016-03-14 一种信息处理方法、终端及存储介质 Active CN105791692B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201610143985.2A CN105791692B (zh) 2016-03-14 2016-03-14 一种信息处理方法、终端及存储介质
PCT/CN2017/076576 WO2017157272A1 (zh) 2016-03-14 2017-03-14 一种信息处理方法及终端
KR1020187026680A KR102135215B1 (ko) 2016-03-14 2017-03-14 정보 처리 방법 및 단말
JP2018527883A JP2019504532A (ja) 2016-03-14 2017-03-14 情報処理方法及び端末
US15/962,663 US11140436B2 (en) 2016-03-14 2018-04-25 Information processing method and terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610143985.2A CN105791692B (zh) 2016-03-14 2016-03-14 一种信息处理方法、终端及存储介质

Publications (2)

Publication Number Publication Date
CN105791692A true CN105791692A (zh) 2016-07-20
CN105791692B CN105791692B (zh) 2020-04-07

Family

ID=56392673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610143985.2A Active CN105791692B (zh) 2016-03-14 2016-03-14 一种信息处理方法、终端及存储介质

Country Status (5)

Country Link
US (1) US11140436B2 (zh)
JP (1) JP2019504532A (zh)
KR (1) KR102135215B1 (zh)
CN (1) CN105791692B (zh)
WO (1) WO2017157272A1 (zh)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106210545A (zh) * 2016-08-22 2016-12-07 北京金山安全软件有限公司 一种视频拍摄方法、装置及电子设备
CN106303293A (zh) * 2016-08-15 2017-01-04 广东欧珀移动通信有限公司 视频处理方法、装置及移动终端
CN106341608A (zh) * 2016-10-28 2017-01-18 维沃移动通信有限公司 一种基于情绪的拍摄方法及移动终端
CN106339201A (zh) * 2016-09-14 2017-01-18 北京金山安全软件有限公司 贴图处理方法、装置和电子设备
CN106373170A (zh) * 2016-08-31 2017-02-01 北京云图微动科技有限公司 一种视频制作方法及装置
CN106683120A (zh) * 2016-12-28 2017-05-17 杭州趣维科技有限公司 追踪并覆盖动态贴纸的图像处理方法
WO2017157272A1 (zh) * 2016-03-14 2017-09-21 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN107343220A (zh) * 2016-08-19 2017-11-10 北京市商汤科技开发有限公司 数据处理方法、装置和终端设备
CN107529029A (zh) * 2017-07-31 2017-12-29 深圳回收宝科技有限公司 一种在检测文件中添加标签的方法、设备以及存储介质
CN107807947A (zh) * 2016-09-09 2018-03-16 索尼公司 基于情绪状态检测在电子设备上提供推荐的系统和方法
CN108024071A (zh) * 2017-11-24 2018-05-11 腾讯数码(天津)有限公司 视频内容生成方法、视频内容生成装置及存储介质
CN108388557A (zh) * 2018-02-06 2018-08-10 腾讯科技(深圳)有限公司 消息处理方法、装置、计算机设备和存储介质
CN108737715A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 一种拍照方法及装置
CN109213932A (zh) * 2018-08-09 2019-01-15 咪咕数字传媒有限公司 一种信息推送方法及装置
CN109379623A (zh) * 2018-11-08 2019-02-22 北京微播视界科技有限公司 视频内容生成方法、装置、计算机设备和存储介质
CN109388501A (zh) * 2018-08-31 2019-02-26 平安科技(深圳)有限公司 基于人脸识别请求的通信匹配方法、装置、设备及介质
CN109587397A (zh) * 2018-12-03 2019-04-05 深圳市优炫智科科技有限公司 基于人脸检测动态贴图的儿童相机及其动态贴图方法
CN109660855A (zh) * 2018-12-19 2019-04-19 北京达佳互联信息技术有限公司 贴纸显示方法、装置、终端及存储介质
CN109688451A (zh) * 2017-10-18 2019-04-26 纳宝株式会社 摄像机效应的提供方法及系统
WO2019109809A1 (zh) * 2017-12-04 2019-06-13 腾讯科技(深圳)有限公司 媒体数据的处理方法、计算设备及存储介质
CN110139170A (zh) * 2019-04-08 2019-08-16 顺丰科技有限公司 视频贺卡生成方法、装置、系统、设备及存储介质
WO2020011001A1 (zh) * 2018-07-11 2020-01-16 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质和计算机设备
CN110782510A (zh) * 2019-10-25 2020-02-11 北京达佳互联信息技术有限公司 一种贴纸生成方法及装置
CN110784762A (zh) * 2019-08-21 2020-02-11 腾讯科技(深圳)有限公司 一种视频数据处理方法、装置、设备及存储介质
CN111177542A (zh) * 2019-12-20 2020-05-19 贝壳技术有限公司 介绍信息的生成方法和装置、电子设备和存储介质
CN111556335A (zh) * 2020-04-15 2020-08-18 早安科技(广州)有限公司 一种视频贴纸处理方法及装置
CN111627115A (zh) * 2020-05-26 2020-09-04 浙江商汤科技开发有限公司 互动合影方法及装置、互动装置以及计算机存储介质
CN111695376A (zh) * 2019-03-13 2020-09-22 阿里巴巴集团控股有限公司 视频处理方法、视频处理装置及电子设备
CN111726701A (zh) * 2020-06-30 2020-09-29 腾讯科技(深圳)有限公司 信息植入方法、视频播放方法、装置和计算机设备
CN111757175A (zh) * 2020-06-08 2020-10-09 维沃移动通信有限公司 视频处理方法及装置
CN112019919A (zh) * 2019-05-31 2020-12-01 北京字节跳动网络技术有限公司 视频贴纸的添加方法、装置及电子设备
CN112839191A (zh) * 2017-03-16 2021-05-25 卡西欧计算机株式会社 动态图像处理装置、动态图像处理方法以及记录介质
CN113658298A (zh) * 2018-05-02 2021-11-16 北京市商汤科技开发有限公司 特效程序文件包的生成及特效生成方法与装置
CN114338954A (zh) * 2021-12-28 2022-04-12 维沃移动通信有限公司 视频生成电路、方法和电子设备

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515199B2 (en) * 2017-04-19 2019-12-24 Qualcomm Incorporated Systems and methods for facial authentication
US10410060B2 (en) * 2017-12-14 2019-09-10 Google Llc Generating synthesis videos
CN108958610A (zh) * 2018-07-27 2018-12-07 北京微播视界科技有限公司 基于人脸的特效生成方法、装置和电子设备
US11675494B2 (en) * 2020-03-26 2023-06-13 Snap Inc. Combining first user interface content into second user interface
KR20210135683A (ko) * 2020-05-06 2021-11-16 라인플러스 주식회사 인터넷 전화 기반 통화 중 리액션을 표시하는 방법, 시스템, 및 컴퓨터 프로그램
CN111597984B (zh) * 2020-05-15 2023-09-26 北京百度网讯科技有限公司 贴纸测试方法、装置、电子设备及计算机可读存储介质
CN113709573B (zh) 2020-05-21 2023-10-24 抖音视界有限公司 配置视频特效方法、装置、设备及存储介质
WO2022213088A1 (en) * 2021-03-31 2022-10-06 Snap Inc. Customizable avatar generation system
US11941227B2 (en) 2021-06-30 2024-03-26 Snap Inc. Hybrid search system for customizable media
US11689765B1 (en) * 2021-12-31 2023-06-27 The Nielsen Company (Us), Llc Methods and apparatus for obfuscated audience identification
CN114513705A (zh) * 2022-02-21 2022-05-17 北京字节跳动网络技术有限公司 视频显示方法、装置和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066844A (ja) * 2008-09-09 2010-03-25 Fujifilm Corp 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム
TW201021550A (en) * 2008-11-19 2010-06-01 Altek Corp Emotion-based image processing apparatus and image processing method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006211120A (ja) * 2005-01-26 2006-08-10 Sharp Corp 文字情報表示機能を備えた映像表示システム
JP4356645B2 (ja) * 2005-04-28 2009-11-04 ソニー株式会社 字幕生成装置及び方法
JP2006330958A (ja) * 2005-05-25 2006-12-07 Oki Electric Ind Co Ltd 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ
EP2194509A1 (en) * 2006-05-07 2010-06-09 Sony Computer Entertainment Inc. Method for providing affective characteristics to computer generated avatar during gameplay
US8243116B2 (en) * 2007-09-24 2012-08-14 Fuji Xerox Co., Ltd. Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications
JP2009141516A (ja) * 2007-12-04 2009-06-25 Olympus Imaging Corp 画像表示装置,カメラ,画像表示方法,プログラム,画像表示システム
US20100257462A1 (en) * 2009-04-01 2010-10-07 Avaya Inc Interpretation of gestures to provide visual queues
JP2013046358A (ja) * 2011-08-26 2013-03-04 Nippon Hoso Kyokai <Nhk> コンテンツ再生装置及びコンテンツ再生プログラム
CN102427553A (zh) * 2011-09-23 2012-04-25 Tcl集团股份有限公司 一种电视节目播放方法、系统及电视机和服务器
US20140111542A1 (en) * 2012-10-20 2014-04-24 James Yoong-Siang Wan Platform for recognising text using mobile devices with a built-in device video camera and automatically retrieving associated content based on the recognised text
US9251405B2 (en) * 2013-06-20 2016-02-02 Elwha Llc Systems and methods for enhancement of facial expressions
US20160196584A1 (en) * 2015-01-06 2016-07-07 Facebook, Inc. Techniques for context sensitive overlays
US9697648B1 (en) * 2015-12-23 2017-07-04 Intel Corporation Text functions in augmented reality
CN105791692B (zh) * 2016-03-14 2020-04-07 腾讯科技(深圳)有限公司 一种信息处理方法、终端及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066844A (ja) * 2008-09-09 2010-03-25 Fujifilm Corp 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム
TW201021550A (en) * 2008-11-19 2010-06-01 Altek Corp Emotion-based image processing apparatus and image processing method

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11140436B2 (en) 2016-03-14 2021-10-05 Tencent Technology (Shenzhen) Company Limited Information processing method and terminal
WO2017157272A1 (zh) * 2016-03-14 2017-09-21 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN106303293A (zh) * 2016-08-15 2017-01-04 广东欧珀移动通信有限公司 视频处理方法、装置及移动终端
CN106303293B (zh) * 2016-08-15 2019-07-30 Oppo广东移动通信有限公司 视频处理方法、装置及移动终端
CN107343220A (zh) * 2016-08-19 2017-11-10 北京市商汤科技开发有限公司 数据处理方法、装置和终端设备
CN106210545A (zh) * 2016-08-22 2016-12-07 北京金山安全软件有限公司 一种视频拍摄方法、装置及电子设备
CN106373170A (zh) * 2016-08-31 2017-02-01 北京云图微动科技有限公司 一种视频制作方法及装置
CN107807947A (zh) * 2016-09-09 2018-03-16 索尼公司 基于情绪状态检测在电子设备上提供推荐的系统和方法
CN107807947B (zh) * 2016-09-09 2022-06-10 索尼公司 基于情绪状态检测在电子设备上提供推荐的系统和方法
CN106339201A (zh) * 2016-09-14 2017-01-18 北京金山安全软件有限公司 贴图处理方法、装置和电子设备
CN106341608A (zh) * 2016-10-28 2017-01-18 维沃移动通信有限公司 一种基于情绪的拍摄方法及移动终端
CN106683120A (zh) * 2016-12-28 2017-05-17 杭州趣维科技有限公司 追踪并覆盖动态贴纸的图像处理方法
CN106683120B (zh) * 2016-12-28 2019-12-13 杭州趣维科技有限公司 追踪并覆盖动态贴纸的图像处理方法
CN112839191A (zh) * 2017-03-16 2021-05-25 卡西欧计算机株式会社 动态图像处理装置、动态图像处理方法以及记录介质
CN107529029A (zh) * 2017-07-31 2017-12-29 深圳回收宝科技有限公司 一种在检测文件中添加标签的方法、设备以及存储介质
CN109688451B (zh) * 2017-10-18 2021-04-02 纳宝株式会社 摄像机效应的提供方法及系统
CN109688451A (zh) * 2017-10-18 2019-04-26 纳宝株式会社 摄像机效应的提供方法及系统
CN108024071A (zh) * 2017-11-24 2018-05-11 腾讯数码(天津)有限公司 视频内容生成方法、视频内容生成装置及存储介质
CN108024071B (zh) * 2017-11-24 2022-03-08 腾讯数码(天津)有限公司 视频内容生成方法、视频内容生成装置及存储介质
WO2019109809A1 (zh) * 2017-12-04 2019-06-13 腾讯科技(深圳)有限公司 媒体数据的处理方法、计算设备及存储介质
US11128899B2 (en) 2017-12-04 2021-09-21 Tencent Technology (Shenzhen) Company Limited Media data processing method, computing device and storage medium
CN108388557A (zh) * 2018-02-06 2018-08-10 腾讯科技(深圳)有限公司 消息处理方法、装置、计算机设备和存储介质
CN108737715A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 一种拍照方法及装置
CN113658298A (zh) * 2018-05-02 2021-11-16 北京市商汤科技开发有限公司 特效程序文件包的生成及特效生成方法与装置
WO2020011001A1 (zh) * 2018-07-11 2020-01-16 腾讯科技(深圳)有限公司 图像处理方法、装置、存储介质和计算机设备
US11367196B2 (en) 2018-07-11 2022-06-21 Tencent Technology (Shenzhen) Company Limited Image processing method, apparatus, and storage medium
CN109213932A (zh) * 2018-08-09 2019-01-15 咪咕数字传媒有限公司 一种信息推送方法及装置
CN109213932B (zh) * 2018-08-09 2021-07-09 咪咕数字传媒有限公司 一种信息推送方法及装置
CN109388501B (zh) * 2018-08-31 2024-03-05 平安科技(深圳)有限公司 基于人脸识别请求的通信匹配方法、装置、设备及介质
CN109388501A (zh) * 2018-08-31 2019-02-26 平安科技(深圳)有限公司 基于人脸识别请求的通信匹配方法、装置、设备及介质
CN109379623A (zh) * 2018-11-08 2019-02-22 北京微播视界科技有限公司 视频内容生成方法、装置、计算机设备和存储介质
CN109587397A (zh) * 2018-12-03 2019-04-05 深圳市优炫智科科技有限公司 基于人脸检测动态贴图的儿童相机及其动态贴图方法
CN109660855A (zh) * 2018-12-19 2019-04-19 北京达佳互联信息技术有限公司 贴纸显示方法、装置、终端及存储介质
CN109660855B (zh) * 2018-12-19 2021-11-02 北京达佳互联信息技术有限公司 贴纸显示方法、装置、终端及存储介质
CN111695376A (zh) * 2019-03-13 2020-09-22 阿里巴巴集团控股有限公司 视频处理方法、视频处理装置及电子设备
CN110139170B (zh) * 2019-04-08 2022-03-29 顺丰科技有限公司 视频贺卡生成方法、装置、系统、设备及存储介质
CN110139170A (zh) * 2019-04-08 2019-08-16 顺丰科技有限公司 视频贺卡生成方法、装置、系统、设备及存储介质
CN112019919A (zh) * 2019-05-31 2020-12-01 北京字节跳动网络技术有限公司 视频贴纸的添加方法、装置及电子设备
CN112019919B (zh) * 2019-05-31 2022-03-15 北京字节跳动网络技术有限公司 视频贴纸的添加方法、装置及电子设备
CN110784762A (zh) * 2019-08-21 2020-02-11 腾讯科技(深圳)有限公司 一种视频数据处理方法、装置、设备及存储介质
CN110782510A (zh) * 2019-10-25 2020-02-11 北京达佳互联信息技术有限公司 一种贴纸生成方法及装置
CN110782510B (zh) * 2019-10-25 2024-06-11 北京达佳互联信息技术有限公司 一种贴纸生成方法及装置
CN111177542B (zh) * 2019-12-20 2021-07-20 贝壳找房(北京)科技有限公司 介绍信息的生成方法和装置、电子设备和存储介质
CN111177542A (zh) * 2019-12-20 2020-05-19 贝壳技术有限公司 介绍信息的生成方法和装置、电子设备和存储介质
CN111556335A (zh) * 2020-04-15 2020-08-18 早安科技(广州)有限公司 一种视频贴纸处理方法及装置
CN111627115A (zh) * 2020-05-26 2020-09-04 浙江商汤科技开发有限公司 互动合影方法及装置、互动装置以及计算机存储介质
CN111757175A (zh) * 2020-06-08 2020-10-09 维沃移动通信有限公司 视频处理方法及装置
CN111726701A (zh) * 2020-06-30 2020-09-29 腾讯科技(深圳)有限公司 信息植入方法、视频播放方法、装置和计算机设备
CN114338954A (zh) * 2021-12-28 2022-04-12 维沃移动通信有限公司 视频生成电路、方法和电子设备

Also Published As

Publication number Publication date
WO2017157272A1 (zh) 2017-09-21
CN105791692B (zh) 2020-04-07
US11140436B2 (en) 2021-10-05
KR20180112848A (ko) 2018-10-12
US20180249200A1 (en) 2018-08-30
KR102135215B1 (ko) 2020-07-17
JP2019504532A (ja) 2019-02-14

Similar Documents

Publication Publication Date Title
CN105791692A (zh) 一种信息处理方法及终端
US11908052B2 (en) System and method for digital makeup mirror
US10127945B2 (en) Visualization of image themes based on image content
US10291841B2 (en) Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method
US8698920B2 (en) Image display apparatus and image display method
CN105190480B (zh) 信息处理设备和信息处理方法
US8390648B2 (en) Display system for personalized consumer goods
US9319640B2 (en) Camera and display system interactivity
KR101250619B1 (ko) 가상 사용자 인터페이스를 이용한 증강현실 시스템 및 그 방법
KR20200020960A (ko) 이미지 처리 방법 및 장치, 및 저장 매체
Borgo et al. State of the art report on video‐based graphics and video visualization
CN109087376B (zh) 图像处理方法、装置、存储介质及电子设备
US20160125624A1 (en) An apparatus and associated methods
US20110157218A1 (en) Method for interactive display
CN108256432A (zh) 一种指导化妆的方法及装置
WO2021068958A1 (zh) 生成商品对象动态图像的方法、装置及电子设备
CN108182714A (zh) 图像处理方法及装置、存储介质
WO2021063096A1 (zh) 视频合成方法、装置、电子设备及存储介质
CN108600632A (zh) 拍照提示方法、智能眼镜及计算机可读存储介质
CN113628322B (zh) 图像处理、ar显示与直播方法、设备及存储介质
US20240037869A1 (en) Systems and methods for using machine learning models to effect virtual try-on and styling on actual users
WO2023016214A1 (zh) 视频处理方法、装置、移动终端
KR101738580B1 (ko) 표정 인식 기반 음원 제공 시스템 및 서비스
WO2022206605A1 (zh) 确定目标对象的方法、拍摄方法和装置
KR102022559B1 (ko) 듀얼 카메라를 이용한 무배경 이미지 촬영과 이를 이용한 합성사진 촬영 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant