CN105791692A - 一种信息处理方法及终端 - Google Patents
一种信息处理方法及终端 Download PDFInfo
- Publication number
- CN105791692A CN105791692A CN201610143985.2A CN201610143985A CN105791692A CN 105791692 A CN105791692 A CN 105791692A CN 201610143985 A CN201610143985 A CN 201610143985A CN 105791692 A CN105791692 A CN 105791692A
- Authority
- CN
- China
- Prior art keywords
- information
- media information
- paster
- video
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 12
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 230000008859 change Effects 0.000 claims abstract description 134
- 238000000034 method Methods 0.000 claims abstract description 85
- 230000008569 process Effects 0.000 claims abstract description 53
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 34
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 34
- 230000009471 action Effects 0.000 claims description 72
- 239000000203 mixture Substances 0.000 claims description 66
- 238000001514 detection method Methods 0.000 claims description 18
- 230000001143 conditioned effect Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 6
- 230000001960 triggered effect Effects 0.000 abstract description 2
- 239000000463 material Substances 0.000 description 33
- 238000000605 extraction Methods 0.000 description 30
- 230000008921 facial expression Effects 0.000 description 23
- 230000007246 mechanism Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 238000010168 coupling process Methods 0.000 description 14
- 238000005859 coupling reaction Methods 0.000 description 14
- 230000008878 coupling Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 13
- 230000001815 facial effect Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 210000000887 face Anatomy 0.000 description 6
- 230000007935 neutral effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 5
- 238000010304 firing Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 2
- 239000010931 gold Substances 0.000 description 2
- 229910052737 gold Inorganic materials 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4126—The peripheral being portable, e.g. PDAs or mobile phones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4334—Recording operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4122—Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44016—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明公开了一种信息处理方法及终端,其中,所述方法包括:在终端开启应用,获取第一操作,触发第一媒体信息的采集;终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;终端接收服务器推送的与所述关键信息对应的第二媒体信息;将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
Description
技术领域
本发明涉及通讯技术,尤其涉及一种信息处理方法及终端。
背景技术
用户利用终端如手机中的应用来录制视频,将录制的视频进行信息分享,是常见的信息处理方案,录制的视频,还可以附加一些与视频内容相关或不相关的其他信息,来得到合成的视频。
要得到该合成的视频,需要执行附加其他信息的操作是非常复杂和繁琐的,需要用户去素材库选择这些信息,比如,就与视频内容相关的信息而言,用户需要去素材库选择与视频内容中某段视频信息相关的信息,即便选择的该信息是符合相关性需求的,还要进一步考虑:将该信息附加到视频内容中的哪个位置,哪个时间点等等因素,这种交互模式非常复杂,需要多次交互,势必导致处理效率低下,且来回交互往复,处理的时间成本也很高,最终达到的合成视频的效果也可能差强人意,并不符合真实的用户需求,用户可能重新再合成一次,那么,利用终端进行视频合成的信息处理成本会持续增加。然而,相关技术中,对于该问题,尚无有效解决方案。
发明内容
有鉴于此,本发明实施例希望提供一种信息处理方法及终端,至少解决了现有技术存在的问题。
本发明实施例的技术方案是这样实现的:
本发明实施例的一种信息处理方法,所述方法包括:
在终端开启应用,获取第一操作,触发第一媒体信息的采集;
终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;
终端接收服务器推送的与所述关键信息对应的第二媒体信息;
将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
上述方案中,所述关键信息,还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
上述方案中,所述方法还包括:
将第一媒体信息和第二媒体信息按照预设配置进行视频合成之前,终端接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
上述方案中,所述将第一媒体信息和第二媒体信息按照预设配置进行视频合成,包括:
响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内;或者,
响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
上述方案中,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
上述方案中,所述响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成包括:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器后,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
上述方案中,所述响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,包括:
响应所述文字信息,将检测到的文字信息上报服务器,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
本发明实施例的一种终端,所述终端包括:
触发单元,用于在终端开启应用,获取第一操作,触发第一媒体信息的采集;
检测单元,用于采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;
接收单元,用于接收服务器推送的与所述关键信息对应的第二媒体信息;
合成单元,用于将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
上述方案中,所述关键信息,还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
上述方案中,所述接收单元,进一步用于:接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
上述方案中,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内;或者,
响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
上述方案中,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
上述方案中,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
上述方案中,所述合成单元,进一步用于:
响应所述文字信息,将检测到的文字信息上报服务器后,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
本发明实施例的信息处理方法包括:在终端开启应用,获取第一操作,触发第一媒体信息的采集;终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;终端接收服务器推送的与所述关键信息对应的第二媒体信息;将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
采用本发明实施例,实时采集第一媒体信息的过程中,检测到表情变化或用户动作变化时,基于变化量从服务器得到对应的第二媒体信息,将第一媒体信息和第二媒体信息按照预设配置进行视频合成,则在第一媒体信息采集结束后,重新回放该第一媒体信息,在第一媒体信息的指定位置和指定时间显示有对应的第二媒体信息。由于,第二媒体信息无需用户手动选择和添加,因此,简化了操作流程,提高了处理效率;根据采集第一媒体信息的过程中得到的检测结果(如表情变化或用户动作变化)请求索取的对应第二媒体信息也更符合真实的用户需求(首先是第二媒体信息的内容本身比较精准,其次,第二媒体信息出现的位置和时间也能配合上如表情变化或用户动作变化等检测结果,位置和时间点也精准),符合需求,不仅减少了多次交互,也不需要后续再次调整和重新合成,降低了视频合成的信息处理成本和时间成本。
附图说明
图1为本发明实施例中进行信息交互的各方硬件实体的示意图;
图2为本发明实施例一的一个实现流程示意图;
图3为应用本发明实施例的应用场景示意图;
图4为应用本发明实施例的触发视频录制的示意图;
图5-6为采用现有技术的多个场景示意图;
图7-12为应用本发明实施例的多个场景示意图;
图13为本发明实施例二的一个实现流程示意图;
图14为本发明实施例三的一个组成结构示意图;
图15为本发明实施例四的一个硬件组成结构示意图;
图16为应用本发明实施例的RGB与透明度分开存储的场景示意图;
图17为应用本发明实施例的一个实例的系统架构图。
具体实施方式
下面结合附图对技术方案的实施作进一步的详细描述。
图1为本发明实施例中进行信息交互的各方硬件实体的示意图,图1中包括:服务器11、终端设备21-24,终端设备21-24通过有线网络或者无线网络与服务器进行信息交互,终端设备包括手机、台式机、PC机、一体机等类型。其中,终端设备中安装有满足用户日常和工作所需的多种应用,如果用户喜欢拍照和录视频,会安装诸如图片处理应用,视频处理应用等应用,出于社交分享的需求,也会安装社交应用,还可以将运用图片处理应用和视频处理应用得到的处理结果通过社交应用进行信息分享。采用本发明实施例,基于上述图1所示的系统,终端定期从服务器获取各个应用的更新数据包在本地保存,当需要使用终端上的应用,则开启应用(如视频处理应用),获取第一操作(如开启视频录制的操作),触发第一媒体信息(如视频)的采集;终端在采集所述第一媒体信息(如视频)的过程中检测到符合预设条件的人脸区域内的表情变化(如微笑)或采集框内的用户动作变化(如眨眼睛或比划剪刀手)时,将得到的变化量作为关键信息上报给服务器;终端接收服务器推送的与所述关键信息对应的第二媒体信息(如贴纸);将第一媒体信息(如视频)和第二媒体信息(贴纸)按照预设配置进行视频合成。采用本发明实施例,实时采集第一媒体信息的过程中,检测到表情变化或用户动作变化时,基于变化量从服务器得到对应的第二媒体信息,将第一媒体信息和第二媒体信息按照预设配置进行视频合成,则在第一媒体信息采集结束后,重新回放该第一媒体信息,在第一媒体信息的指定位置和指定时间显示有对应的第二媒体信息。由于,第二媒体信息无需用户手动选择和添加,因此,简化了操作流程,提高了处理效率;根据采集第一媒体信息的过程中得到的检测结果(如表情变化或用户动作变化)请求索取的对应第二媒体信息也更符合真实的用户需求(首先是第二媒体信息的内容本身比较精准,其次,第二媒体信息出现的位置和时间也能配合上如表情变化或用户动作变化等检测结果,位置和时间点也精准),符合需求,不仅减少了多次交互,也不需要后续再次调整和重新合成,降低了视频合成的信息处理成本和时间成本。
上述图1的例子只是实现本发明实施例的一个系统架构实例,本发明实施例并不限于上述图1所述的系统结构,基于该系统架构,提出本发明各个实施例。
实施例一:
本发明实施例的信息处理方法,如图2所示,所述方法包括:
步骤101、在终端开启应用,获取第一操作,触发第一媒体信息的采集。
这里,一个应用场景中,如图3所示,用户躺在沙发上正在使用终端(如手机11),手机11的用户界面上包含各种类型的应用图标,如音乐播放图标,功能设置图标,邮件收发图标等等,用户执行第一操作,如用手指点击A1标识的视频处理应用图标,进入视频录制的处理过程,从而触发第一媒体信息(如视频)的采集。比如,可以录制一段室内的场景,或者,给自己进行自拍等等。
步骤102、终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器。
这里,仍然结合步骤101中的应用场景,在视频录制的处理过程中,通过人脸识别定位机制,表情识别机制,终端可以捕获到人脸区域内的表情变化(如微笑,哭泣,皱眉等等)。除了在人脸区域内的检测,如识别出表情变化,还可以检测到采集框(或称取景框)内的用户动作变化(如比剪刀手),不限于人脸区域。还可以将人脸区域中的表情变化与用户动作变化(如比剪刀手)进行组合识别,比如,将剪刀手和脸部表情中的微笑相结合进行组合识别。
在人脸识别的过程中,人脸识别技术是基于人的脸部特征,对视频录制中的人脸图像或者视频流进行采集,首先判断视频流中是否存在人脸,如果存在人脸,则进一步的给出脸的位置和大小,及定位出各个主要面部器官的位置信息,得到人脸中五官的各自位置和初始形态,当形态发生变化(如微笑时上下嘴唇的位置会相对初始形态产生位移和形变),则说明人脸五官的面部表情出现变化,也可以通过表情识别机制来识别出表情的变化。本发明实施例的人脸识别有别于常规的人脸识别,常规的人脸识别是为了通过构建的人脸识别系统来识别出用户的身份,是将识别出的人脸与已知人脸进行比对,以便于身份确认以及身份查找。
在表情识别过程中,可以分为四个阶段:如人脸图像的获取与预处理;人脸检测;表情特征提取和表情分类。如果仅仅通过人脸识别和定位机制,会存在不精确的问题,而表情识别机制是一种更加准确的处理策略,表情识别与人脸识别密切相关,如在人脸检测中的定位和人脸跟踪这些环节上是类似的,特征提取上不同。举例来说,人脸识别提取的特征是:不同人脸的个体差异和特性,面部表情作为干扰信号存在(不过多关注面部表情),而本发明实施例是需要关注表情的变化来触发对应的第二媒体信息(贴纸信息),因此,可以忽略个体差异,而关注于提取人脸在不同表情模式下的差异特征的特征提取,可以结合个体差异,也可以为了提高表情识别精度而将个体差异作为干扰信号处理(不过多关注个体差异)。特征提取是人脸表情识别中的核心步骤,决定着最终的识别结果,影响识别率的高低。其中,所述特征提取可以分为:静态图像特征提取和运动图像特征提取。就静态图像特征提取而言,提取的是表情的形变特征(或称为表情的暂态特征),就运动图像特征提取而言,对于运动图像,不仅要提取每一帧的表情形变特征,还要提取连续序列的运动特征。形变特征提取可以依赖中性表情或模型,从而把产生的表情与中性表情做比较来提取出形变特征,而运动特征的提取则直接依赖于表情产生的面部变化。表情有多种划分方式,1)如按照基本表情划分,如高兴、悲伤、惊讶、恐惧、愤怒和厌恶等,建立不同的人脸表情图像库以便后续的匹配和识别。2)按照情绪分类,如愉快,不愉快,激动,平静,紧张,轻松等。
步骤103、终端接收服务器推送的与所述关键信息对应的第二媒体信息。
这里,一种具体实现可以为:步骤102推送关键信息给服务器之后,服务器根据关键信息从素材库匹配对应的第二媒体信息(如贴纸信息),将第二媒体信息(如贴纸信息)推送给终端,以便后续在步骤104中与第一媒体信息(如视频)进行视频合成。无需用户手动选择贴纸信息,而是根据关键信息匹配后自动推送给终端,在终端采集第一媒体信息(如视频)的过程中自动合成(如将视频和贴纸信息相叠加)视频处理结果(含贴纸信息的新视频信息),在第一媒体信息(如视频)的指定位置和指定时间显示贴纸信息。
步骤104、将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
在本发明实施例一实施方式中,所述关键信息还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
现有技术中,如图5中的文字信息,具体的,在视频信息中包含A2所标识的“红红火火”,是视频信息录制完成后添加的如A2’所标识贴纸信息“红红火火”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。如图6所示为现有技术的另一个应用场景,具体的,在视频信息中包含A3所标识的“男朋友”,视频信息录制完成后添加的如A3’所标识贴纸信息“男朋友”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。这种处理,非常繁琐,需要多次用户交互,后续找的贴纸也不一定就是用户真正需要的,即便是用户真正需要的,也需要用户手工在已经录制完成的视频信息上手动添加,比如将贴纸移动到视频信息的合适位置上等等。
而采用本发明实施例,如图7视频录制中的文字信息,合成的结果是:在文字信息中包含的关键信息为A4所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A4’所标识。如图8视频录制中的文字信息,具体的,在文字信息中包含的关键信息为A5所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A5’所标识。在图7-8中,B1用于标识视频录制过程中的控制按钮,B2用于标识视频录制结束后的回放按钮。如图9所示为一个录制视频过程中将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,在图9中,对应录制的视频信息中播放语音为“祝姐妹们过年吃不胖”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息以卷轴形式打开并显示的动态贴纸效果“吃不胖”。图10为另一个采用本发明实施例录制视频后,将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,其中,当对应录制的视频信息中播放语音为“年终奖多多”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息,以动态贴纸效果显示“年终奖多多”,并配合有这种货币单位的指示符,将其与“年终奖多多”的文字相结合。
对应视频录制中有“年终奖多多”这种情况,除了显示对应内容的贴纸信息(如图10所示),还可以通过识别人脸表情或用户动作而得到其他的贴纸形态,如图11所示,当对应录制的视频信息中播放语音为如A6标识的“年终奖多多”时,或者是用户开心的眨眼,或者用户动作和语音相结合,那么,在视频界面除了可以显示对应的文字信息(如图10所示),还可以在这个“开心的眨眼”的时间点,在视频界面上还显示有合成的贴纸信息,如A6’标识的“眼睛变成2个钱”,除了眨眼,还可以是用户动作(如打响指)触发显示A6’标识的“眼睛变成2个钱”或者如图10所示的“年终奖多多”。
图12所示为另一个采用本发明实施例的应用实例,在图12中,还可以通过识别人脸表情得到其他的贴纸形态,如图12所示,当对应录制的视频信息中播放语音为如A7标识的“我真有这么漂亮吗”时,识别出人脸脸颊的位置,在人脸脸颊的位置叠加如A7’所示的贴纸信息(具体为五官贴纸类型中的红脸蛋或腮红或红晕),那么,在视频界面在出现“我真有这么漂亮吗”的时间点,在视频界面上还显示有合成的贴纸信息,人脸上有红晕。
实施例二:
本发明实施例的信息处理方法,如图13所示,所述方法包括:
步骤201、在终端开启应用,获取第一操作,触发第一媒体信息的采集。
这里,一个应用场景中,如图3所示,用户躺在沙发上正在使用终端(如手机11),手机11的用户界面上包含各种类型的应用图标,如音乐播放图标,功能设置图标,邮件收发图标等等,用户执行第一操作,如用手指点击A1标识的视频处理应用图标,进入视频录制的处理过程,从而触发第一媒体信息(如视频)的采集。比如,可以录制一段室内的场景,或者,给自己进行自拍等等。
步骤202、终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器。
这里,仍然结合步骤201中的应用场景,在视频录制的处理过程中,通过人脸识别定位机制,表情识别机制,终端可以捕获到人脸区域内的表情变化(如微笑,哭泣,皱眉等等)。除了在人脸区域内的检测,如识别出表情变化,还可以检测到采集框(或称取景框)内的用户动作变化(如比剪刀手),不限于人脸区域。还可以将人脸区域中的表情变化与用户动作变化(如比剪刀手)进行组合识别,比如,将剪刀手和脸部表情中的微笑相结合进行组合识别。
在人脸识别的过程中,人脸识别技术是基于人的脸部特征,对视频录制中的人脸图像或者视频流进行采集,首先判断视频流中是否存在人脸,如果存在人脸,则进一步的给出脸的位置和大小,及定位出各个主要面部器官的位置信息,得到人脸中五官的各自位置和初始形态,当形态发生变化(如微笑时上下嘴唇的位置会相对初始形态产生位移和形变),则说明人脸五官的面部表情出现变化,也可以通过表情识别机制来识别出表情的变化。本发明实施例的人脸识别有别于常规的人脸识别,常规的人脸识别是为了通过构建的人脸识别系统来识别出用户的身份,是将识别出的人脸与已知人脸进行比对,以便于身份确认以及身份查找。
在表情识别过程中,可以分为四个阶段:如人脸图像的获取与预处理;人脸检测;表情特征提取和表情分类。如果仅仅通过人脸识别和定位机制,会存在不精确的问题,而表情识别机制是一种更加准确的处理策略,表情识别与人脸识别密切相关,如在人脸检测中的定位和人脸跟踪这些环节上是类似的,特征提取上不同。举例来说,人脸识别提取的特征是:不同人脸的个体差异和特性,面部表情作为干扰信号存在(不过多关注面部表情),而本发明实施例是需要关注表情的变化来触发对应的第二媒体信息(贴纸信息),因此,可以忽略个体差异,而关注于提取人脸在不同表情模式下的差异特征的特征提取,可以结合个体差异,也可以为了提高表情识别精度而将个体差异作为干扰信号处理(不过多关注个体差异)。特征提取是人脸表情识别中的核心步骤,决定着最终的识别结果,影响识别率的高低。其中,所述特征提取可以分为:静态图像特征提取和运动图像特征提取。就静态图像特征提取而言,提取的是表情的形变特征(或称为表情的暂态特征),就运动图像特征提取而言,对于运动图像,不仅要提取每一帧的表情形变特征,还要提取连续序列的运动特征。形变特征提取可以依赖中性表情或模型,从而把产生的表情与中性表情做比较来提取出形变特征,而运动特征的提取则直接依赖于表情产生的面部变化。表情有多种划分方式,1)如按照基本表情划分,如高兴、悲伤、惊讶、恐惧、愤怒和厌恶等,建立不同的人脸表情图像库以便后续的匹配和识别。2)按照情绪分类,如愉快,不愉快,激动,平静,紧张,轻松等。
步骤203、服务器从素材库中选取与关键信息对应的第二媒体信息和第二媒体信息的描述文件。
步骤204、终端接收服务器推送的与所述关键信息对应的第二媒体信息和第二媒体信息的描述文件。
这里,一种具体实现可以为:步骤202推送关键信息给服务器之后,服务器根据关键信息从素材库匹配对应的第二媒体信息(如贴纸信息),将第二媒体信息(如贴纸信息)推送给终端,以便后续在步骤104中与第一媒体信息(如视频)进行视频合成。无需用户手动选择贴纸信息,而是根据关键信息匹配后自动推送给终端,在终端采集第一媒体信息(如视频)的过程中自动合成(如将视频和贴纸信息相叠加)视频处理结果(含贴纸信息的新视频信息),在第一媒体信息(如视频)的指定位置和指定时间显示贴纸信息。
这里,步骤204中,与所述关键信息对应的第二媒体信息的描述文件和第二媒体信息可以同时发送或者分别发送,取决于当时的网络状况,如果网络状况好,则同时发送,如果网络状况不好,为了避免网络不好,丢失数据,可以分别发放。
步骤205、将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
在本发明实施例一实施方式中,所述关键信息还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
现有技术中,如图5中的文字信息,具体的,在视频信息中包含A2所标识的“红红火火”,是视频信息录制完成后添加的如A2’所标识贴纸信息“红红火火”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。如图6所示为现有技术的另一个应用场景,具体的,在视频信息中包含A3所标识的“男朋友”,视频信息录制完成后添加的如A3’所标识贴纸信息“男朋友”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。这种处理,非常繁琐,需要多次用户交互,后续找的贴纸也不一定就是用户真正需要的,即便是用户真正需要的,也需要用户手工在已经录制完成的视频信息上手动添加,比如将贴纸移动到视频信息的合适位置上等等。
而采用本发明实施例,如图7视频录制中的文字信息,合成的结果是:在文字信息中包含的关键信息为A4所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A4’所标识。如图8视频录制中的文字信息,具体的,在文字信息中包含的关键信息为A5所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A5’所标识。在图7-8中,B1用于标识视频录制过程中的控制按钮,B2用于标识视频录制结束后的回放按钮。如图9所示为一个录制视频过程中将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,在图9中,对应录制的视频信息中播放语音为“祝姐妹们过年吃不胖”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息以卷轴形式打开并显示的动态贴纸效果“吃不胖”。图10为另一个采用本发明实施例录制视频后,将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,其中,当对应录制的视频信息中播放语音为“年终奖多多”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息,以动态贴纸效果显示“年终奖多多”,并配合有这种货币单位的指示符,将其与“年终奖多多”的文字相结合。
对应视频录制中有“年终奖多多”这种情况,除了显示对应内容的贴纸信息(如图10所示),还可以通过识别人脸表情或用户动作而得到其他的贴纸形态,如图11所示,当对应录制的视频信息中播放语音为如A6标识的“年终奖多多”时,或者是用户开心的眨眼,或者用户动作和语音相结合,那么,在视频界面除了可以显示对应的文字信息(如图10所示),还可以在这个“开心的眨眼”的时间点,在视频界面上还显示有合成的贴纸信息,如A6’标识的“眼睛变成2个钱”,除了眨眼,还可以是用户动作(如打响指)触发显示A6’标识的“眼睛变成2个钱”或者如图10所示的“年终奖多多”。
图12所示为另一个采用本发明实施例的应用实例,在图12中,还可以通过识别人脸表情得到其他的贴纸形态,如图12所示,当对应录制的视频信息中播放语音为如A7标识的“我真有这么漂亮吗”时,识别出人脸脸颊的位置,在人脸脸颊的位置叠加如A7’所示的贴纸信息(具体为五官贴纸类型中的红脸蛋或腮红或红晕),那么,在视频界面在出现“我真有这么漂亮吗”的时间点,在视频界面上还显示有合成的贴纸信息,人脸上有红晕。
在本发明实施例一实施方式中,所述将第一媒体信息和第二媒体信息按照预设配置进行视频合成,包括:
第一种实现方案:响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
第二种实现方案:响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
两种方案的区别在于:第一种方案,需要得到特征坐标(特征检测结果中的部分信息或全部信息),以便结合特征坐标,确定将贴纸信息放到视频信息中哪个合适的指定位置,第二媒体信息可以决定时间点,贴纸信息的摆放是有固定位置和固定时间要求的,根据这个指定位置和时间点,就可以实现在合适的位置,合适的时间点叠加贴纸信息到视频信息上,比如,如图12所示的“脸上出现腮红”这种场景;第二种方案中,可以不考虑特征坐标,第二媒体信息可以决定时间点,和贴纸的大小等属性,还可以包括贴纸信息的中心点位置,贴纸的摆放虽然也有固定位置和固定时间要求的,但是,相比于第一种方案,更具有任意性,如图7所示,只要出现“吃不胖”就行,不限定“吃不胖”一定在人脸区域的哪个相对位置显示,而第一种方案中,是由表情变化或用户动作变化触发的贴纸请求,因此,务必要配合表情变化或用户动作变化来显示。
在本发明实施例一实施方式中,所述第二多媒体信息包括以下至少一类:1)由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息,如五官贴纸和触发类贴纸;2)由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息普通贴纸和背景贴纸。
在本发明实施例一实施方式中,所述响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成包括:
a1、响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器后,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
a2、检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
a3、解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
a4、按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
在本发明实施例一实施方式中,所述响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,包括:
b1、响应所述文字信息,将检测到的文字信息上报服务器,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
b2、解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
b3、按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
实施例三:
本发明实施例的终端,如图14所示,所述终端包括:触发单元21,用于在终端开启应用,获取第一操作,触发第一媒体信息的采集;及检测单元22,用于采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;及接收单元23,用于接收服务器推送的与所述关键信息对应的第二媒体信息;及合成单元24,用于将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
这里,一个应用场景中,如图3所示,用户躺在沙发上正在使用终端(如手机11),手机11的用户界面上包含各种类型的应用图标,如音乐播放图标,功能设置图标,邮件收发图标等等,用户执行第一操作,如用手指点击A1标识的视频处理应用图标,进入视频录制的处理过程,从而触发第一媒体信息(如视频)的采集。比如,可以录制一段室内的场景,或者,给自己进行自拍等等。在视频录制的处理过程中,通过人脸识别定位机制,表情识别机制,终端可以捕获到人脸区域内的表情变化(如微笑,哭泣,皱眉等等)。除了在人脸区域内的检测,如识别出表情变化,还可以检测到采集框(或称取景框)内的用户动作变化(如比剪刀手),不限于人脸区域。还可以将人脸区域中的表情变化与用户动作变化(如比剪刀手)进行组合识别,比如,将剪刀手和脸部表情中的微笑相结合进行组合识别。
在人脸识别的过程中,人脸识别技术是基于人的脸部特征,对视频录制中的人脸图像或者视频流进行采集,首先判断视频流中是否存在人脸,如果存在人脸,则进一步的给出脸的位置和大小,及定位出各个主要面部器官的位置信息,得到人脸中五官的各自位置和初始形态,当形态发生变化(如微笑时上下嘴唇的位置会相对初始形态产生位移和形变),则说明人脸五官的面部表情出现变化,也可以通过表情识别机制来识别出表情的变化。本发明实施例的人脸识别有别于常规的人脸识别,常规的人脸识别是为了通过构建的人脸识别系统来识别出用户的身份,是将识别出的人脸与已知人脸进行比对,以便于身份确认以及身份查找。
在表情识别过程中,可以分为四个阶段:如人脸图像的获取与预处理;人脸检测;表情特征提取和表情分类。如果仅仅通过人脸识别和定位机制,会存在不精确的问题,而表情识别机制是一种更加准确的处理策略,表情识别与人脸识别密切相关,如在人脸检测中的定位和人脸跟踪这些环节上是类似的,特征提取上不同。举例来说,人脸识别提取的特征是:不同人脸的个体差异和特性,面部表情作为干扰信号存在(不过多关注面部表情),而本发明实施例是需要关注表情的变化来触发对应的第二媒体信息(贴纸信息),因此,可以忽略个体差异,而关注于提取人脸在不同表情模式下的差异特征的特征提取,可以结合个体差异,也可以为了提高表情识别精度而将个体差异作为干扰信号处理(不过多关注个体差异)。特征提取是人脸表情识别中的核心步骤,决定着最终的识别结果,影响识别率的高低。其中,所述特征提取可以分为:静态图像特征提取和运动图像特征提取。就静态图像特征提取而言,提取的是表情的形变特征(或称为表情的暂态特征),就运动图像特征提取而言,对于运动图像,不仅要提取每一帧的表情形变特征,还要提取连续序列的运动特征。形变特征提取可以依赖中性表情或模型,从而把产生的表情与中性表情做比较来提取出形变特征,而运动特征的提取则直接依赖于表情产生的面部变化。表情有多种划分方式,1)如按照基本表情划分,如高兴、悲伤、惊讶、恐惧、愤怒和厌恶等,建立不同的人脸表情图像库以便后续的匹配和识别。2)按照情绪分类,如愉快,不愉快,激动,平静,紧张,轻松等。
在本发明实施例一实施方式中,所述关键信息还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
现有技术中,如图5中的文字信息,具体的,在视频信息中包含A2所标识的“红红火火”,是视频信息录制完成后添加的如A2’所标识贴纸信息“红红火火”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。如图6所示为现有技术的另一个应用场景,具体的,在视频信息中包含A3所标识的“男朋友”,视频信息录制完成后添加的如A3’所标识贴纸信息“男朋友”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。这种处理,非常繁琐,需要多次用户交互,后续找的贴纸也不一定就是用户真正需要的,即便是用户真正需要的,也需要用户手工在已经录制完成的视频信息上手动添加,比如将贴纸移动到视频信息的合适位置上等等。
而采用本发明实施例,如图7视频录制中的文字信息,合成的结果是:在文字信息中包含的关键信息为A4所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A4’所标识。如图8视频录制中的文字信息,具体的,在文字信息中包含的关键信息为A5所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A5’所标识。在图7-8中,B1用于标识视频录制过程中的控制按钮,B2用于标识视频录制结束后的回放按钮。如图9所示为一个录制视频过程中将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,在图9中,对应录制的视频信息中播放语音为“祝姐妹们过年吃不胖”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息以卷轴形式打开并显示的动态贴纸效果“吃不胖”。图10为另一个采用本发明实施例录制视频后,将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,其中,当对应录制的视频信息中播放语音为“年终奖多多”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息,以动态贴纸效果显示“年终奖多多”,并配合有这种货币单位的指示符,将其与“年终奖多多”的文字相结合。
对应视频录制中有“年终奖多多”这种情况,除了显示对应内容的贴纸信息(如图10所示),还可以通过识别人脸表情或用户动作而得到其他的贴纸形态,如图11所示,当对应录制的视频信息中播放语音为如A6标识的“年终奖多多”时,或者是用户开心的眨眼,或者用户动作和语音相结合,那么,在视频界面除了可以显示对应的文字信息(如图10所示),还可以在这个“开心的眨眼”的时间点,在视频界面上还显示有合成的贴纸信息,如A6’标识的“眼睛变成2个钱”,除了眨眼,还可以是用户动作(如打响指)触发显示A6’标识的“眼睛变成2个钱”或者如图10所示的“年终奖多多”。
图12所示为另一个采用本发明实施例的应用实例,在图12中,还可以通过识别人脸表情得到其他的贴纸形态,如图12所示,当对应录制的视频信息中播放语音为如A7标识的“我真有这么漂亮吗”时,识别出人脸脸颊的位置,在人脸脸颊的位置叠加如A7’所示的贴纸信息(具体为五官贴纸类型中的红脸蛋或腮红或红晕),那么,在视频界面在出现“我真有这么漂亮吗”的时间点,在视频界面上还显示有合成的贴纸信息,人脸上有红晕。
在本发明实施例一实施方式中,所述接收单元,进一步用于:接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
在本发明实施例一实施方式中,所述合成单元包括两种具体实现:
第一种具体实现:响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
第二种具体实现:响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
在本发明实施例一实施方式中,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
在本发明实施例一实施方式中,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
在本发明实施例一实施方式中,所述合成单元,进一步用于:
响应所述文字信息,将检测到的文字信息上报服务器后,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
实施例四:
这里需要指出的是,上述终端可以为PC这种电子设备,还可以为如PAD,平板电脑,手提电脑这种便携电子设备、还可以为如手机这种智能移动终端,不限于这里的描述;所述服务器可以是通过集群系统构成的,为实现各单元功能而合并为一或各单元功能分体设置的电子设备,终端和服务器都至少包括用于存储数据的数据库和用于数据处理的处理器,或者包括设置于服务器内的存储介质或独立设置的存储介质。
其中,对于用于数据处理的处理器而言,在执行处理时,可以采用微处理器、中央处理器(CPU,CentralProcessingUnit)、数字信号处理器(DSP,DigitalSingnalProcessor)或可编程逻辑阵列(FPGA,Field-ProgrammableGateArray)实现;对于存储介质来说,包含操作指令,该操作指令可以为计算机可执行代码,通过所述操作指令来实现上述本发明实施例信息处理方法流程中的各个步骤。
该终端和该服务器作为硬件实体S11的一个示例如图15所示。所述装置包括处理器41、存储介质42以及至少一个外部通信接口43;所述处理器41、存储介质42以及外部通信接口43均通过总线44连接。
这里需要指出的是:以上涉及终端和服务器项的描述,与上述方法描述是类似的,同方法的有益效果描述,不做赘述。对于本发明终端和服务器实施例中未披露的技术细节,请参照本发明方法实施例的描述。
以一个现实应用场景为例对本发明实施例阐述如下:
首先对应用场景进行介绍:一,在视频素材中,根据素材演绎的内容,经常会要加一些相关联的动态贴纸,让视频显得更加丰富。A)比如:拜年视频中,当表达恭喜发财时,会希望有一些从天而降的金币;B)又比如:当视频内容想发表主角娇羞状态时,会希望能在用户脸上加上红晕的特效。二,视频中会有和某个明星合演的需求,这个时候也可以将明星直接做成前景的贴纸,然后让用户和明星合影。现有技术中,经视频处理技术得到的示意图如图5-6所示。其中,如图5中的文字信息,具体的,在视频信息中包含A2所标识的“红红火火”,是视频信息录制完成后添加的如A2’所标识贴纸信息“红红火火”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。如图6所示为现有技术的另一个应用场景,具体的,在视频信息中包含A3所标识的“男朋友”,视频信息录制完成后添加的如A3’所标识贴纸信息“男朋友”,该贴纸信息是通过终端多次与服务器的交互,从服务器素材库手工选取的,之后,在将该贴纸信息附具到已经录制完成的视频信息中。这种处理,非常繁琐,需要多次用户交互,后续找的贴纸也不一定就是用户真正需要的,即便是用户真正需要的,也需要用户手工在已经录制完成的视频信息上手动添加,比如将贴纸移动到视频信息的合适位置上等等。
上述图5-6的场景中,采用的现有视频处理技术为:应用(APP)会提供一些固定的贴纸,然后用户先录制视频,录制后,由用户自己去贴纸素材库里选择自己认为相关素材,然后通过复杂的交互,决定每张贴纸在什么时间点加上,加多久。且有些APP允许贴纸移动,然后要按住贴纸,拖动决定移动到哪个具体的位置,这样的后果是:需要终端与服务器间多次繁琐的交互,处理效率低下,在视频录制完成后手动选择贴纸再最终合成,视频处理成本高,浪费时间,还不一定符合用户需求。
针对上述应用场景,采用本发明实施例,是一种视频相关实时动效贴纸方案。采用本发明的人脸识别及定位机制,表情识别机制,视频合成处理机制,可以不需要用户通过复杂的操作,去一堆素材中选择某个和该视频素材相关的贴纸信息,而是选择了某段素材视频,在录制的过程中,就能看到对应的地方,在对应的时间,出现对应的贴纸信息,可以称为在视频录制的过程中就实时的在相应指定位置和指定时间点叠加上对应的贴纸信息,如图7-12所示。
采用本发明实施例,如图7视频录制中的文字信息,合成的结果是:在文字信息中包含的关键信息为A4所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A4’所标识。如图8视频录制中的文字信息,具体的,在文字信息中包含的关键信息为A5所标识的“吃不胖”,基于该关键信息得到的匹配贴纸信息如A5’所标识。在图7-8中,B1用于标识视频录制过程中的控制按钮,B2用于标识视频录制结束后的回放按钮。如图9所示为一个录制视频过程中将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,在图9中,对应录制的视频信息中播放语音为“祝姐妹们过年吃不胖”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息以卷轴形式打开并显示的动态贴纸效果“吃不胖”。图10为另一个采用本发明实施例录制视频后,将贴纸信息与视频在合适的位置和时间点进行视频合成后,回放该视频的示意图,其中,当对应录制的视频信息中播放语音为“年终奖多多”时,在视频界面可以显示对应语音的文字信息,在这个时间点,在视频界面上还显示有合成的贴纸信息,以动态贴纸效果显示“年终奖多多”,并配合有这种货币单位的指示符,将其与“年终奖多多”的文字相结合。
对应视频录制中有“年终奖多多”这种情况,除了显示对应内容的贴纸信息(如图10所示),还可以通过识别人脸表情或用户动作而得到其他的贴纸形态,如图11所示,当对应录制的视频信息中播放语音为如A6标识的“年终奖多多”时,或者是用户开心的眨眼,或者用户动作和语音相结合,那么,在视频界面除了可以显示对应的文字信息(如图10所示),还可以在这个“开心的眨眼”的时间点,在视频界面上还显示有合成的贴纸信息,如A6’标识的“眼睛变成2个钱”,除了眨眼,还可以是用户动作(如打响指)触发显示A6’标识的“眼睛变成2个钱”或者如图10所示的“年终奖多多”。
图12所示为另一个采用本发明实施例的应用实例,在图12中,还可以通过识别人脸表情得到其他的贴纸形态,如图12所示,当对应录制的视频信息中播放语音为如A7标识的“我真有这么漂亮吗”时,识别出人脸脸颊的位置,在人脸脸颊的位置叠加如A7’所示的贴纸信息(具体为五官贴纸类型中的红脸蛋或腮红或红晕),那么,在视频界面在出现“我真有这么漂亮吗”的时间点,在视频界面上还显示有合成的贴纸信息,人脸上有红晕。
在录制完时,对应的贴纸信息也已经出现在视频里了。
这里需要指出的是:贴纸信息分为以下几种:
A)普通贴纸:比如天上掉下的金币,抖动的红包,盛开的一朵小花都属于这类贴纸
B)五官贴纸:可以指定出现在五官某个具体的位置,并且会跟随五官移动的贴纸。如:脸蛋的红晕,眼镜等
C)触发类贴纸:检测到某个具体的动作时,出现的变化的一组贴纸,出现的一组贴纸既可以是普通贴纸,也可以是五官贴纸
D)背景贴纸:盖在视频最上方,并且重复播放的几帧视频,如图8中“吃不胖”的边框(如边框类贴纸)。
对于上述贴纸信息的四种类型,触发类贴纸和五官类贴纸信息是如图17所示,需要贴纸信息与特征坐标相结合,之后再与录制视频合成(需要与图17中的特征检测和素材解析器发生关系,再与视频合成器发生关系,因为表情,动作,五官变化这种,坐标都是会变化的),而除去触发类贴纸和五官类贴纸信息之外,其他几种(普通贴纸和背景贴纸),都是贴纸信息直接与录制视频合成(也就是说,仅与图17中的视频合成器发生关系,因为坐标通常不会变)。
要想实现上述图7-12所示的最终效果,在技术实现上,还包括以下内容:
一,将每个视频的贴纸信息作为素材的一部分,在素材包中,并且随素材下发。所述素材除了包括贴纸信息,还包括贴纸信息的描述文件等等。
二,动态的素材包括两部分:
A)贴纸信息的原始形态,主要有三种格式:i)静态贴图;ii)动态的Gif图;iii)视频。其中中,对于图片类的贴纸信息文件(如静态贴图和动态的Gif图),用png等带透明度的图片进行叠加来实现视频合成即可;而对于多数视频类的贴纸信息文件(如视频),由于其是不带透明度的,当使用视频作为素材时,素材视频的分辨率是拍摄视频的两倍,其中一半的像素用来表示贴纸的RGB值,另一半像素用来表示贴纸的透明度,即:视频类贴纸信息的存储方式是:RGB和透明通道分开,将拍摄的视频,分为一半是素材RGB,一半是素材透明度进行存储,如图16所示。RGB这种色彩模式是一种颜色标准,是通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化以及它们相互之间的叠加来得到各式各样的颜色的,RGB即是代表红、绿、蓝三个通道的颜色,这个标准几乎包括了人类视力所能感知的所有颜色。
在贴纸信息和拍摄的视频进行视频叠加的视频合成时,当贴纸信息上某个像素的透明度位a时,合成视频的RGB值=a*视频类贴纸信息的RGB值+(1-a)*拍摄视频的RGB值。
B)贴纸的描述文件,该描述文件包含的信息为:i)贴图出现的中心点位置;ii)贴图出现时间,从而,根据贴纸信息和贴纸描述文件,可以为终端主动推送贴纸(在正在录制视频的合适的位置,合适的时间点,叠加上合适的动态贴纸,无需用户手动选择贴纸)。其中,贴图出现时间包括:a)一次性播放的动态贴图:设定什么时候开始;b)重复播放的动态贴图:设定开始和结束时间
C)五官类贴纸需要设定:五官类型的信息包括:i)头顶;ii)眼睛;iii)脸蛋;iv)嘴巴;v)鼻子。
D)触发类贴纸需要设定:触发条件,触发条件包括:i)张嘴;ii)眨眼;iii)微笑;iv)抖眉毛。
E)不同素材的层级关系
三,素材预览时,解析动态贴纸的文件。
四,录制过程中,按照贴纸信息的描述文件,绘制动态贴纸,已达到实时可见的目的,如果是五官类和触发类贴纸,在系统构成中还包括了人脸检测算法(使用现有的人脸检测算法,算法本身不包括在专利内),绘制贴纸时根据人脸检测的结果将贴纸绘制在恰当的位置,如图17所示为整个系统的结构示意图(图17中的模块都位于终端侧)。对于触发类贴纸和五官类贴纸信息,需要贴纸信息与特征坐标相结合,之后再与录制视频合成,即:需要与特征检测和素材解析器发生关系,再与视频合成器发生关系,因为表情,动作,五官变化这种,坐标都是会变化的,具体的,终端通过应用(如相机应用)拍摄原始视频,在拍摄过程中,终端通过特征检测器来检测原始视频中每一帧图像中的人脸区域或者取景框内用户动作的特征,分析出具体的特征参数及其对应的特征坐标(初始坐标和形变后的目的坐标),终端收到基于服务器匹配特征参数后发送的贴纸信息和贴纸信息的描述文件后,通过素材解析器对贴纸信息和贴纸信息的描述文件进行解析,以得到贴纸信息及其属性和叠加位置和叠加时间点等信息,将贴纸信息按照特征坐标,贴纸信息的描述文件指示的叠加位置和叠加时间点等信息,通过视频合成器将贴纸信息与正在拍摄的原始视频进行视频合成,生成含有贴纸信息的视频处理结果。而除去触发类贴纸和五官类贴纸信息之外,其他几种(普通贴纸和背景贴纸),都是贴纸信息直接与录制视频合成,即:仅与视频合成器发生关系,因为坐标通常不会变,具体的,终端通过应用(如相机应用)拍摄原始视频,在拍摄过程中,终端收到基于服务器匹配视频中文字信息后发送的贴纸信息和贴纸信息的描述文件后,通过素材解析器对贴纸信息和贴纸信息的描述文件进行解析,以得到贴纸信息及其属性和叠加位置和叠加时间点等信息,将贴纸信息按照贴纸信息的描述文件指示的叠加位置和叠加时间点等信息,通过视频合成器将贴纸信息与正在拍摄的原始视频进行视频合成,生成含有贴纸信息的视频处理结果。
五,最终在录制时将动态贴纸一起录制到视频中,已完成视频录制。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (14)
1.一种信息处理方法,其特征在于,所述方法包括:
在终端开启应用,获取第一操作,触发第一媒体信息的采集;
终端在采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;
终端接收服务器推送的与所述关键信息对应的第二媒体信息;
将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
2.根据权利要求1所述的方法,其特征在于,所述关键信息,还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
将第一媒体信息和第二媒体信息按照预设配置进行视频合成之前,终端接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
4.根据权利要求3所述的方法,其特征在于,所述将第一媒体信息和第二媒体信息按照预设配置进行视频合成,包括:
响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内;或者,
响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
6.根据权利要求5所述的方法,其特征在于,所述响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成包括:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器后,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
7.根据权利要求5所述的方法,其特征在于,所述响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,包括:
响应所述文字信息,将检测到的文字信息上报服务器,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
8.一种终端,其特征在于,所述终端包括:
触发单元,用于在终端开启应用,获取第一操作,触发第一媒体信息的采集;
检测单元,用于采集所述第一媒体信息的过程中检测到符合预设条件的人脸区域内的表情变化或采集框内的用户动作变化时,将得到的变化量作为关键信息上报给服务器;
接收单元,用于接收服务器推送的与所述关键信息对应的第二媒体信息;
合成单元,用于将第一媒体信息和第二媒体信息按照预设配置进行视频合成。
9.根据权利要求8所述的终端,其特征在于,所述关键信息,还包括:采集所述第一媒体信息的过程中检测得到的文字信息。
10.根据权利要求9所述的终端,其特征在于,所述接收单元,进一步用于:接收服务器推送的与所述关键信息对应的第二媒体信息的描述文件。
11.根据权利要求10所述的终端,其特征在于,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化时,获取对应的特征检测结果,将所述第二媒体信息按照所述特征检测结果和所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内;或者,
响应所述文字信息时,将所述第二媒体信息按照所述第二媒体信息的描述文件的配置与第一媒体信息进行视频合成,并将所述第二媒体信息显示在所述第一媒体信息指定的位置和指定时间点或时间段内。
12.根据权利要求8至11任一项所述的终端,其特征在于,所述第二多媒体信息包括以下至少一类:
由所述表情变化或所述用户动作变化触发显示的第一类贴纸信息;
由排除所述表情变化或所述用户动作变化触发显示的第二类贴纸信息。
13.根据权利要求12所述的终端,其特征在于,所述合成单元,进一步用于:
响应所述表情变化或所述用户动作变化,将检测到的特征变化量上报服务器,以请求所述第一类贴纸信息和第一类贴纸信息的描述文件;
检测所述表情变化或所述用户动作变化引起的特征坐标变化,由初始坐标定位到目标坐标,以根据目标坐标定位得到的位置点或者由初始坐标至目标坐标界定的位置区域来叠加所述第一类贴纸信息;
解析收到的所述第一类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定时间;
按照所述位置点或所述位置区域所指定的位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
14.根据权利要求12所述的终端,其特征在于,所述合成单元,进一步用于:
响应所述文字信息,将检测到的文字信息上报服务器后,以请求所述第二类贴纸信息和第二类贴纸信息的描述文件;
解析收到的所述第二类贴纸信息的描述文件,得到第一类贴纸信息待显示的指定位置和指定时间;所述指定位置包括第一类贴纸信息显示的中心点位置;
按照所述指定位置和所述指定时间,将第二媒体信息与第一媒体信息进行视频合成。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610143985.2A CN105791692B (zh) | 2016-03-14 | 2016-03-14 | 一种信息处理方法、终端及存储介质 |
PCT/CN2017/076576 WO2017157272A1 (zh) | 2016-03-14 | 2017-03-14 | 一种信息处理方法及终端 |
KR1020187026680A KR102135215B1 (ko) | 2016-03-14 | 2017-03-14 | 정보 처리 방법 및 단말 |
JP2018527883A JP2019504532A (ja) | 2016-03-14 | 2017-03-14 | 情報処理方法及び端末 |
US15/962,663 US11140436B2 (en) | 2016-03-14 | 2018-04-25 | Information processing method and terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610143985.2A CN105791692B (zh) | 2016-03-14 | 2016-03-14 | 一种信息处理方法、终端及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105791692A true CN105791692A (zh) | 2016-07-20 |
CN105791692B CN105791692B (zh) | 2020-04-07 |
Family
ID=56392673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610143985.2A Active CN105791692B (zh) | 2016-03-14 | 2016-03-14 | 一种信息处理方法、终端及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11140436B2 (zh) |
JP (1) | JP2019504532A (zh) |
KR (1) | KR102135215B1 (zh) |
CN (1) | CN105791692B (zh) |
WO (1) | WO2017157272A1 (zh) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106210545A (zh) * | 2016-08-22 | 2016-12-07 | 北京金山安全软件有限公司 | 一种视频拍摄方法、装置及电子设备 |
CN106303293A (zh) * | 2016-08-15 | 2017-01-04 | 广东欧珀移动通信有限公司 | 视频处理方法、装置及移动终端 |
CN106341608A (zh) * | 2016-10-28 | 2017-01-18 | 维沃移动通信有限公司 | 一种基于情绪的拍摄方法及移动终端 |
CN106339201A (zh) * | 2016-09-14 | 2017-01-18 | 北京金山安全软件有限公司 | 贴图处理方法、装置和电子设备 |
CN106373170A (zh) * | 2016-08-31 | 2017-02-01 | 北京云图微动科技有限公司 | 一种视频制作方法及装置 |
CN106683120A (zh) * | 2016-12-28 | 2017-05-17 | 杭州趣维科技有限公司 | 追踪并覆盖动态贴纸的图像处理方法 |
WO2017157272A1 (zh) * | 2016-03-14 | 2017-09-21 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及终端 |
CN107343220A (zh) * | 2016-08-19 | 2017-11-10 | 北京市商汤科技开发有限公司 | 数据处理方法、装置和终端设备 |
CN107529029A (zh) * | 2017-07-31 | 2017-12-29 | 深圳回收宝科技有限公司 | 一种在检测文件中添加标签的方法、设备以及存储介质 |
CN107807947A (zh) * | 2016-09-09 | 2018-03-16 | 索尼公司 | 基于情绪状态检测在电子设备上提供推荐的系统和方法 |
CN108024071A (zh) * | 2017-11-24 | 2018-05-11 | 腾讯数码(天津)有限公司 | 视频内容生成方法、视频内容生成装置及存储介质 |
CN108388557A (zh) * | 2018-02-06 | 2018-08-10 | 腾讯科技(深圳)有限公司 | 消息处理方法、装置、计算机设备和存储介质 |
CN108737715A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种拍照方法及装置 |
CN109213932A (zh) * | 2018-08-09 | 2019-01-15 | 咪咕数字传媒有限公司 | 一种信息推送方法及装置 |
CN109379623A (zh) * | 2018-11-08 | 2019-02-22 | 北京微播视界科技有限公司 | 视频内容生成方法、装置、计算机设备和存储介质 |
CN109388501A (zh) * | 2018-08-31 | 2019-02-26 | 平安科技(深圳)有限公司 | 基于人脸识别请求的通信匹配方法、装置、设备及介质 |
CN109587397A (zh) * | 2018-12-03 | 2019-04-05 | 深圳市优炫智科科技有限公司 | 基于人脸检测动态贴图的儿童相机及其动态贴图方法 |
CN109660855A (zh) * | 2018-12-19 | 2019-04-19 | 北京达佳互联信息技术有限公司 | 贴纸显示方法、装置、终端及存储介质 |
CN109688451A (zh) * | 2017-10-18 | 2019-04-26 | 纳宝株式会社 | 摄像机效应的提供方法及系统 |
WO2019109809A1 (zh) * | 2017-12-04 | 2019-06-13 | 腾讯科技(深圳)有限公司 | 媒体数据的处理方法、计算设备及存储介质 |
CN110139170A (zh) * | 2019-04-08 | 2019-08-16 | 顺丰科技有限公司 | 视频贺卡生成方法、装置、系统、设备及存储介质 |
WO2020011001A1 (zh) * | 2018-07-11 | 2020-01-16 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN110782510A (zh) * | 2019-10-25 | 2020-02-11 | 北京达佳互联信息技术有限公司 | 一种贴纸生成方法及装置 |
CN110784762A (zh) * | 2019-08-21 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法、装置、设备及存储介质 |
CN111177542A (zh) * | 2019-12-20 | 2020-05-19 | 贝壳技术有限公司 | 介绍信息的生成方法和装置、电子设备和存储介质 |
CN111556335A (zh) * | 2020-04-15 | 2020-08-18 | 早安科技(广州)有限公司 | 一种视频贴纸处理方法及装置 |
CN111627115A (zh) * | 2020-05-26 | 2020-09-04 | 浙江商汤科技开发有限公司 | 互动合影方法及装置、互动装置以及计算机存储介质 |
CN111695376A (zh) * | 2019-03-13 | 2020-09-22 | 阿里巴巴集团控股有限公司 | 视频处理方法、视频处理装置及电子设备 |
CN111726701A (zh) * | 2020-06-30 | 2020-09-29 | 腾讯科技(深圳)有限公司 | 信息植入方法、视频播放方法、装置和计算机设备 |
CN111757175A (zh) * | 2020-06-08 | 2020-10-09 | 维沃移动通信有限公司 | 视频处理方法及装置 |
CN112019919A (zh) * | 2019-05-31 | 2020-12-01 | 北京字节跳动网络技术有限公司 | 视频贴纸的添加方法、装置及电子设备 |
CN112839191A (zh) * | 2017-03-16 | 2021-05-25 | 卡西欧计算机株式会社 | 动态图像处理装置、动态图像处理方法以及记录介质 |
CN113658298A (zh) * | 2018-05-02 | 2021-11-16 | 北京市商汤科技开发有限公司 | 特效程序文件包的生成及特效生成方法与装置 |
CN114338954A (zh) * | 2021-12-28 | 2022-04-12 | 维沃移动通信有限公司 | 视频生成电路、方法和电子设备 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10515199B2 (en) * | 2017-04-19 | 2019-12-24 | Qualcomm Incorporated | Systems and methods for facial authentication |
US10410060B2 (en) * | 2017-12-14 | 2019-09-10 | Google Llc | Generating synthesis videos |
CN108958610A (zh) * | 2018-07-27 | 2018-12-07 | 北京微播视界科技有限公司 | 基于人脸的特效生成方法、装置和电子设备 |
US11675494B2 (en) * | 2020-03-26 | 2023-06-13 | Snap Inc. | Combining first user interface content into second user interface |
KR20210135683A (ko) * | 2020-05-06 | 2021-11-16 | 라인플러스 주식회사 | 인터넷 전화 기반 통화 중 리액션을 표시하는 방법, 시스템, 및 컴퓨터 프로그램 |
CN111597984B (zh) * | 2020-05-15 | 2023-09-26 | 北京百度网讯科技有限公司 | 贴纸测试方法、装置、电子设备及计算机可读存储介质 |
CN113709573B (zh) | 2020-05-21 | 2023-10-24 | 抖音视界有限公司 | 配置视频特效方法、装置、设备及存储介质 |
WO2022213088A1 (en) * | 2021-03-31 | 2022-10-06 | Snap Inc. | Customizable avatar generation system |
US11941227B2 (en) | 2021-06-30 | 2024-03-26 | Snap Inc. | Hybrid search system for customizable media |
US11689765B1 (en) * | 2021-12-31 | 2023-06-27 | The Nielsen Company (Us), Llc | Methods and apparatus for obfuscated audience identification |
CN114513705A (zh) * | 2022-02-21 | 2022-05-17 | 北京字节跳动网络技术有限公司 | 视频显示方法、装置和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010066844A (ja) * | 2008-09-09 | 2010-03-25 | Fujifilm Corp | 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム |
TW201021550A (en) * | 2008-11-19 | 2010-06-01 | Altek Corp | Emotion-based image processing apparatus and image processing method |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006211120A (ja) * | 2005-01-26 | 2006-08-10 | Sharp Corp | 文字情報表示機能を備えた映像表示システム |
JP4356645B2 (ja) * | 2005-04-28 | 2009-11-04 | ソニー株式会社 | 字幕生成装置及び方法 |
JP2006330958A (ja) * | 2005-05-25 | 2006-12-07 | Oki Electric Ind Co Ltd | 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ |
EP2194509A1 (en) * | 2006-05-07 | 2010-06-09 | Sony Computer Entertainment Inc. | Method for providing affective characteristics to computer generated avatar during gameplay |
US8243116B2 (en) * | 2007-09-24 | 2012-08-14 | Fuji Xerox Co., Ltd. | Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications |
JP2009141516A (ja) * | 2007-12-04 | 2009-06-25 | Olympus Imaging Corp | 画像表示装置,カメラ,画像表示方法,プログラム,画像表示システム |
US20100257462A1 (en) * | 2009-04-01 | 2010-10-07 | Avaya Inc | Interpretation of gestures to provide visual queues |
JP2013046358A (ja) * | 2011-08-26 | 2013-03-04 | Nippon Hoso Kyokai <Nhk> | コンテンツ再生装置及びコンテンツ再生プログラム |
CN102427553A (zh) * | 2011-09-23 | 2012-04-25 | Tcl集团股份有限公司 | 一种电视节目播放方法、系统及电视机和服务器 |
US20140111542A1 (en) * | 2012-10-20 | 2014-04-24 | James Yoong-Siang Wan | Platform for recognising text using mobile devices with a built-in device video camera and automatically retrieving associated content based on the recognised text |
US9251405B2 (en) * | 2013-06-20 | 2016-02-02 | Elwha Llc | Systems and methods for enhancement of facial expressions |
US20160196584A1 (en) * | 2015-01-06 | 2016-07-07 | Facebook, Inc. | Techniques for context sensitive overlays |
US9697648B1 (en) * | 2015-12-23 | 2017-07-04 | Intel Corporation | Text functions in augmented reality |
CN105791692B (zh) * | 2016-03-14 | 2020-04-07 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、终端及存储介质 |
-
2016
- 2016-03-14 CN CN201610143985.2A patent/CN105791692B/zh active Active
-
2017
- 2017-03-14 JP JP2018527883A patent/JP2019504532A/ja active Pending
- 2017-03-14 WO PCT/CN2017/076576 patent/WO2017157272A1/zh active Application Filing
- 2017-03-14 KR KR1020187026680A patent/KR102135215B1/ko active IP Right Grant
-
2018
- 2018-04-25 US US15/962,663 patent/US11140436B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010066844A (ja) * | 2008-09-09 | 2010-03-25 | Fujifilm Corp | 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム |
TW201021550A (en) * | 2008-11-19 | 2010-06-01 | Altek Corp | Emotion-based image processing apparatus and image processing method |
Cited By (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11140436B2 (en) | 2016-03-14 | 2021-10-05 | Tencent Technology (Shenzhen) Company Limited | Information processing method and terminal |
WO2017157272A1 (zh) * | 2016-03-14 | 2017-09-21 | 腾讯科技(深圳)有限公司 | 一种信息处理方法及终端 |
CN106303293A (zh) * | 2016-08-15 | 2017-01-04 | 广东欧珀移动通信有限公司 | 视频处理方法、装置及移动终端 |
CN106303293B (zh) * | 2016-08-15 | 2019-07-30 | Oppo广东移动通信有限公司 | 视频处理方法、装置及移动终端 |
CN107343220A (zh) * | 2016-08-19 | 2017-11-10 | 北京市商汤科技开发有限公司 | 数据处理方法、装置和终端设备 |
CN106210545A (zh) * | 2016-08-22 | 2016-12-07 | 北京金山安全软件有限公司 | 一种视频拍摄方法、装置及电子设备 |
CN106373170A (zh) * | 2016-08-31 | 2017-02-01 | 北京云图微动科技有限公司 | 一种视频制作方法及装置 |
CN107807947A (zh) * | 2016-09-09 | 2018-03-16 | 索尼公司 | 基于情绪状态检测在电子设备上提供推荐的系统和方法 |
CN107807947B (zh) * | 2016-09-09 | 2022-06-10 | 索尼公司 | 基于情绪状态检测在电子设备上提供推荐的系统和方法 |
CN106339201A (zh) * | 2016-09-14 | 2017-01-18 | 北京金山安全软件有限公司 | 贴图处理方法、装置和电子设备 |
CN106341608A (zh) * | 2016-10-28 | 2017-01-18 | 维沃移动通信有限公司 | 一种基于情绪的拍摄方法及移动终端 |
CN106683120A (zh) * | 2016-12-28 | 2017-05-17 | 杭州趣维科技有限公司 | 追踪并覆盖动态贴纸的图像处理方法 |
CN106683120B (zh) * | 2016-12-28 | 2019-12-13 | 杭州趣维科技有限公司 | 追踪并覆盖动态贴纸的图像处理方法 |
CN112839191A (zh) * | 2017-03-16 | 2021-05-25 | 卡西欧计算机株式会社 | 动态图像处理装置、动态图像处理方法以及记录介质 |
CN107529029A (zh) * | 2017-07-31 | 2017-12-29 | 深圳回收宝科技有限公司 | 一种在检测文件中添加标签的方法、设备以及存储介质 |
CN109688451B (zh) * | 2017-10-18 | 2021-04-02 | 纳宝株式会社 | 摄像机效应的提供方法及系统 |
CN109688451A (zh) * | 2017-10-18 | 2019-04-26 | 纳宝株式会社 | 摄像机效应的提供方法及系统 |
CN108024071A (zh) * | 2017-11-24 | 2018-05-11 | 腾讯数码(天津)有限公司 | 视频内容生成方法、视频内容生成装置及存储介质 |
CN108024071B (zh) * | 2017-11-24 | 2022-03-08 | 腾讯数码(天津)有限公司 | 视频内容生成方法、视频内容生成装置及存储介质 |
WO2019109809A1 (zh) * | 2017-12-04 | 2019-06-13 | 腾讯科技(深圳)有限公司 | 媒体数据的处理方法、计算设备及存储介质 |
US11128899B2 (en) | 2017-12-04 | 2021-09-21 | Tencent Technology (Shenzhen) Company Limited | Media data processing method, computing device and storage medium |
CN108388557A (zh) * | 2018-02-06 | 2018-08-10 | 腾讯科技(深圳)有限公司 | 消息处理方法、装置、计算机设备和存储介质 |
CN108737715A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种拍照方法及装置 |
CN113658298A (zh) * | 2018-05-02 | 2021-11-16 | 北京市商汤科技开发有限公司 | 特效程序文件包的生成及特效生成方法与装置 |
WO2020011001A1 (zh) * | 2018-07-11 | 2020-01-16 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
US11367196B2 (en) | 2018-07-11 | 2022-06-21 | Tencent Technology (Shenzhen) Company Limited | Image processing method, apparatus, and storage medium |
CN109213932A (zh) * | 2018-08-09 | 2019-01-15 | 咪咕数字传媒有限公司 | 一种信息推送方法及装置 |
CN109213932B (zh) * | 2018-08-09 | 2021-07-09 | 咪咕数字传媒有限公司 | 一种信息推送方法及装置 |
CN109388501B (zh) * | 2018-08-31 | 2024-03-05 | 平安科技(深圳)有限公司 | 基于人脸识别请求的通信匹配方法、装置、设备及介质 |
CN109388501A (zh) * | 2018-08-31 | 2019-02-26 | 平安科技(深圳)有限公司 | 基于人脸识别请求的通信匹配方法、装置、设备及介质 |
CN109379623A (zh) * | 2018-11-08 | 2019-02-22 | 北京微播视界科技有限公司 | 视频内容生成方法、装置、计算机设备和存储介质 |
CN109587397A (zh) * | 2018-12-03 | 2019-04-05 | 深圳市优炫智科科技有限公司 | 基于人脸检测动态贴图的儿童相机及其动态贴图方法 |
CN109660855A (zh) * | 2018-12-19 | 2019-04-19 | 北京达佳互联信息技术有限公司 | 贴纸显示方法、装置、终端及存储介质 |
CN109660855B (zh) * | 2018-12-19 | 2021-11-02 | 北京达佳互联信息技术有限公司 | 贴纸显示方法、装置、终端及存储介质 |
CN111695376A (zh) * | 2019-03-13 | 2020-09-22 | 阿里巴巴集团控股有限公司 | 视频处理方法、视频处理装置及电子设备 |
CN110139170B (zh) * | 2019-04-08 | 2022-03-29 | 顺丰科技有限公司 | 视频贺卡生成方法、装置、系统、设备及存储介质 |
CN110139170A (zh) * | 2019-04-08 | 2019-08-16 | 顺丰科技有限公司 | 视频贺卡生成方法、装置、系统、设备及存储介质 |
CN112019919A (zh) * | 2019-05-31 | 2020-12-01 | 北京字节跳动网络技术有限公司 | 视频贴纸的添加方法、装置及电子设备 |
CN112019919B (zh) * | 2019-05-31 | 2022-03-15 | 北京字节跳动网络技术有限公司 | 视频贴纸的添加方法、装置及电子设备 |
CN110784762A (zh) * | 2019-08-21 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法、装置、设备及存储介质 |
CN110782510A (zh) * | 2019-10-25 | 2020-02-11 | 北京达佳互联信息技术有限公司 | 一种贴纸生成方法及装置 |
CN110782510B (zh) * | 2019-10-25 | 2024-06-11 | 北京达佳互联信息技术有限公司 | 一种贴纸生成方法及装置 |
CN111177542B (zh) * | 2019-12-20 | 2021-07-20 | 贝壳找房(北京)科技有限公司 | 介绍信息的生成方法和装置、电子设备和存储介质 |
CN111177542A (zh) * | 2019-12-20 | 2020-05-19 | 贝壳技术有限公司 | 介绍信息的生成方法和装置、电子设备和存储介质 |
CN111556335A (zh) * | 2020-04-15 | 2020-08-18 | 早安科技(广州)有限公司 | 一种视频贴纸处理方法及装置 |
CN111627115A (zh) * | 2020-05-26 | 2020-09-04 | 浙江商汤科技开发有限公司 | 互动合影方法及装置、互动装置以及计算机存储介质 |
CN111757175A (zh) * | 2020-06-08 | 2020-10-09 | 维沃移动通信有限公司 | 视频处理方法及装置 |
CN111726701A (zh) * | 2020-06-30 | 2020-09-29 | 腾讯科技(深圳)有限公司 | 信息植入方法、视频播放方法、装置和计算机设备 |
CN114338954A (zh) * | 2021-12-28 | 2022-04-12 | 维沃移动通信有限公司 | 视频生成电路、方法和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2017157272A1 (zh) | 2017-09-21 |
CN105791692B (zh) | 2020-04-07 |
US11140436B2 (en) | 2021-10-05 |
KR20180112848A (ko) | 2018-10-12 |
US20180249200A1 (en) | 2018-08-30 |
KR102135215B1 (ko) | 2020-07-17 |
JP2019504532A (ja) | 2019-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105791692A (zh) | 一种信息处理方法及终端 | |
US11908052B2 (en) | System and method for digital makeup mirror | |
US10127945B2 (en) | Visualization of image themes based on image content | |
US10291841B2 (en) | Method and apparatus for supporting image processing, and computer-readable recording medium for executing the method | |
US8698920B2 (en) | Image display apparatus and image display method | |
CN105190480B (zh) | 信息处理设备和信息处理方法 | |
US8390648B2 (en) | Display system for personalized consumer goods | |
US9319640B2 (en) | Camera and display system interactivity | |
KR101250619B1 (ko) | 가상 사용자 인터페이스를 이용한 증강현실 시스템 및 그 방법 | |
KR20200020960A (ko) | 이미지 처리 방법 및 장치, 및 저장 매체 | |
Borgo et al. | State of the art report on video‐based graphics and video visualization | |
CN109087376B (zh) | 图像处理方法、装置、存储介质及电子设备 | |
US20160125624A1 (en) | An apparatus and associated methods | |
US20110157218A1 (en) | Method for interactive display | |
CN108256432A (zh) | 一种指导化妆的方法及装置 | |
WO2021068958A1 (zh) | 生成商品对象动态图像的方法、装置及电子设备 | |
CN108182714A (zh) | 图像处理方法及装置、存储介质 | |
WO2021063096A1 (zh) | 视频合成方法、装置、电子设备及存储介质 | |
CN108600632A (zh) | 拍照提示方法、智能眼镜及计算机可读存储介质 | |
CN113628322B (zh) | 图像处理、ar显示与直播方法、设备及存储介质 | |
US20240037869A1 (en) | Systems and methods for using machine learning models to effect virtual try-on and styling on actual users | |
WO2023016214A1 (zh) | 视频处理方法、装置、移动终端 | |
KR101738580B1 (ko) | 표정 인식 기반 음원 제공 시스템 및 서비스 | |
WO2022206605A1 (zh) | 确定目标对象的方法、拍摄方法和装置 | |
KR102022559B1 (ko) | 듀얼 카메라를 이용한 무배경 이미지 촬영과 이를 이용한 합성사진 촬영 방법 및 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |