CN111669515B - 一种视频生成方法及相关装置 - Google Patents
一种视频生成方法及相关装置 Download PDFInfo
- Publication number
- CN111669515B CN111669515B CN202010480675.6A CN202010480675A CN111669515B CN 111669515 B CN111669515 B CN 111669515B CN 202010480675 A CN202010480675 A CN 202010480675A CN 111669515 B CN111669515 B CN 111669515B
- Authority
- CN
- China
- Prior art keywords
- video
- picture
- pictures
- information
- keywords
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 230000004044 response Effects 0.000 claims abstract description 64
- 238000012545 processing Methods 0.000 claims abstract description 27
- 239000013598 vector Substances 0.000 claims description 53
- 238000012549 training Methods 0.000 claims description 26
- 238000000605 extraction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 239000010410 layer Substances 0.000 description 30
- 238000004891 communication Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 22
- 238000007726 management method Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 15
- 239000000284 extract Substances 0.000 description 13
- 230000001976 improved effect Effects 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 11
- 238000010295 mobile communication Methods 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 10
- 230000003993 interaction Effects 0.000 description 10
- 241000282326 Felis catus Species 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 230000003068 static effect Effects 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000005457 optimization Methods 0.000 description 6
- 230000000306 recurrent effect Effects 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 241001122767 Theaceae Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 210000004080 milk Anatomy 0.000 description 1
- 235000013336 milk Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/30—Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/10—Multimedia information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/52—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/56—Unified messaging, e.g. interactions between e-mail, instant messaging or converged IP messaging [CPM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/21—Monitoring or handling of messages
- H04L51/222—Monitoring or handling of messages using geographical location information, e.g. messages transmitted or received in proximity of a certain spot or area
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Human Resources & Organizations (AREA)
- Data Mining & Analysis (AREA)
- Strategic Management (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Artificial Intelligence (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Operations Research (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Primary Health Care (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供了一种视频生成方法及相关设备,可应用于人工智能领域中的图像处理、视频生成领域,其中,一种视频生成方法包括:接收视频生成指令,并响应于视频生成指令获取文本信息和图片信息,文本信息包括一个或多个关键字,图片信息包括N张图片;根据一个或多个关键字获取N张图片的每张图片中与一个或多个关键字对应的图像特征;将一个或多个关键字和N张图片的图像特征输入目标生成器网络中,生成目标视频,目标视频包括M张图片,M张图片为基于N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片。实施本申请实施例,保证了视频内容的丰富性的前提下,自动生成视频。
Description
技术领域
本申请涉及人工智能领域,尤其涉及一种视频生成方法及相关装置。
背景技术
状态分享是当今新媒体社会内许多用户都会使用的方式,通过状态分享可以让他人了解自己,促进人与人之间的交流。例如:微信的地理位置状态分享、说说状态分享,抖音的视频分享等,丰富的状态分享能促进社交平台友好发展,提升用户生活交友体验。
然而,在社交平台上,单一的地理位置信息、文字或图片的分享使得用户间所能获取的信息较少,无法在视觉和听觉上同时满足需求。因此,为了满足用户在视觉上和听觉上的需求,可以拍摄视频后再分享。然而,拍摄视频后再分享,给用户带来一定的不便,需要耗费用户一定的时间进行手动摄影,而且拍摄的视频质量和内容,也很容易受到用户拍摄技术和拍摄条件的限制。如果直接利用图片合成视频,只局限于以幻灯片的形式切换式放映,缺少内容的丰富性。
因此,如何在保证视频内容的丰富性的前提下,自动生成视频,是亟待解决的问题。
发明内容
本申请实施例提供一种视频生成方法及相关装置,能够根据文本和图片生成视频,以便用户可以实时分享自己的生活状态。
第一方面,本申请实施例提供了一种视频生成方法,可包括:接收视频生成指令,并响应于所述视频生成指令获取文本信息和图片信息,所述文本信息包括一个或多个关键字,所述图片信息包括N张图片,N为大于或等于1的正整数;根据所述一个或多个关键字获取所述N张图片的每张图片中与所述一个或多个关键字对应的图像特征;将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,所述目标视频包括M张图片,所述M张图片为基于所述N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片,M为大于1的正整数。
实施本申请实施例,电子设备可以根据文本信息和图片信息自动生成视频,以便用户可以实时分享自己的生活状态。当电子设备接收视频生成指令后,可以响应于该视频生成指令获取文本信息和图片信息,其中,所述文本信息包括一个或多个关键字,所述图片信息包括N张图片。由于所述文本信息可以用于描述生成视频的视频内容(如:所述一个或多个关键字可以包括人物、时间、地点、事件或动作等等),所述图片信息可以用于提取或生成每一帧的视频图片,因此,可以根据一个或多个关键字提取所述N张图片的每张图片中与所述一个或多个关键字对应的图像特征,再将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频。这种利用文本和图像共同生成视频,使得生成的视频可以根据输入的文本信息对输入的图片信息进行调整,大大的丰富了视频内容,避免了现有终端设备上的由多张图片直接堆叠生成的视频,只局限于以幻灯片的形式切换式放映,缺少内容的丰富性,同时也满足了用户需求。
在一种可能实现的方式中,所述响应于所述视频生成指令获取文本信息,包括:响应于所述视频生成指令,从文本输入信息、语音输入信息、用户偏好信息、用户生理数据信息、当前环境信息中的一个或多个,获取所述文本信息,其中,所述当前环境信息包括当前天气信息、当前时间信息、当前地理位置信息中的一个或多个。实施本申请实施例,电子设备可以响应于所述视频生成指令获取用户特定输入的信息(文本输入信息、语音输入信息)、或者利用该电子设备上的传感器获取当前环境信息、又或者从历史交互信息中提取的用户偏好信息中提取文本信息,与获取的图片信息一起生成目标视频,这种利用多模态的信息提取所述文本信息以辅助视频的生成,使得所生成的视频可以反应出当前用户状态(如:生成的视频中的天气环境和所述用户当前所处的天气环境相同),其中,多模态信息可以包括文字、偏好信息、环境信息等等。例如,当用户没有或无法进行手动或语音输入时,还可以只依赖传感器获取的当前环境信息或者从历史交互信息中提取的偏好作为输入的文本信息,与输入的图片信息一起生成目标视频。
在一种可能实现的方式中,所述响应于所述视频生成指令获取图片信息,包括:响应于所述视频生成指令,从预先存储的多张图片中,获取与所述一个或多个关键字中至少一个关键字对应的图片。实施本申请实施例,电子设备可以根据文本信息,获取与文本信息相关的图片信息。例如:获取图片信息时,可以根据当前的地理位置信息或者用户输入的地点信息获取对应地点的图片,用于生成目标视频。例如:用户在故宫游览时,可以获得故宫相关的图片,用于合成目标视频,方便用户实时分享自己的生活状态。获取图片信息时,还可以根据用户输入的人物信息获取对应地点的图片,用于生成目标视频,满足了用户需求。例如:用户输入“小明在操场踢足球”,可以获得关键字“小明”、“操场”、“足球”的至少一张相关图片,用于合成目标视频。
在一种可能实现的方式中,所述视频生成指令包括人脸识别请求;所述响应于所述视频生成指令获取图片信息,包括:响应于所述视频生成指令,进行人脸识别并获得人脸识别结果;根据所述人脸识别结果,从预先存储的多张图片中,获取与所述人脸识别结果匹配的至少一张图片。实施本申请实施例,电子设备在获取图片信息时,可以首先通过人脸识别获得人脸识别结果,进而根据该人脸识别结果直接从预先存储的图片中获取包含有用户的图片。方便直接生成有关于用户的状态视频,及时分享用户的当前状态。例如:通过人脸识别,识别出是用户A后,可以从预先存储的多张图片中,获取用户A的图片,这种不需要用户筛选图片,就可以生成包含有用户A的视频,方便了用户操作,提升了用户体验。
在一种可能实现的方式中,所述视频生成指令包括至少一个图片标签,所述至少一个图片标签中每一个图片标签与预先存储的多张图片中的至少一张图片对应;所述响应于所述视频生成指令获取图片信息,包括:响应于所述视频生成指令,根据所述至少一个图片标签,从预先存储的多张图片中,获取与所述至少一个图片标签中每一个图片标签对应的至少一张图片。实施本申请实施例,电子设备在获取图片信息时,可以通过视频生成指令中携带的至少一个图片标签,获取对应的至少一个图片,用于生成的目标视频。当用户想将几张图片,生成有趣的视频时,可以直接筛选出用户感兴趣或者需要的图片生成视频,满足了用户的观看需求。例如:用户可以选择图片标签为“猫”,在获取猫的多张图片后,与文本信息一起生成一段以猫为主角的动态视频;又例如:用户还可以选择图片标签为“童年的小明”,在获取到小明小时候的多张图片后,与文本信息一起生成一段有关小明童年的动态视频。
在一种可能实现的方式中,所述获取的所述N张图片中每张图片的图片质量均大于预设阈值。实施本申请实施例,在获取图片信息前,需要对即将选择的图片进行图片质量评分,当图片质量评分低于预设阈值时,则不使用该图片生成视频。而用图片质量均大于预设阈值的图片生成视频,可因此保证最终由此图片生成的目标视频的画质较高,满足了用户的观看体验。
在一种可能实现的方式中,所述方法还包括:将获取的所述N张图片进行图片质量评分,获得所述N张图片中每张图片对应的图片质量评分结果;将所述图片质量评分结果小于预设阈值的图片进行图片质量增强处理,并将图片质量增强后的图片更新至所述N张图片中。实施本申请实施例,在获取图片信息后,需要对获取的所有图片进行图片质量评分,当图片质量较差时可以对该图片进行图片质量增强,以提升在通过该图片生成视频时的视频质量,满足用户的观看体验。
在一种可能实现的方式中,所述将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,包括:提取所述一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量;提取所述N张图片的图像特征分别在向量空间上对应的第二空间变量;将所述第一空间变量和所述第二空间变量输入所述目标生成器网络中,生成所述目标视频。实施本申请实施例,可以首先分别提取文本信息对应的所述第一空间变量以及图片信息中每张图片的图像特征的第二空间向量,其中,所述第一空间变量可以是在隐向量空间中标识所述文本信息的词向量,所述每张图片的第二空间向量可以是在隐向量空间中标识该图片的图像特征的向量,通过提取空间向量有利于生成器网络更好地生成目标视频。如:通过所述Word2vec模型提取所述一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量,通过下采样的卷积网络提取所述N张图片的图像特征分别在向量空间上对应的所述第二空间变量。
在一种可能实现的方式中,所述方法还包括:获取样本文本信息、样本图片信息以及真实视频数据集,并构建判别器网络和基于视频生成的生成器网络;将所述样本文本信息和所述样本图片信息输入所述生成器网络中,生成样本视频;将所述样本视频和所述真实视频数据集作为所述判别器网络的输入,获得判别损失结果,其中,在所述样本视频属于所述真实视频数据集时,所述判别损失结果为1;根据所述判别损失结果,训练所述生成器网络获得所述目标生成器网络。实施本申请实施例,需要通过样本数据进行生成器网络和判别器网络的训练。其中,电子设备首先根据样本数据通过所述生成器网络生成视频,再将<生成的视频,真实的视频>输入到判别器中,判别器对输入进行判断来源,如果来源于生成的视频则判断为假0,否则判断为真1,通过这样多次重复的对抗训练方式,能进一步的规范生成视频的内容,逐步的提升生成视频的真实性以及提升生成视频的质量,有利于视频的共享。
第二方面,本申请实施例提供了一种视频生成装置,包括:
接收响应单元,用于接收视频生成指令,并响应于所述视频生成指令获取文本信息和图片信息,所述文本信息包括一个或多个关键字,所述图片信息包括N张图片,N为大于或等于1的正整数;
提取单元,用于根据所述一个或多个关键字获取所述N张图片的每张图片中与所述一个或多个关键字对应的图像特征;
生成单元,用于将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,所述目标视频包括M张图片,所述M张图片为基于所述N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片,M为大于1的正整数。
在一种可能实现的方式中,所述接收响应单元,具体用于:响应于所述视频生成指令,从文本输入信息、语音输入信息、用户偏好信息、用户生理数据信息、当前环境信息中的一个或多个,获取所述文本信息,其中,所述当前环境信息包括当前天气信息、当前时间信息、当前地理位置信息中的一个或多个。
在一种可能实现的方式中,所述接收响应单元,具体用于:响应于所述视频生成指令,从预先存储的多张图片中,获取与所述一个或多个关键字中至少一个关键字对应的图片。
在一种可能实现的方式中,所述视频生成指令包括人脸识别请求;所述接收响应单元,具体用于:响应于所述视频生成指令,进行人脸识别并获得人脸识别结果;根据所述人脸识别结果,从预先存储的多张图片中,获取与所述人脸识别结果匹配的至少一张图片。
在一种可能实现的方式中,所述视频生成指令包括至少一个图片标签,所述至少一个图片标签中每一个图片标签与预先存储的多张图片中的至少一张图片对应;所述接收响应单元,具体用于:响应于所述视频生成指令,根据所述至少一个图片标签,从预先存储的多张图片中,获取与所述至少一个图片标签中每一个图片标签对应的至少一张图片。
在一种可能实现的方式中,所述获取的所述N张图片中每张图片的图片质量均大于预设阈值。
在一种可能实现的方式中,所述装置还包括:评分单元,用于将获取的所述N张图片进行图片质量评分,获得所述N张图片中每张图片对应的图片质量评分结果;增强单元,用于将所述图片质量评分结果小于预设阈值的图片进行图片质量增强处理,并将图片质量增强后的图片更新至所述N张图片中。
在一种可能实现的方式中,所述生成单元,具体用于:提取所述一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量;提取所述N张图片的图像特征分别在向量空间上对应的第二空间变量;将所述第一空间变量和所述第二空间变量输入所述目标生成器网络中,生成所述目标视频。
在一种可能实现的方式中,所述装置还包括:训练单元,所述训练单元,用于:获取样本文本信息、样本图片信息以及真实视频数据集,并构建判别器网络和基于视频生成的生成器网络;将所述样本文本信息和所述样本图片信息输入所述生成器网络中,生成样本视频;将所述样本视频和所述真实视频数据集作为所述判别器网络的输入,获得判别损失结果,其中,在所述样本视频属于所述真实视频数据集时,所述判别损失结果为1;根据所述判别损失结果,训练所述生成器网络获得所述目标生成器网络。
第三方面,本申请实施例提供一种电子设备,该终端设备中包括处理器,处理器被配置为支持该终端设备实现第一方面提供的视频生成方法中相应的功能。该终端设备还可以包括存储器,存储器用于与处理器耦合,其保存该终端设备必要的程序指令和数据。该终端设备还可以包括通信接口,用于该网络设备与其他设备或通信网络通信。
第四方面,本申请实施例提供一种计算机存储介质,用于储存为上述第二方面提供的一种视频生成装置所用的计算机软件指令,其包含用于执行上述方面所设计的程序。
第五方面,本申请实施例提供了一种计算机程序,该计算机程序包括指令,当该计算机程序被计算机执行时,使得计算机可以执行上述第二方面中的视频生成装置所执行的流程。
第六方面,本申请提供了一种芯片系统,该芯片系统包括处理器,用于支持终端设备实现上述第一方面中所涉及的功能,例如,生成或处理上述视频生成方法中所涉及的信息。在一种可能的设计中,所述芯片系统还包括存储器,所述存储器,用于保存数据发送设备必要的程序指令和数据。该芯片系统,可以由芯片构成,也可以包含芯片和其他分立器件。
附图说明
为了更清楚地说明本申请实施例或背景技术中的技术方案,下面将对本申请实施例或背景技术中所需要使用的附图进行说明。
图1A是本申请实施例提供的一种电子设备100的结构示意图。
图1B是本申请实施例提供的一种电子设备100的软件结构框图。
图2A是本申请实施例提供的一组接收视频生成指令的用户界面示意图。
图2B是本申请实施例提供的一组获取图片信息的用户界面示意图。
图2C是本申请实施例提供的一种图片质量评分示意图。
图2D是本申请实施例提供的一种显示文本信息的用户界面示意图。
图2E是本申请实施例提供的一组视频生成后分享至好友的用户界面。
图2F是本申请实施例提供的一种生成器网络训练流程示意图。
图2G是本申请实施例提供的一种视频生成的流程示意图。
图2H是本申请实施例提供的一组获取文本信息的用户界面。
图2I是本申请实施例提供的一组根据关键字获取图片信息的用户界面。
图2J是本申请实施例提供的一种生成视频的用户界面。
图2K是本申请实施例提供的一种基于用户偏好的视频生成流程示意图。
图2L是本申请实施例提供的另一组获取文本信息的用户界面。
图2M是本申请实施例提供的另一种视频生成的用户界面。
图3A是本申请实施例提供的一种视频生成装置的结构示意图。
图3B是本申请实施例提供的一种视频生成方法的流程示意图。
图4是本申请实施例提供的另一种视频生成装置的结构示意图。
图5是本申请实施例提供的又一种视频生成装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例进行描述。
本申请的说明书和权利要求书及所述附图中的术语“第一”和“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
在本说明书中使用的术语“部件”、“模块”、“系统”等用于表示计算机相关的实体、硬件、固件、硬件和软件的组合、软件、或执行中的软件。例如,部件可以是但不限于,在处理器上运行的进程、处理器、对象、可执行文件、执行线程、程序和/或计算机。通过图示,在计算设备上运行的应用和计算设备都可以是部件。一个或多个部件可驻留在进程和/或执行线程中,部件可位于一个计算机上和/或分布在2个或更多个计算机之间。此外,这些部件可从在上面存储有各种数据结构的各种计算机可读介质执行。部件可例如根据具有一个或多个数据分组(例如来自与本地系统、分布式系统和/或网络间的另一部件交互的二个部件的数据,例如通过信号与其它系统交互的互联网)的信号通过本地和/或远程进程来通信。
首先,对本申请中的部分用语进行解释说明,以便于本领域技术人员理解。
(1)循环神经网络(Recurrent Neural Networks,RNN):是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。循环神经网络具有记忆性、参数共享并且图灵完备(Turing completeness),因此在对序列的非线性特征进行学习时具有一定优势。循环神经网络在自然语言处理(Natural Language Processing,NLP),例如语音识别、语言建模、机器翻译等领域有应用,也被用于各类时间序列预报。引入了卷积神经网络(Convoutional Neural Network,CNN)构筑的循环神经网络可以处理包含序列输入的计算机视觉问题。
(3)手势识别,手势识别旨在识别人类的物理运动或“手势”,可以基于将人类运动识别为输入形式。手势识别也被分类为一种非接触式用户界面,与触摸屏设备不同,具有非接触式用户界面的设备无需触摸即可控制,该设备可以具有一个或多个传感器或摄像头,可监控用户的移动,当它检测到与命令相对应的移动时,它会以适当的输出响应。例如,在设备前面以特定模式挥动您的手可能会告诉它启动特定的应用程序。
(4)Word2vec模型,为一群用来产生词向量的相关模型。这些模型为浅层双层的神经网络,用来训练以重新建构语言学之词文本。网络以词表现,并且需猜测相邻位置的输入词,在word2vec中词袋模型假设下,词的顺序是不重要的。训练完成之后,word2vec模型可用来映射每个词到一个向量,可用来表示词对词之间的关系。
接下来,介绍本申请以下实施例中提供的示例性电子设备。
请参考附图1A,图1A是本申请实施例提供的一种电子设备100的结构示意图,其中,电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。例如:在本申请中处理器可以:接收视频生成指令,并响应于所述视频生成指令获取文本信息和图片信息,所述文本信息包括一个或多个关键字,所述图片信息包括N张图片;根据所述一个或多个关键字获取所述N张图片的每张图片中与所述一个或多个关键字对应的图像特征;将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,所述目标视频包括M张图片,所述M张图片为基于所述N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络计算处理单元(Neural-network Processing Unit),通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触控操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触控操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触控操作强度的触控操作,可以对应不同的操作指令。例如:当有触控操作强度小于第一压力阈值的触控操作作用于短消息应用图标时,执行查看短消息的指令。当有触控操作强度大于或等于第一压力阈值的触控操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。
气压传感器180C用于测量气压。
磁传感器180D包括霍尔传感器。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。
环境光传感器180L用于感知环境光亮度。
指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触控操作。触摸传感器可以将检测到的触控操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触控操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触控操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触控操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android系统为例,示例性说明电子设备100的软件结构。请参考附图1B,图1B是本申请实施例提供的一种电子设备100的软件结构框图。
可以理解的是,本申请实施例示意的软件结构框图并不构成对电子设备100的软件结构框图具体限定。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图1B所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图1B所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,G.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
图1B所示的软件系统涉及到使用分享能力的应用呈现(如图库,文件管理器),提供分享能力的即时分享模块,提供打印能力的打印服务(print service)和打印后台服务(print spooler),以及应用框架层提供打印框架、WLAN服务、蓝牙服务,以及内核和底层提供WLAN蓝牙能力和基本通信协议。
下面结合捕获拍照场景,示例性说明电子设备100软件以及硬件的工作流程。
当触摸传感器180K接收到触摸操作,相应的硬件中断被发给内核层。内核层将触摸操作加工成原始输入事件(包括触摸坐标,触摸操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,识别该输入事件所对应的控件。以该触摸操作是触摸操作,该触摸操作所对应的控件为相机应用图标的控件为例,相机应用调用应用框架层的接口,启动相机应用,进而通过调用内核层启动摄像头驱动,通过3D摄像模组193捕获静态图像或视频。
下面介绍本申请实施例涉及的几个应用场景以及各个应用场景下的用户界面(user interface,UI)实施例。需要说明的是,本申请实施例中提到的用户界面可以理解为本申请中用于分享观看视频的窗口。
应用场景1:基于人脸识别的视频生成
许多的用户间信息分享的操作方式都比较繁复,为了提升状态分享的可操控性和用户体验,可以使用图片自动生成的视频进行状态共享。当用户在某个旅游景点游玩、在郊外跑步等时,可以分享自己的游玩视频,此时用户可以首先通过人脸识别获得人脸识别结果,进而根据该人脸识别结果直接从预先存储的图片中获取包含有用户的图片。方便直接生成有关于用户的状态视频,及时分享用户的当前状态。
在该场景下,根据手机用户的位置,通过传感器获取当前环境信息,如:当前天气信息为阴天、温度为26度、当前时间是上午10:40、当前地理位置是xx学校的操场上、当前运动状态为跑步,电子设备100根据所提供的周围的当前环境信息,构建出生成视频的大致环境,并以人脸识别的结果作为视频的主角,结合所选取的终端设备上的图像,生成一段用户在阴天条件下,温度大致为26度,在操场上跑步的一段状态视频,进行分享。
基于前述场景,下面介绍电子设备100上实现的一些UI实施例。
在该基于人脸识别的状态视频生成的场景下,电子设备100可以接收发送的视频生成指令,并响应于所述视频生成指令进行人脸识别获取人脸识别对应的人物图片,并响应于所述视频生成指令通过电子设备100的传感器180获取当前环境信息,用户的生理数据,将其转换为文本信息和获取的图像信息一起输入目标生成器网络中,获得目标视频。此外,检测到当前环境可以作用于生成视频的背景。
下面从以下几个方面进行详细说明。
(1)如何获取图片信息。
请参考附图2A,图2A是本申请实施例提供的一组接收视频生成指令的用户界面示意图。
具体的,如图2A中(1)所示,电子设备100可以通过触摸传感器180K检测到用户的触控操作(如,触摸传感器180K识别出用户在窗口显示区201的状态栏中做出的下拉操作),响应于该触控操作,如图2A中(2)所示,电子设备100可以显示完整的状态栏202并识别到用户对状态栏中即时分享203的触控操作(如,触摸传感器180K识别出用户在窗口显示区201的状态栏中做出的下拉操作)。当触摸传感器180K检测到对状态栏中即时分享203的触控操作时,即可获取到视频生成指令。
请参考附图2B,图2B是本申请实施例提供的一组获取图片信息的用户界面示意图,响应对状态栏中即时分享203的触控操作,电子设备100的用户界面如图2B中(1)所示,当触摸传感器180K检测用户对图2B中(1)所示的人脸识别控件204的触控操作时,可以开启人脸识别程序进行人脸识别。即:响应于所述人脸识别请求,通过所述电子设备100进行人脸识别并获得人脸识别结果。例如:用户点击进行识别人脸,电子设备100即可以响应于所述视频生成指令,进行人脸识别并获得人脸识别结果;根据所述人脸识别结果,从预先存储的多张图片中,获取与所述人脸识别结果匹配的至少一张图片。如图2B中(2)所示,电子设备100根据所述人脸识别结果,从所述第一终端预先存储的多张图片中,获取与所述人脸识别结果匹配的至少一张人物图片为所述图片信息。例如,电子设备100根据人脸识别结果获得了两张人物图片。
可选的,若根据人脸识别结果,无法在预先存储的多张图片中,获取与所述人脸识别结果匹配的至少一张人物图片,则可以根据该人脸识别时的人脸图像直接生成对应的人物图片为所述图片信息。
可选的,若根据人脸识别结果,在预先存储的多张图片中获得很多张与所述人脸识别结果匹配的人物图片,则可以根据拍摄的时间、人物图片的图片质量、人物图片的大小,从多张人物图片选择预设数量的几张图片。例如,预先存储的多张图片中有一百张人物图片,电子设备根据拍摄时间,选择与当前时间最近的五张人物图片作为输入生成器网络的图片信息。
可选的,所述获取的所述N张图片中每张图片的图片质量均大于预设阈值。实施本申请实施例,在获取图片信息前,需要对即将选择的图片进行图片质量评分,当图片质量评分低于预设阈值时,则不使用该图片生成视频。而用图片质量均大于预设阈值的图片生成视频,可因此保证最终由此图片生成的目标视频的画质较高,满足了用户的观看体验。
可选的,所述方法还包括:将获取的所述N张图片进行图片质量评分,获得所述N张图片中每张图片对应的图片质量评分结果;将所述图片质量评分结果小于预设阈值的图片进行图片质量增强处理,并将图片质量增强后的图片更新至所述N张图片中。用户的终端设备或者云端一般都存储着用户一定量的图片,可通过美学评估的方式,自动选取高质量的静态图片。例如:当两张图片的质量相差甚远时,一个图像质量清晰度较高,而另一个图像比较模糊,无法捕捉到图像的具体细节,不利于实时状态视频的生成。因此,可以采用现有的图像打分网络,分别把两张图片输入到图像打分网络里,分别得到两张图片的图片质量分数,分数越高则说明该图片的质量越好,则选取评分高的图片,作为静态图片输入到生成器网络里,以提升在通过该图片生成视频时的视频质量,有利于视频的生成,满足用户的观看体验。例如:请参考附图2C,图2C是本申请实施例提供的一种图片质量评分示意图。如图2C所示,响应于所述视频生成指令,获取两张图片,图片A和图片B,将获取的两张图片分别输入到图片质量评分模型中,获得每张图片对应的图片质量评分结果;将所述图片质量评分结果大于预设阈值的图片作为视频图片添加至所述图片信息中。
不限于上述列出的通过触摸传感器180K识别触控操作时的用户操作,在具体实现中还可以有其他的识别用户操作的方式。例如,电子设备100还可以通过红外传感器或手势传感器等识别用户的在电子设备屏幕前的手势操作等,本申请实施例对此不作限定。
(2)如何获取文本信息。
具体的,电子设备100可以响应所述视频生成指令获取文本信息,从文本输入信息、语音输入信息、用户偏好信息、用户生理数据信息、当前环境信息中的一个或多个,获取所述文本信息,其中,所述当前环境信息包括当前天气信息、当前时间信息、当前地理位置信息中的一个或多个。所述文本信息为由文本输入信息、语音输入信息、用户偏好信息、用户生理数据信息、当前环境信息中的一个或多个通过关键字提取获取的文本,其中,获取的一个或多个关键字可以包括人物、时间、地点、事件或动作等等,用于指示生成视频的视频内容。例如:电子设备100可以通过用户输入获取文本输入信息、语音输入信息,并通过关键字提取,从所述文本输入信息、语音输入信息中获取关于人物、时间、地点、事件中的一个或多个的文本信息;电子设备100还可以通过用户的历史浏览记录、历史输入系信息等获取用户的偏好信息,再从所述用户偏好信息中的获取关于用户兴趣、用户浏览、搜索或出现频率最高的文本信息;电子设备100还可以通过传感器180获取用户生理数据信息或当前环境信息,然后通过关键字提取获取关于人物、时间、地点、事件、运动状态、心理状态中的一个或多个的文本信息;其中,所述当前环境信息包括当前天气信息、当前时间信息、当前地理位置信息、当前运动状态中的一个或多个。
例如:请参考附图2D,图2D是本申请实施例提供的一种显示文本信息的用户界面示意图。如图2D所示,电子设备100可以通过GPS定位系统获取当前地理位置信息,进一步的根据所述当前时间信息和当前地理位置信息获取改地点对应的当前天气信息,还可以获取用户的生理数据。即,电子设备100可以根据当前天气信息为阴天、温度为26度、当前时间是上午10:40、当前地理位置是xx运动场、当前运动状态为跑步,获取时间、天气、地点、运动状态的文本信息。电子设备100这种利用多模态的信息提取所述文本信息以辅助视频的生成,使得所生成的视频可以反应出当前用户状态(如:生成的视频中的天气环境和所述用户当前所处的天气环境相同),其中,多模态信息可以包括文字、偏好信息、环境信息等等。例如,当用户没有或无法进行手动或语音输入时,还可以只依赖传感器获取的当前环境信息或者从历史交互信息中提取的偏好作为输入的文本信息,与输入的图片信息一起生成目标视频。
需要说明的是,在视频生成过程中对响应于所述视频生成指令,获取文本信息和图片信息的先后顺序不做具体的限定。例如:可以先获取文字信息再获取图片信息;也可以先获取图片信息再获取文字信息;还可以文本信息和图片信息同时获取。
不限于上述列出的响应所述视频生成指令获取文本信息的方式,在具体实现中还可以有其他的获取文本信息的方式。例如,电子设备100还可以通过图像识别,从获得图片信息中提取出有关于人物、时间、地点、事件中的一个或多个的文本信息等,本申请实施例对此不作限定。
(3)如何生成视频。
具体的,电子设备100根据所述一个或多个关键字提取所述N张图片的每张图片中与所述一个或多个关键字对应的图像特征;将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,所述目标视频包括M张图片,所述M张图片为基于所述N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片,M为大于1的正整数。即,将获得的所述文本信息和所述图像信息输入到目标生成器网络中,获得目标视频,所述目标视频用于描述所述文本信息。这种利用文本和图像共同生成视频,使得生成的视频可以根据输入的文本信息对输入的图片信息进行调整,大大的丰富了视频内容,避免了现有终端设备上的由多张图片直接堆叠生成的视频,只局限于以幻灯片的形式切换式放映,缺少内容的丰富性。例如:电子设备100获取到用户A喝奶茶的图片,以及在操场上散步的文本信息,电子设备100可以根据文本信息提取出上述图片中的用户A的图像特征,通过生成器网络生成M张图片并合成用户A在操场上散步的目标视频。
可选的,提取所述一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量;提取所述N张图片的图像特征分别在向量空间上对应的所述第二空间变量;将所述第一空间变量和所述第二空间变量输入所述目标生成器网络中,生成所述目标视频。实施本申请实施例,可以首先分别提取文本信息对应的所述第一空间变量以及图片信息中每张图片的图像特征的第二空间向量,其中,所述第一空间变量可以是在隐向量空间中标识所述文本信息的词向量,所述每张图片的第二空间向量可以是在隐向量空间中标识该图片的图像特征的向量,通过提取空间向量有利于生成器网络更好地生成目标视频。
例如:通过所述Word2vec模型提取所述一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量,通过下采样的卷积网络提取所述N张图片的图像特征分别在向量空间上对应的所述第二空间变量。首先对输入的图片采用一个下采样的卷积网络,提取图片的空间向量(latent space),对输入的文本信息应用Word2vec模型提取文本的latent space,把图片和文本的latent space作为视频生成器网络的输入,进行视频的生成。
可选的,在生成目标视频后,还可以获取与所述一个或多个关键字中至少一个关键字匹配的目标音频信息,将所述目标音频信息添加至目标视频中,以获得带有声音的视频,满足了用户在视觉和听觉的共同需求。
可选的,接收视频分享指令,并响应于所述视频分享指令将所述目标视频发送至目标设备。电子设备100通过将生成的目标视频分享至目标终端设备中,可以促进社交平台友好发展,提升用户生活交友体验。请参考附图2E,图2E是本申请实施例提供的一组视频生成后分享至好友的用户界面。如图2E中(1)所示,电子设备100将上述图2D中获取时间、天气、地点、运动状态的文本信息以及上述图2B中获取的图片信息,通过生成器网络生成目标视频,其中该视频可以进行查看或分享。如图2E中(2)所示,该用户界面可以是聊天工具提供的状态视频分享界面。不限于此,该用户界面还可以是其他应用程序提供的用于状态视频分享界面,其他应用程序可以是社交软件等。
可选的,在生成目标视频之前,电子设备还需要训练目标生成器网络。即,获取样本文本信息、样本图片信息以及真实视频数据集,并构建判别器网络和基于视频生成的生成器网络;将所述样本文本信息和所述样本图片信息输入所述生成器网络中,获得样本视频;所述样本视频和所述真实视频数据集作为所述判别器网络的输入,获得判别损失结果,并根据所述判别损失结果训练所述生成器网络获得所述目标生成器网络,其中,所述判别损失结果在所述样本视频属于所述真实视频数据集时为真。通过样本数据进行生成器网络和判别器网络的训练。其中,请参考附图2F,图2F是本申请实施例提供的一种生成器网络训练流程示意图,如图2F所示,根据样本数据通过所述生成器网络生成视频,再将<生成的视频,真实的视频>输入到判别器中,其中,真实的视频为真实世界获取的视频,判别器对输入进行判断来源,如果来源于生成的视频则判断为假0,否则判断为真1,通过这样多次重复的对抗训练方式,能进一步的规范生成视频的内容,逐步的提升生成视频的真实性以及提升生成视频的质量,有利于实时状态视频的共享。
应用场景2:基于用户输入的视频生成。
用户A手头上有一些之前的老照片,但遗憾于当时有些事情没有去完成想要重新体验一下该画面感,则可以通过语音输入或者文字输入,来描述当时的画面。比如:用户A手头上有一张孙子的老照片,用户A想看看孙子踢球的样子,那么用户A对着终端设备说:“孙子在绿油油的草地上,无忧无虑的踢足球”,那么状态视频生成系统则自动提取“绿油油的草地”、“踢足球”、“孙子”,这几个关键字,并基于用户A终端设备上的孙子的照片,则可以生成一段符合用户A需求的视频。
基于前述场景,下面介绍电子设备100上实现的一些UI实施例。
在该基于用户输入的状态视频生成的场景下,电子设备100可以接收发送的视频生成指令,并响应于所述视频生成指令获取图片信息,同时响应于所述视频生成指令通过电子设备100的传感器180获取当前环境信息,将其转换为文本信息和获取的图像信息一起输入目标生成器网络中,获得目标视频。此外,检测到当前环境信息可以作用于生成视频的背景。
在该场景下,请参考附图2G,图2G是本申请实施例提供的一种视频生成的流程示意图。如图2G所示,根据用户的文本输入信息、语音输入信息获取文本信息,如:人物是孙子、地点是绿油油的草地,事件是踢足球,电子设备100根据用户的语音输入构建出生成视频的大致环境,并以“孙子”作为视频的主角,结合选取的终端设备上的图像,生成一段孙子在在绿油油的草地上,无忧无虑的踢足球的状态视频。
下面从以下几个方面进行详细说明。
(1)如何获取图片信息。
具体的,电子设备响应于所述视频生成指令,从预先存储的多张图片中,获取与所述一个或多个关键字中至少一个关键字对应的图片。即,电子设备可以根据文本信息,获取与文本信息相关的图片信息。例如:用户在故宫游览时,可以获得故宫相关的图片,用于合成目标视频,方便用户实时分享自己的生活状态。获取图片信息时,还可以根据用户输入的人物信息获取对应地点的图片,用于生成目标视频,满足了用户需求。例如:用户输入“小明在操场踢足球”,可以获得关键字“小明”、“操场”、“足球”的至少一张相关图片,用于合成目标视频。
在该场景下,请参考附图2H,图2H是本申请实施例提供的一组获取文本信息的用户界面。
根据图2H中(1)所示,当触摸传感器180K检测用户对窗口显示区201中视频生成控件(如:跳过人脸识别,直接生成视频)的触控操作时,电子设备100可以响应该指令,切换至图2H中(2)所示界面。当触摸传感器180K检测用户对语音输入控件的触控操作时,电子设备100可以响应该触控操作接收用户的语音输入:“孙子在绿油油的草地上,无忧无虑的踢足球”,根据该语音输入可以获取关于人物、地点和事件的文本信息,根据该文本信息获得关键字“孙子”、“草地”、“踢足球”等。请参考附图2I,图2I是本申请实施例提供的一组根据关键字获取图片信息的用户界面。如图2I中(1)所示,根据该文本信息获得关键字“孙子”、“草地”,进而,如图2I中(2)所示,电子设备100可以根据“孙子”、“草地”这两个关键字从预先存储的多张图片中,获取与该关键字中对应的至少一张图片。
可选的,所述视频生成指令包括至少一个图片标签,所述至少一个图片标签中每一个图片标签与预先存储的多张图片中的至少一张图片对应;所述响应于所述视频生成指令获取图片信息,包括:响应于所述视频生成指令,根据所述至少一个图片标签,从预先存储的多张图片中,获取与所述至少一个图片标签中每一个图片标签对应的至少一张图片。实施本申请实施例,电子设备在获取图片信息时,可以通过视频生成指令中携带的至少一个图片标签,获取对应的至少一个图片,用于生成的目标视频。当用户想将几张图片,生成有趣的视频时,可以直接筛选出用户感兴趣或者需要的图片生成视频,满足了用户的观看需求。例如:用户可以选择图片标签为“猫”,在获取猫的多张图片后,与文本信息一起生成一段以猫为主角的动态视频;又例如:用户还可以选择图片标签为“童年的小明”,在获取到小明小时候的多张图片后,与文本信息一起生成一段有关小明童年的动态视频。
需要说明的是,关于如何获取图片信息的相关描述还可以对应参考上述应用场景1中有关如何获取图片信息的相关描述,本申请实施例此处不再赘述。
(2)如何获取文本信息。
具体的,响应于所述视频生成指令,从文本输入信息、语音输入信息、用户偏好信息、用户生理数据信息、当前环境信息中的一个或多个,获取所述文本信息,其中,如图2I中(1)所示,根据用户的语音输入信息获取一个或多个关键字,如:人物是孙子、地点是绿油油的草地,事件是踢足球。
需要说明的是,关于如何获取文本信息的相关描述还可以对应参考上述应用场景1中有关如何获取文本信息的相关描述,本申请实施例此处不再赘述。
(3)如何生成视频。
具体的,电子设备100利用生成器网络作为视频生成的核心模块,其中,生成器网络可以采用RNN循环神经网络把上下帧的语义信息考虑进来,促进所生成的视频的帧间稳定性。生成器网络是生成式对抗网络里的一部分,生成器通过对噪声分布进行采样,并以此作为输入,而判别器则是对输入的数据判断来源。这样的博弈形式,在整个对抗网络中能够很好的促进两个网络的进步。请参考附图2J,图2J是本申请实施例提供的一种生成视频的用户界面。如图2J所示,电子设备100将获得的一个或多个关键字和该关键字对应的图像特征输入到生成器网络后,生成了一段孙子在草地上踢足球的视频,用户可以在如图2J所示的界面中查看或分享视频。
需要说明的是,关于如何获取生成视频的相关描述还可以对应参考上述应用场景1中有关如何生成视频的相关描述,本申请实施例此处不再赘述。
应用场景3:基于用户偏好的视频生成
电子设备100可以获取用户在终端设备上的行为信息,并提取有效的关键字,进行视频生成。比如某用户非常喜欢旅游,在和好友聊天中经常提到想去“巴厘岛”旅游或者在浏览器中经常搜索有关“巴厘岛旅游”的信息,则电子设备100可以根据该关键字信息,生成一段用户在巴厘岛旅游的场景。
基于前述场景,下面介绍电子设备100上实现的一些UI实施例。
在该基于用户输入的状态视频生成的场景下,参考附图2K,图2K是本申请实施例提供的一种基于用户偏好的视频生成流程示意图。如图2K所示,电子设备100可以接收发送的视频生成指令,并响应于所述视频生成指令从用户的历史偏好信息、当前环境信息中获取文本信息和图片信息,或者,同时响应于所述视频生成指令获取用户输入的偏好信息,再将其转换为文本信息和获取的图像信息一起输入目标生成器网络中,获得目标视频。其中,检测到当前环境信息可以作用于生成视频的背景。
下面从以下几个方面进行详细说明。
(1)如何获取图片信息。
具体的,在当前场景下,用户没有对生成视频的视频内容做相关输入,因此为了充实视频内容,电子设备100可以根据用户偏好,作为视频的输入信息。请参考附图2L,图2L是本申请实施例提供的另一组获取文本信息的用户界面。如图2L中(1)所示,电子设备100可以通过触摸传感器180K检测到用户的触控操作(如,触摸传感器180K识别出用户在窗口显示区202中对于状态视频的点击操作),响应于该触控操作,可以使得电子设备开始进行视频的生成。如图2L中(2)所示,电子设备100可以响应该点击操作后,获取用户偏好信息和当前环境信息。并从上述信息中获取所述文本信息,即,提取所述一个或多个关键字,以及根据该一个或多个关键字获取至少一个关键字对应的图片。例如:根据关键字“巴厘岛”获取有关巴厘岛的图片,并根据当前的时间获取到巴厘岛的天气信息,使得在生成的视频中巴厘岛的天气环境和当前的巴厘岛的天气环境一致。
需要说明的是,关于如何获取图片信息的相关描述还可以对应参考上述应用场景1或2中有关如何获取图片信息的相关描述,本申请实施例对此不再赘述。
(2)如何获取文本信息。
具体的,电子设备获取到用户的偏好信息,在没有接收到用户其他输入的情况下,从用户偏好信息和当前环境信息中提取一个或多个关键字,获取视频输入的文本信息。例如:如图2L中(2)所示,电子设备获取到用户喜欢巴厘岛游玩的信息,结合当前的时间、巴厘岛的天气,进而获得有关时间、地点和人物的至少一个关键字。
需要说明的是,关于如何获取文本信息的相关描述还可以对应参考上述应用场景一种有关如何获取文本信息的相关描述,本申请实施例对此不再赘述。
(3)如何生成视频。
具体的,电子设备100将获得的所述文本信息和所述图像信息输入到目标生成器网络中,获得目标视频,所述目标视频用于描述所述文本信息。其中,根据所述文本信息提取所述图片信息中每张图片的第一空间向量,所述每张图片的第一空间向量用于标识图片中与所述文本信息对应的图像特征。例如:请参考附图2M,图2M是本申请实施例提供的另一种视频生成的用户界面。如图2M所示,电子设备根据获得的文本信息和图片信息生成用户在巴厘岛游玩的视频,用户Lisa可以将该视频发送给朋友Emmy,丰富了朋友间的交流形式,甚至还可以生成和朋友一起游玩巴厘岛的视频,满足不能和朋友一起出游的遗憾。
需要说明的是,关于如何获取生成视频的相关描述还可以对应参考上述应用场景1或2中有关如何生成视频的相关描述,本申请实施例此处不再赘述。
因此,通过文本,声音,电子设备的传感器信息和历史偏好信息,少量图片,生成视频进行分享。其中,历史偏好信息是从终端设备的用户交互信息中或者是浏览器搜索记录中提取而来的,主要指的是用户兴趣。利用多模态的信息输入,能较好的对当前用户的状态进行有效描述,进而对生成的视频进行约束。用状态视频进行分享,相比于地理位置或者方位信息,能在视觉和听觉上都满足用户需求,能为用户带来的更加丰富的体验。
需要说明的是,上述三种应用场景的只是本申请实施例中的几种示例性的实施方式,本申请实施例中的应用场景包括但不仅限于以上应用场景。
基于上述电子设备和上述应用场景,本申请实施例提供一种应用于上述图1A所述电子设备中的视频生成装置,请参见图3A,图3A是本申请实施例提供的一种视频生成装置的结构示意图。如图3A所示,该视频生成装置可包括输入模块、离线模块、在线模块三个模块组成。其中,所述输入模块包括:静态图像获取子模块,传感器信息获取子模块,偏好信息获取子模块,用户输入获取子模块;所述离线模块包括:视频生成子模块和视频优化子模块。需要说明的是下述实施例提及的终端设备,相当于本申请中的电子设备100。
(1)输入模块
输入模块是为生成视频的生成器网络提供原始的输入,辅助生成器网络完成视频的生成,明确的输入条件信息,以及质量较高的静态图片,都有利于生成较好的实时状态视频;用户能根据自己的主观意愿加入所想要生成的状态视频要素以丰富视频内容,可以用文字或者语音进行呈现。
其中,静态图像获取子模块:一般来说,用户终端设备上都有许多的照片可供选择,当用户想要生成偏向于含有人物活动的实时状态视频时,则终端设备自动选取含有用户自身的照片,也可以采用图片质量评估等方法来选取优质图片。比如:有些图片由于拍照时相机抖动等原因造成效果模糊,或者光线较暗,导致照片结果不佳,那么这类图片应当过滤掉,而不被用来当做视频生成的输入。
传感器信息获取子模块:终端设备上含有许多的传感器原件。比如GPS位置传感器,能够获取用户的地理位置信息;温度传感器,能获取用户周围的温度信息;气压传感器,能获取用户的相对高度。还有许多传感器,都有着很好的提供用户周围实时信息的功能。
偏好信息获取子模块:获取终端设备上用户的历史交互信息,基于该交互信息提取用户的历史偏好信息。例如:社交软件上的聊天记录,搜索记录等等,这些终端设备的应用程序都可提取大量的用户交互信息。或者,从浏览器搜集用户搜索信息,提取用户兴趣信息。
用户输入获取子模块:用户输入的形式可以是语音也可以是文本。如果是语音,则可通过手机语音助手功能,提取关键字,把关键字变成文本存储下来,等着后续和文字输入组合成最终的输入。用户通过文本输入,可以在终端设备输入所要生成实时的状态的一些关键字,来描述要生成的状态视频的场景。例如:时间、人物、地点、事件等等。
(2)离线模块
离线模块主要用于模型训练,利用生成式对抗网络进行视频生成,并且对生成器网络优化。其中视频生成子模块主要由生成式对抗网络里的生成器组成,而视频优化子模块主要由对抗网络组成,使得生成的视频更加逼真,而且视频优化的结果可以反馈至视频生成子模块,用于视频生成子模块训练生成器网络模型。
其中,视频生成子模块:视频生成模块中的生成器网络(Generator)可以采用RNN网络进行实现,RNN网络具有良好的记忆上下文信息的能力。生成器网络是全卷积网络,通过多层卷积以及多层上采样层组成,其中,输入可以由<图片信息,文本信息>组成。生成器能够产生丰富的视频,通过输入的约束条件,能进一步的规范生成通过生成器的采样与真实世界中的视频数据一起送入到判别器网络中。以提升生成视频的质量,有利于实时状态视频的生成。
视频优化子模块:由判别器网络(Discriminator)构成。判别器网络接收来自视频生成模块的数据结果以及真实世界中采集的视频数据,来进行对抗训练。其主要目的是让生成的视频更加逼真,避免生成的视频过于光滑或者斑块效应较为明显。判别器的输入是<生成的视频,真实的视频>,其中,判别器通过输入的两种视频判断生成的视频是否可以认为真实的视频,即,当该生成的视频与真实的视频差别很小时,判别器判定生成的视频为真实的视频,此时判别器的判别损失结果为1;当该生成的视频与真实的视频差别较大时,判别器判定生成的视频不是真实的视频,此时判别器的判别损失结果为0,生成器网络生成的视频质量较差,还需要继续训练。因此,当生成器网络生成的视频可以被判断为真实的视频时,则认为生成器网络训练优化成功。通过这样的对抗训练方式,逐步的提升生成的视频的真实性。
(3)在线模块
在线模块式利用离线模块训练好的生成器模型,来进行用户在终端设备上,进行实时的状态共享。这时候生成视频子模块也需要<静态图像,传感器信息,用户输入信息>作为输入来,而视频优化子模块这时候则不需要,减少了模型参数量,降低手机功耗。
需要说明的是,当视频生成装置需要部署到终端设备上时,离线模块中还可以只需要部署训练完毕的视频生成子模块,从而完成终端设备的实时状态共享,本申请对此不作具体的限定。
基于图3A提供的视频生成装置,基于前述图2A-图2M提供的三种场景及各个场景下的UI实施例,接下来介绍本申请实施例提供的一种视频生成方法,对本申请中提出的技术问题进行具体分析和解决。
参见图3B,图3B是本申请实施例提供的一种视频生成方法的流程示意图,该方法可应用于上述图1A中所述的电子设备中,其中,视频生成装置可以用于支持并执行图3B中所示的方法流程步骤S301-步骤S307。下面将结合附图3B从视频生成装置侧进行描述。该方法可以包括以下步骤S301-步骤S307。
步骤S301:接收视频生成指令。
具体的,视频生成装置接收视频生成指令,该视频生成指令可以通过触控操作识别、手势操作识别、语音控制识别等接收用户的视频生成指令。
步骤S302:响应于视频生成指令获取文本信息和图片信息。
具体的,视频生成装置响应于视频生成指令获取文本信息和图片信息。视频生成装置接收到视频生成指令后,响应该指令获取文本信息和图片信息。其中文本信息用于描述后续生成的视频的内容,所述图片信息包括N张图片,该N张图片用于视频生成装置根据文本信息和该N张图片生成视频中的M张图片,所述M张图片为基于所述N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片,M为大于1的正整数。
在一种可能实现的方式中,所述响应于所述视频生成指令获取文本信息,包括:响应于所述视频生成指令,从文本输入信息、语音输入信息、用户偏好信息、用户生理数据信息、当前环境信息中的一个或多个,获取所述文本信息,其中,所述当前环境信息包括当前天气信息、当前时间信息、当前地理位置信息中的一个或多个。电子设备可以获取用户特定输入的信息(文本输入信息、语音输入信息);或者利用该电子设备上的传感器获取当前环境信息;又或者从历史交互信息中提取的用户偏好信息中提取文本信息。例如,当用户没有或无法进行手动或语音输入时,还可以只依赖传感器获取的当前环境信息或者从历史交互信息中提取的偏好作为输入的文本信息,与输入的图片信息一起生成目标视频。
在一种可能实现的方式中,所述响应于所述视频生成指令获取图片信息,包括:响应于所述视频生成指令,从预先存储的多张图片中,获取与所述一个或多个关键字中至少一个关键字对应的图片。电子设备可以根据文本信息,获取与文本信息相关的图片信息。例如:获取图片信息时,可以根据当前的地理位置信息或者用户输入的地点信息获取对应地点的图片,用于生成目标视频。例如:用户在故宫游览时,可以获得故宫相关的图片,用于合成目标视频,方便用户实时分享自己的生活状态。获取图片信息时,还可以根据用户输入的人物信息获取对应地点的图片,用于生成目标视频,满足了用户需求。例如:用户输入“小明在操场踢足球”,可以获得关键字“小明”、“操场”、“足球”的至少一张相关图片,用于合成目标视频。
在一种可能实现的方式中,所述视频生成指令包括人脸识别请求;所述响应于所述视频生成指令获取图片信息,包括:响应于所述视频生成指令,进行人脸识别并获得人脸识别结果;根据所述人脸识别结果,从预先存储的多张图片中,获取与所述人脸识别结果匹配的至少一张图片。电子设备在获取图片信息时,可以首先通过人脸识别获得人脸识别结果,进而根据该人脸识别结果直接从预先存储的图片中获取包含有用户的图片。方便直接生成有关于用户的状态视频,及时分享用户的当前状态。例如:通过人脸识别,识别出是用户A后,可以从预先存储的多张图片中,获取用户A的图片,这种不需要用户筛选图片,就可以生成包含有用户A的视频,方便了用户操作,提升了用户体验。
在一种可能实现的方式中,所述视频生成指令包括至少一个图片标签,所述至少一个图片标签中每一个图片标签与预先存储的多张图片中的至少一张图片对应;所述响应于所述视频生成指令获取图片信息,包括:响应于所述视频生成指令,根据所述至少一个图片标签,从预先存储的多张图片中,获取与所述至少一个图片标签中每一个图片标签对应的至少一张图片。例如:用户可以选择图片标签为“猫”,在获取猫的多张图片后,与文本信息一起生成一段以猫为主角的动态视频;又例如:用户还可以选择图片标签为“童年的小明”,在获取到小明小时候的多张图片后,与文本信息一起生成一段有关小明童年的动态视频。电子设备在获取图片信息时,可以通过视频生成指令中携带的至少一个图片标签,获取对应的至少一个图片,用于生成的目标视频。当用户想将几张图片,生成有趣的视频时,可以直接筛选出用户感兴趣或者需要的图片生成视频,满足了用户的观看需求。
在一种可能实现的方式中,所述获取的所述N张图片中每张图片的图片质量均大于预设阈值。在获取图片信息前,需要对即将选择的图片进行图片质量评分,当图片质量评分低于预设阈值时,则不使用该图片生成视频。而用图片质量均大于预设阈值的图片生成视频,可因此保证最终由此图片生成的目标视频的画质较高,满足了用户的观看体验。
在一种可能实现的方式中,所述方法还包括:将获取的所述N张图片进行图片质量评分,获得所述N张图片中每张图片对应的图片质量评分结果;将所述图片质量评分结果小于预设阈值的图片进行图片质量增强处理,并将图片质量增强后的图片更新至所述N张图片中。在获取图片信息后,需要对获取的所有图片进行图片质量评分,当图片质量较差时可以对该图片进行图片质量增强,以提升在通过该图片生成视频时的视频质量,满足用户的观看体验。
步骤S303:根据一个或多个关键字获取N张图片的每张图片中与一个或多个关键字对应的图像特征。
具体的,视频生成装置根据一个或多个关键字提取N张图片的每张图片中与一个或多个关键字对应的图像特征。例如:文本信息中包括关键字足球,则视频生成装置需要将所述N张图片的每张图片中足球的图像特征提取出来,以便视频生成装置基于该足球的图像特征生成视频。
步骤S304:提取一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量。
具体的,视频生成装置可以分别提取一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量。第一空间变量为该关键字在向量空间上的词向量。
步骤S305:提取N张图片的图像特征分别在向量空间上对应的第二空间变量。
具体的,视频生成装置可以提取N张图片每张图片中与一个或多个关键字对应的图像特征,分别在向量空间上对应的第二空间变量。第二空间变量为该图像特征在向量空间上的向量,用于表示该图像特征。
步骤S306:将第一空间变量和所述第二空间变量输入目标生成器网络中,生成目标视频。
具体的,视频生成装置将第一空间变量和所述第二空间变量输入目标生成器网络中,生成目标视频。即,将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频。
在一种可能实现的方式中,所述将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,包括:提取所述一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量;提取所述N张图片的图像特征分别在向量空间上对应的第二空间变量;将所述第一空间变量和所述第二空间变量输入所述目标生成器网络中,生成所述目标视频。可以首先分别提取文本信息对应的所述第一空间变量以及图片信息中每张图片的图像特征的第二空间向量,其中,所述第一空间变量可以是在隐向量空间中标识所述文本信息的词向量,所述每张图片的第二空间向量可以是在隐向量空间中标识该图片的图像特征的向量,通过提取空间向量有利于生成器网络更好地生成目标视频。
在一种可能实现的方式中,所述方法还包括:获取样本文本信息、样本图片信息以及真实视频数据集,并构建判别器网络和基于视频生成的生成器网络;将所述样本文本信息和所述样本图片信息输入所述生成器网络中,生成样本视频;将所述样本视频和所述真实视频数据集作为所述判别器网络的输入,获得判别损失结果,其中,在所述样本视频属于所述真实视频数据集时,所述判别损失结果为1;根据所述判别损失结果,训练所述生成器网络获得所述目标生成器网络。视频生成装置需要通过样本数据进行生成器网络和判别器网络的训练。其中,首先根据样本数据通过所述生成器网络生成视频,再将<生成的视频,真实的视频>输入到判别器中,判别器对输入进行判断来源,如果来源于生成的视频则判断为假0,否则判断为真1,通过这样多次重复的对抗训练方式,能进一步的规范生成视频的内容,逐步的提升生成视频的真实性以及提升生成视频的质量。
步骤S307:接收视频分享指令,并响应于视频分享指令将目标视频发送至目标设备。
具体的,视频生成装置可以接收视频分享指令,并响应于视频分享指令将目标视频发送至目标设备。当生成目标视频后,用户还可以将该视频分享至朋友圈,通过将生成的目标视频分享至目标终端设备中,可以促进社交平台友好发展,提升用户生活交友体验。
需要说明的是,本申请实施例中步骤S301-步骤S307的相关描述,还可以对应参考上述图2A-图2M实施例的相关描述,此处不再赘述。
实施本申请实施例,电子设备可以根据文本信息和图片信息生成视频,以便用户可以实时分享自己的生活状态。当电子设备接收视频生成指令后,可以响应于该视频生成指令获取文本信息和图片信息,所述文本信息包括一个或多个关键字,所述图片信息包括N张图片,由于所述文本信息可以用于描述生成视频的视频内容(如:所述一个或多个关键字可以包括人物、时间、地点、事件或动作等等),所述图片信息可以用于提取或生成每一帧的视频图片,因此可以根据一个或多个关键字获取所述N张图片的每张图片中与所述一个或多个关键字对应的图像特征,再将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,其中,所述目标视频可以包括M张基于所述N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片。因此,这种利用文本和图像共同生成视频,使得生成的视频可以根据输入的文本信息对输入的图片信息进行调整,大大的丰富了视频内容,避免了现有终端设备上的由多张图片直接堆叠生成的视频,只局限于以幻灯片的形式切换式放映,缺少内容的丰富性,同时也满足了用户在视觉上和听觉上的需求。
上述详细阐述了本申请实施例的方法,下面提供了本申请实施例的相关装置。
请参见图4,图4是本申请实施例提供的另一种视频生成装置的结构示意图,该视频生成装置10可以包括接收响应单元401、提取单元402和生成单元403,还可以包括:评分单元404、增强单元405和训练单元406其中,各个单元的详细描述如下。
接收响应单元401,用于接收视频生成指令,并响应于所述视频生成指令获取文本信息和图片信息,所述文本信息包括一个或多个关键字,所述图片信息包括N张图片,N为大于或等于1的正整数;
提取单元402,用于根据所述一个或多个关键字获取所述N张图片的每张图片中与所述一个或多个关键字对应的图像特征;
生成单元403,用于将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,所述目标视频包括M张图片,所述M张图片为基于所述N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片,M为大于1的正整数。
在一种可能实现的方式中,所述接收响应单元401,具体用于:响应于所述视频生成指令,从文本输入信息、语音输入信息、用户偏好信息、用户生理数据信息、当前环境信息中的一个或多个,获取所述文本信息,其中,所述当前环境信息包括当前天气信息、当前时间信息、当前地理位置信息中的一个或多个。
在一种可能实现的方式中,所述接收响应单元401,具体用于:响应于所述视频生成指令,从预先存储的多张图片中,获取与所述一个或多个关键字中至少一个关键字对应的图片。
在一种可能实现的方式中,所述视频生成指令包括人脸识别请求;所述接收响应单元401,具体用于:响应于所述视频生成指令,进行人脸识别并获得人脸识别结果;根据所述人脸识别结果,从预先存储的多张图片中,获取与所述人脸识别结果匹配的至少一张图片。
在一种可能实现的方式中,所述视频生成指令包括至少一个图片标签,所述至少一个图片标签中每一个图片标签与预先存储的多张图片中的至少一张图片对应;所述接收响应单元401,具体用于:响应于所述视频生成指令,根据所述至少一个图片标签,从预先存储的多张图片中,获取与所述至少一个图片标签中每一个图片标签对应的至少一张图片。
在一种可能实现的方式中,所述获取的所述N张图片中每张图片的图片质量均大于预设阈值。
在一种可能实现的方式中,所述装置还包括:评分单元404,用于将获取的所述N张图片进行图片质量评分,获得所述N张图片中每张图片对应的图片质量评分结果;增强单元405,用于将所述图片质量评分结果小于预设阈值的图片进行图片质量增强处理,并将图片质量增强后的图片更新至所述N张图片中。
在一种可能实现的方式中,所述生成单元403,具体用于:提取所述一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量;提取所述N张图片的图像特征分别在向量空间上对应的所述第二空间变量;将所述第一空间变量和所述第二空间变量输入所述目标生成器网络中,生成所述目标视频。
在一种可能实现的方式中,所述装置还包括:训练单元406,所述训练单元406,用于:获取样本文本信息、样本图片信息以及真实视频数据集,并构建判别器网络和基于视频生成的生成器网络;将所述样本文本信息和所述样本图片信息输入所述生成器网络中,生成样本视频;将所述样本视频和所述真实视频数据集作为所述判别器网络的输入,获得判别损失结果,其中,在所述样本视频属于所述真实视频数据集时,所述判别损失结果为1;根据所述判别损失结果,训练所述生成器网络获得所述目标生成器网络。
需要说明的是,本申请实施例中所描述的视频生成装置10中各功能单元的功能可参见上述图3B中所述的方法实施例中步骤S301-步骤S307的相关描述,此处不再赘述。
如图5所示,图5是本申请实施例提供的又一种视频生成装置的结构示意图,该装置20包括至少一个处理器501,至少一个存储器502、至少一个通信接口503。此外,该设备还可以包括天线等通用部件,在此不再详述。
处理器501可以是通用中央处理器(CPU),微处理器,特定应用集成电路(application-specific integrated circuit,ASIC),或一个或多个用于控制以上方案程序执行的集成电路。
通信接口503,用于与其他设备或通信网络通信,如以太网,无线接入网(RAN),核心网,无线局域网(Wireless Local Area Networks,WLAN)等。
存储器502可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(ElectricallyErasable Programmable Read-Only Memory,EEPROM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器可以是独立存在,通过总线与处理器相连接。存储器也可以和处理器集成在一起。
其中,所述存储器502用于存储执行以上方案的应用程序代码,并由处理器501来控制执行。所述处理器501用于执行所述存储器202中存储的应用程序代码。
存储器202存储的代码可执行以上视频生成方法,比如接收视频生成指令,并响应于所述视频生成指令获取文本信息和图片信息,所述文本信息包括一个或多个关键字,所述图片信息包括N张图片,N为大于或等于1的正整数;根据所述一个或多个关键字获取所述N张图片的每张图片中与所述一个或多个关键字对应的图像特征;将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,所述目标视频包括M张图片,所述M张图片为基于所述N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片,M为大于1的正整数。
需要说明的是,本申请实施例中所描述的视频生成装置20中各功能单元的功能可参见上述图3B中所述的方法实施例中的步骤S301-步骤S307相关描述,此处不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可能可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以为个人计算机、服务端或者网络设备等,具体可以是计算机设备中的处理器)执行本申请各个实施例上述方法的全部或部分步骤。其中,而前述的存储介质可包括:U盘、移动硬盘、磁碟、光盘、只读存储器(Read-Only Memory,缩写:ROM)或者随机存取存储器(Random Access Memory,缩写:RAM)等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (19)
1.一种视频生成方法,其特征在于,包括:
接收视频生成指令,并响应于所述视频生成指令从用户偏好信息、用户生理数据信息、当前环境信息中的一个或多个获取文本信息,以及响应于所述视频生成指令获取图片信息,所述当前环境信息包括当前天气信息、当前时间信息、当前地理位置信息中的一个或多个,所述文本信息包括一个或多个关键字,所述图片信息包括N张图片,N为大于或等于1的正整数;
根据所述一个或多个关键字获取所述N张图片中与所述一个或多个关键字对应的图像特征;
将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,所述目标视频包括M张图片,所述M张图片为基于所述图像特征生成的、且与所述一个或多个关键字对应的图片,M为大于1的正整数。
2.根据权利要求1所述方法,其特征在于,所述响应于所述视频生成指令获取图片信息,包括:
响应于所述视频生成指令,从预先存储的多张图片中,获取与所述一个或多个关键字中至少一个关键字对应的图片。
3.根据权利要求1所述方法,其特征在于,所述视频生成指令包括人脸识别请求;所述响应于所述视频生成指令获取图片信息,包括:
响应于所述视频生成指令,进行人脸识别并获得人脸识别结果;
根据所述人脸识别结果,从预先存储的多张图片中,获取与所述人脸识别结果匹配的至少一张图片。
4.根据权利要求1所述方法,其特征在于,所述视频生成指令包括至少一个图片标签,所述至少一个图片标签中每一个图片标签与预先存储的多张图片中的至少一张图片对应;所述响应于所述视频生成指令获取图片信息,包括:
响应于所述视频生成指令,根据所述至少一个图片标签,从预先存储的多张图片中,获取与所述至少一个图片标签中每一个图片标签对应的至少一张图片。
5.根据权利要求2-4所述的任意一项方法,其特征在于,所述获取的所述N张图片中每张图片的图片质量均大于预设阈值。
6.根据权利要求1-4所述的任意一项方法,其特征在于,所述方法还包括:
将获取的所述N张图片进行图片质量评分,获得所述N张图片中每张图片对应的图片质量评分结果;
将所述图片质量评分结果小于预设阈值的图片进行图片质量增强处理,并将图片质量增强后的图片更新至所述N张图片中。
7.根据权利要求6所述方法,其特征在于,所述将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,包括:
提取所述一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量;
提取所述N张图片的图像特征分别在向量空间上对应的第二空间变量;
将所述第一空间变量和所述第二空间变量输入所述目标生成器网络中,生成所述目标视频。
8.根据权利要求7所述方法,其特征在于,所述方法还包括:
获取样本文本信息、样本图片信息以及真实视频数据集,并构建判别器网络和基于视频生成的生成器网络;
将所述样本文本信息和所述样本图片信息输入所述生成器网络中,生成样本视频;
将所述样本视频和所述真实视频数据集作为所述判别器网络的输入,获得判别损失结果,其中,在所述样本视频属于所述真实视频数据集时,所述判别损失结果为1;
根据所述判别损失结果,训练所述生成器网络获得所述目标生成器网络。
9.一种视频生成装置,其特征在于,包括:
接收响应单元,用于接收视频生成指令,并响应于所述视频生成指令从用户偏好信息、用户生理数据信息、当前环境信息中的一个或多个获取文本信息,以及响应于所述视频生成指令获取图片信息,所述当前环境信息包括当前天气信息、当前时间信息、当前地理位置信息中的一个或多个,所述文本信息包括一个或多个关键字,所述图片信息包括N张图片,N为大于或等于1的正整数;
提取单元,用于根据所述一个或多个关键字获取所述N张图片的每张图片中与所述一个或多个关键字对应的图像特征;
生成单元,用于将所述一个或多个关键字和所述N张图片的图像特征输入目标生成器网络中,生成目标视频,所述目标视频包括M张图片,所述M张图片为基于所述N张图片的图像特征生成的、且与所述一个或多个关键字对应的图片,M为大于1的正整数。
10.根据权利要求9所述装置,其特征在于,所述接收响应单元,具体用于:
响应于所述视频生成指令,从预先存储的多张图片中,获取与所述一个或多个关键字中至少一个关键字对应的图片。
11.根据权利要求9所述装置,其特征在于,所述视频生成指令包括人脸识别请求;所述接收响应单元,具体用于:
响应于所述视频生成指令,进行人脸识别并获得人脸识别结果;
根据所述人脸识别结果,从预先存储的多张图片中,获取与所述人脸识别结果匹配的至少一张图片。
12.根据权利要求9所述装置,其特征在于,所述视频生成指令包括至少一个图片标签,所述至少一个图片标签中每一个图片标签与预先存储的多张图片中的至少一张图片对应;所述接收响应单元,具体用于:
响应于所述视频生成指令,根据所述至少一个图片标签,从预先存储的多张图片中,获取与所述至少一个图片标签中每一个图片标签对应的至少一张图片。
13.根据权利要求10-12所述的任意一项装置,其特征在于,所述获取的所述N张图片中每张图片的图片质量均大于预设阈值。
14.根据权利要求9-12所述的任意一项装置,其特征在于,所述装置还包括:
评分单元,用于将获取的所述N张图片进行图片质量评分,获得所述N张图片中每张图片对应的图片质量评分结果;
增强单元,用于将所述图片质量评分结果小于预设阈值的图片进行图片质量增强处理,并将图片质量增强后的图片更新至所述N张图片中。
15.根据权利要求14所述装置,其特征在于,所述生成单元,具体用于:
提取所述一个或多个关键字中每一个关键字在向量空间上对应的第一空间变量;
提取所述N张图片的图像特征分别在向量空间上对应的第二空间变量;
将所述第一空间变量和所述第二空间变量输入所述目标生成器网络中,生成所述目标视频。
16.根据权利要求15所述装置,其特征在于,所述装置还包括:训练单元,所述训练单元,用于:
获取样本文本信息、样本图片信息以及真实视频数据集,并构建判别器网络和基于视频生成的生成器网络;
将所述样本文本信息和所述样本图片信息输入所述生成器网络中,生成样本视频;
将所述样本视频和所述真实视频数据集作为所述判别器网络的输入,获得判别损失结果,其中,在所述样本视频属于所述真实视频数据集时,所述判别损失结果为1;
根据所述判别损失结果,训练所述生成器网络获得所述目标生成器网络。
17.一种电子设备,其特征在于,包括处理器和存储器,其中,所述存储器用于存储信息发送程序代码,所述处理器用于调用所述程序代码来执行权利要求1-8任一项所述的方法。
18.一种芯片系统,其特征在于,所述芯片系统包括至少一个处理器,存储器和接口电路,所述存储器、所述接口电路和所述至少一个处理器通过线路互联,所述至少一个存储器中存储有指令;所述指令被所述处理器执行时,权利要求1-8中任意一项所述的方法得以实现。
19.一种计算机存储介质,其特征在于,所述计算机存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述权利要求1-8任意一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010480675.6A CN111669515B (zh) | 2020-05-30 | 2020-05-30 | 一种视频生成方法及相关装置 |
EP21818681.5A EP4149109A4 (en) | 2020-05-30 | 2021-05-29 | VIDEO PRODUCTION METHOD AND APPARATUS |
PCT/CN2021/097047 WO2021244457A1 (zh) | 2020-05-30 | 2021-05-29 | 一种视频生成方法及相关装置 |
US18/070,689 US20230089566A1 (en) | 2020-05-30 | 2022-11-29 | Video generation method and related apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010480675.6A CN111669515B (zh) | 2020-05-30 | 2020-05-30 | 一种视频生成方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111669515A CN111669515A (zh) | 2020-09-15 |
CN111669515B true CN111669515B (zh) | 2021-08-20 |
Family
ID=72385342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010480675.6A Active CN111669515B (zh) | 2020-05-30 | 2020-05-30 | 一种视频生成方法及相关装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230089566A1 (zh) |
EP (1) | EP4149109A4 (zh) |
CN (1) | CN111669515B (zh) |
WO (1) | WO2021244457A1 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111669515B (zh) * | 2020-05-30 | 2021-08-20 | 华为技术有限公司 | 一种视频生成方法及相关装置 |
CN112165585A (zh) * | 2020-09-28 | 2021-01-01 | 北京小米移动软件有限公司 | 短视频生成方法、装置、设备及存储介质 |
CN112995537B (zh) * | 2021-02-09 | 2023-02-24 | 成都视海芯图微电子有限公司 | 一种视频构建方法及系统 |
CN113434733B (zh) * | 2021-06-28 | 2022-10-21 | 平安科技(深圳)有限公司 | 基于文本的视频文件生成方法、装置、设备及存储介质 |
WO2023044669A1 (en) * | 2021-09-23 | 2023-03-30 | Intel Corporation | Methods and apparatus to implement scalable video coding for distributed source and client applications |
CN114237785A (zh) * | 2021-11-17 | 2022-03-25 | 维沃移动通信有限公司 | 图像生成方法、装置 |
CN118632070A (zh) * | 2023-03-09 | 2024-09-10 | 腾讯科技(深圳)有限公司 | 视频的生成方法、装置、电子设备、存储介质及程序产品 |
CN117035004B (zh) * | 2023-07-24 | 2024-07-23 | 北京泰策科技有限公司 | 基于多模态学习技术的文本、图片、视频生成方法及系统 |
CN117135416B (zh) * | 2023-10-26 | 2023-12-22 | 环球数科集团有限公司 | 一种基于aigc的视频生成系统 |
CN118102031B (zh) * | 2024-04-19 | 2024-10-18 | 荣耀终端有限公司 | 一种视频生成方法及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0577249A1 (en) * | 1992-07-02 | 1994-01-05 | Ampex Systems Corporation | Switcher mixer priority architecture |
CN105893412A (zh) * | 2015-11-24 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 图像分享方法及装置 |
CN106844677A (zh) * | 2017-01-24 | 2017-06-13 | 宇龙计算机通信科技(深圳)有限公司 | 一种信息分享的方法及装置 |
CN108665414A (zh) * | 2018-05-10 | 2018-10-16 | 上海交通大学 | 自然场景图片生成方法 |
CN109658369A (zh) * | 2018-11-22 | 2019-04-19 | 中国科学院计算技术研究所 | 视频智能生成方法及装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4970302B2 (ja) * | 2008-02-14 | 2012-07-04 | 富士フイルム株式会社 | 画像処理装置,画像処理方法及び撮像装置 |
US20100131571A1 (en) * | 2008-11-25 | 2010-05-27 | Reuveni Yoseph | Method application and system for characterizing multimedia content |
EP2740054A4 (en) * | 2011-08-04 | 2015-10-28 | Krasimir Popov | RESEARCH AND CREATION OF ADAPTIVE CONTENT |
CN103188608A (zh) * | 2011-12-31 | 2013-07-03 | 中国移动通信集团福建有限公司 | 基于用户位置的彩像图片生成方法、装置及系统 |
US10673977B2 (en) * | 2013-03-15 | 2020-06-02 | D2L Corporation | System and method for providing status updates |
US20160014482A1 (en) * | 2014-07-14 | 2016-01-14 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Generating Video Summary Sequences From One or More Video Segments |
CN104732593B (zh) * | 2015-03-27 | 2018-04-27 | 厦门幻世网络科技有限公司 | 一种基于移动终端的3d动画编辑方法 |
CN106210450B (zh) * | 2016-07-20 | 2019-01-11 | 罗轶 | 一种多通道多视角大数据视频剪辑方法 |
CN108460104B (zh) * | 2018-02-06 | 2021-06-18 | 北京奇虎科技有限公司 | 一种实现内容定制的方法和装置 |
CN109978021B (zh) * | 2019-03-07 | 2022-09-16 | 北京大学深圳研究生院 | 一种基于文本不同特征空间的双流式视频生成方法 |
US11442986B2 (en) * | 2020-02-15 | 2022-09-13 | International Business Machines Corporation | Graph convolutional networks for video grounding |
CN111669515B (zh) * | 2020-05-30 | 2021-08-20 | 华为技术有限公司 | 一种视频生成方法及相关装置 |
-
2020
- 2020-05-30 CN CN202010480675.6A patent/CN111669515B/zh active Active
-
2021
- 2021-05-29 EP EP21818681.5A patent/EP4149109A4/en active Pending
- 2021-05-29 WO PCT/CN2021/097047 patent/WO2021244457A1/zh unknown
-
2022
- 2022-11-29 US US18/070,689 patent/US20230089566A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0577249A1 (en) * | 1992-07-02 | 1994-01-05 | Ampex Systems Corporation | Switcher mixer priority architecture |
CN105893412A (zh) * | 2015-11-24 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 图像分享方法及装置 |
CN106844677A (zh) * | 2017-01-24 | 2017-06-13 | 宇龙计算机通信科技(深圳)有限公司 | 一种信息分享的方法及装置 |
CN108665414A (zh) * | 2018-05-10 | 2018-10-16 | 上海交通大学 | 自然场景图片生成方法 |
CN109658369A (zh) * | 2018-11-22 | 2019-04-19 | 中国科学院计算技术研究所 | 视频智能生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20230089566A1 (en) | 2023-03-23 |
WO2021244457A1 (zh) | 2021-12-09 |
CN111669515A (zh) | 2020-09-15 |
EP4149109A4 (en) | 2023-10-25 |
EP4149109A1 (en) | 2023-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111669515B (zh) | 一种视频生成方法及相关装置 | |
CN111061912A (zh) | 一种处理视频文件的方法及电子设备 | |
WO2021104485A1 (zh) | 一种拍摄方法及电子设备 | |
CN110489215A (zh) | 一种应用程序中等待场景的处理方法和装置 | |
CN112580400B (zh) | 图像选优方法及电子设备 | |
CN113051427A (zh) | 一种表情制作方法和装置 | |
CN115016869B (zh) | 帧率调整方法、终端设备及帧率调整系统 | |
CN112214636A (zh) | 音频文件的推荐方法、装置、电子设备以及可读存储介质 | |
CN114710640A (zh) | 基于虚拟形象的视频通话方法、装置和终端 | |
WO2022073417A1 (zh) | 融合场景感知机器翻译方法、存储介质及电子设备 | |
CN112840635A (zh) | 智能拍照方法、系统及相关装置 | |
CN113935898A (zh) | 图像处理方法、系统、电子设备及计算机可读存储介质 | |
CN114242037A (zh) | 一种虚拟人物生成方法及其装置 | |
CN113837984A (zh) | 播放异常检测方法、电子设备和计算机可读存储介质 | |
CN112527093A (zh) | 手势输入方法及电子设备 | |
CN113970888A (zh) | 家居设备控制方法、终端设备及计算机可读存储介质 | |
CN114756785A (zh) | 页面显示的方法、装置、电子设备以及可读存储介质 | |
CN114444000A (zh) | 页面布局文件的生成方法、装置、电子设备以及可读存储介质 | |
WO2022037479A1 (zh) | 一种拍摄方法和拍摄系统 | |
CN115734032A (zh) | 视频剪辑方法、电子设备及存储介质 | |
CN113723397A (zh) | 一种截屏方法及电子设备 | |
CN113742460A (zh) | 生成虚拟角色的方法及装置 | |
WO2022078116A1 (zh) | 笔刷效果图生成方法、图像编辑方法、设备和存储介质 | |
CN116861066A (zh) | 应用推荐方法和电子设备 | |
CN114520887B (zh) | 一种视频通话背景切换方法及第一终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |