CN112367526B - 视频生成方法、装置、电子设备及存储介质 - Google Patents
视频生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112367526B CN112367526B CN202011156954.3A CN202011156954A CN112367526B CN 112367526 B CN112367526 B CN 112367526B CN 202011156954 A CN202011156954 A CN 202011156954A CN 112367526 B CN112367526 B CN 112367526B
- Authority
- CN
- China
- Prior art keywords
- user
- information
- image
- video
- answer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 108
- 230000006399 behavior Effects 0.000 claims abstract description 106
- 230000008569 process Effects 0.000 claims abstract description 66
- 230000009471 action Effects 0.000 claims description 19
- 230000008921 facial expression Effects 0.000 claims description 18
- 238000007667 floating Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 23
- 238000012360 testing method Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000012015 optical character recognition Methods 0.000 description 4
- 206010011469 Crying Diseases 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000000586 desensitisation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000012925 reference material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
- G09B5/14—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations with provision for individual teacher-student communication
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请实施例提供了一种视频生成方法、装置、电子设备及存储介质,从第一视频中确定与待解答问题有关的第一图像集合,获取在播放第一图像集合的过程中各用户分别针对待解答问题的答案信息和答题行为信息,结合待解答问题的标准答案确定各用户分别对应的表征解答待解答问题的难易程度的第一信息;基于各用户分别对应的第一信息,得到第一图像,并将第一图像叠加至第一图像集合上,形成第二视频。本申请实施例展示了表征解答待解答问题的难易程度的第一信息,基于此,参与直播的用户可以直观地把握自身的知识水平,观看录播的用户通过了解其他用户的学习情况来了解自身目前的知识水平情况,从而增加了观看网络课堂中的互动性。
Description
技术领域
本申请涉及图像处理技术领域,更具体的说,是涉及一种视频生成方法、装置、电子设备及存储介质。
背景技术
网络课堂,是利用网络进行在线互动学习的一种新的学习方式。目前的网络课堂模式有两种,一种是事先录制视频,将录制的视频放在网站上供用户学习。另一种是直播视频的方式,将教师讲课的音视频数据实时传输给用户终端,供用户学习。
目前两种网络课堂模式均缺乏互动。
发明内容
有鉴于此,本申请提供了一种视频生成方法、装置、电子设备及存储介质。
本申请提供如下技术方案:
一种视频生成方法,包括:
从第一视频中确定第一图像集合,所述第一图像集合包括至少一帧时间连续的视频图像,一帧所述视频图像与待解答问题相对应;
获取在播放所述第一图像集合的过程中,各用户分别针对所述待解答问题的答案信息和答题行为信息;一个所述用户对应的答题行为信息为所述用户在得到所述答案信息的过程中的行为信息;
基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;
基于各所述用户分别对应的所述第一信息,得到第一图像;
将所述第一图像叠加至所述第一图像集合上,以得到第二视频。
一种视频生成装置,包括:
第一确定模块,用于从第一视频中确定第一图像集合,所述第一图像集合包括至少一帧时间连续的视频图像,一帧所述视频图像与待解答问题相对应;
第一获取模块,用于获取在播放所述第一图像集合的过程中,各用户分别针对所述待解答问题的答案信息和答题行为信息;一个所述用户对应的答题行为信息为所述用户在得到所述答案信息的过程中的行为信息;
第二确定模块,用于基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;
第三确定模块,用于基于各所述用户分别对应的所述第一信息,得到第一图像;
生成模块,用于将所述第一图像叠加至所述第一图像集合上,以得到第二视频。
一种电子设备,包括:
存储器,用于存储程序;
处理器,用于执行所述程序,所述程序具体用于:
从第一视频中确定第一图像集合,所述第一图像集合包括至少一帧时间连续的视频图像,一帧所述视频图像与待解答问题相对应;
获取在播放所述第一图像集合的过程中,各用户分别针对所述待解答问题的答案信息和答题行为信息;一个所述用户对应的答题行为信息为所述用户在得到所述答案信息的过程中的行为信息;
基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;
基于各所述用户分别对应的所述第一信息,得到第一图像;
将所述第一图像叠加至所述第一图像集合上,以得到第二视频。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上述任一项所述的视频生成方法中的各个步骤。
经由上述的技术方案可知,本申请实施例提供的视频生成方法中,首先从第一视频中确定与待解答问题有关的第一图像集合,获取在播放所述第一图像集合的过程中各用户分别针对所述待解答问题的答案信息和答题行为信息;基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;基于各所述用户分别对应的所述第一信息,得到第一图像,并将所述第一图像叠加至所述第一图像集合上,形成第二视频。由于第二视频可以是在直播的过程中参与直播的用户能够观看到的直播视频,也可以是在直播完毕后观看录制视频的用户观看到的录制视频,因此,参与直播的用户和观看录制视频的用户均可以观看到第一信息,从而实现观看第二视频的用户与网络课堂的互动的目的。本申请实施例中第二视频展示了表征解答待解答问题的难易程度的第一信息。基于各用户的第一信息,参与直播的用户可以直观地了解自身对于待解答问题所对应的知识点的掌握情况,把握自身知识水平;进行直播的老师可以直观地了解学生对待解答问题所对应的知识点的掌握情况;观看录播的用户通过了解参与直播用户的学习情况来了解自身目前的知识水平情况,以在后续的学习中更好地沉浸到网络课堂。无论是对参与直播学习的用户而言还是对观看录制视频学习的用户而言,本申请实施例提供的视频生成方法均增强了用户与网络课堂之间的互动性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的一种实施环境的示意图;
图2为本申请实施例提供的视频生成方法的一种实现方式的流程图;
图3为本申请实施例提供的第一图像的一种实现方式的示意图;
图4a至图4c分别为本申请实施例提供的第一图像的另一种实现方式的示意图;
图5为本申请实施例提供的第二图像的一种实现方式的示意图;
图6a为本申请实施例提供的第二视频中展示第二图像的另一种实现方式的示意图;
图6b为本申请实施例提供的第二图像的又一种实现方式的示意图;
图7a为本申请实施例提供的第一图像集合的一种实现方式的示意图;
图7b为本申请实施例提供的第一图像的一种实现方式的示意图;
图8a至图8b分别为本申请实施例提供的用户界面窗口与视频窗口并列显示的实现方式的示意图;
图9为本申请实施例提供的视频生成装置的一种实现方式的结构图;
图10为本申请实施例提供的电子设备的一种实现方式的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提供了视频生成方法、装置、电子设备及存储介质。
在对本申请实施例提供的视频生成方法进行详细介绍之前,这里先对本申请实施例涉及的应用场景和实施环境进行简单介绍。
首先,对本申请涉及的实施环境进行介绍。
如图1所示,为本申请实施例提供的一种实施环境的示意图。如图1所示,下述视频生成方法可以应用于该实施环境中,该实施环境包括:一个或多个终端设备11以及电子设备12。
其中,终端设备11可以为任何一种可与用户通过键盘、触摸板、触摸屏、手写屏、遥控器、语音交互或手写设备等一种或多种方式进行人机交互的电子产品,例如,手机、平板电脑、掌上电脑、个人计算机、智能电视等。
图1仅仅是一种示例,实际应用中终端设备11的数量可以按照实际需求设定,图1中示出了一个终端设备11。
示例性的,电子设备12可以为任何一种可与用户通过键盘、触摸板、触摸屏、遥控器、语音交互或手写设备等一种或多种方式进行人机交互的电子产品,例如,手机、平板电脑、掌上电脑、个人计算机、智能电视等。
示例性的,电子设备12可以为服务器,该服务器可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者是一个云计算服务中心。
示例性的,终端设备11与电子设备12为同一设备;示例性的,终端设备11与电子设备12为不同的设备。
终端设备11,用于播放第一视频;采集用户观看第一视频的过程中的用户行为信息,获得用户针对待解答问题的答案信息,将用户行为信息和答案信息发送至电子设备12。
示例性的,终端设备11运行的直播客户端可以控制终端设备11采集用户行为信息以及针对待解答问题的答案信息。
示例性的,直播客户端可以为应用程序客户端或网页版客户端。
在一可选实现方式中,终端设备11在播放第一视频的过程中,一直在采集观看第一视频的用户的用户行为信息。
在一可选实现方式中,终端设备11在播放第一视频的过程中,只有在预设场景下,才会采集用户行为信息。
例如,在播放第一图像集合的场景下,才会采集的用户行为信息,本申请实施例中,称此场景下的用户行为信息为答题行为信息。
本申请实施例可以通过以下两种方式实现终端设备11在一个或多个场景下,才会采集用户行为信息的方案。
第一种实现方式,终端设备11可以在接收到电子设备12发送的采集用户行为信息的指令,终端设备11接收到该采集用户行为信息的指令的后,开始采集用户行为信息。
示例性的,采集用户行为信息的指令包括采集开始时间以及采集终止时间,或者,采集用户行为信息的指令包括采集时间段。
示例性的,终端设备11在采集开始时间到达时,开始采集用户行为信息,在采集终止时间到达时终止采集用户行为信息。
示例性的,采集开始时间默认为接收到采集用户行为信息的指令的时间;示例性的,采集开始时间晚于接收到采集用户行为信息的指令的时间。
示例性的,若采集用户行为信息的指令包括采集时间段,在接收到采集用户行为信息的指令后,开始采集用户行为信息,在采集上述采集时间段后,终止采集用户行为信息。
示例性的,若采集用户行为信息的指令未携带有采集终止时间或采集时间段,那么,终端设备11接收到电子设备12发送的终止采集指令后,终止采集用户行为信息。
在第一种实现方式中,在直播过程中,电子设备12确定预设场景,以指示终端设备11采集在预设场景下的用户行为信息。
第二种实现方式,终端设备11自己检测当前播放的第一视频中的视频图像是否属于预设场景,若是,则开始采集用户行为信息。
示例性的,终端设备11包括摄像头和麦克风,可以通过摄像头采集位于摄像头FOV(field angle of view,视场角)范围内的包含用户的图像,以及,通过麦克风采集用户的语音。
示例性的,可以基于包含用户的图像和用户的语音中的至少一个,获得用户行为信息。
示例性的,终端设备可以通过摄像头采集答案信息,例如,用户在写完答案信息后,可以利用终端设备的摄像头对答案信息进行拍照,从而得到包含答案信息的图像。
示例性的,终端设备11包括触摸屏或手写板,或者,终端设备11通过无线方式或有线方式与触摸屏或手写板进行连接。
示例性的,用户可以在触摸屏或手写板上输入针对待解答问题的答案信息,以使得终端设备11得到答案信息。
电子设备12,还用于至少接收各终端设备11发送的答题行为信息和答案信息;基于各终端设备11发送答题行为信息和答案信息得到第一图像。
本申请实施例可以应用于多种应用场景,本申请提供但不限于以下两种应用场景,即直播应用场景以及录播应用场景。
在直播应用场景中,示例性的,终端设备11直播的第一视频是从电子设备12得到的,电子设备12可以将第一图像叠加至第一视频的第一图像集合上,以得到第二视频,将第二视频发送至终端设备12,以使得终端设备12直播第二视频。
在直播应用场景中,示例性的,终端设备11直播的第一视频是从服务器得到的,电子设备12可以将第一图像发送至服务器,服务器将第一图像叠加至第一视频的第一图像集合上,以得到第二视频,并将第二视频发送至终端设备12,以使得终端设备12直播第二视频。
老师在进行直播教学时,为了能够实时掌握学生对知识点的理解程度,可以采用提问的方式,将需要掌握的知识点以待解答问题的形式进行呈现,观看直播的各个学生可以针对待解答问题进行作答,通过本申请实施例提供的视频生成方法得到第二视频。这样老师可以根据第二视频中的第一图像清楚地了解各个学生对于该知识点的掌握情况,便于后续课堂教学,如,大多数学生的第一信息表示该待解答问题比较容易,那么老师可以简单讲解带过,甚至不讲解,将教学重点放在大多数学生表示比较困难的知识点上,既提高了课堂效率,也增加了老师与同学们之间的互动性。
参与直播的学生也可以通过第二视频中的第一图像看到其他同学对于该知识点的掌握情况,从而把握自身的学习进度。
在录播应用场景中,电子设备11可以将所述第一图像叠加至第一视频的第一图像集合上,以得到第二视频。
对于观看录制视频的用户而言,其观看到的视频为第二视频。
对于观看录制视频的用户而言,其可以通过第二视频中的第一图像看到其他同学对于该知识点的掌握情况,从而把握自身的学习进度。
综上,本申请实施例提供的视频生成方法生成的第二视频,可以是在直播的过程中,采集用户行为信息和答案信息,并以图像数据的形式叠加至正在直播的第一视频;也可以是在直播完毕之后,对录制好的第一视频进行编辑,将直播过程中的用户行为信息和答案信息数据化,以图像数据的形式呈现在第二视频中,便于观看第二视频的人也能参与到网络课堂中,增强互动性。
可以理解的是,终端设备11采集的用户行为信息可能包括用户的个人信息,如人脸、声音等身份信息,为了避免用户的个人信息泄露,示例性的,终端设备11将用户行为信息进行脱敏后,在发送至电子设备12。
示例性的,脱敏的方式包括但不限于:将语音转换成文字、将包含用户的图像中的用户行为转换成描述用户行为的文字。
示例性的,若终端设备11未对用户行为信息进行脱敏,那么,可以由电子设备12对用户行为信息进行脱敏。
本领域技术人员应能理解上述电子设备和终端设备仅为举例,其他现有的或今后可能出现的电子设备或终端设备如可适用于本公开,也应包含在本申请保护范围以内,并在此以引用方式包含于此。
结合实施环境和应用场景对本申请提供的视频生成方法进行详细说明。
如图2所示,为本申请实施例提供的视频生成方法的一种实现方式的流程图,该方法可以应用于上述电子设备12,该方法在实施过程中具体包括步骤S201至步骤S205。
步骤S201:从第一视频中确定第一图像集合,所述第一图像集合包括至少一帧时间连续的视频图像,一帧所述视频图像与待解答问题相对应。
示例性的,第一视频为直播过程中的直播视频流,或者,第一视频为已直播完毕的录制视频。
示例性的,第一视频中可能包括一个或多个第一图像集合,对于每一第一图像集合均执行步骤S201至步骤S205所示步骤。
示例性的,第一图像集合包括一帧或多帧视频图像,若第一图像集合包括多帧视频图像,这多帧视频图像在时间上连续。
示例性的,本申请实施例称老师为学生布置一次待解答问题为随堂测试,不同随堂测试具有一定的时间间隔;本申请实施例提及的“时间连续”是指第一图像集合对应的一次随堂测试。
如,老师在直播过程中,在上午时间10:40为学生布置了待解答问题A,给学生们留了5分钟的作答时间,在10:45开始为学生讲解该待解答问题A,那么第一图像集合可以为第一视频中位于10:40~10:45这一段时间的子视频,或者,第一图像集合包括第一视频中位于10:40~10:45这一段时间内子视频中的一帧或多帧视频图像。
如,老师在直播过程中,在上午11:20又为学生布置了待解答问题B,给学生们留了10分钟的作答时间,在11:30开始为学生讲解该待解答问题B那么,另一第一图像集合可以为第一视频中位于11:20~11:30这一段时间的子视频,或者,第一图像集合包括第一视频中位于11:20~11:30这一段时间的子视频中的一帧或多帧视频图像。
假设称10:40~10:45对应随堂测试1,11:20~11:30对应随堂测试2,由于随堂测试1和随堂测试2有时间间隔,在时间上不连续,所以称为两次随堂测试。
示例性的,一帧视频图像对应的待解答问题的数量可以为一个或多个。待解答问题的类型可以为填空题、选择题、问答题、主观题、客观题中至少一个类型。本申请实施例不对待解答问题的类型进行限定。
在一可选实施例中,视频图像对应的待解答问题可以为语音,例如,在展示该视频图像时,老师正在口述待解答问题,此时,视频图像可以展示有该待解答问题,或者,视频图像展示有与该待解答问题对应的知识点,或者,视频图像展示空白页,或者,视频图像展示有与待解答问题相关的内容,例如,预留的解答该待解答问题的时长、请作答等内容,或者,视频图像展示有与待解答问题不相关的内容,例如,景色、动物、食物等一个或多个内容。
在一可选实施例中,视频图像对应的待解答问题为图像,即视频图像展示有该待解答问题。
在一可选实施例中,视频图像对应的待解答问题为图像以及语音,即视频图像展示有该待解答问题,且,老师口述该待解答问题。
示例性的,若第一图像集合包括多帧视频图像,不同视频图像对应的待解答问题可以相同,也可以不同。
步骤S202:获取在播放所述第一图像集合的过程中,各用户分别针对所述待解答问题的答案信息和答题行为信息。
其中,一个所述用户对应的答题行为信息为所述用户在得到所述答案信息的过程中的行为信息。
可以理解的是,由于第一图像集合包括多帧时间连续的视频图像,一帧视频图像又与待解答问题相对应,因此在播放第一图像集合的过程中可以获取到全部的待解答问题。
示例性的,针对待解答问题的答案信息的类型,可以基于待解答问题的类型确定,例如,若待解答问题为选择题,那么答案信息的类型为字母;若待解答问题为主观题,例如问答题,那么答案信息包括多个步骤。
在一可选实现方式中,对于每一用户,获取针对待解答问题的答案信息的方式包括但不限于以下五种实现方式。
第一种实现方式:用户将答案信息写在承载体(例如纸)上,通过终端设备11拍照以得到包含答案信息的图像,或者,通过其他设备拍照,并将照片传输至终端设备11,终端设备11将包含有答案信息的图像上传至电子设备12。
示例性的,电子设备12可以通过OCR功能(OpticalCharacter Recognition,光学字符识别),从包含有答案信息的图像中获得答案信息。
第二种实现方式:用户将答案信息写在承载体上,先通过终端设备11拍照获得包含有答案信息的图像,再通过终端设备11中的OCR功能,从包含有答案信息的图像中获得答案信息并上传至电子设备12。或者,通过其他终端拍照获得包含有答案信息的图像,再通过该其他终端的OCR功能,从包含有答案信息的图像中获得答案信息,并将答案信息发送至终端设备11,终端设备11将答案信息上传至电子设备12。
第三种实现方式:用户将答案信息输入至终端设备11运行的直播客户端的评论区内,直播客户端会将答案信息上传至电子设备12。
第四种实现方式:用户将答案信息写在终端设备11对应的触摸屏或手写板上,写完后点击完成按键,终端设备11可以获得包含答案信息的图像,或者,获得答案信息,并上传至电子设备12。
第五种实现方式:若待解答问题为客观题,例如,选择题或填空题,终端设备11可以获得用户口述的答案信息,并将包含答案信息的语音发送至电子设备12。或者,终端设备11将包含答案信息的语音通过语音转文字(Speechto Text)功能,将答案信息转换成文字,并上传至电子设备12。
在一可选实现方式中,对于每一用户,获取针对待解答问题的答案行为信息的方式包括但不限于以下三种实现方式。
第一种实现方式:终端设备11通过摄像头采集用户在答题过程中的动作和用户在答题过程中的面部表情中至少一个,并上传至电子设备12。
示例性的,用户在答题过程中的动作包括但不限于:通过本人或非本人或是借助工具得到的答案信息的动作、肢体动作和面部表情中的至少一个。
示例性的,通过本人或非本人或是借助工具得到的答案信息的动作包括但不限于:如上网搜索、求助他人解答、通过答题软件直接得到答案(如猿题库之类的软件)、查找参考资料等等。
示例性的,肢体动作包括但不限于:抓耳挠腮、摇头。
示例性的,面部表情包括但不限于:皱眉、微笑、哭脸等。
第二种实现方式:终端设备11通过麦克风采集用户在答题过程中的语音,并上传至电子设备12。
示例性的,语音可以包括唉声叹气、抱怨太难、抱怨太简单等。
第三种实现方式:第一种实现方式和第二种实现方式结合。
步骤S203:基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息。
在一可选实施例中,表征解答待解答问题的难易程度的第一信息可以通过难度系数来展示。
在一可选实施例中,针对每一用户,获得表征难度系数的第一信息的方法包括以下步骤A11至步骤A13。
步骤A11:将待解答问题的标准答案与用户的答案信息进行比较,获得表征用户的答案是否准确的准确程度信息。
示例性的,若用户的答案信息与标准答案完全相同,则准确程度信息为1,若用户的答案信息与标准答案完全不同,则准确程度信息为0。
示例性的,对于填空题和选择题而言,用户的答案信息的准确程度信息为0或1。
示例性的,若用户的答案信息与标准答案部分相同,基于用户的答案信息与标准答案相似度作为准确程度信息。
示例性的,对于主观题而言,例如数学中的几何问答题,用户的答案信息可能涉及多个计算步骤。假设标准答案一共包括5个步骤,用户的答案信息中包含的3个步骤与标准答案相同,那么,该答案信息与标准答案的相似度为3/5。
示例性的,对于主观题而言,例如,历史类的待解答问题,或语文作文,或英语作文,电子设备12可以基于自然语言处理技术中的语义理解(Semantic understanding)技术,获得答案信息和标准答案的相似度。
示例性的,若用户的答案信息与标准答案不完全相同,则准度程度信息为0。
示例性的,若用户的终端设备11未向电子设备12上传答案信息,则认为该用户的答案信息为空值,直接确定该答案信息对应的准确程度信息为0。
步骤A12:获取用户的答题行为信息对应的答题分数。
在一可选实现方式中,可以预先设置用户在答题过程中产生的答题行为信息所对应的答题分数,具体涉及以下五种情况中至少一种情况。
第一种情况,包括情景1和情景2。
情景1:通过非本人或是借助工具得到的答案信息,设置答题分数为第一数值。
示例性的,通过非本人或是借助工具得到的答案信息的过程包括但不限于以下:上网搜索、求助他人解答、通过答题软件得到答案(猿题库之类的软件)中的一种或多种。
其中,第一数值为任意数值。
情景2:通过本人得到答案信息,设置答题分数为第二数值,例如,用户自己经过思考得到答案信息,未索求他人帮助或借助工具。
若第一信息越大,表征解答所述待解答问题的困难程度越大,第一信息越小,表征解答所述待解答问题的困难程度越小,那么,第二数值为小于第一数值的任意数值。
若第一信息越大,表征解答所述待解答问题的困难程度越小,第一信息越小,表征解答所述待解答问题的困难程度越大,那么,第二数值为大于第一数值的任意数值。
第二种情况,包括情景3和情景4。
情景3:若用户在答题过程中出现表征待解答问题困难的肢体动作,设置答题分数为第三数值。
示例性的,表征待解答问题困难的肢体动作包括但不限于:抓耳挠腮、摇头中的一种或多种肢体动作。
第三数值为任意数值。
情景4:若用户在答题过程中出现表征待解答问题简单的肢体动作,设置答题分数为第四数值。
示例性的,表征待解答问题简单的肢体动作包括但不限于:用户拍手、打响指中的一种或多种肢体动作。
若第一信息越大,表征解答所述待解答问题的困难程度越大,第一信息越小,表征解答所述待解答问题的困难程度越小,那么,第四数值为小于第三数值的任意数值。
若第一信息越大,表征解答所述待解答问题的困难程度越小,第一信息越小,表征解答所述待解答问题的困难程度越大,那么,第四数值为大于第三数值的任意数值。
第三种情况,包括情景5和情景6。
情景5:若用户在答题过程中出现表征待解答问题困难的面部表情,设置答题分数为第五数值。
第五数值为任意数值。
示例性的,表征待解答问题困难的面部表情包括但不限于:皱眉、哭脸中一种或多种表情。
情景6:若用户在答题过程中出现表征待解答问题简单的面部表情,设置答题分数为第六数值。
示例性的,表征待解答问题简单的面部表情包括但不限于:微笑。
若第一信息越大,表征解答所述待解答问题的困难程度越大,第一信息越小,表征解答所述待解答问题的困难程度越小,那么,第六数值为小于第五数值的任意数值。
若第一信息越大,表征解答所述待解答问题的困难程度越小,第一信息越小,表征解答所述待解答问题的困难程度越大,那么,第六数值为大于第五数值的任意数值。
第四种情况,包括情景7和情景8。
情景7:若用户在答题过程中出现表征待解答问题困难的语音,设置答题分数为第七数值。
示例性的,表征待解答问题困难的语音包括但不限于:唉声叹气、具有困难语义的语音中的至少一个。
情景8:若用户在答题过程中出现表征待解答问题简单的语音,设置答题分数为第八数值。
示例性的,表征待解答问题简单的语音包括但不限于:具有简单语义的语音。
若第一信息越大,表征解答所述待解答问题的困难程度越大,第一信息越小,表征解答所述待解答问题的困难程度越小,那么,第八数值为小于第七数值的任意数值。
若第一信息越大,表征解答所述待解答问题的困难程度越小,第一信息越小,表征解答所述待解答问题的困难程度越大,那么,第八数值为大于第七数值的任意数值。
示例性的,用户的答题行为信息还包括答题时长。答题时长即为用户开始答题至答题结束所消耗的时长。
那么还涉及第五种情况,第五种情况:预先设置答题时长与答题分数的对应关系,基于用户的答题时长,确定答题分数。
示例性的,基于答题时长与待解答问题对应的预定时长的比值,确定答题分数。
例如,若用户的答题时长与预定时长的比值为第一比值,其对应的答题分数为第九数值;若用户的答题时长与预定时长的比值为第二比值,其对应的答题分数为第十数值;若用户的答题时长与预定时长的比值为第三比值,其对应的答题分数为第十一数值;…;若用户的答题时长与预定时长的比值为第I比值,其对应的答题分数为第M数值。
其中,第一比值<第二比值<第三比值…<第I比值。I为大于或等于2的正整数。M为任意数值。
若第一信息越大,表征解答所述待解答问题的困难程度越大,第一信息越小,表征解答所述待解答问题的困难程度越小,那么,第九数值<第十数值<第十一数值<…<第M数值。
若第一信息越大,表征解答所述待解答问题的困难程度越小,第一信息越小,表征解答所述待解答问题的困难程度越大,那么,第九数值>第十数值>第十一数值>…>第M数值。
示例性的,上述第一数值至第M数值,可以基于实际情况确定,这里不进行任何限定。
示例性的,基于答题时长所属时长范围,确定答题分数。
例如,若答题时长属于第一时长范围,确定答题分数为数值1,若答题时长属于第二时长范围,确定答题分数为数值2,…,若答题时长属于第N时长范围,确定答题分数为数值N。
其中,第一时长范围的最大值<第二时长范围的最小值,第二时长范围的最大值<...,第N-1时长范围的最大值<第N时长范围的最小值。N为大于或等于2的正整数。
若第一信息越大,表征解答所述待解答问题的困难程度越大,第一信息越小,表征解答所述待解答问题的困难程度越小,那么,数值1<数值2<…<数值N。
若第一信息越大,表征解答所述待解答问题的困难程度越小,第一信息越小,表征解答所述待解答问题的困难程度越大,那么,数值1>数值2>…>数值N。
示例性的,在获得针对用户待解答问题的答题行为信息所对应的答题分数的过程中,可以结合上述五种情况中的至少一种情况得到答题分数。
示例性的,还可以为上述五种情况分别设置权重值。
步骤A13:基于准确程度信息和答题分数,获得第一信息。
示例性的,可以将准确程度信息和答题分数进行计算,以得到第一信息。例如,乘法计算、加法计算、加权求和计算等等。
示例性的,可以预先设置准确程度信息对应的第一权重值。如,可以基于预先设置的准确程度信息与权重值的对应关系,获得步骤A11得到的准确程度信息对应的第一权重值。
示例性的,不同准确程度信息对应的权重值相同,或者,不同准确程度信息对应的权重值不同。
例如,准确程度信息为1,权重值为2;准确程度信息大于0且小于1,权重值为2.5,准确程度信息为0,权重值为3,其中,若终端设备11未上传答案信息,也属于用户的答案信息与标准答案完全不相同。
示例性的,可以预先设置答题行为信息的第二权重值。
示例性的,第一信息=第一权重值*准确程度信息+第二权重值*答题分数。
下面以具体示例对上述步骤A12和A13进行说明。例如,用户A在作答时得到的答案信息是通过上网搜索资料得到的,答题分数为+1,答题时长与预定作答时长的比值为1/3,答题分数为-0.5,且露出表征待解答问题简单的面部表情,例如微笑,答题分数为-0.5,那么,答题行为信息的答题分数=1-0.5-0.5=0,在该用户上传答案信息后,得到的答案信息的准确程度信息为2.5,则对于该用户而言,难度系数为2.5+1-0.5-0.5=2.5。
示例性的,第一信息可以为难度系数,或者,基于难度系数划分等级,第一信息为难度系数所属等级。
示例性的,难度系数对应的等级至少有两个,下面以难度系数对应的等级有3个为例进行说明。
例如,难度系数≤2,第一信息为表征待解答问题简单的信息;2<难度系数≤3,第一信息为表征待解答问题中等难度的信息;3<难度系数≤4.5,第一信息为表征待解答问题高等难度的信息。
在一可选实现方式中,可基于各用户的答题行为信息,对用户进行筛选,获得保留一个或多个用户分别对应的第一信息。
例如,去除答题行为信息中具有第一种情况中情景1的用户,仅保留答题行为信息中具有第一种情况中情景2的用户,然后基于第二种情况至第五种情况中至少一种情况,获得答题行为信息的答题分数,使得确定出来的第一信息的可信参考度更高。
步骤S204:基于各所述用户分别对应的所述第一信息,得到第一图像。
示例性的,第一图像展示有各用户分别对应的第一信息。
示例性的,可获取各用户提交答案信息的提交时刻,按照各用户的提交时刻对各用户的第一信息进行时间从早到晚的排序并布局在第一图像上。
如图3所示,为本申请实施例提供的第一图像的一种实现方式的示意图。图3以待解答问题为几何问答题为例,第一信息用难度等级来表示,例如,第一信息为简单或中等难度或高等难度为例进行说明。
示例性的,可以用任何图形或文字表征一个用户,例如,用一个方框表征一个用户,或者,一个圆形表征一个用户,或者,一个人形图案表征一个用户。图3是以一个方框31表征一个用户为例进行说明的。
假设老师在直播授课的过程中,参与直播的用户有20人。在老师布置待解答的问题之后,参与直播的用户在预定作答时间内作答并上传各自的答案信息。电子设备12在接收到各用户的答案信息以后,将各用户的答案信息以及第一信息显示在图3中的直播画面里。
示例性的,第一图像还可以展示表征用户的答案是否准确的准确程度信息。如图3中具有“×”的方框,表征该用户的答案信息的准确程度信息小于1。具有“√”的方框,表征该用户的答案信息的准确程度信息等于1。
示例性的,可有基于方框31中包含“×”的数目,确定该用户的答案信息的准确程度信息,方框31中包含“×”的数目越大,该用户的答案信息的准确程度信息越低。
示例性的,可以设置方框31中包含的“×”的数目为预设数目时,该用户的答案信息的准确程度信息为0。
示例性的,可以理解的是,第一图像涵盖了各用户分别对应的第一信息。通过查看第一图像,可以清楚地了解到各用户针对待解答问题的难易程度,以便老师在授课过程中一目了然地了解学生们针对该待解答问题的掌握程度,或者,参与直播的学生们一目了然地了解到其他同学针对该待解答问题的掌握程度,以确定自身的学习进度,或者,观看第二视频的用户可以一目了然地了解到其他同学针对该待解答问题的掌握程度,以确定自身的学习进度。
步骤S205:将所述第一图像叠加至所述第一图像集合上,以得到第二视频。
本申请实施例提供的视频生成方法中,首先从第一视频中确定与待解答问题有关的第一图像集合,获取在播放所述第一图像集合的过程中各用户分别针对所述待解答问题的答案信息和答题行为信息;基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;基于各所述用户分别对应的所述第一信息,得到第一图像,并将所述第一图像叠加至所述第一图像集合上,形成第二视频。由于第二视频可以是在直播的过程中参与直播的用户能够观看到的直播视频,也可以是在直播完毕后观看录制视频的用户观看到的录制视频,因此,参与直播的用户和观看录制视频的用户均可以观看到第一信息,从而实现观看第二视频的用户与网络课堂的互动的目的。本申请实施例中第二视频展示了表征解答待解答问题的难易程度的第一信息。基于各用户的第一信息,参与直播的用户可以直观地了解自身对于待解答问题所对应的知识点的掌握情况,把握自身知识水平;进行直播的老师可以直观地了解学生对待解答问题所对应的知识点的掌握情况;观看录播的用户通过了解参与直播用户的学习情况来了解自身目前的知识水平情况,以在后续的学习中更好地沉浸到网络课堂。无论是对参与直播学习的用户而言还是对观看录制视频学习的用户而言,本申请实施例提供的视频生成方法均增强了用户与网络课堂之间的互动性。
在一可选实施例中,步骤S204中所述基于各所述用户分别对应的第一信息,得到第一图像的具体实施步骤包括步骤B1至步骤B2。
步骤B1:获取各所述用户分别对应的所述答案信息的提交时刻。
示例性的,一个用户的答案信息的提交时刻为该用户的终端设备11将答案信息上传至电子设备12的时刻。
示例性的,一个用户的答案信息的提交时刻为该用户的终端设备11检测到该用户停止答题的时刻。
例如,用户写完答案信息后,并未立即上传至电子设备12。若将终端设备11将答案信息上传至电子设备12的时刻作为提交时刻,并不准确,因此终端设备11需要确定用户停止答题的时刻。
例如,若用户在承载体上输写答案信息,用户在将答案信息上传至电子设备12之前,最后一次停止在承载体上输写的时刻即为用户停止答题的时刻。
步骤B2:基于各所述用户分别对应的所述答案信息的提交时刻、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述第一信息,得到第一图像。
示例性的,第一图像展示有各用户分别对应的第一信息,各用户分别对应的答案信息。
示例性的,第一图像还可以展示有各用户的答案信息的提交时刻,便于老师在查看各用户的答案信息时了解该用户针对待解答问题的答题快慢情况。
示例性的,第一图像中各用户分别对应的答案信息可按照提交答案信息的提交时刻早晚来排列。
示例性的,得到所有用户分别对应的答案信息后,按照提交时刻从早到晚的顺序同时展示在第一图像中。
示例性的,若参与直播的学生总共有20个,等待20个学生全部答题完毕后,将20个答案信息按照提交时刻从早到晚的顺序同时展示在第一图像中。
示例性的,每得到一个或多个用户的答案信息,就展示在第一图像中,即先提交先展示,使得观看视频的用户了解自身的答题进度。
示例性的,若参与直播的学生总共有20个,若当前时间为时间1,在时间1下有1个学生提交了答案信息,那么,在时间1下第一图像显示该学生的第一信息和答案信息。随着时间流逝,若当前时间为时间2,若在时间2又有2个学生提交了答案信息,那么,在时间2下,第一图像可以显示三个学生的第一信息和答案信息。
例如,用户E为参与直播的用户,当前正在对待解答问题进行作答,若时间刚过去5分钟,用户A和用户B已经上传答案信息,在第一图像中可以展示用户A和用户B的第一信息,和,用户A和用户B的答案信息,若用户A和用户B的第一信息均为该待解答问题的难度为简单,这时用户E就会了解到该待解答问题应该不难完成,需要加快解答该待解答问题的速度。若是多数人都认为该待解答问题简单,而用户E的作答时间过长或是答案不完全正确,那么用户E应该意识到自己针对该待解答问题所对应的知识点掌握的还不够,课后仍需多学习或是在后续课堂中更加认真听讲,因此增加了参与直播用户与网络课堂之间的互动性。
例如,用户F为观看录播视频的用户,在对待解答问题进行作答时,通过与参与直播的用户的作答情况进行比较,了解自己目前的知识水平情况,以及认清与参与直播用户之间的知识差距,若是差距较大,可以在课后多加学习与该待解答问题所对应知识点相关的内容,增强对知识点的理解,若是差距比较小,课后可以通过其他的习题来巩固提升或是将重点放在比较薄弱的知识点上。
步骤B2的实现方式有多种,本申请实施例提供但不限于以下三种,如图4a至4c所示,分别为本申请实施例提供的第一图像的另一种实现方式的示意图。
第一种实现方式:所述第一图像包括一个显示区域,所述显示区域按照各所述用户分别对应的所述答案信息的提交时刻从早到晚,依次显示相应用户对应的所述答案信息以及所述第一信息。
示例性的,在同一时刻,显示区域中显示一个用户对应的答案信息,在不同时刻,显示区域可以显示不同的用户对应的答案信息。
示例性的,根据各用户的答案信息的提交时刻的早晚,显示区域依次切换显示答案信息。
示例性的,若参与直播的学生总共有20个,若当前时间为时间1,在时间1下仅一个学生提交了答案信息,那么,该显示区域可以一直显示该学生的答案信息;随着时间的流逝,若当前时间为时间2,在时间2下又有两个学生提交了答案信息,那么,该显示区域可以切换显示三个学生分别对应的答案信息。
示例性的,假设显示区域显示的一个用户的答案信息的显示时长为设定时长,显示区域按照多个答案信息的提交时刻的时间顺序,从早到晚依次显示,即显示一个答案信息设定时长到达后自动切换至显示下一个用户的答案信息,依次类推。
示例性的,第一图像可以包括当前时间已提交答案信息的用户的数目。若学生或老师想要查看某个学生的答案信息可以通过相应按键切换至该学生的答案信息。
如图4a所示按键仅为示例,本申请实施例并不对按键的表现形式和位于第一图像的位置进行限定。
如图4a所示,可以点击按键41,显示区域43可切换显示提交时刻早于当前显示的答案信息的提交时刻的答案信息,点击按键42可切换显示提交时刻晚于当前显示的答案信息的提交时刻的答案信息。
示例性的,若在同一时刻下同时有多个学生提交了答案信息,可以将多个学生随机排序,或者,基于多个学生的用户名称的首字母进行排序,显示区域按照顺序依次切换显示多个学生的答案信息。
示例性的,若当前时间,已经有多个学生提交了答案信息,那么,显示区域显示每一答案信息的时长可以为设定时长。
示例性的,显示区域还可以展示自身展示的答案信息的提交时间。
第二种实现方式:所述第一图像包括一个显示区域以及多个显示图标;多个所述显示图标按照自身对应的用户的所述答案信息的提交时刻从早至晚依次布局在所述第一图像中;所述显示区域显示处于被选中状态的显示图标对应的用户的所述答案信息以及所述第一信息。
示例性的,多个所述显示图标也可以不按照自身对应的用户的答案信息的提交时刻从早至晚依次布局在第一图像中,多个显示图标可以随机布局在第一图像中。
示例性的,一个显示图标对应一个用户,显示图标可以为任意图形或任意图案,图4b所示的显示图标为方框44。
如图4b所示,所述第一图像中显示有多个显示图标,观看第二视频的用户可以选择一个显示图标44,图4b中用粗实线框出用户选择的显示图标,第一图像中的显示区域43可将显示图标44对应的用户的答案信息显示在显示区域43上。
示例性的,显示区域43还可以展示自身展示的答案信息的提交时间。
第三种实现方式:所述第一图像包括多个显示区域,一个所述显示区域显示一个用户对应的所述答案信息以及所述第一信息,多个所述显示区域是按照自身对应的用户的所述答案信息的提交时刻从早至晚依次布局在所述第一图像中。
示例性的,多个显示区域也可以不按照自身对应的用户的所述答案信息的提交时刻从早至晚依次布局在所述第一图像中,多个显示区域可以随机布局在第一图像中。
示例性的,每一显示区域还可以展示自身展示的答案信息的提交时间。
图4c中以显示区域为3个为例进行说明,三个显示区域分别为显示区域431、显示区域432以及显示区域433。
假设,显示区域431显示的答案信息的提交时刻早于显示区域432显示的答案信息的提交时刻;显示区域432显示的答案信息的提交时刻早于显示区域433显示的答案信息的提交时刻。
显示区域431、显示区域432以及显示区域433分别显示自身显示的答案信息,自身显示的答案信息对应的第一信息、自身显示的答案信息对应的提交时刻。
图4c所示三个显示区域的布局方式仅为示例,并不造成限定。
在一可选实现方式中,针对一个第一图像集合,可以仅生成一个第一图像(如上述三种实现方式中任一种第一图像),或者,可以生成多个第一图像(如上述三种实现方式中至少两种第一图像)。
示例性的,可以基于当前时间已经提交答案信息的学生的数目,确定生成哪种实现方式中的第一图像。例如,若当前时间已经提交答案信息的学生的数目小于或等于第一阈值,则生成第三种实现方式中的第一图像;随着时间流逝,若当前时间已经提交答案信息的学生的数目大于第一阈值,且,小于或等于第二阈值,则生成第二种实现方式中的第一图像;随着时间流逝,若当前时间已经提交答案信息的学生的数目大于第二阈值,则生成第一种实现方式的第一图像。
示例性的,在播放第一图像集合的过程中,在不同时间可以展示不同的第一图像。
第一阈值、第二阈值、第三阈值可以基于实际情况而定,这里不进行限定。
可以理解的是,老师在直播讲课的过程中,需要学生反馈是否听懂,以确定是否需要再次讲解相应知识点;学生在观看直播视频或录播视频的过程中,可能需要获知其他学生是否听懂,以确定自己掌握知识点的情况。基于此,在一可选实施例中,视频生成方法还包括:从所述第一视频中确定预设音频对应的至少一个第二图像集合,一个所述第二图像集合包括至少一帧时间连续的视频图像。
示例性的,所述预设音频为表示询问是否理解的语音,包括但不限于以下任一种:听明白了吗、我讲清楚了吗、理解我说的意思了吗、还有不理解的地方吗。
示例性的,一个第二图像集合包括至少一帧时间连续的视频图像,不同第二图像集合之间具有时间间隔。
示例性的,老师在讲课过程中,可能在不同时间发出预设音频,例如,老师讲完一道题目后,询问学生是否听懂,老师讲完另一到题目后,又询问学生是否听懂。
示例性的,一个时间的预设音频对应一个第二图像集合。
在不同应用场景中,一个预设音频对应的第二图像集合的数目不同。
第一种应用场景,针对同一内容多次讲解,并多次询问是否听懂。
例如,在直播过程中,老师可能针对一个题目或知识点反复讲解,以使得大部分学生都能听懂,例如,老师讲解题目A,讲解完毕后,询问“大家听懂了吗?”,然后又再次讲解题目A,讲解完毕后,又询问“大家听懂了吗?”,
在第一种应用场景中,可以将同一内容对应的多个预设音频看作一个音频,那么,该预设音频对应多个第二图像集合。
第二种应用场景,针对同一内容讲解一次,并询问一次是否听懂。
例如,在直播过程中,老师可能针对一个题目或知识点讲解一次,例如,老师讲解题目A,讲解完毕后,询问“大家听懂了吗?”,然后又开始讲解题目B。
在第二种应用场景中,该预设音频对应一个第二图像集合。
在一可选实现方式中,从所述第一视频中确定预设音频对应的每一第二图像集合的方式有多种,本申请实施例提供但不限于以下两种。
第一种实现方式:确定第一视频出现该预设音频的第一时刻,获取第一视频中以所述第一时刻为起始时刻的预设时间段的子视频,以得到第二图像集合。
示例性的,第二图像集合为第一视频中以所述第一时刻为起始时刻的预设时间段的子视频,或者,第二图像集合包括第一视频中以所述第一时刻为起始时刻的预设时间段的子视频中一帧或多帧视频图像。
示例性的,预设时间段可以基于实际情况确定,这里不进行限定。例如,预设时间段可以为1分钟,或2分钟,…。
例如,在第一视频中老师讲完一道题后询问“听懂了吗”,那么,将第一视频中出现“听懂了吗”时刻确定为第一时刻,获取第一视频中以第一时刻为起始时刻的预设时间段的子视频,以得到第二图像集合。
第二种实现方式:确定第一视频出现预设音频的第一时刻,确定第一视频出现下一预设音频的第二时刻,将第一视频中第一时刻至第二时刻之间的子视频确定为第二图像集合,或者,第二图像集合包括第一视频中第一时刻至第二时刻之间的子视频中的一帧或多帧视频图像。
例如,在第一视频中,老师讲完题目A后,询问“听懂了吗”(假设对应第一视频中第一时刻),老师讲完题目A后,又开始讲解题目B,老师讲完题目B后,询问“听明白了吗”(假设对应第一视频中第二时刻),那么,第二图像集合可以为第一视频中第一时刻至第二时刻之间的子视频,或者,第二图像集合可以包括第一视频中第一时刻至第二时刻之间的子视频中一帧或多帧视频图像。
例如,在第一视频中,老师在讲完题目A后询问“听懂了吗”(假设对应第一视频中第一时刻),等待学生回应一段时间后,又询问“那我往下讲下一道题了?”(假设对应第一视频中第二时刻),那么,第二图像集合可以为第一视频中第一时刻至第二时刻之间的子视频,或者,第二图像集合可以包括第一视频中第一时刻至第二时刻之间的子视频中一帧或多帧视频图像。
在一可选实施例中,针对每一所述第二图像集合,得到该第二图像集合对应的第二图像的过程可以包括以下步骤C1至步骤C4。
操作C1:获取在播放所述第二图像集合的过程中,各所述用户分别对应的表征自身响应所述预设音频的行为的听课行为信息。
示例性的,用户响应预设音频的行为可以发生在播放预设音频的过程中,或,发生在播放预设音频完毕之后。
例如,老师讲解完一道题目,在询问“听懂了吗”的过程中,用户G就表现出微笑的面部表情示意听懂了;在老师问完“听懂了吗”之后,用户H才点头示意听懂了;用户I在老师问完“听懂了吗”之后的一段时间里仍保持着眉头紧锁的表情,示意未听懂;在老师问完“听懂了吗”之后,用户G又翻书看了相关知识点后才点头示意听懂了。
示例性的,听课行为信息包括但不限于:肢体动作、面部表情、表征是否听懂的语音、触按直播客户端中相应按键中至少一种。
示例性的,肢体动作包括但不限于:点头、摇头、摆手势(例如,比“耶”、比“OK”)中的一个或多个;面部表情包括但不限于:紧皱眉头、微笑、哭脸中的一个或多个;表征是否听懂的语音包括但不限于:啊、哦、哈、不懂、明白、听懂了中至少一个;触按直播客户端中相应按键包括但不限于:触按听懂按键、触按未听懂按键、触按举手提问按键中的一个或多个。
步骤C2:基于各所述用户分别对应的听课行为信息,确定属于各理解等级的所述用户的用户数目。
示例性的,本申请实施例中的理解等级至少划分为两个等级,例如,理解等级包括两个等级,或,三个等级,或,四个等级,或五个等级,等等,具体可视实际情况而定。
示例性的,可以基于听课行为信息包含的肢体动作、面部表情、表征是否听懂的语音、触按直播客户端中相应按键中至少一种,确定理解等级。
下面以理解等级包括已经理解等级和仍未理解等级两个等级为例,对确定理解等级的过程进行说明。确定理解等级的过程包括步骤D1至步骤D4中至少一个步骤。
步骤D1:基于用户的肢体动作确定理解等级。
例如,若肢体动作为点头、比“耶”、比“OK”中任一个动作,确定理解等级为已经理解等级;若肢体动作为摇头、摆手中任一个动作,确定理解等级为仍未理解等级。
步骤D2:基于用户的面部表情确定理解等级。
例如,若面部表情为紧皱眉头、发呆、愣住中任一表情,确定理解等级为仍未理解等级;若面部表情为微笑或大笑的表情,确定理解等级为已经理解等级。
步骤D3:根据表征是否听懂的语音确定理解等级。
例如,若表征是否听懂的语音为啊、哈、咦、不懂、不理解、询问他人中至少一个声音,确定理解等级为仍未理解等级;若表征是否听懂的语音为原来如此、清楚了、明白、哦、嗯中至少一个声音,确定理解等级为已经理解等级。
步骤D4:根据触按直播客户端中相应按键确定理解等级。
例如,若触按直播客户端中的相应按键为听懂按键,确定理解等级为已经理解等级;若触按直播客户端中的相应按键为未听懂键或举手提问按键,确定理解等级为仍未理解等级。
步骤C3:基于至少一个所述第二图像集合分别对应的属于各理解等级的所述用户的用户数目,获得第二图像;
示例性的,第二图像在显示各理解等级所对应的用户数目时,可以显示参与直播的总人数,也可以不显示参与直播的总人数。
步骤C4:将所述第二图像叠加至所述至少一个第二图像集合上。
如图5所示,为本申请实施例提供的第二图像的一种实现方式的示意图。
在图5中,用黑色的三人图标表示仍未理解等级,白色的三人图标表示已经理解等级,假设该参与直播视频的学生的总人数为20人,假设当前时间确定仍未理解等级对应8人,已经理解等级对应12人,具体如图5所示。
可以理解的是,对于参与直播或是观看录播的用户而言,通过查看第二图像集合中显示的第二图像,可以直观地了解到其他用户的理解等级,判断自己的知识水平与他人的差距,适时调整自己的学习进度和学习状态;对于授课的老师而言,在输出预设音频之后,通过第二图像可以清楚地看到当前处于各理解等级的学生数目,以便调整授课方式,或,是否需要再次讲解,以大多数学生能接受的方式进行教学,提高教学质量。
在一可选实施例中,若预设音频对应多个第二图像集合,展示多个第二图像集合分别对应的第二图像的方式有多种,本申请实施例提供但不限于以下两种。
实现方式一:在所述第二视频播放到一个所述第二图像集合时,所述第二图像显示所述第二图像集合以及所述第二视频中位于所述第二图像集合之前的第二图像集合分别对应的属于各理解等级的所述用户的用户数目。
如图6a所示,为本申请实施例提供的第二视频中展示第二图像的另一种实现方式的示意图。
图6a中是以预设音频对应三个第二图像集合为例进行说明的。假设预设音频对应的三个第二图像集合分别为第二图像集合1、第二图像集合2以及第二图像集合3,三个第二图像集合在第一视频的位置分别为:第二图像集合1在第一视频的时间段为[15分20秒,20分5秒],第二图像集合2在第一视频的时间段为[25分20秒,29分5秒],第二图像集合3在第一视频的时间段为[35分20秒,40分5秒]。
假设,第二图像集合1对应的属于已经理解等级的学生数目为12人(图中用标号61表示),属于仍未理解等级的学生数目为8人(图中用标号62表示);第二图像集合2对应的属于已经理解等级的学生数目为15人(图中用标号63表示),属于仍未理解等级的学生数目为5人(图中用标号64表示);第二图像集合3对应的属于已经理解等级的学生数目为18人(图中用标号65表示),属于仍未理解等级的学生数目为2人(图中用标号66表示)。
在第二视频播放到第二图像集合1时,第二图像展示有第二图像集合1对应的属于各理解等级的用户数目;在第二视频播放到第二图像集合2时,第二图像展示有第二图像集合2对应的属于各理解等级的用户数目,以及,第二图像集合1对应的属于各理解等级的用户数目;在第二视频播放到第二图像集合3时,第二图像展示有第二图像集合3对应的属于各理解等级的用户数目,第二图像集合2对应的属于各理解等级的用户数目,以及,第二图像集合1对应的属于各理解等级的用户数目。
图6a是以第二视频播放到第二图像集合3为例进行说明的。
通过图6a,可以使得老师了解到自己多次讲解的效果,或者,可以使得观看第二视频的学生了解到自己的学习进度。
实现方式二:在所述第二视频播放到一个所述第二图像集合时,所述第二图像仅显示所述第二图像集合对应的属于各理解等级的所述用户的用户数目。
如图6b所示,为本申请实施例提供的第二图像的又一种实现方式的示意图。假设预设音频对应的三个第二图像集合,对这三个第二图像集合的说明,请参见图6a,这里不再赘述。
那么,在第二视频播放到该第二图像集合1时,第二图像仅显示第二图像集合1对应的属于各理解等级的用户数目;第二视频播放到该第二图像集合2时,第二图像仅显示第二图像集合2对应的属于各理解等级的用户数目;第二视频播放到该第二图像集合3时,第二图像仅显示第二图像集合3对应的属于各理解等级的用户数目。
图6b是以第二视频播放到该第二图像集合3为例进行说明的。
在一可选实施例中,第一图像叠加至第一图像集合,或,第二图像叠加值第二图像集合的实现方式有多种,本申请实施例提供但不限于以下两种。下面以第一图像叠加至第一图像集合为例进行说明。第二图像叠加至第二图像集合相同,不再赘述。
第一种实现方式:第一图像为用户界面窗口,将所述用户界面窗口悬浮叠加至所述第一图像集合上,以得到第二视频。
如图7a所示,为本申请实施例提供的第一图像集合的一种实现方式的示意图。如图7b所示,为本申请实施例提供的第一图像的一种实现方式的示意图。图7b所示第一图像叠加至图7a所示第一图像集合上,即可得到图4b所示图像。
可见,第一图像所对应的用户界面窗口是以悬浮的形式叠加到第一图像集合上,类似地的悬浮方式请参见图3,都是将第一图像所对应的用户界面窗口通过悬浮的方式叠加至第一图像集合中。
同理,所述第二图像为用户界面窗口,将所述第二图像叠加至所述至少一个第二图像集合上的具体实现方式与第一图像类似,这里不再赘述,具体的示意图可参见图5、图6a和图6b。
在一可选实施例中,若所述用户界面窗口悬浮叠加至所述第一图像集合上,所述用户界面窗口的至少局部区域的透明度大于0%,以使得第一图像悬浮叠加至所述第一图像集合后,还可以透过用户界面窗口的至少局部区域观看到第一图像集合中的内容,如图7b所示第一图像,该第一图像中除了显示图标所在区域以及显示区域以外的区域的透明度大于0%。
在一可选实施例中,用户界面窗口的透明度可以为0%,此时,用户无法透过用户界面窗口的至少局部区域看到第一图像集合中的内容。
第二种实现方式:将所述用户界面窗口与显示所述第一视频的视频窗口并列设置,以得到第二视频。
其中,所述并列设置可分为上下并列设置和左右并列设置。例如,用户界面窗口位于第一视频的左侧,或者,用户界面窗口位于第一视频的右侧,或者,用户界面窗口位于第一视频的上方,或者,用户界面窗口位于第一视频的下方。
如图8a至图8b所示,为本申请实施例提供的用户界面窗口与视频窗口并列显示的实现方式的示意图。
在图8a中,用户界面窗口81位于视频窗口82的下方。
在图8b中,用户界面窗口81位于视频窗口82的右侧。
上述本申请公开的实施例中详细描述了方法,对于本申请的方法可采用多种形式的装置实现,因此本申请还公开了一种装置,下面给出具体的实施例进行详细说明。
如图9所示,为本申请实施例提供的视频生成装置的一种实现方式的结构图,该装置包括:
第一确定模块91,用于从第一视频中确定第一图像集合,所述第一图像集合包括至少一帧时间连续的视频图像,一帧所述视频图像与待解答问题相对应;
第一获取模块92,用于获取在播放所述第一图像集合的过程中,各用户分别针对所述待解答问题的答案信息和答题行为信息;一个所述用户对应的答题行为信息为所述用户在得到所述答案信息的过程中的行为信息;
第二确定模块93,用于基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;
第三确定模块94,用于基于各所述用户分别对应的所述第一信息,得到第一图像;
生成模块95,用于将所述第一图像叠加至所述第一图像集合上,以得到第二视频。
在一可选实现方式中,第三确定模块包括:
第一获取单元,用于获取各所述用户分别对应的所述答案信息的提交时刻;
第二获取单元,用于基于各所述用户分别对应的所述答案信息的提交时刻、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述第一信息,得到第一图像。
在一可选实现方式中,所述第一图像包括一个显示区域,所述显示区域按照各所述用户分别对应的所述答案信息的提交时刻从早到晚,依次显示相应用户对应的所述答案信息以及所述第一信息;或,
所述第一图像包括一个显示区域以及多个显示图标;多个所述显示图标按照自身对应的用户的所述答案信息的提交时刻从早至晚依次布局在所述第一图像中;所述显示区域显示处于被选中状态的显示图标对应的用户的所述答案信息以及所述第一信息;或,
所述第一图像包括多个显示区域,一个所述显示区域显示一个用户对应的所述答案信息以及所述第一信息,多个所述显示区域是按照自身对应的用户的所述答案信息的提交时刻从早至晚依次布局在所述第一图像中。
在一可选实现方式中,视频生成装置还包括:
第四确定模块,用于从所述第一视频中确定预设音频对应的至少一个第二图像集合,一个所述第二图像集合包括至少一帧时间连续的视频图像;
对于每一所述第二图像集合,具有以下模块:
第二获取模块,用于获取在播放所述第二图像集合的过程中,各所述用户分别对应的表征自身响应所述预设音频的行为的听课行为信息;
第五确定模块,用于基于各所述用户分别对应的听课行为信息,确定属于各理解等级的所述用户的用户数目,以得到至少一个所述第二图像集合分别对应的属于各理解等级的所述用户的用户数目;
第三获取模块,用于基于至少一个所述第二图像集合分别对应的属于各理解等级的所述用户的用户数目,获得第二图像;
叠加模块,用于将所述第二图像叠加至所述至少一个第二图像集合上。
在一可选实现方式中,所述预设音频对应多个所述第二图像集合,在所述第二视频播放到一个所述第二图像集合时,所述第二图像显示所述第二图像集合以及所述第二视频中位于所述第二图像集合之前的第二图像集合分别对应的属于各理解等级的所述用户的用户数目;或,
所述预设音频对应多个所述第二图像集合,在所述第二视频播放到一个所述第二图像集合时,所述第二图像仅显示所述第二图像集合对应的属于各理解等级的所述用户的用户数目。
在一可选实现方式中,所述第一图像为用户界面窗口,生成模块包括:
第三获取单元,用于将所述用户界面窗口悬浮叠加至所述第一图像集合上,以得到第二视频;或,第四获取单元,用于将所述用户界面窗口与显示所述第一视频的视频窗口并列设置,以得到第二视频。
如图10所示,为本申请实施例提供的电子设备的一种实现方式的结构图,该电子设备包括:
存储器101,用于存储程序;
处理器102,用于执行所述程序,所述程序具体用于:
从第一视频中确定第一图像集合,所述第一图像集合包括至少一帧时间连续的视频图像,一帧所述视频图像与待解答问题相对应;
获取在播放所述第一图像集合的过程中,各用户分别针对所述待解答问题的答案信息和答题行为信息;一个所述用户对应的答题行为信息为所述用户在得到所述答案信息的过程中的行为信息;
基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;
基于各所述用户分别对应的所述第一信息,得到第一图像;
将所述第一图像叠加至所述第一图像集合上,以得到第二视频。
处理器102可能是一个中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit)。
电子设备还可以包括通信接口103以及通信总线104,其中,存储器101、处理器102以及通信接口103通过通信总线104完成相互间的通信。
本申请实施例还提供了一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如上述任一所述的视频生成方法实施例中包含的各个步骤。
需要说明的是,本说明书中的各个实施例中记载的特征可以相互替换或者组合。对于装置或系统类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种视频生成方法,包括:
从第一视频中确定第一图像集合,所述第一图像集合包括至少一帧时间连续的视频图像,一帧所述视频图像与待解答问题相对应;
获取在播放所述第一图像集合的过程中,各用户分别针对所述待解答问题的答案信息和答题行为信息;一个所述用户对应的答题行为信息为所述用户在得到所述答案信息的过程中的行为信息;行为信息包括用户在得到所述答案信息的过程中的动作信息、用户在得到所述答案信息的过程中的面部表情信息和用户在得到所述答案信息的过程中的语音信息中的至少一个;
基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;
基于各所述用户分别对应的所述第一信息,得到第一图像;
将所述第一图像叠加至所述第一图像集合上,以得到第二视频。
2.根据权利要求1所述视频生成方法,所述基于各所述用户分别对应的第一信息,得到第一图像包括:
获取各所述用户分别对应的所述答案信息的提交时刻;
基于各所述用户分别对应的所述答案信息的提交时刻、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述第一信息,得到第一图像。
3.根据权利要求2所述视频生成方法,所述第一图像包括一个显示区域,所述显示区域按照各所述用户分别对应的所述答案信息的提交时刻从早到晚,依次显示相应用户对应的所述答案信息以及所述第一信息;或,
所述第一图像包括一个显示区域以及多个显示图标;多个所述显示图标按照自身对应的用户的所述答案信息的提交时刻从早至晚依次布局在所述第一图像中;所述显示区域显示处于被选中状态的显示图标对应的用户的所述答案信息以及所述第一信息;或,
所述第一图像包括多个显示区域,一个所述显示区域显示一个用户对应的所述答案信息以及所述第一信息,多个所述显示区域是按照自身对应的用户的所述答案信息的提交时刻从早至晚依次布局在所述第一图像中。
4.根据权利要求1至3任一所述视频生成方法,在所述将所述第一图像叠加至所述第一图像集合上,以得到第二视频步骤之前,还包括:
从所述第一视频中确定预设音频对应的至少一个第二图像集合,一个所述第二图像集合包括至少一帧时间连续的视频图像;
对于每一所述第二图像集合,执行以下操作:
获取在播放所述第二图像集合的过程中,各所述用户分别对应的表征自身响应所述预设音频的行为的听课行为信息;
基于各所述用户分别对应的听课行为信息,确定属于各理解等级的所述用户的用户数目,以得到至少一个所述第二图像集合分别对应的属于各理解等级的所述用户的用户数目;
基于至少一个所述第二图像集合分别对应的属于各理解等级的所述用户的用户数目,获得第二图像;
将所述第二图像叠加至所述至少一个第二图像集合上。
5.根据权利要求4所述视频生成方法,所述预设音频对应多个所述第二图像集合,在所述第二视频播放到一个所述第二图像集合时,所述第二图像显示所述第二图像集合以及所述第二视频中位于所述第二图像集合之前的第二图像集合分别对应的属于各理解等级的所述用户的用户数目;或,
所述预设音频对应多个所述第二图像集合,在所述第二视频播放到一个所述第二图像集合时,所述第二图像仅显示所述第二图像集合对应的属于各理解等级的所述用户的用户数目。
6.根据权利要求1、2、3或5所述视频生成方法,所述第一图像为用户界面窗口,所述将所述第一图像叠加至所述第一图像集合上,以得到第二视频步骤包括:
将所述用户界面窗口悬浮叠加至所述第一图像集合上,以得到第二视频;
或,
将所述用户界面窗口与显示所述第一视频的视频窗口并列设置,以得到第二视频。
7.根据权利要求6所述视频生成方法,若所述用户界面窗口悬浮叠加至所述第一图像集合上,所述用户界面窗口的至少局部区域的透明度大于0%。
8.一种视频生成装置,包括:
第一确定模块,用于从第一视频中确定第一图像集合,所述第一图像集合包括至少一帧时间连续的视频图像,一帧所述视频图像与待解答问题相对应;
第一获取模块,用于获取在播放所述第一图像集合的过程中,各用户分别针对所述待解答问题的答案信息和答题行为信息;一个所述用户对应的答题行为信息为所述用户在得到所述答案信息的过程中的行为信息;行为信息包括用户在得到所述答案信息的过程中的动作信息、用户在得到所述答案信息的过程中的面部表情信息和用户在得到所述答案信息的过程中的语音信息中的至少一个;
第二确定模块,用于基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;
第三确定模块,用于基于各所述用户分别对应的所述第一信息,得到第一图像;
生成模块,用于将所述第一图像叠加至所述第一图像集合上,以得到第二视频。
9.一种电子设备,包括:
存储器,用于存储程序;
处理器,用于执行所述程序,所述程序具体用于:
从第一视频中确定第一图像集合,所述第一图像集合包括至少一帧时间连续的视频图像,一帧所述视频图像与待解答问题相对应;
获取在播放所述第一图像集合的过程中,各用户分别针对所述待解答问题的答案信息和答题行为信息;一个所述用户对应的答题行为信息为所述用户在得到所述答案信息的过程中的行为信息;行为信息包括用户在得到所述答案信息的过程中的动作信息、用户在得到所述答案信息的过程中的面部表情信息和用户在得到所述答案信息的过程中的语音信息中的至少一个;
基于所述待解答问题的标准答案、各所述用户分别对应的所述答案信息以及各所述用户分别对应的所述答题行为信息,确定各所述用户分别对应的表征解答所述待解答问题的难易程度的第一信息;
基于各所述用户分别对应的所述第一信息,得到第一图像;
将所述第一图像叠加至所述第一图像集合上,以得到第二视频。
10.一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如权利要求1至7任一项所述的视频生成方法中的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011156954.3A CN112367526B (zh) | 2020-10-26 | 2020-10-26 | 视频生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011156954.3A CN112367526B (zh) | 2020-10-26 | 2020-10-26 | 视频生成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112367526A CN112367526A (zh) | 2021-02-12 |
CN112367526B true CN112367526B (zh) | 2022-03-25 |
Family
ID=74510450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011156954.3A Active CN112367526B (zh) | 2020-10-26 | 2020-10-26 | 视频生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112367526B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035756B (zh) * | 2021-03-08 | 2024-09-24 | 北京有竹居网络技术有限公司 | 一种英语解题视频的生成方法、装置、电子设备及存储介质 |
CN114125537B (zh) * | 2021-11-29 | 2023-07-25 | Oook(北京)教育科技有限责任公司 | 直播教学的讨论方法、装置、介质和电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002140429A (ja) * | 2000-11-02 | 2002-05-17 | Japan Science & Technology Corp | 識別・反応計測方法、識別・反応計測プログラムを記録したコンピュータ読み取り可能な記録媒体及び識別・反応計測装置 |
CN106792215A (zh) * | 2016-12-12 | 2017-05-31 | 福建天晴数码有限公司 | 教育视频点播方法及其系统 |
CN108062381A (zh) * | 2017-12-13 | 2018-05-22 | 高艳 | 图像信息处理方法、装置和存储介质 |
JP6656447B1 (ja) * | 2019-03-27 | 2020-03-04 | ダイコク電機株式会社 | 動画出力システム |
CN111507872A (zh) * | 2020-04-09 | 2020-08-07 | 圆梦共享教育科技(深圳)有限公司 | 一个基于人工智能的精准测验难度分类方法 |
CN111586487A (zh) * | 2020-06-01 | 2020-08-25 | 联想(北京)有限公司 | 一种多媒体文件的播放方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106227335B (zh) * | 2016-07-14 | 2020-07-03 | 广东小天才科技有限公司 | 预习讲义与视频课程的交互学习方法及应用学习客户端 |
CN107343223B (zh) * | 2017-07-07 | 2019-10-11 | 北京慕华信息科技有限公司 | 视频片段的识别方法和装置 |
CN109429075A (zh) * | 2017-08-25 | 2019-03-05 | 阿里巴巴集团控股有限公司 | 一种直播内容处理方法、装置和系统 |
CN111541947A (zh) * | 2020-05-07 | 2020-08-14 | 天津洪恩完美未来教育科技有限公司 | 教学视频的处理方法、装置及系统 |
-
2020
- 2020-10-26 CN CN202011156954.3A patent/CN112367526B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002140429A (ja) * | 2000-11-02 | 2002-05-17 | Japan Science & Technology Corp | 識別・反応計測方法、識別・反応計測プログラムを記録したコンピュータ読み取り可能な記録媒体及び識別・反応計測装置 |
CN106792215A (zh) * | 2016-12-12 | 2017-05-31 | 福建天晴数码有限公司 | 教育视频点播方法及其系统 |
CN108062381A (zh) * | 2017-12-13 | 2018-05-22 | 高艳 | 图像信息处理方法、装置和存储介质 |
JP6656447B1 (ja) * | 2019-03-27 | 2020-03-04 | ダイコク電機株式会社 | 動画出力システム |
CN111507872A (zh) * | 2020-04-09 | 2020-08-07 | 圆梦共享教育科技(深圳)有限公司 | 一个基于人工智能的精准测验难度分类方法 |
CN111586487A (zh) * | 2020-06-01 | 2020-08-25 | 联想(北京)有限公司 | 一种多媒体文件的播放方法及装置 |
Non-Patent Citations (2)
Title |
---|
Mosaic Construction from Image Stream with Parallax;Man-tai Cheung 等;《Proceedings Second International Workshop on Digital and Computational Video》;20020807;第64-71页 * |
视听测试中考生观看行为影响因素的实证研究;高翔;《外语教学理论与实践》;20140131;第86-92页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112367526A (zh) | 2021-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Peng et al. | The mediation of multimodal affordances on willingness to communicate in the English as a foreign language classroom | |
Morett | When hands speak louder than words: The role of gesture in the communication, encoding, and recall of words in a novel second language | |
CN107203953A (zh) | 一种基于互联网、表情识别和语音识别的教学系统及其实现方法 | |
CN111833861B (zh) | 基于人工智能的事件评估报告生成 | |
CN109101879B (zh) | 一种vr虚拟课堂教学的姿态交互系统及实现方法 | |
Morett | In hand and in mind: Effects of gesture production and viewing on second language word learning | |
CN110009537B (zh) | 一种信息处理方法、装置、设备及存储介质 | |
CN116018789B (zh) | 在线学习中用于对学生注意力进行基于上下文的评估的方法、系统和介质 | |
US20220150287A1 (en) | System and method for an interactive digitally rendered avatar of a subject person | |
CN112367526B (zh) | 视频生成方法、装置、电子设备及存储介质 | |
CN110992222A (zh) | 教学交互方法、装置、终端设备及存储介质 | |
CN112652200A (zh) | 人机交互系统、方法、服务器、交互控制设备及存储介质 | |
CN111522970A (zh) | 习题推荐方法、装置、设备及存储介质 | |
US10580434B2 (en) | Information presentation apparatus, information presentation method, and non-transitory computer readable medium | |
CN109754653B (zh) | 一种个性化教学的方法及系统 | |
CN110767005A (zh) | 基于儿童专用智能设备的数据处理方法及系统 | |
CN113257060A (zh) | 一种答疑解决方法、装置、设备和存储介质 | |
Ahn et al. | Reality as genre | |
CN109191958B (zh) | 信息的交互方法、装置、终端及存储介质 | |
CN111050111A (zh) | 一种在线互动学习交流平台及其学习装置 | |
JP7130290B2 (ja) | 情報抽出装置 | |
US10593366B2 (en) | Substitution method and device for replacing a part of a video sequence | |
CN113570227A (zh) | 一种在线教育质量评估方法、系统、终端及存储介质 | |
Liu et al. | Design and Experimentation of Face Recognition Technology Applied to Online Live Class. | |
CN111899582B (zh) | 一种用于网络教学的信息处理方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |