CN115052194B - 学习报告生成方法、装置、电子设备及存储介质 - Google Patents
学习报告生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115052194B CN115052194B CN202210625413.3A CN202210625413A CN115052194B CN 115052194 B CN115052194 B CN 115052194B CN 202210625413 A CN202210625413 A CN 202210625413A CN 115052194 B CN115052194 B CN 115052194B
- Authority
- CN
- China
- Prior art keywords
- learning
- event
- occurrence
- user
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000006399 behavior Effects 0.000 claims abstract description 63
- 230000014509 gene expression Effects 0.000 claims description 30
- 230000008451 emotion Effects 0.000 claims description 20
- 230000002996 emotional effect Effects 0.000 claims description 11
- 238000011156 evaluation Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009191 jumping Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Databases & Information Systems (AREA)
- Hospice & Palliative Care (AREA)
- Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Networks & Wireless Communication (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Educational Administration (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本公开提供一种学习报告生成方法、装置、电子设备及存储介质,所述方法包括:获取用户在虚拟学习场景中当前课堂场次的学习数据;对学习数据进行分析,确定用户在当前课堂场次的学习行为数据,学习行为数据包括学习事件、所述学习事件的发生次数,以及所述学习事件的发生位置和/或发生时间;根据学习事件的发生位置和/或发生时间,将学习事件以及学习事件的发生次数展示在与虚拟学习场景对应的全景图中,以生成用户在当前课堂场次的学习报告。本方案生成的学习报告中包含了用户在课堂上发生的学习事件及事件发生次数,而不再单调地显示分值,丰富了学习报告的展示形式,方便了家长了解学生的课堂学习情况,简明易懂。
Description
技术领域
本公开涉及在线教育技术领域,尤其涉及一种学习报告生成方法、装置、电子设备及存储介质。
背景技术
为了便于家长了解学生的在线学习情况,在线教育平台通常会针对学生每一阶段的学习成果进行汇总,并将学生的学习成果以学习报告的形式呈现给学生、家长等相关人员。
目前,相关技术中,多是通过打分的方式来体现学生的学习成果,比如技能分5分、知识掌握程度4分等,再将各项分值汇总生成学习报告发送给家长。
然而,上述以打分的形式呈现学生的学习成果并制作成学习报告的方式比较固化、单一,并且仅向家长呈现相应的分值,使得家长不容易看懂学习报告,难以掌握学生的课堂表现情况。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开实施例提供了一种学习报告生成方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种学习报告生成方法,包括:
获取用户在虚拟学习场景中当前课堂场次的学习数据;
对所述学习数据进行分析,确定所述用户在所述当前课堂场次的学习行为数据,所述学习行为数据包括学习事件、所述学习事件的发生次数,以及所述学习事件的发生位置和/或发生时间;
根据所述学习事件的发生位置和/或发生时间,将所述学习事件以及所述学习事件的发生次数展示在与所述虚拟学习场景对应的全景图中,以生成所述用户在所述当前课堂场次的学习报告。
根据本公开的另一方面,提供了一种学习报告生成装置,包括:
获取模块,用于获取用户在虚拟学习场景中当前课堂场次的学习数据;
确定模块,用于对所述学习数据进行分析,确定所述用户在所述当前课堂场次的学习行为数据,所述学习行为数据包括学习事件、所述学习事件的发生次数,以及所述学习事件的发生位置和/或发生时间;
生成模块,用于根据所述学习事件的发生位置和/或发生时间,将所述学习事件以及所述学习事件的发生次数展示在与所述虚拟学习场景对应的全景图中,以生成所述用户在所述当前课堂场次的学习报告。
根据本公开的另一方面,提供了一种电子设备,包括:
处理器;以及
存储程序的存储器,
其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据前述一方面所述的学习报告生成方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据前述一方面所述的学习报告生成方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被处理器执行时实现前述一方面所述的学习报告生成方法。
本公开实施例中提供的一个或多个技术方案,通过获取用户在虚拟学习场景中当前课堂场次的学习数据,并对学习数据进行分析,确定用户在当前课堂场次的学习行为数据,学习行为数据包括学习事件、学习事件的发生次数,以及学习事件的发生位置和/或发生时间,进而根据学习事件的发生位置和/或发生时间,将学习事件以及学习事件的发生次数展示在与虚拟学习场景对应的全景图中,生成用户在当前课堂场次的学习报告,由此,生成的学习报告中包含了用户在课堂上发生的学习事件及事件发生次数,而不再单调地显示分值,丰富了学习报告的展示形式,方便了家长了解学生的课堂学习情况,简明易懂。
附图说明
在下面结合附图对于示例性实施例的描述中,本公开的更多细节、特征和优点被公开,在附图中:
图1示出了根据本公开一示例性实施例的学习报告生成方法的流程图;
图2示出了本公开一示例性实施例中视频文件在全景图中的展示效果示例图一;
图3示出了本公开一示例性实施例中视频文件在全景图中的展示效果示例图二;
图4示出了根据本公开另一示例性实施例的学习报告生成方法的流程图;
图5示出了根据本公开示例性实施例的学习报告生成装置的示意性框图;
图6示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
以下参照附图描述本公开提供的学习报告生成方法、装置、电子设备及存储介质。
图1示出了根据本公开一示例性实施例的学习报告生成方法的流程图,该方法可以由本公开实施例提供的学习报告生成装置执行,其中该装置可以采用软件和/或硬件实现,一般可集成在电子设备中,所述电子设备可以包括但不限于手机、电脑、平板电脑、服务器等设备。
如图1所示,该学习报告生成方法可以包括以下步骤:
步骤101,获取用户在虚拟学习场景中当前课堂场次的学习数据。
其中,虚拟学习场景可以是在线教育类的应用程序中的场景,比如直播课堂场景等。应用程序中的一门课程可以是一个虚拟学习场景,一门课程下可以包括一个或多个课堂场次,也就是说,一个虚拟学习场景下可以包括至少一个课堂场次。
本公开实施例中,在用户(学生)学习完虚拟学习场景中的当前课堂场次之后,学习报告生成装置可以获取用户的学习数据。
示例性地,用户在虚拟学习场景中当前课堂场次的学习记录可以缓存在缓冲区中,在学习结束后,从缓冲区获取当前课堂场次的学习数据,用于生成本场次的学习报告,并可在生成学习报告后将缓冲区缓存的学习记录删除,以节省缓存空间。
其中,学习数据可以包括但不限于以下数据中的至少一种:用户在当前课堂场次学习的视频文件,在当前课堂场次学习的过程中发生预设事件(比如演讲、回答问题、辩论、寻找知识卡片等)时的图像,用户在当前课堂场次的学习场景里的跟随、跳跃、视频拉流表情、行为轨迹、知识信息数据、音频文件等。
步骤102,对所述学习数据进行分析,确定所述用户在所述当前课堂场次的学习行为数据,所述学习行为数据包括学习事件、所述学习事件的发生次数,以及所述学习事件的发生位置和/或发生时间。
本公开实施例中,获取了用户在当前课堂场次的学习数据后,可以对学习数据进行分析,从学习数据中提取出用户在当前课堂场次中发生的各种学习事件,以及每种学习事件的发生次数,还可以提取出各学习事件的发生位置和/或发生时间。
其中,学习事件可以包括但不限于演讲、辩论、回答问题、寻找知识卡片等,当学习时间为寻找知识卡片时,学习行为数据中还可以包括寻找到的知识卡片的个数。
示例性地,学习数据为用户在当前课堂场次学习的视频文件,则可以采用常用的视频帧提取、图像识别等技术,从视频文件中提取出用户发生预设学习事件的时间和/或地点,并统计用户在同一发生时间或地点发生相同预设学习时间的次数,对提取的数据进行整合后,得到学习行为数据,学习行为数据中可以包括至少一条数据,每条数据对应一个学习事件及其相关信息,相关信息包括发生次数、发生位置和/或发生时间。其中,预设学习事件可以是根据不同的虚拟学习场景预先设置的,学习行为数据中包含的学习事件不大于预设学习事件。
示例性地,学习数据包括用户在当前课堂场次的学习场景里的跟随、跳跃、视频拉流表情、行为轨迹、知识信息数据、音频文件等,则可以对不同的数据采用不同的技术进行处理,得到多种维度的数据作为学习行为数据。比如,对于视频拉流表情数据,可以通过常用的特征提取算法、表情预测模型等进行表情识别,得到表情类别;对于知识信息数据,可以统计出用户掌握的知识信息、找到的知识卡片等;对于音频文件,可以通过高斯混合模型识别声音中的情绪,将情绪分类为快乐、悲伤、愤怒和中性中的一种;对于跟随、跳跃、行为轨迹等数据,可以通过路径点技术、方向存储、路径停留等算法,分析用户的行为。
步骤103,根据所述学习事件的发生位置和/或发生时间,将所述学习事件以及所述学习事件的发生次数展示在与所述虚拟学习场景对应的全景图中,以生成所述用户在所述当前课堂场次的学习报告。
其中,全景图是与虚拟学习场景对应的图,每个虚拟学习场景对应的全景图可以预先生成并存储在资源包中,当生成学习报告需要获取全景图时,可以根据虚拟学习场景的场景标识,从资源包中找到对应的全景图。
能够理解的是,本公开实施例中,全景图是对虚拟学习场景的还原,将三维的虚拟学习场景还原为至少一个二维图像,利用至少一个二维图像拼接得到该虚拟学习场景对应的全景图。
本公开实施例中,确定了用户在当前课堂场次学习过程中发生的学习事件、各学习事件的发生次数,以及各学习事件的发生位置和/或发生时间等学习行为数据之后,可以根据学习事件的发生位置和/或发生时间,将学习事件以及学习事件的发生次数展示在与虚拟学习场景对应的全景图中,生成用户在当前课堂场次的学习报告。
示例性地,学习行为数据包括学习事件、学习事件的发生位置和学习事件的发生次数,则可以在生成学习报告时,从全景图上找到各个学习事件的发生位置,并依次在各个学习事件的发生位置处展示学习事件和该学习事件的发生次数。
示例性地,学习行为数据包括学习事件、学习事件的发生时间和学习事件的发生次数,则可以在生成学习报告时,按照各个学习事件的发生时间的先后顺序,在全景图上依次展示学习事件和对应的发生次数。
示例性地,学习行为数据包括学习事件、学习事件的发生位置、发生时间和学习事件的发生次数,则可以在生成学习报告时,从全景图上找到各个学习事件的发生位置,并依次在各个学习事件的发生位置处展示学习事件和该学习事件的发生次数、发生时间;或者,可以按照各个学习事件的发生时间的先后顺序,在全景图上依次展示学习事件和对应的发生次数、发生位置;或者,可以结合各个学习事件的发生位置和发生时间,在全景图上选择合适区域显示学习事件及对应的发生次数。
能够理解的是,本公开实施例中,在全景图上展示学习事件,可以展示学习事件的名称,也可以展示能够表示学习事件的图标,本公开对学习事件的展示形式不作限制。
本公开实施例的学习报告生成方法,通过获取用户在虚拟学习场景中当前课堂场次的学习数据,并对学习数据进行分析,确定用户在当前课堂场次的学习行为数据,学习行为数据包括学习事件、学习事件的发生次数,以及学习事件的发生位置和/或发生时间,进而根据学习事件的发生位置和/或发生时间,将学习事件以及学习事件的发生次数展示在与虚拟学习场景对应的全景图中,生成用户在当前课堂场次的学习报告。采用上述技术方案,生成的学习报告中包含了用户在课堂上发生的学习事件及事件发生次数,而不再单调地显示分值,丰富了学习报告的展示形式,方便了家长了解学生的课堂学习情况,简明易懂。
在本公开的一种可选实施方式中,学习行为数据中包含的学习事件可以为多个,所述根据所述学习事件的发生位置和/或发生时间,将所述学习事件以及所述学习事件的发生次数展示在与所述虚拟学习场景对应的全景图中,包括:
根据所述当前课堂场次的场次标识,从所述全景图中确定出与所述当前课堂场次对应的目标场景图像;
根据多个所述学习事件中每个所述学习事件的发生位置和/或发生时间,在所述目标场景图像中添加与每个所述学习事件对应的节点;
将每个所述学习事件和所述学习事件的发生次数,展示在与每个所述学习事件对应的节点处。
示例性地,本公开实施例中,在根据虚拟学习场景还原出对应的全景图时,可以依次还原出虚拟学习场景中的每个课堂场次对应的场景图像,每个课堂场次对应唯一的场景标识,并利用场景图像拼接得到全景图,在拼接时,可以记录课堂场次的场景标识与对应的场景图像在全景图中的位置之间的映射关系,从而,在生成学习报告时,可以根据当前课堂场次的场景标识,查询上述映射关系,从全景图中确定出与当前课堂场次对应的目标场景图像。
之后,可以根据多个学习事件中每个学习事件的发生位置和/或发生时间,在目标场景图像中添加与每个学习事件对应的节点,进而将每个学习事件和对应的发生次数,展示在与每个学习事件对应的节点处,由此,生成了用户在当前课堂场次的学习报告。
比如,可以根据每个学习事件的发生位置,从目标全景图像上找到对应的位置进行打点,得到各学习事件对应的节点,进而将在该发生位置处发生的学习事件和发生次数展示在该节点处。
又比如,可以根据每个学习事件的发生时间,按照发生时间的先后顺序,在目标全景图像的对应区域内进行打点,得到各学习事件对应的节点,进而将在该发生位置处发生的学习事件和发生次数展示在该节点处。另外,还可以在各节点处展示学习事件的发生时间,以方便家长获取事件发生的时间信息。
又比如,当有的学习事件有发生时间,有的学习时间有发生位置,有的学习事件既有发生时间又有发生位置时,可以根据发生时间和发生位置,从目标场景图像上确定各个学习事件对应的节点,并在节点处展示相关的学习事件及发生次数。
在本公开实施例中,通过在学习事件为多个时,按照每个学习事件的发生位置和/或发生时间,在当前课堂场次对应的目标场景图像中确定对应的节点,并在节点处展示学习事件及其发生次数,由此,方便了家长了解学习在课堂上的学习情况,丰富学习报告的展示形式。
进一步地,在本公开的一种可选实施方式中,学习行为数据中还可以包括用户在当前课堂场次的行为轨迹数据,其中,行为轨迹数据可以从学习数据中分析得到,比如可以从学习数据中获取用户在不同时刻的位置信息作为行为轨迹数据。从而,本公开实施例中,所述根据多个所述学习事件中每个所述学习事件的发生位置和/或发生时间,在所述目标场景图像中添加与每个所述学习事件对应的节点,包括:
根据所述行为轨迹数据,在所述目标场景图像中绘制对应的行为轨迹;
根据多个所述学习事件中每个所述学习事件的发生位置和/或发生时间,确定所述行为轨迹上与所述发生位置和/或发生时间对应的目标点;
对所述目标点进行标记,得到与每个所述学习事件对应的节点。
本公开实施例中,行为轨迹数据可以包括用户在当前课堂场次中,在不同时刻所处的位置信息,当确定的学习行为数据中包括用户在当前课堂场次的行为轨迹数据时,可以根据行为轨迹数据,在当前课堂场次对应的目标场景图像中绘制对应的行为轨迹,再根据多个学习事件中每个学习事件的发生时间和/或发生位置,从绘制的行为轨迹上确定出与发生位置和/或发生时间对应的目标点,并对目标点进行标记,得到与各个学习事件对应的节点。由此,在当前课堂场次对应的目标场景图像中还原了用户的行为轨迹,方便了家长了解学生上课时的行为轨迹,并且,通过在行为轨迹上找到与学习事件的发生时间或发生地点对应的目标点并标记为节点,使得各个学习事件的相关信息能够更加直观地展示出来,提高了学习报告的展示效果。
在本公开的一种可选实施方式中,当从学习数据中确定的学习事件为预设的目标事件时,确定的学习行为数据中还可以包括用户完成学习事件(即目标事件)的视频文件,从而,本实施例中,还可以按照预设的展示形式,在全景图上与当前课堂场次对应的目标场景图像中展示视频文件,以将用户完成目标事件时的相关视频展示给家长,方便家长观看学生的高光事件。
其中,目标事件可以是根据需求预先设定的,比如,可以预先设置目标事件为演讲、辩论等中的至少一个。
示例性地,假设学习数据为学习视频,目标事件为演讲,则对学习数据进行分析,如果分析出用户在学习过程中进行了演讲,则可以从学习视频中截取出用户演讲时的演讲视频作为学习行为数据的一部分,并在生成学习报告时,按照预设的展示形式在全景图上与当前课堂场次对应的目标场景图像中展示演讲视频。
其中,展示形式可以是但不限于是能够跳转至相关视频文件的展示页面的链接入口、网址等,比如可以在目标事件的展示节点处显示类似于“高光时刻,快进来看看吧”的提示消息,并将该提示消息设置为链接的形式,或者在消息旁边设置视频观看入口,当家长点击时可以跳转至相关视频的展示页面。或者,展示形式也可以是在目标事件的展示节点处或目标场景图像中的空白位置处,直接展示相关视频文件,当家长点击展示的相关视频文件的播放按钮时,直接在全景图中播放相关视频文件。
图2示出了本公开一示例性实施例中视频文件在全景图中的展示效果示例图一,图2中,虚拟学习场景对应的全景图包括4个场景图像,分别为场景图像一、场景图像二、场景图像三和场景图像四,其中,当前课堂场次对应的目标场景图像为场景图像二。目标事件为演讲,在演讲事件对应的节点处,展示学习事件“演讲”及发生次数“1次”,以及展示提示消息“高光时刻,快进来看看吧”,其中,对提示消息加下划线表示该提示消息为链接形式,当家长点击图2所示的提示消息时,跳转至视频文件的展示页面。
图3示出了本公开一示例性实施例中视频文件在全景图中的展示效果示例图二,图3中,虚拟学习场景对应的全景图包括4个场景图像,分别为场景图像一、场景图像二、场景图像三和场景图像四,其中,当前课堂场次对应的目标场景图像为场景图像二。目标事件为演讲,在演讲事件对应的节点处,展示学习事件“演讲”及发生次数“1次”,以及展示用户演讲的演讲视频,图3中,演讲视频中的图标表示播放按钮,当家长点击该图标时,开始播放演讲视频。
在本公开实施例中,通过在学习事件为预设的目标事件时,学习行为数据还包括用户完成学习事件的视频文件,在生成学习报告时,还按照预设的展示形式,在全景图上与当前课堂场次对应的目标场景图像中展示视频文件,由此,实现了对于目标事件代表的高光时刻,生成的学习报告中展示相关的视频文件,方便了家长观看学生的高光时刻的表现。
在本公开的一种可选实施方式中,所述学习数据为所述用户在所述当前课堂场次的学习视频,如图4所示,在前述实施例的基础上,所述学习报告生成方法,还可以包括以下步骤:
步骤201,从所述学习视频中获取所述用户的声音数据和/或表情图像。
示例性地,可以采用相关的音频提取算法,从学习视频中获取用户的声音数据,可以采用相关的视频帧提取算法,从学习视频中提取出表情图像。
其中,在提取表情图像时,可以每隔预设帧数从学习视频中提取一帧图像作为表情图像;或者,可以识别学习视频中用户的表情变化,当用户的表情发生变化时,截取一帧或多帧图像作为表情图像;或者,也可以选择其他的截取策略从学习视频中获取表情图像,本公开对此不作限制。
步骤202,根据所述声音数据和/或所述表情图像,确定所述用户的情绪特征。
其中,情绪特征可以包括但不限于快乐/开心、悲伤、愤怒和中性等。
本公开实施例中,在获取了用户的声音数据和/或表情图像后,可以根据声音数据和/或表情图像,确定用户在当前课堂场次的情绪特征。
示例性地,可以利用预先训练好的高斯混合模型,根据用户的声音数据来确定用户的情绪特征;可以采用梯度方向直方图(Histogram of Oriented Gradient,HOG)特征提取算法、预先训练的表情识别模型等,对用户的表情图像进行处理,确定用户的表情特征;或者,还可以利用收集的表情图和声音来训练得到一个情绪识别模型,并根据获取的表情图像和声音数据,利用情绪识别模型来预测用户的情绪特征。
步骤203,根据所述情绪特征,确定所述用户对所述当前课堂场次对应的课程内容的喜爱度。
本公开实施例中,确定了用户的情绪特征之后,可以根据情绪特征,确定用户对当前课堂场次对应的课程内容的喜爱度。
能够理解的是,不同的课堂上讲授的课程内容有所不同,学生对课程内容的喜爱程度也不同,而用户在课堂上的情绪通常能够反映出用户对课程内容的喜爱程度,比如,用户在课堂上比较开心,则用户喜爱该课堂上所讲授的知识的概率较大,如果用户在课堂上的情绪比较平缓,则用户可能对课程内容不太感兴趣。因此本公开实施例中,可以根据用户在当前课堂场次的情绪特征,预测用户对当前课堂场次对应的课程内容的喜爱度。
示例性地,如果用户的情绪特征为开心,则可以确定用户对当前课堂场次对应的课程内容的喜爱度为五星;如果用户的情绪特征为中性,则可以确定用户对当前课堂场次对应的课程内容的喜爱度为三星;如果用户的情绪特征为愤怒或悲伤,则可以确定用户对当前课堂场次对应的课程内容的喜爱度为一星。
示例性地,如果确定的情绪特征为多个,则可以根据每个情绪特征出现的次数,或者每个情绪特征持续的时长,从多个情绪特征中确定出现次数最多,或者持续时长最长的目标情绪特征,进而根据目标情绪特征确定用户对当前课堂场次对应的课程内容的喜爱度。
步骤204,将所述喜爱度展示在所述全景图上与所述当前课堂场次对应的目标场景图像上。
本公开实施例中,确定了用户对当前课堂场次对应的课程内容的喜爱度之后,可以将确定的喜爱度展示在全景图上与当前课堂场次对应的目标场景图像上。
示例性地,可以通过爱心图标的个数来体现用户对课程内容的喜爱度,比如,当用户在当前课堂场次的情绪特征主要为开心时,确定用户对课程内容的喜爱度为五颗爱心,并将五颗爱心展示在全景图上与当前课堂场次对应的目标场景图像上。比如,可以将爱心图标展示在目标场景图像中最上边的中间位置;又比如,可以将爱心图标展示在目标场景图像中的空白位置。
本公开实施例的学习报告生成方法,当学习数据为用户在当前课堂场次的学习视频时,通过从学习视频中获取用户的声音数据和/或表情图像,并根据声音数据和/或表情图像,确定用户的情绪特征,进而根据情绪特征,确定用户对当前课堂场次对应的课程内容的喜爱度,并将喜爱度展示在全景图上与当前课堂场次对应的目标场景图像上,由此,实现了根据用户在课堂上的声音数据和/或表情图像来确定用户对课程内容的喜爱度,并通过在学习报告中展示喜爱度,方便了家长了解学生喜欢的课程内容,丰富了学习报告的展示内容和形式。
一门课程可能被划分为多个课堂场次进行讲授,当学生学习完最后一个课堂场次时,学生或家长可能存在希望了解学生对整门课程的学习情况的需求,为了满足这一需求,在本公开的一种可选实施方式中,在当前课堂场次所属的目标课程包括多个课堂场次的情况下,所述方法还包括:
在所述当前课堂场次为所述目标课堂的最后一个课堂场次时,获取所述用户在所述多个课堂场次中的每个课堂场次的学习报告;
根据所述每个课堂场次的学习报告,生成所述用户对所述目标课程的总学习报告。
本公开实施例中,一门课程可以包括多个课堂场次,用户每学习完一个课堂场次的课程内容,会生成该课堂场次的学习报告。当用户学习的当前课堂场次为目标课堂所包含的多个课堂场次中的最后一个课堂场次时,用户学习完当前课堂场次的课程内容后,可以获取用户在多个课堂场次中的每个课堂场次的学习报告。其中,目标课程是指当前课堂场次所属的课程,目标课程可以包括多个课堂场次。
能够理解的是,获取的用户在多个课堂场次中的每个课堂场次的学习报告,包括用户学习完当前课堂场次(即目标课程中的最后一个课堂场次)后生成的当前课堂场次对应的学习报告,以及用户学习完目标课程的其他课堂场次后生成的学习报告。
之后,可以根据获取的每个课堂场次的学习报告,生成用户对目标课程的总学习报告。
示例性地,在生成用户对目标课程的总学习报告时,可以将获取的每个课堂场次的学习报告,按照课堂场次的先后顺序进行叠加,生成用户对目标课程的总学习报告。这种方式生成的总学习报告中包括多个全景图,每个全景图均是与目标课程对应的图像,且每个全景图上包含一个课堂场次的学习报告,当用户或家长查看总学习报告时,可以通过翻页的方式查看不同课堂场次的学习报告。
示例性地,在生成用户对目标课程的总学习报告时,可以从获取的每个课堂场次的学习报告中,裁剪出课堂场次对应的场景图像,即从全景图中裁剪出仅包含用户学习成果的场景图像,之后,按照课堂场次的先后顺序对裁剪的各个场景图像进行拼接,生成总学习报告。这种方式生成的总学习报告中包括一张全景图,是由各个场景图像拼接得到的,该全景图上包含每个课堂场次的学习报告,当用户或家长查看总学习报告时,可以通过拖拽的方式查看不同课堂场次的学习报告。
在本公开实施例中,在当前课堂场次所属的目标课程包括多个课堂场次的情况下,通过在当前课堂场次为目标课堂的最后一个课堂场次时,获取用户在所述多个课堂场次中的每个课堂场次的学习报告,并根据每个课堂场次的学习报告,生成用户对目标课程的总学习报告,由此,实现了对一门课程下的多个课堂场次的学习报告进行汇总,方便了家长了解学生对整门课程的学习情况,也丰富了学习报告的展示形式。
进一步地,在本公开的一种可选实施方式中,在生成总学习报告时,还可以获取用户在每个课堂场次发生每种学习事件的次数,并针对每种学习事件,按照课堂场次次序将每种学习事件的次数展示在总学习报告中。
本公开实施例中,当一门课程包括多个课堂场次时,还可以获取用户在每个课堂场次发生每种学习事件的次数,比如,可以从用户在每个课堂场次对应的学习报告中,获取用户在各个课堂场次中发生每种学习事件的次数,并针对每种学习事件,对各课堂场次中用户发生该学习事件的次数,按照课堂场次次序进行排序展示在总学习报告中。
示例性地,假设目标课程包含A、B和C三个课堂场次,其中,A为第一个课堂场次,C为最后一个课堂场次。在课堂场次A中,用户演讲1次,回答问题5次;在课堂场次B中,用户演讲0次,回答问题3次;在课堂场次C中,用户演讲2次,回答问题4次,则在总学习报告中,除了展示用户在A、B和C三个课堂场次的学习报告外,还可以展示如下内容:
各课堂演讲次数:1 0 2
各课堂回答问题次数:5 3 4。
需要说明的是,本公开对上述内容在总学习报告中的展示位置不作限制,可以根据实际需求进行设置上述内容的展示位置。另外,本公开对于每种学习事件在各课堂场次的发生次数按照课程场次次序进行展示的展示形式也不作限制,可以如上述展示内容所示以文字描述形式展示,也可以将每种学习事件的发生次数放在坐标轴中显示,其中,坐标轴的横轴为课堂场次,纵轴为各学习事件的发生次数,并可以将同种学习事件的发生次数进行连线,以直观地展示每种学习事件的发生次数在各课堂场次中的变化情况。
在本公开实施例中,通过获取用户在每个课堂场次发生每种学习事件的次数,并针对每种学习事件,按照课堂场次次序将每种学习事件的次数展示在总学习报告中,由此,实现了对每个课堂场次下发生各种学习事件的次数进行汇总并按序展示,使得家长能够直观、快速地了解学生在各课堂场次中发生各种学习事件的次数变化情况,也丰富了学习报告的展示形式和展示内容。
在本公开的一种可选实施方式中,还可以统计每种学习事件中言论类的学习事件发生的总次数,并在所述总次数大于预设次数阈值的情况下,在总学习报告中展示预设评价信息。
其中,言论类的学习事件、预设次数阈值、以及预设评价信息均可以根据实际需求进行设置。比如,可以预先设置言论类的学习事件包括演讲、辩论和回答问题;可以预先设置预设次数阈值为5次,以及可以预先设置预设评价信息包括爱表达。
本公开实施例中,可以预先设置属于言论类的学习事件,并根据预设的言论类学习事件,从用户在目标课程的各个课堂场次中发生的每种学习事件中,找到属于言论类的学习事件,并根据用户发生的每种言论类的学习事件的次数,统计得到用户发生言论类的学习事件的总次数,进而将得到的总次数与预设次数阈值进行比较,当总次数大于预设次数阈值时,则确定用户满足了获得预设评价信息的要求,为用户打上预设评价信息的标签,并将预设评价信息展示在学习报告中。
示例性地,可以将预设评价信息展示在总学习报告中的用户姓名处。通常,学生报告中会包括学生的姓名、年级等基本信息,以方便查阅人知道这是哪个学生的学习报告。因此本公开实施例中,可以将预设评价信息展示在总学习报告中的用户姓名处,以提高总学习报告中展示内容的协调性。
在本公开实施例中,通过统计每种学习事件中言论类的学习事件发生的总次数,并在总次数大于预设次数阈值的情况下,在总学习报告中展示预设评价信息,由此,实现了为爱发言的学生打上预设评价标签,方便了家长了解学生的上课表现情况及性格,也丰富了学习报告的展示内容。
本公开示例性实施例还提供了一种学习报告生成装置。图5示出了根据本公开示例性实施例的学习报告生成装置的示意性框图,如图5所示,该学习报告生成装置30包括:获取模块301、确定模块302和生成模块303。
其中,获取模块301,用于获取用户在虚拟学习场景中当前课堂场次的学习数据;
确定模块302,用于对所述学习数据进行分析,确定所述用户在所述当前课堂场次的学习行为数据,所述学习行为数据包括学习事件、所述学习事件的发生次数,以及所述学习事件的发生位置和/或发生时间;
生成模块303,用于根据所述学习事件的发生位置和/或发生时间,将所述学习事件以及所述学习事件的发生次数展示在与所述虚拟学习场景对应的全景图中,以生成所述用户在所述当前课堂场次的学习报告。
可选地,所述学习事件为多个,所述生成模块303包括:
确定单元,用于根据所述当前课堂场次的场次标识,从所述全景图中确定出与所述当前课堂场次对应的目标场景图像;
添加单元,用于根据多个所述学习事件中每个所述学习事件的发生位置和/或发生时间,在所述目标场景图像中添加与每个所述学习事件对应的节点;
展示单元,用于将每个所述学习事件和所述学习事件的发生次数,展示在与每个所述学习事件对应的节点处。
可选地,所述学习行为数据还包括所述用户在所述当前课堂场次的行为轨迹数据,所述添加单元,还用于:
根据所述行为轨迹数据,在所述目标场景图像中绘制对应的行为轨迹;
根据多个所述学习事件中每个所述学习事件的发生位置和/或发生时间,确定所述行为轨迹上与所述发生位置和/或发生时间对应的目标点;
对所述目标点进行标记,得到与每个所述学习事件对应的节点。
可选地,当所述学习事件为预设的目标事件时,所述学习行为数据还包括所述用户完成所述学习事件的视频文件;所述学习报告生成装置30还包括:
第一展示模块,用于按照预设的展示形式,在所述全景图上与所述当前课堂场次对应的目标场景图像中展示所述视频文件。
可选地,所述学习数据为所述用户在所述当前课堂场次的学习视频,所述学习报告生成装置30还包括:
情绪信息获取模块,用于从所述学习视频中获取所述用户的声音数据和/或表情图像;
情绪特征确定模块,用于根据所述声音数据和/或所述表情图像,确定所述用户的情绪特征;
喜爱度确定模块,用于根据所述情绪特征,确定所述用户对所述当前课堂场次对应的课程内容的喜爱度;
第二展示模块,用于将所述喜爱度展示在所述全景图上与所述当前课堂场次对应的目标场景图像上。
可选地,所述当前课堂场次所属的目标课程包括多个课堂场次,所述学习报告生成装置30还包括:
报告获取模块,用于在所述当前课堂场次为所述目标课堂的最后一个课堂场次时,获取所述用户在所述多个课堂场次中的每个课堂场次的学习报告;
所述生成模块303,还用于:
根据所述每个课堂场次的学习报告,生成所述用户对所述目标课程的总学习报告。
可选地,所述学习报告生成装置30还包括:
事件次数获取模块,用于获取所述用户在所述每个课堂场次发生每种学习事件的次数;
第三展示模块,用于针对所述每种学习事件,按照课堂场次次序将所述每种学习事件的次数展示在所述总学习报告中。
可选地,所述学习报告生成装置30还包括:
统计模块,用于统计所述每种学习事件中言论类的学习事件发生的总次数;
第四展示模块,用于在所述总次数大于预设次数阈值的情况下,在所述总学习报告中展示预设评价信息。
本公开实施例所提供的学习报告生成装置,可执行本公开实施例所提供的任意可应用于电子设备的学习报告生成方法,具备执行方法相应的功能模块和有益效果。本公开装置实施例中未详尽描述的内容可以参考本公开任意方法实施例中的描述。
本公开示例性实施例还提供一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器。所述存储器存储有能够被所述至少一个处理器执行的计算机程序,所述计算机程序在被所述至少一个处理器执行时用于使所述电子设备执行根据本公开实施例的学习报告生成方法。
本公开示例性实施例还提供一种存储有计算机程序的非瞬时计算机可读存储介质,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的学习报告生成方法。
本公开示例性实施例还提供一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的学习报告生成方法。
参考图6,现将描述可以作为本公开的服务器或客户端的电子设备1100的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,电子设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(RAM)1103中的计算机程序,来执行各种适当的动作和处理。在RAM 1103中,还可存储设备1100操作所需的各种程序和数据。计算单元1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
电子设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106、输出单元1107、存储单元1108以及通信单元1109。输入单元1106可以是能向电子设备1100输入信息的任何类型的设备,输入单元1106可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入。输出单元1107可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元1108可以包括但不限于磁盘、光盘。通信单元1109允许电子设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理。例如,在一些实施例中,学习报告生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1102和/或通信单元1109而被载入和/或安装到电子设备1100上。在一些实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行学习报告生成方法。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
如本公开使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
Claims (10)
1.一种学习报告生成方法,其中,所述方法包括:
获取用户在虚拟学习场景中当前课堂场次的学习数据;
对所述学习数据进行分析,确定所述用户在所述当前课堂场次的学习行为数据,所述学习行为数据包括学习事件、所述学习事件的发生次数,以及所述学习事件的发生位置和/或发生时间;
根据所述学习事件的发生位置和/或发生时间,将所述学习事件以及所述学习事件的发生次数展示在与所述虚拟学习场景对应的全景图中,以生成所述用户在所述当前课堂场次的学习报告,其中,所述全景图是对所述虚拟学习场景的还原,通过将三维的虚拟学习场景还原为至少一个二维图像,依次还原出所述虚拟学习场景中的每个课堂场次对应的场景图像,拼接所述场景图像得到所述全景图;
所述学习事件为多个,所述根据所述学习事件的发生位置和/或发生时间,将所述学习事件以及所述学习事件的发生次数展示在与所述虚拟学习场景对应的全景图中,包括:
根据所述当前课堂场次的场次标识,从所述全景图中确定出与所述当前课堂场次对应的目标场景图像;
根据多个所述学习事件中每个所述学习事件的发生位置和/或发生时间,在所述目标场景图像中添加与每个所述学习事件对应的节点;
将每个所述学习事件和所述学习事件的发生次数,展示在与每个所述学习事件对应的节点处。
2.如权利要求1所述的学习报告生成方法,其中,所述学习行为数据还包括所述用户在所述当前课堂场次的行为轨迹数据,所述根据多个所述学习事件中每个所述学习事件的发生位置和/或发生时间,在所述目标场景图像中添加与每个所述学习事件对应的节点,包括:
根据所述行为轨迹数据,在所述目标场景图像中绘制对应的行为轨迹;
根据多个所述学习事件中每个所述学习事件的发生位置和/或发生时间,确定所述行为轨迹上与所述发生位置和/或发生时间对应的目标点;
对所述目标点进行标记,得到与每个所述学习事件对应的节点。
3.如权利要求1或2所述的学习报告生成方法,其中,当所述学习事件为预设的目标事件时,所述学习行为数据还包括所述用户完成所述学习事件的视频文件;
并且其中,所述方法还包括:
按照预设的展示形式,在所述全景图上与所述当前课堂场次对应的目标场景图像中展示所述视频文件。
4.如权利要求1或2所述的学习报告生成方法,其中,所述学习数据为所述用户在所述当前课堂场次的学习视频,所述方法还包括:
从所述学习视频中获取所述用户的声音数据和/或表情图像;
根据所述声音数据和/或所述表情图像,确定所述用户的情绪特征;
根据所述情绪特征,确定所述用户对所述当前课堂场次对应的课程内容的喜爱度;
将所述喜爱度展示在所述全景图上与所述当前课堂场次对应的目标场景图像上。
5.如权利要求1所述的学习报告生成方法,其中,所述当前课堂场次所属的目标课程包括多个课堂场次,所述方法还包括:
在所述当前课堂场次为所述目标课程的最后一个课堂场次时,获取所述用户在所述多个课堂场次中的每个课堂场次的学习报告;
根据所述每个课堂场次的学习报告,生成所述用户对所述目标课程的总学习报告。
6.如权利要求5所述的学习报告生成方法,其中,所述方法还包括:
获取所述用户在所述每个课堂场次发生每种学习事件的次数;
针对所述每种学习事件,按照课堂场次次序将所述每种学习事件的次数展示在所述总学习报告中。
7.如权利要求6所述的学习报告生成方法,其中,所述方法还包括:
统计所述每种学习事件中言论类的学习事件发生的总次数;
在所述总次数大于预设次数阈值的情况下,在所述总学习报告中展示预设评价信息。
8.一种学习报告生成装置,其中,所述装置包括:
获取模块,用于获取用户在虚拟学习场景中当前课堂场次的学习数据;
确定模块,用于对所述学习数据进行分析,确定所述用户在所述当前课堂场次的学习行为数据,所述学习行为数据包括学习事件、所述学习事件的发生次数,以及所述学习事件的发生位置和/或发生时间;
生成模块,用于根据所述学习事件的发生位置和/或发生时间,将所述学习事件以及所述学习事件的发生次数展示在与所述虚拟学习场景对应的全景图中,以生成所述用户在所述当前课堂场次的学习报告,其中,所述全景图是对所述虚拟学习场景的还原,通过将三维的虚拟学习场景还原为至少一个二维图像,依次还原出所述虚拟学习场景中的每个课堂场次对应的场景图像,拼接所述场景图像得到所述全景图;
所述学习事件为多个,所述生成模块包括:
确定单元,用于根据所述当前课堂场次的场次标识,从所述全景图中确定出与所述当前课堂场次对应的目标场景图像;
添加单元,用于根据多个所述学习事件中每个所述学习事件的发生位置和/或发生时间,在所述目标场景图像中添加与每个所述学习事件对应的节点;
展示单元,用于将每个所述学习事件和所述学习事件的发生次数,展示在与每个所述学习事件对应的节点处。
9. 一种电子设备,包括:
处理器;以及
存储程序的存储器,
其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据权利要求1-7中任一项所述的学习报告生成方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的学习报告生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210625413.3A CN115052194B (zh) | 2022-06-02 | 2022-06-02 | 学习报告生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210625413.3A CN115052194B (zh) | 2022-06-02 | 2022-06-02 | 学习报告生成方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115052194A CN115052194A (zh) | 2022-09-13 |
CN115052194B true CN115052194B (zh) | 2023-05-02 |
Family
ID=83160411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210625413.3A Active CN115052194B (zh) | 2022-06-02 | 2022-06-02 | 学习报告生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115052194B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064811A (zh) * | 2018-09-03 | 2018-12-21 | 温州大学 | 一种基于vr虚拟课堂的教学系统 |
CN112017085A (zh) * | 2020-08-18 | 2020-12-01 | 上海松鼠课堂人工智能科技有限公司 | 智能虚拟教师形象人格化方法 |
CN113095969A (zh) * | 2021-03-11 | 2021-07-09 | 华中师范大学 | 一种基于多虚拟化身的沉浸式翻转课堂教学系统及其工作方法 |
CN113506484A (zh) * | 2021-07-06 | 2021-10-15 | 清控道口财富科技(北京)股份有限公司 | 利用虚拟现实技术的教育教学系统及其教学方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060141426A1 (en) * | 2004-12-23 | 2006-06-29 | Inventec Corporation | Virtual scene interactive language learning system and method |
JP7452016B2 (ja) * | 2020-01-09 | 2024-03-19 | 富士通株式会社 | 学習データ生成プログラム、及び学習データ生成方法 |
CN112001990B (zh) * | 2020-07-31 | 2024-01-09 | 天津洪恩完美未来教育科技有限公司 | 基于场景的数据处理方法及装置、存储介质、电子装置 |
CN112069970B (zh) * | 2020-08-31 | 2022-10-04 | 首都师范大学 | 课堂教学事件分析方法及装置 |
CN112613780B (zh) * | 2020-12-29 | 2022-11-25 | 北京市商汤科技开发有限公司 | 一种学习报告生成的方法、装置、电子设备及存储介质 |
CN114187792B (zh) * | 2021-12-17 | 2022-08-05 | 湖南惟楚有才教育科技有限公司 | 一种基于互联网课堂教学管理系统及方法 |
-
2022
- 2022-06-02 CN CN202210625413.3A patent/CN115052194B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064811A (zh) * | 2018-09-03 | 2018-12-21 | 温州大学 | 一种基于vr虚拟课堂的教学系统 |
CN112017085A (zh) * | 2020-08-18 | 2020-12-01 | 上海松鼠课堂人工智能科技有限公司 | 智能虚拟教师形象人格化方法 |
CN113095969A (zh) * | 2021-03-11 | 2021-07-09 | 华中师范大学 | 一种基于多虚拟化身的沉浸式翻转课堂教学系统及其工作方法 |
CN113506484A (zh) * | 2021-07-06 | 2021-10-15 | 清控道口财富科技(北京)股份有限公司 | 利用虚拟现实技术的教育教学系统及其教学方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115052194A (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7069778B2 (ja) | ビデオベースの通信におけるコンテンツキュレーションのための方法、システム及びプログラム | |
CN110033659B (zh) | 一种远程教学互动方法、服务器、终端以及系统 | |
CN107203953B (zh) | 一种基于互联网、表情识别和语音识别的教学系统及其实现方法 | |
CN106227335B (zh) | 预习讲义与视频课程的交互学习方法及应用学习客户端 | |
US20200082928A1 (en) | Assisting psychological cure in automated chatting | |
CN110568984A (zh) | 在线教学方法、装置、存储介质及电子设备 | |
US10607504B1 (en) | Computer-implemented systems and methods for a crowd source-bootstrapped spoken dialog system | |
CN114339285B (zh) | 知识点的处理方法、视频处理方法、装置及电子设备 | |
CN111711834B (zh) | 录播互动课的生成方法、装置、存储介质以及终端 | |
CN110111611B (zh) | 信息处理方法、装置、介质和电子设备 | |
CN109154948B (zh) | 用于提供内容的方法和装置 | |
US20220309949A1 (en) | Device and method for providing interactive audience simulation | |
US20140295400A1 (en) | Systems and Methods for Assessing Conversation Aptitude | |
CN111343507A (zh) | 在线授课方法、装置、存储介质和电子设备 | |
CN112131361B (zh) | 一种答题内容推送方法及装置 | |
CN110546678B (zh) | 儿童教育系统中计算导出的评估 | |
US10380912B2 (en) | Language learning system with automated user created content to mimic native language acquisition processes | |
KR102196917B1 (ko) | 영어 말하기 평가 시스템 및 방법 | |
WO2023241360A1 (zh) | 在线课堂的语音交互方法、装置、设备及存储介质 | |
CN113257060A (zh) | 一种答疑解决方法、装置、设备和存储介质 | |
CN113253838A (zh) | 基于ar的视频教学方法、电子设备 | |
CN113542797A (zh) | 视频播放中的互动方法、装置及计算机可读存储介质 | |
CN111523343B (zh) | 阅读互动方法、装置、设备、服务器及存储介质 | |
CN115052194B (zh) | 学习报告生成方法、装置、电子设备及存储介质 | |
US10593366B2 (en) | Substitution method and device for replacing a part of a video sequence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |