CN104484040B - 一种多媒体互动教学控制系统及教学控制方法 - Google Patents
一种多媒体互动教学控制系统及教学控制方法 Download PDFInfo
- Publication number
- CN104484040B CN104484040B CN201410814274.4A CN201410814274A CN104484040B CN 104484040 B CN104484040 B CN 104484040B CN 201410814274 A CN201410814274 A CN 201410814274A CN 104484040 B CN104484040 B CN 104484040B
- Authority
- CN
- China
- Prior art keywords
- image
- point
- profile
- real
- steps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种多媒体互动教学控制系统及教学控制方法,包括:数据采集模块:采集视频流;其特征在于,还包括:抠像模块:对采集到的视频流进行处理,将感兴趣的运动目标提取出来,获取前景图像;影像合成模块:将获取的前景图像用异形窗口的形式在所有窗口的最前端实时显示;影像传输及实时显示模块:将教师机上的含有合成影像的异形窗口通过网络实时传输到学生机并进行实时显示。本系统通过摄像头获取教师讲课画面,通过网络实时传输给抠像模块进行前景人物图像的提取,通过影像合成模块将提取出的前景人物图像以异形窗口的形式与教师机正在播放的课件叠加,在教师机实时显示,同时将合成的影像以视频流的形式通过网络实时传输给学生机,教师“钻”进电脑里。
Description
技术领域
本发明涉及多媒体教学领域,具体地讲,涉及一种多媒体互动教学控制系统及教学控制方法。
背景技术
多媒体是信息化的体现,也是社会发展的趋势,信息化的水平已经成为衡量一个国家现代化水平和综合国力的重要标准,多媒体教育是信息化的一个部分,大力促进多媒体教育已成为教育发展的潮流。
教学中使用多媒体技术,有利于提高教师的专业水平,有利于教师整合教学资源。多媒体教学技术能弥补传统教学中的不足,是新型的科学教学技术。
现有大部分的多媒体教学系统虽然在功能方面已经比较齐全,但上课学生看电脑的时候看不到教师的表情、动作、肢体语言,因此会遗漏老师的肢体表达信息,除此之外,其互动性及趣味性也较差。
从采集的视频流中提取出效果比较好的前景人物图像是本系统的关键,为了提取效果较好的前景,需要找到好的抠像算法。
目前抠像技术主要有蓝箱、绿箱及背景移除。蓝箱、绿箱对环境要求较高,需要搭建纯色背景以及灯光;背景移除需要场景稳定,即摄像头画面中只有教师能动,但是对环境要求低。
现有的背景移除算法有帧差法、背景建模发和光流法。帧差法虽简单,但是提取出的运动目标存在空洞;背景建模方法对背景中存在规律运动性的背景效果好,但是并不能保证提取的运动目标不会存在空洞;光流法因其计算量大很少采用,这三种算法都有不足。此为现有技术的不足之处。
发明内容:
本技术方案要解决的技术问题是提供一种多媒体互动教学控制系统及教学控制方法,提高了课堂的趣味性,创新了教学模式,达到了更好的教学效果。
本发明通过如下技术手段实现发明目的:
一种多媒体互动教学控制系统,包括:
数据采集模块:采集视频流;其特征在于,还包括:
抠像模块:对采集到的视频流进行处理,将感兴趣的运动目标提取出来,获取前景图像;
影像合成模块:将获取的前景图像用异形窗口的形式在所有窗口的最前端实时显示;
影像传输及实时显示模块:将教师机上的含有合成影像的异形窗口通过网络实时传输到学生机并进行实时显示。
互动控制模块:对采集到的视频流进行处理,通过图像识别技术识别人物的轮廓并计算轮廓的中心点及凸包点从而确定手的位置,然后根据手的停留时间判断指令,从而做出相应的响应动作。
本发明还公开了一种多媒体互动教学控制方法,包括:
(1)利用摄像头进行数据采集,获取视频流;其特征是:
还包括如下步骤:
(2)对采集的视频流进行处理,将感兴趣的运动目标提取出来,获取前景图像;(3)将获取的前景图像用异形窗口的形式在所有窗口的最前端实时显示;
(4)将教师机上的含有合成影像的异形窗口通过网络实时传输到学生机并进行实时显示。
(5)对采集的视频流进行处理,识别视频流中人物的轮廓,确定手的位置,根据手的停留时间触发相应的操作。
作为对本技术方案的进一步限定,所述步骤(2)包括如下步骤:
(2.1)从视频流中选取一张无人和运动物体的图像作为背景图像;
(2.2)选择混合颜色空间中的不同颜色通道;
(2.3)获取摄像头当前帧图像,根据步骤(2.2)选择的颜色通道,分离出当前帧图像和步骤(2.1)中获取的背景图像中相对应的各颜色通道;
(2.4)当前帧图像进行运动检测,判断是否为所要检测的运动目标,若为检测的运动目标,则提取到该通道的前景,否则提取不到该通道的前景图像;
(2.5)将步骤(2.4)中获取的各颜色通道提取的前景图像进行或运算,得到效果较好的前景图像;
(2.6)根据步骤(2.5)计算得到的前景图像和当前帧的彩色图像进行掩码计算,得到彩色的前景图像;
(2.7)重复步骤(2.3)-(2.6),得到实时的前景图像,以视频流的形式输出。
作为对本技术方案的进一步限定,所述步骤(2.3)包括如下步骤:
设定L(x,y)为当前帧图像在某一颜色通道上的像素灰度值,设定B(x,y)为背景图像在某一颜色通道上的像素灰度值,设定d为前景图像在某一颜色通道上的像素灰度值,DB(x,y)为前景图像二值化以后的像素灰度值,T为设定的阀值,有:
d=|L(x,y)-B(x,y)|
若d>=T,则判定为需要检测的运动目标,可以提取到该通道的前景图像,
若d<T,则提取不到该通道的前景图像。
作为对本技术方案的进一步限定,所述步骤(3)包括如下步骤:
(3.1)创建主控窗口;
(3.2)主控窗口控制创建异形窗口;
(3.3)以异形窗口的形式实时显示前景图像。
作为对本技术方案的进一步限定,所述步骤(3.1)包括如下步骤:
(3.1.1)设置主控窗口大小及风格;
(3.1.2)设置主控窗口功能模块;
作为对本技术方案的进一步限定,所述步骤(3.2)包括如下步骤:
(3.2.1)异形窗口实时获取彩色的前景图像,作为异形窗口的背景位图;
(3.2.2)检查背景位图的像素颜色,进行透明区域处理,当某一区域像素颜色属于事先设定的透明区范围时,将此区域设定为透明区域,并从完整的区域中剪裁掉;
(3.2.3)透明区域裁剪结束,完整的前景人物图像以异形窗口的形式实时显示。
作为对本技术方案的进一步限定,所述步骤(5)包括如下步骤:
(5.1)打开摄像头获取背景,在无人的环境下,提取一幅比较纯净的图像作为背景;
(5.2)获取当前帧图像,提取人物前景的灰度图像;
具体步骤为:设定L(x,y)为当前帧图像的像素灰度值,B(x,y)为背景图像的像素灰度值,D(x,y)为前景图像的像素灰度值则有:
D(x,y)=|L(x,y)-B(x,y)|
(5.3)对灰度图像进行阈值计算,得到二值图像;
具体步骤为:假设f(x,y)为灰度图像中某一点的像素值,d(x,y)为二值图像中某一点的像素值,T为阈值,则有
(5.4)边缘梯度计算,检测到到人物的轮廓;
(5.5)确定手的位置,具体步骤为:
根据步骤(5.4)中检测到的人物轮廓,计算轮廓的中心点和轮廓的凸包点,根据得到的轮廓中心点和凸包点,分别计算在x方向和y方向上凸包点到轮廓中心点的距离,如果x方向的距离大于y方向上的距离,那么该凸包点位置就认为是手指的位置;
(5.6)重复步骤(5.2)-(5.5),获取实时的手的位置数据;
(5.7)触发响应事件进行事件响应,具体包括:
g1事件的触发,当连续3帧图像手指的位置都在一定的小范围内,那么就认为手指的位置在连续3帧之内位置没变,就触发点击事件;
g2根据当前图像的大小和桌面屏幕的分辨率进行转换,将手指在图像中的位置转换为桌面鼠标点击的位置,这样就可以实现手指位置到鼠标的点击响应位置的转换,位置转换公式具体为:
假设图像尺寸大小为(PicWidth,PicHight),桌面屏幕分辨率为(ScreenX,ScreenY),手指在图像中的位置为(PicX,PicY),桌面鼠标的点击位置为(x,y),则有:
作为对本技术方案的进一步限定,所述步骤(5.5)包括如下步骤:
计算轮廓凸包点的具体步骤为:
假设组成轮廓的点集为S,取集合中的任意两点p(x1,y1)和p(x2,y2),则这两点组成的直线为:ax+by=c,其中,a=y2-y1,b=x2-x1,c=x1y2-y1x2,将点集中的其他所有的点分别带入直线方程ax+by=c,若表达式的符号相同,都>c或者都<c,则表示上述两点为该轮廓的凸包点,否则便不是凸包点,
对轮廓的每对顶点进行检测,找到所有的凸包点;
计算轮廓中心点的具体步骤为:
遍历轮廓上所有的点,获取点的总个数,提取各点的坐标值;
N=∑I 1
求所有点坐标的平均值,得到轮廓的中心点
其中,轮廓点总个数为N,各点坐标值为mtx(x,y),中心点坐标为M(x,y)。
与现有技术相比,本发明的优点和积极效果是:本发明将教师讲课画面抠掉背景,将教师的形象、动作叠加在课件上,通过网络传输给学生终端,教师“钻”进学生电脑里,达到更好的教学效果;本系统利用基于多颜色通道和多颜色空间的背景移除抠像算法,根据环境选择不同颜色空间中的颜色通道,分别进行背景减除,然后将减除结果进行或运算,从而得到效果比较好的前景图像;基于异形窗口的影像合成技术主要包括异形窗口的设置和影像合成;将异形窗口设置成透明的,为了实现对异形窗口的控制,需要另外的窗口来对异形窗口进行控制,所以用于显示的异形窗口是副窗口,是依附于主控窗口的,通过主控窗口来控制异形窗口,将抠出来的人物图像用异形窗口的形式,在所有窗口的最上面进行实时显示,这样人物图像与实时背景图像(如教师机上正在演示的ppt、word等)相叠加,以视频流的形式通过网络传输给学生机进行实时显示;本发明互动控制模块,教师上课无需动用鼠标键盘等硬件设备,便可做到对课件的互动控制,上课方式将会更加灵活自如;整个发明提高了课堂的趣味性,创新了教学模式,达到了更好的教学效果。
附图说明
图1为本发明的原理方框图。
具体实施方式:
下面结合实施例,进一步说明本发明。
参见图1,本发明包括:
数据采集模块:采集视频流;还包括:
抠像模块:对采集到的视频流进行处理,将感兴趣的运动目标提取出来,获取前景图像;
影像合成模块:将获取的前景图像用异形窗口的形式在所有窗口的最前端实时显示;
影像传输及实时显示模块:将教师机上的含有合成影像的异形窗口通过网络实时传输到学生机并进行实时显示。
互动控制模块:对采集到的视频流进行处理,通过图像识别技术识别人体的轮廓并计算轮廓的中心点从而确定手的位置,然后根据手的停留时间判断指令,从而做出相应的响应动作。
一种多媒体互动教学方法,包括:
(1)利用摄像头进行数据采集,获取视频流;
还包括如下步骤:
(2)对采集的视频流进行处理,将感兴趣的运动目标提取出来,获取前景图像;
(3)将获取的前景图像用异形窗口的形式在所有窗口的最前端实时显示;
(4)将教师机上的含有合成影像的异形窗口通过网络实时传输到学生机并进行实时显示。
(5)对采集的视频流进行处理,识别视频流中人物的轮廓,确定手的位置,根据手的停留时间触发相应的操作。
所述步骤(2)包括如下步骤:
(2.1)从视频流中选取一张无人和运动物体的图像作为背景图像;
(2.2)选择混合颜色空间中的不同颜色通道;
(2.3)获取摄像头当前帧图像,根据步骤(2.2)选择的颜色通道,分离出当前帧图像和步骤(2.1)中获取的背景图像中相对应的各颜色通道;
(2.4)当前帧图像进行运动检测,判断是否为所要检测的运动目标,若为检测的运动目标,则提取到该通道的前景,否则提取不到该通道的前景图像;
(2.5)将步骤(2.4)中获取的各颜色通道提取的前景图像进行或运算,得到效果较好的前景图像;
(2.6)根据步骤(2.5)计算得到的前景图像和当前帧的彩色图像进行掩码计算,得到彩色的前景图像;
(2.7)重复步骤(2.3)-(2.6),得到实时的前景图像,以视频流的形式输出。
所述步骤(2.3)包括如下步骤:
设定L(x,y)为当前帧图像在某一颜色通道上的像素灰度值,设定B(x,y)为背景图像在某一颜色通道上的像素灰度值,设定d为前景图像在某一颜色通道上的像素灰度值,DB(x,y)为前景图像二值化以后的像素灰度值,T为设定的阀值,有:
d=|L(x,y)-B(x,y)|
若d>=T,则判定为需要检测的运动目标,可以提取到该通道的前景图像,
若d<T,则提取不到该通道的前景图像。
所述步骤(3)包括如下步骤:
(3.1)创建主控窗口;
(3.2)主控窗口控制创建异形窗口;
(3.3)以异形窗口的形式实时显示前景图像。
所述步骤(3.1)包括如下步骤:
(3.1.1)设置主控窗口大小及风格;
(3.1.2)设置主控窗口功能模块;主要包括:摄像头显示画面、摄像头开关、背景提取、抠图、调试窗口开关、通道及阀值选择等
所述步骤(3.2)包括如下步骤:
(3.2.1)异形窗口实时获取彩色的前景图像,作为异形窗口的背景位图;
(3.2.2)检查背景位图的像素颜色,进行透明区域处理,当某一区域像素颜色属于事先设定的透明区范围时,将此区域设定为透明区域,并从完整的区域中剪裁掉,裁剪方法采用现有技术,在此不再赘述。
(3.2.3)透明区域裁剪结束,完整的前景人物图像以异形窗口的形式实时显示。
所述步骤(5)包括如下步骤:
(5.1)打开摄像头获取背景,在无人的环境下,提取一幅比较纯净的图像作为背景;
(5.2)获取当前帧图像,提取人物前景的灰度图像;
具体步骤为:设定L(x,y)为当前帧图像的像素灰度值,B(x,y)为背景图像的像素灰度值,D(x,y)为前景图像的像素灰度值则有:
D(x,y)=|L(x,y)-B(x,y)|
(5.3)对灰度图像进行阈值计算,得到二值图像;
具体步骤为:假设f(x,y)为灰度图像中某一点的像素值,d(x,y)为二值图像中某一点的像素值,T为阈值,则有
(5.4)边缘梯度计算,检测到到人物的轮廓;
(5.5)确定手的位置,具体步骤为:
根据步骤(5.4)中检测到的人物轮廓,计算轮廓的中心点和轮廓的凸包点,根据得到的轮廓中心点和凸包点,分别计算在x方向和y方向上凸包点到轮廓中心点的距离,如果x方向的距离大于y方向上的距离,那么该凸包点位置就认为是手指的位置;
(5.6)重复步骤(5.2)-(5.5),获取实时的手的位置数据;
(5.7)触发响应事件进行事件响应,具体包括:
g1事件的触发,当连续3帧图像手指的位置都在一定的小范围内,那么就认为手指的位置在连续3帧之内位置没变,就触发点击事件;
g2根据当前图像的大小和桌面屏幕的分辨率进行转换,将手指在图像中的位置转换为桌面鼠标点击的位置,这样就可以实现手指位置到鼠标的点击响应位置的转换,位置转换公式具体为:
假设图像尺寸大小为(PicWidth,PicHight),桌面屏幕分表率为(ScreenX,ScreenY),手指在图像中的位置为(PicX,PicY),桌面鼠标的点击位置为(x,y),则有:
其中,x=screenX/picWidth*PicX;y=screenY/picHight*PicY
所述步骤(5.5)包括如下步骤:
计算轮廓凸包点的具体步骤为:
假设组成轮廓的点集为S,取集合中的任意两点p(x1,y1)和p(x2,y2),则这两点组成的直线为:ax+by=c(其中,a=y2-y1,b=x2-x1,c=x1y2-y1x2),将点集中的其他所有的点分别带入直线方程ax+by=c,若表达式的符号相同,都>c或者都<c,则表示上述两点为该轮廓的凸包点,否则便不是凸包点,
对轮廓的每对顶点进行检测,找到所有的凸包点;
计算轮廓中心点的具体步骤为:
遍历轮廓上所有的点,获取点的总个数,提取各点的坐标值;
N=∑I 1
求所有点坐标的平均值,得到轮廓的中心点
M(x,y)=(∑Imtx(x,y))/N
其中,轮廓点总个数为N,各点坐标值为mtx(x,y),中心点坐标为M(x,y)。
Claims (1)
1.一种多媒体互动教学控制方法,包括:
(1)利用摄像头进行数据采集,获取视频流;其特征是:
还包括如下步骤:
(2)对采集的视频流进行处理,将感兴趣的运动目标提取出来,获取前景图像;
(3)将获取的前景图像用异形窗口的形式在所有窗口的最前端实时显示;
(4)将教师机上的含有合成影像的异形窗口通过网络实时传输到学生机并进行实时显示;
(5)对采集的视频流进行处理,识别视频流中人物的轮廓,确定手的位置,根据手的停留时间触发相应的操作;
所述步骤(2)包括如下步骤:
(2.1)从视频流中选取一张无人和运动物体的图像作为背景图像;
(2.2)选择混合颜色空间中的不同颜色通道;
(2.3)获取摄像头当前帧图像,根据步骤(2.2)选择的颜色通道,分离出当前帧图像和步骤(2.1)中获取的背景图像中相对应的各颜色通道;
(2.4)当前帧图像进行运动检测,判断是否为所要检测的运动目标,若为检测的运动目标,则提取到该通道的前景,否则提取不到该通道的前景图像;
(2.5)将步骤(2.4)中获取的各颜色通道提取的前景图像进行或运算,得到效果较好的前景图像;
(2.6)根据步骤(2.5)计算得到的前景图像和当前帧的彩色图像进行掩码计算,得到彩色的前景图像;
(2.7)重复步骤(2.3)-(2.6),得到实时的前景图像,以视频流的形式输出;所述步骤(2.3)包括如下步骤:
设定L(x,y)为当前帧图像在某一颜色通道上的像素灰度值,设定B(x,y)为背景图像在某一颜色通道上的像素灰度值,设定d为前景图像在某一颜色通道上的像素灰度值,DB(x,y)为前景图像二值化以后的像素灰度值,T为设定的阀值,有:
d=|L(x,y)-B(x,y)|
若d>=T,则判定为需要检测的运动目标,可以提取到该通道的前景图像,
若d<T,则提取不到该通道的前景图像;
所述步骤(3)包括如下步骤:
(3.1)创建主控窗口;
(3.2)主控窗口控制创建异形窗口;
(3.3)以异形窗口的形式实时显示前景图像;
所述步骤(3.1)包括如下步骤:
(3.1.1)设置主控窗口大小及风格;
(3.1.2)设置主控窗口功能模块;
所述步骤(3.2)包括如下步骤:
(3.2.1)异形窗口实时获取彩色的前景图像,作为异形窗口的背景位图;
(3.2.2)检查背景位图的像素颜色,进行透明区域处理,当某一区域像素颜色属于事先设定的透明区范围时,将此区域设定为透明区域,并从完整的区域中剪裁掉;
(3.2.3)透明区域裁剪结束,完整的前景人物图像以异形窗口的形式实时显示;所述步骤(5)包括如下步骤:
(5.1)打开摄像头获取背景,在无人的环境下,提取一幅比较纯净的图像作为背景;
(5.2)获取当前帧图像,提取人物前景的灰度图像;
具体步骤为:设定L(x,y)为当前帧图像的像素灰度值,B(x,y)为背景图像的像素灰度值,D(x,y)为前景图像的像素灰度值则有:
D(x,y)=|L(x,y)-B(x,y)|
(5.3)对灰度图像进行阈值计算,得到二值图像;
具体步骤为:假设f(x,y)为灰度图像中某一点的像素值,d(x,y)为二值图像中某一点的像素值,T为阈值,则有
(5.4)边缘梯度计算,检测到到人物的轮廓;
(5.5)确定手的位置,具体步骤为:
根据步骤(5.4)中检测到的人物轮廓,计算轮廓的中心点和轮廓的凸包点,根据得到的轮廓中心点和凸包点,分别计算在x方向和y方向上凸包点到轮廓中心点的距离,如果x方向的距离大于y方向上的距离,那么该凸包点位置就认为是手指的位置;
(5.6)重复步骤(5.2)-(5.5),获取实时的手的位置数据;
(5.7)触发响应事件进行事件响应,具体包括:
g1事件的触发,当连续3帧图像手指的位置都在一定的小范围内,那么就认为手指的位置在连续3帧之内位置没变,就触发点击事件;
g2根据当前图像的大小和桌面屏幕的分辨率进行转换,将手指在图像中的位置转换为桌面鼠标点击的位置,这样就可以实现手指位置到鼠标的点击响应位置的转换,位置转换公式具体为:
假设图像尺寸大小为(PicWidth,PicHight),桌面屏幕分辨率为(ScreenX,ScreenY),手指在图像中的位置为(PicX,PicY),桌面鼠标的点击位置为(x,y),则有:
所述步骤(5.5)包括如下步骤:
计算轮廓凸包点的具体步骤为:
假设组成轮廓的点集为S,取集合中的任意两点p(x1,y1)和p(x2,y2),则这两点组成的直线为:ax+by=c,其中,a=y2-y1,b=x2-x1,c=x1y2-y1x2,将点集中的其他所有的点分别带入直线方程ax+by=c,若表达式的符号相同,都>c或者都<c,则表示上述两点为该轮廓的凸包点,否则便不是凸包点,
对轮廓的每对顶点进行检测,找到所有的凸包点;
计算轮廓中心点的具体步骤为:
遍历轮廓上所有的点,获取点的总个数,提取各点的坐标值;
N=∑I 1
求所有点坐标的平均值,得到轮廓的中心点
其中,轮廓点总个数为N,各点坐标值为mtx(x,y),中心点坐标为M(x,y)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410814274.4A CN104484040B (zh) | 2014-12-23 | 2014-12-23 | 一种多媒体互动教学控制系统及教学控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410814274.4A CN104484040B (zh) | 2014-12-23 | 2014-12-23 | 一种多媒体互动教学控制系统及教学控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104484040A CN104484040A (zh) | 2015-04-01 |
CN104484040B true CN104484040B (zh) | 2017-12-08 |
Family
ID=52758593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410814274.4A Active CN104484040B (zh) | 2014-12-23 | 2014-12-23 | 一种多媒体互动教学控制系统及教学控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104484040B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107229383B (zh) * | 2016-03-24 | 2019-07-02 | 北京京东尚科信息技术有限公司 | 一种窗口的显示方法和装置 |
CN107093337A (zh) * | 2017-06-07 | 2017-08-25 | 珠海思课技术有限公司 | 实景课堂的管理系统及其制作方法 |
CN107920213A (zh) * | 2017-11-20 | 2018-04-17 | 深圳市堇茹互动娱乐有限公司 | 视频合成方法、终端和计算机可读存储介质 |
CN108133630A (zh) * | 2017-12-26 | 2018-06-08 | 潍坊科技学院 | 一种用于政治治理的教学系统 |
CN110913267B (zh) * | 2019-11-29 | 2020-11-06 | 上海赛连信息科技有限公司 | 图像处理方法、装置、系统、界面、介质和计算设备 |
CN111144256B (zh) * | 2019-12-18 | 2023-04-25 | 南京大学 | 基于视频动态分析的电子表格公式合成与错误检测方法 |
CN111722902A (zh) * | 2020-06-15 | 2020-09-29 | 朱利戈 | 基于窗体透明化处理实现富媒体互动教学的方法和系统 |
CN115484466A (zh) * | 2021-05-31 | 2022-12-16 | 海信集团控股股份有限公司 | 在线演唱视频的显示方法和服务器 |
CN114915771A (zh) * | 2022-04-26 | 2022-08-16 | 深圳市企鹅网络科技有限公司 | 基于图像叠加的在线教学方法、系统、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101763762A (zh) * | 2008-12-22 | 2010-06-30 | 韩国电子通信研究院 | 使用虚拟现实的教育系统和方法 |
CN102157077A (zh) * | 2011-03-04 | 2011-08-17 | 杨少锋 | 一种多媒体互动式教学方法和装置 |
CN102200834A (zh) * | 2011-05-26 | 2011-09-28 | 华南理工大学 | 面向电视控制的指尖鼠标交互方法 |
CN102682638A (zh) * | 2012-05-21 | 2012-09-19 | 苏州汉清投资管理有限公司 | 多媒体教学系统 |
CN102999901A (zh) * | 2012-10-17 | 2013-03-27 | 中国科学院计算技术研究所 | 基于深度传感器的在线视频分割后的处理方法及系统 |
CN103337079A (zh) * | 2013-07-09 | 2013-10-02 | 广州新节奏智能科技有限公司 | 一种虚拟增强现实的教学方法及装置 |
-
2014
- 2014-12-23 CN CN201410814274.4A patent/CN104484040B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101763762A (zh) * | 2008-12-22 | 2010-06-30 | 韩国电子通信研究院 | 使用虚拟现实的教育系统和方法 |
CN102157077A (zh) * | 2011-03-04 | 2011-08-17 | 杨少锋 | 一种多媒体互动式教学方法和装置 |
CN102200834A (zh) * | 2011-05-26 | 2011-09-28 | 华南理工大学 | 面向电视控制的指尖鼠标交互方法 |
CN102682638A (zh) * | 2012-05-21 | 2012-09-19 | 苏州汉清投资管理有限公司 | 多媒体教学系统 |
CN102999901A (zh) * | 2012-10-17 | 2013-03-27 | 中国科学院计算技术研究所 | 基于深度传感器的在线视频分割后的处理方法及系统 |
CN103337079A (zh) * | 2013-07-09 | 2013-10-02 | 广州新节奏智能科技有限公司 | 一种虚拟增强现实的教学方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104484040A (zh) | 2015-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104484040B (zh) | 一种多媒体互动教学控制系统及教学控制方法 | |
CN112230772B (zh) | 一种虚实融合的教具自动生成方法 | |
CN111488773B (zh) | 一种动作识别方法、装置、设备及存储介质 | |
CN106952269A (zh) | 近邻可逆的视频前景物体序列检测分割方法及系统 | |
CN104469089A (zh) | 一种多媒体互动教学系统及教学方法 | |
Yusnita et al. | Implementation of real-time static hand gesture recognition using artificial neural network | |
CN110008961A (zh) | 文字实时识别方法、装置、计算机设备及存储介质 | |
CN112508750A (zh) | 人工智能教学装置、方法、设备及存储介质 | |
CN109064389A (zh) | 一种手绘线条画生成现实感图像的深度学习方法 | |
Balasuriya et al. | Learning platform for visually impaired children through artificial intelligence and computer vision | |
CN109086664A (zh) | 一种动静态融合的多态手势识别方法 | |
Hein et al. | Leap motion based myanmar sign language recognition using machine learning | |
Al-Obodi et al. | A Saudi Sign Language recognition system based on convolutional neural networks | |
CN110659702A (zh) | 基于生成式对抗网络模型书法字帖评价系统及方法 | |
Rishan et al. | Translation of sri lankan sign language to sinhala text: A leap motion technology-based approach | |
CN104461008B (zh) | 一种多媒体教学控制系统及控制方法 | |
Wang et al. | Developing and evaluating a novel gamified virtual learning environment for asl | |
CN112764530A (zh) | 一种基于触控手柄和增强现实眼镜的弹药识别方法 | |
CN116939288A (zh) | 视频生成方法及其装置、计算机设备 | |
CN114863763A (zh) | 一种手语互动学习机 | |
CN115375964A (zh) | 一种基于YOLOv5模型改进的方法及装置 | |
Enikeev et al. | Russian Fingerspelling Recognition Using Leap Motion Controller | |
Petkar et al. | Real Time Sign Language Recognition System for Hearing and Speech Impaired People | |
Naganandhini et al. | Hand Tracking Based Human-Computer Interaction Teaching System | |
CN112967317A (zh) | 一种动态环境下基于卷积神经网络架构的视觉里程计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20190927 Address after: Room 1401A, North Building, 9 Building, Shuntai Square, 2000 Shunhua Road, Jinan City, Shandong Province, 250101 Patentee after: Ji'nan Keming digital technology Limited by Share Ltd Address before: Fengming Road District of Ji'nan City, the development of the port in Shandong province 250101 Shandong Jianzhu University No. 1000 Patentee before: shandong jianzhu university |