CN115599216A - 一种互动式教育机器人及互动方法 - Google Patents

一种互动式教育机器人及互动方法 Download PDF

Info

Publication number
CN115599216A
CN115599216A CN202211326823.4A CN202211326823A CN115599216A CN 115599216 A CN115599216 A CN 115599216A CN 202211326823 A CN202211326823 A CN 202211326823A CN 115599216 A CN115599216 A CN 115599216A
Authority
CN
China
Prior art keywords
interactive
state
user
touch screen
processing server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211326823.4A
Other languages
English (en)
Inventor
姚思丞
陈琪丰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Baostep Auto Parts Industrial Ltd
Original Assignee
Guangzhou Baostep Auto Parts Industrial Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Baostep Auto Parts Industrial Ltd filed Critical Guangzhou Baostep Auto Parts Industrial Ltd
Priority to CN202211326823.4A priority Critical patent/CN115599216A/zh
Publication of CN115599216A publication Critical patent/CN115599216A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开了一种互动式教育机器人及互动方法,包括有:机头部,包括有用于进行触屏互动教育的触控屏,及设置在触控屏两侧位置的语音播放喇叭;机身部,包括有用于支撑机头部的支体,该支体内设置有与触控屏相接的处理服务器,该支体上设置有电子笔卡槽,电子笔卡槽内卡入有与触控屏相配合的电子笔;摄像装置,包括有安装在机头部上的金属软杆,及安装在金属软杆上的摄像头,该摄像头用于对人体头部进行图像采集,并将采集结果发送至处理服务器;处理服务器,用于对人体头部的图像采集结果进行分析,基于分析的结果判断用户的学习状态;该互动式教育机器人及互动方法能够在儿童分心或走神时,进行及时提醒互动,提高教育学习效果。

Description

一种互动式教育机器人及互动方法
技术领域
本发明涉及一种互动式教育机器人及互动方法。
背景技术
随着人工智能技术、计算机技术等相关技术的发展,对智能机器人的研究越来越多。在教育领域,许多院校已在学生中开设了机器人学方面的有关课程。为了满足机器人学方面的有关课程教学示范和实验教学的需求,我们研制开发了全方位的轮式移动机器人,可以作为各种智能控制方法(包括动态避障、群体协作策略)的良好载体,同时又可以方便的构成网络化的分布式系统,开展多智能体的调度、规划等研究。
现有的互动式教育机器人存在着互动性不足,难以针对于儿童的学习教育状态进行互动和提醒的情况,在儿童分心或走神时,未有及时的进行提醒,导致教育学习的效果不佳。
发明内容
针对现有技术中的不足,本发明的目的是提供一种能够在儿童分心或走神时,进行及时提醒互动,提高教育学习效果的互动式教育机器人及互动方法。
本发明解决其技术问题所采用的技术方案是:
一种互动式教育机器人,包括有:
机头部,包括有用于进行触屏互动教育的触控屏,及设置在触控屏两侧位置的语音播放喇叭,该语音播放喇叭经由触控屏的触发进行交互语音的播放;
机身部,包括有用于支撑机头部的支体,该支体内设置有与触控屏相接的处理服务器,该支体上设置有电子笔卡槽,电子笔卡槽内卡入有与触控屏相配合的电子笔;
摄像装置,包括有安装在机头部上的金属软杆,及安装在金属软杆上的摄像头,该摄像头用于对人体头部进行图像采集,并将采集结果发送至处理服务器;
处理服务器,用于对人体头部的图像采集结果进行分析,基于分析的结果判断用户的学习状态,并发送交互指令至语音播放喇叭进行播放。
作为优选,该电子笔卡槽内设有感应模块,该感应模块与电子笔形成触发反馈,并将触发反馈结果发送至处理服务器,该处理服务器接收触发反馈结果进行启闭作业。
本发明所要解决的另一技术问题为提供一种互动式教育机器人的互动方法,包括以下步骤:
处理服务器和触控屏接收感应模块的反馈后进行启动;
触控屏接收电子笔输入的互动信息并发送至处理服务器进行互动教育;
摄像装置采集机头部位置的人体头部图像数据,并发送至处理服务器;
处理服务器对人体头部图像数据进行眨眼分析,并基于分析结果判断用户的学习状态;
当用户的学习状态为走神状态时,则发送提醒交互指令至语音播放喇叭进行播放;
当用户的学习状态为正常状态时,则发送鼓励交互指令至语音播放喇叭进行播放。
作为优选,对人体头部图像数据进行分析的方法为:
对采集的人体头部的图像进行人眼图像初步定位,得到人眼图像;
对人眼图像进行预处理,得到矫正图像;
对矫正图像进行虹膜轮廓和虹膜边界点的识别;
对矫正图像进行巩膜轮廓和巩膜边界点的识别;
基于虹膜轮廓和虹膜边界点,巩膜轮廓和巩膜边界点,确定人眼眼裂高度及人眼睁开高度;
基于人眼眼裂高度及人眼睁开高度判断是否处于睁眼状态,若处于睁眼状态,则计算眨眼次数;
基于睁眼状态和眨眼次数判断用户的学习状态。
作为优选,基于睁眼状态判断用户的学习状态的方法为:当用户处于闭眼状态时,则判断为异常学习状态,并发送提醒交互指令至语音播放喇叭进行提醒。
作为优选,基于眨眼次数判断用户的学习状态的方法为:设置眨眼的频率阈值区间,当判断眨眼次数超出频率阈值区间时,则判断为异常学习状态,并发送提醒交互指令至语音播放喇叭进行提醒。
作为优选,当用户处于睁眼状态,并且眨眼次数在频率阈值区间内时,则判断为正常学习状态,并发送鼓励交互指令至语音播放喇叭进行鼓励播放。
作为优选,对人体头部图像数据进行分析的方法为:
对采集的人体头部的图像进行人脸图像初步定位,得到人脸图像;
对人脸图像进行预处理,得到矫正图像;
对矫正图像进行人脸检测,标定双眼、鼻尖、嘴角为关键点;
以鼻尖为中心,计算双眼和嘴角距离鼻尖的距离差值;
基于该距离差值判断人脸偏转状态;
基于人脸的偏转状态判断用户的学习状态。
作为优选,基于人脸的偏转状态判断用户的学习状态的方法为:当用户处于脸部偏转状态时,则判断为异常学习状态,并发送提醒交互指令至语音播放喇叭进行提醒。
作为优选,基于人脸的偏转状态判断用户的学习状态的方法为:当用户处于脸部无偏转状态时,则判断为正常学习状态,并发送鼓励交互指令至语音播放喇叭进行鼓励播放。
本发明的有益效果是:
通过采用摄像装置来对机器人的机头位置进行人脸图像的采集,从而根据人脸图像识别技术判断儿童在学习时的人眼睁开闭合状态,以及眨眼频率,进而判断是否存在走神的情况,同时,针对于偏头不利于人眼判断的情况,还采用了人脸偏转状态的判断,进而根据人脸的偏转来判断儿童的学习状态,最终通过两种判断方式的结合,得到及时在儿童学习分心走神时进行提醒互通的效果。
附图说明
图1为本发明的一种互动式教育机器人的结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。在下列段落中参照附图以举例方式更具体地描述本发明。根据下面说明和权利要求书,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
实施例
参阅图1所示,一种互动式教育机器人,包括有:
机头部1,包括有用于进行触屏互动教育的触控屏11,及设置在触控屏11两侧位置的语音播放喇叭12,该语音播放喇叭12经由触控屏11的触发进行交互语音的播放;
机身部2,包括有用于支撑机头部1的支体21,该支体21内设置有与触控屏相接的处理服务器,该支体上设置有电子笔卡槽22,电子笔卡槽22内卡入有与触控屏相配合的电子笔23;
摄像装置3,包括有安装在机头部1上的金属软杆31,及安装在金属软杆31上的摄像头32,该摄像头32用于对人体头部进行图像采集,并将采集结果发送至处理服务器4;
处理服务器,用于对人体头部的图像采集结果进行分析,基于分析的结果判断用户的学习状态,并发送交互指令至语音播放喇叭12进行播放。
该机身部2与机头部1之间采用可转动连接,具体的说,机头部1为摇头式的在机身部2上形成转动。
该电子笔卡槽22内设有感应模块,该感应模块与电子笔形成触发反馈,并将触发反馈结果发送至处理服务器,该处理服务器接收触发反馈结果进行启闭作业。
该处理服务器内设有若干学习程序,经由触控屏11进行选择并显示,用户只需拿上电子笔即可根据选择的学习程序进行学习,如做题、看书和看视频等。
一种互动式教育机器人的互动方法,包括以下步骤:
处理服务器和触控屏接收感应模块的反馈后进行启动;
触控屏接收电子笔输入的互动信息并发送至处理服务器进行互动教育;
摄像装置采集机头部位置的人体头部图像数据,并发送至处理服务器;
处理服务器对人体头部图像数据进行眨眼分析,并基于分析结果判断用户的学习状态;
当用户的学习状态为走神状态时,则发送提醒交互指令至语音播放喇叭进行播放;
当用户的学习状态为正常状态时,则发送鼓励交互指令至语音播放喇叭进行播放。
对人体头部图像数据进行分析的方法为:
对采集的人体头部的图像进行人眼图像初步定位,得到人眼图像;
对人眼图像进行预处理,得到矫正图像;
对矫正图像进行虹膜轮廓和虹膜边界点的识别;
对矫正图像进行巩膜轮廓和巩膜边界点的识别;
基于虹膜轮廓和虹膜边界点,巩膜轮廓和巩膜边界点,确定人眼眼裂高度及人眼睁开高度;
基于人眼眼裂高度及人眼睁开高度判断是否处于睁眼状态,若处于睁眼状态,则计算眨眼次数;
基于睁眼状态和眨眼次数判断用户的学习状态。
对人眼图像进行预处理的方法为采用灰度归一化和降噪处理。
基于睁眼状态判断用户的学习状态的方法为:当用户处于闭眼状态时,则判断为异常学习状态,并发送提醒交互指令至语音播放喇叭进行提醒。
基于眨眼次数判断用户的学习状态的方法为:设置眨眼的频率阈值区间,当判断眨眼次数超出频率阈值区间时,则判断为异常学习状态,并发送提醒交互指令至语音播放喇叭进行提醒。
当用户处于睁眼状态,并且眨眼次数在频率阈值区间内时,则判断为正常学习状态,并发送鼓励交互指令至语音播放喇叭进行鼓励播放。
对人体头部图像数据进行分析的方法为:
对采集的人体头部的图像进行人脸图像初步定位,得到人脸图像;
对人脸图像进行预处理,得到矫正图像;
对矫正图像进行人脸检测,标定双眼、鼻尖、嘴角为关键点;
以鼻尖为中心,计算双眼和嘴角距离鼻尖的距离差值;
基于该距离差值判断人脸偏转状态;
基于人脸的偏转状态判断用户的学习状态。
对人脸图像进行预处理的方法为采用灰度归一化和降噪处理。
基于人脸的偏转状态判断用户的学习状态的方法为:当用户处于脸部偏转状态时,则判断为异常学习状态,并发送提醒交互指令至语音播放喇叭进行提醒。
基于人脸的偏转状态判断用户的学习状态的方法为:当用户处于脸部无偏转状态时,则判断为正常学习状态,并发送鼓励交互指令至语音播放喇叭进行鼓励播放。
本发明的有益效果是:
通过采用摄像装置来对机器人的机头位置进行人脸图像的采集,从而根据人脸图像识别技术判断儿童在学习时的人眼睁开闭合状态,以及眨眼频率,进而判断是否存在走神的情况,同时,针对于偏头不利于人眼判断的情况,还采用了人脸偏转状态的判断,进而根据人脸的偏转来判断儿童的学习状态,最终通过两种判断方式的结合,得到及时在儿童学习分心走神时进行提醒互通的效果。
本发明的上述实施例并不是对本发明保护范围的限定,本发明的实施方式不限于此,凡此种种根据本发明的上述内容,按照本领域的普通技术知识和惯用手段,在不脱离本发明上述基本技术思想前提下,对本发明上述结构做出的其它多种形式的修改、替换或变更,均应落在本发明的保护范围之内。

Claims (10)

1.一种互动式教育机器人,其特征在于,包括有:
机头部,包括有用于进行触屏互动教育的触控屏,及设置在触控屏两侧位置的语音播放喇叭,该语音播放喇叭经由触控屏的触发进行交互语音的播放;
机身部,包括有用于支撑机头部的支体,该支体内设置有与触控屏相接的处理服务器,该支体上设置有电子笔卡槽,电子笔卡槽内卡入有与触控屏相配合的电子笔;
摄像装置,包括有安装在机头部上的金属软杆,及安装在金属软杆上的摄像头,该摄像头用于对人体头部进行图像采集,并将采集结果发送至处理服务器;
处理服务器,用于对人体头部的图像采集结果进行分析,基于分析的结果判断用户的学习状态,并发送交互指令至语音播放喇叭进行播放。
2.根据权利要求1所述的互动式教育机器人,其特征在于:该电子笔卡槽内设有感应模块,该感应模块与电子笔形成触发反馈,并将触发反馈结果发送至处理服务器,该处理服务器接收触发反馈结果进行启闭作业。
3.一种互动式教育机器人的互动方法,其特征在于,包括以下步骤:
处理服务器和触控屏接收感应模块的反馈后进行启动;
触控屏接收电子笔输入的互动信息并发送至处理服务器进行互动教育;
摄像装置采集机头部位置的人体头部图像数据,并发送至处理服务器;
处理服务器对人体头部图像数据进行眨眼分析,并基于分析结果判断用户的学习状态;
当用户的学习状态为走神状态时,则发送提醒交互指令至语音播放喇叭进行播放;
当用户的学习状态为正常状态时,则发送鼓励交互指令至语音播放喇叭进行播放。
4.根据权利要求3所述的互动式教育机器人的互动方法,其特征在于:对人体头部图像数据进行分析的方法为:
对采集的人体头部的图像进行人眼图像初步定位,得到人眼图像;
对人眼图像进行预处理,得到矫正图像;
对矫正图像进行虹膜轮廓和虹膜边界点的识别;
对矫正图像进行巩膜轮廓和巩膜边界点的识别;
基于虹膜轮廓和虹膜边界点,巩膜轮廓和巩膜边界点,确定人眼眼裂高度及人眼睁开高度;
基于人眼眼裂高度及人眼睁开高度判断是否处于睁眼状态,若处于睁眼状态,则计算眨眼次数;
基于睁眼状态和眨眼次数判断用户的学习状态。
5.根据权利要求4所述的互动式教育机器人的互动方法,其特征在于,基于睁眼状态判断用户的学习状态的方法为:当用户处于闭眼状态时,则判断为异常学习状态,并发送提醒交互指令至语音播放喇叭进行提醒。
6.根据权利要求5所述的互动式教育机器人的互动方法,其特征在于,基于眨眼次数判断用户的学习状态的方法为:设置眨眼的频率阈值区间,当判断眨眼次数超出频率阈值区间时,则判断为异常学习状态,并发送提醒交互指令至语音播放喇叭进行提醒。
7.根据权利要求6所述的互动式教育机器人的互动方法,其特征在于,当用户处于睁眼状态,并且眨眼次数在频率阈值区间内时,则判断为正常学习状态,并发送鼓励交互指令至语音播放喇叭进行鼓励播放。
8.根据权利要求3所述的互动式教育机器人的互动方法,其特征在于:对人体头部图像数据进行分析的方法为:
对采集的人体头部的图像进行人脸图像初步定位,得到人脸图像;
对人脸图像进行预处理,得到矫正图像;
对矫正图像进行人脸检测,标定双眼、鼻尖、嘴角为关键点;
以鼻尖为中心,计算双眼和嘴角距离鼻尖的距离差值;
基于该距离差值判断人脸偏转状态;
基于人脸的偏转状态判断用户的学习状态。
9.根据权利要求8所述的互动式教育机器人的互动方法,其特征在于,基于人脸的偏转状态判断用户的学习状态的方法为:当用户处于脸部偏转状态时,则判断为异常学习状态,并发送提醒交互指令至语音播放喇叭进行提醒。
10.根据权利要求8所述的互动式教育机器人的互动方法,其特征在于,基于人脸的偏转状态判断用户的学习状态的方法为:当用户处于脸部无偏转状态时,则判断为正常学习状态,并发送鼓励交互指令至语音播放喇叭进行鼓励播放。
CN202211326823.4A 2022-10-25 2022-10-25 一种互动式教育机器人及互动方法 Pending CN115599216A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211326823.4A CN115599216A (zh) 2022-10-25 2022-10-25 一种互动式教育机器人及互动方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211326823.4A CN115599216A (zh) 2022-10-25 2022-10-25 一种互动式教育机器人及互动方法

Publications (1)

Publication Number Publication Date
CN115599216A true CN115599216A (zh) 2023-01-13

Family

ID=84851708

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211326823.4A Pending CN115599216A (zh) 2022-10-25 2022-10-25 一种互动式教育机器人及互动方法

Country Status (1)

Country Link
CN (1) CN115599216A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107369341A (zh) * 2017-06-08 2017-11-21 深圳市科迈爱康科技有限公司 教育机器人
CN110363052A (zh) * 2018-04-11 2019-10-22 杭州海康威视数字技术股份有限公司 确定图像中的人脸姿态的方法、装置及计算机设备
CN110751064A (zh) * 2019-09-30 2020-02-04 四川大学 基于图像处理的眨眼次数分析方法和系统
CN211388815U (zh) * 2020-01-08 2020-09-01 山西倩羽时代科技有限公司 一种可调节角度的教育机器人

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107369341A (zh) * 2017-06-08 2017-11-21 深圳市科迈爱康科技有限公司 教育机器人
CN110363052A (zh) * 2018-04-11 2019-10-22 杭州海康威视数字技术股份有限公司 确定图像中的人脸姿态的方法、装置及计算机设备
CN110751064A (zh) * 2019-09-30 2020-02-04 四川大学 基于图像处理的眨眼次数分析方法和系统
CN211388815U (zh) * 2020-01-08 2020-09-01 山西倩羽时代科技有限公司 一种可调节角度的教育机器人

Similar Documents

Publication Publication Date Title
CN110890140B (zh) 基于虚拟现实的自闭症康复训练及能力评估系统及方法
CN106228982B (zh) 一种基于教育服务机器人的交互式学习系统与交互方法
CN106599881A (zh) 学生状态的确定方法、装置及系统
WO2021077382A1 (zh) 一种学习状态的判断方法、装置及智能机器人
CN101466305B (zh) 用于确定和分析视觉兴趣位置的方法
CN108108903A (zh) 课堂教学质量评估系统
CN112908355B (zh) 一种师范生教学技能量化评价系统及其方法
CN100418498C (zh) 导盲器
CN107480872A (zh) 一种基于数据交换网络的在线教学考评系统及方法
CN111814556A (zh) 一种基于计算机视觉的教学辅助方法和系统
CN110069707A (zh) 一种人工智能自适应互动教学系统
CN109241917A (zh) 一种基于计算机视觉的课堂行为检测系统
CN105516280A (zh) 一种多模态学习过程状态信息压缩记录方法
CN111918133A (zh) 辅导和监督学生写作业的方法、电视机和存储介质
Rolf et al. Attention via synchrony: Making use of multimodal cues in social learning
CN111523444A (zh) 基于改进的Openpose模型和面部微表情的课堂行为检测的方法
CN109189885A (zh) 一种基于智能设备摄像头的实时控制方法和智能设备
CN111523445A (zh) 一种基于改进的Openpose模型和面部微表情的考试行为检测方法
CN112949345A (zh) 疲劳监测方法及系统、行车记录仪和智能座舱
CN112732087A (zh) 一种师范生教学技能智能评价与训练系统
CN113095260A (zh) 智能化学生自学状态监控方法
CN111857355A (zh) 一种阅读状态监测反馈系统
CN110245591A (zh) 课堂监督系统及与之关联的作业评判系统
CN115599216A (zh) 一种互动式教育机器人及互动方法
CN112836945A (zh) 一种师范生教态量化评价体系

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20230113