CN111259774A - 用于获取课件信息的方法、授课设备、备课设备及服务器 - Google Patents

用于获取课件信息的方法、授课设备、备课设备及服务器 Download PDF

Info

Publication number
CN111259774A
CN111259774A CN202010032700.4A CN202010032700A CN111259774A CN 111259774 A CN111259774 A CN 111259774A CN 202010032700 A CN202010032700 A CN 202010032700A CN 111259774 A CN111259774 A CN 111259774A
Authority
CN
China
Prior art keywords
face image
user
current face
courseware information
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010032700.4A
Other languages
English (en)
Inventor
韩高伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Honghe Innovation Information Technology Co Ltd
Original Assignee
Shenzhen Honghe Innovation Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Honghe Innovation Information Technology Co Ltd filed Critical Shenzhen Honghe Innovation Information Technology Co Ltd
Priority to CN202010032700.4A priority Critical patent/CN111259774A/zh
Publication of CN111259774A publication Critical patent/CN111259774A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供的用于获取课件信息的方法、授课设备、备课设备及服务器,因服务器中预先存储有至少一个用户的原始人脸图像及对应的课件信息;当用户需要进行授课时,授课设备只需采集用户的当前人脸图像,若当前人脸图像能与预先存储的原始人脸图像匹配成功时,则会基于当前人脸图像自动获取到对应的课件信息;这样,用户在授课时,无需自行携带任何移动存储设备拷贝课件,只需通过人脸匹配就可以获取到相应的课件信息,减轻了用户的携带负担;并且,这样获取课件信息的方式不但能提高课件信息的获取效率、授课准备效率及授课效率,而且在用户忘记携带课件的情况下,也能确保授课效率。

Description

用于获取课件信息的方法、授课设备、备课设备及服务器
技术领域
本申请涉及智慧教室技术领域,尤其涉及用于获取课件信息的方法、授课设备、备课设备及服务器。
背景技术
目前,随着互联网教育的发展与推进,智慧教室中的信息化的软硬件设备越来越齐全,在教育信息化进程中发挥越来越大的作用。
但是一般在教室环境中,与教学相关的软硬件设备均是多个教师共用的,每个教师在使用时均需要进行人工登录、从携带的移动存储设备中拷贝课件、打开授课软件等一系列繁琐的操作后才能进行授课,导致需要在上课前浪费很多准备时间,授课准备效率低,影响授课效率。
发明内容
针对现有技术存在的问题,本申请提供了用于获取课件信息的方法、授课设备、备课设备及服务器,用于解决现有技术中教师在智慧教室的授课设备中进行授课时,授课准备效率低,进而影响授课效率的技术问题。
本申请的第一方面,提供一种用于获取课件信息的方法,应用在授课设备,所述方法包括:
采集用户的当前人脸图像,将所述用户的当前人脸图像发送至服务器,以使得所述服务器对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配;
当所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,接收所述服务器发送的所述当前人脸图像对应的课件信息;所述服务器中预先存储有所述至少一个用户的原始人脸图像及对应的课件信息。
本申请的第二方面,还提供一种用于获取课件信息的方法,应用在备课设备,所述方法包括:
预先获取至少一个用户的原始人脸图像及对应的课件信息;
发送所述至少一个用户的原始人脸图像及对应的课件信息至服务器进行预先存储,以使得所述服务器对接收到的当前人脸图像与所述至少一个用户的原始人脸图像进行匹配,当所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至授课设备。
本申请的第三方面,还提供一种用于获取课件信息的方法,应用在服务器,所述方法包括:
接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储;
接收授课设备发送的当前人脸图像,对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配;
若所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功,则获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至所述授课设备。
可选地,所述对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配,包括:
利用预先训练的面部识别深度卷积神经网络对所述至少一个用户的原始人脸图像进行识别,获得至少一个第一组特征测量值;其中,一个用户的原始人脸图像对应一个第一组特征测量值;
利用所述面部识别深度卷积神经网络对所述当前人脸图像进行识别,获得第二组特征测量值;
根据所述至少一个第一组特征测量值及所述第二组特征测量值对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配。
可选地,所述对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配之前,包括:
利用面部特征点估计算法确定所述当前人脸图像中生物特征的特征点;所述生物特征包括:嘴巴、眼睛、眉毛、下巴及鼻子;
根据所述特征点调整所述当前人脸图像。
本申请的第四方面,还提供一种授课设备,包括:
采集单元,用于采集用户的当前人脸图像;
第一发送单元,用于将所述用户的当前人脸图像发送至服务器,以使得所述服务器对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配;
第一接收单元,用于在所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,接收所述服务器发送的所述当前人脸图像对应的课件信息;所述服务器中预先存储有所述至少一个用户的原始人脸图像及对应的课件信息。
本申请的第五方面,还提供一种备课设备,包括:
获取单元,用于预先获取至少一个用户的原始人脸图像及对应的课件信息;
第二发送单元,用于发送所述至少一个用户的原始人脸图像及对应的课件信息至服务器进行预先存储,以使得所述服务器对接收到的当前人脸图像与所述至少一个用户的原始人脸图像进行匹配,当所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至授课设备。
本申请的第六方面,还提供一种服务器,所述服务器包括:
存储单元,用于接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储;
第二接收单元,用于接收授课设备发送的当前人脸图像;
匹配单元,用于对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配;
第三发送单元,用于在所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至所述授课设备。
本申请的第七方面,还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述任一方面所述的方法。
本申请的第八方面,还提供一种用于获取课件信息的计算机设备,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中,所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行实现如上述任一方面所述的方法。
本申请提供的用于获取课件信息的方法、授课设备、备课设备及服务器,因服务器中预先存储有至少一个用户的原始人脸图像及对应的课件信息;当用户需要进行授课时,授课设备只需采集用户的当前人脸图像,若当前人脸图像能与预先存储的原始人脸图像匹配成功时,则会基于当前人脸图像自动获取到对应的课件信息;这样,用户在授课时,无需自行携带任何移动存储设备拷贝课件,只需通过人脸匹配就可以获取到相应的课件信息,减轻了用户的携带负担;并且,这样获取课件信息的方式不但能提高课件信息的获取效率、授课准备效率及授课效率,而且在用户忘记携带课件的情况下,也能确保授课效率。
附图说明
图1为本申请提供的信息化授课系统的整体结构示意图;
图2为本申请实施例一提供的用于获取课件信息的方法流程示意图;
图3为本申请实施例二提供的用于获取课件信息的另一方法流程示意图;
图4为本申请实施例三提供的用于获取课件信息的方法流程示意图;
图5为本申请实施例四提供的授课设备的结构示意图;
图6为本申请实施例五提供的备课设备的结构示意图;
图7为本申请实施例六提供的服务器的结构示意图;
图8为本申请实施例七提供的用于获取课件信息的计算机设备结构示意图;
图9为本申请实施例八提供的计算机可读存储介质结构示意图。
具体实施方式
为了解决现有技术中教师在智慧教室的授课设备中进行授课时,授课准备效率低,进而影响授课效率的技术问题,本申请实施例提供了用于获取课件信息的方法、授课设备、备课设备及服务器,方法包括:采集用户的当前人脸图像,对当前人脸图像与预先存储的原始人脸图像进行匹配,若能匹配成功,则基于当前人脸图像自动获取该用户的所有课件信息;这样,用户在授课时,无需自行携带任何移动存储设备拷贝课件,只需通过人脸匹配就可以获取到相应的课件信息,减轻了用户的携带负担;并且,这样获取课件信息的方式不但能提高课件信息的获取效率、授课准备效率及授课效率,而且在用户忘记携带课件的情况下,也能确保授课效率。
授课设备是信息化授课系统的一部分,为了能更好地理解本申请的技术方案,这里先介绍下信息化授课系统的结构。如图1所示,信息化授课系统可以包括:备课设备11、授课设备12及服务器13。不难理解,备课设备11主要是用于进行备课,比如制作课件信息;并采集至少一个用户的原始人脸图像及对应的课件信息,将至少一个用户的原始人脸图像及对应的课件信息发送至服务器13中。
具体地,在授课之前,用户可以利用备课设备11制作课件信息,课件制作完成之后,备课设备11可以获取到该用户的课件信息。
而在进行备课之前或者备课之后,备课设备11可以利用摄像头采集至少一个用户的原始人脸图像。那么,备课设备11最终则能获取到至少一个用户的原始人脸图像及对应的课件信息,并将至少一个用户的原始人脸图像及对应的课件信息发送至服务器13。
服务器13则接收备课设备11发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储。
授课设备12主要是用于获取课件信息,对学生进行授课。其中,在授课时,授课设备12可以利用摄像头采集用户的当前人脸图像,将用户的当前人脸图像发送至服务器,服务器13对当前人脸图像与至少一个用户的原始人脸图像进行匹配,匹配成功后,获取当前人脸图像对应的课件信息,将当前人脸图像对应的课件信息发送至授课设备12。授课设备12接收到课件信息后,用户可以利用课件信息进行授课。
这里,授课设备12和备课设备11是按照功能区分的,在实际应用中,两者可指代同一个实体设备。例如,在同一个实体设备中,用户可以利用该实体设备进行备课,也可以利用该实体设备进行授课。
下面通过附图及具体实施例对本申请的技术方案做进一步的详细说明。
实施例一
本实施例提供一种用于获取课件信息的方法,应用在授课设备,如图2所示,方法包括:
S210,采集用户的当前人脸图像,将所述用户的当前人脸图像发送至服务器,以使得所述服务器对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配。
当用户需要授课时,用户只需站在授课设备前,授课设备利用摄像头采集用户的当前人脸图像,将用户的当前人脸图像发送至服务器,服务器即可接收到授课设备发送的当前人脸图像,对当前人脸图像与至少一个用户的原始人脸图像进行匹配。其中,服务器中预先存储有至少一个用户的原始人脸图像及对应的课件信息。
可选的,在本申请的一种实施例中,因环境因素影响,采集到的当前人脸图像可能会受到干扰,为了提高匹配的精度,在采集用户的当前人脸图像之后,授课设备可对当前人脸图像进行光线补偿、灰度校正及噪声过滤等预处理。必要时,还可以在采集用户的当前人脸图像之后,对当前人脸图像进行直方图均衡化、归一化、锐化等预处理。在预处理完毕后发送给服务器进行匹配。
当然,也可以直接将用户的当前人脸图像发给服务器,由服务器执行上述预处理过程,而服务器如何执行上述预处理过程会在后续有关于服务器侧的实施例中详细描述,故在此不再赘述。
可选的,在本申请的一种实施例中,如果用户的当前人脸图像存在扭曲,会导致匹配精度降低。故为了提高匹配精度,授课设备可以在采集用户的当前人脸图像之后,对当前人脸图像进行调整。具体的,在对当前人脸图像进行调整的过程中,利用面部特征点估计算法确定当前人脸图像中生物特征的特征点;生物特征包括:嘴巴、眼睛、眉毛、下巴及鼻子;根据特征点调整当前人脸图像。
一般来说,下巴轮廓对应17个特征点,左眉对应5个特征点,右眉对应5个特征点,鼻梁对应4个特征点,鼻尖对应4个特征点,左眼对应6个特征点,右眼对应6个特征点,上嘴唇对应8个特征点,下嘴唇对应12个特征点。
确定出生物特征的特征点后,就可以确定出眼睛、嘴巴、鼻子、眉毛的具体位置了,然后基于眼睛、嘴巴、鼻子、眉毛的具体位置对人脸图像进行调整(比如错切、旋转等),使得当前人脸图像中的眼睛、嘴巴、鼻子、眉毛尽可能的还原用户真实脸部的生物特征。在预调整完毕后发送给服务器进行匹配。
当然,也可以直接将用户的当前人脸图像发给服务器,由服务器执行上述调整过程,而服务器如何执行上述调整过程会在后续有关于服务器侧的实施例中详细描述,故在此不再赘述。
值得注意的是,服务器对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配的具体实施过程,会在后续有关于服务器侧的实施例中详细描述,故在此不再赘述。
S211,当所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,接收所述服务器发送的所述当前人脸图像对应的课件信息。
具体的,若当前人脸图像与至少一个用户的原始人脸图像匹配成功时,说明服务器中预先存储有该用户的原始人脸图像及对应的课件信息,那么服务器可以基于当前人脸图像获取对应的课件信息,并将当前人脸图像对应的课件信息发送至授课设备,授课设备即接收到了当前人脸图像对应的课件信息。
这里,因每个当前人脸图像对应的课件信息可能包括一个也可能包括多个,可选的,在本申请的一种实施例中,授课设备接收到当前人脸图像对应的课件信息后,还包括:
获取课件信息的数量;
判断课件信息的数量是否为一个,若确定课件信息的数量为一个,则直接打开课件信息;
若确定课件信息的数量为多个,则将包含有多个课件信息的课件列表显示在授课设备的人机界面中。
这样,用户在授课时,无需再去利用自身携带的移动存储设备将课件信息拷贝至授课设备中,然后再去查找课件位置,手动打开课件信息。在获取课件信息时,只需基于人脸匹配就可以获取到相应的课件信息,提高了课件的获取效率,减轻了用户的携带负担。并且,这样获取课件信息的方式不但能提高课件信息的获取效率、授课准备效率及授课效率,而且在用户忘记携带课件的情况下,也能确保授课效率。
基于同样的发明构思,本申请还提供一种用于获取课件信息的方法,详见实施例二。
实施例二
本实施例提供一种用于获取课件信息的方法,应用在备课设备,如图3所示,方法包括:
S310,预先获取至少一个用户的原始人脸图像及对应的课件信息。
在授课之前,用户可以利用备课设备制作课件信息,课件制作完成之后,备课设备就可以预先获取到至少一个用户的课件信息。
这里,在进行备课之前或者备课之后,备课设备可以利用摄像头采集至少一个用户的原始人脸图像。那么,备课设备最终则能获取到至少一个用户的原始人脸图像及对应的课件信息。
S311,发送所述至少一个用户的原始人脸图像及对应的课件信息至服务器进行预先存储,以使得所述服务器对接收到的当前人脸图像与所述至少一个用户的原始人脸图像进行匹配,当所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至授课设备。
当备课设备获取到至少一个用户的原始人脸图像及对应的课件信息后,将至少一个用户的原始人脸图像及对应的课件信息发送至服务器,则服务器接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储。
进一步的,服务器还对接收到的当前人脸图像与至少一个用户的原始人脸图像进行匹配,若当前人脸图像与至少一个用户的原始人脸图像匹配成功时,获取当前人脸图像对应的课件信息;将当前人脸图像对应的课件信息发送至授课设备。其中,当前人脸图像是授课设备发送至服务器的。
值得注意的是,服务器对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配的具体实施过程,会在后续有关于服务器侧的实施例中详细描述,故在此不再赘述。
基于同样的发明构思,本申请还提供了一种用于获取课件信息的方法,详见实施例三。
实施例三
本实施例提供一种用于获取课件信息的方法,应用在服务器,如图4所示,方法包括:
S410,接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储。
当备课设备获取到至少一个用户的原始人脸图像及对应的课件信息后,会将至少一个用户的原始人脸图像及对应的课件信息发送至服务器。则服务器接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储。
可选的,在本申请的一种实施例中,服务器接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储,具体包括:
利用预先建立的映射表存储至少一个用户的原始人脸图像及对应的课件信息;其中,映射表用于表征原始人脸图像与所述课件信息之间的对应关系,映射表预先建立在存储服务器中。
S411,接收授课设备发送的当前人脸图像,对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配。
当用户需要授课时,用户只需站在授课设备前,授课设备利用摄像头采集用户的当前人脸图像,将用户的当前人脸图像发送至服务器,服务器接收到授课设备发送的当前人脸图像后,对当前人脸图像与预先存储的至少一个用户的原始人脸图像进行匹配。
可选的,在本申请的一种实施例中,因环境因素影响,采集到的当前人脸图像可能会受到干扰,为了提高匹配的精度,会对当前人脸图像进行光线补偿、灰度校正及噪声过滤等预处理,必要时,还可以对当前人脸图像进行直方图均衡化、归一化、锐化等预处理。
可选的,在本申请的一种实施例中,如果用户的当前人脸图像存在扭曲,会导致匹配精度降低。故为了提高匹配精度,服务器对当前人脸图像与至少一个用户的原始人脸图像进行匹配之前,对当前人脸图像进行调整。具体的,在对当前人脸图像进行调整的过程中,利用面部特征点估计算法确定当前人脸图像中生物特征的特征点;生物特征包括:嘴巴、眼睛、眉毛、下巴及鼻子;根据特征点调整当前人脸图像。
一般来说,下巴轮廓对应17个特征点,左眉对应5个特征点,右眉对应5个特征点,鼻梁对应4个特征点,鼻尖对应4个特征点,左眼对应6个特征点,右眼对应6个特征点,上嘴唇对应8个特征点,下嘴唇对应12个特征点。
确定出生物特征的特征点后,就可以确定出眼睛、嘴巴、鼻子、眉毛的具体位置了,然后基于眼睛、嘴巴、鼻子、眉毛的具体位置对人脸图像进行调整(比如错切、旋转等),使得当前人脸图像中的眼睛、嘴巴、鼻子、眉毛尽可能的还原用户真实脸部的生物特征。
需要说明的是,预处理过程和调整过程也可由授课设备在采集用户的当前人脸图像之后执行,具体可见有关于授课设备侧的实施例中的描述,在此不再赘述。
而服务器对当前人脸图像与至少一个用户的原始人脸图像进行匹配的过程,包括:
利用预先训练的面部识别深度卷积神经网络对至少一个用户的原始人脸图像进行识别,获得至少一个第一组特征测量值;其中,一个用户的原始人脸图像对应一个第一组特征测量值;
利用所述面部识别深度卷积神经网络对当前人脸图像进行识别,获得第二组特征测量值;
根据至少一个第一组特征测量值及第二组特征测量值对当前人脸图像与至少一个用户的原始人脸图像进行匹配。
其中,第一组特征测量值可以理解为用户的基准特征测量值,第一组特征测量值包括128个测量值,第二组特征测量值也包括128个。
这里,面部识别深度卷积神经网络是根据多个人脸样本预先进行训练得出的,本申请可以直接使用。为了提高面部识别深度卷积神经网络的识别精度,多个人脸样本在训练之前,还可以对人脸样本进行光线补偿、灰度校正及噪声过滤等预处理操作,以及对人脸样本进行调整的操作。
可选的,在本申请的一种实施例中,根据至少一个第一组特征测量值及第二组特征测量值对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配,包括:
基于第二组特征测量值,遍历至少一个第一组特征测量值,确定出与第二组特征测量值相似度最高的第一组特征测量值,作为目标特征测量值;
确定第二组特征测量值与目标特征测量值之间的欧式距离值;
判断欧式距离值是否超出预设的距离阈值,若未超出,则确定当前人脸图像与至少一个用户的原始人脸图像匹配成功。
可选的,在本申请的一种实施例中,基于所述第二组特征测量值,遍历所述至少一个第一组特征测量值,确定出与所述第二组特征测量值相似度最高的第一组特征测量值,包括:
基于第二组特征测量值,确定出第二组特征测量值与每个第一组特征测量值之间的差值;
确定出最小差值对应的所述第一组特征测量值,所述最小差值对应的所述第一组特征测量值为与所述第二组特征测量值相似度最高的第一组特征测量值。
可选的,在本申请的一种实施例中,确定第二组特征测量值与目标特征测量值之间的欧式距离值d(x,y),包括:
根据公式
Figure BDA0002364904820000121
确定第二组特征测量值与目标特征测量值之间的欧式距离值d(x,y)。其中,n为128,x1~xn为第一组特征测量值,y1~yn为第二组特征测量值。
这样服务器就对当前人脸图像匹配完毕。
S412,若所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功,则获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至所述授课设备。
服务器对当前人脸图像与至少一个用户的原始人脸图像进行匹配后,若当前人脸图像与至少一个用户的原始人脸图像匹配成功时,说明服务器中预先存储有该用户的原始人脸图像及对应的课件信息,那么服务器可以基于当前人脸图像获取对应的课件信息,将当前人脸图像对应的课件信息发送至授课设备,授课设备即接收到了当前人脸图像对应的课件信息。
可选的,在本申请的一种实施例中,服务器基于所述当前人脸图像获取对应的课件信息可以包括:
基于当前人脸图像从映射表中提取对应的课件信息。
这样,用户在授课时,无需再去利用自身携带的移动存储设备将课件信息拷贝至授课设备中,然后再去查找课件位置,手动打开课件信息。在获取课件信息时,只需基于人脸匹配就可以获取到相应的课件信息,减轻了用户的携带负担。并且,这样获取课件信息的方式不但能提高课件信息的获取效率、授课准备效率及授课效率,而且在用户忘记携带课件的情况下,也能确保授课效率。
基于同样的发明构思,本申请还提供了与实施例一对应的授课设备,详见实施例四。
实施例四
本实施例提供了一种授课设备,如图5所示,授课设备包括:采集单元51、第一发送单元52及第一接收单元53;其中,
采集单元51,用于利用摄像头采集用户的当前人脸图像。第一发送单元52,用于将用户的当前人脸图像发送至服务器,以使得服务器对当前人脸图像与至少一个用户的原始人脸图像进行匹配。第一接收单元53,用于在当前人脸图像与至少一个用户的原始人脸图像匹配成功时,接收服务器发送的当前人脸图像对应的课件信息。
可选的,在本申请的一种实施例中,因环境因素影响,采集到的当前人脸图像可能会受到干扰,为了提高匹配的精度,参考图5,授课设备还包括:第一预处理单元54;其中,
在采集用户的当前人脸图像之后,第一预处理单元54用于对当前人脸图像进行光线补偿、灰度校正及噪声过滤等预处理。必要时,第一预处理单元54还用于在采集用户的当前人脸图像之后,对当前人脸图像进行直方图均衡化、归一化、锐化等预处理。在预处理完毕后,第一发送单元52,用于将当前人脸图像发送给服务器进行匹配。
当然,第一发送单元52也可以直接将用户的当前人脸图像发给服务器,由服务器执行上述预处理过程,而服务器如何执行上述预处理过程会在后续有关于服务器侧的实施例中详细描述,故在此不再赘述。
可选的,在本申请的一种实施例中,如果用户的当前人脸图像存在扭曲,会导致匹配精度降低。故为了提高匹配精度,参考图5,授课设备还包括:第一调整单元55;其中,
在采集用户的当前人脸图像之后,第一调整单元55用于对当前人脸图像进行调整。具体的,在对当前人脸图像进行调整的过程中,利用面部特征点估计算法确定当前人脸图像中生物特征的特征点;生物特征包括:嘴巴、眼睛、眉毛、下巴及鼻子;根据特征点调整当前人脸图像。
一般来说,下巴轮廓对应17个特征点,左眉对应5个特征点,右眉对应5个特征点,鼻梁对应4个特征点,鼻尖对应4个特征点,左眼对应6个特征点,右眼对应6个特征点,上嘴唇对应8个特征点,下嘴唇对应12个特征点。
确定出生物特征的特征点后,就可以确定出眼睛、嘴巴、鼻子、眉毛的具体位置了,然后基于眼睛、嘴巴、鼻子、眉毛的具体位置对人脸图像进行调整(比如错切、旋转等),使得当前人脸图像中的眼睛、嘴巴、鼻子、眉毛尽可能的还原用户真实脸部的生物特征。在调整完毕后,第一发送单元52,用于将当前人脸图像发送给服务器进行匹配。
当然,第一发送单元52也可以直接将用户的当前人脸图像发给服务器,由服务器执行上述调整过程,而服务器如何执行上述调整过程会在后续有关于服务器侧的实施例中详细描述,故在此不再赘述。
值得注意的是,服务器对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配的具体实施过程,会在后续有关于服务器侧的实施例中详细描述,故在此不再赘述。
可选的,在本申请的一种实施例中,课件信息可能包括一个也可能包括多个,继续参考图5,授课设备还包括:显示单元56;其中,
接收到当前人脸图像对应的课件信息后,显示单元56用于:获取课件信息的数量;判断课件信息的数量是否为一个,若确定课件信息的数量为一个,则直接打开课件信息;若确定课件信息的数量为多个,则将包含有多个课件信息的课件列表显示在授课设备的人机界面中。
这样,用户在授课时,无需再去利用自身携带的移动存储设备将课件信息拷贝至授课设备中,然后再去查找课件位置,手动打开课件信息。在获取课件信息时,只需基于人脸匹配就可以获取到相应的课件信息,提高了课件的获取效率,减轻了用户的携带负担。当课件数量为一个时,课件信息会直接打开;当课件数量为多个时,用户只需在人机界面上点击需要使用的课件即可,也无需再去层层查找课件位置,明显提高了课前的准备效率;而且在用户忘记携带课件的情况下,也能确保授课效率。
基于同样的发明构思,本申请还提供了与实施例二对应的备课设备,详见实施例五。
实施例五
本实施例提供一种备课设备,如图6所示,备课设备包括:获取单元61及第二发送单元62;其中,
获取单元61,用于预先获取至少一个用户的原始人脸图像及对应的课件信息;
第二发送单元62,用于发送至少一个用户的原始人脸图像及对应的课件信息至服务器进行预先存储,以使得服务器对接收到的当前人脸图像与至少一个用户的原始人脸图像进行匹配,若当前人脸图像与至少一个用户的原始人脸图像匹配成功时,获取当前人脸图像对应的课件信息,将当前人脸图像对应的课件信息发送至授课设备。
具体的,当备课设备的获取单元61获取到至少一个用户的原始人脸图像及对应的课件信息后,第二发送单元62将至少一个用户的原始人脸图像及对应的课件信息发送至服务器,则服务器接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储。
进一步的,服务器还对接收到的当前人脸图像与所述至少一个用户的原始人脸图像进行匹配,若当前人脸图像与至少一个用户的原始人脸图像匹配成功时,获取当前人脸图像对应的课件信息;将当前人脸图像对应的课件信息发送至授课设备。其中,当前人脸图像是授课设备发送至服务器的。
值得注意的是,服务器对当前人脸图像与至少一个用户的原始人脸图像进行匹配的具体实施过程,会在后续有关于服务器侧的实施例中详细描述,故在此不再赘述。
基于同样的发明构思,本申请还提供了与实施例三对应的服务器,详见实施例六。
实施例六
本实施例提供一种服务器,如图7所示,服务器包括:存储单元71、第二接收单元72、匹配单元73及第三发送单元74;
存储单元71,用于接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储;
第二接收单元72,用于接收授课设备发送的当前人脸图像;
匹配单元73,用于对当前人脸图像与至少一个用户的原始人脸图像进行匹配;
第三发送单元74,用于在当前人脸图像与至少一个用户的原始人脸图像匹配成功时,获取当前人脸图像对应的课件信息,将当前人脸图像对应的课件信息发送至授课设备。
可选的,在本申请的一种实施例中,服务器的存储单元71具体用于:利用预先建立的映射表存储至少一个用户的原始人脸图像及对应的课件信息;其中,映射表用于表征原始人脸图像与所述课件信息之间的对应关系,映射表预先建立在服务器中。
可选的,在本申请的一种实施例中,因环境因素影响,采集到的当前人脸图像可能会受到干扰,为了提高匹配的精度,继续参考图7,服务器还包括:第二预处理单元75;在匹配单元73对当前人脸图像与至少一个用户的原始人脸图像进行匹配之前,第二预处理单元75用于对当前人脸图像进行光线补偿、灰度校正及噪声过滤等预处理。必要时,第二预处理单元75还用于对当前人脸图像进行直方图均衡化、归一化、锐化等预处理。
可选的,在本申请的一种实施例中,如果用户的当前人脸图像存在扭曲,会导致匹配精度降低。故为了提高匹配精度,继续参考图7,服务器还包括:第二调整单元76,在匹配单元73对当前人脸图像与至少一个用户的原始人脸图像进行匹配之前,第二调整单元76用于对当前人脸图像进行调整。而在对当前人脸图像进行调整的过程中,利用面部特征点估计算法确定当前人脸图像中生物特征的特征点;生物特征包括:嘴巴、眼睛、眉毛、下巴及鼻子;根据特征点调整所述当前人脸图像。
一般来说,下巴轮廓对应17个特征点,左眉对应5个特征点,右眉对应5个特征点,鼻梁对应4个特征点,鼻尖对应4个特征点,左眼对应6个特征点,右眼对应6个特征点,上嘴唇对应8个特征点,下嘴唇对应12个特征点。
确定出生物特征的特征点后,就可以确定出眼睛、嘴巴、鼻子、眉毛的具体位置了,然后基于眼睛、嘴巴、鼻子、眉毛的具体位置对人脸图像进行调整(比如错切、旋转等),使得当前人脸图像中的眼睛、嘴巴、鼻子、眉毛尽可能的还原用户真实脸部的生物特征。
需要说明的是,预处理过程和调整过程也可由授课设备在采集用户的当前人脸图像之后执行,具体可见有关于授课设备侧的实施例中的描述,在此不再赘述。
可选的,在本申请的一种实施例中,匹配单元73具体用于:利用预先训练的面部识别深度卷积神经网络对至少一个用户的原始人脸图像进行识别,获得至少一个第一组特征测量值;其中,一个用户的原始人脸图像对应一个第一组特征测量值;利用所述面部识别深度卷积神经网络对当前人脸图像进行识别,获得第二组特征测量值;根据至少一个第一组特征测量值及第二组特征测量值对当前人脸图像与至少一个用户的原始人脸图像进行匹配。其中,第一组特征测量值可以理解为用户的基准特征测量值,第一组特征测量值包括128个测量值,第二组特征测量值也包括128个。
这里,面部识别深度卷积神经网络是根据多个人脸样本预先进行训练得出的,本申请可以直接使用。为了提高面部识别深度卷积神经网络的识别精度,多个人脸样本在训练之前,还可以对人脸样本进行光线补偿、灰度校正及噪声过滤等预处理操作,以及对人脸样本进行调整的操作。
可选的,在本申请的一种实施例中,根据至少一个第一组特征测量值及第二组特征测量值对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配,时,匹配单元73具体还用于:基于第二组特征测量值,遍历至少一个第一组特征测量值,确定出与第二组特征测量值相似度最高的第一组特征测量值,作为目标特征测量值;确定第二组特征测量值与目标特征测量值之间的欧式距离值;判断欧式距离值是否超出预设的距离阈值,若未超出,则确定当前人脸图像与至少一个用户的原始人脸图像匹配成功。
可选的,在本申请的一种实施例中,在基于所述第二组特征测量值,遍历所述至少一个第一组特征测量值,确定出与所述第二组特征测量值相似度最高的第一组特征测量值时,匹配单元73具体用于:基于第二组特征测量值,确定出第二组特征测量值与每个第一组特征测量值之间的差值;确定出最小差值对应的所述第一组特征测量值,所述最小差值对应的所述第一组特征测量值为与所述第二组特征测量值相似度最高的第一组特征测量值。
可选的,在本申请的一种实施例中,确定第二组特征测量值与目标特征测量值之间的欧式距离值d(x,y)时,匹配单元73具体用于:根据公式
Figure BDA0002364904820000181
确定第二组特征测量值与目标特征测量值之间的欧式距离值d(x,y)。其中,n为128,x1~xn为第一组特征测量值,y1~yn为第二组特征测量值。
可选的,在本申请的一种实施例中,第三发送单元74具体用于:基于当前人脸图像从映射表中提取对应的课件信息。
这样,用户在授课时,无需再去利用自身携带的移动存储设备将课件信息拷贝至授课设备中,然后再去查找课件位置,手动打开课件信息。在获取课件信息时,只需基于人脸匹配就可以获取到相应的课件信息,提高了课件的获取效率,减轻了用户的携带负担。并且,这样获取课件信息的方式不但能提高课件信息的获取效率、授课准备效率及授课效率,而且在用户忘记携带课件的情况下,也能确保授课效率。
基于同样的发明构思,本申请提供了一种计算机设备,详见实施例七。
实施例七
本实施例提供一种计算机设备,如图8所示,包括存储器810、处理器820及存储在存储器810上并可在处理器820上运行的计算机程序811,处理器820执行计算机程序811时实现实施例一到实施例三中任一实施例中公开的内容。
由于本实施例所介绍的计算机设备为实施本申请实施例一到实施例三中一种用于获取课件信息的方法所采用的设备,故而基于本申请实施例一到实施例三中所介绍的方法,本领域所属技术人员能够了解本实施例的计算机设备的具体实施方式以及其各种变化形式,所以在此对于该计算机设备如何实现本申请实施例中的方法不再详细介绍。只要本领域所属技术人员实施本申请实施例一到实施例三中的方法所采用的设备,都属于本申请所欲保护的范围。
基于同一发明构思,本申请提供了一种计算机可读存储介质,详见实施例八。
实施例八
本实施例提供一种计算机可读存储介质900,如图9所示,其上存储有计算机程序911,该计算机程序911被处理器执行时实现实施例一到实施例三中任一实施例中公开的内容。
本申请实施例提供的用于获取课件信息的方法、授课设备、备课设备及服务器能带来的有益效果至少是:
本申请实施例提供的用于获取课件信息的方法、授课设备、备课设备及服务器,因服务器中预先存储有至少一个用户的原始人脸图像及对应的课件信息;当用户需要进行授课时,授课设备只需采集下用户的当前人脸图像,若当前人脸图像能与预先存储的原始人脸图像匹配成功时,则会基于当前人脸图像自动获取到对应的课件信息;这样,用户在授课时,无需自行携带任何移动存储设备拷贝课件,只需通过人脸匹配就可以获取到相应的课件信息,减轻了用户的携带负担;并且,这样获取课件信息的方式不但能提高课件信息的获取效率、授课准备效率及授课效率,而且在用户忘记携带课件的情况下,也能确保授课效率。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种用于获取课件信息的方法,其特征在于,应用在授课设备,所述方法包括:
采集用户的当前人脸图像,将所述用户的当前人脸图像发送至服务器,以使得所述服务器对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配;
当所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,接收所述服务器发送的所述当前人脸图像对应的课件信息;所述服务器中预先存储有所述至少一个用户的原始人脸图像及对应的课件信息。
2.一种用于获取课件信息的方法,其特征在于,应用在备课设备,所述方法包括:
预先获取至少一个用户的原始人脸图像及对应的课件信息;
发送所述至少一个用户的原始人脸图像及对应的课件信息至服务器进行预先存储,以使得所述服务器对接收到的当前人脸图像与所述至少一个用户的原始人脸图像进行匹配,当所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至授课设备。
3.一种用于获取课件信息的方法,其特征在于,应用在服务器,所述方法包括:
接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储;
接收授课设备发送的当前人脸图像,对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配;
若所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功,则获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至所述授课设备。
4.如权利要求3所述的方法,其特征在于,所述对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配,包括:
利用预先训练的面部识别深度卷积神经网络对所述至少一个用户的原始人脸图像进行识别,获得至少一个第一组特征测量值;其中,一个用户的原始人脸图像对应一个第一组特征测量值;
利用所述面部识别深度卷积神经网络对所述当前人脸图像进行识别,获得第二组特征测量值;
根据所述至少一个第一组特征测量值及所述第二组特征测量值对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配。
5.如权利要求3所述的方法,其特征在于,所述对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配之前,包括:
利用面部特征点估计算法确定所述当前人脸图像中生物特征的特征点;所述生物特征包括:嘴巴、眼睛、眉毛、下巴及鼻子;
根据所述特征点调整所述当前人脸图像。
6.一种授课设备,其特征在于,包括:
采集单元,用于采集用户的当前人脸图像;
第一发送单元,用于将所述用户的当前人脸图像发送至服务器,以使得所述服务器对所述当前人脸图像与至少一个用户的原始人脸图像进行匹配;
第一接收单元,用于在所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,接收所述服务器发送的所述当前人脸图像对应的课件信息;所述服务器中预先存储有所述至少一个用户的原始人脸图像及对应的课件信息。
7.一种备课设备,其特征在于,包括:
获取单元,用于预先获取至少一个用户的原始人脸图像及对应的课件信息;
第二发送单元,用于发送所述至少一个用户的原始人脸图像及对应的课件信息至服务器进行预先存储,以使得所述服务器对接收到的当前人脸图像与所述至少一个用户的原始人脸图像进行匹配,当所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至授课设备。
8.一种服务器,其特征在于,所述服务器包括:
存储单元,用于接收备课设备发送的至少一个用户的原始人脸图像及对应的课件信息进行预先存储;
第二接收单元,用于接收授课设备发送的当前人脸图像;
匹配单元,用于对所述当前人脸图像与所述至少一个用户的原始人脸图像进行匹配;
第三发送单元,用于在所述当前人脸图像与所述至少一个用户的原始人脸图像匹配成功时,获取所述当前人脸图像对应的课件信息,将所述当前人脸图像对应的课件信息发送至所述授课设备。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至5任一项所述方法的步骤。
10.一种用于获取课件信息的计算机设备,其特征在于,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中,所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至5任一项所述方法的步骤。
CN202010032700.4A 2020-01-13 2020-01-13 用于获取课件信息的方法、授课设备、备课设备及服务器 Pending CN111259774A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010032700.4A CN111259774A (zh) 2020-01-13 2020-01-13 用于获取课件信息的方法、授课设备、备课设备及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010032700.4A CN111259774A (zh) 2020-01-13 2020-01-13 用于获取课件信息的方法、授课设备、备课设备及服务器

Publications (1)

Publication Number Publication Date
CN111259774A true CN111259774A (zh) 2020-06-09

Family

ID=70948754

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010032700.4A Pending CN111259774A (zh) 2020-01-13 2020-01-13 用于获取课件信息的方法、授课设备、备课设备及服务器

Country Status (1)

Country Link
CN (1) CN111259774A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634483A (zh) * 2020-12-24 2021-04-09 深兰盛视科技(苏州)有限公司 签到方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202584465U (zh) * 2012-04-24 2012-12-05 山东中创软件工程股份有限公司 一种信息交互设备
WO2016070575A1 (zh) * 2014-11-07 2016-05-12 中兴通讯股份有限公司 一种管理课件资源的方法及装置
CN109191970A (zh) * 2018-10-29 2019-01-11 衡阳师范学院 一种基于云平台的计算机教学授课系统及方法
CN110414347A (zh) * 2019-06-26 2019-11-05 北京迈格威科技有限公司 人脸验证方法、装置、设备和存储介质
CN110659895A (zh) * 2019-09-24 2020-01-07 Oppo广东移动通信有限公司 支付方法、装置、电子设备及介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202584465U (zh) * 2012-04-24 2012-12-05 山东中创软件工程股份有限公司 一种信息交互设备
WO2016070575A1 (zh) * 2014-11-07 2016-05-12 中兴通讯股份有限公司 一种管理课件资源的方法及装置
CN109191970A (zh) * 2018-10-29 2019-01-11 衡阳师范学院 一种基于云平台的计算机教学授课系统及方法
CN110414347A (zh) * 2019-06-26 2019-11-05 北京迈格威科技有限公司 人脸验证方法、装置、设备和存储介质
CN110659895A (zh) * 2019-09-24 2020-01-07 Oppo广东移动通信有限公司 支付方法、装置、电子设备及介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634483A (zh) * 2020-12-24 2021-04-09 深兰盛视科技(苏州)有限公司 签到方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN104239858B (zh) 一种人脸特征验证的方法和装置
CN106599881A (zh) 学生状态的确定方法、装置及系统
CN113128449A (zh) 用于人脸图像处理的神经网络训练、人脸图像处理方法及装置
CN109685713B (zh) 化妆模拟控制方法、装置、计算机设备及存储介质
CN106056064A (zh) 一种人脸识别方法及人脸识别装置
CN110956138B (zh) 一种基于家教设备的辅助学习方法及家教设备
CN111639629B (zh) 一种基于图像处理的猪只体重测量方法、装置及存储介质
CN114419736A (zh) 一种实验评分方法、系统、设备及可读存储介质
CN105224285A (zh) 眼睛开闭状态检测装置和方法
CN112101124A (zh) 一种坐姿检测方法及装置
CN111614897B (zh) 一种基于用户偏好多维度驱动的智能拍照方法
CN104091173A (zh) 一种基于网络摄像机的性别识别方法及装置
EP3920094A3 (en) Method and apparatus for updating user image recognition model
CN112633221A (zh) 一种人脸方向的检测方法及相关装置
CN115546692A (zh) 一种远程教育数据采集分析方法、设备及计算机存储介质
CN115984930A (zh) 微表情识别方法、装置、微表情识别模型的训练方法
CN111259774A (zh) 用于获取课件信息的方法、授课设备、备课设备及服务器
CN110503101A (zh) 字形评价方法、装置、设备及计算机可读存储介质
CN112597823A (zh) 注意力识别方法、装置、电子设备及存储介质
CN110443122B (zh) 信息处理方法及相关产品
CN113436735A (zh) 基于人脸结构度量的体重指数预测方法、设备和存储介质
CN109726648A (zh) 一种基于机器学习的人脸图像识别方法和装置
CN113627271A (zh) 一种移动式岩石矿物快速智能识别方法
JP2005108206A (ja) 円中心位置検出方法および装置並びにプログラム
CN112560705A (zh) 人脸检测方法和装置,电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination