CN107358213A - 一种儿童阅读习惯检测方法及装置 - Google Patents
一种儿童阅读习惯检测方法及装置 Download PDFInfo
- Publication number
- CN107358213A CN107358213A CN201710596108.5A CN201710596108A CN107358213A CN 107358213 A CN107358213 A CN 107358213A CN 201710596108 A CN201710596108 A CN 201710596108A CN 107358213 A CN107358213 A CN 107358213A
- Authority
- CN
- China
- Prior art keywords
- children
- reading
- information
- time
- sitting posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 78
- 230000008859 change Effects 0.000 claims abstract description 28
- 238000000034 method Methods 0.000 claims abstract description 19
- 230000001815 facial effect Effects 0.000 claims description 23
- 238000012360 testing method Methods 0.000 claims description 18
- 230000005764 inhibitory process Effects 0.000 claims description 12
- 230000036651 mood Effects 0.000 claims description 11
- 235000013399 edible fruits Nutrition 0.000 claims description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 7
- 230000036544 posture Effects 0.000 description 106
- 238000011156 evaluation Methods 0.000 description 5
- 210000000744 eyelid Anatomy 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K17/00—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
- G06K17/0022—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisions for transferring data to distant stations, e.g. from a sensing device
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种儿童阅读习惯检测方法,该方法包括以下步骤:在设定的检测时间段内,接收图书识别器的识别信息,当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息,根据第一扫描信息和识别信息,确定儿童阅读的图书的图书信息,根据第一扫描信息,确定儿童的坐姿信息,当检测到儿童的坐姿发生变化时,计算儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔,根据时间间隔,确定在时间间隔内儿童的阅读状态,根据图书信息、坐姿信息以及阅读状态,确定儿童在检测时间段内的阅读习惯。应用本发明提供的技术方案,能够全面检测出儿童的阅读习惯。本发明还提供了一种儿童阅读习惯检测装置,具有相应技术效果。
Description
技术领域
本发明涉及检测技术领域,特别是涉及一种儿童阅读习惯检测方法及装置。
背景技术
阅读习惯,说的是阅读者在阅读的过程中,不需要他人强制,也不需要自己警觉,就能够自然而然地进行阅读的种种动作。良好的阅读习惯对提高阅读能力,保证阅读质量以及提高阅读效率等方面有着重要作用。
培养良好的阅读习惯,儿童时期的培养,特别是幼儿时期的培养,显得至关重要。因为此时的儿童对事事都缺乏耐心和持久力的同时,却又对事事都好奇,正是让儿童从养成享受阅读,爱好阅读的好习惯的最佳时期。养成良好的坐姿和阅读状态,并且根据儿童阅读的图书发现儿童的阅读兴趣,是培养儿童阅读习惯的主要内容。要培养良好的阅读习惯,自然是通过对儿童的阅读习惯进行检测,以便采取相应措施对儿童不好的阅读习惯进行改正。例如对于坐姿不正确的儿童,提醒家长加强该儿童的坐姿训练。
现有技术中,由于儿童的年龄原因,样本不容易统计导致获得的样本较少,并且样本特别容易受外界干扰导致统计结果不具有代表性,同时连续性的样本也很难获得,只能检测出该儿童阅读习惯中的单一指标。
对于同一儿童,如何全面,准确的检测该儿童的阅读习惯,是目前本领域技术人员急需解决的技术问题。
发明内容
本发明的目的是提供一种儿童阅读习惯检测方法及装置,对同一儿童进行图书信息,坐姿信息以及阅读状态三个方面的检测,以全面地检测出该儿童的阅读习惯,以便进行综合的评价。
为解决上述技术问题,本发明提供如下技术方案:
一种儿童阅读习惯检测方法,该方法包括:
在设定的检测时间段内,接收图书识别器的识别信息;
当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息;
根据所述第一扫描信息和所述识别信息,确定所述儿童阅读的图书的图书信息;
根据所述第一扫描信息,确定所述儿童的坐姿信息;
当检测到所述儿童的坐姿发生变化时,计算所述儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔;
根据所述时间间隔,确定在所述时间间隔内所述儿童的阅读状态;
根据所述图书信息、所述坐姿信息以及所述阅读状态,确定所述儿童在所述检测时间段内的阅读习惯。
优选的,所述根据所述第一扫描信息和所述识别信息,确定所述儿童阅读的图书的图书信息,包括:
根据所述识别信息,检索数据库得到相应的检索信息;
根据所述第一扫描信息和所述检索信息,确定所述儿童阅读的图书的图书信息。
优选的,所述根据所述第一扫描信息和所述检索信息,确定所述儿童阅读的图书的图书信息,包括:
根据所述第一扫描信息,确定所述儿童的位置信息和每本图书的位置信息;
检测与所述儿童距离最近的第一图书的深度特征;
根据所述检索信息和所述深度特征,确定所述儿童阅读的所述第一图书的图书信息。
优选的,还包括:
当确定所述儿童阅读的所述第一图书的图书信息时,记录下此刻的第一时间戳;
当确定所述儿童阅读的所述第一图书的图书信息发生变化时,记录下此刻的第二时间戳;
根据所述第二时间戳和所述第一时间戳,确定所述儿童对所述第一图书的第一阅读时长。
优选的,所述根据所述第一扫描信息,确定所述儿童的坐姿信息,包括:
检测所述第一扫描信息中针对儿童预设的身体关键点的位置信息,得到位置检测结果;
根据所述位置检测结果,确定所述儿童的坐姿信息。
优选的,所述身体关键点包括面部关键点和两个肩部关键点;
所述根据所述位置检测结果,确定所述儿童的坐姿信息,包括:
在确定所述面部关键点的高度高于预设的面部高度阈值,且两个所述肩部关键点的水平高度的差值低于预设的双肩高度差值阈值时,确定所述儿童的坐姿信息为正直坐姿。
优选的,所述根据所述时间间隔,确定在所述时间间隔内所述儿童的阅读状态,包括:
确定所述时间间隔是否高于预设的间隔阈值;
如果是,则确定所述时间间隔为深层阅读间隔,在所述深层阅读间隔内所述儿童的阅读状态为深层阅读状态;
否则,确定所述时间间隔为浅层阅读间隔,在所述浅层阅读间隔内所述儿童的阅读状态为浅层阅读状态。
优选的,在所述确定所述时间间隔为深层阅读间隔之后,还包括:
根据所述儿童进入门禁时的第三时间戳和离开门禁时的第四时间戳,得到所述儿童的总阅读时间;
累计在所述总阅读时间内的每一个深层阅读间隔,得到所述儿童的深层阅读时间;
确定所述深层阅读时间在所述总阅读时间中的占比是否低于预设的深层阅读占比阈值;
如果是,则输出深层阅读状态提示信息。
优选的,在所述确定所述时间间隔为深层阅读间隔之后,还包括:
根据所述第一扫描信息,识别所述儿童在所述深层阅读间隔内的脸部点位;
根据所述脸部点位,确定所述儿童在所述深层阅读间隔内的阅读情绪。
一种儿童阅读习惯检测装置,该装置包括:
识别信息接收模块,用于在设定的检测时间段内,接收图书识别器的识别信息;
第一扫描信息接收模块,用于当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息;
图书信息确定模块,用于根据所述第一扫描信息和所述识别信息,确定所述儿童阅读的图书的图书信息;
坐姿信息确定模块,用于根据所述第一扫描信息,确定所述儿童的坐姿信息;
时间间隔确定模块,用于当检测到所述儿童的坐姿发生变化时,计算所述儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔;
阅读状态确定模块,用于根据所述时间间隔,确定在所述时间间隔内所述儿童的阅读状态;
阅读习惯确定模块,用于根据所述图书信息、所述坐姿信息以及所述阅读状态,确定所述儿童在所述检测时间段内的阅读习惯。
应用本发明实施例所提供的技术方案,在设定的检测时间段内,接收图书识别器的识别信息,当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息,并根据第一扫描信息和识别信息,确定儿童阅读的图书的图书信息,根据第一扫描信息,确定儿童的坐姿信息,当检测到儿童的坐姿发生变化时,计算儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔,根据时间间隔,确定在时间间隔内儿童的阅读状态,进一步根据图书信息、坐姿信息以及阅读状态,确定儿童在检测时间段内的阅读习惯。
对同一儿童进行图书信息,坐姿信息以及阅读状态三个方面的检测,能够全面地得出该儿童的阅读习惯,以便进行综合的评价。并且针对每一个儿童,通过图书识别器和第一图像采集设备,对阅读区域的每个儿童各自的阅读习惯进行检测,避免了由于儿童年龄因素带来的样本少和样本易受干扰的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中一种儿童阅读习惯检测方法的阅读场景示意图;
图2为本发明中一种儿童阅读习惯检测方法的实施流程图;
图3为本发明中基于人体骨架的身体关键点的位置示意图;
图4为本发明中一种儿童阅读习惯检测装置的结构示意图。
具体实施方式
本发明的核心是提供一种儿童阅读习惯检测方法,对同一儿童进行图书信息,坐姿信息以及阅读状态三个方面的检测,以全面地检测出该儿童的阅读习惯,以便进行综合的评价。并且避免了在阅读习惯检测的过程中,由于儿童年龄因素带来的样本少和样本易受干扰的问题。
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,该方法可以应用于阅读室中儿童阅读场景。门禁101可以分别记录下每个儿童进出阅读室的时间戳,并发送给服务器105。摄像头102可以扫描选书区域103并得到相应的扫描信息,摄像头104可以扫描阅读区域并得到相应的扫描信息,服务器105可以接收摄像头102和摄像头104各自的扫描信息,RFID(Radio Frequency Identification射频识别技术)图书识别器106可以检测图书信息。
请参考图2,为本发明中一种儿童阅读习惯检测方法的实施流程图,该方法可以包括以下步骤:
S201:在设定的检测时间段内,接收图书识别器的识别信息。
图书识别器可以为一种传感器,例如RFID图书识别器,当然,可以预先对每一本图书贴上RFID识别码以便RFID图书识别器进行识别。图书识别器可以对预设的阅读区域进行识别得到相应的识别信息,该阅读区域例如可以为设置在环形阅览室中的区域,当然,图书识别器的识别范围覆盖设定的阅读区域,图示识别器的放置位置可以选择书桌下。识别出的图书的识别信息可以为图书名称的编码。
当图书识别器得到识别信息时,可以向服务器发送该识别信息,服务器接收图书识别器的识别信息。
S202:当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息。
第一图像采集设备可以扫描阅读区域,当检测到设定的阅读区域内存在儿童时,可以向服务器发送第一扫描信息,服务器接收第一图像采集设备的第一扫描信息。第一图像采集设备的扫描范围覆盖阅读区域,第一图像采集设备可以为摄像头,例如GRB(色彩模式)摄像头。
需要说明的是,服务器可以在接收图书识别器的识别信息之后,向第一图像采集设备发送信息以开启第一图像采集设备,当然也可以是图书识别器在得到识别信息之后,向第一图像采集设备发送信息以开启第一图像采集设备,还可以是第一图像采集设备持续开启,或者周期性开启,以便得到阅读区域的第一扫描信息。以上方案的选取,并不影响本发明的实施。
第一图像采集设备可以根据第一扫描信息中是否存在人脸信息来确定阅读区域是否存在儿童,当然,也可以根据第一扫描信息中的儿童身体关键点的位置信息,确定阅读区域是否存在儿童,并不影响本发明的实施。
服务器接收第一图像采集设备的第一扫描信息之后,可以进行步骤S203的操作。
S203:根据第一扫描信息和识别信息,确定儿童阅读的图书的图书信息。
服务器在得到第一扫描信息和识别信息之后,根据第一扫描信息和识别信息,确定儿童阅读的图书的图书信息。
在本发明的一种具体实施方式中,步骤S203可以包括以下步骤:
步骤一:根据识别信息,检索数据库得到相应的检索信息;
步骤二:根据第一扫描信息和检索信息,确定儿童阅读的图书的图书信息。
服务器接收图书识别器发送的图书的识别信息后,检索数据库得到相应的检索信息。检索信息可以为一个检索信息列表,检索信息列表中可以包含图书的名称和/或图书的作者,还可以包含图书的简要介绍、图书的类别、图书的首次出版日期以及同类图书的名称等信息。当然,图书的检索信息还可以为携带该图书的正面封面的图片信息和/或该图书的背面封面的图片信息的检索信息。
在得到检索信息之后,服务器根据第一扫描信息和检索信息,确定与儿童的阅读的图书对应的图书信息。当然,如果第一扫描信息中存在多个儿童,针对每一个儿童,可以根据第一扫描信息,确定该儿童正在阅读的图书。例如通过第一扫描信息中的该儿童的眼部关键点的位置,确定该儿童的眼睛注视方向,沿着注视方向与该儿童距离最近的图书可以确定为该儿童的阅读图书。确定出该儿童的阅读的图书之后,可以将第一扫描信息中的该图书的扫描信息,与检索信息做比较,可以确定出该儿童阅读的图书对应的图书信息。图书信息可以为图书的名称,图书的类别等信息。
在本发明的一种具体实施方式中,上述步骤二可以包括以下步骤:
第一个步骤:根据第一扫描信息,确定儿童的位置信息和每本图书的位置信息;
第二个步骤:检测与儿童距离最近的第一图书的深度特征;
第三个步骤:根据检索信息和深度特征,确定儿童阅读的第一图书的图书信息。
服务器可以根据第一扫描信息,确定第一扫描信息中的儿童的位置信息以及每一本图书的位置信息。服务器可以将与该儿童距离最近的图书确定为该儿童正在阅读的图书。在本发明的实施例中,可以将与该儿童距离最近的图书称为第一图书。服务器可以检测第一图书的深度特征。深度特征可以为正面封面的图片特征或者背面封面的图片特征,也可以为封面的图书名称或者作者名称,还可以为图书内容中的特征。
在检测出第一图书的深度特征后,服务器根据检索信息和第一图书的深度特征,确定该儿童阅读的第一图书对应的图书信息。例如,当深度特征为图书名称和图书作者时,从检索信息中确定出与深度特征中的图书名称具有相同名称的相应图书的检索信息,如果有超过一条的检索信息中的图书名称与深度特征中的图书名称相同,可以从这些检索信息中进一步确定图书作者和深度特征中的图书作者相同的一条检索信息,将该条检索信息中包含的信息确定为第一图书对应的图书还包括:
在本发明的一种具体实施方式中,还可以包括以下步骤:
步骤一:当确定儿童阅读的第一图书的图书信息时,记录下此刻的第一时间戳;
步骤二:当确定儿童阅读的第一图书的图书信息发生变化时,记录下此刻的第二时间戳;
步骤三:根据第二时间戳和第一时间戳,确定儿童对第一图书的第一阅读时长。
当服务器确定儿童阅读的第一图书对应的图书信息时,记录下此刻的第一时间戳,当确定该儿童阅读的第一图书对应的图书信息发生变化时,记录下此刻的第二时间戳。第一图书对应的图书信息发生变化的原因有多种,例如该儿童换了一本图书进行阅读,或者该儿童离开阅读区域等。根据第一时间戳和第二时间戳,可以确定该儿童对第一图书的第一阅读时长。
当然,在确定出第一阅读时长之后,还可以根据第一阅读时长的长短,确定该儿童对第一图书是否感兴趣,或者对第一图书感兴趣的程度大小。需要说明的是,对于同一本图书,该儿童可能分多次进行阅读,本发明还可以累积当天该儿童对第一图书的每一次的第一阅读时长,得到当天第一阅读总时长,根据第一阅读总时长,确定该儿童对于第一图书的感兴趣程度。需要指出的是,本发明还可以检测该儿童阅读第一图书时的阅读坐姿和阅读状态,以便得到该儿童对于第一图书的阅读习惯。
S204:根据第一扫描信息,确定儿童的坐姿信息。
在接收第一图像采集设备的第一扫描信息之后,可以根据第一扫描信息,确定儿童的坐姿信息。例如将第一扫描信息中的儿童的身体关键点的位置和坐姿数据库进行对比,得到该儿童的坐姿信息。
在本发明的一种具体实施方式中,步骤S204包括以下步骤:
步骤一:检测第一扫描信息中针对儿童预设的身体关键点的位置信息,得到位置检测结果;
步骤二:根据位置检测结果,确定儿童的坐姿信息。
可以根据人体骨架算法,检测第一扫描信息中针对儿童预设的身体关键点的位置信息。例如,可以预设七个基于人体骨架的身体关键点,如图3所示,其中点A为面部关键点,点B和点C为两个肩部关键点,点D和点E为两个手拐关键点,点F和点G为两个手掌关键点。当然,本发明也可以针对儿童预设其他身体关键点,并不影响本发明的实施。
根据第一扫描信息中的身体关键点,可以得到各个身体关键点的位置信息。根据各个身体关键点的位置信息,可以得到位置检测结果。例如包含各个身体关键点的高度,脸部关键点和左肩关键点的间距的位置检测结果。
根据位置检测结果,可以按照预设的坐姿判断规则来确定儿童的坐姿。例如当位置检测结果中脸部关键点的高度检测结果符合坐姿判断标准中的下趴坐姿时,可以确定儿童的坐姿信息为身体下趴。当位置检测结果中肩部关键点的高度检测结果符合坐姿判断标准中的正直坐姿时,可以确定儿童的坐姿信息为正直坐姿。
在本发明的一种具体实施方式中,预设的身体关键点包括面部关键点和两个肩部关键点,上述步骤二中的根据位置检测结果,确定儿童的坐姿信息可以包括以下步骤:
在确定面部关键点的高度高于预设的面部高度阈值,且两个肩部关键点的水平高度的差值低于预设的双肩高度差值阈值时,确定儿童的坐姿信息为正直坐姿。
在检测第一扫描信息中的儿童的面部关键点和两个肩部关键点之后,得到相应的位置检测结果。根据该位置检测结果,可以确定面部关键点的高度是否高于预设的面部高度阈值,并且确定两个肩部关键点的水平高度的差值是否低于预设的双肩高度差值阈值。当然,面部关键点的高度的确定和两个肩部关键点的水平高度差值的确定,执行的先后顺序本发明并不进行限定,也可以同时执行,并不影响本发明的实施。
当面部关键点的高度超过预设的面部阈值,并且两个肩部关键点的水平高度的差值低于预设的双肩高度差值阈值时,可以确定该儿童的坐姿信息为正直坐姿。
面部阈值和双肩高度差值阈值的预设均可以根据实际情况进行设定和调整,例如根据进入阅读区域的儿童的平均年龄,阅读室当地的儿童的平均身高等因素调整面部阈值和双肩高度差值阈值。
当面部关键点的高度低于预设的面部阈值,或者两个肩部关键点的水平高度的差值高于预设的双肩高度差值阈值时,可以确定该儿童的坐姿信息为非正直坐姿。当然,本发明还可以通过多个身体关键点的位置检测结果,确定该儿童的坐姿信息。例如:在确定两个肩部关键点、两个手拐关键点以及两个手掌关键点中存在至少两个关键点的垂直高度低于预设的下趴阈值时,确定儿童的坐姿信息为身体下趴。在确定两个肩部关键点的间距低于预设的后躺间距阈值时,确定儿童的坐姿信息为身体后躺。在确定面部关键点与两个肩部关键点的间距值的差值超出预设的倾斜阈值时,确定儿童的坐姿为身体倾斜。
需要指出的是,本发明还可以累计儿童在设定的检测时间段内的坐姿为正直坐姿的目标时长,并根据目标时长在检测时间段中的占比,得到儿童在检测时间段内的坐姿评价结果。例如将检测时间段设置为该儿童当天进入阅读区域的总时长,当目标时长在检测时间段中的占比超过80%时,可以确定该儿童在该检测时间段内的坐姿信息为健康,当目标时长在检测时间段中的占比低于80%但高于60%时,可以确定该儿童在该检测时间段内的坐姿信息为轻度不良,并且可以向该儿童的家长发送加强坐姿监测的提示信息。当目标时长在检测时间段中的占比低于60%但超过40%时,可以确定该儿童在该检测时间段内的坐姿信息为中度不良,并且可以向该儿童的家长发送加强坐姿监测的提示信息。当目标时长在检测时间段中的占比低于40%时,可以确定该儿童在该检测时间段内的坐姿信息为高度不良,并且可以向该儿童的家长发送纠正坐姿的提示信息。进一步的,将检测时间段设置为该儿童本季度进入阅读区域的总时长时,可以得到该儿童本季度的阅读习惯中的坐姿评价结果。
S205:当检测到儿童的坐姿发生变化时,计算儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔。
服务器根据第一扫描信息确定儿童的坐姿之后,可以在检测到儿童的坐姿发生变化时,计算儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔。
服务器可以根据儿童的关节关键点位置和/或脸部关键点位置的位置变化,来确定该儿童的坐姿是否发生变化。例如,当脸部关键点的高度变化超出二十厘米时,可以确定该儿童的坐姿发生变化,也可以根据儿童的关节关键点的位置变化,或者关节关键点与脸部关键点的距离变化,来确定该儿童的坐姿是否发生变化。
当检测到儿童的坐姿发生变化时,可以记录下此时的时刻,根据上一次发生坐姿变化的时刻,可以计算得到两个时刻之间的时间间隔。
在确定儿童发生坐姿变化的时间间隔之后,可以进行步骤S206的操作。
S206:根据时间间隔,确定在时间间隔内儿童的阅读状态。
在确定儿童发生坐姿变化的时间间隔后,可以根据该时间间隔,确定该儿童在这个时间间隔内的阅读状态。例如判断时间间隔是否超过十分钟,如果是,则可以确定该时间间隔内该儿童的阅读状态为好,否则,确定阅读状态为差。当然,还可以将检测时间段内具有相同阅读状态的时间间隔进行累计,以便得到该检测时间段内该儿童的阅读状态。
S207:根据图书信息、坐姿信息以及阅读状态,确定儿童在检测时间段内的阅读习惯。
服务器针对同一儿童,可以根据该儿童在检测时间段内阅读的图书信息,坐姿信息以及该儿童在检测时间段内的阅读状态,确定该儿童在检测时间段内的阅读习惯。例如,在一周的检测时间段内,某一个儿童坐姿信息为健康,阅读状态为专注力高,图书信息为三本童话故事类别的图书,五本历史故事类别的图书,可以得到该儿童的阅读习惯为感兴趣的图书类别较少,可以适当扩展阅读范围。又如在三天的检测检测时间段内,某一个儿童坐姿信息为健康,阅读状态为专注力较差,图书信息为一本历史故事类别的图书,三本科技类别的图书,一本新闻消息类别的图书,可以得到该儿童的阅读习惯为阅读专注力较低,可以加强该儿童阅读专注力的训练。
应用本发明实施例提供的技术方案,在设定的检测时间段内,接收图书识别器的识别信息,当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息,并根据第一扫描信息和识别信息,确定儿童阅读的图书的图书信息,根据第一扫描信息,确定儿童的坐姿信息,当检测到儿童的坐姿发生变化时,计算儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔,根据时间间隔,确定在时间间隔内儿童的阅读状态,进一步根据图书信息、坐姿信息以及阅读状态,确定儿童在检测时间段内的阅读习惯。
对同一儿童进行图书信息,坐姿信息以及阅读状态三个方面的检测,能够全面地得出该儿童的阅读习惯,以便进行综合的评价。并且针对每一个儿童,通过图书识别器和第一图像采集设备,对阅读区域的每个儿童各自的阅读习惯进行检测,避免了由于儿童年龄因素带来的样本少和样本易受干扰的问题。
在本发明的一种具体实施方式中,步骤S206包括以下步骤:
步骤一:确定时间间隔是否高于预设的间隔阈值,如果是,则进入步骤二,否则进入步骤三;
步骤二:确定时间间隔为深层阅读间隔,在深层阅读间隔内儿童的阅读状态为深层阅读状态;
步骤三:确定时间间隔为浅层阅读间隔,在浅层阅读间隔内儿童的阅读状态为浅层阅读状态。
本发明的该种实施方式将儿童的阅读状态分为浅层阅读状态和深层阅读状态。具体的,确定时间间隔是否高于预设的间隔阈值,间隔阈值可以根据实际情况进行设定和调整,例如,根据进行阅读状态检测的儿童的平均年龄来调整间隔阈值。
当时间间隔高于预设的间隔阈值时,可以确定时间间隔为深层阅读间隔,在该深层阅读间隔内,该儿童的阅读状态为深层阅读状态;否则,可以确定该时间间隔为浅层阅读间隔,在该浅层阅读间隔内,该儿童的阅读状态为浅层阅读状态。
需要指出的是,也可以设置多个不同的间隔阈值,例如设置第一间隔阈值和第二间隔阈值。当儿童发生坐姿变化的时间间隔低于第一间隔阈值和第二间隔阈值时,确定该时间间隔的儿童的阅读状态为差,当儿童发生坐姿变化的时间间隔低于第一间隔阈值并高于第二间隔阈值时,确定该时间间隔的儿童的阅读状态为良,当儿童发生坐姿变化的时间间隔高于第一间隔阈值和第二间隔阈值时,确定该时间间隔的儿童的阅读状态为优。
在本发明的一种具体实施方式中,在确定时间间隔为深层阅读间隔之后,还包括以下步骤:
步骤一:根据儿童进入门禁时的第三时间戳和离开门禁时的第四时间戳,得到儿童的总阅读时间;
步骤二:累计在总阅读时间内的每一个深层阅读间隔,得到儿童的深层阅读时间;
步骤三:确定深层阅读时间在总阅读时间中的占比是否低于预设的深层阅读占比阈值,如果是,则执行步骤四;
步骤四:输出深层阅读状态提示信息。
可以通过门禁系统记录儿童进入门禁时的第三时间戳和该儿童离开门禁时的第四时间戳,可以将第四时间戳减去第三时间戳,得到儿童的总阅读时间。需要指出的是,如果每一个儿童进入门禁时,门禁系统识别该儿童的身份,并向服务器发送相应的儿童信息。服务器可以根据门禁系统发送的一个或者多个儿童信息,激活数据库中相应的儿童信息,进一步将第一扫描信息中的儿童信息和数据库中被激活的儿童信息进行比较,以确定第一扫描信息中每一个儿童的身份,再进行后续步骤,则可以根据每一个儿童的身份,检测每一个儿童各自的阅读状态。
在该总阅读时间内,累计每一个深层阅读间隔,得出的和作为该儿童的深层阅读时间。相应的,可以累计每一个浅层阅读间隔,得出的和作为该儿童的浅层阅读时间。
可以计算深层阅读时间在总阅读时间中的占比,并与预设深层阅读占比阈值做比较,例如可以将深层阅读占比阈值预设为60%。当深层阅读时间在总阅读时间中的占比低于预设的占比阈值时,可以输出深层阅读状态提示信息。例如可以向该儿童的家长输出提示短信,以使家长注意应该提高该儿童的阅读专注力。当然,也可以预设多个深层阅读占比阈值,例如第一深层阅读占比阈值和第二深层阅读占比阈值,以将儿童的深层阅读状态划分为多个层级。以上方案的选取,并不影响本发明的实施。
需要说明的是,可以将预设的检测时间段设置为该儿童的总阅读时间,检测出的该儿童的阅读习惯即为该儿童在该总阅读时间中的阅读习惯。当然,也可以根据实际情况,将检测时间段设置为其他时间段。
进一步的,本发明还可以检测儿童的阅读状态中的选书状态和无效状态。具体的,可以在选书区域设置扫描范围覆盖该选书区域的第二图像采集设备。选书区域可以为书架,第二图像采集设备可以为摄像头。第二图像采集设备可以根据第二扫描信息得到儿童的选书时间。根据选书时间,可以确定该儿童的选书状态。例如当儿童的选书时间低于五分钟时,可以确定该儿童的选书状态为正常,当儿童的选书时间超过五分钟时,可以确定该儿童的选书状态为异常,并向家长发送选书状态异常提示信息。
当儿童发生坐姿变化时的时间间隔低于预设的间隔阈值,则可以确定该时间间隔为浅层阅读间隔。针对总阅读时间内的该儿童的每一个浅层阅读间隔,进行累计,可以得到该儿童的浅层阅读时间。根据该儿童的深层阅读时间和浅层阅读时间以及总阅读时间的总和,由总阅读时间与该总和的差值,可以得到该儿童的无效阅读时间。进一步地,当无效阅读时间在总阅读时间中的占比高于预设的无效占比阈值时,可以输出无效状态提示信息。例如将无效占比阈值预设为10%,当无效阅读时间在总阅读时间中的占比低于10%时,可以说明该儿童时间利用率较高,否则可以向家长输出短消息以提醒家长该儿童在阅读时,时间利用效率较低。当然,也可以直接判断无效阅读时间是否过长,例如当无效时间超过二十分钟时,向家长输出该儿童无效阅读时间过长的短消息。
在本发明的一种具体实施方式中,在确定时间间隔为深层阅读间隔之后,还包括:
步骤一:根据第一扫描信息,识别儿童在深层阅读间隔内的脸部点位;
步骤二:根据脸部点位,确定儿童在深层阅读间隔内的阅读情绪。
服务器可以根据第一扫描信息,识别儿童在深层阅读间隔内的脸部点位。具体的,可以识别儿童脸部的68个点位,根据这68个点位,确定该儿童的阅读情绪。
当儿童的阅读状态较差,有可能是受到当天的情绪影响。采用本发明的该种实施方式,在儿童进行深层阅读时,进一步确定儿童的阅读情绪,有利于综合儿童的阅读情绪来分析该儿童的阅读状态。
在本发明的一种具体实施方式中,可以根据儿童的脸部点位中的人眼关键点位置,得到上下眼皮的曲率和内外眼角的角度。当上下眼皮的曲率超过预设的眼皮曲率阈值;或者,当内外眼角的角度大于预设的眼角角度阈值时,确定该儿童在深层阅读间隔内的阅读情绪为高兴情绪。
需要说明的是,本发明也可以根据儿童的脸部点位中的嘴唇关键点位置,得到上下嘴唇的曲率和嘴角角度。当上下嘴唇的曲率超过预设的嘴唇曲率阈值;或者,当嘴角的角度大于预设的嘴角角度阈值,则确定该儿童在深层阅读间隔内的阅读情绪为高兴情绪。
上述眼皮曲率阈值、眼角角度阈值、嘴唇曲率阈值以及嘴角角度阈值均可以根据实际情况进行设定和调整,并不影响本发明的实施。
在本发明的一种具体实施方式中,进一步的,当确定儿童的阅读情绪为高兴情绪时,还可以累计每一次儿童处于高兴情绪的时间,得到高兴情绪总时间,并确定高兴情绪总时间在总阅读时间的占比,当高兴情绪总时间在总阅读时间的占比低于预设的高兴情绪阈值时,可以输出提醒信息。
高兴情绪阈值可以根据实际情况如进行阅读状态检测的儿童的平均年龄进行设定和调整,例如预设为50%。
相应于上面的方法实施例,本发明实施例还提供了一种儿童阅读习惯检测装置,下文描述的一种儿童阅读习惯检测装置与上文描述的一种儿童阅读习惯检测方法可相互对应参照。
参见图4所示,为本发明中一种儿童阅读习惯检测装置的结构示意图,该装置包括以下模块:
识别信息接收模块401,用于在设定的检测时间段内,接收图书识别器的识别信息;
第一扫描信息接收模块402,用于当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息;
图书信息确定模块403,用于根据第一扫描信息和识别信息,确定儿童阅读的图书的图书信息;
坐姿信息确定模块404,用于根据第一扫描信息,确定儿童的坐姿信息;
时间间隔确定模块405,用于当检测到儿童的坐姿发生变化时,计算儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔;
阅读状态确定模块406,用于根据时间间隔,确定在时间间隔内儿童的阅读状态;
阅读习惯确定模块407,用于根据图书信息、坐姿信息以及阅读状态,确定儿童在检测时间段内的阅读习惯。
应用本发明实施例提供的装置,在设定的检测时间段内,接收图书识别器的识别信息,当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息,并根据第一扫描信息和识别信息,确定儿童阅读的图书的图书信息,根据第一扫描信息,确定儿童的坐姿信息,当检测到儿童的坐姿发生变化时,计算儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔,根据时间间隔,确定在时间间隔内儿童的阅读状态,进一步根据图书信息、坐姿信息以及阅读状态,确定儿童在检测时间段内的阅读习惯。
对同一儿童进行图书信息,坐姿信息以及阅读状态三个方面的检测,能够全面地得出该儿童的阅读习惯,以便进行综合的评价。并且针对每一个儿童,通过图书识别器和第一图像采集设备,对阅读区域的每个儿童各自的阅读习惯进行检测,避免了由于儿童年龄因素带来的样本少和样本易受干扰的问题。
在本发明的一种具体实施方式中,图书信息确定模块403,包括:
检索信息获得子模块,用于根据识别信息,检索数据库得到相应的检索信息;
图书信息确定子模块,用于根据第一扫描信息和检索信息,确定儿童阅读的图书的图书信息。
在本发明的一种具体实施方式中,图书信息确定子模块,具体用于:
根据第一扫描信息,确定儿童的位置信息和每本图书的位置信息;
检测与儿童距离最近的第一图书的深度特征;
根据检索信息和深度特征,确定儿童阅读的第一图书的图书信息。
在本发明的一种具体实施方式中,还包括:
第一时间戳记录模块,用于当确定儿童阅读的第一图书的图书信息时,记录下此刻的第一时间戳;
第二时间戳记录模块,用于当确定儿童阅读的第一图书的图书信息发生变化时,记录下此刻的第二时间戳;
第一阅读时确定模块,用于根据第二时间戳和第一时间戳,确定儿童对第一图书的第一阅读时长。
在本发明的一种具体实施方式中,坐姿信息确定模块404,包括:
位置检测结果确定子模块,用于检测第一扫描信息中针对儿童预设的身体关键点的位置信息,得到位置检测结果;
坐姿信息确定子模块,用于根据位置检测结果,确定儿童的坐姿信息。
在本发明的一种具体实施方式中,身体关键点包括面部关键点和两个肩部关键点;
坐姿信息确定子模块,具体用于:
在确定面部关键点的高度高于预设的面部高度阈值,且两个肩部关键点的水平高度的差值低于预设的双肩高度差值阈值时,确定儿童的坐姿信息为正直坐姿。
在本发明的一种具体实施方式中,阅读状态确定模块406,具体用于:
确定时间间隔是否高于预设的间隔阈值;
如果是,则确定时间间隔为深层阅读间隔,在深层阅读间隔内儿童的阅读状态为深层阅读状态;
否则,确定时间间隔为浅层阅读间隔,在浅层阅读间隔内儿童的阅读状态为浅层阅读状态。
在本发明的一种具体实施方式中,还包括:
总阅读时间确定模块,用于根据儿童进入门禁时的第三时间戳和离开门禁时的第四时间戳,得到儿童的总阅读时间;
深层阅读时间确定模块,用于在确定时间间隔为深层阅读间隔之后,累计在总阅读时间内的每一个深层阅读间隔,得到儿童的深层阅读时间;
深层阅读占比阈值确定模块,用于确定深层阅读时间在总阅读时间中的占比是否低于预设的深层阅读占比阈值,如果是,则进入深层阅读状态提示信息输出模块;
深层阅读状态提示信息输出模块,用于输出深层阅读状态提示信息。
在本发明的一种具体实施方式中,还包括:
脸部点位确定模块,用于在确定时间间隔为深层阅读间隔之后,根据第一扫描信息,识别儿童在深层阅读间隔内的脸部点位;
阅读情绪确定模块,用于根据脸部点位,确定儿童在深层阅读间隔内的阅读情绪。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的技术方案及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (10)
1.一种儿童阅读习惯检测方法,其特征在于,包括:
在设定的检测时间段内,接收图书识别器的识别信息;
当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息;
根据所述第一扫描信息和所述识别信息,确定所述儿童阅读的图书的图书信息;
根据所述第一扫描信息,确定所述儿童的坐姿信息;
当检测到所述儿童的坐姿发生变化时,计算所述儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔;
根据所述时间间隔,确定在所述时间间隔内所述儿童的阅读状态;
根据所述图书信息、所述坐姿信息以及所述阅读状态,确定所述儿童在所述检测时间段内的阅读习惯。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一扫描信息和所述识别信息,确定所述儿童阅读的图书的图书信息,包括:
根据所述识别信息,检索数据库得到相应的检索信息;
根据所述第一扫描信息和所述检索信息,确定所述儿童阅读的图书的图书信息。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一扫描信息和所述检索信息,确定所述儿童阅读的图书的图书信息,包括:
根据所述第一扫描信息,确定所述儿童的位置信息和每本图书的位置信息;
检测与所述儿童距离最近的第一图书的深度特征;
根据所述检索信息和所述深度特征,确定所述儿童阅读的所述第一图书的图书信息。
4.根据权利要求3所述的方法,其特征在于,还包括:
当确定所述儿童阅读的所述第一图书的图书信息时,记录下此刻的第一时间戳;
当确定所述儿童阅读的所述第一图书的图书信息发生变化时,记录下此刻的第二时间戳;
根据所述第二时间戳和所述第一时间戳,确定所述儿童对所述第一图书的第一阅读时长。
5.根据权利要求1所述的方法,其特征在于,所述根据所述第一扫描信息,确定所述儿童的坐姿信息,包括:
检测所述第一扫描信息中针对儿童预设的身体关键点的位置信息,得到位置检测结果;
根据所述位置检测结果,确定所述儿童的坐姿信息。
6.根据权利要求5所述的方法,其特征在于,所述身体关键点包括面部关键点和两个肩部关键点;
所述根据所述位置检测结果,确定所述儿童的坐姿信息,包括:
在确定所述面部关键点的高度高于预设的面部高度阈值,且两个所述肩部关键点的水平高度的差值低于预设的双肩高度差值阈值时,确定所述儿童的坐姿信息为正直坐姿。
7.根据权利要求1所述的方法,其特征在于,所述根据所述时间间隔,确定在所述时间间隔内所述儿童的阅读状态,包括:
确定所述时间间隔是否高于预设的间隔阈值;
如果是,则确定所述时间间隔为深层阅读间隔,在所述深层阅读间隔内所述儿童的阅读状态为深层阅读状态;
否则,确定所述时间间隔为浅层阅读间隔,在所述浅层阅读间隔内所述儿童的阅读状态为浅层阅读状态。
8.根据权利要求7所述的方法,其特征在于,在所述确定所述时间间隔为深层阅读间隔之后,还包括:
根据所述儿童进入门禁时的第三时间戳和离开门禁时的第四时间戳,得到所述儿童的总阅读时间;
累计在所述总阅读时间内的每一个深层阅读间隔,得到所述儿童的深层阅读时间;
确定所述深层阅读时间在所述总阅读时间中的占比是否低于预设的深层阅读占比阈值;
如果是,则输出深层阅读状态提示信息。
9.根据权利要求7或8所述的方法,其特征在于,在所述确定所述时间间隔为深层阅读间隔之后,还包括:
根据所述第一扫描信息,识别所述儿童在所述深层阅读间隔内的脸部点位;
根据所述脸部点位,确定所述儿童在所述深层阅读间隔内的阅读情绪。
10.一种儿童阅读习惯检测装置,其特征在于,包括:
识别信息接收模块,用于在设定的检测时间段内,接收图书识别器的识别信息;
第一扫描信息接收模块,用于当检测到设定的阅读区域存在儿童时,接收第一图像采集设备的第一扫描信息;
图书信息确定模块,用于根据所述第一扫描信息和所述识别信息,确定所述儿童阅读的图书的图书信息;
坐姿信息确定模块,用于根据所述第一扫描信息,确定所述儿童的坐姿信息;
时间间隔确定模块,用于当检测到所述儿童的坐姿发生变化时,计算所述儿童此次发生坐姿变化的时刻与前一次发生坐姿变化的时刻的时间间隔;
阅读状态确定模块,用于根据所述时间间隔,确定在所述时间间隔内所述儿童的阅读状态;
阅读习惯确定模块,用于根据所述图书信息、所述坐姿信息以及所述阅读状态,确定所述儿童在所述检测时间段内的阅读习惯。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710596108.5A CN107358213B (zh) | 2017-07-20 | 2017-07-20 | 一种儿童阅读习惯检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710596108.5A CN107358213B (zh) | 2017-07-20 | 2017-07-20 | 一种儿童阅读习惯检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107358213A true CN107358213A (zh) | 2017-11-17 |
CN107358213B CN107358213B (zh) | 2020-02-21 |
Family
ID=60284721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710596108.5A Expired - Fee Related CN107358213B (zh) | 2017-07-20 | 2017-07-20 | 一种儿童阅读习惯检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107358213B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256499A (zh) * | 2018-02-05 | 2018-07-06 | 湖南科乐坊教育科技股份有限公司 | 一种图书评价信息确定方法、装置及系统 |
CN108460626A (zh) * | 2018-02-09 | 2018-08-28 | 天津城建大学 | 基于增强现实的图书信息服务方法及系统 |
CN109658673A (zh) * | 2018-12-12 | 2019-04-19 | 深圳市沃特沃德股份有限公司 | 学习状态监测方法、装置、可读存储介质及智能设备 |
CN109872359A (zh) * | 2019-01-27 | 2019-06-11 | 武汉星巡智能科技有限公司 | 坐姿检测方法、装置及计算机可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102752726A (zh) * | 2011-04-21 | 2012-10-24 | 施章祖 | 个性化手机报系统 |
US20130033525A1 (en) * | 2011-08-02 | 2013-02-07 | Microsoft Corporation | Cross-slide Gesture to Select and Rearrange |
CN103038727A (zh) * | 2010-06-29 | 2013-04-10 | 微软公司 | 骨架关节识别和跟踪系统 |
CN103348369A (zh) * | 2011-01-06 | 2013-10-09 | 电子湾有限公司 | 计算建议工具中的兴趣度推荐 |
CN104867281A (zh) * | 2015-05-11 | 2015-08-26 | 广东小天才科技有限公司 | 一种检测用户坐姿的方法及装置 |
CN106297213A (zh) * | 2016-08-15 | 2017-01-04 | 欧普照明股份有限公司 | 检测方法、检测装置及照明灯具 |
CN106448086A (zh) * | 2016-08-30 | 2017-02-22 | 河海大学常州校区 | 基于tof深度相机检测阅读姿态的保护视力装置及方法 |
-
2017
- 2017-07-20 CN CN201710596108.5A patent/CN107358213B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103038727A (zh) * | 2010-06-29 | 2013-04-10 | 微软公司 | 骨架关节识别和跟踪系统 |
CN103348369A (zh) * | 2011-01-06 | 2013-10-09 | 电子湾有限公司 | 计算建议工具中的兴趣度推荐 |
CN102752726A (zh) * | 2011-04-21 | 2012-10-24 | 施章祖 | 个性化手机报系统 |
US20130033525A1 (en) * | 2011-08-02 | 2013-02-07 | Microsoft Corporation | Cross-slide Gesture to Select and Rearrange |
CN104867281A (zh) * | 2015-05-11 | 2015-08-26 | 广东小天才科技有限公司 | 一种检测用户坐姿的方法及装置 |
CN106297213A (zh) * | 2016-08-15 | 2017-01-04 | 欧普照明股份有限公司 | 检测方法、检测装置及照明灯具 |
CN106448086A (zh) * | 2016-08-30 | 2017-02-22 | 河海大学常州校区 | 基于tof深度相机检测阅读姿态的保护视力装置及方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256499A (zh) * | 2018-02-05 | 2018-07-06 | 湖南科乐坊教育科技股份有限公司 | 一种图书评价信息确定方法、装置及系统 |
CN108460626A (zh) * | 2018-02-09 | 2018-08-28 | 天津城建大学 | 基于增强现实的图书信息服务方法及系统 |
CN109658673A (zh) * | 2018-12-12 | 2019-04-19 | 深圳市沃特沃德股份有限公司 | 学习状态监测方法、装置、可读存储介质及智能设备 |
CN109872359A (zh) * | 2019-01-27 | 2019-06-11 | 武汉星巡智能科技有限公司 | 坐姿检测方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107358213B (zh) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105872477B (zh) | 视频监控方法和视频监控系统 | |
CN107392146A (zh) | 一种儿童坐姿检测方法及装置 | |
CN107358213A (zh) | 一种儿童阅读习惯检测方法及装置 | |
CN105022981B (zh) | 一种检测人眼健康状态的方法、装置及移动终端 | |
Santani et al. | DrinkSense: Characterizing youth drinking behavior using smartphones | |
CN110152273B (zh) | 一种基于智能目标识别的跳绳计数方法 | |
CN104065928B (zh) | 一种行为模式统计装置与方法 | |
CN102576461B (zh) | 评估数字图像的美学质量 | |
CN103324677B (zh) | 一种可分级的快速图像gps位置估计方法 | |
CN110119672A (zh) | 一种嵌入式疲劳状态检测系统及方法 | |
CN112560723B (zh) | 一种基于形态识别与速度估计的跌倒检测方法及系统 | |
CN113069080B (zh) | 一种基于人工智能的困难气道评估方法及装置 | |
CN101583313A (zh) | 觉醒状态判断模型生成装置、觉醒状态判断装置以及警告装置 | |
CN101261680B (zh) | 图像处理设备、图像处理方法 | |
CN107292228A (zh) | 一种加快人脸识别搜索速度的方法 | |
CN107358280A (zh) | 一种儿童阅读图书检测方法及装置 | |
CN107408119A (zh) | 图像检索装置、系统以及方法 | |
CN110427795A (zh) | 一种基于头部照片的属性分析方法、系统和计算机设备 | |
CN106777973A (zh) | 自动制定培养计划的方法、装置及服务器 | |
CN109876416A (zh) | 一种基于图像信息的跳绳计数方法 | |
CN110149532A (zh) | 一种封面选取方法及相关设备 | |
CN114120357A (zh) | 一种基于神经网络的防近视方法和装置 | |
KR101538231B1 (ko) | 피부 나이 예측 방법 및 장치 | |
CN105893959A (zh) | 一种手势识别方法及装置 | |
CN107958500A (zh) | 一种用于教学实境信息实时采集的监控系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200221 Termination date: 20210720 |