CN107180310A - 一种自动确定施工现场安全标志牌布置区域的方法 - Google Patents
一种自动确定施工现场安全标志牌布置区域的方法 Download PDFInfo
- Publication number
- CN107180310A CN107180310A CN201710402570.7A CN201710402570A CN107180310A CN 107180310 A CN107180310 A CN 107180310A CN 201710402570 A CN201710402570 A CN 201710402570A CN 107180310 A CN107180310 A CN 107180310A
- Authority
- CN
- China
- Prior art keywords
- operating personnel
- eye
- relative
- region
- index
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06311—Scheduling, planning or task assignment for a person or group
- G06Q10/063114—Status monitoring or status determination for a person or group
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Educational Administration (AREA)
- Human Computer Interaction (AREA)
- Development Economics (AREA)
- General Health & Medical Sciences (AREA)
- Operations Research (AREA)
- Tourism & Hospitality (AREA)
- Eye Examination Apparatus (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
Abstract
本发明公开了一种自动确定施工现场安全标志牌布置区域的方法。它通过眼动仪实时捕捉作业人员对施工现场中各区域的访问时间、注视次数、瞳孔直径以及回视次数等眼动指标,得出作业人员对施工现场各区域的关注度,自动找出作业人员的主要关注点,从而确定安全标志牌的布置区域。本发明可以提高施工现场安全标志牌布置区域的合理性,从而提高作业人员的防范能力,减少或避免事故的发生。
Description
技术领域
本发明涉及一种自动确定施工现场安全标志牌布置区域的方法,该方法主要用于提高施工现场安全标志牌布置合理性。
背景技术
施工现场安全标志牌的布置是安全施工的重要保证,国家对此出台《安全标志及其使用导则(GB 2849-2008)》等相关标准,其中明确规定了不同施工场景下所使用标志牌的颜色、形状、型号、设置高度以及使用要求。但是并未具体给出标志牌布置的合理区域,作业现场标志牌布置区域的合理性有待考证,布置区域是否符合作业人员的心理特质更无从可知。上世纪八十年代,随着心理学研究基础课题的眼动技术的发展,人们越来越多的将眼动技术应用到生活的各个领域,例如通过眼动技术找到一个人阅读的兴趣点或者某些阅读习惯、利用眼动技术对商场商品摆放的位置或者摆放形式进行优化等。因此利用眼动技术研究人的心理特质,并将其研究成果应用于各个领域具有较高的可行性与必要性。
目前安全标志牌的布置方式基本以国家出台的相关标准中的笼统要求为依据,较少涉及到心理层面,没有一个切实可行的布置办法。
本发明为国家自然科学基金项目“大坝浇筑中交叉作业空间冲突致灾风险的时空耦合机理”(项目编号:51609128)的研究成果之一。
发明内容
本发明的目的是克服现有技术的不足,一种自动确定施工现场安全标志牌布置区域的方法。
一种自动确定施工现场安全标志牌布置区域的方法,其特征在于包括以下步骤:
步骤一,利用Tobii Glass眼动仪采集的作业人员眼动行为数据;
步骤二,处理眼动行为数据,以Tobii Glass眼动仪针对作业人员眼球运动速度识别的基准值算法为标准,利用Tobii Studio处理工具从所采集的数据中筛选找出合格眼动行为数据;首先将同时满足作业人员注视区域变化速度低于35°/s以及注视持续时间超过基准值 50ms的数据筛选出来标记为注视点,其次进行注视点数据与实际瞳孔信息之间的匹配度识别,除去低匹配度的注视点,最终得到合格眼动行为数据;
步骤三,确定眼动行为相关指标:相对访问时间,相对注视次数,相对瞳孔直径,相对回视次数;
步骤四,确定眼动行为相关指标权重;
步骤五,根据筛选后的合格眼动行为数据、眼动行为相关指标、眼动行为相关指标权重,得出作业人员对施工现场各区域的关注度;
步骤六,将最高关注度区域确定为安全标志牌布置区域。
所述的一种自动确定施工现场安全标志牌布置区域的方法,其特征在于所述步骤一的具体内容如下:
Tobii Glass眼动仪采集的作业人员眼动行为数据包括,施工现场各区域面积、在各区域中的总访问时间、注视点、注视次数、各个作业人员的左瞳孔直径、各个作业人员的右瞳孔直径、眼动事件持续时间。
所述的一种自动确定施工现场安全标志牌布置区域的方法,其特征在于步骤三中所述访问时间为:在眼动事件持续时间内出现在该区域的所有注视点持续时间之和;作业人员对于区域α的相对访问时间表达式为
其中t为作业人员对所述区域α的访问时间,sα为所述区域α的面积,δ为施工现场所有区域的单位面积访问时间之和,表达式为
其中p为总区域数;
所述注视次数为:在眼动事件持续时间内在该区域出现注视点的次数;作业人员对于区域α的相对注视次数表达式为
其中f为作业人员对所述区域α的注视次数,sα为所述区域α的面积,η为施工现场所有区域的单位面积注视次数之和,表达式为
所述瞳孔直径为:作业人员在该区域内左、右眼的平均瞳孔直径;作业人员对于区域α的相对瞳孔直径表达式为
其中d为作业人员在该区域内注视点的平均瞳孔直径,μ为作业人员在各区域注视点的瞳孔直径平均值;
所述回视次数为:所述回视为人眼在首次访问该区域后再次访问;回视次数为再次访问的次数;作业人员对于区域α的相对回视次数表达式为
其中ri为作业人员注视点从其他区域至α区域的回视次数,r为各区域内所有的回视次数。
所述的一种自动确定施工现场安全标志牌布置区域的方法,其特征在于所述步骤四中眼动行为相关指标权重确定过程如下:
过程一,构造指标关系矩阵R=(rxy)n
其中n=4代表指标数量,x与y分别代表指标相对访问时间、相对注视次数、相对瞳孔直径以及相对回视次数中的一个,当指标x的重要性高于指标y可将该结果定义为1,当指标x 的重要性低于指标y可将该结果定义为0,当指标x的重要性低于指标y可将该结果定义为 0.5。
假定四个指标的重要性各不相同,依次降低,可得矩阵
再依据公式
vx=rx1+rx2+rx3+rx4
得矩阵
过程二,建立权重系数方程
x指标对应的指标权重为
过程三,计算权重
得
I=(I1 I2 I3 I4)=(0.353 0.285 0.217 0.145)
其中I1为相对访问时间的权重,I2为相对注视次数的权重,I3为相对瞳孔直径的权重,I4为相对回视次数的权重;
所述的一种自动确定施工现场安全标志牌布置区域的方法,其特征在于所述关注度计算过程如下:
作业人员对于区域α的关注度为
AOIα=0.353×Tα+0.285×Fα+0.217×Dα+0.145×Rα
其中Tα为相对访问时间,Fα为相对注视次数,Dα为相对瞳孔直径,Rα为相对回视次数;
所述的一种自动确定施工现场安全标志牌布置区域的方法,其特征在于将关注度最高的区域确定为安全标志牌布置区域。
本发明的优点在于:
(1)本发明给出了一个能够合理布置安全标志牌的方法,该方法涉及到作业人员心理特质的研究,具有一定的科学性,因此最终得到的布置区域也较为合理,依据该方法可以提高施工作业安全系数,减少或消除安全生产事故。
(2)本发明基于TobiiGlass眼动仪及其自带的Tobii Studio数据处理工具,具有轻便、易于携带、操作简单等特点,并且随着商用眼动技术的发展,眼动仪等产品的价格也更加亲民,因此该方法也具有较强的可行性。
(3)本发明所使用的所使用的Tobii Studio数据处理工具为最新升级的版本,对数据的处理更为精确,最大化的降低数据处理误差,使得最终结果更具科学性。
(4)本发明对TobiiGlass眼动仪进行了科学化的改装,外加一套稳定支架,增加了数据的可靠性,减少了由于试验人员步行或其他动作造成数据误差的可能性。
(5)本发明在识别瞳孔直径时采用了GSA搜索方式,使得在大量瞳孔直径数据处理的过程中大大减少了运算次数,提高了数据处理结果的准确性。
具体实施方式
拟结合乌东德水电站10#引水隧洞洞身土建工程建筑工地实际案例,对本发明操作流程做进一步说明。将建筑施工现场可布置安全标志牌的地方划分为6个区域,划分情况如表1所示。
表1施工现场分区
阅读区域α的取值范围为1到6。
步骤一,首先利用Tobii Glass眼动仪采集作业人员的眼动行为数据,在施工现场随机组织35位作业人员作为志愿者进行试验,采集施工现场各区域面积、注视点在各区域中的总访问时间、注视点、注视次数、各个作业人员的左瞳孔直径、各个作业人员的右瞳孔直径、眼动事件持续时间等数据。对采集数据说明如表2所示。
表2采集数据说明
步骤二,处理眼动行为数据,以Tobii Glass眼动仪针对作业人员眼球运动速度识别的基准值算法为标准,利用Tobii Studio处理工具从所采集的数据中筛选找出合格眼动行为数据;首先将同时满足作业人员注视区域变化速度低于35°/s以及注视持续时间超过基准值 50ms的数据筛选出来标记为注视点,其次进行注视点数据与实际瞳孔信息之间的匹配度识别,除去低匹配度的注视点,最终得到合格眼动行为数据。
步骤三,确定眼动行为相关指标:相对访问时间,相对注视次数,相对瞳孔直径,相对回视次数。
在眼动事件持续时间内出现在该区域的所有注视点持续时间之和;作业人员对于区域α的相对访问时间表达式为
其中t为作业人员对所述区域α的访问时间,sα为所述区域α的面积,δ为施工现场所有区域的单位面积访问时间之和,表达式为
其中p为总区域数;
所述注视次数为:在眼动事件持续时间内在该区域出现注视点的次数;作业人员对于区域α的相对注视次数表达式为
其中f为作业人员对所述区域α的注视次数,sα为所述区域α的面积,η为施工现场所有区域的单位面积注视次数之和,表达式为
所述瞳孔直径为:作业人员在该区域内左、右眼的平均瞳孔直径;
作业人员对于区域α的相对瞳孔直径表达式为
其中d为作业人员在该区域内注视点的平均瞳孔直径,μ为作业人员在各区域注视点的瞳孔直径平均值;
依据对以上公式对35位作业人员的数据进行处理,得到各区域相关眼动行为指标如表3 所示。
表3各区域眼动行为指标数值
所述回视次数为:所述回视为人眼在首次访问该区域后再次访问;回视次数为再次访问的次数;
相对回视次数由表4所示。
表4相对回视次数矩阵
AOI1 | AOI2 | AOI3 | AOI4 | AOI5 | |
AOI1 | 0 | 20 | 34 | 0 | 0 |
AOI2 | 20 | 0 | 99 | 19 | 0 |
AOI3 | 34 | 99 | 0 | 10 | 120 |
AOI4 | 0 | 19 | 10 | 0 | 76 |
AOI5 | 0 | 0 | 120 | 76 | 0 |
作业人员对于区域α的相对回视次数表达式为
其中ri为作业人员注视点从其他区域至α区域的回视次数,r为各区域内所有的回视次数。
由此可得各区域相对回视次数如表5所示。
表5各区域相对回视次数
步骤四,确定眼动行为相关指标权重。
过程一,构造指标关系矩阵R=(rxy)n
其中n=4代表指标数量,x与y分别代表指标相对访问时间、相对注视次数、相对瞳孔直径以及相对回视次数中的一个,当指标x的重要性高于指标y可将该结果定义为1,当指标x 的重要性低于指标y可将该结果定义为0,当指标x的重要性低于指标y可将该结果定义为0.5。
假定四个指标的重要性各不相同,依次降低,可得矩阵
再依据公式
vx=rx1+rx2+rx3+rx4
得矩阵
过程二,建立权重系数方程
x指标对应的指标权重为
过程三,计算权重
得
I=(I1 I2 I3 I4)=(0.353 0.285 0.217 0.145)
其中I1为相对访问时间的权重,I2为相对注视次数的权重,I3为相对瞳孔直径的权重,I4为相对回视次数的权重;
步骤五,根据筛选后的合格眼动行为数据、眼动行为相关指标、眼动行为相关指标权重,得出作业人员对施工现场各区域的关注度;
所述关注度计算过程如下:作业人员对于区域α的关注度为
AOIα=0.353×Tα+0.285×Fα+0.217×Dα+0.145×Rα。
其中Tα为相对访问时间,Fα为相对注视次数,Dα为相对瞳孔直径,Rα为相对回视次数;
由此得作业人员对6个施工区域的关注度如表6所示。
表6各施工区域关注度
步骤六,将最高关注度区域确定为安全标志牌布置区域。
由表6可得施工AOI3关注度为7.98723,为五个施工区域当中最高的,因此建议将AOI3即隧洞上平段上层右侧确定为安全标志牌布置区域。
Claims (5)
1.一种自动确定施工现场安全标志牌布置区域的方法,其特征在于包括以下步骤:
步骤一,利用Tobii Glass眼动仪采集的作业人员眼动行为数据;
步骤二,处理眼动行为数据,以Tobii Glass眼动仪针对作业人员眼球运动速度识别的基准值算法为标准,利用Tobii Studio处理工具从所采集的数据中筛选找出合格眼动行为数据;首先将同时满足作业人员注视区域变化速度低于30°/s以及注视持续时间超过基准值60ms的数据筛选出来标记为注视点,其次进行注视点数据与实际瞳孔信息之间的匹配度识别,除去低匹配度的注视点,最终得到合格眼动行为数据;
步骤三,确定眼动行为相关指标、相对访问时间、相对注视次数、相对瞳孔直径和相对回视次数;
步骤四,确定眼动行为相关指标权重;
步骤五,根据筛选后的合格眼动行为数据、眼动行为相关指标、眼动行为相关指标权重,得出作业人员对施工现场各区域的关注度;
步骤六,将最高关注度区域确定为安全标志牌布置区域。
2.根据权利要求1所述的一种自动确定施工现场安全标志牌布置区域的方法,其特征在于所述步骤一的具体内容如下:
Tobii Glass眼动仪采集的作业人员眼动行为数据包括,施工现场各区域面积、在各区域中的总访问时间、注视点、注视次数、各个作业人员的左瞳孔直径、各个作业人员的右瞳孔直径、眼动事件持续时间。
3.根据权利要求2所述的一种自动确定施工现场安全标志牌布置区域的方法,其特征在于步骤三中所述访问时间为:在眼动事件持续时间内出现在该区域的所有注视点持续时间之和;作业人员对于区域α的相对访问时间表达式为
其中t为作业人员对所述区域α的访问时间,sα为所述区域α的面积,δ为施工现场所有区域的单位面积访问时间之和,表达式为
其中p为总区域数;
所述注视次数为:在眼动事件持续时间内在该区域出现注视点的次数;作业人员对于区域α的相对注视次数表达式为
其中f为作业人员对所述区域α的注视次数,sα为所述区域α的面积,η为施工现场所有区域的单位面积注视次数之和,表达式为
所述瞳孔直径为:作业人员在该区域内左、右眼的平均瞳孔直径;作业人员对于区域α的相对瞳孔直径D表达式为
其中d为作业人员在该区域内注视点的平均瞳孔直径,μ为作业人员在各区域注视点的瞳孔直径平均值;
所述回视次数为:所述回视为人眼在首次访问该区域后再次访问;回视次数为再次访问的次数;作业人员对于区域α的相对回视次数R表达式为
其中ri为作业人员注视点从其他区域至α区域的回视次数,r为各区域内所有的回视次数。
4.根据权利要求1所述的一种自动确定施工现场安全标志牌布置区域的方法,其特征在于所述步骤四中眼动行为相关指标权重确定过程如下:
过程一,构造指标关系矩阵R=(rxy)n
其中n=4代表指标数量,x与y分别代表指标相对访问时间、相对注视次数、相对瞳孔直径以及相对回视次数中的一个,当指标x的重要性高于指标y可将该结果定义为1,当指标x的重要性低于指标y可将该结果定义为0,当指标x的重要性低于指标y可将该结果定义为0.5。
假定四个指标的重要性各不相同,依次降低,可得矩阵
再依据公式
vx=rx1+rx2+rx3+rx4
得矩阵
过程二,建立权重系数方程
x指标对应的指标权重为
过程三,计算权重
得
I=(I1 I2 I3 I4)=(0.353 0.285 0.217 0.145)
其中I1为相对访问时间的权重,I2为相对注视次数的权重,I3为相对瞳孔直径的权重,I4为相对回视次数的权重。
5.根据权利要求1所述的一种自动确定施工现场安全标志牌布置区域的方法,其特征在于所述关注度计算过程如下:
作业人员对于区域α的关注度为
AOIα=0.353×Tα+0.285×Fα+0.217×Dα+0.145×Rα
其中Tα为相对访问时间,Fα为相对注视次数,Dα为相对瞳孔直径,Rα为相对回视次数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710402570.7A CN107180310A (zh) | 2017-06-01 | 2017-06-01 | 一种自动确定施工现场安全标志牌布置区域的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710402570.7A CN107180310A (zh) | 2017-06-01 | 2017-06-01 | 一种自动确定施工现场安全标志牌布置区域的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107180310A true CN107180310A (zh) | 2017-09-19 |
Family
ID=59835563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710402570.7A Pending CN107180310A (zh) | 2017-06-01 | 2017-06-01 | 一种自动确定施工现场安全标志牌布置区域的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107180310A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108052973A (zh) * | 2017-12-11 | 2018-05-18 | 中国人民解放军战略支援部队信息工程大学 | 基于多项眼动数据的地图符号用户兴趣分析方法 |
CN108304066A (zh) * | 2018-01-24 | 2018-07-20 | 三峡大学 | 安全标识视觉传达效果量化方法 |
CN112215729A (zh) * | 2020-10-15 | 2021-01-12 | 中国地质大学(武汉) | 一种基于bim技术的施工场地安全标识布设位置优化方法 |
CN114220159A (zh) * | 2021-11-02 | 2022-03-22 | 三峡大学 | 基于机器学习的施工安全隐患识别方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106169063A (zh) * | 2016-06-22 | 2016-11-30 | 江苏大学 | 一种自动识别用户阅读兴趣区的方法 |
-
2017
- 2017-06-01 CN CN201710402570.7A patent/CN107180310A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106169063A (zh) * | 2016-06-22 | 2016-11-30 | 江苏大学 | 一种自动识别用户阅读兴趣区的方法 |
Non-Patent Citations (1)
Title |
---|
周进: "基于驾驶员视认特性的高速公路施工区标志标牌研究", 《中国优秀硕士学位论文全文数据库 工程科技II辑》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108052973A (zh) * | 2017-12-11 | 2018-05-18 | 中国人民解放军战略支援部队信息工程大学 | 基于多项眼动数据的地图符号用户兴趣分析方法 |
CN108052973B (zh) * | 2017-12-11 | 2020-05-05 | 中国人民解放军战略支援部队信息工程大学 | 基于多项眼动数据的地图符号用户兴趣分析方法 |
CN108304066A (zh) * | 2018-01-24 | 2018-07-20 | 三峡大学 | 安全标识视觉传达效果量化方法 |
CN112215729A (zh) * | 2020-10-15 | 2021-01-12 | 中国地质大学(武汉) | 一种基于bim技术的施工场地安全标识布设位置优化方法 |
CN112215729B (zh) * | 2020-10-15 | 2022-08-09 | 中国地质大学(武汉) | 一种基于bim技术的施工场地安全标识布设位置优化方法 |
CN114220159A (zh) * | 2021-11-02 | 2022-03-22 | 三峡大学 | 基于机器学习的施工安全隐患识别方法 |
CN114220159B (zh) * | 2021-11-02 | 2024-04-23 | 三峡大学 | 基于机器学习的施工安全隐患识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | A novel vision-based real-time method for evaluating postural risk factors associated with musculoskeletal disorders | |
CN107180310A (zh) | 一种自动确定施工现场安全标志牌布置区域的方法 | |
CN108334899A (zh) | 基于手骨x光片骨骼和关节量化信息集成的骨龄评估方法 | |
CN106611157A (zh) | 一种基于光流定位和滑动窗口检测的多人姿态识别方法 | |
CN108334847A (zh) | 一种真实场景下的基于深度学习的人脸识别方法 | |
CN101499168B (zh) | 基于脊线跟踪与海森矩阵的结构光光条中心提取方法 | |
CN112364734B (zh) | 基于yolov4和CenterNet的异常着装检测方法 | |
CN110781953B (zh) | 基于多尺度金字塔卷积神经网络的肺癌病理切片分类方法 | |
CN109446889A (zh) | 基于孪生匹配网络的物体追踪方法及装置 | |
CN110378225A (zh) | 指针式仪表自动读数的识别方法及识别装置 | |
CN105574527A (zh) | 一种基于局部特征学习的快速物体检测方法 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及系统 | |
CN108474867A (zh) | 高分辨率降水量资料复原系统及其方法 | |
CN105138983B (zh) | 基于加权部件模型和选择性搜索分割的行人检测方法 | |
CN110348437A (zh) | 一种基于弱监督学习与遮挡感知的目标检测方法 | |
CN112464701A (zh) | 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法 | |
Haining et al. | Error propagation through map operations | |
CN102831614A (zh) | 基于交互式字典迁移的序列医学图像快速分割方法 | |
CN110755085A (zh) | 基于关节活动度与运动协调性的运动功能评估方法及设备 | |
CN109727226A (zh) | 一种基于机器学习的位置表自动生成方法 | |
CN113229807A (zh) | 人体康复评估装置、方法、电子设备及存储介质 | |
CN104408748B (zh) | 一种基于视频帧间低秩关联信息一致性的实时物体追踪方法 | |
Miao et al. | Neural pattern recognition model for breast cancer diagnosis | |
CN106485733A (zh) | 一种在红外图像中跟踪感兴趣目标的方法 | |
CN106909881A (zh) | 基于无人机遥感影像提取玉米育种基地垄数的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170919 |