CN114680889A - 钻井作业人员的不安全行为识别方法和装置 - Google Patents

钻井作业人员的不安全行为识别方法和装置 Download PDF

Info

Publication number
CN114680889A
CN114680889A CN202210228092.3A CN202210228092A CN114680889A CN 114680889 A CN114680889 A CN 114680889A CN 202210228092 A CN202210228092 A CN 202210228092A CN 114680889 A CN114680889 A CN 114680889A
Authority
CN
China
Prior art keywords
eye movement
fixation
movement data
sensitive area
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210228092.3A
Other languages
English (en)
Inventor
胡瑾秋
陈传刚
陈怡玥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Petroleum Beijing
Original Assignee
China University of Petroleum Beijing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Petroleum Beijing filed Critical China University of Petroleum Beijing
Priority to CN202210228092.3A priority Critical patent/CN114680889A/zh
Priority to US17/833,461 priority patent/US20230290182A1/en
Publication of CN114680889A publication Critical patent/CN114680889A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Social Psychology (AREA)
  • Evolutionary Computation (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Physiology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Psychology (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供一种钻井作业人员的不安全行为识别方法和装置,涉及数据分析技术领域,包括:通过眼动数据传感器获取钻井作业人员的眼动数据信息,对眼动数据信息进行处理,获得眼动数据信息对应的眼动特征参数,将眼动特征参数输入至识别模型中,获取识别模型的输出结果;根据输出结果确定作业人员的作业行为,并在作业行为不安全作业行为时,向作业人员发出警示。通过实时分析钻井作业人员的眼动数据信息,可以判断钻井作业人员的作业行为是否符合规定,实现对钻井作业人员的不安全作业行为的实时监测与识别。

Description

钻井作业人员的不安全行为识别方法和装置
技术领域
本申请涉及数据分析领域,特别涉及一种钻井作业人员的不安全行为识别方法和装置。
背景技术
钻井作业是石油、天然气行业的高风险领域之一,经研究发现超过80%的钻井作业事故与人的不安全行为有关,因此,实现对于钻井作业人员的不安全行为进行识别是减少钻进作业事故发生的关键。
当前针钻井对作业人员的不安全行为的识别方法研究,所采用的方案主要分为两类:其一,是采用人工检查或事后调查分析方法,其二,是采用视频监控对作业人员的不安全行为进行采集,然后利用人工智能算法进行识别。
但是,上述两种技术方案均无法实现对钻井作业人员的不安全行为的全程实时监控与识别。
发明内容
本申请提供一种钻井作业人员的不安全行为识别方法和装置,通过钻井作业人员佩戴的眼动数据传感器实时捕捉钻井作业人员的眼动数据、对眼动数据进行分析可以判断钻井作业人员的作业行为是否正常。实现对钻井作业人员作业不安全行为的实时监测与识别。
第一方面,申请提供一种钻井作业人员的不安全行为识别方法,包括:
从眼动数据传感器中获取钻井作业场景内作业人员注视每个区域的眼动数据信息,其中,所述作业场景中包括多个敏感区域和非敏感区域;
对眼动数据信息进行处理,获得眼动数据信息对应的眼动特征参数,眼动特征参数包括:敏感区注视点参数、敏感区注视时长参数、首次注视到敏感区域的时间参数、第二次注视到敏感区域的时间参数、平均注视持续时间参数;
将眼动特征参数输入至识别模型中,获取识别模型的输出结果;
根据输出结果确定作业人员的作业行为,并在作业行为是预设类别时,向作业人员发出警示。
可选的,眼动数据信息包括:注视点总数、单次眼动数据采集时间、平均注视持续时间、首次注视到敏感区域的时间、第二次注视到敏感区域的时间、敏感区域注视点数量、敏感区域注视时间。
可选的,对眼动数据信息进行处理,获得眼动数据信息对应的眼动特征参数,包括:
根据作业场景内各敏感区注视点数量的总和与所述作业场景内注视点总数的比值,得到敏感区注视点参数;
根据作业场景内各敏感区注视时长的总和与单次眼动数据采集时长的比值,得到敏感区注视时长参数;
根据作业场景内各敏感区首次注视时间中的最小值与单次眼动数据采集时长的比值,得到首次注视到敏感区域的时间参数;
根据所述作业场景内敏感区第二次注视时间与单次眼动数据采集时长的比值,得到第二次注视到敏感区域的时间参数;
根据作业场景内N个注视点注视时长的总和与N倍的单次眼动数据采集时长的比值,确定平均注视持续时间参数。
可选的,将眼动特征参数输入至识别模型中,获取识别模型的输出结果,包括:将眼动特征参数输入至识别模型中,得到多个分类值,其中,识别模型中包括多个子分类模型,每种分类模型输出一个分类值;根据输出结果确定所述作业人员的作业行为,包括:根据多个分类值,确定作业人员的作业行为。
可选的,根据多个分类值,确定作业人员的作业行为,包括:
在多个分类值中,获取最大的分类值,其中,分类值的取值范围为0至1;将最大的分类值对应的分类,确定为作业人员的作业行为。
可选的,钻井作业人员的不安全行为识别方法还包括:
获取多种类型的训练数据;若训练数据对应第一子分类模型,则第一子分类模型的标签值为1,其它第二子分类模型的标签值为0;训练识别模型中的多个子分类模型,得到训练后的识别模型。
可选的,作业行为具体为:正常行为、违章作业、错误行为、安全隐患中的一种。
第二方面,本申请提供一种钻井作业人员的不安全行为识别装置,包括:
数据采集模块,用于采集作业场景信息内钻井作业人员的眼动数据信息;
数据处理模块,用于对作业人员的眼动数据信息进行筛选和处理,获得眼动特征参数;
分析模块,用于对眼动特征参数进行分析,获得分析结果;
警示模块,用于根据分析结果确定作业人员的作业行为,并在作业行为是预设类别时,向作业人员发出提醒。
第三方面,本申请实施例提供一种电子设备,包括:存储器和处理器;
存储器用于存储计算机指令;处理器用于运行存储器存储的计算机指令实现第一方面中任一项的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行以实现第一方面中任一项的方法。
第五方面,本申请实施例提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面中任一项的方法。
本申请提供的钻井作业人员的不安全行为识别方法和装置,通过作业人员佩戴的眼动数据传感器获取钻井作业人员的眼动数据信息,对眼动数据信息进行处理,获得眼动数据信息对应的眼动特征参数,将眼动特征参数输入至识别模型中,获取识别模型输出的多个分类值,根据最大分类值确定作业行为;并在作业行为是不正常的作业行为中的一种时,向作业人员发出警示,通过实时分析钻井作业人员的眼动数据信息,判断钻井作业人员的作业行为是否符合规定,实现对钻井作业人员的不安全作业行为的实时监测与识别。
附图说明
图1为本申请实施例提供的场景示意图;
图2为本申请实施例提供的钻井作业人员的不安全行为识别方法的流程示意图;
图3为本申请实施例提供的敏感区域网格化划分示意图;
图4为本申请实施例提供的不定型的敏感区域划分示意图;
图5为本申请实施例提供的钻井作业人员的不安全行为识别方法的流程示意图;
图6为本申请实施例提供的识别模型示意图;
图7为本申请实施例提供的钻井作业人员的不安全行为识别装置示意图;
图8为本申请实施例提供的电子设备的结构示意图。
具体实施方式
为了便于清楚描述本申请实施例的技术方案,以下,对本申请实施例中所涉及的部分术语和技术进行简单介绍:
1)视线追踪技术是一种利用眼动数据传感器对被试人员眼睛的注视位置、扫视路径与注视停留时间等信息进行记录,用来了解被试人员注意力情况的技术。利用视线追踪技术不仅能够对作业人员的不安全行为实现实时监测与识别,也可以对还未发出的错误动作以及因作业人员自身原因所导致的安全隐患行为有较好的识别作用。
2)敏感区域是指钻井作业中重要的设备单元所在区域,通常包括钻井设备的仪表、阀门、钻头、设备操作台等所在区域。
3)其他术语
在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分,并不对其先后顺序进行限定。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
需要说明的是,本申请实施例中,“示例性的”或者“例如”等词用于表示例子、例证或说明。本申请中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其他实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
下面结合附图对本申请实施例提供的方法进行详细地介绍。需要说明的是,本申请实施例中的“在……时”,可以为在某种情况发生的瞬时,也可以为在某种情况发生后的一段时间内,本申请实施例对此不作具体限定。
钻井作业是石油、天然气行业的高风险领域之一,经研究发现超过80%的钻井作业事故与人的不安全行为有关,因此,实现对于钻井作业人员的不安全行为进行识别是减少钻进作业事故发生的关键。
当前针钻井对作业人员的不安全行为识别方法研究,所采用的方案主要分为两类:其一,是采用人工检查或事后调查分析方法,其二,是采用视频监控对作业人员的不安全行为进行采集,然后利用人工智能算法进行识别。
但是,上述两种技术方案均无法实现对钻井作业人员的实时监控与识别,特别是在监控死角或巡检不及时时。
有鉴于此,本申请提出一种基于眼动数据的钻井作业人员的不安全行为识别方法和装置。旨在通过结合眼动数据传感器可以实时捕捉人眼动数据的能力、眼动数据传感器可穿戴性的能力以及与集成学习算法的数据分类优势,实现对钻井作业人员不安全行为的监测与识别。
下面以具体地实施例对本发明的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
图1为本申请实施例的场景示意图,如图1所示,包括,操作台、钻井设备、钻井作业人员、服务器以及钻井作业人员作业时佩戴的作业眼镜和手环。
其中,作业眼镜和手环可以和服务器进行交互。
钻井作业人员在作业时,需要佩戴作业眼镜和手环,其中作业眼镜中搭载有眼动数据传感器,用于收集收集作业人员的眼动数据;手环可以接收服务器发送的提醒消息,用于在钻井作业人员在出现不安全行为时进行提醒。
钻井作业人员在作业时,需要重点关注操作台与钻井设备,因此,视线需要在操作台与钻井设备间来回切换,通过分析钻井作业人员的眼动数据可以确定钻井作业人员是否关注了操作台与钻井设备,进而判断作业人员是否存在不安全的行为。
可以理解的是,作业眼镜和手环可以是其他可穿戴设备,例如,作业眼镜也可以是头盔、帽子、护目镜等,可以实现本申请实施例中收集眼动数据和接收消息提醒的功能。本申请实施例并不对此进行限定。
上面对本申请实施例的应用场景进行了说明,下面对本申请实施例如何对钻井作业人员的不安全行为进行识别进行详细说明。
图2为本申请实施例提供的钻井作业人员的不安全行为识别方法的流程示意图,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
S201、从眼动数据传感器中获取钻井作业场景内作业人员注视每个区域的眼动数据信息。
眼动数据信息为眼动数据传感器记录的钻井作业人员眼睛的注视位置、扫视路径与注视停留时间等信息。
钻井作业场景内包括多个敏感区域和非敏感区域,如图1中所示的作业场景,包括3个敏感区域,其余区域为非敏感区域。
作业场景敏感区域的划分常用的方法为将作业场景进行网格化划分,重点设备所处的单元全部划分为敏感区域,如图3所示。但是,由于钻井现场作业场景重要设备单元较多、形状多不规则、摆放位置差异较大,导致网格适应性不好(网格留白较多、网格不能全覆盖或网格数量过多),会造成数据记录的不准确或计算速度慢的问题。因此本申请实施例采用不定型的敏感区域划分方法。
如图4所示,本申请实施例采用的不定型的敏感区域划分方法,根据各重要单元的功能,针对不同重要的类型可以选择不同的敏感区划分方式。
示例性的,重要单元A属于周边存在重要功能区的划分方法;重要单元B属于功能区全部位于单元内且不靠近边缘的划分方法;重要单元C属于仅某个面或某些面存在重要功能区的划分方法。
服务器可以与眼动数据传感器进行交互,获取作业人员注视作业场景内每个区域的眼动数据信息。
服务器与眼动数据传感器进行交互可以每一分钟进行一次,也可以根据实际需求进行设定。
S202、对眼动数据信息进行处理,获得眼动数据信息对应的眼动特征参数。
眼动数据传感器记录的眼动数据信息,可以称为原始眼动数据信息,由于种类众多,为避免原始眼动数据信息对识别结果准确性的影响,需要根据多场景、多敏感区域之间的差异,筛选出不受敏感区域数量差异影响或影响较小的眼动数据信息并计算出对应的眼动特征参数。
S203、将眼动特征参数输入至识别模型中,获取识别模型的输出结果。
识别模型为提前训练好的模型,用于根据获取的眼动数据信息对钻井作业人员的不安全行为进行识别。
服务器将计算出的眼动特征参数,输入至识别模型中,获得识别模型输出的对应的结果。
S204、根据输出结果确定作业人员的作业行为,并在作业行为是预设类别时,向作业人员发出警示。
识别模型的输出结果可以为0或者1。预设类别可以为不正常的作业行为,不正常的作业行为又可以称为不安全的作业行为。
示例性的,当识别模型的输出结果为0时,此时对应的钻井作业人员的行为为正常的作业行为,不是预设类别,服务器可以进行下一次数据的收集处理。
当识别模型的输出结果为1时,此时对应的钻井作业人员的行为为不安全的作业行为,和预设类别相同。此时,服务器可以通过钻井作业人员佩戴的手环,对钻井作业人员发出提醒,例如,进行震动提醒或者声音提醒,纠正钻井作业人员的不安全行为。
上述方法中,通过眼动数据传感器收集钻井作业人员的眼动数据信息,并对眼动数据进行处理,获取对应的眼动特征参数,使用训练好的识别模型对眼动特征参数进行分析,获得对应的分析结果,根据分析结果在钻井作业人员的行为为不安全行为时,进行警示。根据钻井作业人员的实时眼动数据信息,就可以判断是否存在不安全的作业行为,实现了对钻进作业人员不安全行为的实时监控与识别。
图5为本申请提供的钻井作业人员的不安全行为的识别方法实施例二的流程示意图,包括以下步骤:
S501、从眼动数据传感器中获取钻井作业场景内作业人员注视每个区域的眼动数据信息。
其中,本实施例中步骤S501与图2所示实施例中步骤S201相似,此处不再赘述。
为实现对不同钻井作业场景下钻井作业人员不安全行为的识别,需要保持各场景敏感区域占各场景全部区域的比例统一,本申请实施例将各场景敏感区域占各场景全部区域的比例设定为10%。
各场景敏感区域占各场景全部区域的比例计算方式满足下述公式:
Figure BDA0003537083590000091
其中,Sos-整个作业场景的图像的面积;
Figure BDA0003537083590000092
-作业场景内各敏感区域的面积;
Figure BDA0003537083590000093
-敏感区域占整个作业场景图像的比例。
S502、对获取的眼动数据信息进行筛选。
为避免过多的眼动数据带来的大量计算和为适应不同作业场景下对钻井作业人员的不安全行为识别任务,需要对眼动数据传感器采集的钻井作业人员的眼动数据进行筛选,获得可以准确分析钻井作业人员作业行为的眼动数据。
筛选过后的眼动数据包括下述几种:
注视点总数、单次眼动数据采集时间、平均注视持续时间、首次注视到敏感区域的时间、第二次注视到敏感区域的时间、敏感区域注视点数量、敏感区域注视时间。
其中,注视点总数为眼动传感器在一次采集时间内钻井作业人员眼睛注视位置的总数,一个注视位置为一个注视点,钻井作业人员的视线在某一注视位置停留时间超过预设时间,该注视位置为一个注视点,预设时间可以为250毫秒,也可以根据实际需求进行设置。
单次眼动数据采集时间为眼动传感器采集预设时间内的钻井作业人员眼动数据,例如,将20秒设为单次眼动数据采集时间,眼动传感器可以以20秒为一个周期,采集钻井作业人员的眼动数据并发送至服务器。
平均注视持续时间为钻井作业人员每个注视点注视的平均时长;首次注视到敏感区域的时间为钻井作业人员第一次注视到敏感区域的时间时长;第二次注视到敏感区域的时间为钻井作业人员第二次注视到敏感区域的时间时长;敏感区域注视点数量为钻井作业人员在一次采集时间内在敏感区域注视位置总数;敏感区域注视时间为钻井作业人员注视到敏感区域的时间时长总和。
服务器对眼动数据传感器记录的钻井作业人员的眼动数据信息进行筛选,获得上述7种眼动数据信息,可以执行S503所示步骤。
S503、对筛选后的眼动数据信息进行处理,获得筛选后的眼动数据信息对应的眼动特征参数。
为解决不同钻井作业场景敏感区数量存在差异以及敏感区位置分配差异对钻井作业人员的不安全行为识别带来的影响,需要对筛选出的眼动数据信息进行计算,获得对应的眼动特征参数。
其中,眼动特征参数包括下述的几种:敏感区注视点参数、敏感区注视时长参数、首次注视到敏感区域的时间参数、第二次注视到敏感区域的时间参数、平均注视持续时间参数。
具体的,各眼动特征参数的计算方式满足下述公式:
敏感区注视点参数:
Figure BDA0003537083590000101
其中,sfp1,fp2,…,sfpn-场景内各敏感区注视点数量;fp-场景内注视点总数;Psfp-敏感区注视点参数。
示例性的,在某一作业场景,单次眼动数据采集时间内,有11个注视点,其中有6个注视点落在敏感区域内,5个注视点落在敏感区域外。通过上述公式计算可得,该钻井作业人员的敏感区注视点参数为54.5%。
敏感区注视时长参数:
Figure BDA0003537083590000102
其中,
Figure BDA0003537083590000103
—场景内各敏感区注视时长;tdc—单次眼动数据采集时间;
Figure BDA0003537083590000104
—敏感区注视时长参数。
示例性的,在某一作业场景,单次眼动数据采集时间内(20秒),敏感区域的注视时长为8960毫秒。通过敏感注视时长参数公式计算可得,该钻井作业人员的敏感注视时长参数为44.8%。
首次注视到敏感区域的时间参数:
Figure BDA0003537083590000111
其中,
Figure BDA0003537083590000112
-场景内各敏感区首次注视时间;tdc-单次眼动数据采集时间;
Figure BDA0003537083590000113
-首次注视到敏感区域的时间参数。
示例性的,在某一作业场景,单次眼动数据采集时间内(20秒),各敏感区首次注视时间的最小值为7228毫秒。通过首次注视到敏感区域的时间参数公式计算可得,该钻井作业人员的首次注视到敏感区域的时间参数为36.1%。
第二次注视到敏感区域的时间参数:
Figure BDA0003537083590000114
其中,tssa-场景内敏感区第二次注视时间;tdc-单次眼动数据采集时间;
Figure BDA0003537083590000115
-第二次注视到敏感区域的时间参数。
示例性的,在某一作业场景,单次眼动数据采集时间内(20秒),各敏感区第二次注视时间的最小值为7695毫秒。通过第二次注视到敏感区域的时间参数公式计算可得,该钻井作业人员的首次注视到敏感区域的时间参数为36.1%。
平均注视持续时间参数:
Figure BDA0003537083590000116
其中,
Figure BDA0003537083590000121
-整个作业场景各注视点注视时长(含敏感区域内的各注视点注视时长);tdc-单次眼动数据采集时间;
Figure BDA0003537083590000122
-平均注视持续时间参数。
示例性的,在某一作业场景,单次眼动数据采集时间内(20秒),平均注视持续时间为1735.875毫秒。通过平均注视持续时间比公式计算可得,该钻井作业人员的平均注视持续时间参数
Figure BDA0003537083590000123
为86.8%。
服务器对筛选后的眼动数据信息进行处理,获得上述5种眼动特征参数,可以执行S504所示步骤。
S504、将眼动特征参数输入至识别模型中,获取识别模型的输出结果。
其中,识别模型为训练好的模型,识别模型的训练过程如下所示:
获取多种类型的训练数据。
本申请实施例中,采用XGBoost模型作为识别模型的训练对象,其中,识别模型包括4种子分类模型。如图6所示,具体可以为正常、违章、错误、安全隐患4种子分类模型。
服务器获取4种子分类模型对应的钻井作业人员的眼动特征参数作为训练数据。
若训练数据对应第一子分类模型,则第一子分类模型的标签值为1,其它第二子分类模型的标签值为0。
训练识别模型中的多个子分类模型,得到训练后的识别模型。
示例性的,对识别模型中的正常子分类模型进行训练,将获取到的钻井作业人员的作业行为为正常的眼动数据信息,处理成对应的眼动特征参数后,分别输入至4个子分类模型中,正常子分类模型的标签值设为1,其余3个子分类模型的标签值设为0。
其余3个子分类模型的训练方法和正常子分类模型的训练方法相似,经过多次训练后,得到训练后的识别模型。
服务器将获取的钻井作业人员的实时眼动数据,处理成对应的眼动特征参数,输入至训练好的识别模型中的4个子分类模型中,获得识别模型输出的4个分类值。
其中,每个分类值的范围为0至1。
示例性的,在识别模型中输入眼动特征参数获得对应的4个分类值可以如下述表1所示:
表1示出了采集的4名钻井作业人员的眼动数据信息,并处理成对应的眼动特征参数,以及将眼动特征参数输入至识别模型中的到的的4个分类值。
Figure BDA0003537083590000131
S505、根据输出结果判断作业人员的作业行为是否为不安全的作业行为。
本申请实施例将不安全的作业行为划分为违章作业、错误行为、安全隐患。
违章作业为行为已经发生,但属于明知故犯类型错误;错误行为为行为已经发生,但属于无意识类型错误;安全隐患为行为尚未发生,接下来可能会发生错误。
服务器获取识别模型输出的4个分类值,在4个分类值中,获取最大的分类值,将最大的分类值对应的分类,确定为作业人员的作业行为。
示例性的,服务器获取识别模型输出的4个分类值分别为,正常子分类模型输出的分类值0.005、违章子分类模型输出的分类值0.984、错误子分类模型输出的分类值0.005以及安全隐患子分类模型输出的分类值0.006。其中,最大的分类值为违章子分类模型输出的分类值0.984,因此,对应的作业人员的作业行为违章作业。
若不是不安全的作业行为,可以执行S501所示步骤。
若是不安全的作业行为,可以执行S506所示步骤。
S506、生成警示信息并进行提醒。
警示信息可以为文字信息,用于记录钻井作业人员在某一时间出现了那一种不正常的作业行为,可以储存在服务器中。
示例性的,服务器在确定钻井作业人员A的作业行为为违章作业时,在服务器后台记录A于xx年xx月xx时出现了违章作业。
同时,服务器可以通过钻井作业人员佩戴的手环,对钻井作业人员进行警示,例如,进行震动提醒或者声音提醒,纠正钻井作业人员的不安全行为。
经实际测试,本申请实施例可以对钻井作业人员的不安全行为的识别准确率可以达到100%,可以满足钻井作业不安全行为的工程应用要求。
本申请实施例提出的眼动数据特征参数重要度如表2所示:
Figure BDA0003537083590000141
从表2可以看出,本申请实施例所提出的5种眼动数据特征参数都对钻井作业不安全行为的识别起到了重要作用,其中平均注视持续时间参数与首次注视到敏感区域的时间参数的重要程度最高,而敏感区注视点参数与第二次注视到敏感区域的时间参数相对较低,这说明敏感区的位置、注意力集中程度、不同作业人员的用眼习惯与上一轮眼动数据采集结束注视点停留位置对不安全行为的识别影响较大。但从数值来看所提出的识别解决方案对多场景下的作业不安全行为的识别具有较好的泛化作用。
S507、判断钻井作业人员的不安全作业行为是否已经纠正。
服务器通过下一周期收集的钻井作业人员的眼动数据信息,判断此时作业人员的作业行为是否为正常的作业行为。
若是正常的作业行为,表示作业人员的不正常作业行为已经纠正。可以执行S501所示步骤。
若还是保持不安全的作业行为,可以执行S508所示步骤。
S508、通知现场的安全管理人员。
通过现场的安全管理人员,去纠正钻井作业人员的不安全作业行为。
上述方法中,通过眼动数据传感器,收集钻井作业人员的眼动数据信息,处理成对应的眼动特征参数,将眼动特征参数输入至训练好的识别模型中,获取识别模型输出的多个分类值,根据最大分类值确定作业行为,并在作业行为为不正常的作业行为中的一种时,对钻井作业人员进行警示,以纠正其不正常的作业行为。实现对钻井作业人员的不安全作业行为全天候的监控识别,解决了传统方法存在监控死角和监控缺失的缺点,并通过计算对应的眼动特征参数,改善了模型泛化能力不足的缺陷,实现了对多场景钻井作业人员不安全行为的识别。
如图7所示,本申请实施例还提供一种钻井作业人员的不安全行为识别装置70,包括,数据采集模块701、数据处理模块702、分析模块703以及警示模块704。
数据采集模块701,用于采集作业场景信息内钻井作业人员的眼动数据信息。
数据处理模块702,用于对钻井作业人员的眼动数据信息进行筛选和处理,获得眼动特征参数,其中,眼动特征参数包括:敏感区注视点参数、敏感区注视时长参数、首次注视到敏感区域的时间参数、第二次注视到敏感区域的时间参数、平均注视持续时间参数。
分析模块703,用于对眼动特征参数进行分析,获得分析结果。
具体的,分析模块703将眼动特征参数输入至识别模型中,获得识别模型输出的结果。
警示模块704,用于根据分析结果确定钻井作业人员的作业行为,并在作业行为是预设类别时,向作业人员发出提醒。
本实施例提供的钻井作业人员的不安全行为识别装置可以执行图2所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
进一步的,本申请实施例还提供一种钻井作业人员的不安全行为识别装置,在图7实施例提供的钻井作业人员的不安全行为识别装置70的基础上,还包括,模型训练模块705。
数据处理模块702,还用于根据采集的眼动数据信息筛选出下述的7中眼动数据信息:
注视点总数、单次眼动数据采集时间、平均注视持续时间、首次注视到敏感区域的时间、第二次注视到敏感区域的时间、敏感区域注视点数量、敏感区域注视时间。
分析模块703,还用于根据眼动特征参数,获得多个分类值。
具体的,将所述眼动特征参数输入至识别模型中,获得识别模型中4个子分类模型对应的分类值,在4分类值中,获取最大的分类值,其中,分类值的取值范围为0至1。
识别模块704,还用于将最大的分类值对应的分类,确定为作业人员的作业行为。
模型训练模块705,用于对识别模型进行训练。
具体的,获取多种类型的训练数据.
若训练数据对应第一子分类模型,则第一子分类模型的标签值为1,其它第二子分类模型的标签值为0。
训练识别模型中的多个子分类模型,得到训练后的识别模型。
本实施例提供的钻井作业人员的不安全行为识别装置可以执行图5所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图8为本申请实施例提供的电子设备的结构示意图。如图8所示,本实施例提供的设备80可以包括:
处理器801。
存储器802,用于存储电子设备的可执行指令。
其中,处理器配置为经由执行可执行指令来执行上述钻井作业人员的不安全行为识别方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
本申请实施例中还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述钻井作业人员的不安全行为识别方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
一种可能的实现方式中,计算机可读介质可以包括随机存取存储器(RandomAccess Memory,RAM),只读存储器(Read-Only Memory,ROM),只读光盘(compact discread-only memory,CD-ROM)或其它光盘存储器,磁盘存储器或其它磁存储设备,或目标于承载的任何其它介质或以指令或数据结构的形式存储所需的程序代码,并且可由计算机访问。而且,任何连接被适当地称为计算机可读介质。例如,如果使用同轴电缆,光纤电缆,双绞线,数字用户线(Digital Subscriber Line,DSL)或无线技术(如红外,无线电和微波)从网站,服务器或其它远程源传输软件,则同轴电缆,光纤电缆,双绞线,DSL或诸如红外,无线电和微波之类的无线技术包括在介质的定义中。如本文所使用的磁盘和光盘包括光盘,激光盘,光盘,数字通用光盘(Digital Versatile Disc,DVD),软盘和蓝光盘,其中磁盘通常以磁性方式再现数据,而光盘利用激光光学地再现数据。上述的组合也应包括在计算机可读介质的范围内。
本申请实施例中还提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述钻井作业人员的不安全行为识别方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
在上述终端设备或者服务器的具体实现中,应理解,处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:ApplicationSpecific Integrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
本领域技术人员可以理解,上述任一方法实施例的全部或部分步骤可以通过与程序指令相关的硬件来完成。前述的程序可以存储于计算机可读取存储介质中,该程序被执行时,执行上述方法实施例的全部或部分的步骤。
本申请技术方案如果以软件的形式实现并作为产品销售或使用时,可以存储在计算机可读取存储介质中。基于这样的理解,本申请的技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括计算机程序或者若干指令。该计算机软件产品使得计算机设备(可以是个人计算机、服务器、网络设备或者类似的电子设备)执行本申请实施例所述方法的全部或部分步骤。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (10)

1.一种钻井作业人员的不安全行为识别方法,其特征在于,应用于钻井区域,所述方法包括:
从眼动数据传感器中获取钻井作业场景内作业人员注视每个区域的眼动数据信息,其中,所述作业场景中包括多个敏感区域和非敏感区域;
对所述眼动数据信息进行处理,获得所述眼动数据信息对应的眼动特征参数,所述眼动特征参数包括:敏感区注视点参数、敏感区注视时长参数、首次注视到敏感区域的时间参数、第二次注视到敏感区域的时间参数、平均注视持续时间参数;
将所述眼动特征参数输入至识别模型中,获取所述识别模型的输出结果;
根据所述输出结果确定所述作业人员的作业行为,并在所述作业行为是预设类别时,向所述作业人员发出警示。
2.根据权利要求1所述方法,其特征在于,所述眼动数据信息包括:
注视点总数、单次眼动数据采集时间、平均注视持续时间、首次注视到敏感区域的时间、第二次注视到敏感区域的时间、敏感区域注视点数量、敏感区域注视时间。
3.根据权利要求1所述的方法,其特征在于,所述对所述眼动数据信息进行处理,获得所述眼动数据信息对应的眼动特征参数,包括:
根据所述作业场景内各敏感区注视点数量的总和与所述作业场景内注视点总数的比值,得到所述敏感区注视点参数;
根据所述作业场景内各敏感区注视时长的总和与单次眼动数据采集时长的比值,得到所述敏感区注视时长参数;
根据所述作业场景内各敏感区首次注视时间中的最小值与单次眼动数据采集时长的比值,得到所述首次注视到敏感区域的时间参数;
根据所述作业场景内敏感区第二次注视时间与单次眼动数据采集时长的比值,得到第二次注视到敏感区域的时间参数;
根据所述作业场景内N个注视点注视时长的总和与N倍的单次眼动数据采集时长的比值,确定所述平均注视持续时间参数。
4.根据权利要求1所述方法,其特征在于,所述将所述眼动特征参数输入至识别模型中,获取所述识别模型的输出结果,包括:
所述将所述眼动特征参数输入至识别模型中,得到多个分类值,其中,所述识别模型中包括多个子分类模型,每种分类模型输出一个分类值;
所述根据所述输出结果确定所述作业人员的作业行为,包括:
根据所述多个分类值,确定所述作业人员的作业行为。
5.根据权利要求4所述的方法,其特征在于,所述根据所述多个分类值,确定所述作业人员的作业行为,包括:
在所述多个分类值中,获取最大的分类值,其中,所述分类值的取值范围为0至1;
将所述最大的分类值对应的分类,确定为所述作业人员的作业行为。
6.根据权利要求4所述的方法,其特征在于,所述方法还包括:
获取多种类型的训练数据;
若所述训练数据对应第一子分类模型,则所述第一子分类模型的标签值为1,其它第二子分类模型的标签值为0;
训练所述识别模型中的多个子分类模型,得到训练后的识别模型。
7.根据权利要求4-6任一项所述的方法,其特征在于,所述作业行为具体为:正常行为、违章作业、错误行为、安全隐患中的一种。
8.一种钻井作业人员的不安全行为识别装置,其特征在于,包括:
数据采集模块,用于采集作业场景信息内钻井作业人员的眼动数据信息;
数据处理模块,用于对所述作业人员的眼动数据信息进行筛选和处理,获得眼动特征参数;
分析模块,用于对所述眼动特征参数进行分析,获得分析结果;
警示模块,用于根据所述分析结果确定所述作业人员的作业行为,并在所述作业行为是预设类别时,向所述作业人员发出提醒。
9.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序以实现权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器执行以实现如权利要求1-7中任一项所述的方法。
CN202210228092.3A 2022-03-08 2022-03-08 钻井作业人员的不安全行为识别方法和装置 Pending CN114680889A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202210228092.3A CN114680889A (zh) 2022-03-08 2022-03-08 钻井作业人员的不安全行为识别方法和装置
US17/833,461 US20230290182A1 (en) 2022-03-08 2022-06-06 Method and device for identifying unsafe behavior of drilling operator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210228092.3A CN114680889A (zh) 2022-03-08 2022-03-08 钻井作业人员的不安全行为识别方法和装置

Publications (1)

Publication Number Publication Date
CN114680889A true CN114680889A (zh) 2022-07-01

Family

ID=82137193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210228092.3A Pending CN114680889A (zh) 2022-03-08 2022-03-08 钻井作业人员的不安全行为识别方法和装置

Country Status (2)

Country Link
US (1) US20230290182A1 (zh)
CN (1) CN114680889A (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071812A (zh) * 2023-01-05 2023-05-05 中国石油大学(北京) 钻井作业不安全行为预警方法、装置、设备、存储介质
CN117115923B (zh) * 2023-10-16 2023-12-22 罗普特科技集团股份有限公司 一种基于图像识别算法的智慧农业人员行为识别系统
CN117852311B (zh) * 2024-03-06 2024-07-26 核工业北京化工冶金研究院 一种地浸采铀有效浸采范围计算方法、装置、设备及介质

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6092058A (en) * 1998-01-08 2000-07-18 The United States Of America As Represented By The Secretary Of The Army Automatic aiding of human cognitive functions with computerized displays
CN100398065C (zh) * 2002-10-15 2008-07-02 沃尔沃技术公司 解释对象的头部和眼睛活动的方法和装置
EP2032034B1 (en) * 2006-06-11 2020-04-01 Volvo Truck Corporation Method for determining and analyzing a location of visual interest
JP2010033305A (ja) * 2008-07-29 2010-02-12 Hitachi Ltd 画像情報処理方法、及び装置
DK2389095T3 (da) * 2009-01-26 2014-11-17 Tobii Technology Ab Detektering af blikpunkt hjulpet af optiske referencesignaler
US10019634B2 (en) * 2010-06-04 2018-07-10 Masoud Vaziri Method and apparatus for an eye tracking wearable computer
JP5915981B2 (ja) * 2010-08-09 2016-05-11 国立大学法人静岡大学 注視点検出方法及び注視点検出装置
US9329683B2 (en) * 2010-12-08 2016-05-03 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze
EP2564766B1 (en) * 2011-09-02 2018-03-21 Volvo Car Corporation Visual input of vehicle operator
US8824779B1 (en) * 2011-12-20 2014-09-02 Christopher Charles Smyth Apparatus and method for determining eye gaze from stereo-optic views
US9817474B2 (en) * 2014-01-24 2017-11-14 Tobii Ab Gaze driven interaction for a vehicle
CN106456148B (zh) * 2014-03-19 2020-06-12 直观外科手术操作公司 使用眼球凝视跟踪的医疗装置、系统和方法
US9547798B2 (en) * 2014-05-20 2017-01-17 State Farm Mutual Automobile Insurance Company Gaze tracking for a vehicle operator
US9530065B2 (en) * 2014-10-15 2016-12-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
US9904362B2 (en) * 2014-10-24 2018-02-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
WO2016112531A1 (en) * 2015-01-16 2016-07-21 Hewlett-Packard Development Company, L.P. User gaze detection
US10342473B1 (en) * 2015-04-17 2019-07-09 Bertec Corporation System and method for measuring eye movement and/or eye position and postural sway of a subject
JP2017182739A (ja) * 2016-03-31 2017-10-05 富士通株式会社 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
JP2017213191A (ja) * 2016-05-31 2017-12-07 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
JP6604271B2 (ja) * 2016-06-06 2019-11-13 富士通株式会社 注視位置検出装置、注視位置検出方法及び注視位置検出用コンピュータプログラム
US10216269B2 (en) * 2016-06-21 2019-02-26 GM Global Technology Operations LLC Apparatus and method for determining intent of user based on gaze information
US10304209B2 (en) * 2017-04-19 2019-05-28 The Nielsen Company (Us), Llc Methods and systems to increase accuracy of eye tracking
KR20180124381A (ko) * 2017-05-11 2018-11-21 현대자동차주식회사 운전자의 상태 판단 시스템 및 그 방법
US10289197B2 (en) * 2017-05-26 2019-05-14 GM Global Technology Operations LLC Apparatus and method for detecting inappropriate gear selection based on gaze information
US11337606B1 (en) * 2017-06-28 2022-05-24 Bertec Corporation System for testing and/or training the vision of a user
US11073904B2 (en) * 2017-07-26 2021-07-27 Microsoft Technology Licensing, Llc Intelligent user interface element selection using eye-gaze
CN107515466B (zh) * 2017-08-14 2019-11-26 华为技术有限公司 一种眼球追踪系统和眼球追踪方法
US9940518B1 (en) * 2017-09-11 2018-04-10 Tobii Ab Reliability of gaze tracking data for left and right eye
ES2936093T3 (es) * 2017-09-11 2023-03-14 Tobii Ab Fiabilidad de los datos de seguimiento de la mirada para el ojo izquierdo y derecho
JP6915503B2 (ja) * 2017-11-09 2021-08-04 トヨタ自動車株式会社 ドライバモニタシステム
US10845872B2 (en) * 2018-02-09 2020-11-24 Ricoh Company, Ltd. Eye-gaze tracker, eye-gaze tracking method, and recording medium
CN111079476B (zh) * 2018-10-19 2024-03-26 上海商汤智能科技有限公司 驾驶状态分析方法和装置、驾驶员监控系统、车辆
CN111079475A (zh) * 2018-10-19 2020-04-28 上海商汤智能科技有限公司 驾驶状态检测方法和装置、驾驶员监控系统、车辆
US10852823B2 (en) * 2018-10-23 2020-12-01 Microsoft Technology Licensing, Llc User-specific eye tracking calibration for near-eye-display (NED) devices
US11514602B2 (en) * 2018-12-25 2022-11-29 Samsung Electronics Co., Ltd. Method and apparatus for gaze estimation
WO2020138088A1 (ja) * 2018-12-27 2020-07-02 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラムを記憶する記憶媒体
CN110516553A (zh) * 2019-07-31 2019-11-29 北京航空航天大学 工作状态的监测方法和装置
US11322113B2 (en) * 2019-09-12 2022-05-03 Logitech Europe S.A. Techniques for eye fatigue mitigation
US11429185B2 (en) * 2019-09-19 2022-08-30 GM Global Technology Operations LLC Apparatus and method for assessing occupant gazes
EP4099134A4 (en) * 2020-01-29 2023-03-22 NEC Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM
SE544806C2 (en) * 2020-04-09 2022-11-22 Tobii Ab Driver alertness detection method, device and system
EP3893090B1 (en) * 2020-04-09 2022-06-01 Irisbond Crowdbonding, S.L. Method for eye gaze tracking
US11989345B1 (en) * 2021-05-28 2024-05-21 Google Llc Machine learning based forecasting of human gaze
US11884270B2 (en) * 2021-09-24 2024-01-30 Argo AI, LLC System and method for intent monitoring of other road actors
US11675430B1 (en) * 2021-12-17 2023-06-13 Varjo Technologies Oy Display apparatus and method incorporating adaptive gaze locking

Also Published As

Publication number Publication date
US20230290182A1 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
CN114680889A (zh) 钻井作业人员的不安全行为识别方法和装置
KR102375215B1 (ko) 개인 보호 장비에 대한 지능형 안전 모니터링 및 분석 시스템
CN110795963A (zh) 一种基于人脸识别的监控方法、装置及设备
CN113240294A (zh) 一种基于大数据分析的矿山安全信息化智能管理系统
CN116687363A (zh) 一种基于穿戴设备的有限空间作业人员身体状况监测系统
Damousis et al. Fuzzy fusion of eyelid activity indicators for hypovigilance-related accident prediction
CN111714103A (zh) 一种针对驾考考生的健康监测装置
CN113691417B (zh) 一种基于工业协议的工控信息监控系统及方法
CN105046147B (zh) 系统受攻击程度的监测方法及装置
CN117746330A (zh) 危险行为的识别方法及装置、服务器、介质
CN112528767A (zh) 基于机器视觉的施工机械操作员疲劳作业检测系统及方法
KR20220163894A (ko) HMA(Head Micromovement Assessment)를 이용한 산업현장 근로자의 심리검사 및 신체이상 시 디지털 추적 방법
Marques et al. A conceptual model for evaluating systems with continuous assurance services
CN115732091A (zh) 视力自助筛查系统
CN110135744B (zh) 建筑工人安全行为习惯评价方法
CN115913596A (zh) 一种网络数据安全态势综合评估分析方法
CN114185948A (zh) 一种基于数据中台的数据质量监控方法及系统
CN115240849A (zh) 电子产品使用特征及视疲劳的记录和提醒方法及系统
Watanabe et al. Young children’s subjective and objective thresholds and emergent processes of visual consciousness using a backward masking task
CN118247735B (zh) 基于物联网的工业美术产品贮存装置及其防护系统
Huang et al. Feasibility Analysis of Hybrid Kinematic-Electroencephalogram Signal to Assess the Safety Interventions on the Construction Site
CN116652396B (zh) 一种用于激光内雕机的安全预警方法及系统
CN118069638B (zh) 数据安全集中监控与审计系统
Ali Analysis of eye tracking data: Supporting vision screening with eye tracking technologies
van der Mijn Timing Under Risk

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination