CN109669539A - 一种电力可穿戴现场作业人机交互方法、装置及系统 - Google Patents
一种电力可穿戴现场作业人机交互方法、装置及系统 Download PDFInfo
- Publication number
- CN109669539A CN109669539A CN201811483337.7A CN201811483337A CN109669539A CN 109669539 A CN109669539 A CN 109669539A CN 201811483337 A CN201811483337 A CN 201811483337A CN 109669539 A CN109669539 A CN 109669539A
- Authority
- CN
- China
- Prior art keywords
- button
- image
- electric power
- field operation
- video streaming
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及信息交互技术领域,具体公开了一种电力可穿戴现场作业人机交互方法,其中,包括:实时采集视频流图像,并将视频流图像发送至服务端;接收服务端对视频流图像处理后得到的图像识别结果;根据识别图像和识别图像对应的编号进行跟踪注册;绘制UI按钮,并计算UI按钮的三维空间坐标;在视频流图像中创建瞄准标记;计算UI按钮与瞄准标记之间的相对偏移量;通过判断相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮;接收服务端反馈的与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。本发明还公开了一种电力可穿戴现场作业人机交互装置及系统。本发明提供的电力可穿戴现场作业人机交互方法具有方便电力现场作业的优势。
Description
技术领域
本发明涉及信息交互技术领域,尤其涉及一种电力可穿戴现场作业人机交互方法、电力可穿戴现场作业人机交互装置及包括该电力可穿戴现场作业人机交互装置的电力可穿戴现场作业人机交互系统。
背景技术
随着电网规模日益扩大和新型设备投产,电网设备的制造安装、运维检修面临资料繁杂、步骤复杂、设备拆装精准度高以及人员水平不一等问题,传统作业模式已不能适应电网发展要求。在电网设备制造安装现场作业方面,新型设备、大型设备不断涌现,制造安装作业的执行环节更加复杂,步骤流程及精确度要求更高,复杂度大大提高,作为设备全生命周期的重要环节,传统的制造安装作业方法难以适应现场作业要求,作业效率低、质量难以保证;在电网设备的运维检修作业方面,现场人员难以快速全面掌握设备信息及运行趋势,标准化作业指导卡与实际操作没有实现无缝衔接,工作模式有待改进。通过基建和运检移动应用,虽然可以应用手机、PDA实现部分现场信息的实时采集、同步及分析,但在交互上占用双手,现场作业指导协作能力较弱。
但是传统头部运动识别需要依赖高精度惯性传感器,且容易出现头部运动轨迹漂移定位不准等缺陷,机械电磁式头部运动识别技术由于需要依赖外置的识别设备导致设备庞大且不便于移动,不适合电力现场作业环境下的可穿戴式设备的应用。
因此,如何能够方便电力现场作业成为本领域技术人员亟待解决的技术问题。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提供一种电力可穿戴现场作业人机交互方法、电力可穿戴现场作业人机交互装置及包括该电力可穿戴现场作业人机交互装置的电力可穿戴现场作业人机交互系统,以解决现有技术中的问题。
作为本发明的第一个方面,提供一种电力可穿戴现场作业人机交互方法,其中,所述电力可穿戴现场作业人机交互方法包括:
实时采集视频流图像,并将所述视频流图像发送至服务端;
接收所述服务端对所述视频流图像处理后得到的图像识别结果,其中,所述图像识别结果包括识别图像和与所述识别图像对应的编号;
根据所述识别图像和所述识别图像对应的编号进行跟踪注册,并建立图像的三维空间坐标;
实时绘制UI按钮,并计算UI按钮的三维空间坐标;
在所述视频流图像中创建瞄准标记,并将所述瞄准标记的坐标设置为固定值;
根据UI按钮的三维空间坐标与所述瞄准标记的坐标计算UI按钮与瞄准标记之间的相对偏移量;
当头部运动时,通过判断所述相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮;
向所述服务端发送感兴趣的UI按钮被选定的通知,并接收服务端反馈的与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。
优选地,所述根据所述识别图像和所述识别图像对应的编号进行跟踪注册,并建立图像的三维空间坐标包括:
对视频流图像中的关键帧进行训练,得到关键帧特征集;
获取实时帧图像与关键帧间的特征匹配集合,并去除误匹配点;
采用金字塔L-K光流跟踪方式进行特征点匹配完成图像的跟踪注册;
建立图像的三维空间坐标N(a,b,c)。
优选地,所述实时绘制UI按钮,并计算UI按钮的三维空间坐标包括:
通过Unity3D 渲染引擎实时绘制UI按钮;
记录所述UI按钮相对于图像的三维空间偏移量O(x1,y1,z1);
将图像的三维空间坐标N(a,b,c)与按钮的三维空间偏移量O(x1,y1,z1)相加,获得UI按钮当前帧的三维空间坐标U(x2,y2,z2)= O(x1,y1,z1)+ N(a,b,c)。
优选地,所述根据UI按钮的三维空间坐标与所述瞄准标记的坐标计算UI按钮与瞄准标记之间的相对偏移量包括:
将每一帧的UI按钮的三维空间坐标U(x2,y2,z2)与瞄准坐标T(x0,y0,z0)相减,得到UI按钮与瞄准标记之间的相对偏移量Q(x3,y3,z3)= U(x2,y2,z2)-T(x0,y0,z0)。
优选地,所述当头部运动时,通过判断所述相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮包括:
设定选中允许阈值为A;
当所述相对偏移量Q的坐标满足|x3|<A&&|y3|<A&&|z3|<A条件时,判定感兴趣的UI按钮被选中。
作为本发明的第二个方面,提供一种电力可穿戴现场作业人机交互装置,其中,所述电力可穿戴现场作业人机交互装置包括:
采集模块,所诉采集模块用于实时采集视频流图像,并将所述视频流图像发送至服务端;
第一接收与发送模块,所述第一接收与发送模块用于接收所述服务端对所述视频流图像处理后得到的图像识别结果,其中,所述图像识别结果包括识别图像和与所述识别图像对应的编号;
跟踪注册模块,所述跟踪注册模块用于根据所述识别图像和所述识别图像对应的编号进行跟踪注册,并建立图像的三维空间坐标;
按钮绘制模块,所述按钮绘制模块用于实时绘制UI按钮,并计算UI按钮的三维空间坐标;
创建模块,所述创建模块用于在所述视频流图像中创建瞄准标记,并将所述瞄准标记的坐标设置为固定值;
计算模块,所述计算模块用于根据UI按钮的三维空间坐标与所述瞄准标记的坐标计算UI按钮与瞄准标记之间的相对偏移量;
选定模块,所述选定模块用于当头部运动时,通过判断所述相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮;
第二接收与发送模块,所述第二接收与发送模块用于向所述服务端发送感兴趣的UI按钮被选定的通知,并接收服务端反馈的与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。
优选地,所述采集模块包括摄像头。
作为本发明的第三个方面,提供一种电力可穿戴现场作业人机交互系统,其中,所述电力可穿戴现场作业人机交互系统包括服务端和前文所述的电力可穿戴现场作业人机交互装置,所述电力可穿戴现场作业人机交互装置与所述服务端通信连接,所述服务端用于对所述电力可穿戴现场作业人机交互服务端发送的视频流图像进行图像识别,得到图像识别结果,以及用于接收电力可穿戴现场作业人机交互装置发送的感兴趣的UI按钮被选定的通知,并向电力可穿戴现场作业人机交互装置反馈与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。
优选地,所述电力可穿戴现场作业人机交互系统还包括控制器,所述控制器与所述电力可穿戴现场作业人机交互装置通信连接,所述控制器上设置有控制按键。
优选地,所述电力可穿戴现场作业人机交互装置包括可穿戴头盔。
本发明提供的电力可穿戴现场作业人机交互方法,通过对视频流图像进行处理,并进行图像跟踪,然后通过绘制虚拟的UI按钮,并通过选定感兴趣的UI按钮进行电力设备信息的获取,从而方便了电网作业人员获取电力设备的信息,且无需借助额外的专用陀螺仪设备等即可实现,简化了算法复杂度,提高了产品的稳定性,且还具有成本低的优势。
附图说明
附图是用来提供对本发明的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本发明,但并不构成对本发明的限制。在附图中:
图1为本发明提供的电力可穿戴现场作业人机交互方法的流程图。
图2为本发明提供的电力可穿戴现场作业人机交互方法的具体实施方式流程图。
图3为本发明提供的电力作业现场具体实施方式流程图。
图4a为本发明提供的控制按键的布局示意图。
图4b为本发明提供的控制器的结构示意图。
图5为本发明提供的电力可穿戴现场作业人机交互系统的具体实施方式示意图。
图6为本发明提供的电力可穿戴现场作业人机交互装置的结构框图。
图7为本发明提供的电力可穿戴现场作业人机交互系统的结构框图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
作为本发明的第一个方面,提供一种电力可穿戴现场作业人机交互方法,其中,如图1所示,所述电力可穿戴现场作业人机交互方法包括:
S110、实时采集视频流图像,并将所述视频流图像发送至服务端;
S120、接收所述服务端对所述视频流图像处理后得到的图像识别结果,其中,所述图像识别结果包括识别图像和与所述识别图像对应的编号;
S130、根据所述识别图像和所述识别图像对应的编号进行跟踪注册,并建立图像的三维空间坐标;
S140、实时绘制UI按钮,并计算UI按钮的三维空间坐标;
S150、在所述视频流图像中创建瞄准标记,并将所述瞄准标记的坐标设置为固定值;
S160、根据UI按钮的三维空间坐标与所述瞄准标记的坐标计算UI按钮与瞄准标记之间的相对偏移量;
S170、当头部运动时,通过判断所述相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮;
S180、向所述服务端发送感兴趣的UI按钮被选定的通知,并接收服务端反馈的与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。
本发明提供的电力可穿戴现场作业人机交互方法,通过对视频流图像进行处理,并进行图像跟踪,然后通过绘制虚拟的UI按钮,并通过选定感兴趣的UI按钮进行电力设备信息的获取,从而方便了电网作业人员获取电力设备的信息,且无需借助额外的专用陀螺仪设备等即可实现,简化了算法复杂度,提高了产品的稳定性,且还具有成本低的优势。
具体地,所述根据所述识别图像和所述识别图像对应的编号进行跟踪注册,并建立图像的三维空间坐标包括:
对视频流图像中的关键帧进行训练,得到关键帧特征集;
获取实时帧图像与关键帧间的特征匹配集合,并去除误匹配点;
采用金字塔L-K光流跟踪方式进行特征点匹配完成图像的跟踪注册;
建立图像的三维空间坐标N(a,b,c)。
具体地,所述实时绘制UI按钮,并计算UI按钮的三维空间坐标包括:
通过Unity3D 渲染引擎实时绘制UI按钮;
记录所述UI按钮相对于图像的三维空间偏移量O(x1,y1,z1);
将图像的三维空间坐标N(a,b,c)与按钮的三维空间偏移量O(x1,y1,z1)相加,获得UI按钮当前帧的三维空间坐标U(x2,y2,z2)= O(x1,y1,z1)+ N(a,b,c)。
具体地,所述根据UI按钮的三维空间坐标与所述瞄准标记的坐标计算UI按钮与瞄准标记之间的相对偏移量包括:
将每一帧的UI按钮的三维空间坐标U(x2,y2,z2)与瞄准坐标T(x0,y0,z0)相减,得到UI按钮与瞄准标记之间的相对偏移量Q(x3,y3,z3)= U(x2,y2,z2)-T(x0,y0,z0)。
具体地,所述当头部运动时,通过判断所述相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮包括:
设定选中允许阈值为A;
当所述相对偏移量Q的坐标满足|x3|<A&&|y3|<A&&|z3|<A条件时,判定感兴趣的UI按钮被选中。
下面结合图2和图3对本发明提供的电力可穿戴现场作业人机交互方法的具体工作过程进行详细描述。
应当理解的是,在实现电力可穿戴现场作业人机交互方法前,需要对电力可穿戴现场作业人机交互系统的硬件结构进行设计。
需要说明的是,电力可穿戴现场作业人机交互装置具体可以为可穿戴终端,例如可穿戴头盔等。具体地服务端可以为云端服务器。
步骤一:设计简单便携的按键布局,包括确认、上下左右、返回、电源等按键,布局如图4a所示,通过对按键专用SDK的研发,实现可穿戴电力现场作业支持系统的按键控制。
步骤二:设计适合电力现场作业的可穿戴控制器固定方法,基于电力现场作业人员双手需要操作电力设备的现实情况,需要将控制器用臂带进行固定,在电力现场作业时使用左臂固定控制器,在需要操作时利用右手进行按键操作如图4b所示,解放了现场人员双手,提高了现场作业效率。
步骤三:设计基于增强现实的头部运动识别控制算法。基于增强现实的头部运动识别控制算法实现包括在服务端建立增强现实管理模块和图像识别模块,如图5所示,增强现实管理模块主要对场景图像等预制标准模板进行管理。现场人员在变电站预先选取各种不同的特征图像作为匹配的标准模板,上传至增强现实管理模块中。图像识别模块充分利用云的海量存储和计算能力,进行样本训练和快速图像识别,实现在线实时的图像识别。可穿戴终端上的应用通过3G、4G、WIFI 等无线网络与云端服务器建立Socket 通信,实现应用与云端服务器间的数据交换。应用首先将当前识别图像上传至云端服务器,然后云端服务器的识别系统会从图像数据库中检索并识别该图像。如果当前图像存在于数据库中,则应用将与该图像关联的增强信息通过缓存机制下载到本地存储器。最后,展示识别场景的相关增强信息,使用Unity3D 渲染引擎实时绘制三维模型及UI按钮。如图2所示,详细实现步骤如下:
(1)云端服务器接收可穿戴终端实时传来的视频流进行图像识别。首先对云端服务器图像数据库中训练图像的Gravity-SURF描述进行VLAD 编码处理,得到每幅图像的VLAD 聚合向量。然后在图像的在线识别时,算法对AR 应用上传的查询图像的VLAD聚合向量与训练图像的聚合向量进行相似度测量,得到识别结果。最终,在后处理阶段,系统采用几何后校验算法进一步提高算法的识别精度。并查询识别到的图像编号,传输至终端设备。
(2)可穿戴终端中的应用从云端服务器得到识别图像的编号(ID)后,对该图像进行跟踪注册,实时渲染三维模型。具体地,首先对关键帧进行训练,得到关键帧特征集。然后在跟踪初始化阶段,算法获取实时帧图像与关键帧间的特征匹配集合,并采用PROSAC(progressive sample consensus)算法去除误匹配点。在实时跟踪阶段,为提高跟踪注册算法的鲁棒性与实时性,采用金字塔L-K光流跟踪方式进行特征点匹配。
(3)得到实时视频帧的图像三维空间坐标N(a,b,c)后,使用Unity3D 渲染引擎实时绘制UI按钮,并记录该按钮的相对于图像的三维空间偏移量O(x1,y1,z1),将实时图像的坐标N与UI按钮三维空间偏移量O相加,便得到该UI按钮当前帧的三维空间坐标U(x2,y2,z2)= O(x1,y1,z1)+ N(a,b,c),实现虚拟UI按钮叠加展现在真实物体上。
(4)针对每一帧视频流画面均重复做步骤1至步骤3的运算,随着被识别物体的移动,虚拟UI的每一帧坐标也随之改变,动态实现了叠加虚拟模型针对实体物体的注册跟踪。
(5)在画面中心位置创建瞄准标记,本发明中用圆形表示,设其坐标为T(x0,y0,z0),通常情况下瞄准标记的坐标为固定值,如x0=y0=z0=0(也可以为其他数值)。其坐标值永远固定,辅助头部运动进行瞄准选择。
(6)电力现场作业人员通过佩戴可穿戴头盔设备,进行头部运动,由于摄像头也安装在头盔上方,因此被识别物体的视频图像也会随着头部运动而发生位置变化,其叠加展现的UI按钮相对也会发生位置的变化,将每一帧的UI按钮三维空间坐标U与瞄准标记坐标T相减,得到UI按钮与瞄准标记之间的相对偏移量Q(x3,y3,z3)= U(x2,y2,z2)-T(x0,y0,z0)。
(7)针对当前帧的画面实时记录偏移量Q的值,并设定选中允许阈值为A,当偏移量Q的坐标满足|x3|<A&&|y3|<A&&|z3|<A条件时,认定选中该按钮,反之则未选中。
需要说明的是,图2中的选中允许阈值A以5为例。
(8)对每一帧画面均重复步骤(1)至步骤(7),便实现了头部运动与按钮选取的动态结合,现场作业人员利用增强现实跟踪注册技术,无需借助IMU惯性传感器或头部运动探测装置,仅凭摄像头便可实现头部运动选取感兴趣的按钮,从而获取相应的信息,解放了现场人员的双手,在实际使用中提升了现场人员操作的便携性。
步骤四:如图3所示,将按键交互与头部运动交互向融合,在电力作业支持系统中根据现场用户的实际需求,可自由进行切换,更加贴合实际作业的现场需求,解放了作业人员双手的同时大幅提高作业效率和人机交互的流畅度。
本发明提供的电力可穿戴现场作业人机交互方法,主要包括基于增强现实的头部运动交互、按键交互等技术,设计符合电网设备安装、运行、检修作业行为的人机交互体系,形成以增强现实为展示,以按键和头部动作为主要交互方式的统一交互模型。首先,创新采用了增强现实技术实现用户头部运动的识别及跟踪,无需借助额外的专用陀螺仪或头部运动探测传感器,在提高现场用户体验舒适性的同时也大幅降低了设备开发成本,简化了算法复杂度,提高了产品的稳定性。其次,利用简化的按键设计,提高了现场用户的使用便携性,通过将控制器佩戴在左臂上,解决了传统手持控制器需要占用双手进行操作的问题,解放了现场人员的双手,更适合电力现场作业模式。针对电网作业中工人双手不方便操作头盔或眼镜的特点,采用多通道交互,通过将头部运动交互和按键交互相融合,满足电力现场可穿戴设备的佩戴要求,提高了现场作业人员工作效率,建立了电网作业环境下的包含系统、用户、输入、输出四部分的人机交互体系。
作为本发明的第二个方面,提供一种电力可穿戴现场作业人机交互装置,其中,如图6所示,所述电力可穿戴现场作业人机交互装置100包括:
采集模块110,所诉采集模块110用于实时采集视频流图像,并将所述视频流图像发送至服务端;
第一接收与发送模块120,所述第一接收与发送模块120用于接收所述服务端对所述视频流图像处理后得到的图像识别结果,其中,所述图像识别结果包括识别图像和与所述识别图像对应的编号;
跟踪注册模块130,所述跟踪注册模块130用于根据所述识别图像和所述识别图像对应的编号进行跟踪注册,并建立图像的三维空间坐标;
按钮绘制模块140,所述按钮绘制模块140用于实时绘制UI按钮,并计算UI按钮的三维空间坐标;
创建模块150,所述创建模块150用于在所述视频流图像中创建瞄准标记,并将所述瞄准标记的坐标设置为固定值;
计算模块160,所述计算模块160用于根据UI按钮的三维空间坐标与所述瞄准标记的坐标计算UI按钮与瞄准标记之间的相对偏移量;
选定模块170,所述选定模块170用于当头部运动时,通过判断所述相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮;
第二接收与发送模块180,所述第二接收与发送模块180用于向所述服务端发送感兴趣的UI按钮被选定的通知,并接收服务端反馈的与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。
本发明提供的电力可穿戴现场作业人机交互装置,通过对视频流图像进行处理,并进行图像跟踪,然后通过绘制虚拟的UI按钮,并通过选定感兴趣的UI按钮进行电力设备信息的获取,从而方便了电网作业人员获取电力设备的信息,且无需借助额外的专用陀螺仪设备等即可实现,简化了算法复杂度,提高了产品的稳定性,且还具有成本低的优势。
优选地,所述采集模块包括摄像头。
作为本发明的第三个方面,提供一种电力可穿戴现场作业人机交互系统,其中,如图7所示,所述电力可穿戴现场作业人机交互系统10包括服务端200和前文所述的电力可穿戴现场作业人机交互装置100,所述电力可穿戴现场作业人机交互装置100与所述服务端200通信连接,所述服务端200用于对所述电力可穿戴现场作业人机交互服务端发送的视频流图像进行图像识别,得到图像识别结果,以及用于接收电力可穿戴现场作业人机交互装置发送的感兴趣的UI按钮被选定的通知,并向电力可穿戴现场作业人机交互装置反馈与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。
本发明提供的电力可穿戴现场作业人机交互系统,通过对视频流图像进行处理,并进行图像跟踪,然后通过绘制虚拟的UI按钮,并通过选定感兴趣的UI按钮进行电力设备信息的获取,从而方便了电网作业人员获取电力设备的信息,且无需借助额外的专用陀螺仪设备等即可实现,简化了算法复杂度,提高了产品的稳定性,且还具有成本低的优势。
具体地,如图7所示,所述电力可穿戴现场作业人机交互系统10还包括控制器300,所述控制器300与所述电力可穿戴现场作业人机交互装置100通信连接,所述控制器300上设置有控制按键。
具体地,所述控制按键的结构示意图如图4a所示。
优选地,所述电力可穿戴现场作业人机交互装置100包括可穿戴头盔。
需要说明的是,本发明提供的电力可穿戴现场作业人机交互装置及电力可穿戴现场作业人机交互系统的工作原理可以参照前文的电力可穿戴现场作业人机交互方法的描述,此处不再赘述。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (10)
1.一种电力可穿戴现场作业人机交互方法,其特征在于,所述电力可穿戴现场作业人机交互方法包括:
实时采集视频流图像,并将所述视频流图像发送至服务端;
接收所述服务端对所述视频流图像处理后得到的图像识别结果,其中,所述图像识别结果包括识别图像和与所述识别图像对应的编号;
根据所述识别图像和所述识别图像对应的编号进行跟踪注册,并建立图像的三维空间坐标;
实时绘制UI按钮,并计算UI按钮的三维空间坐标;
在所述视频流图像中创建瞄准标记,并将所述瞄准标记的坐标设置为固定值;
根据UI按钮的三维空间坐标与所述瞄准标记的坐标计算UI按钮与瞄准标记之间的相对偏移量;
当头部运动时,通过判断所述相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮;
向所述服务端发送感兴趣的UI按钮被选定的通知,并接收服务端反馈的与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。
2.根据权利要求1所述的电力可穿戴现场作业人机交互方法,其特征在于,所述根据所述识别图像和所述识别图像对应的编号进行跟踪注册,并建立图像的三维空间坐标包括:
对视频流图像中的关键帧进行训练,得到关键帧特征集;
获取实时帧图像与关键帧间的特征匹配集合,并去除误匹配点;
采用金字塔L-K光流跟踪方式进行特征点匹配完成图像的跟踪注册;
建立图像的三维空间坐标N(a,b,c)。
3.根据权利要求2所述的电力可穿戴现场作业人机交互方法,其特征在于,所述实时绘制UI按钮,并计算UI按钮的三维空间坐标包括:
通过Unity3D 渲染引擎实时绘制UI按钮;
记录所述UI按钮相对于图像的三维空间偏移量O(x1,y1,z1);
将图像的三维空间坐标N(a,b,c)与按钮的三维空间偏移量O(x1,y1,z1)相加,获得UI按钮当前帧的三维空间坐标U(x2,y2,z2)= O(x1,y1,z1)+ N(a,b,c)。
4.根据权利要求3所述的电力可穿戴现场作业人机交互方法,其特征在于,所述根据UI按钮的三维空间坐标与所述瞄准标记的坐标计算UI按钮与瞄准标记之间的相对偏移量包括:
将每一帧的UI按钮的三维空间坐标U(x2,y2,z2)与瞄准坐标T(x0,y0,z0)相减,得到UI按钮与瞄准标记之间的相对偏移量Q(x3,y3,z3)= U(x2,y2,z2)-T(x0,y0,z0)。
5.根据权利要求4所述的电力可穿戴现场作业人机交互方法,其特征在于,所述当头部运动时,通过判断所述相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮包括:
设定选中允许阈值为A;
当所述相对偏移量Q的坐标满足|x3|<A&&|y3|<A&&|z3|<A条件时,判定感兴趣的UI按钮被选中。
6.一种电力可穿戴现场作业人机交互装置,其特征在于,所述电力可穿戴现场作业人机交互装置包括:
采集模块,所诉采集模块用于实时采集视频流图像,并将所述视频流图像发送至服务端;
第一接收与发送模块,所述第一接收与发送模块用于接收所述服务端对所述视频流图像处理后得到的图像识别结果,其中,所述图像识别结果包括识别图像和与所述识别图像对应的编号;
跟踪注册模块,所述跟踪注册模块用于根据所述识别图像和所述识别图像对应的编号进行跟踪注册,并建立图像的三维空间坐标;
按钮绘制模块,所述按钮绘制模块用于实时绘制UI按钮,并计算UI按钮的三维空间坐标;
创建模块,所述创建模块用于在所述视频流图像中创建瞄准标记,并将所述瞄准标记的坐标设置为固定值;
计算模块,所述计算模块用于根据UI按钮的三维空间坐标与所述瞄准标记的坐标计算UI按钮与瞄准标记之间的相对偏移量;
选定模块,所述选定模块用于当头部运动时,通过判断所述相对偏移量与选中允许阈值的大小选定感兴趣的UI按钮;
第二接收与发送模块,所述第二接收与发送模块用于向所述服务端发送感兴趣的UI按钮被选定的通知,并接收服务端反馈的与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。
7.根据权利要求6所述的电力可穿戴现场作业人机交互装置,其特征在于,所述采集模块包括摄像头。
8.一种电力可穿戴现场作业人机交互系统,其特征在于,所述电力可穿戴现场作业人机交互系统包括服务端和权利要求6或7所述的电力可穿戴现场作业人机交互装置,所述电力可穿戴现场作业人机交互装置与所述服务端通信连接,所述服务端用于对所述电力可穿戴现场作业人机交互服务端发送的视频流图像进行图像识别,得到图像识别结果,以及用于接收电力可穿戴现场作业人机交互装置发送的感兴趣的UI按钮被选定的通知,并向电力可穿戴现场作业人机交互装置反馈与感兴趣的UI按钮对应的视频流图像中的电力设备的信息。
9.根据权利要求8所述的电力可穿戴现场作业人机交互系统,其特征在于,所述电力可穿戴现场作业人机交互系统还包括控制器,所述控制器与所述电力可穿戴现场作业人机交互装置通信连接,所述控制器上设置有控制按键。
10.根据权利要求8所述的电力可穿戴现场作业人机交互系统,其特征在于,所述电力可穿戴现场作业人机交互装置包括可穿戴头盔。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811483337.7A CN109669539B (zh) | 2018-12-06 | 2018-12-06 | 一种电力可穿戴现场作业人机交互方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811483337.7A CN109669539B (zh) | 2018-12-06 | 2018-12-06 | 一种电力可穿戴现场作业人机交互方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109669539A true CN109669539A (zh) | 2019-04-23 |
CN109669539B CN109669539B (zh) | 2022-02-08 |
Family
ID=66144619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811483337.7A Active CN109669539B (zh) | 2018-12-06 | 2018-12-06 | 一种电力可穿戴现场作业人机交互方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109669539B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111447418A (zh) * | 2020-04-30 | 2020-07-24 | 宁波市交建工程监理咨询有限公司 | 一种可穿戴监理方法及其用户端、监控端和存储介质 |
CN112181146A (zh) * | 2020-09-29 | 2021-01-05 | 重庆市华驰交通科技有限公司 | 用于机电设备养护的穿戴式设备显示画面控制方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104329120A (zh) * | 2014-10-17 | 2015-02-04 | 成都四为电子信息股份有限公司 | 一种隧道施工安全监控管理系统和方法 |
US20150163345A1 (en) * | 2013-12-06 | 2015-06-11 | Digimarc Corporation | Smartphone-based methods and systems |
US20160026853A1 (en) * | 2014-07-23 | 2016-01-28 | Orcam Technologies Ltd. | Wearable apparatus and methods for processing image data |
CN106961595A (zh) * | 2017-03-21 | 2017-07-18 | 深圳市科漫达智能管理科技有限公司 | 一种基于增强现实的视频监控方法及视频监控系统 |
CN107222529A (zh) * | 2017-05-22 | 2017-09-29 | 北京邮电大学 | 增强现实处理方法、web模块、终端和云端服务器 |
EP3376165A1 (en) * | 2017-03-16 | 2018-09-19 | Fujitsu Limited | Power monitor |
-
2018
- 2018-12-06 CN CN201811483337.7A patent/CN109669539B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150163345A1 (en) * | 2013-12-06 | 2015-06-11 | Digimarc Corporation | Smartphone-based methods and systems |
US20160026853A1 (en) * | 2014-07-23 | 2016-01-28 | Orcam Technologies Ltd. | Wearable apparatus and methods for processing image data |
CN104329120A (zh) * | 2014-10-17 | 2015-02-04 | 成都四为电子信息股份有限公司 | 一种隧道施工安全监控管理系统和方法 |
EP3376165A1 (en) * | 2017-03-16 | 2018-09-19 | Fujitsu Limited | Power monitor |
CN106961595A (zh) * | 2017-03-21 | 2017-07-18 | 深圳市科漫达智能管理科技有限公司 | 一种基于增强现实的视频监控方法及视频监控系统 |
CN107222529A (zh) * | 2017-05-22 | 2017-09-29 | 北京邮电大学 | 增强现实处理方法、web模块、终端和云端服务器 |
Non-Patent Citations (2)
Title |
---|
MAREK FLORKOWSKI: "《Exploitation stresses and challenges in diagnostics of electrical industrial equipment》", 《2011 IEEE INTERNATIONAL SYMPOSIUM ON INDUSTRIAL ELECTRONICS》 * |
姜碧慧: "《论图像识别技术在电力设备检测中的应用》", 《城市建设理论研究(电子版)》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111447418A (zh) * | 2020-04-30 | 2020-07-24 | 宁波市交建工程监理咨询有限公司 | 一种可穿戴监理方法及其用户端、监控端和存储介质 |
CN112181146A (zh) * | 2020-09-29 | 2021-01-05 | 重庆市华驰交通科技有限公司 | 用于机电设备养护的穿戴式设备显示画面控制方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109669539B (zh) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107168537B (zh) | 一种协同式增强现实的可穿戴作业指导方法及系统 | |
CN109375764B (zh) | 一种头戴显示器、云端服务器、vr系统及数据处理方法 | |
CN108153240B (zh) | 增强现实模拟装置以及计算机可读介质 | |
CN102810008B (zh) | 一种空中输入系统、方法及空中输入采集设备 | |
CN111526118A (zh) | 一种基于混合现实的远程操作引导系统及方法 | |
Riexinger et al. | Mixed reality for on-site self-instruction and self-inspection with building information models | |
CN105759960A (zh) | 一种结合3d摄像头的增强现实远程指导方法和系统 | |
CN102473068A (zh) | 信息处理器、处理方法和程序 | |
JP2004213673A (ja) | 強化現実システム及び方法 | |
CN105739704A (zh) | 基于增强现实的远程引导方法和系统 | |
CN105637559A (zh) | 使用深度传感器的结构建模 | |
CN107391984A (zh) | 一种电力作业处理方法及系统 | |
JP7428843B2 (ja) | 情報端末装置および位置認識方法 | |
KR102418994B1 (ko) | 증강현실 기반 작업 공정 모니터링 및 작업 숙련도 평가방법 | |
JP2015125641A (ja) | 情報処理装置、その制御方法、及びプログラム | |
JP2016122392A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
CN109669539A (zh) | 一种电力可穿戴现场作业人机交互方法、装置及系统 | |
CN109445598A (zh) | 一种基于视觉的增强现实系统装置 | |
CN109584361A (zh) | 一种装备电缆虚拟预装和轨迹测量方法及系统 | |
CN112667179A (zh) | 一种基于混合现实的远程同步协作系统 | |
CN108776444A (zh) | 适用于cps自动化控制系统的增强现实人机交互系统 | |
JP6244069B1 (ja) | 遠隔作業支援システム、遠隔作業支援方法、及びプログラム | |
JP2021018710A (ja) | 現場連携システムおよび管理装置 | |
CN110689614B (zh) | 基于电子地图的设备信息收集方法、介质、设备及系统 | |
CN105955488B (zh) | 一种操控终端的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |