CN111309942A - 施工现场的数据采集方法、装置及系统 - Google Patents
施工现场的数据采集方法、装置及系统 Download PDFInfo
- Publication number
- CN111309942A CN111309942A CN202010074164.4A CN202010074164A CN111309942A CN 111309942 A CN111309942 A CN 111309942A CN 202010074164 A CN202010074164 A CN 202010074164A CN 111309942 A CN111309942 A CN 111309942A
- Authority
- CN
- China
- Prior art keywords
- image data
- data
- data acquisition
- acquisition module
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 94
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013480 data collection Methods 0.000 claims description 29
- 238000012216 screening Methods 0.000 claims description 23
- 238000013135 deep learning Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 21
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000035939 shock Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000017525 heat dissipation Effects 0.000 description 6
- 239000000428 dust Substances 0.000 description 5
- 229910000831 Steel Inorganic materials 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 239000010959 steel Substances 0.000 description 4
- 239000006096 absorbing agent Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000009430 construction management Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000000703 anti-shock Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Library & Information Science (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开是关于一种施工现场的数据采集方法、装置及系统,系统包括:定位模块和存储模块,定位模块包括数据采集模块;GPS模块,定位每个数据采集模块所在的位置,确定每个数据采集模块的坐标;IMU传感模块,获取每个数据采集模块设置的绝对角度,以及每个数据采集模块与施工现场的工人之间的相对角度;数据采集模块,采集施工现场的图像数据,从图像数据中选取出图像中含有工人,且工人与移动式机械设备的距离在预设距离范围内的目标图像数据;存储模块,将目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储。通过该技术方案,可以自动识别工人所在位置,对工人作业环境进行记录。
Description
技术领域
本公开涉及施工现场的数据采集技术领域,尤其涉及一种施工现场的数据采集方法及系统。
背景技术
目前智慧工地在我国多个省份如火如荼地发展,建设智慧工地在实现绿色建造、引领信息技术应用、提升社会综合竞争力等方面具有重要意义。智慧工地发展需要数字化施工做支撑,但数字化施工面临数据不足,数据质量不高等问题。工地施工工序繁多,涉及多公司,多工种配合,工地数字化需要梳理每一个业务流程环节,并记录过程数据。数据种类繁多,包括机械设备数据,工人数据,管理者数据,建筑模型数据等等。针对每类数据也有不同的数据类型,包括文本、图像、声音等类型。需要针对不同的场景信息选择有效的数据类型进行记录。另外工地环境复杂,包含杂乱的障碍物,嘈杂的环境,多变的现场与流动的人群为数据的收集带来了挑战。
传统的数据收集方式是通过在人工检查的基础上进行监测并记录的方式开展的。具体操作为业务活动相关人员,如项目经理、技术人员以及班组长通过日志的方法加以记录。工程建设管理日志可以有效的记录每日的基本工作情况以及每项活动的基本情况,但他们高度依赖于记录人员的个人能力,需要花费大量时间现场监督,信息难以记录完全。当面临记录人员不在场,或是实时的、突发的但值得被记录的活动出现时,往往没有相应的记录。
工地数字化程度较低,除建筑信息模型BIM技术外大部分业务流程环节没有数据记录的系统,整体数据来源呈现碎片化态势,并且数据收集缺乏针对业务环节的聚焦,缺乏对客观工人作业的数字化记录。工人作业的数字化记录包括工人在作业环境的位置,作业时间及具体作业行为过程记录。
发明内容
为克服相关技术中存在的问题,本公开提供一种施工现场的数据采集方法、装置及系统。
根据本公开实施例的第一方面,提供一种施工现场的数据采集系统,包括:
定位模块和存储模块,其中,所述定位模块包括数据采集模块,IMU传感模块和GPS模块,所述数据采集模块包括设置在施工现场的移动式机械设备上的多个双目摄像头;
所述GPS模块,用于定位每个数据采集模块所在的位置,并确定所述每个数据采集模块的坐标;
所述IMU传感模块,用于获取所述每个数据采集模块设置的绝对角度,以及所述每个数据采集模块与施工现场的工人之间的相对角度;
所述数据采集模块,用于采集施工现场的图像数据,并从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据;
存储模块,用于将所述目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,所述标签数据包括所述数据采集模块的坐标,采集时间,所述绝对角度,所述相对角度和所述工人与所述移动式机械设备之间的距离。
在一个实施例中,优选地,所述系统还包括:
分析模块,用于根据预设的施工图纸,存储的图像数据和对与其对应的标签数据分析确定出每个工人的作业环境信息。
在一个实施例中,优选地,所述数据采集模块包括:
识别单元,用于通过深度学习算法从所述图像数据中识别出图像中含有工人的初筛图像数据,并确定每个初筛图像数据中工人的人体范围对应的像素点的坐标;
第一计算单元,用于通过双目视觉算法计算出所述初筛图像数据中的每个像素点对应的物体到所述摄像头的深度距离;
距离确定单元,用于确定每个所述人体范围的中心点坐标,并以所述中心点坐标为基准坐标,等距离在所述人体范围内取5×5个目标像素点,根据所有目标像素点对应的深度距离的极差与5的商为距离,生成频数分布直方图,将频数最大的直方图中包含的所有目标像素点对应的深度距离的平均值确定为所述工人与所述双目摄像头之间的距离;
距离计算单元,用于根据工人与所述双目摄像头之间的距离,以及所述绝对角度和所述相对角度,计算出所述工人与所述移动式机械设备之间的距离。
在一个实施例中,优选地,所述深度学习算法包括:CNN算法、ResNet算法和Unet算法。
在一个实施例中,优选地,所述系统还包括:
显示模块,用于显示所述目标图像数据,并标记显示出所述目标图像数据上的工人。
在一个实施例中,优选地,所述系统还包括:
设备三防模块,所述设备三防模块包括防水单元、防尘单元和防震单元,用于避免其他模块受雨水、尘土和振动的影响。
在一个实施例中,优选地,所述系统还包括:
供电模块,用于通过独立电源兼容所述移动式机械设备电源和工地现场电源为其他模块提供电源。
根据本公开实施例的第二方面,提供一种施工现场的数据采集方法,用于施工现场的数据采集系统,所述施工现场的数据采集系统至少包括数据采集模块,所述数据采集模块包括设置在施工现场的移动式机械设备上的多个双目摄像头,所述方法包括:
定位每个数据采集模块所在的位置,并确定每个所述数据采集模块的坐标;
获取所述每个数据采集模块设置的绝对角度,以及所述每个数据采集模块与施工现场的工人之间的相对角度;
通过所述数据采集模块采集施工现场的图像数据,并从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据;
将所述目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,所述标签数据包括所述数据采集模块的坐标,采集时间,所述绝对角度,所述相对角度和所述工人与所述移动式机械设备之间的距离。
在一个实施例中,优选地,所述方法还包括:
根据预设的施工图纸,存储的图像数据和对与其对应的标签数据分析确定出每个工人的作业环境信息。
在一个实施例中,优选地,所述从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据,包括:
通过深度学习算法从所述图像数据中识别出图像中含有工人的初筛图像数据,并确定每个初筛图像数据中工人的人体范围对应的像素点的坐标,所述述深度学习算法包括:CNN算法、ResNet算法和Unet算法;
通过双目视觉算法计算出所述初筛图像数据中的每个像素点对应的物体到所述摄像头的深度距离;
确定每个所述人体范围的中心点坐标,并以所述中心点坐标为基准坐标,等距离在所述人体范围内取5×5个目标像素点,根据所有目标像素点对应的深度距离的极差与5的商为距离,生成频数分布直方图,将频数最大的直方图中包含的所有目标像素点对应的深度距离的平均值确定为所述工人与所述双目摄像头之间的距离;
根据工人与所述双目摄像头之间的距离,以及所述绝对角度和所述相对角度,计算出所述工人与所述移动式机械设备之间的距离;
根据所述工人与所述移动式机械设备之间的距离,从所述初筛图像数据中选取出所述距离在预设距离范围内的目标图像数据。
在一个实施例中,优选地,所述方法还包括:
显示所述目标图像数据,并标记显示出所述目标图像数据上的工人。
根据本公开实施例的第三方面,提供一种施工现场的数据采集装置,用于施工现场的数据采集系统,所述系统至少包括数据采集模块,所述数据采集模块包括设置在施工现场的移动式机械设备上的多个双目摄像头,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
定位每个数据采集模块所在的位置,并确定每个所述数据采集模块的坐标;
获取所述每个数据采集模块设置的绝对角度,以及所述每个数据采集模块与施工现场的工人之间的相对角度;
通过所述数据采集模块采集施工现场的图像数据,并从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据;
将所述目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,所述标签数据包括所述数据采集模块的坐标,采集时间,所述绝对角度,所述相对角度和所述工人与所述移动式机械设备之间的距离。
本公开的实施例提供的技术方案可以包括以下有益效果:
本发明实施例中,基于深度学习视觉技术与双目测距原理的工人识别算法,在工控机上组合GPS、移动电源和双目摄像头和IMU传感模块等硬件,构成便携式施工工人作业数据采集系统,从而实现施工时图像数据的自动采集,并实现针对复杂施工环境的可移动数据采集。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的机箱设计示意图。
图2是根据一示例性实施例示出的机箱防震示意图。
图3是根据一示例性实施例示出的一种施工现场的数据采集系统的示意图。
图4是根据一示例性实施例示出的另一种施工现场的数据采集系统的示意图。
图5是根据一示例性实施例示出的一种施工现场的数据采集系统中数据采集模块的示意图。
图6是根据一示例性实施例示出的Resnet网络示意图。
图7是根据一示例性实施例示出的Unet结构示意图。
图8是根据一示例性实施例示出的FPN示意图。
图9是根据一示例性实施例示出的双目视觉算法示意图。
图10是根据一示例性实施例示出的另一种施工现场的数据采集系统的示意图。
图11是根据一示例性实施例示出的工人目标的显示效果图。
图12是根据一示例性实施例示出的一种施工现场的数据采集方法的流程图。
图13是根据一示例性实施例示出的另一种施工现场的数据采集方法的流程图。
图14是根据一示例性实施例示出的一种施工现场的数据采集方法中步骤S1203的流程图。
图15是根据一示例性实施例示出的又一种施工现场的数据采集方法的流程图。
图16是根据一示例性实施例示出的数据采集范围的示意图。
图17是根据一示例性实施例示出的数据库示意图。
图18a-c是根据一示例性实施例示出的数据采集示意图。
图19是根据一示例性实施例示出的图像数据文字标签存储示意图。
图20是根据一示例性实施例示出的定位示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
施工现场的工作环境复杂,施工过程中会造成大量尘土漫天飞扬,为了保证良好的施工环境以及环保要求,施工方会用喷水的方式减少空气中的尘土。本发明依赖以CPU和GPU为核心的工控机作为算法实现的载体,需要工控机机箱满足计算核心防尘防水的要求。同时由于设备安装在起重、运输、挖掘等施工机械设备上,设备在运转时会带来高频振动,所以计算核心还有防震的要求。最后由于CPU和GPU功率较高,还要考虑设备散热问题。机箱设计图如图1所示。
首先在防水防尘问题上,采用了多个结构设计来避免。首先采用外罩机箱来防水和防尘,在机箱侧面留出特殊的向下出风口,避免雨水倒灌,内箱与外罩之间留出足够空间。外罩下方出风口加装防尘过滤网。内箱通风口也加装防尘过滤网,量级过滤,有效防尘。
其次针对于防震问题,如图2所示,采用了两级防震措施。机箱大结构分为内箱和外罩。内箱与固定的支架之间采用钢丝减震器连接固定。钢丝减震器可以对三维震动有效的缓冲,具体结构见下图。钢丝减震器通过绕制的螺旋型钢丝绳,可以通过螺线结构的变形来吸收上下左右前后的震动,并且结构稳定,有很好的弹性和韧性。第二级减震措施安装在主板与内箱之间。主板固定在内箱使用了弹簧减震结构,进一步消除残余震动,保证工控机正常运行。
最后,针对散热问题,对机箱的风冷循环做了优化设计。在内箱装了5部风扇,其中一部位于CPU上部,保证处理器的散热。另外有一部风扇在显卡GPU上,保证显卡的散热。其他三步位于内箱一侧,进行整个机箱与外箱通风循环。另外,考虑到工地常有高温和阳光直射情况,使用散热外罩可以有效的隔离阳光直射内箱导致升温,增加了散热性能。
施工现场供电来源主要有三种方式,工地现场电源,移动式机械设备电源以及独立电源。
工地现场电源主要通过开关箱连接,通过线路与分配电箱连接,优势在于供电稳定,安全系数最高,劣势在于可供电设备有限,线路限制供电范围,可移动性相较其余两种方法最差。移动式机械设备电源主要是设备上的发电机供电,优势在于可以针对此设备进行数据采集,供电稳定,劣势在于数据采集需要围绕此设备展开,限制了数据采集的范围,此外连接时需要对移动式机械设备加以改造,存在安全风险。最后一种方式是通过独立电源供电,优势在于可移动性最强,不受场地限制,劣势在于独立电源容量有限,数据采集时长受到限制。但纯从移动性上排名:独立电源>移动式机械设备电源>工地现场电源。
本发明供电主要针对独立电源,兼容移动式机械设备电源与工地现场电源。供电设计包括逆变器,UPS两部分,逆变器适配工地移动式机械设备(移动式吊车、铲车等)电源,将直流24V电转换为交流220V,UPS起到稳压的作用。数据采集系统功率设置上限500W,独立电源电池容量51.8V120AH,电芯类型动力离子电池,交流输出220V纯正弦波3000W,满足长达10小时的数据采集需求。
施工现场工人繁多,种类众多,大部分业务活动仍然无法被机械所替代,所以记录施工现场工人作业图像数据对了解具体操作流程有奠基性意义。目前施工现场的图像数据有三个来源,分别是高处固定监控摄像头,进门处人脸摄像头以及工人手机摄像头。
高处固定摄像头采用俯视的视角定向监控区域,优点在于成本低,技术成熟,数据采集稳定,缺点在于能被收集图像数据的区域较为固定,无法满足多变的施工现场复杂需求。此外,监控数据需要无差别记录导致消耗了大量存储空间,考虑到存储空间的限制,需要牺牲图像数据的质量来满足记录的要求。另外由于摄像头的安装位置,图像中由于安全帽的存在难以获得具体人脸数据,无法识别具体工人身份。进门处人脸摄像头可以识别工人身份,数据质量较高,但图像数据采集点一般在进门处,和具体作业无关。工人手机摄像头的优点在于由于工人的流动性,理论上手机可以覆盖全部工地现场,并且随着手机技术的发展,图像数据质量越来越高,但工人在大部分作业时无法使用手机,工人使用手机的动机是拍下不安全的场景,获得相关激励,所以数据一方面在时间上不连续,另一方面与作业流程无关。
综上所述,传统的图像数据采集数据无法满足目前施工数字化对工人作业流程数据记录的需求。
本发明采用realsense实感摄像头(包括双目摄像头和IMU传感模块)+gps模块构成定位模块,配合工控机以及独立电源供电的方式,可以便携地出现在工地每个角落,对每一类工人作业环境进行记录。
下面详细介绍本发明的技术方案。
图3是根据一示例性实施例示出的一种施工现场的数据采集系统的示意图。
根据本公开实施例的第一方面,提供一种施工现场的数据采集系统300,包括:
定位模块301和存储模块302,其中,所述定位模块301包括数据采集模块3010,IMU传感模块3011和GPS模块3012,所述数据采集模块3010包括设置在施工现场的移动式机械设备上的多个双目摄像头。
所述GPS模块3012,用于定位每个数据采集模块所在的位置,并确定所述每个数据采集模块的坐标。
所述IMU传感模块3011,用于获取所述每个数据采集模块设置的绝对角度,以及所述每个数据采集模块与施工现场的工人之间的相对角度。
所述数据采集模块3010,用于采集施工现场的图像数据,并从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据。其中,IMU(Inertial measurement unit,惯性测量单元)传感模块和数据采集模块可以通过实感摄像头实现。IMU传感器的作用是测量摄像头的姿态,在使用前会进行归零并校准,IMU传感模块通过3个加速度计和3个陀螺仪组C成的组合单元形成笛卡尔坐标系如下图,具有x轴、y轴和z轴,传感器能够测量各轴方向的线性运动,以及围绕各轴的旋转运动。在本发明中主要测量旋转角度。
存储模块302,用于将所述目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,所述标签数据包括所述数据采集模块的坐标,采集时间,所述绝对角度,所述相对角度和所述工人与所述移动式机械设备之间的距离。
其中,图像数据以1280×720分辨率存储到本地硬盘,标签数据直接存储到MySQL数据库中,包括数据采集模块的编号,图像存储的时间,摄像头的空间x,y坐标和与正北方向的绝对角度,图中人物到摄像头的距离,图中人物与摄像头的相对角度。
在该实施例中,可以实现在施工时图像数据的自动采集,自动识别工人所在位置,从而对工人作业环境进行记录。
图4是根据一示例性实施例示出的另一种施工现场的数据采集系统的示意图。
如图4所示,在一个实施例中,优选地,所述系统还包括:
分析模块401,用于根据预设的施工图纸,存储的图像数据和对与其对应的标签数据分析确定出每个工人的作业环境信息。
其中,存储模块和分析模块等可以通过处理器实现,即通过工控机实现。工控机中装有针对深度学习的计算显卡,支持3台realsense实感摄像头实时采集数据并以每秒10帧的速度对三台摄像头采集的数据结果进行分析并存储,此外整体功耗不超过500W。此外本发明支持安装在施工现场机械设备上,从机械设备的移动视角来采集工地工人作业图像数据。此时供电来源可以是独立电源,也可以是移动式机械设备电源。
图5是根据一示例性实施例示出的一种施工现场的数据采集系统中数据采集模块的示意图。
如图5所示,在一个实施例中,优选地,所述数据采集模块3010包括:
识别单元501,用于通过深度学习算法从所述图像数据中识别出图像中含有工人的初筛图像数据,并确定每个初筛图像数据中工人的人体范围对应的像素点的坐标。
在一个实施例中,优选地,所述深度学习算法包括:CNN算法、ResNet算法和Unet算法。
为了满足施工作业无人时设备记录冗余数据这一问题,本发明采用深度学习的技术,针对识别出人之后的工作场景进行记录。算法选择卷积神经网络(CNN)算法,具体在网络设计上,结合ResNet和Unet。
随着神经网络的深度加深出现梯度消失问题使得分类准确度下降,Resnet网络通过使用残差单元一定程度解决了此问题,提取高质量的高层次信息。具体单元如图6所示。输入为x输出为H(x)=F(x)+x。
随着神经网络的深度多次池化导致特征空间分辨率损失,识别精度下降,边界细节容易丢失。Unet结构把高层次信息与低层次信息融合,使得物体框的边界更准确。示意图如图7所示。
在Detection结构上,考虑到移动式设备有限的内存和电源,需要选择低计算量的算法,降低消耗。本算法结合FPN和One-stage算法,目的是减少计算消耗,加快检测过程。FPN利用卷积网络本身带有的层次性语义特征,构建特征金字塔,通过自顶向下、带有侧向连接的层次结构来构建各个尺度的高层语义特征。FPN作为特征提取器,显著提升了性能。对比传统的图像金字塔,二者在不同远近的物体表现一样好,但FPN避免了图像金字塔中的过多计算消耗示意图如图8所示。
One-stage检测算法免去了第二个stage中的region proposal network等额外操作,直接产生物体的类别概率和位置坐标值,经过单次检测即可直接得到最终的检测结果,因此有着更快的检测速度,比较典型的算法如YOLO,SSD,Retina-Net。
卷积神经网络(CNN)算法实现对工人目标的实时检测,该算法并不使用人工设定的规则识别图像中工人目标的特征,而是使用大量标记过工人的图片样本进行训练,使该算法通过学习获得识别工人的能力,并不断提高准确性。
第一计算单元502,用于通过双目视觉算法计算出所述初筛图像数据中的每个像素点对应的物体到所述摄像头的深度距离。
其中,图9示出了双目视觉算法示意图,如图9所示,图中物体P是待测距物体,Ol和Or是realsense实感摄像头的两个摄像头,T是实际两个摄像头间的距离,f是摄像头焦距,所以T和f是已知参数。根据相似三角形原理
所以求物体距离问题变为了确定视差D=Xl-Xr的问题。
视差是同一个空间点在两个相机成像中对应的x坐标的差值,在成像中每一个像素点通过编码具有一个灰度值,离镜头越近的灰度越亮。通过灰度值可以在两张照片中找到对应的像素点从而计算灰度值获得视差D,由此可以通过双目测距算法得到深度图像。
距离确定单元503,用于确定每个所述人体范围的中心点坐标,并以所述中心点坐标为基准坐标,等距离在所述人体范围内取5×5个目标像素点,根据所有目标像素点对应的深度距离的极差与5的商为距离,生成频数分布直方图,将频数最大的直方图中包含的所有目标像素点对应的深度距离的平均值确定为所述工人与所述之间的距离。
距离计算单元504,用于根据工人与所述双目摄像头之间的距离,以及所述绝对角度和所述相对角度,计算出所述工人与所述移动式机械设备之间的距离。
通过本发明的上述方法计算出的距离值,准确性更高。
图10是根据一示例性实施例示出的另一种施工现场的数据采集系统的示意图。
如图10所示,在一个实施例中,优选地,所述系统还包括:
显示模块1001,用于显示所述目标图像数据,并标记显示出所述目标图像数据上的工人。
其中,显示模块可以是移动式机械设备上的显示器,也可以是其他显示器。具体地,工人目标的显示效果可以如图11所示,以红框的方式突出显示出工人,从而方便数据采集人员实时对采集数据中的工人的位置加以定位。
图12是根据一示例性实施例示出的一种施工现场的数据采集方法的流程图。
如图12所示,根据本公开实施例的第二方面,提供一种施工现场的数据采集方法,用于施工现场的数据采集系统,所述施工现场的数据采集系统至少包括数据采集模块,所述数据采集模块包括设置在施工现场的移动式机械设备上的多个双目摄像头,所述方法包括:
在步骤S1201中,定位每个数据采集模块所在的位置,并确定每个数据采集模块的坐标;
在步骤S1202中,获取每个数据采集模块设置的绝对角度,以及每个数据采集模块与施工现场的工人之间的相对角度;
在步骤S1203中,通过数据采集模块采集施工现场的图像数据,并从图像数据中选取出图像中含有工人,且工人与移动式机械设备的距离在预设距离范围内的目标图像数据;
在步骤S1204中,将目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,标签数据包括数据采集模块的坐标,采集时间,绝对角度,相对角度和工人与移动式机械设备之间的距离。
图13是根据一示例性实施例示出的另一种施工现场的数据采集方法的流程图。
如图13所示,在一个实施例中,优选地,方法还包括步骤S1301:
在步骤S1301中,根据预设的施工图纸,存储的图像数据和对与其对应的标签数据分析确定出每个工人的作业环境信息。
图14是根据一示例性实施例示出的一种施工现场的数据采集方法中步骤S1203的流程图。
如图14所示,在一个实施例中,优选地,上述步骤S1203包括步骤S1401-S1405:
在步骤S1401中,通过深度学习算法从图像数据中识别出图像中含有工人的初筛图像数据,并确定每个初筛图像数据中工人的人体范围对应的像素点的坐标,深度学习算法包括:CNN算法、ResNet算法和Unet算法;
在步骤S1402中,通过双目视觉算法计算出初筛图像数据中的每个像素点对应的物体到摄像头的深度距离;
在步骤S1403中,确定每个人体范围的中心点坐标,并以中心点坐标为基准坐标,等距离在人体范围内取5×5个目标像素点,根据所有目标像素点对应的深度距离的极差与5的商为距离,生成频数分布直方图,将频数最大的直方图中包含的所有目标像素点对应的深度距离的平均值确定为工人与双目摄像头之间的距离;
在步骤S1404中,根据工人与双目摄像头之间的距离,以及绝对角度和相对角度,计算出工人与移动式机械设备之间的距离;
在步骤S1405中,根据工人与移动式机械设备之间的距离,从初筛图像数据中选取出距离在预设距离范围内的目标图像数据。
图15是根据一示例性实施例示出的又一种施工现场的数据采集方法的流程图。
如图15所示,在一个实施例中,优选地,方法还包括步骤S1501:
在步骤S1501中,显示目标图像数据,并标记显示出目标图像数据上的工人。
下面以一个具体的实际案例详细说明本发明的上述技术方案。
在实际施工作业现场,本发明的应用可以通过以下几步实现。
(1)选择数据采集区域安装设备
以放置在施工移动式机械设备上进行数据采集为例,根据施工机械设备作业区域选择在设备合适的位置安装摄像头。以移动式吊车为例,本次数据范围为车尾一侧,具体工人工作为配合吊车将发电机悬吊到地下一层,数据采集范围如图16所示。
将工控机机箱选择合适地方安装,最好安装在驾驶室内。电源可以选择车载电瓶或独立电源为工控机供电,区别在于数据采集的时间,如果时间超过10小时选择车载电源,如果在10小时以内可以选择独立电源。工控机与摄像头之间通过光纤连接,降低数据传输延迟。显示器在驾驶室选择合适的位置固定并与工控机相连。
在正式采集数据前需要对三个摄像头进行校准,首先打开数据采集系统,打开MySQL,将定位模块玻璃外壳上的箭头对准正北方向。对准后将IMU传感器数据归零,此时刷新MySQL数据库,绝对角度为0,如图17所示。
将定位模块通过螺丝安装在移动式吊车上固定,校准完成。
(2)数据采集
正式打开数据采集系统,显示器中会出现三个摄像头实时展示的从施工现场传输回来的图像,如图18a-c所示。摄像头会实时识别出现在画面里的工人,记录逻辑如下:判断是否识别到工人,如果识别到工人,判断工人与机械设备之间的距离,如果该距离在预设距离范围内,如在1-10米之内,则记录数据,否则则继续进行识别,直到退出识别操作。每一位出现在摄像头中距离机械设备1米-10米的工人都会自动用红色的框子框出,方便数据采集人员确定工作人员位置。每个摄像头可覆盖的角度为72°,工控机可连接多个realsense实感摄像头。每张有工作人员的图像数据都会存储到工控机中的硬盘上,文件名每一个小时建立一个新的,命名格式为cam_img_20AA_BB_CC_DD,AA是年份,今年是19年,所以是19;BB是月份,样例图像数据来自于今年6月,所以是06;CC是日期,样例图像数据来自于24日,所以是24;DD是时间,样例数据来自于8点,所以是08。综上所述这三张图像数据存储在cam_img_2019_6_24_8文件夹中。图像数据命名格式为20AA_BB_CC-DD_EE_FF_XXXX,其中AA、BB、CC、DD格式与文件夹相同,EE是分钟时间,样例数据来自于29分,所以是29;FF是是秒时间,样例数据来自于38秒,所以是38;XXXX代表摄像头编号,样例中只有3个摄像头,故用左left,中mid,右right来命名。以图七为例,图像数据名称为2019_06_24-08_29_38_left,数据格式为jpg。每张图像数据对应的文字标签通过MySQL存储,编号左为1,中为2,右为3,如图19所示。
通过文字标签数据,可以还原每个工人作业的位置数据,如图20所示。
位置数据配合施工图纸可以自动化得出每个工人作业的环境信息,结合时间和图片记录的行为数据完整描述了工人的作业。
每秒钟单个摄像头数据采集10张,仅存储含有工作人员的第一张图片数据。
根据本公开实施例的第三方面,提供一种施工现场的数据采集装置,用于施工现场的数据采集系统,所述系统至少包括数据采集模块,所述数据采集模块包括设置在施工现场的移动式机械设备上的多个双目摄像头,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
定位每个数据采集模块所在的位置,并确定每个所述数据采集模块的坐标;
获取所述每个数据采集模块设置的绝对角度,以及所述每个数据采集模块与施工现场的工人之间的相对角度;
通过所述数据采集模块采集施工现场的图像数据,并从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据;
将所述目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,所述标签数据包括所述数据采集模块的坐标,采集时间,所述绝对角度,所述相对角度和所述工人与所述移动式机械设备之间的距离。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器,上述指令可由施工现场的数据采集的处理器1320执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种用于施工现场的数据采集方法,所述方法包括:
定位每个数据采集模块所在的位置,并确定每个所述数据采集模块的坐标;
获取所述每个数据采集模块设置的绝对角度,以及所述每个数据采集模块与施工现场的工人之间的相对角度;
通过所述数据采集模块采集施工现场的图像数据,并从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据;
将所述目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,所述标签数据包括所述数据采集模块的坐标,采集时间,所述绝对角度,所述相对角度和所述工人与所述移动式机械设备之间的距离。
在一个实施例中,优选地,所述方法还包括:
根据预设的施工图纸,存储的图像数据和对与其对应的标签数据分析确定出每个工人的作业环境信息。
在一个实施例中,优选地,所述从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据,包括:
通过深度学习算法从所述图像数据中识别出图像中含有工人的初筛图像数据,并确定每个初筛图像数据中工人的人体范围对应的像素点的坐标,所述述深度学习算法包括:CNN算法、ResNet算法和Unet算法;
通过双目视觉算法计算出所述初筛图像数据中的每个像素点对应的物体到所述摄像头的深度距离;
确定每个所述人体范围的中心点坐标,并以所述中心点坐标为基准坐标,等距离在所述人体范围内取5×5个目标像素点,根据所有目标像素点对应的深度距离的极差与5的商为距离,生成频数分布直方图,将频数最大的直方图中包含的所有目标像素点对应的深度距离的平均值确定为所述工人与所述双目摄像头之间的距离;
根据工人与所述双目摄像头之间的距离,以及所述绝对角度和所述相对角度,计算出所述工人与所述移动式机械设备之间的距离;
根据所述工人与所述移动式机械设备之间的距离,从所述初筛图像数据中选取出所述距离在预设距离范围内的目标图像数据。
在一个实施例中,优选地,所述方法还包括:
显示所述目标图像数据,并标记显示出所述目标图像数据上的工人。
进一步可以理解的是,本公开中“多个”是指两个或两个以上,其它量词与之类似。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
进一步可以理解的是,术语“第一”、“第二”等用于描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开,并不表示特定的顺序或者重要程度。实际上,“第一”、“第二”等表述完全可以互换使用。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。
进一步可以理解的是,本公开实施例中尽管在附图中以特定的顺序描述操作,但是不应将其理解为要求按照所示的特定顺序或是串行顺序来执行这些操作,或是要求执行全部所示的操作以得到期望的结果。在特定环境中,多任务和并行处理可能是有利的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种施工现场的数据采集系统,其特征在于,包括:
定位模块和存储模块,其中,所述定位模块包括数据采集模块,IMU传感模块和GPS模块,所述数据采集模块包括设置在施工现场的移动式机械设备上的多个双目摄像头;
所述GPS模块,用于定位每个数据采集模块所在的位置,并确定所述每个数据采集模块的坐标;
所述IMU传感模块,用于获取所述每个数据采集模块设置的绝对角度,以及所述每个数据采集模块与施工现场的工人之间的相对角度;
所述数据采集模块,用于采集施工现场的图像数据,并从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据;
存储模块,用于将所述目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,所述标签数据包括所述数据采集模块的坐标,采集时间,所述绝对角度,所述相对角度和所述工人与所述移动式机械设备之间的距离。
2.根据权利要求1所述的施工现场的数据采集系统,其特征在于,所述系统还包括:
分析模块,用于根据预设的施工图纸,存储的图像数据和对与其对应的标签数据分析确定出每个工人的作业环境信息。
3.根据权利要求1所述的施工现场的数据采集系统,其特征在于,所述数据采集模块包括:
识别单元,用于通过深度学习算法从所述图像数据中识别出图像中含有工人的初筛图像数据,并确定每个初筛图像数据中工人的人体范围对应的像素点的坐标;
第一计算单元,用于通过双目视觉算法计算出所述初筛图像数据中的每个像素点对应的物体到所述摄像头的深度距离;
距离确定单元,用于确定每个所述人体范围的中心点坐标,并以所述中心点坐标为基准坐标,等距离在所述人体范围内取5×5个目标像素点,根据所有目标像素点对应的深度距离的极差与5的商为距离,生成频数分布直方图,将频数最大的直方图中包含的所有目标像素点对应的深度距离的平均值确定为所述工人与所述双目摄像头之间的距离;
距离计算单元,用于根据工人与所述双目摄像头之间的距离,以及所述绝对角度和所述相对角度,计算出所述工人与所述移动式机械设备之间的距离。
4.根据权利要求3所述的施工现场的数据采集系统,其特征在于,所述深度学习算法包括:CNN算法、ResNet算法和Unet算法。
5.根据权利要求1所述的施工现场的数据采集系统,其特征在于,所述系统还包括:
显示模块,用于显示所述目标图像数据,并标记显示出所述目标图像数据上的工人。
6.一种施工现场的数据采集方法,其特征在于,用于施工现场的数据采集系统,所述施工现场的数据采集系统至少包括数据采集模块,所述数据采集模块包括设置在施工现场的移动式机械设备上的多个双目摄像头,所述方法包括:
定位每个数据采集模块所在的位置,并确定每个所述数据采集模块的坐标;
获取所述每个数据采集模块设置的绝对角度,以及所述每个数据采集模块与施工现场的工人之间的相对角度;
通过所述数据采集模块采集施工现场的图像数据,并从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据;
将所述目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,所述标签数据包括所述数据采集模块的坐标,采集时间,所述绝对角度,所述相对角度和所述工人与所述移动式机械设备之间的距离。
7.根据权利要求6所述的施工现场的数据采集方法,其特征在于,所述方法还包括:
根据预设的施工图纸,存储的图像数据和对与其对应的标签数据分析确定出每个工人的作业环境信息。
8.根据权利要求6所述的施工现场的数据采集方法,其特征在于,所述从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据,包括:
通过深度学习算法从所述图像数据中识别出图像中含有工人的初筛图像数据,并确定每个初筛图像数据中工人的人体范围对应的像素点的坐标,所述述深度学习算法包括:CNN算法、ResNet算法和Unet算法;
通过双目视觉算法计算出所述初筛图像数据中的每个像素点对应的物体到所述摄像头的深度距离;
确定每个所述人体范围的中心点坐标,并以所述中心点坐标为基准坐标,等距离在所述人体范围内取5×5个目标像素点,根据所有目标像素点对应的深度距离的极差与5的商为距离,生成频数分布直方图,将频数最大的直方图中包含的所有目标像素点对应的深度距离的平均值确定为所述工人与所述双目摄像头之间的距离;
根据工人与所述双目摄像头之间的距离,以及所述绝对角度和所述相对角度,计算出所述工人与所述移动式机械设备之间的距离;
根据所述工人与所述移动式机械设备之间的距离,从所述初筛图像数据中选取出所述距离在预设距离范围内的目标图像数据。
9.根据权利要求6所述的施工现场的数据采集方法,其特征在于,所述方法还包括:
显示所述目标图像数据,并标记显示出所述目标图像数据上的工人。
10.一种施工现场的数据采集装置,其特征在于,用于施工现场的数据采集系统,所述系统至少包括数据采集模块,所述数据采集模块包括设置在施工现场的移动式机械设备上的多个双目摄像头,所述装置还包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
定位每个数据采集模块所在的位置,并确定每个所述数据采集模块的坐标;
获取所述每个数据采集模块设置的绝对角度,以及所述每个数据采集模块与施工现场的工人之间的相对角度;
通过所述数据采集模块采集施工现场的图像数据,并从所述图像数据中选取出图像中含有工人,且工人与所述移动式机械设备的距离在预设距离范围内的目标图像数据;
将所述目标图像数据按照图像数据和与其对应的标签数据的存储方式进行存储,其中,所述标签数据包括所述数据采集模块的坐标,采集时间,所述绝对角度,所述相对角度和所述工人与所述移动式机械设备之间的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010074164.4A CN111309942B (zh) | 2020-01-22 | 2020-01-22 | 施工现场的数据采集方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010074164.4A CN111309942B (zh) | 2020-01-22 | 2020-01-22 | 施工现场的数据采集方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111309942A true CN111309942A (zh) | 2020-06-19 |
CN111309942B CN111309942B (zh) | 2020-11-24 |
Family
ID=71150837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010074164.4A Active CN111309942B (zh) | 2020-01-22 | 2020-01-22 | 施工现场的数据采集方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111309942B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI768776B (zh) * | 2021-03-19 | 2022-06-21 | 國立臺灣大學 | 室內定位系統及室內定位方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8275544B1 (en) * | 2005-11-21 | 2012-09-25 | Miltec Missiles & Space | Magnetically stabilized forward observation platform |
CN104156812A (zh) * | 2014-08-04 | 2014-11-19 | 江苏鼎思科技发展有限公司 | 建设工程施工现场原始数据采集系统及采集方法 |
CN105965547A (zh) * | 2016-07-20 | 2016-09-28 | 南京市宜德思环境科技有限责任公司 | 一种用于环境监测、环境应急处置和环境修复的工程机器人 |
CN206012460U (zh) * | 2016-07-14 | 2017-03-15 | 昆山市交通工程试验检测中心有限公司 | 一种道路施工车辆安全距离图像采集装置 |
CN108151715A (zh) * | 2018-02-09 | 2018-06-12 | 首都师范大学 | 一种浅水区水下地形测量装置及方法 |
CN108481327A (zh) * | 2018-05-31 | 2018-09-04 | 珠海市微半导体有限公司 | 一种增强视觉的定位装置、定位方法及机器人 |
CN108981797A (zh) * | 2017-06-05 | 2018-12-11 | 威创私人有限公司 | 监测装置和方法 |
CN109345542A (zh) * | 2018-09-18 | 2019-02-15 | 重庆大学 | 一种穿戴式视觉注视目标定位装置及方法 |
CN109977853A (zh) * | 2019-03-25 | 2019-07-05 | 太原理工大学 | 一种基于多辨识器的矿井群体全景监控方法 |
CN110288268A (zh) * | 2019-07-03 | 2019-09-27 | 交通运输部科学研究院 | 一种施工安全风险与隐患一体化监测系统以及监测方法 |
-
2020
- 2020-01-22 CN CN202010074164.4A patent/CN111309942B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8275544B1 (en) * | 2005-11-21 | 2012-09-25 | Miltec Missiles & Space | Magnetically stabilized forward observation platform |
CN104156812A (zh) * | 2014-08-04 | 2014-11-19 | 江苏鼎思科技发展有限公司 | 建设工程施工现场原始数据采集系统及采集方法 |
CN206012460U (zh) * | 2016-07-14 | 2017-03-15 | 昆山市交通工程试验检测中心有限公司 | 一种道路施工车辆安全距离图像采集装置 |
CN105965547A (zh) * | 2016-07-20 | 2016-09-28 | 南京市宜德思环境科技有限责任公司 | 一种用于环境监测、环境应急处置和环境修复的工程机器人 |
CN108981797A (zh) * | 2017-06-05 | 2018-12-11 | 威创私人有限公司 | 监测装置和方法 |
CN108151715A (zh) * | 2018-02-09 | 2018-06-12 | 首都师范大学 | 一种浅水区水下地形测量装置及方法 |
CN108481327A (zh) * | 2018-05-31 | 2018-09-04 | 珠海市微半导体有限公司 | 一种增强视觉的定位装置、定位方法及机器人 |
CN109345542A (zh) * | 2018-09-18 | 2019-02-15 | 重庆大学 | 一种穿戴式视觉注视目标定位装置及方法 |
CN109977853A (zh) * | 2019-03-25 | 2019-07-05 | 太原理工大学 | 一种基于多辨识器的矿井群体全景监控方法 |
CN110288268A (zh) * | 2019-07-03 | 2019-09-27 | 交通运输部科学研究院 | 一种施工安全风险与隐患一体化监测系统以及监测方法 |
Non-Patent Citations (1)
Title |
---|
宋红丽: "基于航位推算的室内定位系统研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI768776B (zh) * | 2021-03-19 | 2022-06-21 | 國立臺灣大學 | 室內定位系統及室內定位方法 |
US11631195B2 (en) | 2021-03-19 | 2023-04-18 | National Taiwan University | Indoor positioning system and indoor positioning method |
Also Published As
Publication number | Publication date |
---|---|
CN111309942B (zh) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111275923B (zh) | 施工现场的人机碰撞预警方法及系统 | |
CN110502965B (zh) | 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法 | |
CN102867417B (zh) | 一种出租车防伪系统及方法 | |
CN104779552B (zh) | 利用便携式多功能智能巡线仪的电力巡线方法 | |
CN109978820A (zh) | 基于激光点云的无人机航线获取方法、系统以及设备 | |
CN109743547A (zh) | 一种人工智能安全监控管理系统 | |
CN114140528A (zh) | 数据标注方法、装置、计算机设备及存储介质 | |
JP2005049148A (ja) | 放射線線量率分布の可視化装置 | |
KR19990067273A (ko) | 컴퓨터 입체 관찰 시스템 및 그 방법 | |
CN111931706A (zh) | 施工现场的人机碰撞预警方法及系统 | |
CN111309942B (zh) | 施工现场的数据采集方法、装置及系统 | |
CN111145136A (zh) | 用于变电站表计图像数据集的合成方法、系统及存储介质 | |
CN110175393A (zh) | 一种室内设计测绘装置及在线辅助系统 | |
CN109949231A (zh) | 一种用于城市管理信息采集和处理的方法及装置 | |
CN117669943A (zh) | 基于bim的工程建设项目施工进展智能监测方法及系统 | |
CN116579607A (zh) | 一种多源数据协同的区域性尾矿库风险监测方法 | |
US20180039715A1 (en) | System and method for facilitating an inspection process | |
CN105956056A (zh) | 一种基于增强实景的数字城市管理方法和系统 | |
CN117371949B (zh) | 基于三维可视化模型的输电线路施工安全监测方法及系统 | |
CN113888069B (zh) | 一种基于哈希函数的理货信息获取方法及系统 | |
CN112396831B (zh) | 一种交通标识的三维信息生成方法和装置 | |
CN109887090A (zh) | 基于ar的桥梁养护巡查方法及装置 | |
CN112182696B (zh) | 一种顶盖检修吊装作业与风险辨识三维数字化推演方法 | |
CN110097270A (zh) | 一种房地产查勘系统 | |
CN113838193A (zh) | 数据处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20201020 Address after: 100084 Beijing City, Haidian District Tsinghua Yuan Applicant after: TSINGHUA University Applicant after: CHINA CONSTRUCTION FIRST DIVISION GROUP CONSTRUCTION & DEVELOPMENT Co.,Ltd. Address before: 100084 Beijing City, Haidian District Tsinghua Yuan Applicant before: TSINGHUA University |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |