CN115568015A - 一种船舶分段制造车间物料融合定位方法 - Google Patents
一种船舶分段制造车间物料融合定位方法 Download PDFInfo
- Publication number
- CN115568015A CN115568015A CN202211563622.6A CN202211563622A CN115568015A CN 115568015 A CN115568015 A CN 115568015A CN 202211563622 A CN202211563622 A CN 202211563622A CN 115568015 A CN115568015 A CN 115568015A
- Authority
- CN
- China
- Prior art keywords
- positioning
- uwb
- production
- production elements
- detection result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 138
- 238000000034 method Methods 0.000 title claims abstract description 50
- 239000000463 material Substances 0.000 title claims abstract description 45
- 230000004927 fusion Effects 0.000 title claims abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 56
- 238000012360 testing method Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 15
- 238000005516 engineering process Methods 0.000 claims description 12
- 230000003068 static effect Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 230000008447 perception Effects 0.000 abstract description 4
- 238000009826 distribution Methods 0.000 description 7
- 239000013067 intermediate product Substances 0.000 description 5
- 239000000969 carrier Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 101100390711 Escherichia coli (strain K12) fhuA gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/0257—Hybrid positioning
- G01S5/0263—Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/02—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
- G01S5/06—Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K17/00—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y10/00—Economic sectors
- G16Y10/25—Manufacturing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/10—Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/20—Information sensed or collected by the things relating to the thing itself
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y40/00—IoT characterised by the purpose of the information processing
- G16Y40/10—Detection; Monitoring
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y40/00—IoT characterised by the purpose of the information processing
- G16Y40/20—Analytics; Diagnosis
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y40/00—IoT characterised by the purpose of the information processing
- G16Y40/60—Positioning; Navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Manufacturing & Machinery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Environmental & Geological Engineering (AREA)
- Toxicology (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种船舶分段制造车间物料融合定位方法,包括:获取布置于分段制造车间内的UWB标签和生产要素,将UWB标签部署于定位区间,并将UWB标签与生产要素绑定;判断生产要素是否位于定位区间,是则读取生产要素绑定的UWB标签的位置;否则获取生产要素的精确定位;确定各生产要素的类型及其定位坐标;判断同种类型的生产要素是否有且仅有一个;若是,将第一检测结果传输至终端;若否,将第二检测结果传输至终端;终端将接收到的第一检测结果或第二检测结果进行显示。该方法对实现船舶制造大场景中生产要素的状态感知具有重大意义。
Description
技术领域
本发明涉及船舶分段制造车间物料定位技术领域,具体涉及一种船舶分段制造车间物料融合定位方法。
背景技术
UWB(Ultra Wide Band,超宽带)系统中由源标签发出信号,接收器接收后上传至定位引擎,引擎根据TDOA(Time Difference Of Arrival,到达时间差)以及信号到达角度等计算视觉信标的三维精确位置。在较宽的频谱上可传送极低功率的信号,十米范围内可实现数百Mbit/s至数Gbit/s的传输速率,信号功耗低且分辨率高,穿透力和抗多径衰减能力极强,理论定位精度可达厘米级。
利用视觉检测能在定位的同时获取定位对象的ID信息,UWB在室内定位的精度能达分米级,可抗室内噪音等外界因素干扰,两者在制造业已得到广泛应用,如对车间物料、配送车辆、人员等定位。由于船舶制造环境复杂性、多径效应以及技术本身缺陷,单一定位方法已不能满足定位实时性、准确性需求,多技术融合是定位技术在船舶制造业领域应用的必然趋势。
发明内容
基于此,有必要针对现有的问题,提供一种船舶分段制造车间物料融合定位方法。
本发明提供了一种船舶分段制造车间物料融合定位方法,该方法包括:
S1:获取布置于分段制造车间内的UWB标签和生产要素,将UWB标签部署于定位区间,并将UWB标签与生产要素绑定;
S2:判断生产要素是否位于定位区间,是则读取生产要素绑定的UWB标签的位置;否则获取生产要素的精确定位;
S3:重复执行S2,直至遍历所有生产要素;确定各生产要素的类型及其定位坐标;
S4:判断同种类型的生产要素是否有且仅有一个;
若是,则将不同类型的生产要素各自的类型以及定位坐标作为第一检测结果,并将第一检测结果传输至终端;
若否,则拍摄分段制造车间内情况得到图像,对图像进行目标检测得到第二检测结果,并将第二检测结果传输至终端;
S5:终端将接收到的第一检测结果或第二检测结果进行显示。
优选的,S1中,通过UWB传感器在分段制造车间内持续检测和读取UWB标签;通过高清工业相机在分段制造车间内识别生产要素。
优选的,在持续检测和读取UWB标签过程中,UWB传感器接收到的信号存在噪声,故将UWB标签的高度始终保持在稳定位置,计算公式如下:
优选的,在持续检测和读取UWB标签过程中,当UWB标签的位置变化小于静态识别距离时,进行位置信息平滑处理,计算公式如下:
优选的,S2中,当生产要素位于定位区间时,采用UWB技术读取UWB标签的位置;
当生产要素不位于定位区间时,采用PDA(Personal Digital Assistant,手持终端设备)人工获取生产要素的精确定位。
优选的,S4中,当同种类型的生产要素存在多个时,利用高清工业相机拍摄分段制造车间内情况得到图像,利用5G技术将图像传输至服务器进行目标检测得到第二检测结果,第二检测结果包括同类型的生产要素的数量、类型及其各自的定位坐标,并将第二检测结果传输至终端。
优选的,目标检测的方法为构建目标检测模型进行检测;
首先,将一部分图像作为训练样本集,检测训练样本集中的各生产要素,对各生产要素进行特征点定位,并对各生产要素进行训练特征提取,提取到的训练特征用于训练分类器;训练完成的分类器即为目标检测模型;
其次,将所有图像作为测试样本集,检测测试样本集中的各生产要素,对测试样本集中的各生产要素进行特征点定位,并进行测试特征提取,将提取到的测试特征输入至目标检测模型中,输出第二检测结果。
优选的,静态识别距离为UWB传感器的基础设置。
优选的,生产要素包括但不限于物料、载具。
优选的,定位区间包括但不限于各单元加工区、边线缓存区、出入口。
本发明提供的这种方法具有以下有益效果:
采用该方法可在船舶分段制造阶段实现船舶制造大场景中全要素的稳定和精确状态感知,并且在正常监测情况下不需要人工监测生产要素的位置和数量;这样省去了大量的检测时间和人工评估时间;对实现船舶制造大场景中生产要素的状态感知具有重大意义。
附图说明
通过参考下面的附图,可以更为完整地理解本发明的示例性实施方式。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为根据本申请一示例性实施例提供的方法的流程图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本申请所属领域技术人员所理解的通常意义。
另外,术语“第一”和“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例提供一种船舶分段制造车间物料融合定位方法,下面结合附图进行说明。
请参考图1,其示出了本申请的一些实施方式所提供的一种船舶分段制造车间物料融合定位方法的流程图,如图所示,方法可以包括以下步骤:
S1:获取布置于分段制造车间内的UWB标签和生产要素,将UWB标签部署于定位区间,并将UWB标签与生产要素绑定;
具体的,通过UWB传感器在分段制造车间内持续检测和读取UWB标签;通过高清工业相机在分段制造车间内识别生产要素。
在本实施例中,在持续检测和读取UWB标签过程中,UWB传感器接收到的信号存在噪声,故将UWB标签的高度始终保持在稳定位置,计算公式如下:
并且,在持续检测和读取UWB标签过程中,当UWB标签的位置变化小于静态识别距离时,进行位置信息平滑处理,计算公式如下:
在本实施例中,生产要素包括但不限于物料、载具;定位区间包括但不限于各单元加工区、边线缓存区、出入口;静态识别距离为UWB传感器的基础设置。
S2:判断生产要素是否位于定位区间,当生产要素位于定位区间时,采用UWB技术读取生产要素绑定的UWB标签的位置;
在本实施例中,生产要素位于定位区间即为生产要素处于可识别区;采用TDOA的方式进行UWB定位,UWB标签将数据包发送到被基站覆盖的区域内,附近的所有基站都会收到标签的无线信号,但不会返回任何无线信号。由于基站与标签的距离间隔不同,因此消息在不同的时刻到达每个基站。这些时间差乘以空间中恒定的光速得到标签和基站之间的距离差,这样就可以形成多点定位计算的基础,从而确定标签的相对坐标。假设测得标签到第n个基站接收到标签所发出的UWB信号的时刻分别为ti(i=1,2,3,4...,n),且假设标签到第n个基站的距离为r i (i=1,2,3,4...,n)。在基站之间完全同步的情况下,得出定位标签相对于四组定位基站的距离差d i12~d i34为:
d i12=r 1-r 2=(t1-t2)
d i23=r 2-r 3=(t2-t3)
d i34=r 3-r 4=(t3-t4)
d i14=r 1-r 4=(t1-t4)
到达时间差(TDOA)技术,同步方式可以做到主基站同步从基站,而且主基站也可以同步其他主基站,这样只需要注意基站在现场布局形状,就可以做到无限基站的扩展;而且增加的基站不会对其他现有的基站造成任何影响,节约工作时长,降低工作能耗,能做到更高的动态识别定位和更充足的定位容量。
当生产要素不位于定位区间时,采用PDA人工获取生产要素的精确定位。
在本实施例中,生产要素不位于定位区间即为生产要素位于盲区;盲区定位采用PDA进行人工辅助定位,确定生产要素定位坐标。实现目标定位的前提是标签被u个读写器识别,且u≥1。当u=1时,标签向1个UWB基站发送信号进行识别。当u=0时,则定位目标处于盲区,此时可采用PDA搜索盲区进行人工定位,检索到标签时即定位坐标位于当前盲区,达到定位目的。
S3:重复执行S2,直至遍历所有生产要素;确定各生产要素的类型及其定位坐标;
其中,生产要素的类型在入库、相关人员部署UWB标签时就会设立好,届时进入无人化智能生产线以后只需要读取相关标签即可获取生产要素的类型;故在S1获取UWB标签和生产要素的同时,就已经获取到了各生产要素的类型。
S4:判断同种类型的生产要素是否有且仅有一个;
若是,则将不同类型的生产要素各自的类型以及定位坐标作为第一检测结果,并将第一检测结果传输至终端;
若否,则利用高清工业相机拍摄分段制造车间内情况得到图像,利用5G技术将图像传输至服务器进行目标检测得到第二检测结果,第二检测结果包括同类型的生产要素的数量、类型及其各自的定位坐标,并将第二检测结果传输至终端。
在本实施例中,目标检测的方法为构建目标检测模型进行检测;
首先,将一部分图像作为训练样本集,检测训练样本集中的各生产要素,对各生产要素进行特征点定位,并对各生产要素进行训练特征提取,提取到的训练特征用于训练分类器;训练完成的分类器即为目标检测模型;
其次,将所有图像作为测试样本集,检测测试样本集中的各生产要素,对测试样本集中的各生产要素进行特征点定位,并进行测试特征提取,将提取到的测试特征输入至目标检测模型中,输出第二检测结果。
S5:终端将接收到的第一检测结果或第二检测结果、各生产要素的类型及其定位坐标进行显示。
基于分段制造车间UWB实时定位的跟踪方法,该方法包括:
首先进行标签初始化信息设计,中间产品、物料追踪的前提是UWB标签初始化信息的设计和写入,将各类生产要素作为定位对象进行唯一标识。在托盘、物流车,以及物料等生产要素在追踪开始时,将初始化信息写入标签,在接下来的各作业单元通过读取标签即可确认分段建造工序内容和需要的物料。对于生产线物料和中间产品配送的载具(托盘等),采用UWB标签绑定目标对象以进行跟踪定位和轨迹追溯。
将中间产品或物料装入托盘时,将物料编码或中间产品编码与托盘视觉信标对应。在把托盘标签编码与载具(车辆等)的标签对应。各工位读取标签如中间产品、托盘信息。
补料时由工位线边库存实时需求拉动,配货完成后将物资和工位信息写入UWB标签里,将物料和托盘绑定UWB标签,对配送过程的车辆、托盘、物料进行实时跟踪和定位。
配送过程的实时状态空间则可描述为信息元集合:
定义值为1表示线边库存满足,为0表示工位缺料,发送物料需求,物资部门按需配送;值为1表示配送状态正常,0表示异常,此配送状态异常设定为a配送实际到达时间()超过规定最晚到达时间(),需要对其跟踪管控。
对于异常判定过程定义有:表示工位需求时间发出时间;表示线边安全库存,安全库存为0时规定为配送最晚到达时间,即;表示配送最佳达到时间;正常情况下有;表示配送数量;表示边线当前数量;表示工位作业中物料消耗速率。
本实施例提供的方法不但省去的大量的检测时间和人工的评估时间,并且可以在船舶制造的时候实时判断物料的运送和机器位置是否出现问题,并可以知道问题出现的准确位置,可以非常快速并且准确的排查问题。由于船舶分段车间生产流程复杂,存在生产计划调整、插单等扰动,导致现场数据堆积、排列混乱和不稳定性,需对冗余、价值度分布不均匀的实时数据进行数据处理,如数据整合、过滤等操作,并分类存储至数据库;车间布置读写器和传感器后,一定距离内存在读写信号干扰,另一方面车间生产要素种类繁多、数量大,需要使用大量标签进行生产要素标识,不可避免地出现标签之间信号的碰撞,出现标签漏读时则无法实现对生产要素的定位,使用该方法可以进一步保证定位功能的正确性和有效性,也能节约标签使用量降低成本。因此利用该方法构建基于UWB技术,并融合了机器视觉和5G技术的针对船舶分段制造车间物料的定位方法,对实现船舶制造大场景中物料要素的状态感知具有重大意义。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围,其均应涵盖在本申请的权利要求和说明书的范围当中。
Claims (10)
1.一种船舶分段制造车间物料融合定位方法,其特征在于,包括:
S1:获取布置于分段制造车间内的UWB标签和生产要素,将UWB标签部署于定位区间,并将UWB标签与生产要素绑定;
S2:判断生产要素是否位于定位区间,是则读取生产要素绑定的UWB标签的位置;否则获取生产要素的精确定位;
S3:重复执行S2,直至遍历所有生产要素;确定各生产要素的类型及其定位坐标;
S4:判断同种类型的生产要素是否有且仅有一个;
若是,则将不同类型的生产要素各自的类型以及定位坐标作为第一检测结果,并将第一检测结果传输至终端;
若否,则拍摄分段制造车间内情况得到图像,对图像进行目标检测得到第二检测结果,并将第二检测结果传输至终端;
S5:终端将接收到的第一检测结果或第二检测结果进行显示。
2.根据权利要求1所述的一种船舶分段制造车间物料融合定位方法,其特征在于,S1中,通过UWB传感器在分段制造车间内持续检测和读取UWB标签;通过高清工业相机在分段制造车间内识别生产要素。
5.根据权利要求1所述的一种船舶分段制造车间物料融合定位方法,其特征在于,S2中,当生产要素位于定位区间时,采用UWB技术读取UWB标签的位置;
当生产要素不位于定位区间时,采用PDA人工获取生产要素的精确定位。
6.根据权利要求5所述的一种船舶分段制造车间物料融合定位方法,其特征在于,S4中,当同种类型的生产要素存在多个时,利用高清工业相机拍摄分段制造车间内情况得到图像,利用5G技术将图像传输至服务器进行目标检测得到第二检测结果,第二检测结果包括同类型的生产要素的数量、类型及其各自的定位坐标,并将第二检测结果传输至终端。
7.根据权利要求6所述的一种船舶分段制造车间物料融合定位方法,其特征在于,目标检测的方法为构建目标检测模型进行检测;
首先,将一部分图像作为训练样本集,检测训练样本集中的各生产要素,对各生产要素进行特征点定位,并对各生产要素进行训练特征提取,提取到的训练特征用于训练分类器;训练完成的分类器即为目标检测模型;
其次,将所有图像作为测试样本集,检测测试样本集中的各生产要素,对测试样本集中的各生产要素进行特征点定位,并进行测试特征提取,将提取到的测试特征输入至目标检测模型中,输出第二检测结果。
8.根据权利要求4所述的一种船舶分段制造车间物料融合定位方法,其特征在于,静态识别距离为UWB传感器的基础设置。
9.根据权利要求1所述的一种船舶分段制造车间物料融合定位方法,其特征在于,生产要素包括但不限于物料、载具。
10.根据权利要求1所述的一种船舶分段制造车间物料融合定位方法,其特征在于,定位区间包括但不限于各单元加工区、边线缓存区、出入口。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211563622.6A CN115568015B (zh) | 2022-12-07 | 2022-12-07 | 一种船舶分段制造车间物料融合定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211563622.6A CN115568015B (zh) | 2022-12-07 | 2022-12-07 | 一种船舶分段制造车间物料融合定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115568015A true CN115568015A (zh) | 2023-01-03 |
CN115568015B CN115568015B (zh) | 2023-04-25 |
Family
ID=84770187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211563622.6A Active CN115568015B (zh) | 2022-12-07 | 2022-12-07 | 一种船舶分段制造车间物料融合定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115568015B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117195110A (zh) * | 2023-11-07 | 2023-12-08 | 湖南大学 | 一种opc_ua节点感知自适应优先级分类方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101179289A (zh) * | 2007-11-21 | 2008-05-14 | 湖南大学 | 一种混合ovsf-th-uwb通信方法 |
US20100295718A1 (en) * | 2009-03-26 | 2010-11-25 | Tialinx, Inc. | Person-Borne Improvised Explosive Device Detection |
CN110018672A (zh) * | 2019-03-29 | 2019-07-16 | 南京航空航天大学 | 基于智能感知网的离散制造车间物料动态配送系统及方法 |
CN111207751A (zh) * | 2020-01-16 | 2020-05-29 | 昆山捷亿诺自动化科技有限公司 | 基于uwb定位和ar技术的仓库导航系统及导航方法 |
CN111427345A (zh) * | 2020-03-06 | 2020-07-17 | 珠海格力电器股份有限公司 | 一种物料转移方法及系统 |
CN112114288A (zh) * | 2020-10-20 | 2020-12-22 | 辽宁鼎汉奇辉电子系统工程有限公司 | 一种基于uwb的定位系统及定位方法 |
CN112904819A (zh) * | 2021-01-21 | 2021-06-04 | 成都四相致新科技有限公司 | 一种基于uwb的生产控制方法及系统 |
US20220089237A1 (en) * | 2020-06-16 | 2022-03-24 | Arrival Ltd. | Robotic production environment for vehicles |
CN114563795A (zh) * | 2022-02-25 | 2022-05-31 | 湖南大学无锡智能控制研究院 | 基于激光里程计和标签融合算法的定位追踪方法及系统 |
-
2022
- 2022-12-07 CN CN202211563622.6A patent/CN115568015B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101179289A (zh) * | 2007-11-21 | 2008-05-14 | 湖南大学 | 一种混合ovsf-th-uwb通信方法 |
US20100295718A1 (en) * | 2009-03-26 | 2010-11-25 | Tialinx, Inc. | Person-Borne Improvised Explosive Device Detection |
CN110018672A (zh) * | 2019-03-29 | 2019-07-16 | 南京航空航天大学 | 基于智能感知网的离散制造车间物料动态配送系统及方法 |
CN111207751A (zh) * | 2020-01-16 | 2020-05-29 | 昆山捷亿诺自动化科技有限公司 | 基于uwb定位和ar技术的仓库导航系统及导航方法 |
CN111427345A (zh) * | 2020-03-06 | 2020-07-17 | 珠海格力电器股份有限公司 | 一种物料转移方法及系统 |
US20220089237A1 (en) * | 2020-06-16 | 2022-03-24 | Arrival Ltd. | Robotic production environment for vehicles |
CN112114288A (zh) * | 2020-10-20 | 2020-12-22 | 辽宁鼎汉奇辉电子系统工程有限公司 | 一种基于uwb的定位系统及定位方法 |
CN112904819A (zh) * | 2021-01-21 | 2021-06-04 | 成都四相致新科技有限公司 | 一种基于uwb的生产控制方法及系统 |
CN114563795A (zh) * | 2022-02-25 | 2022-05-31 | 湖南大学无锡智能控制研究院 | 基于激光里程计和标签融合算法的定位追踪方法及系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117195110A (zh) * | 2023-11-07 | 2023-12-08 | 湖南大学 | 一种opc_ua节点感知自适应优先级分类方法 |
CN117195110B (zh) * | 2023-11-07 | 2024-01-26 | 湖南大学 | 一种opc_ua节点感知自适应优先级分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115568015B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107145919B (zh) | 面向出入检测的开放式rfid门禁系统及其处理方法 | |
US11625026B2 (en) | Production systems and production control methods for controlling a production system | |
CN108762251B (zh) | 一种图书馆机器人定位导航方法 | |
CN111667216A (zh) | 一种无人机室内仓储自主盘点系统及方法 | |
DE112018002848T5 (de) | RFID-gesteuerte Video-Momentaufnahmen, die Ziele von Interesse erfassen | |
CN103698745B (zh) | 室内无线定位设备及其实现定位的方法 | |
EP3208630B1 (en) | Estimation of a position of an electronic label | |
CN115568015A (zh) | 一种船舶分段制造车间物料融合定位方法 | |
Ting et al. | A study on RFID adoption for vehicle tracking in container terminal | |
CN105718971A (zh) | 一种基于rfid的多目标被动式室内活动识别方法 | |
CN111914582B (zh) | 一种适用于快速运动物品的rfid识别方法 | |
CN106548103A (zh) | 基于rfid的生产线系统 | |
CN109711503A (zh) | 一种机器人定位方法及装置 | |
CN103150527B (zh) | 射频识别标签定位方法及设备以及射频识别标签读取器 | |
CN111199258B (zh) | 商品定位系统及方法、带rfid读头的pda设备 | |
CN111123195A (zh) | 一种面向存储物品盘点的rfid盘点系统 | |
CN111191748A (zh) | 一种基于rfid技术的移动盘点系统 | |
CN105844191A (zh) | 基于射频识别的电子标签运动方向判断方法和系统 | |
CN116306755B (zh) | 一种商品盘点方法、系统、计算机设备及存储介质 | |
CN111856394A (zh) | 一种基于uwb与监控结合的精准定位装置及方法 | |
CN111918231B (zh) | 一种行李移动智能网格网络管理方法 | |
CN110399947A (zh) | 一种仓库内人员和周转工具的定位管理系统 | |
CN104166825A (zh) | 一种基于rfid的文档精确定位方法 | |
CN112040446A (zh) | 一种定位方法及定位系统 | |
CN206489453U (zh) | 一种无人机平台探照系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |