CN115568015A - 一种船舶分段制造车间物料融合定位方法 - Google Patents

一种船舶分段制造车间物料融合定位方法 Download PDF

Info

Publication number
CN115568015A
CN115568015A CN202211563622.6A CN202211563622A CN115568015A CN 115568015 A CN115568015 A CN 115568015A CN 202211563622 A CN202211563622 A CN 202211563622A CN 115568015 A CN115568015 A CN 115568015A
Authority
CN
China
Prior art keywords
positioning
uwb
production
production elements
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211563622.6A
Other languages
English (en)
Other versions
CN115568015B (zh
Inventor
毛建旭
彭紫扬
贺文斌
王耀南
梁毅钦
李卓维
李梦铖
许中伟
李哲
张辉
朱青
谭浩然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202211563622.6A priority Critical patent/CN115568015B/zh
Publication of CN115568015A publication Critical patent/CN115568015A/zh
Application granted granted Critical
Publication of CN115568015B publication Critical patent/CN115568015B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0257Hybrid positioning
    • G01S5/0263Hybrid positioning by combining or switching between positions derived from two or more separate positioning systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/06Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/25Manufacturing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/10Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/20Information sensed or collected by the things relating to the thing itself
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/10Detection; Monitoring
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/20Analytics; Diagnosis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/60Positioning; Navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Toxicology (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种船舶分段制造车间物料融合定位方法,包括:获取布置于分段制造车间内的UWB标签和生产要素,将UWB标签部署于定位区间,并将UWB标签与生产要素绑定;判断生产要素是否位于定位区间,是则读取生产要素绑定的UWB标签的位置;否则获取生产要素的精确定位;确定各生产要素的类型及其定位坐标;判断同种类型的生产要素是否有且仅有一个;若是,将第一检测结果传输至终端;若否,将第二检测结果传输至终端;终端将接收到的第一检测结果或第二检测结果进行显示。该方法对实现船舶制造大场景中生产要素的状态感知具有重大意义。

Description

一种船舶分段制造车间物料融合定位方法
技术领域
本发明涉及船舶分段制造车间物料定位技术领域,具体涉及一种船舶分段制造车间物料融合定位方法。
背景技术
UWB(Ultra Wide Band,超宽带)系统中由源标签发出信号,接收器接收后上传至定位引擎,引擎根据TDOA(Time Difference Of Arrival,到达时间差)以及信号到达角度等计算视觉信标的三维精确位置。在较宽的频谱上可传送极低功率的信号,十米范围内可实现数百Mbit/s至数Gbit/s的传输速率,信号功耗低且分辨率高,穿透力和抗多径衰减能力极强,理论定位精度可达厘米级。
利用视觉检测能在定位的同时获取定位对象的ID信息,UWB在室内定位的精度能达分米级,可抗室内噪音等外界因素干扰,两者在制造业已得到广泛应用,如对车间物料、配送车辆、人员等定位。由于船舶制造环境复杂性、多径效应以及技术本身缺陷,单一定位方法已不能满足定位实时性、准确性需求,多技术融合是定位技术在船舶制造业领域应用的必然趋势。
发明内容
基于此,有必要针对现有的问题,提供一种船舶分段制造车间物料融合定位方法。
本发明提供了一种船舶分段制造车间物料融合定位方法,该方法包括:
S1:获取布置于分段制造车间内的UWB标签和生产要素,将UWB标签部署于定位区间,并将UWB标签与生产要素绑定;
S2:判断生产要素是否位于定位区间,是则读取生产要素绑定的UWB标签的位置;否则获取生产要素的精确定位;
S3:重复执行S2,直至遍历所有生产要素;确定各生产要素的类型及其定位坐标;
S4:判断同种类型的生产要素是否有且仅有一个;
若是,则将不同类型的生产要素各自的类型以及定位坐标作为第一检测结果,并将第一检测结果传输至终端;
若否,则拍摄分段制造车间内情况得到图像,对图像进行目标检测得到第二检测结果,并将第二检测结果传输至终端;
S5:终端将接收到的第一检测结果或第二检测结果进行显示。
优选的,S1中,通过UWB传感器在分段制造车间内持续检测和读取UWB标签;通过高清工业相机在分段制造车间内识别生产要素。
优选的,在持续检测和读取UWB标签过程中,UWB传感器接收到的信号存在噪声,故将UWB标签的高度始终保持在稳定位置,计算公式如下:
Figure 928203DEST_PATH_IMAGE001
其中,
Figure 830300DEST_PATH_IMAGE002
表示UWB标签在当前时刻的空间位置;
Figure 107698DEST_PATH_IMAGE003
表示UWB标签在上一时刻的空间位置;
Figure 196877DEST_PATH_IMAGE004
表示时间差;t-1表示上一时刻;
Figure 850712DEST_PATH_IMAGE006
表示高斯噪声。
优选的,在持续检测和读取UWB标签过程中,当UWB标签的位置变化小于静态识别距离时,进行位置信息平滑处理,计算公式如下:
Figure 341736DEST_PATH_IMAGE007
其中,
Figure 790035DEST_PATH_IMAGE008
表示UWB标签在当前时刻的空间位置;
Figure 632089DEST_PATH_IMAGE009
表示静态平滑参数;
Figure 824036DEST_PATH_IMAGE010
表示UWB标签当前位置的计算值;
Figure 172496DEST_PATH_IMAGE003
表示UWB标签在上一时刻的空间位置。
优选的,S2中,当生产要素位于定位区间时,采用UWB技术读取UWB标签的位置;
当生产要素不位于定位区间时,采用PDA(Personal Digital Assistant,手持终端设备)人工获取生产要素的精确定位。
优选的,S4中,当同种类型的生产要素存在多个时,利用高清工业相机拍摄分段制造车间内情况得到图像,利用5G技术将图像传输至服务器进行目标检测得到第二检测结果,第二检测结果包括同类型的生产要素的数量、类型及其各自的定位坐标,并将第二检测结果传输至终端。
优选的,目标检测的方法为构建目标检测模型进行检测;
首先,将一部分图像作为训练样本集,检测训练样本集中的各生产要素,对各生产要素进行特征点定位,并对各生产要素进行训练特征提取,提取到的训练特征用于训练分类器;训练完成的分类器即为目标检测模型;
其次,将所有图像作为测试样本集,检测测试样本集中的各生产要素,对测试样本集中的各生产要素进行特征点定位,并进行测试特征提取,将提取到的测试特征输入至目标检测模型中,输出第二检测结果。
优选的,静态识别距离为UWB传感器的基础设置。
优选的,生产要素包括但不限于物料、载具。
优选的,定位区间包括但不限于各单元加工区、边线缓存区、出入口。
本发明提供的这种方法具有以下有益效果:
采用该方法可在船舶分段制造阶段实现船舶制造大场景中全要素的稳定和精确状态感知,并且在正常监测情况下不需要人工监测生产要素的位置和数量;这样省去了大量的检测时间和人工评估时间;对实现船舶制造大场景中生产要素的状态感知具有重大意义。
附图说明
通过参考下面的附图,可以更为完整地理解本发明的示例性实施方式。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为根据本申请一示例性实施例提供的方法的流程图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施方式。虽然附图中显示了本公开的示例性实施方式,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本申请所属领域技术人员所理解的通常意义。
另外,术语“第一”和“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例提供一种船舶分段制造车间物料融合定位方法,下面结合附图进行说明。
请参考图1,其示出了本申请的一些实施方式所提供的一种船舶分段制造车间物料融合定位方法的流程图,如图所示,方法可以包括以下步骤:
S1:获取布置于分段制造车间内的UWB标签和生产要素,将UWB标签部署于定位区间,并将UWB标签与生产要素绑定;
具体的,通过UWB传感器在分段制造车间内持续检测和读取UWB标签;通过高清工业相机在分段制造车间内识别生产要素。
在本实施例中,在持续检测和读取UWB标签过程中,UWB传感器接收到的信号存在噪声,故将UWB标签的高度始终保持在稳定位置,计算公式如下:
Figure 57276DEST_PATH_IMAGE001
其中,
Figure 121047DEST_PATH_IMAGE011
表示UWB标签在当前时刻的空间位置;
Figure 382264DEST_PATH_IMAGE012
表示UWB标签在上一时刻的空间位置;
Figure 582301DEST_PATH_IMAGE013
表示时间差;t-1表示上一时刻;
Figure 372402DEST_PATH_IMAGE014
表示高斯噪声。
并且,在持续检测和读取UWB标签过程中,当UWB标签的位置变化小于静态识别距离时,进行位置信息平滑处理,计算公式如下:
Figure 923469DEST_PATH_IMAGE015
其中,
Figure 722798DEST_PATH_IMAGE008
表示UWB标签在当前时刻的空间位置;
Figure 42921DEST_PATH_IMAGE016
表示静态平滑参数;
Figure 269503DEST_PATH_IMAGE010
表示UWB标签当前位置的计算值;
Figure 56935DEST_PATH_IMAGE003
表示UWB标签在上一时刻的空间位置。
在本实施例中,生产要素包括但不限于物料、载具;定位区间包括但不限于各单元加工区、边线缓存区、出入口;静态识别距离为UWB传感器的基础设置。
S2:判断生产要素是否位于定位区间,当生产要素位于定位区间时,采用UWB技术读取生产要素绑定的UWB标签的位置;
在本实施例中,生产要素位于定位区间即为生产要素处于可识别区;采用TDOA的方式进行UWB定位,UWB标签将数据包发送到被基站覆盖的区域内,附近的所有基站都会收到标签的无线信号,但不会返回任何无线信号。由于基站与标签的距离间隔不同,因此消息在不同的时刻到达每个基站。这些时间差乘以空间中恒定的光速得到标签和基站之间的距离差,这样就可以形成多点定位计算的基础,从而确定标签的相对坐标。假设测得标签到第n个基站接收到标签所发出的UWB信号的时刻分别为tii=1,2,3,4...,n),且假设标签到第n个基站的距离为r i (i=1,2,3,4...,n)。在基站之间完全同步的情况下,得出定位标签相对于四组定位基站的距离差d i12d i34为:
d i12=r 1-r 2=(t1-t2)
d i23=r 2-r 3=(t2-t3)
d i34=r 3-r 4=(t3-t4)
d i14=r 1-r 4=(t1-t4)
到达时间差(TDOA)技术,同步方式可以做到主基站同步从基站,而且主基站也可以同步其他主基站,这样只需要注意基站在现场布局形状,就可以做到无限基站的扩展;而且增加的基站不会对其他现有的基站造成任何影响,节约工作时长,降低工作能耗,能做到更高的动态识别定位和更充足的定位容量。
当生产要素不位于定位区间时,采用PDA人工获取生产要素的精确定位。
在本实施例中,生产要素不位于定位区间即为生产要素位于盲区;盲区定位采用PDA进行人工辅助定位,确定生产要素定位坐标。实现目标定位的前提是标签被u个读写器识别,且u≥1。当u=1时,标签向1个UWB基站发送信号进行识别。当u=0时,则定位目标处于盲区,此时可采用PDA搜索盲区进行人工定位,检索到标签时即定位坐标位于当前盲区,达到定位目的。
S3:重复执行S2,直至遍历所有生产要素;确定各生产要素的类型及其定位坐标;
其中,生产要素的类型在入库、相关人员部署UWB标签时就会设立好,届时进入无人化智能生产线以后只需要读取相关标签即可获取生产要素的类型;故在S1获取UWB标签和生产要素的同时,就已经获取到了各生产要素的类型。
S4:判断同种类型的生产要素是否有且仅有一个;
若是,则将不同类型的生产要素各自的类型以及定位坐标作为第一检测结果,并将第一检测结果传输至终端;
若否,则利用高清工业相机拍摄分段制造车间内情况得到图像,利用5G技术将图像传输至服务器进行目标检测得到第二检测结果,第二检测结果包括同类型的生产要素的数量、类型及其各自的定位坐标,并将第二检测结果传输至终端。
在本实施例中,目标检测的方法为构建目标检测模型进行检测;
首先,将一部分图像作为训练样本集,检测训练样本集中的各生产要素,对各生产要素进行特征点定位,并对各生产要素进行训练特征提取,提取到的训练特征用于训练分类器;训练完成的分类器即为目标检测模型;
其次,将所有图像作为测试样本集,检测测试样本集中的各生产要素,对测试样本集中的各生产要素进行特征点定位,并进行测试特征提取,将提取到的测试特征输入至目标检测模型中,输出第二检测结果。
S5:终端将接收到的第一检测结果或第二检测结果、各生产要素的类型及其定位坐标进行显示。
基于分段制造车间UWB实时定位的跟踪方法,该方法包括:
首先进行标签初始化信息设计,中间产品、物料追踪的前提是UWB标签初始化信息的设计和写入,将各类生产要素作为定位对象进行唯一标识。在托盘、物流车,以及物料等生产要素在追踪开始时,将初始化信息写入标签,在接下来的各作业单元通过读取标签即可确认分段建造工序内容和需要的物料。对于生产线物料和中间产品配送的载具(托盘等),采用UWB标签绑定目标对象以进行跟踪定位和轨迹追溯。
将中间产品或物料装入托盘时,将物料编码或中间产品编码与托盘视觉信标对应。在把托盘标签编码与载具(车辆等)的标签对应。各工位读取标签如中间产品、托盘信息。
补料时由工位线边库存实时需求拉动,配货完成后将物资和工位信息写入UWB标签里,将物料和托盘绑定UWB标签,对配送过程的车辆、托盘、物料进行实时跟踪和定位。
跟踪管控过程如下:首先将一个工位定义为一个信息元(X),由该工位信息(M)、物料需求(Q)和配送状态(S)构成三元组,
Figure 394376DEST_PATH_IMAGE017
a=1,2,……m;其中,a表示第a个工位。
配送过程的实时状态空间则可描述为信息元集合:
Figure 834584DEST_PATH_IMAGE018
定义
Figure 966488DEST_PATH_IMAGE019
值为1表示线边库存满足,为0表示工位缺料,发送物料需求,物资部门按需配送;
Figure 492148DEST_PATH_IMAGE020
值为1表示配送状态正常,0表示异常,此配送状态异常设定为a配送实际到达时间(
Figure 367700DEST_PATH_IMAGE021
)超过规定最晚到达时间(
Figure 662415DEST_PATH_IMAGE022
),需要对其跟踪管控。
对于异常判定过程定义有:
Figure 965220DEST_PATH_IMAGE023
表示工位需求时间发出时间;
Figure 509334DEST_PATH_IMAGE024
表示线边安全库存,安全库存为0时规定为配送最晚到达时间,即
Figure 188577DEST_PATH_IMAGE022
Figure 340728DEST_PATH_IMAGE025
表示配送最佳达到时间;正常情况下有
Figure 80014DEST_PATH_IMAGE026
Figure 314687DEST_PATH_IMAGE027
表示配送数量;
Figure 532041DEST_PATH_IMAGE028
表示边线当前数量;
Figure 66928DEST_PATH_IMAGE029
表示工位作业中物料消耗速率。
Figure 711536DEST_PATH_IMAGE030
Figure 433504DEST_PATH_IMAGE031
基于实时定位的跟踪流程,当超过最晚到达时间
Figure 454550DEST_PATH_IMAGE022
,工位可识别区内仍未检测到需求物料的标签时,则设定为配送异常。
本实施例提供的方法不但省去的大量的检测时间和人工的评估时间,并且可以在船舶制造的时候实时判断物料的运送和机器位置是否出现问题,并可以知道问题出现的准确位置,可以非常快速并且准确的排查问题。由于船舶分段车间生产流程复杂,存在生产计划调整、插单等扰动,导致现场数据堆积、排列混乱和不稳定性,需对冗余、价值度分布不均匀的实时数据进行数据处理,如数据整合、过滤等操作,并分类存储至数据库;车间布置读写器和传感器后,一定距离内存在读写信号干扰,另一方面车间生产要素种类繁多、数量大,需要使用大量标签进行生产要素标识,不可避免地出现标签之间信号的碰撞,出现标签漏读时则无法实现对生产要素的定位,使用该方法可以进一步保证定位功能的正确性和有效性,也能节约标签使用量降低成本。因此利用该方法构建基于UWB技术,并融合了机器视觉和5G技术的针对船舶分段制造车间物料的定位方法,对实现船舶制造大场景中物料要素的状态感知具有重大意义。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围,其均应涵盖在本申请的权利要求和说明书的范围当中。

Claims (10)

1.一种船舶分段制造车间物料融合定位方法,其特征在于,包括:
S1:获取布置于分段制造车间内的UWB标签和生产要素,将UWB标签部署于定位区间,并将UWB标签与生产要素绑定;
S2:判断生产要素是否位于定位区间,是则读取生产要素绑定的UWB标签的位置;否则获取生产要素的精确定位;
S3:重复执行S2,直至遍历所有生产要素;确定各生产要素的类型及其定位坐标;
S4:判断同种类型的生产要素是否有且仅有一个;
若是,则将不同类型的生产要素各自的类型以及定位坐标作为第一检测结果,并将第一检测结果传输至终端;
若否,则拍摄分段制造车间内情况得到图像,对图像进行目标检测得到第二检测结果,并将第二检测结果传输至终端;
S5:终端将接收到的第一检测结果或第二检测结果进行显示。
2.根据权利要求1所述的一种船舶分段制造车间物料融合定位方法,其特征在于,S1中,通过UWB传感器在分段制造车间内持续检测和读取UWB标签;通过高清工业相机在分段制造车间内识别生产要素。
3.根据权利要求2所述的一种船舶分段制造车间物料融合定位方法,其特征在于,在持续检测和读取UWB标签过程中,UWB传感器接收到的信号存在噪声,故将UWB标签的高度始终保持在稳定位置,计算公式如下:
Figure 39260DEST_PATH_IMAGE002
其中,
Figure DEST_PATH_IMAGE003
表示UWB标签在当前时刻的空间位置;
Figure 542922DEST_PATH_IMAGE004
表示UWB标签在上一时刻的空间位置;
Figure DEST_PATH_IMAGE005
表示时间差;t-1表示上一时刻;
Figure 327208DEST_PATH_IMAGE006
表示高斯噪声。
4.根据权利要求2所述的一种船舶分段制造车间物料融合定位方法,其特征在于,在持续检测和读取UWB标签过程中,当UWB标签的位置变化小于静态识别距离时,进行位置信息平滑处理,计算公式如下:
Figure 738466DEST_PATH_IMAGE008
其中,
Figure 534384DEST_PATH_IMAGE003
表示UWB标签在当前时刻的空间位置;
Figure DEST_PATH_IMAGE009
表示静态平滑参数;
Figure 465738DEST_PATH_IMAGE010
表示UWB标签当前位置的计算值;
Figure 550369DEST_PATH_IMAGE004
表示UWB标签在上一时刻的空间位置。
5.根据权利要求1所述的一种船舶分段制造车间物料融合定位方法,其特征在于,S2中,当生产要素位于定位区间时,采用UWB技术读取UWB标签的位置;
当生产要素不位于定位区间时,采用PDA人工获取生产要素的精确定位。
6.根据权利要求5所述的一种船舶分段制造车间物料融合定位方法,其特征在于,S4中,当同种类型的生产要素存在多个时,利用高清工业相机拍摄分段制造车间内情况得到图像,利用5G技术将图像传输至服务器进行目标检测得到第二检测结果,第二检测结果包括同类型的生产要素的数量、类型及其各自的定位坐标,并将第二检测结果传输至终端。
7.根据权利要求6所述的一种船舶分段制造车间物料融合定位方法,其特征在于,目标检测的方法为构建目标检测模型进行检测;
首先,将一部分图像作为训练样本集,检测训练样本集中的各生产要素,对各生产要素进行特征点定位,并对各生产要素进行训练特征提取,提取到的训练特征用于训练分类器;训练完成的分类器即为目标检测模型;
其次,将所有图像作为测试样本集,检测测试样本集中的各生产要素,对测试样本集中的各生产要素进行特征点定位,并进行测试特征提取,将提取到的测试特征输入至目标检测模型中,输出第二检测结果。
8.根据权利要求4所述的一种船舶分段制造车间物料融合定位方法,其特征在于,静态识别距离为UWB传感器的基础设置。
9.根据权利要求1所述的一种船舶分段制造车间物料融合定位方法,其特征在于,生产要素包括但不限于物料、载具。
10.根据权利要求1所述的一种船舶分段制造车间物料融合定位方法,其特征在于,定位区间包括但不限于各单元加工区、边线缓存区、出入口。
CN202211563622.6A 2022-12-07 2022-12-07 一种船舶分段制造车间物料融合定位方法 Active CN115568015B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211563622.6A CN115568015B (zh) 2022-12-07 2022-12-07 一种船舶分段制造车间物料融合定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211563622.6A CN115568015B (zh) 2022-12-07 2022-12-07 一种船舶分段制造车间物料融合定位方法

Publications (2)

Publication Number Publication Date
CN115568015A true CN115568015A (zh) 2023-01-03
CN115568015B CN115568015B (zh) 2023-04-25

Family

ID=84770187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211563622.6A Active CN115568015B (zh) 2022-12-07 2022-12-07 一种船舶分段制造车间物料融合定位方法

Country Status (1)

Country Link
CN (1) CN115568015B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117195110A (zh) * 2023-11-07 2023-12-08 湖南大学 一种opc_ua节点感知自适应优先级分类方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101179289A (zh) * 2007-11-21 2008-05-14 湖南大学 一种混合ovsf-th-uwb通信方法
US20100295718A1 (en) * 2009-03-26 2010-11-25 Tialinx, Inc. Person-Borne Improvised Explosive Device Detection
CN110018672A (zh) * 2019-03-29 2019-07-16 南京航空航天大学 基于智能感知网的离散制造车间物料动态配送系统及方法
CN111207751A (zh) * 2020-01-16 2020-05-29 昆山捷亿诺自动化科技有限公司 基于uwb定位和ar技术的仓库导航系统及导航方法
CN111427345A (zh) * 2020-03-06 2020-07-17 珠海格力电器股份有限公司 一种物料转移方法及系统
CN112114288A (zh) * 2020-10-20 2020-12-22 辽宁鼎汉奇辉电子系统工程有限公司 一种基于uwb的定位系统及定位方法
CN112904819A (zh) * 2021-01-21 2021-06-04 成都四相致新科技有限公司 一种基于uwb的生产控制方法及系统
US20220089237A1 (en) * 2020-06-16 2022-03-24 Arrival Ltd. Robotic production environment for vehicles
CN114563795A (zh) * 2022-02-25 2022-05-31 湖南大学无锡智能控制研究院 基于激光里程计和标签融合算法的定位追踪方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101179289A (zh) * 2007-11-21 2008-05-14 湖南大学 一种混合ovsf-th-uwb通信方法
US20100295718A1 (en) * 2009-03-26 2010-11-25 Tialinx, Inc. Person-Borne Improvised Explosive Device Detection
CN110018672A (zh) * 2019-03-29 2019-07-16 南京航空航天大学 基于智能感知网的离散制造车间物料动态配送系统及方法
CN111207751A (zh) * 2020-01-16 2020-05-29 昆山捷亿诺自动化科技有限公司 基于uwb定位和ar技术的仓库导航系统及导航方法
CN111427345A (zh) * 2020-03-06 2020-07-17 珠海格力电器股份有限公司 一种物料转移方法及系统
US20220089237A1 (en) * 2020-06-16 2022-03-24 Arrival Ltd. Robotic production environment for vehicles
CN112114288A (zh) * 2020-10-20 2020-12-22 辽宁鼎汉奇辉电子系统工程有限公司 一种基于uwb的定位系统及定位方法
CN112904819A (zh) * 2021-01-21 2021-06-04 成都四相致新科技有限公司 一种基于uwb的生产控制方法及系统
CN114563795A (zh) * 2022-02-25 2022-05-31 湖南大学无锡智能控制研究院 基于激光里程计和标签融合算法的定位追踪方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117195110A (zh) * 2023-11-07 2023-12-08 湖南大学 一种opc_ua节点感知自适应优先级分类方法
CN117195110B (zh) * 2023-11-07 2024-01-26 湖南大学 一种opc_ua节点感知自适应优先级分类方法

Also Published As

Publication number Publication date
CN115568015B (zh) 2023-04-25

Similar Documents

Publication Publication Date Title
CN107145919B (zh) 面向出入检测的开放式rfid门禁系统及其处理方法
US11625026B2 (en) Production systems and production control methods for controlling a production system
CN108762251B (zh) 一种图书馆机器人定位导航方法
CN111667216A (zh) 一种无人机室内仓储自主盘点系统及方法
DE112018002848T5 (de) RFID-gesteuerte Video-Momentaufnahmen, die Ziele von Interesse erfassen
CN103698745B (zh) 室内无线定位设备及其实现定位的方法
EP3208630B1 (en) Estimation of a position of an electronic label
CN115568015A (zh) 一种船舶分段制造车间物料融合定位方法
Ting et al. A study on RFID adoption for vehicle tracking in container terminal
CN105718971A (zh) 一种基于rfid的多目标被动式室内活动识别方法
CN111914582B (zh) 一种适用于快速运动物品的rfid识别方法
CN106548103A (zh) 基于rfid的生产线系统
CN109711503A (zh) 一种机器人定位方法及装置
CN103150527B (zh) 射频识别标签定位方法及设备以及射频识别标签读取器
CN111199258B (zh) 商品定位系统及方法、带rfid读头的pda设备
CN111123195A (zh) 一种面向存储物品盘点的rfid盘点系统
CN111191748A (zh) 一种基于rfid技术的移动盘点系统
CN105844191A (zh) 基于射频识别的电子标签运动方向判断方法和系统
CN116306755B (zh) 一种商品盘点方法、系统、计算机设备及存储介质
CN111856394A (zh) 一种基于uwb与监控结合的精准定位装置及方法
CN111918231B (zh) 一种行李移动智能网格网络管理方法
CN110399947A (zh) 一种仓库内人员和周转工具的定位管理系统
CN104166825A (zh) 一种基于rfid的文档精确定位方法
CN112040446A (zh) 一种定位方法及定位系统
CN206489453U (zh) 一种无人机平台探照系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant