CN114595349A - 基于增强现实界面的智能化轴连结器识别方法 - Google Patents
基于增强现实界面的智能化轴连结器识别方法 Download PDFInfo
- Publication number
- CN114595349A CN114595349A CN202110084975.7A CN202110084975A CN114595349A CN 114595349 A CN114595349 A CN 114595349A CN 202110084975 A CN202110084975 A CN 202110084975A CN 114595349 A CN114595349 A CN 114595349A
- Authority
- CN
- China
- Prior art keywords
- flange
- virtual
- interface
- operator
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/20—Administration of product repair or maintenance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Library & Information Science (AREA)
- Mathematical Physics (AREA)
- Architecture (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种基于增强现实界面的智能化轴连结器识别方法,包含以下步骤:提供第一界面以让操作者选取一法兰的不同视角的即时图像,依据多个即时图像建立虚拟法兰面;提供第二界面让操作者选择对应于法兰的三个圆周点,以建立具有虚拟外径的虚拟法兰模型;提供第三界面让操作者从第三界面调整虚拟法兰模型的虚拟孔位圆径;提供第四界面让操作者调整虚拟法兰模型的虚拟厚度;提供第五界面让操作者输入螺栓数量;以及依据虚拟法兰模型的虚拟外径、虚拟孔位圆径及虚拟厚度查找数据库,以获得查询结果。本发明可以结合增强现实的界面技术,自动进行数据库搜寻,找出最有可能的法兰的规格,省去将法兰拆卸与量测的步骤。
Description
技术领域
本发明是有关于一种智能化轴连结器识别方法,且特别是有关于一种基于增强现实界面的智能化轴连结器识别方法。
背景技术
轴连结器,譬如是法兰(Flange)(或称法兰盘),是指流体输送设备中,连结阀门与流体管道所使用的元件,常见于半导体、化工、电子产业制造现场,以及医院与民生用水瓦斯等场域。在保护主义影响下,法兰的标准规格在各国都不尽相同,主要标准规格可以分成日本(JIS)、欧盟、美国(ANSI)、澳洲(AS)与国际标准(ISO)。不同规格标准的法兰不能互相通用,因此在更换阀门、检修设备时,需先确定法兰盘的规格,才能进行后续的调料、更换与测试复工等作业。
老旧的法兰盘可能因为生锈、磨损,而导致外观上的规格无法被识别,或是没有详细记录规格时,维修人员必须先将法兰盘由管路拆卸下来,用测量工具决定其尺寸、形状以后,才能选择正确的元件规格下料,待元件到货后再行更换。若不将法兰盘拆除进行测量,可能因法兰盘的部分区域被遮蔽,而无法正确取得尺寸参数。现行的作业方式,将导致整体管线两次的停工,第一次为测量法兰规格所造成,第二次则是实际的更换作业。对于科技厂、医院等有不间断流体需求的产业,每一次停工都会造成相当程度的损失,甚至于公共安全上的危害。
TWI651661号专利揭露一种用于识别法兰规格的电脑程序产品,用于识别法兰规格,该电脑程序产品经由电脑载入程序执行数据读取指令及数据分析指令,数据读取指令使电脑读取法兰数据,数据分析指令使电脑将法兰数据与法兰规格标准参考数据进行比对而取得法兰规格分析结果数据,其中法兰数据包括第一至第三法兰尺寸数据,其为关于法兰规格的特定数据。虽然TWI651661可以识别法兰的规格,但是实际操作时需要使用者手动测量并输入数据,使用上的流畅度不高。虽然TWI651661也提到可以用计算机视觉技术中的深度图来作处理,但是并没有揭示其细节。因此,已知技术仍有相当多的改良空间,来提升使用上的流畅度。
发明内容
因此,本发明的一个目的是提供一种基于增强现实界面的智能化轴连结器识别方法,让现场操作人员可藉手持式电子装置,在不需要拆卸设备、管线的状况下,针对水平管线或垂直管线安装的法兰进行规格识别,以利于维修及替换。
为达上述目的,本发明提供一种基于增强现实界面的智能化轴连结器识别方法,应用于一电子装置中,识别方法包含:一环境深度建立步骤,提供具有代表一法兰的即时图像的一第一界面,以让一操作者选取所欲处理的法兰的不同视角的多个即时图像,依据多个即时图像获得多组平面特征点信息,以依据所述多组平面特征点信息建立一虚拟法兰面;一圆周点选取步骤,提供叠合的虚拟法兰面与即时图像于一第二界面上,让操作者从第二界面选择对应于法兰的三个圆周点,以依据所述三个圆周点求得一虚拟外径,以建立具有虚拟外径及一虚拟孔位圆径的一虚拟法兰模型;一孔位圆径调整步骤,提供叠合的虚拟法兰模型与即时图像于一第三界面上,让操作者从第三界面调整虚拟法兰模型的虚拟孔位圆径;一法兰厚度调整步骤,提供叠合的虚拟法兰模型与即时图像于一第四界面上,让操作者从第四界面调整虚拟法兰模型的一虚拟厚度;一螺栓数量输入步骤,提供一第五界面让操作者输入一螺栓数量;以及一查询步骤,依据虚拟法兰模型的虚拟外径、虚拟孔位圆径及虚拟厚度查找一数据库,以获得与虚拟法兰模型相匹配的实体法兰的一个或多个查询结果。
藉由上述的实施例,可以结合增强现实的界面技术,提供图像处理后的辅助信息,配合人为空间判断能力,协助快速取得包含法兰的外径、法兰的孔位圆径、法兰的厚度的三个维度的尺寸,自动进行数据库搜寻,找出最有可能的法兰的规格,省去将法兰拆卸与量测的步骤。
为让本发明的上述内容能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。
附图说明
图1显示依据本发明较佳实施例的识别方法的应用场合的示意图。
图2显示依据本发明较佳实施例的识别方法的流程图。
图3至图14显示图2的识别方法所提供的多个界面的示意图。
图15显示图2的识别方法的查询结果。
附图标记:
B1,B2:螺栓
P1,P2,P3:圆周点
S1:环境深度建立步骤
S2:圆周点选取步骤
S3:孔位圆径调整步骤
S4:法兰厚度调整步骤
S5:螺栓数量输入步骤
S6:查询步骤
S7:存档步骤
V1:大圆柱
V2:小圆柱
VD1:虚拟外径
VD2:虚拟孔位圆径
VFM:虚拟法兰模型
VFS:虚拟法兰面
VT:虚拟厚度
10:第一界面
11:第一中心标记
15:转盘
16:执行键
20:第二界面
21:第二中心标记
30:第三界面
40:第四界面
50:第五界面
60:显示屏
70:摄影机
80:CPU
90:数据库
100:电子装置
200:法兰
201:顶面
210:即时图像
具体实施方式
本发明主要是利用增强现实(Augmented Reality,AR)互动界面,在完全不用拆卸设备、管线的情况下,识别出法兰的规格标准,去除第一次停工的必要性,降低停工造成的成本损失。以半导体晶片厂为例,水资源对其生产品质极为重要,光是在制造工艺上,晶片片酸洗、有机清洗、黄光显影后清洗、机械研磨清洗,皆必须用到纯水。若是因为停水而影响产能表现,无论是对半导体厂商,或是其下游供应商而言,将产生额外的成本损失。
基于机器视觉识别尺寸的技术已发展多年,但多半是利用固定的视角,针对单张图像进行分析,考虑到法兰通常都安装在墙壁、地底或天花板上,架设脚架与相机,并对其进行校正,将不是实际可行的方式。此外法兰与管路之间,或其他装置的相互遮蔽,造成取得图像上的困难,因此提供不受场域限制、使用简易的行动量测技术,对于要求高机动性的作业具有其必要性。
AR互动界面技术提供以下几项优势,首先是前置作业较少,使用者仅需要数秒钟的时间,通过智能化应用程序识别环境,即可建立出相当准确的空间深度信息。此外,不需要架设相机或进行其校正作业,大量缩短作业时间。再者,安装在实际场域的法兰,通常已经固定于管路或设备上,某些部分会被挡住、遮蔽,无法用传统机器视觉的方式,进行有效的尺寸识别。在此情况下,即必须停止管路设备的运作,将法兰拆卸下来,量测其重要尺寸后方能决定其规格。相较之下,本发明通过智能化虚拟信息的提示,可以在不需拆卸法兰的状态下,配合使用者空间认知的结果,即可快速识别出法兰规格。根据先前研究指出,传统识别法兰规格所需参数共有五项,分别为:外径、孔位圆径、厚度、螺栓数目、螺栓孔径,本发明通过数据库分析,只需要四个必要参数(外径、孔位圆径、厚度、螺钉数目)即可识别出法兰的规格。孔位圆径代表的孔位圆的直径,其中法兰的多个螺栓孔位于孔位圆上。
在实际应用中法兰会成对出现,各自出现在管线或是阀门的终端,由数个螺丝或螺栓将两片法兰固定,达到连结两管线或是管线与阀门的效果。管线的方向通常分为「与地面平行安装」以及「垂直于地面安装」两种,无论在哪一种方向,法兰都会垂直于管线安装,使管线可以穿过法兰的中心圆孔。因此,本发明所提供的技术也可以满足两种管线的方向的应用。
图1显示依据本发明较佳实施例的识别方法的应用场合的示意图。图2显示依据本发明较佳实施例的识别方法的流程图。如图1与图2所示,基于增强现实界面的智能化轴连结器识别方法可应用于一电子装置100中,譬如是手机、平板电脑或穿戴装置的电子装置100至少包含一中央处理单元(Central Processing unit,CPU)80以及电连接至CPU 80的一显示屏60、一摄影机70及一数据库90。当然,数据库也可以是位于云端,让电子装置100可以通过网路连接到云端进行查询。电子装置100可以安装并执行应用程序后执行识别方法,识别方法包含一环境深度建立步骤S1、一圆周点选取步骤S2、一孔位圆径调整步骤S3、一法兰厚度调整步骤S4、一螺栓数量输入步骤S5以及一查询步骤S6。当然,为了建立更广的数据库起见,识别方法也可以更包含一存档步骤S7。
于环境深度建立步骤S1中,如图3所示,启动摄影机70进行即时摄影,于显示屏60上提供具有代表一法兰200的即时图像210的一第一界面10。因此,一操作者可以通过第一界面10选取所欲处理的法兰200的不同视角的多个即时图像210,譬如图4至图6的三张即时图像210。因此,CPU 80可以依据多个即时图像210获得多组平面特征点信息,以依据所述多组平面特征点信息建立一虚拟法兰面VFS,如图7所示。
于一非限制例中,如图3所示,第一界面10的上半部提供即时图像210及一第一中心标记11,第一界面10的中间部分也提供一个水平管线的选项及一个垂直管线的选项,让操作者点选或核取(于此例中核取垂直管线)。第一界面10的下半部也提供外径、孔位圆径、厚度等信息,也提供设定键、重置键、一转盘15与一执行键16。第一界面10可以提供信息(譬如十字标记表示置于中心)以指引操作者将第一中心标记11保持于两螺栓B1与B2之间的位置,或者电子装置100可以通过扬声器(未显示)来指引操作者上述或下述的任何操作。此外,第一界面10亦可指引操作者将电子装置100三向环绕法兰200(譬如执行键16上所显示的小图示),以获得所述不同视角的多个即时图像210。上述的三向环绕包含向上环绕、向右环绕及向左环绕。或者,第一界面10的第一中心标记11可以用于指引操作者将电子装置100三向环绕法兰200时,使第一中心标记11对准法兰200的一顶面201上,以获得所述不同视角的多个即时图像210。虚拟法兰面VFS实质上与顶面201位于同一平面上。
因此,操作者可以操作电子装置100的摄影机70的镜头,稳定保持第一中心标记11于两螺栓B1与B2之间区域,并向各方向环绕、移动装置,搜集不同视角的平面特征点信息(参见图4至图6)。此步骤在于让电子装置100能检测真实环境,收集相关的深度信息,藉以回归出空间中的平面位置。待平面特征点信息搜集完毕后,由操作者按下第一界面10的执行键16后,将于第一界面10中显示建立的虚拟法兰面VFS(图7)。
于圆周点选取步骤S2中,摄影机70持续启动着,CPU 80于显示屏60上提供叠合的虚拟法兰面VFS与即时图像210于一第二界面20上,如图8所示,让操作者从第二界面20选择对应于法兰200的三个圆周点P1、P2、P3(图8、图9与图10)。藉此,CPU 80可以依据所述三个圆周点P1、P2、P3求得一虚拟外径VD1,以建立具有虚拟外径VD1及一虚拟孔位圆径VD2的一虚拟法兰模型VFM,如图11所示。由于在空间中和在平面上取三点决定一个圆(由圆心及直径所定义)的数学逻辑是相同的,只是扩展到第三个维度,本领域技术人员可以轻易实施,故于此不作赘述。于图11中,所提供的虚拟法兰模型VFM包含相互叠合的一个大圆柱V1与一个小圆柱V2,大圆柱V1具有虚拟外径VD1,小圆柱V2具有虚拟孔位圆径VD2。
于一非限制例中,第二界面20具有一第二中心标记21,用来指引操作者将电子装置100以第二中心标记21对准法兰200的三个圆周点P1、P2、P3,其中三个圆周点P1、P2、P3与虚拟法兰面VFS位于同一平面。
因此,操作者通过第二界面20中第二中心标记21作为对准依据,按下执行键16进行选取,可以在虚拟法兰面VFS与即时图像210上的法兰的边缘上分次选取三个不同的点,以供决定虚拟法兰模型所投影的外径参数,于此所求得的外径等于305.4mm。
于孔位圆径调整步骤S3中,提供叠合的虚拟法兰模型VFM与即时图像210于一第三界面30上,如图11所示,让操作者从第三界面30调整虚拟法兰模型VFM的虚拟孔位圆径VD2,并且可以选择性地依据操作者的调整即时更新虚拟法兰模型VFM,如图12所示。譬如,使用者可以通过转盘15调整虚拟孔位圆径VD2到260.6mm而与所得的即时图像210吻合,通过执行键16确定调整结果。值得注意的是,调整孔位圆径时可以使小圆柱V2的底面的圆周和螺栓/螺栓孔的中心点贴合,以决定虚拟法兰模型VFM投影的孔位圆径参数。
于法兰厚度调整步骤S4中,可以由操作者从接近侧面的角度判断,利用CPU 80、摄影机70及显示屏60提供叠合的虚拟法兰模型VFM与即时图像210于一第四界面40上,让操作者从第四界面40调整虚拟法兰模型VFM的一虚拟厚度VT,并且可以选择性地依据操作者的调整即时更新虚拟法兰模型VFM,如图13所示。譬如,操作者可以通过转盘15调整厚度为24.1mm而与所得的即时图像210吻合,通过执行键16确定调整结果,以决定虚拟法兰模型VFM投影的厚度参数。值得注意的是,第一界面10、第二界面20、第三界面30及第四界面40都是增强现实界面。
于螺栓数量输入步骤S5中,提供一第五界面50让操作者输入一螺栓数量,如图14所示。譬如,使用者通过于第五界面50上滑动操作选取螺栓数量为12。值得注意的是,步骤S4与S5可以移至图2的任何适当的位置,譬如可以在一开始就进行步骤S4与S5,且步骤S4与S5的顺序并没有特别受到限制。
于查询步骤S6中,在选取螺栓数量为12后,按下执行键16进行查询,CPU 80依据虚拟法兰模型VFM的虚拟外径VD1、虚拟孔位圆径VD2及虚拟厚度VT查找数据库90,以获得与虚拟法兰模型VFM相匹配的实体法兰的一个或多个查询结果,如图15所示,其中多个查询结果依据相匹配的分数排名。
于存档步骤S7中,CPU 80执行控制,以将法兰200的此些即时图像210的一个或多个,以及所述一个或多个查询结果储存至数据库90中,以便下次查找时可以多出一笔参考数据。
值得注意的是,虽然以上是使用手机当作电子装置100的例子来说明,但是也可以使用穿戴装置,穿戴装置可以追踪操作者的眼球或头部转动,以让操作者执行选取及调整,同样可以达到相同的效果。
藉由上述实施例的基于增强现实界面的智能化轴连结器识别方法,可以结合增强现实的界面技术,提供图像处理后的辅助信息,配合人为空间判断能力,协助快速取得包含法兰的外径、法兰的孔位圆径(或称节圆(Pitch circle)的直径)、法兰的厚度的三个维度的尺寸,自动进行数据库搜寻,找出最有可能的法兰的规格,省去将法兰拆卸与量测的步骤。本发明仅使用法兰最具有鉴别性的四个参数,分别是外径、孔位圆径、厚度、螺栓数目,即可从数据库中,自动决定对应的规格。
在较佳实施例的详细说明中所提出的具体实施例仅用以方便说明本发明的技术内容,而非将本发明狭义地限制于上述实施例,在不超出本发明的精神及申请专利范围的情况下,所做的种种变化实施,皆属于本发明的范围。
Claims (10)
1.一种基于增强现实界面的智能化轴连结器识别方法,其特征在于,应用于一电子装置中,该识别方法包含:
一环境深度建立步骤,提供具有代表一法兰的即时图像的一第一界面,以让一操作者选取所欲处理的该法兰的不同视角的多个即时图像,依据所述多个即时图像获得多组平面特征点信息,以依据所述多组平面特征点信息建立一虚拟法兰面;
一圆周点选取步骤,提供叠合的该虚拟法兰面与该即时图像于一第二界面上,让该操作者从该第二界面选择对应于该法兰的三个圆周点,以依据所述三个圆周点求得一虚拟外径,以建立具有该虚拟外径及一虚拟孔位圆径的一虚拟法兰模型;
一孔位圆径调整步骤,提供叠合的该虚拟法兰模型与该即时图像于一第三界面上,让该操作者从该第三界面调整该虚拟法兰模型的该虚拟孔位圆径;
一法兰厚度调整步骤,提供叠合的该虚拟法兰模型与该即时图像于一第四界面上,让该操作者从该第四界面调整该虚拟法兰模型的一虚拟厚度;
一螺栓数量输入步骤,提供一第五界面让该操作者输入一螺栓数量;以及
一查询步骤,依据该虚拟法兰模型的该虚拟外径、该虚拟孔位圆径及该虚拟厚度查找一数据库,以获得与该虚拟法兰模型相匹配的实体法兰的一个或多个查询结果。
2.如权利要求1所述的基于增强现实界面的智能化轴连结器识别方法,其特征在于,更包含:
一存档步骤,将该法兰的所述多个即时图像的一个或多个,以及所述一个或多个查询结果储存至该数据库中,其中在该孔位圆径调整步骤及该法兰厚度调整步骤中,该虚拟法兰模型是依据该操作者的调整而即时更新。
3.如权利要求1所述的基于增强现实界面的智能化轴连结器识别方法,其特征在于,该第一界面指引该操作者将该电子装置三向环绕该法兰,以获得所述不同视角的所述多个即时图像。
4.如权利要求3所述的基于增强现实界面的智能化轴连结器识别方法,其特征在于,该第一界面具有一第一中心标记,用于指引该操作者将该电子装置三向环绕该法兰时,使该第一中心标记对准该法兰的一顶面上,以获得所述不同视角的所述多个即时图像。
5.如权利要求4所述的基于增强现实界面的智能化轴连结器识别方法,其特征在于,该第一界面指引该操作者将该第一中心标记保持于两螺栓之间的位置。
6.如权利要求1所述的基于增强现实界面的智能化轴连结器识别方法,其特征在于,该第二界面具有一第二中心标记,指引该操作者将该电子装置以该第二中心标记对准该法兰的该三个圆周点。
7.如权利要求1所述的基于增强现实界面的智能化轴连结器识别方法,其特征在于,该第一界面提供一个水平管线的选项及一个垂直管线的选项。
8.如权利要求1所述的基于增强现实界面的智能化轴连结器识别方法,其特征在于,所述多个查询结果依据相匹配的分数排名。
9.如权利要求1所述的基于增强现实界面的智能化轴连结器识别方法,其特征在于,于该第三界面上,该虚拟法兰模型包含相互叠合的一个大圆柱与一个小圆柱,该大圆柱具有该虚拟外径,该小圆柱具有该虚拟孔位圆径。
10.如权利要求1所述的基于增强现实界面的智能化轴连结器识别方法,其特征在于,该电子装置追踪该操作者的眼球或头部转动,以让该操作者执行选取及调整。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109143055 | 2020-12-07 | ||
TW109143055A TWI758998B (zh) | 2020-12-07 | 2020-12-07 | 基於擴增實境介面的智能化軸連結器辨識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114595349A true CN114595349A (zh) | 2022-06-07 |
Family
ID=81710797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110084975.7A Pending CN114595349A (zh) | 2020-12-07 | 2021-01-21 | 基于增强现实界面的智能化轴连结器识别方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11703992B2 (zh) |
CN (1) | CN114595349A (zh) |
TW (1) | TWI758998B (zh) |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5726688A (en) * | 1995-09-29 | 1998-03-10 | Ncr Corporation | Predictive, adaptive computer interface |
JP2002074322A (ja) * | 2000-08-31 | 2002-03-15 | Sony Corp | 情報処理装置及び情報処理方法並びにデータ記録媒体 |
JP4571998B2 (ja) * | 2009-03-16 | 2010-10-27 | 株式会社ミスミ | コンビネーションモジュール提供装置 |
US20110054486A1 (en) * | 2009-08-25 | 2011-03-03 | Active Implants Corporation | Devices, Methods, and Systems for Prosthetic Meniscus Selection, Trialing, and Implantation |
US8860760B2 (en) * | 2010-09-25 | 2014-10-14 | Teledyne Scientific & Imaging, Llc | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
US20120323726A1 (en) * | 2011-06-14 | 2012-12-20 | Michael Wilson | F&i menu system |
US20160260250A1 (en) * | 2015-03-05 | 2016-09-08 | Dejan Jovanovic | Method and system for 3d capture based on structure from motion with pose detection tool |
US11093661B2 (en) * | 2017-08-01 | 2021-08-17 | Ptc Inc. | Smart relations of computer aided design (CAD) components |
TWI651661B (zh) * | 2017-10-27 | 2019-02-21 | 吳仕賢 | 用於辨識法蘭規格之電腦程式產品及方法 |
TWI773898B (zh) * | 2018-12-27 | 2022-08-11 | 遠傳電信股份有限公司 | 用於電子設備的管理裝置及其管理方法 |
US11176669B2 (en) * | 2019-04-14 | 2021-11-16 | Holovisions LLC | System for remote medical imaging using two conventional smart mobile devices and/or augmented reality (AR) |
AU2020274025B2 (en) * | 2019-05-10 | 2022-10-20 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
CN110687120A (zh) * | 2019-09-18 | 2020-01-14 | 浙江工商大学 | 法兰外观质量检测系统 |
-
2020
- 2020-12-07 TW TW109143055A patent/TWI758998B/zh active
-
2021
- 2021-01-21 CN CN202110084975.7A patent/CN114595349A/zh active Pending
- 2021-03-31 US US17/218,838 patent/US11703992B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
TW202223735A (zh) | 2022-06-16 |
US20220179541A1 (en) | 2022-06-09 |
TWI758998B (zh) | 2022-03-21 |
US11703992B2 (en) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109032348B (zh) | 基于增强现实的智能制造方法与设备 | |
US11051000B2 (en) | Method for calibrating cameras with non-overlapping views | |
KR20210040853A (ko) | 제품 결함 검출 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 | |
US8390534B2 (en) | Method and device for generating tracking configurations for augmented reality applications | |
Bae et al. | Image-based localization and content authoring in structure-from-motion point cloud models for real-time field reporting applications | |
JP4616120B2 (ja) | 画像処理装置及び検査装置 | |
Deretey et al. | Visual indoor positioning with a single camera using PnP | |
US10311593B2 (en) | Object instance identification using three-dimensional spatial configuration | |
KR102170235B1 (ko) | 상하수관로 상태 정보 분석 및 모델링 방법 | |
KR101445973B1 (ko) | 영상 처리 기술을 이용한 블록 제작 공정 진척도 인식 방법 및 그 시스템 | |
JP2015228215A (ja) | 位置情報処理方法 | |
US20220414862A1 (en) | Method for creating a digital twin of an infrastructure component | |
KR20180069539A (ko) | 플랜트의 가상 현실 서비스 제공 방법 및 이를 위한 장치 | |
EP3387621B1 (en) | Method and system for obtaining pair-wise epipolar constraints and solving for panorama pose on a mobile device | |
JP2018077836A (ja) | 2d対象点の3dマッピングのための方法 | |
Al-Sabbag et al. | Enabling human–machine collaboration in infrastructure inspections through mixed reality | |
Bae et al. | Vision-based inspection approach using a projector-camera system for off-site quality control in modular construction: Experimental investigation on operational conditions | |
KR20230133831A (ko) | Bim 설계 데이터 내 설비 라인을 자동으로 설계하는 장치, 방법 및 프로그램 | |
Collett et al. | Augmented reality visualisation for player | |
CN114595349A (zh) | 基于增强现实界面的智能化轴连结器识别方法 | |
Yu et al. | Collaborative SLAM and AR-guided navigation for floor layout inspection | |
KR20150138958A (ko) | Nfc 기반 플랜트 관리 시스템 | |
JP2002092044A (ja) | 設備管理システム及び方法ならびに設備管理プログラムを記録した記録媒体 | |
CN112059983A (zh) | 一种用于装配工件的方法、装置及计算机可读介质 | |
CN114048541B (zh) | 基于数字孪生的资产空间标记方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |