CN111065977B - 控制表面的方法 - Google Patents
控制表面的方法 Download PDFInfo
- Publication number
- CN111065977B CN111065977B CN201880050250.2A CN201880050250A CN111065977B CN 111065977 B CN111065977 B CN 111065977B CN 201880050250 A CN201880050250 A CN 201880050250A CN 111065977 B CN111065977 B CN 111065977B
- Authority
- CN
- China
- Prior art keywords
- model
- dimensional virtual
- virtual model
- sharpness volume
- sharpness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000003287 optical effect Effects 0.000 claims abstract description 26
- 230000002093 peripheral effect Effects 0.000 claims description 5
- 230000005484 gravity Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 2
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/41875—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/9515—Objects of complex shape, e.g. examined with use of a surface follower device
- G01N2021/9518—Objects of complex shape, e.g. examined with use of a surface follower device using a surface follower, e.g. robot
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37206—Inspection of surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40617—Agile eye, control position of camera, active vision, pan-tilt camera, follow object
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/50—Machine tool, machine tool null till machine tool work handling
- G05B2219/50064—Camera inspects workpiece for errors, correction of workpiece at desired position
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/50—Machine tool, machine tool null till machine tool work handling
- G05B2219/50391—Robot
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Quality & Reliability (AREA)
- General Engineering & Computer Science (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种使用将安装在机器人(4)上的图像捕获装置检查工件(2)的表面(1)的方法,所述图像捕获装置(3)包括传感器以及与光心C、角孔径(alpha)和景深(DoF)相关联,并限定一锐度体积(6)的透镜。该方法包括以下操作:加载表面(1)的虚拟三维模型;生成锐度体积(6)的虚拟三维模型;使用锐度体积(6)的虚拟三维模型的多个单元模型铺砌表面(1)的模型;对于单元模型(6)的每个位置,计算被称为采集位置的图像捕获装置(3)的对应位置。
Description
技术领域
本发明涉及控制领域,更准确地说,是涉及使用矩阵光学传感器的机器人控制应用领域。
背景技术
在工业上,已知在机器人上搭载例如矩阵光学传感器等相机。对于许多应用,需要精确地知晓末端执行器在机器人上的位置。对于光学传感器,相机的光心位置用作机器人的光学基准。
一种常见应用的示例是通过热成像控制表面。在大型部件上,有必要使用被定位在机械臂上的红外相机进行几次从不同角度获取的采集。
已知在复合材料部件上使用矩阵传感器检测(例如在红外范围内),但主要用于实验室或用于在具有相对简单几何形状的表面上进行生产。相对简单的几何形状意味着在表面没有明显的曲率或起伏。
开发一种在工业条件下控制复杂几何形状的部件的方法需要掌握:
-相对于嵌入工业机器人中的矩阵传感器的位置和定向观察的区域,
-关于影响控制方法的参数的机器人轨迹的设计。
观察区域的控制基于待控制表面在该表面和相机的光心之间的给定焦距处的精确定位,以及根据相机的景深。
通常通过讲授或通过在被控制部分直接实验实现机器人轨迹的设计。
发明内容
一种通过待安装在运载机器人上的相机控制部件的目标表面的方法,所述相机包括传感器以及与光心C、角孔径和景深PC相关联并限定锐度体积的光学器件,所述方法包括以下步骤:
a)在虚拟设计环境中加载目标表面的三维虚拟模型,
b)在虚拟环境中生成锐度体积的三维虚拟模型,
c)在虚拟环境中通过锐度体积的所述三维虚拟模型的多个单元模型铺砌目标表面的模型,
d)对于所述单元模型的每个位置,计算被称为采集位置的相机的相应位置。
该方法允许自动地限定机器人的交叉点,以及因此限定一种允许其在采集点处连续地移动相机的预限定轨迹。该方法的优点是其可以完全地在虚拟环境中执行,而通常步骤包括通过直接地在部件上实验学习来创建轨迹。
根据一种示例,锐度体积的三维虚拟模型的生成包括以下操作:
-在虚拟环境中加载相机的三维模型,
-生成截棱锥,所述截棱锥的:
о顶部是光心C,
о角孔径(或孔径锥)是光学器件的角孔径(或孔径锥),
о两个相对侧面分别限定第一锐平面PPN和最后锐平面DPN,所述第一锐平面PPN和最后锐平面DPN的间距对应于光学器件的景深PC。
锐度体积的该三维虚拟模型允许简单、虚拟地表示光学器件参数。它与光学器件的特征直接地有关。
根据一种优选的实施例,所述表面被定位在锐度体积的每个三维虚拟模型单元模型的第一锐平面PPN和最后锐平面DPN之间。
该特定定位通过使用锐度体积的三维虚拟模型实现,并在表面控制过程中保证每次采集的清晰图像。
根据一种特定的特征,锐度体积的三维虚拟模型的生成包括将锐度体积的所述三维虚拟模型划分为严格地包括在其中的工作区域以及围绕该工作区域的外围重叠区域的操作。在铺砌操作中,可以分配锐度体积的三维虚拟模型的单元模型,从而在所述外围区域中两个两个地重叠。
工作区域的生成使得更容易和更快地定位锐度体积的单位体积。事实上,工作区域允许区分单位体积重叠的重叠区域。这也使操作者控制所需的重叠程度。
根据一种特定的特征,锐度体积的三维虚拟模型的每个单元模型的位置至少由在待控制表面的三维虚拟模型的奇点P与其在第一锐平面PPN或最后锐平面DPN上的正交投影之间的距离d所限定。该特征允许操作者控制相机和待控制表面之间的距离。事实上,根据待控制表面的几何特征,将距离d置于约束下可能是相关的。控制该距离可以掌握所观察图像的空间分辨率。
根据另一特征,所述奇点P可以是锐度体积的三维虚拟模型的重心。
根据一种特定特征,在铺砌操作中,锐度体积的三维虚拟模型的每个单元模型的位置由在与锐度体积的三维虚拟模型相关联的X轴和在X轴与表面的交叉点处的目标表面的法线N之间的角度所限定。例如,X轴是锐度体积的三维虚拟模型的对称轴。该特征允许操作者控制锐度体积的三维虚拟模型的每个单元模型的角度定向。这使得可以在待控制表面的某些区域上控制拍摄的定向。
附图说明
在阅读参照附图通过非限制性示例给出的以下描述后,将更好地理解本发明,并且本发明的其他细节、特征和优点将在阅读后变得显而易见,其中:
图1是通过工具被安装在运载机器人上的相机的图示。
图2是安装在工具上的相机以及相关联的锐度体积的透视图。
图3是安装在工具上的相机以及相关联的锐度体积的侧视图。
图4是示例性锐度体积的透视图。
图5是图4中的示例性锐度体积的侧视图。
图6是待控制表面的示例的透视图。
图7是在铺砌操作后的图7表面的图示。
图8是对于锐度体积的三维虚拟模型的单元模型的每个位置的相机定位的图示。
图9示出了相对于表面将锐度体积的三维虚拟模型的单元模型定位为距离函数的示例。
图10示出了相对于表面将锐度体积的三维虚拟模型的单元模型定位为角度函数的示例。
具体实施方式
本发明涉及一种通过安装在一运载机器人4上的相机3控制部件2的目标表面1的方法。例如,可以使用如图1所示的工具5将相机3安装在运载机器人4上。
例如,部件2可以是机械部件。
相机3包括传感器和与光心C、角孔径和景深PC相关联并限定锐度体积6的光学器件,如图3所示。
该方法包括以下步骤:
-在一虚拟设计环境(例如虚拟计算机辅助的绘图环境)中加载目标表面1的三维虚拟模型,如图6所示,
-在该虚拟环境中生成锐度体积6的三维虚拟模型,如图2所示,
-在该虚拟环境中,利用锐度体积6的所述三维虚拟模型的多个单元模型铺砌目标区域1的模型,如图7所示,
-对于锐度体积6的三维虚拟模型的所述单元模型的每个位置,计算被称为采集位置的相机3的相应位置。
对于所述单元模型的每个位置,然后可以自动地计算该机器人的通过点,以及因此计算使其可在所述采集点连续地移动相机的一预限定轨迹。
对于锐度体积6的三维虚拟模型的单元模型的每个位置,相应相机3的光轴的位置不同。三个光轴Y、Y'和Y”在图7中作为示例显示。它们不必彼此平行,因为单元模型不必以相对于表面1相同的方式定向。
根据一优选实施例,锐度体积6的三维虚拟模型的生成包括以下操作:
-加载相机3的三维模型,
-生成一截棱锥,所述截棱锥的:
о顶部是相机3的光心C,
о角孔径为所述光学器件的角孔径,标记为alpha,
о两个相对侧面分别限定第一锐平面PPN和最后锐平面DPN,所述第一锐平面PPN和最后锐平面DPN的间距对应于该光学器件的景深PC。
可参考图3以识别锐度体积6的第一锐平面NPP和最后锐平面DPN的位置。平面PPN和DPN通过一焦距定位在平面L(称为聚焦平面)的任意一侧上。该操作使得相机3的几何特征可被输入该虚拟环境中。截棱锥的使用使得可容易地将第一锐平面PPN和最后锐平面DPN的位置,以及所述光学器件的角孔径整合。角孔径在图4中由具有矩形横截面的棱锥表示,其上可限定两个标记为alpha1和alpha2的角,角alpha1由包括一矩形横截面的边缘和所述光心C的第一三角形所限定,角alpha2由与所述第一三角形相邻的第二三角形限定,并包括一矩形横截面的边缘和所述光心C。
根据一个特定特征,在铺砌过程中,表面1位于锐度体积6的三维虚拟模型的每个单元模型的第一锐平面PPN与最后锐平面DPN之间,如图9和10所示。该结构确保对于锐度体积6的三维虚拟模型的每个单元模型的每个对应的采集位置,由相机3生成一锐度图像。
相机3的几何特征是供应商数据。这些包括:
-由相机3提供的图像的像素尺寸:水平像素的数目nh,垂直像素的数目nv,
-传感器上两个相邻像素的中心之间的距离p,
-焦距l,
-光学器件的角孔径。
焦距l是用户限定的。锐度体积6的几何形状可以通过计算调节,使得可管理重叠区域7。锐度体积6的三维虚拟模型的单元模型在表面1上的每个位置均对应于一拍摄位置。
因此,在该操作过程中,锐度体积6的三维虚拟模型的生成可额外地包括将锐度体积6的三维虚拟模型划分为严格地包括在其中的工作区域8,以及围绕工作区域8的重叠外围区域7的操作。划分为工作区域8和重叠区域7的锐度体积6的例子显示在图4和图5中。需要注意的是,这是例子,并且重叠区域可具有与图4和图5中所示的不同的几何形状和尺寸。
工作区域8的几何形状和尺寸由所生成的锐度体积6的几何形状以及用于每个图像中的所需的重叠百分比的参数来控制。该参数可以由运算符调节。该划分步骤使得可容易地管理两次采集之间所需的重叠程度。
对于每种类型的传感器,使用等式计算工作区域8的尺寸。
作为示例,给出以下等式用于可见范围内的应用,特别是当使用银传感器时。
在焦距l处的工作区域的计算由等式(1)和(2)决定,所述等式(1)和(2)分别以毫米为单位计算水平视场(HFOV)和垂直视场(VFOV):
nh是水平像素的数目,nv是垂直像素的数目,p是在所获取的图像上两个相邻像素的中心之间的距离。
景深PC是从C到最后锐平面DPN的距离(标记为[C,DPN])与从C到第一锐平面PPN的距离(标记为[C,PPN])之间的差,如等式(3)所示:
PC=[C,DPN]-[C,PPN] (3)
用于确定距离[C,DPN]和[C,PPN]的等式因传感器而异。例如,对于银膜相机,这些距离由等式(4)和(5)计算,其中D是由等式(6)计算的传感器的对角线,c是由等式(7)限定的散光圈的周长,以及H是超焦距:
由等式(4)至(8)计算的变量可根据所使用的传感器的类型而不同。
它们在这里作为例子给出。
在操作者已选择了非零重叠百分比的情况下,在表面1的铺砌操作过程中,锐度体积6的位置被设置为在重叠区域7中两个两个地重叠。图7中示出了在锐度体积6之间重叠的示例。
锐度体积的使用使得可控制观察区域,并且有助于某些例如相机3与表面1之间的距离、该表面的常态、在表面1的特定点上的定心、工作区域8和重叠区域7的控制这样的约束的集成。
根据一特定特征,锐度体积6的三维虚拟模型的每个单元模型的位置至少由距离d来限定,所述距离d可以是目标表面1的三维模型的奇点P与其在平面PPN上的正交投影之间的距离d1,如图9所示。该距离也可以是在该点P与其在最后平面DPN上的正交投影之间的距离d2,如图10所示。根据一示例性实施例,在铺砌操作中,锐度体积6的三维虚拟模型的每个单元模型的位置也可以由在与锐度体积6的三维虚拟模型相关联的X轴线与在X轴线与表面1的交叉点处的目标表面1的法线N之间的角度所限定。这在图10中示出。在图9的特定情况下,该角度是零,因为法线N与X轴线相混淆。例如,X轴线可以是该锐度体积的虚拟三维模型的对称轴线,如图9和图10所示。事实上,由于相对于部件基准给出了机器人的位置和方向,因此知晓该角度方向很重要。
Claims (7)
1.一种利用将安装在运载机器人(4)上的相机(3)控制部件(2)的目标表面(1)的方法,该相机(3)包括传感器以及与光心(C)、角孔径(alpha)和景深(PC)相关联,并限定一锐度体积(6)的光学器件,该方法包括以下操作:
a)在一虚拟设计环境中加载该目标表面(1)的三维虚拟模型,
b)在该虚拟环境中生成所述锐度体积(6)的三维虚拟模型,
c)在该虚拟环境中,利用该锐度体积(6)的所述三维虚拟模型的多个单元模型来铺砌该目标表面(1)的模型,
d)对于所述锐度体积(6)的三维虚拟模型的所述单元模型的每个位置,计算被称为采集位置的所述相机(3)的对应位置,其中,所述锐度体积(6)的三维虚拟模型的生成包括以下操作:
-在所述虚拟环境中加载相机(3)及其工具(5)的三维模型,
-生成一截棱锥,所述截棱锥的:
o顶部是光心(C),
o所述角孔径(alpha)是该光学器件的角孔径,
o两个相对侧面分别限定第一锐平面(PPN)和最后锐平面(DPN),所述第一锐平面和最后锐平面的间距对应于该光学器件的景深(PC)。
2.根据权利要求1所述的方法,其中,所述表面(1)位于所述锐度体积(6)的三维虚拟模型的每个单元模型的第一锐平面(PPN)与最后锐平面(DPN)之间。
3.根据权利要求2所述的方法,其中,锐度体积(6)的三维虚拟模型的生成包括将该锐度体积(6)的三维虚拟模型划分为严格地包括在其中的工作区域(8)以及围绕该工作区域(8)的外围重叠区域(7)的操作;在该铺砌操作中,该锐度体积(6)的三维虚拟模型的单元模型被分配,从而在所述外围区域(7)中两个两个地重叠。
4.根据权利要求1-3中任一项所述的方法,其中,在该铺砌操作中,所述锐度体积(6)的三维虚拟模型的每个单元模型的位置至少由将被控制的该目标表面(1)的三维模型的奇点(P)与其在第一锐平面(PPN)或最后锐平面(DPN)上的正交投影之间的距离所限定。
5.根据权利要求4所述的方法,其中,所述奇点(P)是所述锐度体积的三维虚拟模型的重心。
6.根据权利要求1-3中任一项所述的方法,其中,在该铺砌操作中,所述锐度体积(6)的三维虚拟模型的每个单元模型的位置均由与该锐度体积的三维虚拟模型相关联的轴线(X)与在所述轴线(X)和所述目标表面(1)的交叉点处的所述目标表面(1)的法线(N)之间的角度所限定。
7.根据权利要求6所述的方法,其中,所述轴线(X)是所述锐度体积(6)的三维虚拟模型的对称轴线。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1757011A FR3069346B1 (fr) | 2017-07-24 | 2017-07-24 | Procede de controle d'une surface |
FR1757011 | 2017-07-24 | ||
PCT/FR2018/051888 WO2019020924A1 (fr) | 2017-07-24 | 2018-07-23 | Procédé de contrôle d'une surface |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111065977A CN111065977A (zh) | 2020-04-24 |
CN111065977B true CN111065977B (zh) | 2023-10-03 |
Family
ID=61027799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880050250.2A Active CN111065977B (zh) | 2017-07-24 | 2018-07-23 | 控制表面的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200139552A1 (zh) |
EP (1) | EP3658998A1 (zh) |
CN (1) | CN111065977B (zh) |
FR (1) | FR3069346B1 (zh) |
WO (1) | WO2019020924A1 (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101909828A (zh) * | 2007-12-27 | 2010-12-08 | 莱卡地球系统公开股份有限公司 | 将至少一个物体高精度定位在空间最终位置的方法和系统 |
CN102308201A (zh) * | 2008-12-24 | 2012-01-04 | 斯奈克玛 | 机械零件的无损检查方法 |
CN103778649A (zh) * | 2012-10-11 | 2014-05-07 | 通用汽车环球科技运作有限责任公司 | 用于相机建模和虚拟视图合成的成像表面建模 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020169586A1 (en) * | 2001-03-20 | 2002-11-14 | Rankin James Stewart | Automated CAD guided sensor planning process |
US6618680B2 (en) * | 2001-05-09 | 2003-09-09 | The United States Of America As Represented By The Secretary Of The Interior | Signal processor apparatus for rotating water current meter |
US20050088515A1 (en) * | 2003-10-23 | 2005-04-28 | Geng Z. J. | Camera ring for three-dimensional (3D) surface imaging |
-
2017
- 2017-07-24 FR FR1757011A patent/FR3069346B1/fr active Active
-
2018
- 2018-07-23 CN CN201880050250.2A patent/CN111065977B/zh active Active
- 2018-07-23 WO PCT/FR2018/051888 patent/WO2019020924A1/fr unknown
- 2018-07-23 US US16/632,634 patent/US20200139552A1/en not_active Abandoned
- 2018-07-23 EP EP18773792.9A patent/EP3658998A1/fr active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101909828A (zh) * | 2007-12-27 | 2010-12-08 | 莱卡地球系统公开股份有限公司 | 将至少一个物体高精度定位在空间最终位置的方法和系统 |
CN102308201A (zh) * | 2008-12-24 | 2012-01-04 | 斯奈克玛 | 机械零件的无损检查方法 |
CN103778649A (zh) * | 2012-10-11 | 2014-05-07 | 通用汽车环球科技运作有限责任公司 | 用于相机建模和虚拟视图合成的成像表面建模 |
Non-Patent Citations (2)
Title |
---|
Novel three-dimensional data conversion technique and profile measurement system for engine cylinder head blank;RuiFeng Zhang 等;《Optics & Laser Technology》;20130228;第45卷;第697-701页 * |
S.Y.Chen 等.Automatic Sensor Placement for Model-Based Robot Vision.IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS-PART B: CYBERNETICS,.2004,第34卷(第1期),第393-408页. * |
Also Published As
Publication number | Publication date |
---|---|
FR3069346A1 (fr) | 2019-01-25 |
WO2019020924A1 (fr) | 2019-01-31 |
US20200139552A1 (en) | 2020-05-07 |
FR3069346B1 (fr) | 2020-11-13 |
EP3658998A1 (fr) | 2020-06-03 |
CN111065977A (zh) | 2020-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3030734C (en) | Robotic arm camera system and method | |
JP5815761B2 (ja) | 視覚センサのデータ作成システム及び検出シミュレーションシステム | |
WO2016079967A1 (en) | Robot and robot system | |
EP2682711B1 (en) | Apparatus and method for three-dimensional measurement and robot system comprising said apparatus | |
CN110355464A (zh) | 激光加工的视觉匹配方法、系统及介质 | |
US11446822B2 (en) | Simulation device that simulates operation of robot | |
JP2008254150A (ja) | ロボットの教示装置及び教示方法 | |
US10724963B2 (en) | Device and method for calculating area to be out of inspection target of inspection system | |
CN115972192A (zh) | 具有可变空间分辨率的3d计算机视觉系统 | |
CN115841516A (zh) | 用于对摄像头的动态本征参数进行建模的方法和设备 | |
CN104296658B (zh) | 一种基于虚拟双目视觉的石壁爆破孔检测与定位装置及定位方法 | |
Sreenath et al. | Monocular tracking of human hand on a smart phone camera using mediapipe and its application in robotics | |
JP2010078466A (ja) | マーカ自動登録方法及びシステム | |
Xu et al. | Characteristic of monocular microscope vision and its application on assembly of micro-pipe and micro-sphere | |
CN111065977B (zh) | 控制表面的方法 | |
KR101438514B1 (ko) | 다중 영상을 이용한 원자로 내부 로봇 위치 측정 시스템 및 위치 측정방법 | |
KR101850118B1 (ko) | 이동 로봇과 카메라의 캘리브레이션 방법 및 시스템 | |
US12036663B2 (en) | Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system | |
Solvang et al. | Robot programming in machining operations | |
Ye et al. | Robotic microassembly for meso-scale application | |
Matúšek et al. | Characterization of the positioning accuracy and precision of MEMS die servoing using model-based visual tracking | |
Li et al. | Motion-based microscopic camera calibration and application on micro tube-hole insertion | |
Ding et al. | Three-dimensional reconstruction method based on bionic active sensing in precision assembly | |
Tyris et al. | Interactive view planning exploiting standard machine vision in structured light scanning of engineering parts | |
Cui et al. | 6-dof automatic micropositioning using photometric information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |