JP2022516852A - Robot visual guidance method and device by integrating overview vision and local vision - Google Patents

Robot visual guidance method and device by integrating overview vision and local vision Download PDF

Info

Publication number
JP2022516852A
JP2022516852A JP2021537213A JP2021537213A JP2022516852A JP 2022516852 A JP2022516852 A JP 2022516852A JP 2021537213 A JP2021537213 A JP 2021537213A JP 2021537213 A JP2021537213 A JP 2021537213A JP 2022516852 A JP2022516852 A JP 2022516852A
Authority
JP
Japan
Prior art keywords
machining
point cloud
point
target
guide path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021537213A
Other languages
Japanese (ja)
Other versions
JP7212236B2 (en
Inventor
鄭振興
▲てぃお▼世普
秦磊
Original Assignee
広東技術師範大学
広東匯博机器人技術有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 広東技術師範大学, 広東匯博机器人技術有限公司 filed Critical 広東技術師範大学
Publication of JP2022516852A publication Critical patent/JP2022516852A/en
Application granted granted Critical
Publication of JP7212236B2 publication Critical patent/JP7212236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法は、S10:加工目標データ収集、S20:全体加工案内経路、S30:サブ目標領域分割、S40:最適加工経路計画、S50:加工案内点変換、S60:ポイントクラウドの高精度ローカル収集、S70:高精度加工案内信息を含む。オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置は、加工目標データ収集モジュール10、全体加工案内経路モジュール20、サブ目標領域分割モジュール30、最適加工経路計画モジュール40、加工案内点変換モジュール50、ポイントクラウドの高精度ローカル収集モジュール60、高精度加工案内信息モジュール70を含む。大体積加工目標の高効率加工における精度要求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加速し、計算時間を減少することによりリアルタイム処理の要求を満たすことができる。加えて、ソフトハードウェアの性能要求も低減され、コストおよび開発の難度が下げられる。高速化かつ大規模の生産モードの要求に適応可能である。The robot visual guidance method by integrating overview vision and local vision is S10: machining target data collection, S20: overall machining guide path, S30: sub-target area division, S40: optimum machining path planning, S50: machining guide point conversion. , S60: High-precision local collection of point cloud, S70: High-precision machining guidance information is included. The robot visual guidance device by integrating the overview visual and the local visual is a machining target data acquisition module 10, an overall machining guide path module 20, a sub-target area division module 30, an optimum machining path planning module 40, and a machining guide point conversion module 50. , Point cloud high precision local collection module 60, high precision machining guidance information module 70 is included. While satisfying the accuracy requirements for high-efficiency machining of large volume machining targets, the requirements for real-time machining can be met by reducing the amount of calculation and complexity, accelerating the processing speed, and reducing the calculation time. In addition, software hardware performance requirements are reduced, reducing cost and development difficulty. It can be adapted to the demands of high-speed and large-scale production modes.

Description

本発明は、ロボットの視覚領域に関し、特にオーバービュー視覚およびローカル視覚の一
体化によるロボット視覚案内方法及び装置に関する。
The present invention relates to the visual area of the robot, and more particularly to a robot visual guidance method and apparatus by integrating overview vision and local vision.

強国の根幹をなす自動化装備(ロボットシステム)は、高速化、インテリジェント化の方
向に進まなければなりません。自動化装置の知能化の重要な手段は、マシンに「目」とこ
の目に合わせられる「脳」を装着することである。この「目」は単眼カメラ、両眼カメラ
、多目カメラ、三次元スキャナー、RGB-D(RGB+Depth)センサーでもいいです。自動化装
備のスマート化のコア作業内容は、この「目」で取得した画像データを分析(例えば画像
認識)し、分析結果に基づいてロボットシステムを特定の加工または組み立て操作に導く
ことを含む。加工技術が進歩するにつれて、加工が必要な部品の表面はますます複雑にな
り、加工の精度が要求されるようになりました。そのため、部品の表面処理(研ぎ捨て作
業)は不可欠な重要な過程です。加工部品に対する表面処理の自動化とインテリジェント
化を実現するためには、上記の「目」を用いて加工対象部品の画像を取得し、上記「脳」
を用いて分析処理を行い、加工部品に対する空間的な正確な位置決めを実現し、目標を精
密に検出します。さらに、ロボットの端を研ぐ道具を導いて加工部品の加工目標に対して
作業を行います。従来は検出視野の大きいロボットビジョンガイドを採用していますが、
検出精度は通常高くなく、加工精度が要求できません。高精度の空間位置決め情報を得る
ためには、ロボットビジョンガイドはより小さな検出視野を設定する必要がありますので
、大きな加工目標についてはブロック分け検出が必要ですので、計算の複雑さが高く、計
算量も多く必要です。計算時間が長く、システム全体の作業効率は高くないです。また、
上述の「脳」のソフト・ハードウェアの性能に対する要求が高く、処理のリアルタイム性
を達成することが難しく、現在の高速化の工業生産過程における必要性に合わない。この
ため、本発明は、大域的な視覚と局所的な視覚を融合させた大体積加工目標の研磨トスロ
ボットの高精度な視覚誘導方法と装置を開示し、大体積加工目標に対して高効率な加工が
可能な精度要求を満足できる。
Automation equipment (robot systems), which form the basis of a powerful country, must move in the direction of speeding up and becoming intelligent. An important means of intelligentizing automation equipment is to equip the machine with "eyes" and "brain" that fits these eyes. This "eye" can be a monocular camera, a binocular camera, a multi-eye camera, a three-dimensional scanner, or an RGB-D (RGB + Depth) sensor. The core work of smartening automation equipment includes analyzing image data acquired by this "eye" (eg image recognition) and guiding the robot system to a specific machining or assembly operation based on the analysis results. As machining technology has advanced, the surfaces of parts that need to be machined have become more complex and require more precision. Therefore, surface treatment (sharpening work) of parts is an indispensable and important process. In order to realize automation and intelligent surface treatment for machined parts, the above "eyes" are used to acquire images of the parts to be machined, and the above "brain".
The analysis process is performed using, and the spatially accurate positioning for the machined part is realized, and the target is detected accurately. In addition, we will guide the tool to sharpen the edge of the robot and work on the machining target of the machined part. Conventionally, a robot vision guide with a large field of view has been adopted, but
Detection accuracy is usually not high and machining accuracy cannot be required. In order to obtain highly accurate spatial positioning information, the robot vision guide needs to set a smaller detection field of view, so block division detection is required for large machining targets, so the calculation complexity is high and the amount of calculation is high. I also need a lot. The calculation time is long and the work efficiency of the entire system is not high. again,
The demands on the performance of the above-mentioned "brain" software and hardware are high, it is difficult to achieve real-time processing, and it does not meet the needs of the current high-speed industrial production process. Therefore, the present invention discloses a highly accurate visual guidance method and apparatus for a polishing toss robot for a large volume machining target that combines global vision and local vision, and is highly efficient for the large volume machining target. Satisfies the precision requirements that can be processed.

本発明は、オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法
及び装置を提供し、既存の検出視野の大きいロボット視覚案内を採用するため、検出精度
は通常高くなく、加工精度の要求を達成できないが、高精度な空間測位情報を得るために
は、ロボットビジョンの設定が必要であるため、大きな加工目標に対してはブロック分け
検出が必要であり、複雑度が高い計算となる。そして、大きな計算量が必要で、計算時間
が長く、全体のシステムの作業効率が高くなく、ソフトハードウェアの性能要求が高く、
処理のリアルタイム性を達成するのが難しく、現在の高速化された工業生産過程で必要と
されるこれらの技術問題を解決する。
The present invention provides a robot visual guidance method and device by integrating overview vision and local vision, and adopts an existing robot visual guidance with a large detection field of view. Therefore, the detection accuracy is not usually high, and processing accuracy is required. Although it cannot be achieved, it is necessary to set the robot vision in order to obtain highly accurate spatial positioning information, so block division detection is required for large machining targets, and the calculation is highly complicated. In addition, a large amount of calculation is required, the calculation time is long, the work efficiency of the entire system is not high, and the performance requirements of software hardware are high.
It is difficult to achieve real-time processing, and it solves these technical problems required in the current accelerated industrial production process.

上記の問題を解決するために、オーバービュー視覚およびローカル視覚の一体化によるロ
ボット視覚案内方法は、
ステップ1:
検出ロボットの端末に設置される全体RGB-D複合センサーD70によって要加工目標
の全体レジストレーションRGB二次元画面IRGBおよび全体レジストレーションデプ
スデータIを獲得し、全体レジストレーションRGB二次元画面IRGBから要加工目
標O10の全体領域SRGBを獲得し、全体RGB-D複合センサーのキャリブレーショ
ン行列によって全体領域SRGBにしたがって全体レジストレーションデプスデータI
から要加工目標O10の全体的3DポイントクラウドデータS3Dを抽出するステップと

ステップ2:
全体的3DポイントクラウドデータS3Dを分析することにより要加工目標の全体加工案
内経路の集合点{AXj=1->nを獲得することであって、ただし、それぞれAX
は要加工目標の全体的3DポイントクラウドデータS3Dにおける全体加工案内経路の
点、jは全体加工案内経路の点AXの番号、jの値の範囲は[1,n]、nは全体加工
案内経路の点AXの総数とするステップと、
ステップ3:
全体加工案内経路の集合点{AXj=1->nに基づいて、所定の要加工サブ目標領
域の高精度検出パラメータによって、要加工目標の全体的3DポイントクラウドデータS
3Dを要加工サブ目標領域のポイントクラウド集{S3D-jj=1->n、に分割す
ることであって、ただし、S3D-jは全体加工案内経路の点AXの要加工サブ目標領
域のポイントクラウドに対応するステップと、
ステップ4:
最適経路計画アルゴリズムによって、要加工サブ目標領域のポイントクラウド集{S3D
-jj=1->nを順序付けすることによって、最適要加工サブ目標領域のポイントク
ラウド配列{S3D-ii=1->nを生成することであって、ただしそれぞれS3D
-iは最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->n
うちの要加工サブ目標領域のポイントクラウド、iは最適加工サブ目標領域のポイントク
ラウド配列{S3D-ii=1->nの番号とし、iとjは一々対応し、iとjの一々
対応関係によって全体加工案内経路の集合点{AXj=1->nを全体加工案内経路
の点配列{AXi=1->n。に変換するステップと、
ステップ5:
iは1~nとすると、要加工サブ目標領域のポイントクラウドS3D-iに対応する全体
加工案内経路の点AXを検出ロボットベース座標系の全体加工案内経路の点BXに変
換し、そして検出ロボットベース座標系の全体加工案内経路の点BXを研磨ロボットベ
ース座標系の全体加工案内経路の点CXを変換することによって、全体加工案内経路の
点配列{AXi=1->nを検出ロボットベース座標系の加工案内の点配列{BX
i=1->nに変換し、検出ロボットベース座標系の加工案内の点配列{BXi=
1->nを研磨ロボットベース座標系の全体加工案内の点配列{CXi=1->n
変換するステップと、
ステップ6:
iは1~nとすると、研磨ロボットベース座標系の全体加工案内経路の点CX にした
がって研磨ロボットの端末に設置されるローカルRGB-D複合センサーを案内しながら
要加工目標を走査することによって、要加工目標の要加工サブ目標領域に対応するポイン
トクラウドS3D-iの対応する領域の高精度ローカルポイントクラウドSS3D-i
獲得するステップと、
ステップ7:
iは1~nとすると、レジストレーションアルゴリズムによって高精度ローカルポイント
クラウドSS3D-iをモジュールとして予定のサンプルポイントクラウドRS3Dの中
から高精度ローカルポイントクラウドSS3D-iにレジストレーションする高精度ロー
カルポイントクラウドRS3D-iを検索し、高精度ローカルポイントクラウドSS3D
-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドD
3D-iを算出し、差異ポイントクラウドDS3D-iを分析検索し、研磨ロボットの
高精度3D加工案内信息を獲得するステップと、
を含む。
In order to solve the above problem, the robot visual guidance method by integrating the overview vision and the local vision
Step 1:
The whole RGB- D composite sensor D70 installed in the terminal of the detection robot acquires the whole registration RGB two-dimensional screen I RGB and the whole registration depth data ID of the machining target, and the whole registration RGB two-dimensional screen I RGB . Obtain the entire region S RGB of the processing target O10 from, and use the calibration matrix of the overall RGB- D composite sensor to obtain the overall registration depth data ID according to the overall region S RGB .
Steps to extract the overall 3D point cloud data S 3D of the processing target O10 from
Step 2:
Overall 3D point cloud data S By analyzing 3D , the set point {AX j } j = 1-> n of the overall machining guide path of the machining target is to be obtained, but AX respectively.
j is the overall 3D point cloud data of the machining target, the point of the overall machining guide path in S3D , j is the point of the overall machining guide path AX j number, the range of the value of j is [1, n], and n is the whole. Steps to make the total number of points AX j of the machining guide path, and
Step 3:
Overall 3D point cloud data S of the machining target by the high-precision detection parameter of the predetermined machining sub-target region based on the set point {AX j } j = 1-> n of the entire machining guide path.
3D is divided into a point cloud collection {S 3D-j } j = 1-> n , which is a sub-target area requiring machining, except that S 3D-j requires machining of the point AX j of the entire machining guide path. Steps corresponding to the point cloud of the sub-target area,
Step 4:
Point cloud collection of sub-target areas requiring machining { S3D by optimal route planning algorithm
-J } By ordering j = 1-> n , a point cloud array {S 3D-i } i = 1-> n of the optimum machining required sub-target region is generated, but S 3D respectively.
-I is the point cloud array of the optimum machining sub-target area {S 3D-i } i = 1-> n point cloud of the machining required sub-target area, i is the point cloud array of the optimum machining sub-target area {S 3D-i } i = 1-> n numbers, i and j correspond one by one, and the set point {AX j } j = 1-> n of the whole machining guide path is totally machined according to the one-to-one correspondence relationship between i and j. Point cloud array of guide path {AX i } i = 1-> n . And the steps to convert to
Step 5:
Assuming that i is 1 to n, the point AX i of the entire machining guide path corresponding to the point cloud S3D-i of the machining required sub-target region is converted into the point BX i of the overall machining guide path of the detection robot-based coordinate system. Then, the point BX i of the whole machining guide path of the detection robot-based coordinate system is polished. By converting the point CX i of the whole machining guide path of the robot-based coordinate system, the point array of the whole machining guide path {AX i } i = 1 -> Detect n Point cloud array of machining guides in robot-based coordinate system {BX i
} I = 1-> n , and the point array of the machining guide of the detection robot-based coordinate system {BX i } i =
The step of converting 1- > n to the point array {CX i } i = 1-> n of the entire machining guide of the polishing robot base coordinate system,
Step 6:
Assuming that i is 1 to n, the machining target is scanned while guiding the local RGB-D composite sensor installed at the terminal of the polishing robot according to the point CX i of the entire machining guide path of the polishing robot-based coordinate system. , The step to acquire the high-precision local point cloud SS 3D-i in the corresponding area of the point cloud S 3D-i corresponding to the machining required sub-target area of the machining required target.
Step 7:
Assuming that i is 1 to n, the high-precision local point cloud SS 3D-i is used as a module to register with the high-precision local point cloud SS 3D-i from the sample point cloud RS 3D scheduled by the registration algorithm. Search point cloud RS 3D-i and high precision local point cloud SS 3D
-I and the corresponding difference between the high-precision local point cloud RS 3D-i Point cloud D
Steps to calculate S 3D-i , analyze and search the difference point cloud DS 3D-i , and acquire high-precision 3D machining guidance information for polishing robots,
including.

好ましくは、ステップ4の最適経路計画アルゴリズムはアニーリング模擬知能最適化アル
ゴリズムとする。
Preferably, the optimal route planning algorithm in step 4 is an annealing simulated intelligence optimization algorithm.

好ましくは、ステップ7のレジストレーションアルゴリズムは正規分布変換に基づく反復
最近接点アルゴリズムとする。
Preferably, the registration algorithm in step 7 is an iterative recent contact algorithm based on a normal distribution transformation.

好ましくは、ステップ7の計算高精度ローカルポイントクラウドSS3D-iと高精度ロ
ーカルポイントクラウドRS3D-iの対応する差異ポイントクラウドDS3D-iの方
法はクイック最近傍探索アルゴリズムとする。
Preferably, the method of the corresponding difference point cloud DS 3D-i between the calculated high-precision local point cloud SS 3D-i and the high-precision local point cloud RS 3D-i in step 7 is a quick nearest neighbor search algorithm.

好ましくは、ステップ3における所定の要加工サブ目標領域の高精度検出パラメータは、
高精度検出の視野の大きさ、検出精度、および検出距離を含む。
Preferably, the high-precision detection parameter of the predetermined machining required sub-target region in step 3 is
Includes field size, detection accuracy, and detection distance for high-precision detection.

オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置1は、
加工目標データ収集モジュール10であって、検出ロボットの端末に設置される全体RG
B-D複合センサーD70によって要加工目標の全体レジストレーションRGB二次元画
面IRGBおよび全体レジストレーションデプスデータIを獲得し、全体レジストレー
ションRGB二次元画面IRGBから要加工目標O10の全体領域SRGBを獲得し、全
体RGB-D複合センサーのキャリブレーション行列によって全体領域SRGBにしたが
って全体レジストレーションデプスデータIから要加工目標O10の全体的3Dポイン
トクラウドデータS3Dを抽出するように構成される加工目標データ収集モジュール10
と、
全体加工案内経路モジュール20であって、全体的3DポイントクラウドデータS3D
分析することにより要加工目標の全体加工案内経路の集合点{AXj=1->nを獲
得するように構成されており、ただし、それぞれAXは要加工目標の全体的3Dポイン
トクラウドデータS3Dにおける全体加工案内経路の点、jは全体加工案内経路の点AX
の番号、jの値の範囲は[1、n]、nは全体加工案内経路の点AXの総数とする全
体加工案内経路モジュール20と、
サブ目標領域分割モジュール30であって、全体加工案内経路の集合点{AXj=1
->nに基づいて、所定の要加工サブ目標領域の高精度検出パラメータによって、要加工
目標の全体的3DポイントクラウドデータS3Dを要加工サブ目標領域のポイントクラウ
ド集{S3D-jj=1->n、に分割するように構成されており、ただし、S3D-
は全体加工案内経路の点AXの要加工サブ目標領域のポイントクラウドに対応するサ
ブ目標領域分割モジュール30と、
最適加工経路計画モジュール40であって、最適経路計画アルゴリズムによって、要加工
サブ目標領域のポイントクラウド集{S3D-jj=1->nを順序付けすることによ
って、最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->nを生
成するように構成されており、ただしそれぞれS3D-iは最適要加工サブ目標領域のポ
イントクラウド配列{S3D-ii=1->n のうちの要加工サブ目標領域のポイン
トクラウド、iは最適加工サブ目標領域のポイントクラウド配列{S3D-ii=1-
>nの番号とし、iとjは一々対応し、iとjの一々対応関係によって全体加工案内経路
の集合点{AXj=1->nを全体加工案内経路の点配列{AXi=1->n
に変換する最適加工経路計画モジュール40と、
加工案内点変換モジュール50であって、iは1~nとすると、要加工サブ目標領域のポ
イントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットベース
座標系の全体加工案内経路の点BXに変換し、そして検出ロボットベース座標系の全体
加工案内経路の点BXを研磨ロボットベース座標系の全体加工案内経路の点CXを変
換することによって、全体加工案内経路の点配列{AXi=1->nを検出ロボット
ベース座標系の加工案内の点配列{BXi=1->nに変換し、検出ロボットベース
座標系の加工案内の点配列{BXi=1->nを研磨ロボットベース座標系の全体加
工案内の点配列{CXi=1->nに変換するように構成される加工案内点変換モジ
ュール50と、
ポイントクラウドの高精度ローカル収集モジュール60であって、iは1~nとすると、
研磨ロボットベース座標系の全体加工案内経路の点CX にしたがって研磨ロボットの
端末に設置されるローカルRGB-D複合センサーを案内しながら要加工目標を走査する
ことによって、要加工目標の要加工サブ目標領域に対応するポイントクラウドS3D-i
の対応する領域の高精度ローカルポイントクラウドSS3D-iを獲得するように構成さ
れるポイントクラウドの高精度ローカル収集モジュール60と、
を含む。
The robot visual guidance device 1 by integrating the overview vision and the local vision is
The entire RG installed in the terminal of the detection robot, which is the processing target data collection module 10.
The overall registration RGB two-dimensional screen I RGB and the overall registration depth data ID of the machining target are acquired by the BD composite sensor D70, and the entire region S of the machining target O10 is acquired from the overall registration RGB two-dimensional screen I RGB . It is configured to acquire RGB and extract the overall 3D point cloud data S 3D of the machining target O10 from the overall registration depth data ID according to the overall area S RGB by the calibration matrix of the overall RGB- D composite sensor. Machining target data collection module 10
When,
The overall machining guide path module 20 is configured to acquire the set point {AX j } j = 1-> n of the overall machining guide path of the machining target by analyzing the overall 3D point cloud data S 3D . However, AX j is the point of the overall machining guide path in the overall 3D point cloud data S 3D of the machining target, and j is the point of the overall machining guide path AX.
The number of j , the range of the value of j is [1, n], and n is the total number of points AX j of the entire machining guide path.
The sub-target area division module 30 is a set point of the entire machining guide path {AX j } j = 1 .
Based on-> n , the overall 3D point cloud data S 3D of the machining target area is converted into the point cloud collection of the machining sub-target area {S 3D-j } j by the high-precision detection parameter of the predetermined machining-required sub-target region. = 1-> n , but it is configured to be divided into S 3D-
j is a sub-target area division module 30 corresponding to a point cloud of a sub-target area requiring machining of AX j , which is a point of the entire machining guide path, and
In the optimum machining route planning module 40, the point cloud collection {S 3D-j } j = 1-> n of the optimum machining sub-target region is ordered by the optimum route planning algorithm to obtain the optimum machining sub-target region. It is configured to generate a point cloud array {S 3D-i } i = 1-> n , where each S 3D-i is a point cloud array {S 3D-i } i = of the optimum machining required sub-target area. 1-> n point cloud of the required machining sub-target area, i is the point cloud array of the optimum machining sub-target area {S 3D-i } i = 1-
> N numbers, i and j correspond one by one, and the set point of the whole machining guide path {AX j } j = 1-> n is the point array of the whole machining guide path {AX i . } I = 1-> n .
Optimal machining path planning module 40 to convert to
In the machining guide point conversion module 50, assuming that i is 1 to n, the point AX i of the entire machining guide path corresponding to the point cloud S3D-i in the machining required sub-target region is detected. By converting the point BX i of the guide path to the point BX i of the whole machining guide path of the detection robot-based coordinate system and converting the point BX i of the whole machining guide path of the detection robot-based coordinate system to the point CX i of the whole machining guide path of the polishing robot-based coordinate system, the whole machining guide path. Point cloud {AX i } i = 1-> n is converted to the point cloud of the processing guide of the detection robot-based coordinate system {BX i } i = 1-> n , and the point cloud of the processing guide of the detection robot-based coordinate system A machining guide point conversion module 50 configured to convert {BX i } i = 1-> n into a point cloud of the entire machining guide of the polishing robot-based coordinate system {CX i } i = 1-> n .
In the high-precision local collection module 60 of the point cloud, assuming that i is 1 to n,
By scanning the machining target while guiding the local RGB-D composite sensor installed in the terminal of the polishing robot according to the point CX i of the entire machining guide path of the polishing robot base coordinate system, the machining target sub of the machining target Point cloud S 3D-i corresponding to the target area
High-precision local point cloud of the point cloud configured to acquire the high-precision local point cloud SS 3D-i of the corresponding area of the point cloud high-precision local collection module 60,
including.

好ましくは、最適経路計画モジュール40の最適経路計画アルゴリズムはアニーリング模
擬知能最適化アルゴリズムとする。
Preferably, the optimum route planning algorithm of the optimum route planning module 40 is an annealing simulated intelligence optimization algorithm.

好ましくは、高精度加工案内信息モジュール70のレジストレーションアルゴリズムは正
規分布変換に基づく反復最近接点アルゴリズムとする。
Preferably, the registration algorithm of the high-precision machining guidance information module 70 is an iterative recent contact algorithm based on a normal distribution transformation.

好ましくは、高精度加工案内信息モジュール70の計算高精度ローカルポイントクラウド
SS3D-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントク
ラウドDS3D-iの方法はクイック最近傍探索アルゴリズムとする。
Preferably, the calculation of the high-precision machining guidance module 70 and the corresponding difference between the high-precision local point cloud SS 3D-i and the high-precision local point cloud RS 3D- i The method of the point cloud DS 3D-i is the quick nearest neighbor search algorithm. do.

好ましくは、サブ目標領域分割モジュール30の所定の要加工サブ目標領域の高精度検出
パラメータは、高精度検出の視野の大きさ、検出精度、検出距離を含む。
Preferably, the high-precision detection parameters of the predetermined machining-required sub-target region of the sub-target region division module 30 include the size of the field of view for high-precision detection, the detection accuracy, and the detection distance.

本発明は、上述したようにオーバービュー視覚およびローカル視覚の一体化による大体積
加工目標のロボットによる高精度視覚ガイド技術方案により、大体積加工目標の高効率加
工における精度要求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加
速し、計算時間を減少することによりリアルタイム処理の要求を満たすことができる。加
えて、ソフトハードウェアの性能要求も低減され、コストおよび開発の難度が下げられる
。高速化かつ大規模の生産モードの要求に適応可能である。
As described above, the present invention satisfies the accuracy requirement in the high-efficiency machining of the large-volume machining target and the calculation amount by the high-precision visual guide technology plan by the robot of the large-volume machining target by integrating the overview vision and the local vision. And the demands of real-time processing can be met by reducing computational complexity, accelerating processing speeds, and reducing computational time. In addition, software hardware performance requirements are reduced, reducing cost and development difficulty. It can be adapted to the demands of high-speed and large-scale production modes.

本発明によるオーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法の第1の実施形態のフローチャートである。It is a flowchart of 1st Embodiment of the robot visual guidance method by integrating the overview vision and the local vision by this invention. 本発明による、オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置の第1の実施形態の機能ブロック図である。FIG. 3 is a functional block diagram of a first embodiment of a robot visual guidance device that integrates overview vision and local vision according to the present invention. 本発明を実施するRGB-D複合センサの概略図である。It is a schematic diagram of the RGB-D composite sensor which carries out this invention. 本発明を実現するロボットの概略図である。It is a schematic diagram of the robot which realizes this invention.

本発明の目的の実現、機能特徴および利点は、実施形態に関連して、図面を参照してさら
に説明する。
The realization, functional features and advantages of the present invention will be further described with reference to the drawings in connection with embodiments.

本明細書に記載された具体的な実施形態は、本発明を説明するためだけに用いられ、本発
明を限定するために用いられないことを理解されたい。
It should be understood that the specific embodiments described herein are used only to illustrate the invention and not to limit the invention.

以下、本発明の様々な実施形態を実施する携帯端末について図面を参照して説明する。後
の説明では、要素を表すための「モジュール」、「構成要素」、または「ユニット」など
のサフィックスは、本発明の説明を有利にするためだけに使用され、それ自体は特定の意
味を持たない。したがって、「モジュール」と「部品」は混合して使用することができる
Hereinafter, mobile terminals that implement various embodiments of the present invention will be described with reference to the drawings. In later discussion, suffixes such as "module", "component", or "unit" to represent an element are used solely to favor the description of the invention and have a particular meaning in their own right. do not have. Therefore, "modules" and "parts" can be mixed and used.

図1は、本発明にかかるオーバービュー視覚およびローカル視覚の一体化によるロボット
視覚案内方法の第1実施例のフローチャット模式図である。図1に示すように、オーバー
ビュー視覚およびローカル視覚の一体化によるロボット視覚案内方法は、以下の工程を含
む。
FIG. 1 is a schematic flow chat diagram of a first embodiment of a robot visual guidance method by integrating overview vision and local vision according to the present invention. As shown in FIG. 1, the robot visual guidance method by integrating the overview vision and the local vision includes the following steps.

S10:加工目標データ収集
即ち、検出ロボットの端末に設置される全体RGB-D複合センサーD70によって要加
工目標の全体レジストレーションRGB二次元画面IRGBおよび全体レジストレーショ
ンデプスデータIを獲得し、全体レジストレーションRGB二次元画面IRGBから要
加工目標O10の全体領域SRGBを獲得し、全体RGB-D複合センサーのキャリブレ
ーション行列によって全体領域SRGBにしたがって全体レジストレーションデプスデー
タIから要加工目標O10の全体的3DポイントクラウドデータS3Dを抽出すること
であって、
図3に示すように、RGB-D複合センサーD70は、検出ロボットのアームD40の頂
端に設置され、RGBカメラD20が、RGB-D複合視覚センサーの中間位置に設置さ
れるものとすることと、カラー画面データは、RGBデータに対する分析を行う速度を保
証するために、コンピュータに伝送される前に圧縮されるとすることと、および、RGB
-D複合視覚センサーの左右両側におけるセンサーD10およびD30はそれぞれ赤外線
の発信と受信を行うとすることであって、まず左側の赤外線発信器D10によって要加工
目標O10に赤外線を発信し、ここで該赤外線は、高ランダム性を保有するため、空間内
における任意の2つの異なる位置で反射されて形成される光斑も異なるため、環境に対し
て立体的「コード」を形成し、次いでに右側の赤外線受信器D30によって視野内の赤外
線画面を収集し、最後に、RGB-D複合視覚センサーD70のキャリブレーション行列
によって該赤外線画面に対して一連の複雑な計算を実行することによって、視野内のデプ
スデータを取得することと、を含むこと。
S10: Processing target data collection, that is, the entire registration RGB two-dimensional screen I RGB and the entire registration depth data ID of the processing target are acquired by the entire RGB- D composite sensor D70 installed in the terminal of the detection robot, and the entire registration is performed. Registration RGB Two-dimensional screen I Obtain the entire area S RGB of the processing target O10 from RGB , and use the calibration matrix of the overall RGB- D composite sensor to obtain the processing target from the entire registration depth data ID according to the entire area S RGB . To extract the overall 3D point cloud data S 3D of O10,
As shown in FIG. 3, the RGB-D composite sensor D70 is installed at the top end of the arm D40 of the detection robot, and the RGB camera D20 is installed at an intermediate position of the RGB-D composite visual sensor. The color screen data is to be compressed before being transmitted to the computer to guarantee the speed of analysis on the RGB data, and RGB.
-Sensors D10 and D30 on both the left and right sides of the D compound visual sensor are supposed to transmit and receive infrared rays, respectively. First, the infrared transmitter D10 on the left side emits infrared rays to the processing target O10, and here the infrared rays are transmitted. Since infrared rays have high randomness, they form a three-dimensional "code" with respect to the environment because the light spots formed by being reflected at any two different positions in the space are also different, and then the infrared rays on the right side. Depth data in the field of view is collected by the receiver D30 and finally by performing a series of complex calculations on the infrared screen by the calibration matrix of the RGB-D composite visual sensor D70. To get and include.

S20:全体加工案内経路
即ち、全体的3DポイントクラウドデータS3Dを分析することにより要加工目標の全体
加工案内経路の集合点{AXj=1->nを獲得することであって、ただし、それぞ
れAXは要加工目標の全体的3DポイントクラウドデータS3Dにおける全体加工案内
経路の点、jは全体加工案内経路の点AXの番号、jの値の範囲は[1,n]、nは全
体加工案内経路の点AXの総数とすることであって、
AXは全体的3DポイントクラウドデータS3Dの座標ベクトルに対応し、全体加工案
内経路の集合点{AXj=1->nは全体的3DポイントクラウドデータS3Dの全
部AXの集合に対応すること。
S20: Overall machining guide path, that is, by analyzing the overall 3D point cloud data S 3D , the set point {AX j } j = 1-> n of the overall machining guide path of the machining required target is obtained. However, AX j is the point of the overall machining guide path in the overall 3D point cloud data S3D of the machining target, j is the number of the point AX j of the overall machining guide path, and the range of the value of j is [1, n]. , N is the total number of points AX j of the entire machining guide path.
AX i corresponds to the coordinate vector of the overall 3D point cloud data S 3D , and the set point of the overall machining guide path {AX j } j = 1-> n is the set of all AX i of the overall 3D point cloud data S 3D . To correspond to.

S30:サブ目標領域分割
即ち、全体加工案内経路の集合点{AXj=1->nに基づいて、所定の要加工サブ
目標領域の高精度検出パラメータによって、要加工目標の全体的3Dポイントクラウドデ
ータS3Dを要加工サブ目標領域のポイントクラウド集{S3D-jj=1->n、に
分割することであって、ただし、S3D-jは全体加工案内経路の点AXの要加工サブ
目標領域のポイントクラウドに対応すること。
S30: Sub-target region division, that is, based on the set point {AX j } j = 1-> n of the entire machining guide path, the overall 3D of the machining target is determined by the high-precision detection parameter of the predetermined machining-required sub-target region. The point cloud data S 3D is divided into the point cloud collection {S 3D-j } j = 1-> n in the sub-target area requiring machining, except that S 3D-j is the point AX of the entire machining guide path. Correspond to the point cloud of the sub-target area requiring machining of j .

S40:最適加工経路計画
即ち、最適経路計画アルゴリズムによって、要加工サブ目標領域のポイントクラウド集{
3D-jj=1->nを順序付けすることによって、最適要加工サブ目標領域のポイ
ントクラウド配列{S3D-ii=1->nを生成することであって、ただしそれぞれ
3D-iは最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->
のうちの要加工サブ目標領域のポイントクラウド、iは最適加工サブ目標領域のポイ
ントクラウド配列{S3D-ii=1->nの番号とし、iとjは一々対応し、iとj
の一々対応関係によって全体加工案内経路の集合点{AXj=1->nを全体加工案
内経路の点配列{AXi=1->n。に変換することであって、
最適経路計画アルゴリズムに基づいて生成する最適要加工サブ目標領域のポイントクラウ
ド配列{S3D-ii=1->nによって、要加工サブ目標領域のポイントクラウドサ
ブ加工領域S3D-jの順序を所望ロボット加工過程に合わせさせ、即ち、研磨ロボット
D50を繰り返しなく要加工目標O20のすべての領域を通過させることによって、研磨
ロボットD50の作業総時間を最短化させること。
S40: Optimal machining path planning, that is, a point cloud collection of sub-target areas requiring machining by the optimal path planning algorithm {
By ordering S 3D-j } j = 1-> n , a point cloud array {S 3D-i } i = 1-> n of the optimum machining required sub-target region is generated, but each S 3D-i is a point cloud array of the optimum sub-target area requiring machining {S 3D-i } i = 1->
Of n , the point cloud of the required machining sub-target area, i is the point cloud array of the optimum machining sub-target area {S 3D-i } i = 1-> n numbers, i and j correspond one by one, and i and j
The set point {AX j } j = 1-> n of the entire machining guide path is set to the point array {AX i } i = 1-> n of the entire machining guide path according to the one-to-one correspondence relationship. To convert to
The order of the point cloud sub-machining area S 3D-j of the machining-required sub-target region by the point cloud array {S 3D-i } i = 1-> n of the optimum machining-required sub-target region generated based on the optimum route planning algorithm. In other words, the total working time of the polishing robot D50 is minimized by allowing the polishing robot D50 to pass through all the regions of the machining target O20 without repeating.

S50:加工案内点変換
即ち、iは1~nとすると、要加工サブ目標領域のポイントクラウドS3D-iに対応す
る全体加工案内経路の点AXを検出ロボットベース座標系の全体加工案内経路の点BX
に変換し、そして検出ロボットベース座標系の全体加工案内経路の点BXを研磨ロボ
ットベース座標系の全体加工案内経路の点CXを変換することによって、全体加工案内
経路の点配列{AXi=1->nを検出ロボットベース座標系の加工案内の点配列{
BXi=1->nに変換し、検出ロボットベース座標系の加工案内の点配列{BX
i=1->nを研磨ロボットベース座標系の全体加工案内の点配列{CXi=1-
>nに変換することであって、
図4に示すように、検出ロボットのアームD40から獲得する要加工サブ目標O30領域
のポイントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットD
40ベース座標系の全体加工案内経路の点BXに変換し、そして検出ロボットD40ベ
ース座標系の全体加工案内経路の点BXを研磨ロボットD50ベース座標系の全体加工
案内経路の点CXに変換し、さらに研磨ロボットD50の端末を案内しながら研磨具D
60に以降の作業を行わせること。
S50: Machining guide point conversion That is, assuming that i is 1 to n, the point AX i of the entire machining guide path corresponding to the point cloud S3D-i of the machining required sub-target region is detected. Point BX
Convert to i , and polish the point BX i of the whole machining guide path of the detection robot-based coordinate system. By converting the point CX i of the whole machining guide path of the robot-based coordinate system, the point array of the whole machining guide path {AX i } i = 1-> n detected Point array of machining guides in the robot-based coordinate system {
BX i } i = 1-> n is converted, and the point array of the processing guide of the detection robot-based coordinate system {BX i
} I = 1-> n is polished Point array of the entire machining guide of the robot-based coordinate system {CX i } i = 1-
To convert to > n
As shown in FIG. 4, the detection robot D detects the point AX i of the entire machining guide path corresponding to the point cloud S 3D-i in the machining required sub-target O30 region acquired from the arm D40 of the detection robot.
40 Converts to the point BX i of the whole machining guide path of the base coordinate system, and converts the point BX i of the whole machining guide path of the detection robot D40 base coordinate system to the point CX i of the whole machining guide path of the polishing robot D50 base coordinate system. The polishing tool D is converted and further guided to the terminal of the polishing robot D50.
Have 60 do the rest of the work.

S60:ポイントクラウドの高精度ローカル収集
即ち、iは1~nとすると、研磨ロボットベース座標系の全体加工案内経路の点CX
にしたがって研磨ロボットの端末に設置されるローカルRGB-D複合センサーを案内し
ながら要加工目標を走査することによって、要加工目標の要加工サブ目標領域に対応する
ポイントクラウドS3D-iの対応する領域の高精度ローカルポイントクラウドSS3D
-iを獲得すること。
S60: High-precision local collection of point cloud, that is, if i is 1 to n, the point CX i of the entire machining guide path of the polishing robot-based coordinate system.
Corresponding to the point cloud S3D-i corresponding to the machining required sub-target area of the machining target by scanning the machining target while guiding the local RGB-D composite sensor installed in the terminal of the polishing robot according to the above. Area high precision local point cloud SS 3D
-Obtain i .

S70:高精度加工案内信息
即ち、iは1~nとすると、レジストレーションアルゴリズムによって高精度ローカルポ
イントクラウドSS3D-iをモジュールとして予定のサンプルポイントクラウドRS
の中から高精度ローカルポイントクラウドSS3D-iにレジストレーションする高精
度ローカルポイントクラウドRS3D-iを検索し、高精度ローカルポイントクラウドS
3D-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラ
ウドDS3D-iを算出し、差異ポイントクラウドDS3D-iを分析検索し、研磨ロボ
ットの高精度3D加工案内信息を獲得すること。
S70: High-precision machining guidance information, that is, if i is 1 to n, the high-precision local point cloud SS 3D-i will be used as a module by the registration algorithm. Sample point cloud RS 3
Search for high-precision local point cloud RS 3D-i that registers with high-precision local point cloud SS 3D-i from D , and high-precision local point cloud S
Calculate the corresponding difference point cloud DS 3D-i between S 3D-i and high-precision local point cloud RS 3D- i, analyze and search the difference point cloud DS 3D-i , and obtain the high-precision 3D machining guidance information of the polishing robot. To acquire.

したがって、上記処理工程は、大きな体積のある加工目標O20に対して適応され、オー
バービュー視覚系統およびローカル視覚系統を一体化させるようにしている。まず検出ロ
ボットD40の視覚系統D70によって加工目標O20の粗位置決めを行うとともに、加
工目標O20の区域分けおよびルート計画を実現する。次いでに、研磨ロボットD50上
における高精度視覚検出系統によって目標を正確的に検出する。そして、研磨ロボットD
50の端末にある工具D60を案内しながら加工目標領域O30に対して高精度かつ高効
率の自動化研磨作業を行う。これによって、大体積加工目標の高効率加工における精度要
求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加速し、計算時間を
減少することによりリアルタイム処理の要求を満たすことができる。加えて、ソフトハー
ドウェアの性能要求も低減され、コストおよび開発の難度が下げられる。高速化かつ大規
模の生産モードの要求に適応可能である。
Therefore, the processing step is applied to the processing target O20 having a large volume so as to integrate the overview visual system and the local visual system. First, the visual system D70 of the detection robot D40 performs rough positioning of the machining target O20, and realizes the area division and route planning of the machining target O20. Next, the target is accurately detected by the high-precision visual detection system on the polishing robot D50. And the polishing robot D
While guiding the tool D60 at the terminal of 50, high-precision and high-efficiency automated polishing work is performed on the machining target area O30. This makes it possible to meet the accuracy requirements for high-efficiency machining of large volume machining targets, as well as meet the requirements for real-time machining by reducing computational complexity and complexity, accelerating processing speeds, and reducing computational time. .. In addition, software hardware performance requirements are reduced, reducing cost and development difficulty. It can be adapted to the demands of high-speed and large-scale production modes.

工程S40の最適経路計画アルゴリズムはアニーリング模擬知能最適化アルゴリズム(s
imulated annealing algorithm,SAA)とする。アニー
リング模擬知能最適化アルゴリズムは確実的、かつ工程実現容易という利点がある。
The optimum route planning algorithm in step S40 is an annealing simulated intelligence optimization algorithm (s).
Simulated annealing algorithm, SAA). The annealing simulated intelligence optimization algorithm has the advantages of being reliable and easy to realize the process.

工程S70のレジストレーションアルゴリズムは正規分布変換に基づく反復最近接点(I
terative Closest Point,ICP)アルゴリズムとする。正規分
布変換に基づく反復最近接点アルゴリズムは確実的、かつ工程実現容易という利点がある
The registration algorithm in step S70 is an iterative recent contact (I) based on normal distribution transformation.
The algorithm is a tertiary Closet Point (ICP) algorithm. The iterative recent contact algorithm based on the normal distribution conversion has the advantages of being reliable and easy to realize the process.

工程S70の計算高精度ローカルポイントクラウドSS3D-iと高精度ローカルポイン
トクラウドRS3D-iの対応する差異ポイントクラウドDS3D-iの方法はクイック
最近傍探索アルゴリズムとする。クイック最近傍探索アルゴリズムは確実的、かつ工程実
現容易という利点がある。
Calculation of step S70 Corresponding difference between high-precision local point cloud SS 3D-i and high-precision local point cloud RS 3D- i The method of point cloud DS 3D-i is a quick nearest neighbor search algorithm. The quick nearest neighbor search algorithm has the advantages of being reliable and easy to realize the process.

工程S30における所定の要加工サブ目標領域の高精度検出パラメータは、高精度検出の
視野の大きさ、検出精度、および検出距離を含む。パラメータは測定取得容易、かつ高確
実性という利点がある。
The high-precision detection parameters of the predetermined machining-required sub-target region in step S30 include the size of the field of view for high-precision detection, the detection accuracy, and the detection distance. The parameters have the advantages of easy measurement and acquisition and high reliability.

本発明は、オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法
の第1実施例中におけるオーバービュー視覚およびローカル視覚の一体化によるロボット
視覚案内方法は、本発明にかかるオーバービュー視覚およびローカル視覚の一体化による
ロボット視覚案内装置の第1実施例で提案されるオーバービュー視覚およびローカル視覚
の一体化によるロボット視覚案内装置によって実現可能である。
In the present invention, the robot visual guidance method by integrating the overview visual and the local visual in the first embodiment of the robot visual guidance method by integrating the overview visual and the local visual is the overview visual and the local according to the present invention. It can be realized by the robot visual guidance device by integrating the overview visual and the local visuals proposed in the first embodiment of the robot visual guidance device by integrating the visuals.

図2に示すように、オーバービュー視覚およびローカル視覚の一体化によるロボット視覚
案内装置の第1実施例で提案されるオーバービュー視覚およびローカル視覚の一体化によ
るロボット視覚案内装置1は、以下のモジュールを含む。
As shown in FIG. 2, the robot visual guidance device 1 by integrating the overview vision and the local vision proposed in the first embodiment of the robot visual guidance device by integrating the overview vision and the local vision has the following modules. including.

加工目標データ収集モジュール10であって、検出ロボットの端末に設置される全体RG
B-D複合センサーD70によって要加工目標の全体レジストレーションRGB二次元画
面IRGBおよび全体レジストレーションデプスデータIを獲得し、全体レジストレー
ションRGB二次元画面IRGBから要加工目標O10の全体領域SRGBを獲得し、全
体RGB-D複合センサーのキャリブレーション行列によって全体領域SRGBにしたが
って全体レジストレーションデプスデータIから要加工目標O10の全体的3Dポイン
トクラウドデータS3Dを抽出するように構成されており、
図3に示すように、RGB-D複合センサーD70は、検出ロボットのアームD40の頂
端に設置され、RGBカメラD20が、RGB-D複合視覚センサーの中間位置に設置さ
れており、カラー画面データは、RGBデータに対する分析を行う速度を保証するために
、コンピュータに伝送される前に圧縮されるように構成され、RGB-D複合視覚センサ
ーの左右両側におけるセンサーD10およびD30はそれぞれ赤外線の発信と受信を行う
ものであって、まず左側の赤外線発信器D10によって要加工目標O10に赤外線を発信
し、ここで該赤外線は、高ランダム性を保有するため、空間内における任意の2つの異な
る位置で反射されて形成される光斑も異なるため、環境に対して立体的「コード」を形成
し、次いでに右側の赤外線受信器D30によって視野内の赤外線画面を収集し、最後に、
RGB-D複合視覚センサーD70のキャリブレーション行列によって該赤外線画面に対
して一連の複雑な計算を実行することによって、視野内のデプスデータを取得するように
構成されるモジュール。
The entire RG installed in the terminal of the detection robot, which is the processing target data collection module 10.
The overall registration RGB two-dimensional screen I RGB and the overall registration depth data ID of the machining target are acquired by the BD composite sensor D70, and the entire region S of the machining target O10 is acquired from the overall registration RGB two-dimensional screen I RGB . It is configured to acquire RGB and extract the overall 3D point cloud data S 3D of the machining target O10 from the overall registration depth data ID according to the overall area S RGB by the calibration matrix of the overall RGB- D composite sensor. And
As shown in FIG. 3, the RGB-D composite sensor D70 is installed at the top end of the arm D40 of the detection robot, the RGB camera D20 is installed at the intermediate position of the RGB-D composite visual sensor, and the color screen data is , Configured to be compressed before being transmitted to the computer to ensure the speed of analysis on RGB data, the sensors D10 and D30 on both the left and right sides of the RGB-D composite visual sensor transmit and receive infrared rays, respectively. First, the infrared transmitter D10 on the left side emits infrared rays to the processing target O10, where the infrared rays have high randomness and are reflected at any two different positions in the space. Since the light spots formed are also different, they form a three-dimensional "code" for the environment, then the infrared receiver D30 on the right collects the infrared screen in the visual field, and finally,
A module configured to acquire depth data in the field of view by performing a series of complex calculations on the infrared screen with the calibration matrix of the RGB-D composite visual sensor D70.

全体加工案内経路モジュール20であって、全体的3DポイントクラウドデータS3D
分析することにより要加工目標の全体加工案内経路の集合点{AXj=1->nを獲
得するように構成されており、ただし、それぞれAXは要加工目標の全体的3Dポイン
トクラウドデータS3Dにおける全体加工案内経路の点、jは全体加工案内経路の点AX
の番号、jの値の範囲は[1、n]、nは全体加工案内経路の点AXの総数とするも
のであって、
AXは全体的3DポイントクラウドデータS3Dの座標ベクトルに対応し、全体加工案
内経路の集合点{AXj=1->nは全体的3DポイントクラウドデータS3Dの全
部AXの集合に対応するモジュール。
The overall machining guide path module 20 is configured to acquire the set point {AX j } j = 1-> n of the overall machining guide path of the machining target by analyzing the overall 3D point cloud data S 3D . However, AX j is the point of the overall machining guide path in the overall 3D point cloud data S 3D of the machining target, and j is the point of the overall machining guide path AX.
The range of the number of j and the value of j is [1, n], and n is the total number of points AX j of the entire machining guide path.
AX i corresponds to the coordinate vector of the overall 3D point cloud data S 3D , and the set point of the overall machining guide path {AX j } j = 1-> n is the set of all AX i of the overall 3D point cloud data S 3D . The corresponding module.

サブ目標領域分割モジュール30であって、全体加工案内経路の集合点{AXj=1
->nに基づいて、所定の要加工サブ目標領域の高精度検出パラメータによって、要加工
目標の全体的3DポイントクラウドデータS3Dを要加工サブ目標領域のポイントクラウ
ド集{S3D-jj=1->n、に分割するように構成されており、ただし、S3D-
は全体加工案内経路の点AXの要加工サブ目標領域のポイントクラウドに対応するモ
ジュール。
The sub-target area division module 30 is a set point of the entire machining guide path {AX j } j = 1 .
Based on-> n , the overall 3D point cloud data S 3D of the machining target area is converted into the point cloud collection of the machining sub-target area {S 3D-j } j by the high-precision detection parameter of the predetermined machining-required sub-target region. = 1-> n , but it is configured to be divided into S 3D-
j is a module corresponding to the point cloud of the point AX j of the entire machining guide path, which is the sub-target area requiring machining.

最適加工経路計画モジュール40であって、最適経路計画アルゴリズムによって、要加工
サブ目標領域のポイントクラウド集{S3D-jj=1->nを順序付けすることによ
って、最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->nを生
成するように構成されており、ただしそれぞれS3D-iは最適要加工サブ目標領域のポ
イントクラウド配列{S3D-ii=1->n のうちの要加工サブ目標領域のポイン
トクラウド、iは最適加工サブ目標領域のポイントクラウド配列{S3D-ii=1-
>nの番号とし、iとjは一々対応し、iとjの一々対応関係によって全体加工案内経路
の集合点{AXj=1->nを全体加工案内経路の点配列{AXi=1->n
に変換するものであって、
最適経路計画アルゴリズムに基づいて生成する最適要加工サブ目標領域のポイントクラウ
ド配列{S3D-ii=1->nによって、要加工サブ目標領域のポイントクラウドサ
ブ加工領域S3D-jの順序を所望ロボット加工過程に合わせさせ、即ち、研磨ロボット
D50を繰り返しなく要加工目標O20のすべての領域を通過させることによって、研磨
ロボットD50の作業総時間を最短化させるモジュール。
In the optimum machining route planning module 40, the point cloud collection {S 3D-j } j = 1-> n of the optimum machining sub-target region is ordered by the optimum route planning algorithm to obtain the optimum machining sub-target region. It is configured to generate a point cloud array {S 3D-i } i = 1-> n , where each S 3D-i is a point cloud array {S 3D-i } i = of the optimum machining required sub-target area. 1-> n point cloud of the required machining sub-target area, i is the point cloud array of the optimum machining sub-target area {S 3D-i } i = 1-
> N numbers, i and j correspond one by one, and the set point of the whole machining guide path {AX j } j = 1-> n is the point array of the whole machining guide path {AX i . } I = 1-> n .
To convert to
The order of the point cloud sub-machining area S 3D-j of the machining-required sub-target region by the point cloud array {S 3D-i } i = 1-> n of the optimum machining-required sub-target region generated based on the optimum route planning algorithm. A module that minimizes the total working time of the polishing robot D50 by matching the above to the desired robot processing process, that is, by passing the polishing robot D50 through all the regions of the machining target O20 without repeating.

加工案内点変換モジュール50であって、iは1~nとすると、要加工サブ目標領域のポ
イントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットベース
座標系の全体加工案内経路の点BXに変換し、そして検出ロボットベース座標系の全体
加工案内経路の点BXを研磨ロボットベース座標系の全体加工案内経路の点CXを変
換することによって、全体加工案内経路の点配列{AXi=1->nを検出ロボット
ベース座標系の加工案内の点配列{BXi=1->nに変換し、検出ロボットベース
座標系の加工案内の点配列{BXi=1->nを研磨ロボットベース座標系の全体加
工案内の点配列{CXi=1->nに変換するように構成されるものであって、
図4に示すように、検出ロボットのアームD40から獲得する要加工サブ目標O30領域
のポイントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットD
40ベース座標系の全体加工案内経路の点BXに変換し、そして検出ロボットD40ベ
ース座標系の全体加工案内経路の点BXを研磨ロボットD50ベース座標系の全体加工
案内経路の点CXに変換し、さらに研磨ロボットD50の端末を案内しながら研磨具D
60に以降の作業を行わせるように構成されるモジュール。
In the machining guide point conversion module 50, assuming that i is 1 to n, the point AX i of the entire machining guide path corresponding to the point cloud S3D-i in the machining required sub-target region is detected. By converting the point BX i of the guide path to the point BX i of the whole machining guide path of the detection robot-based coordinate system and converting the point BX i of the whole machining guide path of the detection robot-based coordinate system to the point CX i of the whole machining guide path of the polishing robot-based coordinate system, the whole machining guide path. Point cloud {AX i } i = 1-> n is converted to the point cloud of the processing guide of the detection robot-based coordinate system {BX i } i = 1-> n , and the point cloud of the processing guide of the detection robot-based coordinate system It is configured to convert {BX i } i = 1-> n into a point cloud {CX i } i = 1-> n of the entire machining guide of the polishing robot-based coordinate system.
As shown in FIG. 4, the detection robot D detects the point AX i of the entire machining guide path corresponding to the point cloud S 3D-i in the machining required sub-target O30 region acquired from the arm D40 of the detection robot.
40 Converts to the point BX i of the whole machining guide path of the base coordinate system, and converts the point BX i of the whole machining guide path of the detection robot D40 base coordinate system to the point CX i of the whole machining guide path of the polishing robot D50 base coordinate system. The polishing tool D is converted and further guided to the terminal of the polishing robot D50.
A module configured to allow 60 to perform subsequent tasks.

ポイントクラウドの高精度ローカル収集モジュール60であって、iは1~nとすると、
研磨ロボットベース座標系の全体加工案内経路の点CX にしたがって研磨ロボットの
端末に設置されるローカルRGB-D複合センサーを案内しながら要加工目標を走査する
ことによって、要加工目標の要加工サブ目標領域に対応するポイントクラウドS3D-i
の対応する領域の高精度ローカルポイントクラウドSS3D-iを獲得するように構成さ
れるモジュール。
In the high-precision local collection module 60 of the point cloud, assuming that i is 1 to n,
By scanning the machining target while guiding the local RGB-D composite sensor installed in the terminal of the polishing robot according to the point CX i of the entire machining guide path of the polishing robot base coordinate system, the machining target sub of the machining target Point cloud S 3D-i corresponding to the target area
A module configured to acquire the high precision local point cloud SS 3D-i in the corresponding area of.

高精度加工案内信息モジュール70であって、iは1~nとすると、レジストレーション
アルゴリズムによって高精度ローカルポイントクラウドSS3D-iをモジュールとして
予定のサンプルポイントクラウドRS3Dの中から高精度ローカルポイントクラウドSS
3D-iにレジストレーションする高精度ローカルポイントクラウドRS3D-iを検索
し、高精度ローカルポイントクラウドSS3D-iと高精度ローカルポイントクラウドR
3D-iの対応する差異ポイントクラウドDS3D-iを算出し、差異ポイントクラウ
ドDS3D-iを分析検索し、研磨ロボットの高精度3D加工案内信息を獲得するように
構成されるモジュール。
したがって、上記処理モジュールは、大きな体積のある加工目標O20に対して適応され
、オーバービュー視覚系統およびローカル視覚系統を一体化させるようにしている。まず
検出ロボットD40の視覚系統D70によって加工目標O20の粗位置決めを行うととも
に、加工目標O20の区域分けおよびルート計画を実現する。次いでに、研磨ロボットD
50上における高精度視覚検出系統によって目標を正確的に検出する。そして、研磨ロボ
ットD50の端末にある工具D60を案内しながら加工目標領域O30に対して高精度か
つ高効率の自動化研磨作業を行う。これによって、大体積加工目標の高効率加工における
精度要求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加速し、計算
時間を減少することによりリアルタイム処理の要求を満たすことができる。加えて、ソフ
トハードウェアの性能要求も低減され、コストおよび開発の難度が下げられる。高速化か
つ大規模の生産モードの要求に適応可能である。
If i is 1 to n in the high-precision machining guidance information module 70, the high-precision local point cloud SS 3D-i will be used as a module by the registration algorithm. High-precision local point cloud from the sample point cloud RS 3D . SS
Search for high-precision local point cloud RS 3D- i that registers with 3D-i, and high-precision local point cloud SS 3D-i and high-precision local point cloud R.
A module configured to calculate the corresponding difference point cloud DS 3D- i of S 3D-i , analyze and search the difference point cloud DS 3D-i , and acquire the high-precision 3D machining guidance information of the polishing robot.
Therefore, the processing module is adapted for the machining target O20 with a large volume to integrate the overview visual system and the local visual system. First, the visual system D70 of the detection robot D40 performs rough positioning of the machining target O20, and realizes the area division and route planning of the machining target O20. Next, the polishing robot D
The target is accurately detected by the high-precision visual detection system on the 50. Then, while guiding the tool D60 at the terminal of the polishing robot D50, highly accurate and highly efficient automated polishing work is performed on the machining target area O30. This makes it possible to meet the accuracy requirements for high-efficiency machining of large volume machining targets, as well as meet the requirements for real-time machining by reducing computational complexity and complexity, accelerating processing speeds, and reducing computational time. .. In addition, software hardware performance requirements are reduced, reducing cost and development difficulty. It can be adapted to the demands of high-speed and large-scale production modes.

最適経路計画モジュール40の最適経路計画アルゴリズムはアニーリング模擬知能最適化
アルゴリズム(simulated annealing algorithm,SAA
)とする。アニーリング模擬知能最適化アルゴリズムは確実的、かつ工程実現容易という
利点がある。
The optimum route planning algorithm of the optimum route planning module 40 is simulated annealing algorithm (SAA).
). The annealing simulated intelligence optimization algorithm has the advantages of being reliable and easy to realize the process.

高精度加工案内信息モジュール70のレジストレーションアルゴリズムは正規分布変換に
基づく反復最近接点アルゴリズム(Iterative Closest Point,
ICP)とする。正規分布変換に基づく反復最近接点アルゴリズムは確実的、かつ工程実
現容易という利点がある。
The registration algorithm of the high-precision machining guidance information module 70 is an iterative recent contact algorithm (Iterative Closest Point, based on normal distribution transformation).
ICP). The iterative recent contact algorithm based on the normal distribution conversion has the advantages of being reliable and easy to realize the process.

高精度加工案内信息モジュール70の計算高精度ローカルポイントクラウドSS3D-i
と高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドDS
D-iの方法はクイック最近傍探索アルゴリズムとする。クイック最近傍探索アルゴリズ
ムは確実的、かつ工程実現容易という利点がある。
High-precision machining guidance Calculation of information module 70 High-precision local point cloud SS 3D-i
And high precision local point cloud RS 3D-i corresponding difference point cloud DS 3
The method of Di is a quick nearest neighbor search algorithm. The quick nearest neighbor search algorithm has the advantages of being reliable and easy to realize the process.

サブ目標領域分割モジュール30の所定の要加工サブ目標領域の高精度検出パラメータは
、高精度検出の視野の大きさ、検出精度、検出距離を含む。パラメータは測定取得容易、
かつ高確実性という利点がある。
The high-precision detection parameters of the predetermined machining-required sub-target region of the sub-target region division module 30 include the size of the field of view for high-precision detection, the detection accuracy, and the detection distance. Parameters are easy to measure and obtain,
Moreover, it has the advantage of high reliability.

説明が必要なのは、本明細書では、用語「含む」、「包含」または他の任意の変形体は、
一連の要素を含むプロセス、方法、物品または装置が、それらの要素だけでなく、明示的
に列挙されていない他の要素を含むように意図されていることであり、または、このよう
なプロセス、方法、装置、物や装置に固有の要素を含む。これ以上の制限がない場合、「
一つの…を含む」という語句によって定義される要素は、その要素を含むプロセス、方法
、物品、または装置に他の同じ要素が存在することを排除しない。
It is necessary to explain that, in the present specification, the terms "include", "include" or any other variant are used.
A process, method, article or appliance that comprises a set of elements is intended to include not only those elements, but also other elements that are not explicitly listed, or such a process,. Includes elements specific to methods, devices, objects and devices. If there are no more restrictions,
An element defined by the phrase "contains one ..." does not preclude the existence of the same other element in the process, method, article, or device that contains that element.

上記の本発明の実施の番号は、説明のためだけに、実施の形態の優劣を表すものではない
The above-mentioned number of the embodiment of the present invention does not represent the superiority or inferiority of the embodiment only for the sake of explanation.

上記の本発明の各モジュールユニットまたは各ステップは、任意で、計算装置が実行可能
なプログラムコードで実現できることを当業者は理解するだろう。図示または説明のステ
ップは、こことは異なる順序で実行されてもよく、またはそれぞれの集積回路モジュール
に作成されてもよく、またはそれらのうちの複数のモジュールまたはステップを単一の集
積回路モジュールに作成して実現されてもよい。このように、本発明は、任意の特定のハ
ードウェアとソフトウェアの組み合わせに限定されない。
Those skilled in the art will appreciate that each module unit or each step of the invention described above can optionally be implemented by an executable program code. The steps illustrated or described may be performed in a different order than here, or may be created for each integrated circuit module, or multiple modules or steps of them may be combined into a single integrated circuit module. It may be created and realized. As such, the invention is not limited to any particular hardware and software combination.

以上の実施形態の説明により、上述の実施形態の方法は、ソフトウェアプラスに必要な汎
用ハードウェアプラットフォームによって実現されてもよく、ハードウェアによってもも
ちろん可能であるが、多くの場合、前者はより良い実施形態であることが明らかになった
。このような理解に基づいて、本発明の技術的な態様は、本質的には、または既存の技術
に寄与する部分を、1台の端末装置(携帯電話、コンピュータ、サーバ、エアコンなど)
を可能にするためのいくつかの命令を含む、1つの記憶媒体に格納するソフトウェア製品
として具現化することができる。または、ネットワークデバイスなど)は、本発明の様々
な実施形態による方法を実行する。
According to the above description of the embodiment, the method of the above-described embodiment may be realized by the general-purpose hardware platform required for Software Plus, and of course it is possible by the hardware, but in many cases, the former is better. It became clear that it was an embodiment. Based on this understanding, the technical aspects of the present invention essentially or contribute to existing technology in a single terminal device (mobile phone, computer, server, air conditioner, etc.).
It can be embodied as a software product stored in one storage medium, including several instructions to enable. Alternatively, the network device, etc.) implements the methods according to various embodiments of the present invention.

以上は本発明の好適な実施形態にすぎず、本発明の特許範囲を限定するものではなく、本
発明の明細書及び図面の内容を利用してなされた等価構造又は等価フロー変換、又は直接
または間接的に他の関連技術分野に適用されるものであり、全ては本発明の特許保護範囲
に含まれる。
The above is merely a preferred embodiment of the present invention, and does not limit the scope of the patent of the present invention. It is indirectly applied to other related technical fields, and all of them are included in the claims of the present invention.

Claims (10)

オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法であって、
ステップ1:
検出ロボットの端末に設置される全体RGB-D複合センサーD70によって要加工目標
の全体レジストレーションRGB二次元画面IRGBおよび全体レジストレーションデプ
スデータIを獲得し、全体レジストレーションRGB二次元画面IRGBから要加工目
標O10の全体領域SRGBを獲得し、全体RGB-D複合センサーのキャリブレーショ
ン行列によって全体領域SRGBにしたがって全体レジストレーションデプスデータI
から要加工目標O10の全体的3DポイントクラウドデータS3Dを抽出するステップと

ステップ2:
全体的3DポイントクラウドデータS3Dを分析することにより要加工目標の全体加工案
内経路の集合点{AXj=1->nを獲得することであって、ただし、それぞれAX
は要加工目標の全体的3DポイントクラウドデータS3Dにおける全体加工案内経路の
点、jは全体加工案内経路の点AXの番号、jの値の範囲は[1,n]、nは全体加工
案内経路の点AXの総数とするステップと、
ステップ3:
全体加工案内経路の集合点{AXj=1->nに基づいて、所定の要加工サブ目標領
域の高精度検出パラメータによって、要加工目標の全体的3DポイントクラウドデータS
3Dを要加工サブ目標領域のポイントクラウド集{S3D-jj=1->n、に分割す
ることであって、ただし、S3D-jは全体加工案内経路の点AXの要加工サブ目標領
域のポイントクラウドに対応するステップと、
ステップ4:
最適経路計画アルゴリズムによって、要加工サブ目標領域のポイントクラウド集{S3D
-jj=1->nを順序付けすることによって、最適要加工サブ目標領域のポイントク
ラウド配列{S3D-ii=1->nを生成することであって、ただしそれぞれS3D
-iは最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->n
うちの要加工サブ目標領域のポイントクラウド、iは最適加工サブ目標領域のポイントク
ラウド配列{S3D-ii=1->nの番号とし、iとjは一々対応し、iとjの一々
対応関係によって全体加工案内経路の集合点{AXj=1->nを全体加工案内経路
の点配列{AXi=1->n。に変換するステップと、
ステップ5:
iは1~nとすると、要加工サブ目標領域のポイントクラウドS3D-iに対応する全体
加工案内経路の点AXを検出ロボットベース座標系の全体加工案内経路の点BXに変
換し、そして検出ロボットベース座標系の全体加工案内経路の点BXを研磨ロボットベ
ース座標系の全体加工案内経路の点CXを変換することによって、全体加工案内経路の
点配列{AXi=1->nを検出ロボットベース座標系の加工案内の点配列{BX
i=1->nに変換し、検出ロボットベース座標系の加工案内の点配列{BXi=
1->nを研磨ロボットベース座標系の全体加工案内の点配列{CXi=1->n
変換するステップと、
ステップ6:
iは1~nとすると、研磨ロボットベース座標系の全体加工案内経路の点CX にした
がって研磨ロボットの端末に設置されるローカルRGB-D複合センサーを案内しながら
要加工目標を走査することによって、要加工目標の要加工サブ目標領域に対応するポイン
トクラウドS3D-iの対応する領域の高精度ローカルポイントクラウドSS3D-i
獲得するステップと、
ステップ7:
iは1~nとすると、レジストレーションアルゴリズムによって高精度ローカルポイント
クラウドSS3D-iをモジュールとして予定のサンプルポイントクラウドRS3Dの中
から高精度ローカルポイントクラウドSS3D-iにレジストレーションする高精度ロー
カルポイントクラウドRS3D-iを検索し、高精度ローカルポイントクラウドSS3D
-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドD
3D-iを算出し、差異ポイントクラウドDS3D-iを分析検索し、研磨ロボットの
高精度3D加工案内信息を獲得するステップと、
を含むことを特徴とする、オーバービュー視覚およびローカル視覚の一体化によるロボッ
ト視覚案内方法。
It is a robot visual guidance method that integrates overview vision and local vision.
Step 1:
The whole RGB- D composite sensor D70 installed in the terminal of the detection robot acquires the whole registration RGB two-dimensional screen I RGB and the whole registration depth data ID of the machining target, and the whole registration RGB two-dimensional screen I RGB . Obtain the entire region S RGB of the processing target O10 from, and use the calibration matrix of the overall RGB- D composite sensor to obtain the overall registration depth data ID according to the overall region S RGB .
Steps to extract the overall 3D point cloud data S 3D of the processing target O10 from
Step 2:
Overall 3D point cloud data S By analyzing 3D , the set point {AX j } j = 1-> n of the overall machining guide path of the machining target is to be obtained, but AX respectively.
j is the overall 3D point cloud data of the machining target, the point of the overall machining guide path in S3D , j is the point of the overall machining guide path AX j number, the range of the value of j is [1, n], and n is the whole. Steps to make the total number of points AX j of the machining guide path, and
Step 3:
Overall 3D point cloud data S of the machining target by the high-precision detection parameter of the predetermined machining sub-target region based on the set point {AX j } j = 1-> n of the entire machining guide path.
3D is divided into a point cloud collection {S 3D-j } j = 1-> n , which is a sub-target area requiring machining, except that S 3D-j requires machining of the point AX j of the entire machining guide path. Steps corresponding to the point cloud of the sub-target area,
Step 4:
Point cloud collection of sub-target areas requiring machining { S3D by optimal route planning algorithm
-J } By ordering j = 1-> n , a point cloud array {S 3D-i } i = 1-> n of the optimum machining required sub-target region is generated, but S 3D respectively.
-I is the point cloud array of the optimum machining sub-target area {S 3D-i } i = 1-> n point cloud of the machining required sub-target area, i is the point cloud array of the optimum machining sub-target area {S 3D-i } i = 1-> n numbers, i and j correspond one by one, and the set point {AX j } j = 1-> n of the whole machining guide path is totally machined according to the one-to-one correspondence relationship between i and j. Point cloud array of guide path {AX i } i = 1-> n . And the steps to convert to
Step 5:
Assuming that i is 1 to n, the point AX i of the entire machining guide path corresponding to the point cloud S3D-i of the machining required sub-target region is converted into the point BX i of the overall machining guide path of the detection robot-based coordinate system. Then, the point BX i of the whole machining guide path of the detection robot-based coordinate system is polished. By converting the point CX i of the whole machining guide path of the robot-based coordinate system, the point array of the whole machining guide path {AX i } i = 1 -> Detect n Point cloud array of machining guides in robot-based coordinate system {BX i
} I = 1-> n , and the point array of the machining guide of the detection robot-based coordinate system {BX i } i =
The step of converting 1- > n to the point array {CX i } i = 1-> n of the entire machining guide of the polishing robot base coordinate system,
Step 6:
Assuming that i is 1 to n, the machining target is scanned while guiding the local RGB-D composite sensor installed at the terminal of the polishing robot according to the point CX i of the entire machining guide path of the polishing robot-based coordinate system. , The step to acquire the high-precision local point cloud SS 3D-i in the corresponding area of the point cloud S 3D-i corresponding to the machining required sub-target area of the machining required target.
Step 7:
Assuming that i is 1 to n, the high-precision local point cloud SS 3D-i is used as a module to register with the high-precision local point cloud SS 3D-i from the sample point cloud RS 3D scheduled by the registration algorithm. Search point cloud RS 3D-i and high precision local point cloud SS 3D
-I and the corresponding difference between the high-precision local point cloud RS 3D-i Point cloud D
Steps to calculate S 3D-i , analyze and search the difference point cloud DS 3D-i , and acquire high-precision 3D machining guidance information for polishing robots,
A robot visual guidance method that integrates overview vision and local vision, characterized by including.
ステップ4の最適経路計画アルゴリズムはアニーリング模擬知能最適化アルゴリズムとす
る、ことを特徴とする請求項1に記載のオーバービュー視覚およびローカル視覚の一体化
によるロボット視覚案内方法。
The robot visual guidance method by integrating overview vision and local vision according to claim 1, wherein the optimum route planning algorithm in step 4 is an annealing simulated intelligence optimization algorithm.
ステップ7のレジストレーションアルゴリズムは正規分布変換に基づく反復最近接点アル
ゴリズムとする、ことを特徴とする請求項1に記載のオーバービュー視覚およびローカル
視覚の一体化によるロボット視覚案内方法。
The robot visual guidance method by integrating overview vision and local vision according to claim 1, wherein the registration algorithm of step 7 is an iterative recent contact algorithm based on a normal distribution transformation.
ステップ7の計算高精度ローカルポイントクラウドSS3D-iと高精度ローカルポイン
トクラウドRS3D-iの対応する差異ポイントクラウドDS3D-iの方法はクイック
最近傍探索アルゴリズムとする、ことを特徴とする請求項1に記載のオーバービュー視覚
およびローカル視覚の一体化によるロボット視覚案内方法。
The calculation of step 7 Corresponding difference between the high-precision local point cloud SS 3D-i and the high-precision local point cloud RS 3D- i The method of the point cloud DS 3D-i is a quick nearest neighbor search algorithm. Item 1. The robot visual guidance method by integrating the overview vision and the local vision according to Item 1.
ステップ3における所定の要加工サブ目標領域の高精度検出パラメータは、高精度検出の
視野の大きさ、検出精度、および検出距離を含む、ことを特徴とする請求項1に記載のオ
ーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法。
The overview vision and the overview visual according to claim 1, wherein the high-precision detection parameter of the predetermined machining-required sub-target region in step 3 includes the size of the field of view for high-precision detection, the detection accuracy, and the detection distance. Robot visual guidance method by integrating local vision.
オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置1であって

加工目標データ収集モジュール10であって、検出ロボットの端末に設置される全体RG
B-D複合センサーD70によって要加工目標の全体レジストレーションRGB二次元画
面IRGBおよび全体レジストレーションデプスデータIを獲得し、全体レジストレー
ションRGB二次元画面IRGBから要加工目標O10の全体領域SRGBを獲得し、全
体RGB-D複合センサーのキャリブレーション行列によって全体領域SRGBにしたが
って全体レジストレーションデプスデータIから要加工目標O10の全体的3Dポイン
トクラウドデータS3Dを抽出するように構成される加工目標データ収集モジュール10
と、
全体加工案内経路モジュール20であって、全体的3DポイントクラウドデータS3D
分析することにより要加工目標の全体加工案内経路の集合点{AXj=1->nを獲
得するように構成されており、ただし、それぞれAXは要加工目標の全体的3Dポイン
トクラウドデータS3Dにおける全体加工案内経路の点、jは全体加工案内経路の点AX
の番号、jの値の範囲は[1、n]、nは全体加工案内経路の点AXの総数とする全
体加工案内経路モジュール20と、
サブ目標領域分割モジュール30であって、全体加工案内経路の集合点{AXj=1
->nに基づいて、所定の要加工サブ目標領域の高精度検出パラメータによって、要加工
目標の全体的3DポイントクラウドデータS3Dを要加工サブ目標領域のポイントクラウ
ド集{S3D-jj=1->n、に分割するように構成されており、ただし、S3D-
は全体加工案内経路の点AXの要加工サブ目標領域のポイントクラウドに対応するサ
ブ目標領域分割モジュール30と、
最適加工経路計画モジュール40であって、最適経路計画アルゴリズムによって、要加工
サブ目標領域のポイントクラウド集{S3D-jj=1->nを順序付けすることによ
って、最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->nを生
成するように構成されており、ただしそれぞれS3D-iは最適要加工サブ目標領域のポ
イントクラウド配列{S3D-ii=1->n のうちの要加工サブ目標領域のポイン
トクラウド、iは最適加工サブ目標領域のポイントクラウド配列{S3D-ii=1-
>nの番号とし、iとjは一々対応し、iとjの一々対応関係によって全体加工案内経路
の集合点{AXj=1->nを全体加工案内経路の点配列{AXi=1->n
に変換する最適加工経路計画モジュール40と、
加工案内点変換モジュール50であって、iは1~nとすると、要加工サブ目標領域のポ
イントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットベース
座標系の全体加工案内経路の点BXに変換し、そして検出ロボットベース座標系の全体
加工案内経路の点BXを研磨ロボットベース座標系の全体加工案内経路の点CXを変
換することによって、全体加工案内経路の点配列{AXi=1->nを検出ロボット
ベース座標系の加工案内の点配列{BXi=1->nに変換し、検出ロボットベース
座標系の加工案内の点配列{BXi=1->nを研磨ロボットベース座標系の全体加
工案内の点配列{CXi=1->nに変換するように構成される加工案内点変換モジ
ュール50と、
ポイントクラウドの高精度ローカル収集モジュール60であって、iは1~nとすると、
研磨ロボットベース座標系の全体加工案内経路の点CX にしたがって研磨ロボットの
端末に設置されるローカルRGB-D複合センサーを案内しながら要加工目標を走査する
ことによって、要加工目標の要加工サブ目標領域に対応するポイントクラウドS3D-i
の対応する領域の高精度ローカルポイントクラウドSS3D-iを獲得するように構成さ
れるポイントクラウドの高精度ローカル収集モジュール60と、
を含むことを特徴とする、オーバービュー視覚およびローカル視覚の一体化によるロボッ
ト視覚案内装置。
A robot visual guidance device 1 that integrates overview vision and local vision.
The entire RG installed in the terminal of the detection robot, which is the processing target data collection module 10.
The overall registration RGB two-dimensional screen I RGB and the overall registration depth data ID of the machining target are acquired by the BD composite sensor D70, and the entire region S of the machining target O10 is acquired from the overall registration RGB two-dimensional screen I RGB . It is configured to acquire RGB and extract the overall 3D point cloud data S 3D of the machining target O10 from the overall registration depth data ID according to the overall area S RGB by the calibration matrix of the overall RGB- D composite sensor. Machining target data collection module 10
When,
The overall machining guide path module 20 is configured to acquire the set point {AX j } j = 1-> n of the overall machining guide path of the machining target by analyzing the overall 3D point cloud data S 3D . However, AX j is the point of the overall machining guide path in the overall 3D point cloud data S 3D of the machining target, and j is the point of the overall machining guide path AX.
The number of j , the range of the value of j is [1, n], and n is the total number of points AX j of the entire machining guide path.
The sub-target area division module 30 is a set point of the entire machining guide path {AX j } j = 1 .
Based on-> n , the overall 3D point cloud data S 3D of the machining target area is converted into the point cloud collection of the machining sub-target area {S 3D-j } j by the high-precision detection parameter of the predetermined machining-required sub-target region. = 1-> n , but it is configured to be divided into S 3D-
j is a sub-target area division module 30 corresponding to a point cloud of a sub-target area requiring machining of AX j , which is a point of the entire machining guide path, and
In the optimum machining route planning module 40, the point cloud collection {S 3D-j } j = 1-> n of the optimum machining sub-target region is ordered by the optimum route planning algorithm to obtain the optimum machining sub-target region. It is configured to generate a point cloud array {S 3D-i } i = 1-> n , where each S 3D-i is a point cloud array {S 3D-i } i = of the optimum machining required sub-target area. 1-> n point cloud of the required machining sub-target area, i is the point cloud array of the optimum machining sub-target area {S 3D-i } i = 1-
> N numbers, i and j correspond one by one, and the set point of the whole machining guide path {AX j } j = 1-> n is the point array of the whole machining guide path {AX i . } I = 1-> n .
Optimal machining path planning module 40 to convert to
In the machining guide point conversion module 50, assuming that i is 1 to n, the point AX i of the entire machining guide path corresponding to the point cloud S3D-i in the machining required sub-target region is detected. By converting the point BX i of the guide path to the point BX i of the whole machining guide path of the detection robot-based coordinate system and converting the point BX i of the whole machining guide path of the detection robot-based coordinate system to the point CX i of the whole machining guide path of the polishing robot-based coordinate system, the whole machining guide path. Point cloud {AX i } i = 1-> n is converted to the point cloud of the processing guide of the detection robot-based coordinate system {BX i } i = 1-> n , and the point cloud of the processing guide of the detection robot-based coordinate system A machining guide point conversion module 50 configured to convert {BX i } i = 1-> n into a point cloud of the entire machining guide of the polishing robot-based coordinate system {CX i } i = 1-> n .
In the high-precision local collection module 60 of the point cloud, assuming that i is 1 to n,
By scanning the machining target while guiding the local RGB-D composite sensor installed in the terminal of the polishing robot according to the point CX i of the entire machining guide path of the polishing robot base coordinate system, the machining target sub of the machining target Point cloud S 3D-i corresponding to the target area
High-precision local point cloud of the point cloud configured to acquire the high-precision local point cloud SS 3D-i of the corresponding area of the point cloud high-precision local collection module 60,
A robotic visual guidance device with integrated overview vision and local vision, characterized by including.
最適経路計画モジュール40の最適経路計画アルゴリズムはアニーリング模擬知能最適化
アルゴリズムとする、ことを特徴とする、請求項6に記載のオーバービュー視覚およびロ
ーカル視覚の一体化によるロボット視覚案内装置。
The robot visual guidance device by integrating the overview vision and the local vision according to claim 6, wherein the optimum route planning algorithm of the optimum route planning module 40 is an annealing simulated intelligence optimization algorithm.
高精度加工案内信息モジュール70のレジストレーションアルゴリズムは正規分布変換に
基づく反復最近接点アルゴリズムとすることを特徴とする、請求項6に記載のオーバービ
ュー視覚およびローカル視覚の一体化によるロボット視覚案内装置。
The robot visual guidance device by integrating the overview vision and the local vision according to claim 6, wherein the registration algorithm of the high-precision machining guidance information module 70 is an iterative recent contact algorithm based on a normal distribution transformation.
高精度加工案内信息モジュール70の計算高精度ローカルポイントクラウドSS3D-i
と高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドDS
D-iの方法はクイック最近傍探索アルゴリズムとする、ことを特徴とする、請求項6に
記載のオーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置。
High-precision machining guidance Calculation of information module 70 High-precision local point cloud SS 3D-i
And high precision local point cloud RS 3D-i corresponding difference point cloud DS 3
The robot visual guidance device according to claim 6, wherein the method of Di is a quick nearest neighbor search algorithm, which integrates the overview vision and the local vision.
サブ目標領域分割モジュール30の所定の要加工サブ目標領域の高精度検出パラメータは
、高精度検出の視野の大きさ、検出精度、検出距離を含む、ことを特徴とする、請求項6
に記載のオーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置。
6. The high-precision detection parameter of a predetermined sub-target region requiring machining of the sub-target region division module 30 includes the size of the field of view for high-precision detection, the detection accuracy, and the detection distance, claim 6.
A robot visual guidance device that integrates overview vision and local vision as described in.
JP2021537213A 2019-12-02 2020-07-10 Robot Visual Guidance Method and Apparatus by Integrating Overview Vision and Local Vision Active JP7212236B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911215508.2A CN111216124B (en) 2019-12-02 2019-12-02 Robot vision guiding method and device based on integration of global vision and local vision
CN201911215508.2 2019-12-02
PCT/CN2020/101337 WO2021109575A1 (en) 2019-12-02 2020-07-10 Global vision and local vision integrated robot vision guidance method and device

Publications (2)

Publication Number Publication Date
JP2022516852A true JP2022516852A (en) 2022-03-03
JP7212236B2 JP7212236B2 (en) 2023-01-25

Family

ID=70830739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537213A Active JP7212236B2 (en) 2019-12-02 2020-07-10 Robot Visual Guidance Method and Apparatus by Integrating Overview Vision and Local Vision

Country Status (3)

Country Link
JP (1) JP7212236B2 (en)
CN (1) CN111216124B (en)
WO (1) WO2021109575A1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111216124B (en) * 2019-12-02 2020-11-06 广东技术师范大学 Robot vision guiding method and device based on integration of global vision and local vision
CN113386052A (en) * 2021-05-12 2021-09-14 华南理工大学 Hull abrasive water jet paint and rust removing equipment and implementation method thereof
JP2023047141A (en) * 2021-09-24 2023-04-05 村田機械株式会社 Workpiece position determination device, laser processing device, and workpiece position determination method
CN114888794B (en) * 2022-04-24 2024-01-30 天津工程机械研究院有限公司 Robot man-machine interaction running path marking method and device
CN115138527B (en) * 2022-06-22 2023-12-26 深圳市双翌光电科技有限公司 Rapid processing path generation method through visual guidance
CN115026396A (en) * 2022-06-27 2022-09-09 天津杰福德自动化技术有限公司 Arc striking and extinguishing plate cutting system based on 3D vision guidance
CN115159149B (en) * 2022-07-28 2024-05-24 深圳市罗宾汉智能装备有限公司 Visual positioning-based material taking and unloading method and device
CN115592501A (en) * 2022-10-11 2023-01-13 中国第一汽车股份有限公司(Cn) Top cover brazing self-adaptive polishing method based on 3D line laser vision guidance
CN116652951B (en) * 2023-06-08 2024-04-05 广州鑫帅机电设备有限公司 Method and device for positioning robot vision in unstructured large working space
CN116468764A (en) * 2023-06-20 2023-07-21 南京理工大学 Multi-view industrial point cloud high-precision registration system based on super-point space guidance

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107127755A (en) * 2017-05-12 2017-09-05 华南理工大学 A kind of real-time acquisition device and robot polishing method for planning track of three-dimensional point cloud
CN107598918A (en) * 2017-08-16 2018-01-19 广东工业大学 Surface grinding process automatic programming method and device based on milling robot
CN108297105A (en) * 2018-01-17 2018-07-20 广东工业大学 A kind of mechanical arm task level time optimal trajectory planning method
CN108326853A (en) * 2018-01-17 2018-07-27 广东工业大学 A kind of milling robot system
CN108994844A (en) * 2018-09-26 2018-12-14 广东工业大学 A kind of scaling method and device of sanding operation arm trick relationship
US20190122425A1 (en) * 2017-10-24 2019-04-25 Lowe's Companies, Inc. Robot motion planning for photogrammetry
CN110103118A (en) * 2019-06-18 2019-08-09 苏州大学 A kind of paths planning method of milling robot, device, system and storage medium

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103862341A (en) * 2014-04-01 2014-06-18 重庆大学 Casting polishing device
CN106931969A (en) * 2015-12-29 2017-07-07 黑龙江恒和沙科技开发有限公司 A kind of robot three-dimensional navigation map generation method based on Kinect
US10150213B1 (en) * 2016-07-27 2018-12-11 X Development Llc Guide placement by a robotic device
US20180348730A1 (en) * 2017-06-01 2018-12-06 X Development Llc Automatic Generation of Toolpaths
CN108858193B (en) * 2018-07-06 2020-07-03 清华大学深圳研究生院 Mechanical arm grabbing method and system
CN109102547A (en) * 2018-07-20 2018-12-28 上海节卡机器人科技有限公司 Robot based on object identification deep learning model grabs position and orientation estimation method
CN109108942B (en) * 2018-09-11 2021-03-02 武汉科技大学 Mechanical arm motion control method and system based on visual real-time teaching and adaptive DMPS
CN109509215B (en) * 2018-10-30 2022-04-01 浙江大学宁波理工学院 KinFu point cloud auxiliary registration device and method thereof
CN109960402B (en) * 2018-12-18 2022-04-01 重庆邮电大学 Virtual and real registration method based on point cloud and visual feature fusion
CN111216124B (en) * 2019-12-02 2020-11-06 广东技术师范大学 Robot vision guiding method and device based on integration of global vision and local vision

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107127755A (en) * 2017-05-12 2017-09-05 华南理工大学 A kind of real-time acquisition device and robot polishing method for planning track of three-dimensional point cloud
CN107598918A (en) * 2017-08-16 2018-01-19 广东工业大学 Surface grinding process automatic programming method and device based on milling robot
US20190122425A1 (en) * 2017-10-24 2019-04-25 Lowe's Companies, Inc. Robot motion planning for photogrammetry
CN108297105A (en) * 2018-01-17 2018-07-20 广东工业大学 A kind of mechanical arm task level time optimal trajectory planning method
CN108326853A (en) * 2018-01-17 2018-07-27 广东工业大学 A kind of milling robot system
CN108994844A (en) * 2018-09-26 2018-12-14 广东工业大学 A kind of scaling method and device of sanding operation arm trick relationship
CN110103118A (en) * 2019-06-18 2019-08-09 苏州大学 A kind of paths planning method of milling robot, device, system and storage medium

Also Published As

Publication number Publication date
WO2021109575A1 (en) 2021-06-10
CN111216124A (en) 2020-06-02
JP7212236B2 (en) 2023-01-25
CN111216124B (en) 2020-11-06

Similar Documents

Publication Publication Date Title
JP2022516852A (en) Robot visual guidance method and device by integrating overview vision and local vision
CN105729468B (en) A kind of robotic workstation based on the enhancing of more depth cameras
CN109373898B (en) Complex part pose estimation system and method based on three-dimensional measurement point cloud
CN109927036A (en) A kind of method and system of 3D vision guidance manipulator crawl
CN109612390B (en) Large-size workpiece automatic measuring system based on machine vision
CN105234943A (en) Industrial robot demonstration device and method based on visual recognition
CN110202573B (en) Full-automatic hand-eye calibration and working plane calibration method and device
CN109947097B (en) Robot positioning method based on vision and laser fusion and navigation application
CN111028340B (en) Three-dimensional reconstruction method, device, equipment and system in precise assembly
CN110281231B (en) Three-dimensional vision grabbing method for mobile robot for unmanned FDM additive manufacturing
CN113674345B (en) Two-dimensional pixel-level three-dimensional positioning system and positioning method
CN105217324A (en) A kind of novel de-stacking method and system
CN108876852B (en) Online real-time object identification and positioning method based on 3D vision
CN110136211A (en) A kind of workpiece localization method and system based on active binocular vision technology
CN107545247B (en) Stereo cognition method based on binocular recognition
CN116958146B (en) Acquisition method and device of 3D point cloud and electronic device
WO2021103558A1 (en) Rgb-d data fusion-based robot vision guiding method and apparatus
CN112288815B (en) Target die position measurement method, system, storage medium and device
KR20110121343A (en) Method for measuring 3d pose information using virtual plane information
CN106271235A (en) Welding bead localization method based on machine vision and device
Cheng et al. Integration of 3D stereo vision measurements in industrial robot applications
Yao et al. High precision tuning device of microwave cavity filter based on hand-eye coordination
CN111612071B (en) Deep learning method for generating depth map from curved surface part shadow map
CN113752258A (en) Machine vision-based shaft hole centering guide method for workpiece assembly process
CN112815851A (en) Hand-eye calibration method, device, system, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221223

R150 Certificate of patent or registration of utility model

Ref document number: 7212236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150