JP7212236B2 - オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置 - Google Patents

オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置 Download PDF

Info

Publication number
JP7212236B2
JP7212236B2 JP2021537213A JP2021537213A JP7212236B2 JP 7212236 B2 JP7212236 B2 JP 7212236B2 JP 2021537213 A JP2021537213 A JP 2021537213A JP 2021537213 A JP2021537213 A JP 2021537213A JP 7212236 B2 JP7212236 B2 JP 7212236B2
Authority
JP
Japan
Prior art keywords
point
point cloud
machining
target
overall
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021537213A
Other languages
English (en)
Other versions
JP2022516852A (ja
Inventor
鄭振興
▲てぃお▼世普
秦磊
Original Assignee
広東技術師範大学
広東匯博机器人技術有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 広東技術師範大学, 広東匯博机器人技術有限公司 filed Critical 広東技術師範大学
Publication of JP2022516852A publication Critical patent/JP2022516852A/ja
Application granted granted Critical
Publication of JP7212236B2 publication Critical patent/JP7212236B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Description

本発明は、ロボットの視覚領域に関し、特にオーバービュー視覚およびローカル視覚の一
体化によるロボット視覚案内方法及び装置に関する。
強国の根幹をなす自動化装備(ロボットシステム)は、高速化、インテリジェント化の方
向に進まなければなりません。自動化装置の知能化の重要な手段は、マシンに「目」とこ
の目に合わせられる「脳」を装着することである。この「目」は単眼カメラ、両眼カメラ
、多目カメラ、三次元スキャナー、RGB-D(RGB+Depth)センサーでもいいです。自動化装
備のスマート化のコア作業内容は、この「目」で取得した画像データを分析(例えば画像
認識)し、分析結果に基づいてロボットシステムを特定の加工または組み立て操作に導く
ことを含む。加工技術が進歩するにつれて、加工が必要な部品の表面はますます複雑にな
り、加工の精度が要求されるようになりました。そのため、部品の表面処理(研ぎ捨て作
業)は不可欠な重要な過程です。加工部品に対する表面処理の自動化とインテリジェント
化を実現するためには、上記の「目」を用いて加工対象部品の画像を取得し、上記「脳」
を用いて分析処理を行い、加工部品に対する空間的な正確な位置決めを実現し、目標を精
密に検出します。さらに、ロボットの端を研ぐ道具を導いて加工部品の加工目標に対して
作業を行います。従来は検出視野の大きいロボットビジョンガイドを採用していますが、
検出精度は通常高くなく、加工精度が要求できません。高精度の空間位置決め情報を得る
ためには、ロボットビジョンガイドはより小さな検出視野を設定する必要がありますので
、大きな加工目標についてはブロック分け検出が必要ですので、計算の複雑さが高く、計
算量も多く必要です。計算時間が長く、システム全体の作業効率は高くないです。また、
上述の「脳」のソフト・ハードウェアの性能に対する要求が高く、処理のリアルタイム性
を達成することが難しく、現在の高速化の工業生産過程における必要性に合わない。この
ため、本発明は、大域的な視覚と局所的な視覚を融合させた大体積加工目標の研磨トスロ
ボットの高精度な視覚誘導方法と装置を開示し、大体積加工目標に対して高効率な加工が
可能な精度要求を満足できる。
本発明は、オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法
及び装置を提供し、既存の検出視野の大きいロボット視覚案内を採用するため、検出精度
は通常高くなく、加工精度の要求を達成できないが、高精度な空間測位情報を得るために
は、ロボットビジョンの設定が必要であるため、大きな加工目標に対してはブロック分け
検出が必要であり、複雑度が高い計算となる。そして、大きな計算量が必要で、計算時間
が長く、全体のシステムの作業効率が高くなく、ソフトハードウェアの性能要求が高く、
処理のリアルタイム性を達成するのが難しく、現在の高速化された工業生産過程で必要と
されるこれらの技術問題を解決する。
上記の問題を解決するために、オーバービュー視覚およびローカル視覚の一体化によるロ
ボット視覚案内方法は、
ステップ1:
検出ロボットの端末に設置される全体RGB-D複合センサーD70によって要加工目標
の全体レジストレーションRGB二次元画面IRGBおよび全体レジストレーションデプ
スデータIを獲得し、全体レジストレーションRGB二次元画面IRGBから要加工目
標O10の全体領域SRGBを獲得し、全体RGB-D複合センサーのキャリブレーショ
ン行列によって全体領域SRGBにしたがって全体レジストレーションデプスデータI
から要加工目標O10の全体的3DポイントクラウドデータS3Dを抽出するステップと

ステップ2:
全体的3DポイントクラウドデータS3Dを分析することにより要加工目標の全体加工案
内経路の集合点{AXj=1->nを獲得することであって、ただし、それぞれAX
は要加工目標の全体的3DポイントクラウドデータS3Dにおける全体加工案内経路の
点、jは全体加工案内経路の点AXの番号、jの値の範囲は[1,n]、nは全体加工
案内経路の点AXの総数とするステップと、
ステップ3:
全体加工案内経路の集合点{AXj=1->nに基づいて、所定の要加工サブ目標領
域の高精度検出パラメータによって、要加工目標の全体的3DポイントクラウドデータS
3Dを要加工サブ目標領域のポイントクラウド集{S3D-jj=1->n、に分割す
ることであって、ただし、S3D-jは全体加工案内経路の点AXの要加工サブ目標領
域のポイントクラウドに対応するステップと、
ステップ4:
最適経路計画アルゴリズムによって、要加工サブ目標領域のポイントクラウド集{S3D
-jj=1->nを順序付けすることによって、最適要加工サブ目標領域のポイントク
ラウド配列{S3D-ii=1->nを生成することであって、ただしそれぞれS3D
-iは最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->n
うちの要加工サブ目標領域のポイントクラウド、iは最適加工サブ目標領域のポイントク
ラウド配列{S3D-ii=1->nの番号とし、iとjは一々対応し、iとjの一々
対応関係によって全体加工案内経路の集合点{AXj=1->nを全体加工案内経路
の点配列{AXi=1->n。に変換するステップと、
ステップ5:
iは1~nとすると、要加工サブ目標領域のポイントクラウドS3D-iに対応する全体
加工案内経路の点AXを検出ロボットベース座標系の全体加工案内経路の点BXに変
換し、そして検出ロボットベース座標系の全体加工案内経路の点BXを研磨ロボットベ
ース座標系の全体加工案内経路の点CXを変換することによって、全体加工案内経路の
点配列{AXi=1->nを検出ロボットベース座標系の加工案内の点配列{BX
i=1->nに変換し、検出ロボットベース座標系の加工案内の点配列{BXi=
1->nを研磨ロボットベース座標系の全体加工案内の点配列{CXi=1->n
変換するステップと、
ステップ6:
iは1~nとすると、研磨ロボットベース座標系の全体加工案内経路の点CX にした
がって研磨ロボットの端末に設置されるローカルRGB-D複合センサーを案内しながら
要加工目標を走査することによって、要加工目標の要加工サブ目標領域に対応するポイン
トクラウドS3D-iの対応する領域の高精度ローカルポイントクラウドSS3D-i
獲得するステップと、
ステップ7:
iは1~nとすると、レジストレーションアルゴリズムによって高精度ローカルポイント
クラウドSS3D-iをモジュールとして予定のサンプルポイントクラウドRS3Dの中
から高精度ローカルポイントクラウドSS3D-iにレジストレーションする高精度ロー
カルポイントクラウドRS3D-iを検索し、高精度ローカルポイントクラウドSS3D
-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドD
3D-iを算出し、差異ポイントクラウドDS3D-iを分析検索し、研磨ロボットの
高精度3D加工案内信息を獲得するステップと、
を含む。
好ましくは、ステップ4の最適経路計画アルゴリズムはアニーリング模擬知能最適化アル
ゴリズムとする。
好ましくは、ステップ7のレジストレーションアルゴリズムは正規分布変換に基づく反復
最近接点アルゴリズムとする。
好ましくは、ステップ7の計算高精度ローカルポイントクラウドSS3D-iと高精度ロ
ーカルポイントクラウドRS3D-iの対応する差異ポイントクラウドDS3D-iの方
法はクイック最近傍探索アルゴリズムとする。
好ましくは、ステップ3における所定の要加工サブ目標領域の高精度検出パラメータは、
高精度検出の視野の大きさ、検出精度、および検出距離を含む。
オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置1は、
加工目標データ収集モジュール10であって、検出ロボットの端末に設置される全体RG
B-D複合センサーD70によって要加工目標の全体レジストレーションRGB二次元画
面IRGBおよび全体レジストレーションデプスデータIを獲得し、全体レジストレー
ションRGB二次元画面IRGBから要加工目標O10の全体領域SRGBを獲得し、全
体RGB-D複合センサーのキャリブレーション行列によって全体領域SRGBにしたが
って全体レジストレーションデプスデータIから要加工目標O10の全体的3Dポイン
トクラウドデータS3Dを抽出するように構成される加工目標データ収集モジュール10
と、
全体加工案内経路モジュール20であって、全体的3DポイントクラウドデータS3D
分析することにより要加工目標の全体加工案内経路の集合点{AXj=1->nを獲
得するように構成されており、ただし、それぞれAXは要加工目標の全体的3Dポイン
トクラウドデータS3Dにおける全体加工案内経路の点、jは全体加工案内経路の点AX
の番号、jの値の範囲は[1、n]、nは全体加工案内経路の点AXの総数とする全
体加工案内経路モジュール20と、
サブ目標領域分割モジュール30であって、全体加工案内経路の集合点{AXj=1
->nに基づいて、所定の要加工サブ目標領域の高精度検出パラメータによって、要加工
目標の全体的3DポイントクラウドデータS3Dを要加工サブ目標領域のポイントクラウ
ド集{S3D-jj=1->n、に分割するように構成されており、ただし、S3D-
は全体加工案内経路の点AXの要加工サブ目標領域のポイントクラウドに対応するサ
ブ目標領域分割モジュール30と、
最適加工経路計画モジュール40であって、最適経路計画アルゴリズムによって、要加工
サブ目標領域のポイントクラウド集{S3D-jj=1->nを順序付けすることによ
って、最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->nを生
成するように構成されており、ただしそれぞれS3D-iは最適要加工サブ目標領域のポ
イントクラウド配列{S3D-ii=1->n のうちの要加工サブ目標領域のポイン
トクラウド、iは最適加工サブ目標領域のポイントクラウド配列{S3D-ii=1-
>nの番号とし、iとjは一々対応し、iとjの一々対応関係によって全体加工案内経路
の集合点{AXj=1->nを全体加工案内経路の点配列{AXi=1->n
に変換する最適加工経路計画モジュール40と、
加工案内点変換モジュール50であって、iは1~nとすると、要加工サブ目標領域のポ
イントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットベース
座標系の全体加工案内経路の点BXに変換し、そして検出ロボットベース座標系の全体
加工案内経路の点BXを研磨ロボットベース座標系の全体加工案内経路の点CXを変
換することによって、全体加工案内経路の点配列{AXi=1->nを検出ロボット
ベース座標系の加工案内の点配列{BXi=1->nに変換し、検出ロボットベース
座標系の加工案内の点配列{BXi=1->nを研磨ロボットベース座標系の全体加
工案内の点配列{CXi=1->nに変換するように構成される加工案内点変換モジ
ュール50と、
ポイントクラウドの高精度ローカル収集モジュール60であって、iは1~nとすると、
研磨ロボットベース座標系の全体加工案内経路の点CX にしたがって研磨ロボットの
端末に設置されるローカルRGB-D複合センサーを案内しながら要加工目標を走査する
ことによって、要加工目標の要加工サブ目標領域に対応するポイントクラウドS3D-i
の対応する領域の高精度ローカルポイントクラウドSS3D-iを獲得するように構成さ
れるポイントクラウドの高精度ローカル収集モジュール60と、
を含む。
好ましくは、最適経路計画モジュール40の最適経路計画アルゴリズムはアニーリング模
擬知能最適化アルゴリズムとする。
好ましくは、高精度加工案内信息モジュール70のレジストレーションアルゴリズムは正
規分布変換に基づく反復最近接点アルゴリズムとする。
好ましくは、高精度加工案内信息モジュール70の計算高精度ローカルポイントクラウド
SS3D-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントク
ラウドDS3D-iの方法はクイック最近傍探索アルゴリズムとする。
好ましくは、サブ目標領域分割モジュール30の所定の要加工サブ目標領域の高精度検出
パラメータは、高精度検出の視野の大きさ、検出精度、検出距離を含む。
本発明は、上述したようにオーバービュー視覚およびローカル視覚の一体化による大体積
加工目標のロボットによる高精度視覚ガイド技術方案により、大体積加工目標の高効率加
工における精度要求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加
速し、計算時間を減少することによりリアルタイム処理の要求を満たすことができる。加
えて、ソフトハードウェアの性能要求も低減され、コストおよび開発の難度が下げられる
。高速化かつ大規模の生産モードの要求に適応可能である。
本発明によるオーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法の第1の実施形態のフローチャートである。 本発明による、オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置の第1の実施形態の機能ブロック図である。 本発明を実施するRGB-D複合センサの概略図である。 本発明を実現するロボットの概略図である。
本発明の目的の実現、機能特徴および利点は、実施形態に関連して、図面を参照してさら
に説明する。
本明細書に記載された具体的な実施形態は、本発明を説明するためだけに用いられ、本発
明を限定するために用いられないことを理解されたい。
以下、本発明の様々な実施形態を実施する携帯端末について図面を参照して説明する。後
の説明では、要素を表すための「モジュール」、「構成要素」、または「ユニット」など
のサフィックスは、本発明の説明を有利にするためだけに使用され、それ自体は特定の意
味を持たない。したがって、「モジュール」と「部品」は混合して使用することができる
図1は、本発明にかかるオーバービュー視覚およびローカル視覚の一体化によるロボット
視覚案内方法の第1実施例のフローチャット模式図である。図1に示すように、オーバー
ビュー視覚およびローカル視覚の一体化によるロボット視覚案内方法は、以下の工程を含
む。
S10:加工目標データ収集
即ち、検出ロボットの端末に設置される全体RGB-D複合センサーD70によって要加
工目標の全体レジストレーションRGB二次元画面IRGBおよび全体レジストレーショ
ンデプスデータIを獲得し、全体レジストレーションRGB二次元画面IRGBから要
加工目標O10の全体領域SRGBを獲得し、全体RGB-D複合センサーのキャリブレ
ーション行列によって全体領域SRGBにしたがって全体レジストレーションデプスデー
タIから要加工目標O10の全体的3DポイントクラウドデータS3Dを抽出すること
であって、
図3に示すように、RGB-D複合センサーD70は、検出ロボットのアームD40の頂
端に設置され、RGBカメラD20が、RGB-D複合視覚センサーの中間位置に設置さ
れるものとすることと、カラー画面データは、RGBデータに対する分析を行う速度を保
証するために、コンピュータに伝送される前に圧縮されるとすることと、および、RGB
-D複合視覚センサーの左右両側におけるセンサーD10およびD30はそれぞれ赤外線
の発信と受信を行うとすることであって、まず左側の赤外線発信器D10によって要加工
目標O10に赤外線を発信し、ここで該赤外線は、高ランダム性を保有するため、空間内
における任意の2つの異なる位置で反射されて形成される光斑も異なるため、環境に対し
て立体的「コード」を形成し、次いでに右側の赤外線受信器D30によって視野内の赤外
線画面を収集し、最後に、RGB-D複合視覚センサーD70のキャリブレーション行列
によって該赤外線画面に対して一連の複雑な計算を実行することによって、視野内のデプ
スデータを取得することと、を含むこと。
S20:全体加工案内経路
即ち、全体的3DポイントクラウドデータS3Dを分析することにより要加工目標の全体
加工案内経路の集合点{AXj=1->nを獲得することであって、ただし、それぞ
れAXは要加工目標の全体的3DポイントクラウドデータS3Dにおける全体加工案内
経路の点、jは全体加工案内経路の点AXの番号、jの値の範囲は[1,n]、nは全
体加工案内経路の点AXの総数とすることであって、
AXは全体的3DポイントクラウドデータS3Dの座標ベクトルに対応し、全体加工案
内経路の集合点{AXj=1->nは全体的3DポイントクラウドデータS3Dの全
部AXの集合に対応すること。
S30:サブ目標領域分割
即ち、全体加工案内経路の集合点{AXj=1->nに基づいて、所定の要加工サブ
目標領域の高精度検出パラメータによって、要加工目標の全体的3Dポイントクラウドデ
ータS3Dを要加工サブ目標領域のポイントクラウド集{S3D-jj=1->n、に
分割することであって、ただし、S3D-jは全体加工案内経路の点AXの要加工サブ
目標領域のポイントクラウドに対応すること。
S40:最適加工経路計画
即ち、最適経路計画アルゴリズムによって、要加工サブ目標領域のポイントクラウド集{
3D-jj=1->nを順序付けすることによって、最適要加工サブ目標領域のポイ
ントクラウド配列{S3D-ii=1->nを生成することであって、ただしそれぞれ
3D-iは最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->
のうちの要加工サブ目標領域のポイントクラウド、iは最適加工サブ目標領域のポイ
ントクラウド配列{S3D-ii=1->nの番号とし、iとjは一々対応し、iとj
の一々対応関係によって全体加工案内経路の集合点{AXj=1->nを全体加工案
内経路の点配列{AXi=1->n。に変換することであって、
最適経路計画アルゴリズムに基づいて生成する最適要加工サブ目標領域のポイントクラウ
ド配列{S3D-ii=1->nによって、要加工サブ目標領域のポイントクラウドサ
ブ加工領域S3D-jの順序を所望ロボット加工過程に合わせさせ、即ち、研磨ロボット
D50を繰り返しなく要加工目標O20のすべての領域を通過させることによって、研磨
ロボットD50の作業総時間を最短化させること。
S50:加工案内点変換
即ち、iは1~nとすると、要加工サブ目標領域のポイントクラウドS3D-iに対応す
る全体加工案内経路の点AXを検出ロボットベース座標系の全体加工案内経路の点BX
に変換し、そして検出ロボットベース座標系の全体加工案内経路の点BXを研磨ロボ
ットベース座標系の全体加工案内経路の点CXを変換することによって、全体加工案内
経路の点配列{AXi=1->nを検出ロボットベース座標系の加工案内の点配列{
BXi=1->nに変換し、検出ロボットベース座標系の加工案内の点配列{BX
i=1->nを研磨ロボットベース座標系の全体加工案内の点配列{CXi=1-
>nに変換することであって、
図4に示すように、検出ロボットのアームD40から獲得する要加工サブ目標O30領域
のポイントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットD
40ベース座標系の全体加工案内経路の点BXに変換し、そして検出ロボットD40ベ
ース座標系の全体加工案内経路の点BXを研磨ロボットD50ベース座標系の全体加工
案内経路の点CXに変換し、さらに研磨ロボットD50の端末を案内しながら研磨具D
60に以降の作業を行わせること。
S60:ポイントクラウドの高精度ローカル収集
即ち、iは1~nとすると、研磨ロボットベース座標系の全体加工案内経路の点CX
にしたがって研磨ロボットの端末に設置されるローカルRGB-D複合センサーを案内し
ながら要加工目標を走査することによって、要加工目標の要加工サブ目標領域に対応する
ポイントクラウドS3D-iの対応する領域の高精度ローカルポイントクラウドSS3D
-iを獲得すること。
S70:高精度加工案内信息
即ち、iは1~nとすると、レジストレーションアルゴリズムによって高精度ローカルポ
イントクラウドSS3D-iをモジュールとして予定のサンプルポイントクラウドRS
の中から高精度ローカルポイントクラウドSS3D-iにレジストレーションする高精
度ローカルポイントクラウドRS3D-iを検索し、高精度ローカルポイントクラウドS
3D-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラ
ウドDS3D-iを算出し、差異ポイントクラウドDS3D-iを分析検索し、研磨ロボ
ットの高精度3D加工案内信息を獲得すること。
したがって、上記処理工程は、大きな体積のある加工目標O20に対して適応され、オー
バービュー視覚系統およびローカル視覚系統を一体化させるようにしている。まず検出ロ
ボットD40の視覚系統D70によって加工目標O20の粗位置決めを行うとともに、加
工目標O20の区域分けおよびルート計画を実現する。次いでに、研磨ロボットD50上
における高精度視覚検出系統によって目標を正確的に検出する。そして、研磨ロボットD
50の端末にある工具D60を案内しながら加工目標領域O30に対して高精度かつ高効
率の自動化研磨作業を行う。これによって、大体積加工目標の高効率加工における精度要
求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加速し、計算時間を
減少することによりリアルタイム処理の要求を満たすことができる。加えて、ソフトハー
ドウェアの性能要求も低減され、コストおよび開発の難度が下げられる。高速化かつ大規
模の生産モードの要求に適応可能である。
工程S40の最適経路計画アルゴリズムはアニーリング模擬知能最適化アルゴリズム(s
imulated annealing algorithm,SAA)とする。アニー
リング模擬知能最適化アルゴリズムは確実的、かつ工程実現容易という利点がある。
工程S70のレジストレーションアルゴリズムは正規分布変換に基づく反復最近接点(I
terative Closest Point,ICP)アルゴリズムとする。正規分
布変換に基づく反復最近接点アルゴリズムは確実的、かつ工程実現容易という利点がある
工程S70の計算高精度ローカルポイントクラウドSS3D-iと高精度ローカルポイン
トクラウドRS3D-iの対応する差異ポイントクラウドDS3D-iの方法はクイック
最近傍探索アルゴリズムとする。クイック最近傍探索アルゴリズムは確実的、かつ工程実
現容易という利点がある。
工程S30における所定の要加工サブ目標領域の高精度検出パラメータは、高精度検出の
視野の大きさ、検出精度、および検出距離を含む。パラメータは測定取得容易、かつ高確
実性という利点がある。
本発明は、オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法
の第1実施例中におけるオーバービュー視覚およびローカル視覚の一体化によるロボット
視覚案内方法は、本発明にかかるオーバービュー視覚およびローカル視覚の一体化による
ロボット視覚案内装置の第1実施例で提案されるオーバービュー視覚およびローカル視覚
の一体化によるロボット視覚案内装置によって実現可能である。
図2に示すように、オーバービュー視覚およびローカル視覚の一体化によるロボット視覚
案内装置の第1実施例で提案されるオーバービュー視覚およびローカル視覚の一体化によ
るロボット視覚案内装置1は、以下のモジュールを含む。
加工目標データ収集モジュール10であって、検出ロボットの端末に設置される全体RG
B-D複合センサーD70によって要加工目標の全体レジストレーションRGB二次元画
面IRGBおよび全体レジストレーションデプスデータIを獲得し、全体レジストレー
ションRGB二次元画面IRGBから要加工目標O10の全体領域SRGBを獲得し、全
体RGB-D複合センサーのキャリブレーション行列によって全体領域SRGBにしたが
って全体レジストレーションデプスデータIから要加工目標O10の全体的3Dポイン
トクラウドデータS3Dを抽出するように構成されており、
図3に示すように、RGB-D複合センサーD70は、検出ロボットのアームD40の頂
端に設置され、RGBカメラD20が、RGB-D複合視覚センサーの中間位置に設置さ
れており、カラー画面データは、RGBデータに対する分析を行う速度を保証するために
、コンピュータに伝送される前に圧縮されるように構成され、RGB-D複合視覚センサ
ーの左右両側におけるセンサーD10およびD30はそれぞれ赤外線の発信と受信を行う
ものであって、まず左側の赤外線発信器D10によって要加工目標O10に赤外線を発信
し、ここで該赤外線は、高ランダム性を保有するため、空間内における任意の2つの異な
る位置で反射されて形成される光斑も異なるため、環境に対して立体的「コード」を形成
し、次いでに右側の赤外線受信器D30によって視野内の赤外線画面を収集し、最後に、
RGB-D複合視覚センサーD70のキャリブレーション行列によって該赤外線画面に対
して一連の複雑な計算を実行することによって、視野内のデプスデータを取得するように
構成されるモジュール。
全体加工案内経路モジュール20であって、全体的3DポイントクラウドデータS3D
分析することにより要加工目標の全体加工案内経路の集合点{AXj=1->nを獲
得するように構成されており、ただし、それぞれAXは要加工目標の全体的3Dポイン
トクラウドデータS3Dにおける全体加工案内経路の点、jは全体加工案内経路の点AX
の番号、jの値の範囲は[1、n]、nは全体加工案内経路の点AXの総数とするも
のであって、
AXは全体的3DポイントクラウドデータS3Dの座標ベクトルに対応し、全体加工案
内経路の集合点{AXj=1->nは全体的3DポイントクラウドデータS3Dの全
部AXの集合に対応するモジュール。
サブ目標領域分割モジュール30であって、全体加工案内経路の集合点{AXj=1
->nに基づいて、所定の要加工サブ目標領域の高精度検出パラメータによって、要加工
目標の全体的3DポイントクラウドデータS3Dを要加工サブ目標領域のポイントクラウ
ド集{S3D-jj=1->n、に分割するように構成されており、ただし、S3D-
は全体加工案内経路の点AXの要加工サブ目標領域のポイントクラウドに対応するモ
ジュール。
最適加工経路計画モジュール40であって、最適経路計画アルゴリズムによって、要加工
サブ目標領域のポイントクラウド集{S3D-jj=1->nを順序付けすることによ
って、最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->nを生
成するように構成されており、ただしそれぞれS3D-iは最適要加工サブ目標領域のポ
イントクラウド配列{S3D-ii=1->n のうちの要加工サブ目標領域のポイン
トクラウド、iは最適加工サブ目標領域のポイントクラウド配列{S3D-ii=1-
>nの番号とし、iとjは一々対応し、iとjの一々対応関係によって全体加工案内経路
の集合点{AXj=1->nを全体加工案内経路の点配列{AXi=1->n
に変換するものであって、
最適経路計画アルゴリズムに基づいて生成する最適要加工サブ目標領域のポイントクラウ
ド配列{S3D-ii=1->nによって、要加工サブ目標領域のポイントクラウドサ
ブ加工領域S3D-jの順序を所望ロボット加工過程に合わせさせ、即ち、研磨ロボット
D50を繰り返しなく要加工目標O20のすべての領域を通過させることによって、研磨
ロボットD50の作業総時間を最短化させるモジュール。
加工案内点変換モジュール50であって、iは1~nとすると、要加工サブ目標領域のポ
イントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットベース
座標系の全体加工案内経路の点BXに変換し、そして検出ロボットベース座標系の全体
加工案内経路の点BXを研磨ロボットベース座標系の全体加工案内経路の点CXを変
換することによって、全体加工案内経路の点配列{AXi=1->nを検出ロボット
ベース座標系の加工案内の点配列{BXi=1->nに変換し、検出ロボットベース
座標系の加工案内の点配列{BXi=1->nを研磨ロボットベース座標系の全体加
工案内の点配列{CXi=1->nに変換するように構成されるものであって、
図4に示すように、検出ロボットのアームD40から獲得する要加工サブ目標O30領域
のポイントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットD
40ベース座標系の全体加工案内経路の点BXに変換し、そして検出ロボットD40ベ
ース座標系の全体加工案内経路の点BXを研磨ロボットD50ベース座標系の全体加工
案内経路の点CXに変換し、さらに研磨ロボットD50の端末を案内しながら研磨具D
60に以降の作業を行わせるように構成されるモジュール。
ポイントクラウドの高精度ローカル収集モジュール60であって、iは1~nとすると、
研磨ロボットベース座標系の全体加工案内経路の点CX にしたがって研磨ロボットの
端末に設置されるローカルRGB-D複合センサーを案内しながら要加工目標を走査する
ことによって、要加工目標の要加工サブ目標領域に対応するポイントクラウドS3D-i
の対応する領域の高精度ローカルポイントクラウドSS3D-iを獲得するように構成さ
れるモジュール。
高精度加工案内信息モジュール70であって、iは1~nとすると、レジストレーション
アルゴリズムによって高精度ローカルポイントクラウドSS3D-iをモジュールとして
予定のサンプルポイントクラウドRS3Dの中から高精度ローカルポイントクラウドSS
3D-iにレジストレーションする高精度ローカルポイントクラウドRS3D-iを検索
し、高精度ローカルポイントクラウドSS3D-iと高精度ローカルポイントクラウドR
3D-iの対応する差異ポイントクラウドDS3D-iを算出し、差異ポイントクラウ
ドDS3D-iを分析検索し、研磨ロボットの高精度3D加工案内信息を獲得するように
構成されるモジュール。
したがって、上記処理モジュールは、大きな体積のある加工目標O20に対して適応され
、オーバービュー視覚系統およびローカル視覚系統を一体化させるようにしている。まず
検出ロボットD40の視覚系統D70によって加工目標O20の粗位置決めを行うととも
に、加工目標O20の区域分けおよびルート計画を実現する。次いでに、研磨ロボットD
50上における高精度視覚検出系統によって目標を正確的に検出する。そして、研磨ロボ
ットD50の端末にある工具D60を案内しながら加工目標領域O30に対して高精度か
つ高効率の自動化研磨作業を行う。これによって、大体積加工目標の高効率加工における
精度要求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加速し、計算
時間を減少することによりリアルタイム処理の要求を満たすことができる。加えて、ソフ
トハードウェアの性能要求も低減され、コストおよび開発の難度が下げられる。高速化か
つ大規模の生産モードの要求に適応可能である。
最適経路計画モジュール40の最適経路計画アルゴリズムはアニーリング模擬知能最適化
アルゴリズム(simulated annealing algorithm,SAA
)とする。アニーリング模擬知能最適化アルゴリズムは確実的、かつ工程実現容易という
利点がある。
高精度加工案内信息モジュール70のレジストレーションアルゴリズムは正規分布変換に
基づく反復最近接点アルゴリズム(Iterative Closest Point,
ICP)とする。正規分布変換に基づく反復最近接点アルゴリズムは確実的、かつ工程実
現容易という利点がある。
高精度加工案内信息モジュール70の計算高精度ローカルポイントクラウドSS3D-i
と高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドDS
D-iの方法はクイック最近傍探索アルゴリズムとする。クイック最近傍探索アルゴリズ
ムは確実的、かつ工程実現容易という利点がある。
サブ目標領域分割モジュール30の所定の要加工サブ目標領域の高精度検出パラメータは
、高精度検出の視野の大きさ、検出精度、検出距離を含む。パラメータは測定取得容易、
かつ高確実性という利点がある。
説明が必要なのは、本明細書では、用語「含む」、「包含」または他の任意の変形体は、
一連の要素を含むプロセス、方法、物品または装置が、それらの要素だけでなく、明示的
に列挙されていない他の要素を含むように意図されていることであり、または、このよう
なプロセス、方法、装置、物や装置に固有の要素を含む。これ以上の制限がない場合、「
一つの…を含む」という語句によって定義される要素は、その要素を含むプロセス、方法
、物品、または装置に他の同じ要素が存在することを排除しない。
上記の本発明の実施の番号は、説明のためだけに、実施の形態の優劣を表すものではない
上記の本発明の各モジュールユニットまたは各ステップは、任意で、計算装置が実行可能
なプログラムコードで実現できることを当業者は理解するだろう。図示または説明のステ
ップは、こことは異なる順序で実行されてもよく、またはそれぞれの集積回路モジュール
に作成されてもよく、またはそれらのうちの複数のモジュールまたはステップを単一の集
積回路モジュールに作成して実現されてもよい。このように、本発明は、任意の特定のハ
ードウェアとソフトウェアの組み合わせに限定されない。
以上の実施形態の説明により、上述の実施形態の方法は、ソフトウェアプラスに必要な汎
用ハードウェアプラットフォームによって実現されてもよく、ハードウェアによってもも
ちろん可能であるが、多くの場合、前者はより良い実施形態であることが明らかになった
。このような理解に基づいて、本発明の技術的な態様は、本質的には、または既存の技術
に寄与する部分を、1台の端末装置(携帯電話、コンピュータ、サーバ、エアコンなど)
を可能にするためのいくつかの命令を含む、1つの記憶媒体に格納するソフトウェア製品
として具現化することができる。または、ネットワークデバイスなど)は、本発明の様々
な実施形態による方法を実行する。
以上は本発明の好適な実施形態にすぎず、本発明の特許範囲を限定するものではなく、本
発明の明細書及び図面の内容を利用してなされた等価構造又は等価フロー変換、又は直接
または間接的に他の関連技術分野に適用されるものであり、全ては本発明の特許保護範囲
に含まれる。

Claims (2)

  1. オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法であって、
    ステップ1:
    検出ロボットの端末に設置される全体RGB-D複合センサーD70によって要加工目標
    の全体レジストレーションRGB二次元画面IRGBおよび全体レジストレーションデプ
    スデータIを獲得し、全体レジストレーションRGB二次元画面IRGBから要加工目
    標O10の全体領域SRGBを獲得し、全体RGB-D複合センサーのキャリブレーショ
    ン行列によって全体領域SRGBにしたがって全体レジストレーションデプスデータI
    から要加工目標O10の全体的3DポイントクラウドデータS3Dを抽出するステップと

    ステップ2:
    全体的3DポイントクラウドデータS3Dを分析することにより要加工目標の全体加工案
    内経路の集合点{AXj=1->nを獲得することであって、ただし、それぞれAX
    は要加工目標の全体的3DポイントクラウドデータS3Dにおける全体加工案内経路の
    点、jは全体加工案内経路の点AXの番号、jの値の範囲は[1,n]、nは全体加工
    案内経路の点AXの総数とするステップと、
    ステップ3:
    全体加工案内経路の集合点{AXj=1->nに基づいて、所定の要加工サブ目標領
    域の高精度検出パラメータによって、要加工目標の全体的3DポイントクラウドデータS
    3Dを要加工サブ目標領域のポイントクラウド集{S3D-jj=1->n、に分割す
    ることであって、ただし、S3D-jは全体加工案内経路の点AXの要加工サブ目標領
    域のポイントクラウドに対応するステップと、
    ステップ4:
    最適経路計画アルゴリズムによって、要加工サブ目標領域のポイントクラウド集{S3D
    -jj=1->nを順序付けすることによって、最適要加工サブ目標領域のポイントク
    ラウド配列{S3D-ii=1->nを生成することであって、ただしそれぞれS3D
    -iは最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->n
    うちの要加工サブ目標領域のポイントクラウド、iは最適加工サブ目標領域のポイントク
    ラウド配列{S3D-ii=1->nの番号とし、iとjは一々対応し、iとjの一々
    対応関係によって全体加工案内経路の集合点{AXj=1->nを全体加工案内経路
    の点配列{AXi=1->nに変換するステップと、
    ステップ5:
    iは1~nとすると、要加工サブ目標領域のポイントクラウドS3D-iに対応する全体
    加工案内経路の点AXを検出ロボットベース座標系の全体加工案内経路の点BXに変
    換し、そして検出ロボットベース座標系の全体加工案内経路の点BXを研磨ロボットベ
    ース座標系の全体加工案内経路の点CXを変換することによって、全体加工案内経路の
    点配列{AXi=1->nを検出ロボットベース座標系の加工案内の点配列{BX
    i=1->nに変換し、検出ロボットベース座標系の加工案内の点配列{BXi=
    1->nを研磨ロボットベース座標系の全体加工案内の点配列{CXi=1->n
    変換するステップと、
    ステップ6:
    iは1~nとすると、研磨ロボットベース座標系の全体加工案内経路の点CX にした
    がって研磨ロボットの端末に設置されるローカルRGB-D複合センサーを案内しながら
    要加工目標を走査することによって、要加工目標の要加工サブ目標領域に対応するポイン
    トクラウドS3D-iの対応する領域の高精度ローカルポイントクラウドSS3D-i
    獲得するステップと、
    ステップ7:
    iは1~nとすると、レジストレーションアルゴリズムによって高精度ローカルポイント
    クラウドSS3D-iをモジュールとして予定のサンプルポイントクラウドRS3Dの中
    から高精度ローカルポイントクラウドSS3D-iにレジストレーションする高精度ロー
    カルポイントクラウドRS3D-iを検索し、高精度ローカルポイントクラウドSS3D
    -iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドD
    3D-iを算出し、差異ポイントクラウドDS3D-iを分析検索し、研磨ロボットの
    高精度3D加工案内信息を獲得するステップと、
    を含むことを特徴とする、オーバービュー視覚およびローカル視覚の一体化によるロボッ
    ト視覚案内方法。
  2. オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置1であって

    加工目標データ収集モジュール10であって、検出ロボットの端末に設置される全体RG
    B-D複合センサーD70によって要加工目標の全体レジストレーションRGB二次元画
    面IRGBおよび全体レジストレーションデプスデータIを獲得し、全体レジストレー
    ションRGB二次元画面IRGBから要加工目標O10の全体領域SRGBを獲得し、全
    体RGB-D複合センサーのキャリブレーション行列によって全体領域SRGBにしたが
    って全体レジストレーションデプスデータIから要加工目標O10の全体的3Dポイン
    トクラウドデータS3Dを抽出するように構成される加工目標データ収集モジュール10
    と、
    全体加工案内経路モジュール20であって、全体的3DポイントクラウドデータS3D
    分析することにより要加工目標の全体加工案内経路の集合点{AXj=1->nを獲
    得するように構成されており、ただし、それぞれAXは要加工目標の全体的3Dポイン
    トクラウドデータS3Dにおける全体加工案内経路の点、jは全体加工案内経路の点AX
    の番号、jの値の範囲は[1、n]、nは全体加工案内経路の点AXの総数とする全
    体加工案内経路モジュール20と、
    サブ目標領域分割モジュール30であって、全体加工案内経路の集合点{AXj=1
    ->nに基づいて、所定の要加工サブ目標領域の高精度検出パラメータによって、要加工
    目標の全体的3DポイントクラウドデータS3Dを要加工サブ目標領域のポイントクラウ
    ド集{S3D-jj=1->n、に分割するように構成されており、ただし、S3D-
    は全体加工案内経路の点AXの要加工サブ目標領域のポイントクラウドに対応するサ
    ブ目標領域分割モジュール30と、
    最適加工経路計画モジュール40であって、最適経路計画アルゴリズムによって、要加工
    サブ目標領域のポイントクラウド集{S3D-jj=1->nを順序付けすることによ
    って、最適要加工サブ目標領域のポイントクラウド配列{S3D-ii=1->nを生
    成するように構成されており、ただしそれぞれS3D-iは最適要加工サブ目標領域のポ
    イントクラウド配列{S3D-ii=1->n のうちの要加工サブ目標領域のポイン
    トクラウド、iは最適加工サブ目標領域のポイントクラウド配列{S3D-ii=1-
    >nの番号とし、iとjは一々対応し、iとjの一々対応関係によって全体加工案内経路
    の集合点{AXj=1->nを全体加工案内経路の点配列{AXi=1->n
    変換する最適加工経路計画モジュール40と、
    加工案内点変換モジュール50であって、iは1~nとすると、要加工サブ目標領域のポ
    イントクラウドS3D-iに対応する全体加工案内経路の点AXを検出ロボットベース
    座標系の全体加工案内経路の点BXに変換し、そして検出ロボットベース座標系の全体
    加工案内経路の点BXを研磨ロボットベース座標系の全体加工案内経路の点CXを変
    換することによって、全体加工案内経路の点配列{AXi=1->nを検出ロボット
    ベース座標系の加工案内の点配列{BXi=1->nに変換し、検出ロボットベース
    座標系の加工案内の点配列{BXi=1->nを研磨ロボットベース座標系の全体加
    工案内の点配列{CXi=1->nに変換するように構成される加工案内点変換モジ
    ュール50と、
    ポイントクラウドの高精度ローカル収集モジュール60であって、iは1~nとすると、
    研磨ロボットベース座標系の全体加工案内経路の点CX にしたがって研磨ロボットの
    端末に設置されるローカルRGB-D複合センサーを案内しながら要加工目標を走査する
    ことによって、要加工目標の要加工サブ目標領域に対応するポイントクラウドS3D-i
    の対応する領域の高精度ローカルポイントクラウドSS3D-iを獲得するように構成さ
    れるポイントクラウドの高精度ローカル収集モジュール60と、
    を含むことを特徴とする、オーバービュー視覚およびローカル視覚の一体化によるロボッ
    ト視覚案内装置。
JP2021537213A 2019-12-02 2020-07-10 オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置 Active JP7212236B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911215508.2A CN111216124B (zh) 2019-12-02 2019-12-02 基于融入全局视觉和局部视觉的机器人视觉引导方法和装置
CN201911215508.2 2019-12-02
PCT/CN2020/101337 WO2021109575A1 (zh) 2019-12-02 2020-07-10 基于融入全局视觉和局部视觉的机器人视觉引导方法和装置

Publications (2)

Publication Number Publication Date
JP2022516852A JP2022516852A (ja) 2022-03-03
JP7212236B2 true JP7212236B2 (ja) 2023-01-25

Family

ID=70830739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537213A Active JP7212236B2 (ja) 2019-12-02 2020-07-10 オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置

Country Status (3)

Country Link
JP (1) JP7212236B2 (ja)
CN (1) CN111216124B (ja)
WO (1) WO2021109575A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111216124B (zh) * 2019-12-02 2020-11-06 广东技术师范大学 基于融入全局视觉和局部视觉的机器人视觉引导方法和装置
CN113386052A (zh) * 2021-05-12 2021-09-14 华南理工大学 一种船体磨料水射流除漆除锈设备及其实现方法
JP2023047141A (ja) * 2021-09-24 2023-04-05 村田機械株式会社 ワーク位置判定装置、レーザ加工装置、及びワーク位置判定方法
CN114888794B (zh) * 2022-04-24 2024-01-30 天津工程机械研究院有限公司 一种机器人人机交互运行路径标记方法及装置
CN115138527B (zh) * 2022-06-22 2023-12-26 深圳市双翌光电科技有限公司 通过视觉引导的快速加工路径生成方法
CN115026396A (zh) * 2022-06-27 2022-09-09 天津杰福德自动化技术有限公司 基于3d视觉引导的引熄弧板切割系统
CN115159149A (zh) * 2022-07-28 2022-10-11 深圳市罗宾汉智能装备有限公司 一种基于视觉定位的取料卸货方法及其装置
CN115592501A (zh) * 2022-10-11 2023-01-13 中国第一汽车股份有限公司(Cn) 一种基于3d线激光视觉引导的顶盖钎焊自适应打磨方法
CN116652951B (zh) * 2023-06-08 2024-04-05 广州鑫帅机电设备有限公司 一种非结构化大作业空间的机器人视觉定位方法及装置
CN116468764A (zh) * 2023-06-20 2023-07-21 南京理工大学 基于超点空间引导的多视图工业点云高精度配准系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107127755A (zh) 2017-05-12 2017-09-05 华南理工大学 一种三维点云的实时采集装置及机器人打磨轨迹规划方法
CN107598918A (zh) 2017-08-16 2018-01-19 广东工业大学 基于打磨机器人的表面打磨处理自动编程方法和装置
CN108297105A (zh) 2018-01-17 2018-07-20 广东工业大学 一种机械臂任务级时间最优轨迹规划方法
CN108326853A (zh) 2018-01-17 2018-07-27 广东工业大学 一种打磨机器人系统
CN108994844A (zh) 2018-09-26 2018-12-14 广东工业大学 一种打磨操作臂手眼关系的标定方法和装置
US20190122425A1 (en) 2017-10-24 2019-04-25 Lowe's Companies, Inc. Robot motion planning for photogrammetry
CN110103118A (zh) 2019-06-18 2019-08-09 苏州大学 一种打磨机器人的路径规划方法、装置、系统及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103862341A (zh) * 2014-04-01 2014-06-18 重庆大学 铸件打磨设备
CN106931969A (zh) * 2015-12-29 2017-07-07 黑龙江恒和沙科技开发有限公司 一种基于Kinect的机器人三维导航地图生成方法
US10150213B1 (en) * 2016-07-27 2018-12-11 X Development Llc Guide placement by a robotic device
US20180348730A1 (en) * 2017-06-01 2018-12-06 X Development Llc Automatic Generation of Toolpaths
CN108858193B (zh) * 2018-07-06 2020-07-03 清华大学深圳研究生院 一种机械臂抓取方法及系统
CN109102547A (zh) * 2018-07-20 2018-12-28 上海节卡机器人科技有限公司 基于物体识别深度学习模型的机器人抓取位姿估计方法
CN109108942B (zh) * 2018-09-11 2021-03-02 武汉科技大学 基于视觉实时示教与自适应dmps的机械臂运动控制方法和系统
CN109509215B (zh) * 2018-10-30 2022-04-01 浙江大学宁波理工学院 一种KinFu的点云辅助配准装置及其方法
CN109960402B (zh) * 2018-12-18 2022-04-01 重庆邮电大学 一种基于点云和视觉特征融合的虚实注册方法
CN111216124B (zh) * 2019-12-02 2020-11-06 广东技术师范大学 基于融入全局视觉和局部视觉的机器人视觉引导方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107127755A (zh) 2017-05-12 2017-09-05 华南理工大学 一种三维点云的实时采集装置及机器人打磨轨迹规划方法
CN107598918A (zh) 2017-08-16 2018-01-19 广东工业大学 基于打磨机器人的表面打磨处理自动编程方法和装置
US20190122425A1 (en) 2017-10-24 2019-04-25 Lowe's Companies, Inc. Robot motion planning for photogrammetry
CN108297105A (zh) 2018-01-17 2018-07-20 广东工业大学 一种机械臂任务级时间最优轨迹规划方法
CN108326853A (zh) 2018-01-17 2018-07-27 广东工业大学 一种打磨机器人系统
CN108994844A (zh) 2018-09-26 2018-12-14 广东工业大学 一种打磨操作臂手眼关系的标定方法和装置
CN110103118A (zh) 2019-06-18 2019-08-09 苏州大学 一种打磨机器人的路径规划方法、装置、系统及存储介质

Also Published As

Publication number Publication date
CN111216124A (zh) 2020-06-02
WO2021109575A1 (zh) 2021-06-10
JP2022516852A (ja) 2022-03-03
CN111216124B (zh) 2020-11-06

Similar Documents

Publication Publication Date Title
JP7212236B2 (ja) オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置
CN111089569B (zh) 一种基于单目视觉的大型箱体测量方法
CN105729468B (zh) 一种基于多深度摄像机增强的机器人工作台
CN111476841B (zh) 一种基于点云和图像的识别定位方法及系统
CN108876852B (zh) 一种基于3d视觉的在线实时物体识别定位方法
WO2021103558A1 (zh) 基于rgb-d数据融合的机器人视觉引导方法和装置
CN116958146B (zh) 3d点云的采集方法及装置、电子装置
CN112017248B (zh) 一种基于点线特征的2d激光雷达相机多帧单步标定方法
CN107545247A (zh) 基于双目识别的立体认知方法
CN110780276A (zh) 一种基于激光雷达的托盘识别方法、系统和电子设备
CN112288815A (zh) 一种目标模位置测量方法、系统、存储介质及设备
CN109636897B (zh) 一种基于改进RGB-D SLAM的Octomap优化方法
CN111583342A (zh) 一种基于双目视觉的目标快速定位方法及装置
CN116909208B (zh) 基于人工智能的壳体加工路径优化方法及系统
KR20110121343A (ko) 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법
Hamzah et al. A practical method for camera calibration in stereo vision mobile robot navigation
CN113932712A (zh) 一种基于深度相机和关键点的瓜果类蔬菜尺寸测量方法
CN113792645A (zh) 一种融合图像和激光雷达的ai眼球
Rashd et al. Open-box target for extrinsic calibration of LiDAR, camera and industrial robot
Kheng et al. Stereo vision with 3D coordinates for robot arm application guide
CN111354031A (zh) 基于深度学习的3d视觉引导系统
CN111678511B (zh) 一种机器人的多传感器融合定位方法和系统
CN113989465A (zh) 一种工件智能引导装配中实际点云处理方法
CN114387252A (zh) 一种电力线缆识别与空间定位方法及系统
CN117974775A (zh) 机器人定位方法、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221223

R150 Certificate of patent or registration of utility model

Ref document number: 7212236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150