JP7212236B2 - オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置 - Google Patents
オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置 Download PDFInfo
- Publication number
- JP7212236B2 JP7212236B2 JP2021537213A JP2021537213A JP7212236B2 JP 7212236 B2 JP7212236 B2 JP 7212236B2 JP 2021537213 A JP2021537213 A JP 2021537213A JP 2021537213 A JP2021537213 A JP 2021537213A JP 7212236 B2 JP7212236 B2 JP 7212236B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- point cloud
- machining
- target
- overall
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
Description
体化によるロボット視覚案内方法及び装置に関する。
向に進まなければなりません。自動化装置の知能化の重要な手段は、マシンに「目」とこ
の目に合わせられる「脳」を装着することである。この「目」は単眼カメラ、両眼カメラ
、多目カメラ、三次元スキャナー、RGB-D(RGB+Depth)センサーでもいいです。自動化装
備のスマート化のコア作業内容は、この「目」で取得した画像データを分析(例えば画像
認識)し、分析結果に基づいてロボットシステムを特定の加工または組み立て操作に導く
ことを含む。加工技術が進歩するにつれて、加工が必要な部品の表面はますます複雑にな
り、加工の精度が要求されるようになりました。そのため、部品の表面処理(研ぎ捨て作
業)は不可欠な重要な過程です。加工部品に対する表面処理の自動化とインテリジェント
化を実現するためには、上記の「目」を用いて加工対象部品の画像を取得し、上記「脳」
を用いて分析処理を行い、加工部品に対する空間的な正確な位置決めを実現し、目標を精
密に検出します。さらに、ロボットの端を研ぐ道具を導いて加工部品の加工目標に対して
作業を行います。従来は検出視野の大きいロボットビジョンガイドを採用していますが、
検出精度は通常高くなく、加工精度が要求できません。高精度の空間位置決め情報を得る
ためには、ロボットビジョンガイドはより小さな検出視野を設定する必要がありますので
、大きな加工目標についてはブロック分け検出が必要ですので、計算の複雑さが高く、計
算量も多く必要です。計算時間が長く、システム全体の作業効率は高くないです。また、
上述の「脳」のソフト・ハードウェアの性能に対する要求が高く、処理のリアルタイム性
を達成することが難しく、現在の高速化の工業生産過程における必要性に合わない。この
ため、本発明は、大域的な視覚と局所的な視覚を融合させた大体積加工目標の研磨トスロ
ボットの高精度な視覚誘導方法と装置を開示し、大体積加工目標に対して高効率な加工が
可能な精度要求を満足できる。
及び装置を提供し、既存の検出視野の大きいロボット視覚案内を採用するため、検出精度
は通常高くなく、加工精度の要求を達成できないが、高精度な空間測位情報を得るために
は、ロボットビジョンの設定が必要であるため、大きな加工目標に対してはブロック分け
検出が必要であり、複雑度が高い計算となる。そして、大きな計算量が必要で、計算時間
が長く、全体のシステムの作業効率が高くなく、ソフトハードウェアの性能要求が高く、
処理のリアルタイム性を達成するのが難しく、現在の高速化された工業生産過程で必要と
されるこれらの技術問題を解決する。
ボット視覚案内方法は、
ステップ1:
検出ロボットの端末に設置される全体RGB-D複合センサーD70によって要加工目標
の全体レジストレーションRGB二次元画面IRGBおよび全体レジストレーションデプ
スデータIDを獲得し、全体レジストレーションRGB二次元画面IRGBから要加工目
標O10の全体領域SRGBを獲得し、全体RGB-D複合センサーのキャリブレーショ
ン行列によって全体領域SRGBにしたがって全体レジストレーションデプスデータID
から要加工目標O10の全体的3DポイントクラウドデータS3Dを抽出するステップと
、
ステップ2:
全体的3DポイントクラウドデータS3Dを分析することにより要加工目標の全体加工案
内経路の集合点{AXj}j=1->nを獲得することであって、ただし、それぞれAX
jは要加工目標の全体的3DポイントクラウドデータS3Dにおける全体加工案内経路の
点、jは全体加工案内経路の点AXjの番号、jの値の範囲は[1,n]、nは全体加工
案内経路の点AXjの総数とするステップと、
ステップ3:
全体加工案内経路の集合点{AXj}j=1->nに基づいて、所定の要加工サブ目標領
域の高精度検出パラメータによって、要加工目標の全体的3DポイントクラウドデータS
3Dを要加工サブ目標領域のポイントクラウド集{S3D-j}j=1->n、に分割す
ることであって、ただし、S3D-jは全体加工案内経路の点AXjの要加工サブ目標領
域のポイントクラウドに対応するステップと、
ステップ4:
最適経路計画アルゴリズムによって、要加工サブ目標領域のポイントクラウド集{S3D
-j}j=1->nを順序付けすることによって、最適要加工サブ目標領域のポイントク
ラウド配列{S3D-i}i=1->nを生成することであって、ただしそれぞれS3D
-iは最適要加工サブ目標領域のポイントクラウド配列{S3D-i}i=1->n の
うちの要加工サブ目標領域のポイントクラウド、iは最適加工サブ目標領域のポイントク
ラウド配列{S3D-i}i=1->nの番号とし、iとjは一々対応し、iとjの一々
対応関係によって全体加工案内経路の集合点{AXj}j=1->nを全体加工案内経路
の点配列{AXi}i=1->n。に変換するステップと、
ステップ5:
iは1~nとすると、要加工サブ目標領域のポイントクラウドS3D-iに対応する全体
加工案内経路の点AXiを検出ロボットベース座標系の全体加工案内経路の点BXiに変
換し、そして検出ロボットベース座標系の全体加工案内経路の点BXiを研磨ロボットベ
ース座標系の全体加工案内経路の点CXiを変換することによって、全体加工案内経路の
点配列{AXi}i=1->nを検出ロボットベース座標系の加工案内の点配列{BXi
}i=1->nに変換し、検出ロボットベース座標系の加工案内の点配列{BXi}i=
1->nを研磨ロボットベース座標系の全体加工案内の点配列{CXi}i=1->nに
変換するステップと、
ステップ6:
iは1~nとすると、研磨ロボットベース座標系の全体加工案内経路の点CXi にした
がって研磨ロボットの端末に設置されるローカルRGB-D複合センサーを案内しながら
要加工目標を走査することによって、要加工目標の要加工サブ目標領域に対応するポイン
トクラウドS3D-iの対応する領域の高精度ローカルポイントクラウドSS3D-iを
獲得するステップと、
ステップ7:
iは1~nとすると、レジストレーションアルゴリズムによって高精度ローカルポイント
クラウドSS3D-iをモジュールとして予定のサンプルポイントクラウドRS3Dの中
から高精度ローカルポイントクラウドSS3D-iにレジストレーションする高精度ロー
カルポイントクラウドRS3D-iを検索し、高精度ローカルポイントクラウドSS3D
-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドD
S3D-iを算出し、差異ポイントクラウドDS3D-iを分析検索し、研磨ロボットの
高精度3D加工案内信息を獲得するステップと、
を含む。
ゴリズムとする。
最近接点アルゴリズムとする。
ーカルポイントクラウドRS3D-iの対応する差異ポイントクラウドDS3D-iの方
法はクイック最近傍探索アルゴリズムとする。
高精度検出の視野の大きさ、検出精度、および検出距離を含む。
加工目標データ収集モジュール10であって、検出ロボットの端末に設置される全体RG
B-D複合センサーD70によって要加工目標の全体レジストレーションRGB二次元画
面IRGBおよび全体レジストレーションデプスデータIDを獲得し、全体レジストレー
ションRGB二次元画面IRGBから要加工目標O10の全体領域SRGBを獲得し、全
体RGB-D複合センサーのキャリブレーション行列によって全体領域SRGBにしたが
って全体レジストレーションデプスデータIDから要加工目標O10の全体的3Dポイン
トクラウドデータS3Dを抽出するように構成される加工目標データ収集モジュール10
と、
全体加工案内経路モジュール20であって、全体的3DポイントクラウドデータS3Dを
分析することにより要加工目標の全体加工案内経路の集合点{AXj}j=1->nを獲
得するように構成されており、ただし、それぞれAXjは要加工目標の全体的3Dポイン
トクラウドデータS3Dにおける全体加工案内経路の点、jは全体加工案内経路の点AX
jの番号、jの値の範囲は[1、n]、nは全体加工案内経路の点AXjの総数とする全
体加工案内経路モジュール20と、
サブ目標領域分割モジュール30であって、全体加工案内経路の集合点{AXj}j=1
->nに基づいて、所定の要加工サブ目標領域の高精度検出パラメータによって、要加工
目標の全体的3DポイントクラウドデータS3Dを要加工サブ目標領域のポイントクラウ
ド集{S3D-j}j=1->n、に分割するように構成されており、ただし、S3D-
jは全体加工案内経路の点AXjの要加工サブ目標領域のポイントクラウドに対応するサ
ブ目標領域分割モジュール30と、
最適加工経路計画モジュール40であって、最適経路計画アルゴリズムによって、要加工
サブ目標領域のポイントクラウド集{S3D-j}j=1->nを順序付けすることによ
って、最適要加工サブ目標領域のポイントクラウド配列{S3D-i}i=1->nを生
成するように構成されており、ただしそれぞれS3D-iは最適要加工サブ目標領域のポ
イントクラウド配列{S3D-i}i=1->n のうちの要加工サブ目標領域のポイン
トクラウド、iは最適加工サブ目標領域のポイントクラウド配列{S3D-i}i=1-
>nの番号とし、iとjは一々対応し、iとjの一々対応関係によって全体加工案内経路
の集合点{AXj}j=1->nを全体加工案内経路の点配列{AXi}i=1->n。
に変換する最適加工経路計画モジュール40と、
加工案内点変換モジュール50であって、iは1~nとすると、要加工サブ目標領域のポ
イントクラウドS3D-iに対応する全体加工案内経路の点AXiを検出ロボットベース
座標系の全体加工案内経路の点BXiに変換し、そして検出ロボットベース座標系の全体
加工案内経路の点BXiを研磨ロボットベース座標系の全体加工案内経路の点CXiを変
換することによって、全体加工案内経路の点配列{AXi}i=1->nを検出ロボット
ベース座標系の加工案内の点配列{BXi}i=1->nに変換し、検出ロボットベース
座標系の加工案内の点配列{BXi}i=1->nを研磨ロボットベース座標系の全体加
工案内の点配列{CXi}i=1->nに変換するように構成される加工案内点変換モジ
ュール50と、
ポイントクラウドの高精度ローカル収集モジュール60であって、iは1~nとすると、
研磨ロボットベース座標系の全体加工案内経路の点CXi にしたがって研磨ロボットの
端末に設置されるローカルRGB-D複合センサーを案内しながら要加工目標を走査する
ことによって、要加工目標の要加工サブ目標領域に対応するポイントクラウドS3D-i
の対応する領域の高精度ローカルポイントクラウドSS3D-iを獲得するように構成さ
れるポイントクラウドの高精度ローカル収集モジュール60と、
を含む。
擬知能最適化アルゴリズムとする。
規分布変換に基づく反復最近接点アルゴリズムとする。
SS3D-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントク
ラウドDS3D-iの方法はクイック最近傍探索アルゴリズムとする。
パラメータは、高精度検出の視野の大きさ、検出精度、検出距離を含む。
加工目標のロボットによる高精度視覚ガイド技術方案により、大体積加工目標の高効率加
工における精度要求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加
速し、計算時間を減少することによりリアルタイム処理の要求を満たすことができる。加
えて、ソフトハードウェアの性能要求も低減され、コストおよび開発の難度が下げられる
。高速化かつ大規模の生産モードの要求に適応可能である。
に説明する。
明を限定するために用いられないことを理解されたい。
の説明では、要素を表すための「モジュール」、「構成要素」、または「ユニット」など
のサフィックスは、本発明の説明を有利にするためだけに使用され、それ自体は特定の意
味を持たない。したがって、「モジュール」と「部品」は混合して使用することができる
。
視覚案内方法の第1実施例のフローチャット模式図である。図1に示すように、オーバー
ビュー視覚およびローカル視覚の一体化によるロボット視覚案内方法は、以下の工程を含
む。
即ち、検出ロボットの端末に設置される全体RGB-D複合センサーD70によって要加
工目標の全体レジストレーションRGB二次元画面IRGBおよび全体レジストレーショ
ンデプスデータIDを獲得し、全体レジストレーションRGB二次元画面IRGBから要
加工目標O10の全体領域SRGBを獲得し、全体RGB-D複合センサーのキャリブレ
ーション行列によって全体領域SRGBにしたがって全体レジストレーションデプスデー
タIDから要加工目標O10の全体的3DポイントクラウドデータS3Dを抽出すること
であって、
図3に示すように、RGB-D複合センサーD70は、検出ロボットのアームD40の頂
端に設置され、RGBカメラD20が、RGB-D複合視覚センサーの中間位置に設置さ
れるものとすることと、カラー画面データは、RGBデータに対する分析を行う速度を保
証するために、コンピュータに伝送される前に圧縮されるとすることと、および、RGB
-D複合視覚センサーの左右両側におけるセンサーD10およびD30はそれぞれ赤外線
の発信と受信を行うとすることであって、まず左側の赤外線発信器D10によって要加工
目標O10に赤外線を発信し、ここで該赤外線は、高ランダム性を保有するため、空間内
における任意の2つの異なる位置で反射されて形成される光斑も異なるため、環境に対し
て立体的「コード」を形成し、次いでに右側の赤外線受信器D30によって視野内の赤外
線画面を収集し、最後に、RGB-D複合視覚センサーD70のキャリブレーション行列
によって該赤外線画面に対して一連の複雑な計算を実行することによって、視野内のデプ
スデータを取得することと、を含むこと。
即ち、全体的3DポイントクラウドデータS3Dを分析することにより要加工目標の全体
加工案内経路の集合点{AXj}j=1->nを獲得することであって、ただし、それぞ
れAXjは要加工目標の全体的3DポイントクラウドデータS3Dにおける全体加工案内
経路の点、jは全体加工案内経路の点AXjの番号、jの値の範囲は[1,n]、nは全
体加工案内経路の点AXjの総数とすることであって、
AXiは全体的3DポイントクラウドデータS3Dの座標ベクトルに対応し、全体加工案
内経路の集合点{AXj}j=1->nは全体的3DポイントクラウドデータS3Dの全
部AXiの集合に対応すること。
即ち、全体加工案内経路の集合点{AXj}j=1->nに基づいて、所定の要加工サブ
目標領域の高精度検出パラメータによって、要加工目標の全体的3Dポイントクラウドデ
ータS3Dを要加工サブ目標領域のポイントクラウド集{S3D-j}j=1->n、に
分割することであって、ただし、S3D-jは全体加工案内経路の点AXjの要加工サブ
目標領域のポイントクラウドに対応すること。
即ち、最適経路計画アルゴリズムによって、要加工サブ目標領域のポイントクラウド集{
S3D-j}j=1->nを順序付けすることによって、最適要加工サブ目標領域のポイ
ントクラウド配列{S3D-i}i=1->nを生成することであって、ただしそれぞれ
S3D-iは最適要加工サブ目標領域のポイントクラウド配列{S3D-i}i=1->
n のうちの要加工サブ目標領域のポイントクラウド、iは最適加工サブ目標領域のポイ
ントクラウド配列{S3D-i}i=1->nの番号とし、iとjは一々対応し、iとj
の一々対応関係によって全体加工案内経路の集合点{AXj}j=1->nを全体加工案
内経路の点配列{AXi}i=1->n。に変換することであって、
最適経路計画アルゴリズムに基づいて生成する最適要加工サブ目標領域のポイントクラウ
ド配列{S3D-i}i=1->nによって、要加工サブ目標領域のポイントクラウドサ
ブ加工領域S3D-jの順序を所望ロボット加工過程に合わせさせ、即ち、研磨ロボット
D50を繰り返しなく要加工目標O20のすべての領域を通過させることによって、研磨
ロボットD50の作業総時間を最短化させること。
即ち、iは1~nとすると、要加工サブ目標領域のポイントクラウドS3D-iに対応す
る全体加工案内経路の点AXiを検出ロボットベース座標系の全体加工案内経路の点BX
iに変換し、そして検出ロボットベース座標系の全体加工案内経路の点BXiを研磨ロボ
ットベース座標系の全体加工案内経路の点CXiを変換することによって、全体加工案内
経路の点配列{AXi}i=1->nを検出ロボットベース座標系の加工案内の点配列{
BXi}i=1->nに変換し、検出ロボットベース座標系の加工案内の点配列{BXi
}i=1->nを研磨ロボットベース座標系の全体加工案内の点配列{CXi}i=1-
>nに変換することであって、
図4に示すように、検出ロボットのアームD40から獲得する要加工サブ目標O30領域
のポイントクラウドS3D-iに対応する全体加工案内経路の点AXiを検出ロボットD
40ベース座標系の全体加工案内経路の点BXiに変換し、そして検出ロボットD40ベ
ース座標系の全体加工案内経路の点BXiを研磨ロボットD50ベース座標系の全体加工
案内経路の点CXiに変換し、さらに研磨ロボットD50の端末を案内しながら研磨具D
60に以降の作業を行わせること。
即ち、iは1~nとすると、研磨ロボットベース座標系の全体加工案内経路の点CXi
にしたがって研磨ロボットの端末に設置されるローカルRGB-D複合センサーを案内し
ながら要加工目標を走査することによって、要加工目標の要加工サブ目標領域に対応する
ポイントクラウドS3D-iの対応する領域の高精度ローカルポイントクラウドSS3D
-iを獲得すること。
即ち、iは1~nとすると、レジストレーションアルゴリズムによって高精度ローカルポ
イントクラウドSS3D-iをモジュールとして予定のサンプルポイントクラウドRS3
Dの中から高精度ローカルポイントクラウドSS3D-iにレジストレーションする高精
度ローカルポイントクラウドRS3D-iを検索し、高精度ローカルポイントクラウドS
S3D-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラ
ウドDS3D-iを算出し、差異ポイントクラウドDS3D-iを分析検索し、研磨ロボ
ットの高精度3D加工案内信息を獲得すること。
バービュー視覚系統およびローカル視覚系統を一体化させるようにしている。まず検出ロ
ボットD40の視覚系統D70によって加工目標O20の粗位置決めを行うとともに、加
工目標O20の区域分けおよびルート計画を実現する。次いでに、研磨ロボットD50上
における高精度視覚検出系統によって目標を正確的に検出する。そして、研磨ロボットD
50の端末にある工具D60を案内しながら加工目標領域O30に対して高精度かつ高効
率の自動化研磨作業を行う。これによって、大体積加工目標の高効率加工における精度要
求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加速し、計算時間を
減少することによりリアルタイム処理の要求を満たすことができる。加えて、ソフトハー
ドウェアの性能要求も低減され、コストおよび開発の難度が下げられる。高速化かつ大規
模の生産モードの要求に適応可能である。
imulated annealing algorithm,SAA)とする。アニー
リング模擬知能最適化アルゴリズムは確実的、かつ工程実現容易という利点がある。
terative Closest Point,ICP)アルゴリズムとする。正規分
布変換に基づく反復最近接点アルゴリズムは確実的、かつ工程実現容易という利点がある
。
トクラウドRS3D-iの対応する差異ポイントクラウドDS3D-iの方法はクイック
最近傍探索アルゴリズムとする。クイック最近傍探索アルゴリズムは確実的、かつ工程実
現容易という利点がある。
視野の大きさ、検出精度、および検出距離を含む。パラメータは測定取得容易、かつ高確
実性という利点がある。
の第1実施例中におけるオーバービュー視覚およびローカル視覚の一体化によるロボット
視覚案内方法は、本発明にかかるオーバービュー視覚およびローカル視覚の一体化による
ロボット視覚案内装置の第1実施例で提案されるオーバービュー視覚およびローカル視覚
の一体化によるロボット視覚案内装置によって実現可能である。
案内装置の第1実施例で提案されるオーバービュー視覚およびローカル視覚の一体化によ
るロボット視覚案内装置1は、以下のモジュールを含む。
B-D複合センサーD70によって要加工目標の全体レジストレーションRGB二次元画
面IRGBおよび全体レジストレーションデプスデータIDを獲得し、全体レジストレー
ションRGB二次元画面IRGBから要加工目標O10の全体領域SRGBを獲得し、全
体RGB-D複合センサーのキャリブレーション行列によって全体領域SRGBにしたが
って全体レジストレーションデプスデータIDから要加工目標O10の全体的3Dポイン
トクラウドデータS3Dを抽出するように構成されており、
図3に示すように、RGB-D複合センサーD70は、検出ロボットのアームD40の頂
端に設置され、RGBカメラD20が、RGB-D複合視覚センサーの中間位置に設置さ
れており、カラー画面データは、RGBデータに対する分析を行う速度を保証するために
、コンピュータに伝送される前に圧縮されるように構成され、RGB-D複合視覚センサ
ーの左右両側におけるセンサーD10およびD30はそれぞれ赤外線の発信と受信を行う
ものであって、まず左側の赤外線発信器D10によって要加工目標O10に赤外線を発信
し、ここで該赤外線は、高ランダム性を保有するため、空間内における任意の2つの異な
る位置で反射されて形成される光斑も異なるため、環境に対して立体的「コード」を形成
し、次いでに右側の赤外線受信器D30によって視野内の赤外線画面を収集し、最後に、
RGB-D複合視覚センサーD70のキャリブレーション行列によって該赤外線画面に対
して一連の複雑な計算を実行することによって、視野内のデプスデータを取得するように
構成されるモジュール。
分析することにより要加工目標の全体加工案内経路の集合点{AXj}j=1->nを獲
得するように構成されており、ただし、それぞれAXjは要加工目標の全体的3Dポイン
トクラウドデータS3Dにおける全体加工案内経路の点、jは全体加工案内経路の点AX
jの番号、jの値の範囲は[1、n]、nは全体加工案内経路の点AXjの総数とするも
のであって、
AXiは全体的3DポイントクラウドデータS3Dの座標ベクトルに対応し、全体加工案
内経路の集合点{AXj}j=1->nは全体的3DポイントクラウドデータS3Dの全
部AXiの集合に対応するモジュール。
->nに基づいて、所定の要加工サブ目標領域の高精度検出パラメータによって、要加工
目標の全体的3DポイントクラウドデータS3Dを要加工サブ目標領域のポイントクラウ
ド集{S3D-j}j=1->n、に分割するように構成されており、ただし、S3D-
jは全体加工案内経路の点AXjの要加工サブ目標領域のポイントクラウドに対応するモ
ジュール。
サブ目標領域のポイントクラウド集{S3D-j}j=1->nを順序付けすることによ
って、最適要加工サブ目標領域のポイントクラウド配列{S3D-i}i=1->nを生
成するように構成されており、ただしそれぞれS3D-iは最適要加工サブ目標領域のポ
イントクラウド配列{S3D-i}i=1->n のうちの要加工サブ目標領域のポイン
トクラウド、iは最適加工サブ目標領域のポイントクラウド配列{S3D-i}i=1-
>nの番号とし、iとjは一々対応し、iとjの一々対応関係によって全体加工案内経路
の集合点{AXj}j=1->nを全体加工案内経路の点配列{AXi}i=1->n。
に変換するものであって、
最適経路計画アルゴリズムに基づいて生成する最適要加工サブ目標領域のポイントクラウ
ド配列{S3D-i}i=1->nによって、要加工サブ目標領域のポイントクラウドサ
ブ加工領域S3D-jの順序を所望ロボット加工過程に合わせさせ、即ち、研磨ロボット
D50を繰り返しなく要加工目標O20のすべての領域を通過させることによって、研磨
ロボットD50の作業総時間を最短化させるモジュール。
イントクラウドS3D-iに対応する全体加工案内経路の点AXiを検出ロボットベース
座標系の全体加工案内経路の点BXiに変換し、そして検出ロボットベース座標系の全体
加工案内経路の点BXiを研磨ロボットベース座標系の全体加工案内経路の点CXiを変
換することによって、全体加工案内経路の点配列{AXi}i=1->nを検出ロボット
ベース座標系の加工案内の点配列{BXi}i=1->nに変換し、検出ロボットベース
座標系の加工案内の点配列{BXi}i=1->nを研磨ロボットベース座標系の全体加
工案内の点配列{CXi}i=1->nに変換するように構成されるものであって、
図4に示すように、検出ロボットのアームD40から獲得する要加工サブ目標O30領域
のポイントクラウドS3D-iに対応する全体加工案内経路の点AXiを検出ロボットD
40ベース座標系の全体加工案内経路の点BXiに変換し、そして検出ロボットD40ベ
ース座標系の全体加工案内経路の点BXiを研磨ロボットD50ベース座標系の全体加工
案内経路の点CXiに変換し、さらに研磨ロボットD50の端末を案内しながら研磨具D
60に以降の作業を行わせるように構成されるモジュール。
研磨ロボットベース座標系の全体加工案内経路の点CXi にしたがって研磨ロボットの
端末に設置されるローカルRGB-D複合センサーを案内しながら要加工目標を走査する
ことによって、要加工目標の要加工サブ目標領域に対応するポイントクラウドS3D-i
の対応する領域の高精度ローカルポイントクラウドSS3D-iを獲得するように構成さ
れるモジュール。
アルゴリズムによって高精度ローカルポイントクラウドSS3D-iをモジュールとして
予定のサンプルポイントクラウドRS3Dの中から高精度ローカルポイントクラウドSS
3D-iにレジストレーションする高精度ローカルポイントクラウドRS3D-iを検索
し、高精度ローカルポイントクラウドSS3D-iと高精度ローカルポイントクラウドR
S3D-iの対応する差異ポイントクラウドDS3D-iを算出し、差異ポイントクラウ
ドDS3D-iを分析検索し、研磨ロボットの高精度3D加工案内信息を獲得するように
構成されるモジュール。
したがって、上記処理モジュールは、大きな体積のある加工目標O20に対して適応され
、オーバービュー視覚系統およびローカル視覚系統を一体化させるようにしている。まず
検出ロボットD40の視覚系統D70によって加工目標O20の粗位置決めを行うととも
に、加工目標O20の区域分けおよびルート計画を実現する。次いでに、研磨ロボットD
50上における高精度視覚検出系統によって目標を正確的に検出する。そして、研磨ロボ
ットD50の端末にある工具D60を案内しながら加工目標領域O30に対して高精度か
つ高効率の自動化研磨作業を行う。これによって、大体積加工目標の高効率加工における
精度要求を満たすとともに、計算量および計算複雑度を減少し、処理速度を加速し、計算
時間を減少することによりリアルタイム処理の要求を満たすことができる。加えて、ソフ
トハードウェアの性能要求も低減され、コストおよび開発の難度が下げられる。高速化か
つ大規模の生産モードの要求に適応可能である。
アルゴリズム(simulated annealing algorithm,SAA
)とする。アニーリング模擬知能最適化アルゴリズムは確実的、かつ工程実現容易という
利点がある。
基づく反復最近接点アルゴリズム(Iterative Closest Point,
ICP)とする。正規分布変換に基づく反復最近接点アルゴリズムは確実的、かつ工程実
現容易という利点がある。
と高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドDS3
D-iの方法はクイック最近傍探索アルゴリズムとする。クイック最近傍探索アルゴリズ
ムは確実的、かつ工程実現容易という利点がある。
、高精度検出の視野の大きさ、検出精度、検出距離を含む。パラメータは測定取得容易、
かつ高確実性という利点がある。
一連の要素を含むプロセス、方法、物品または装置が、それらの要素だけでなく、明示的
に列挙されていない他の要素を含むように意図されていることであり、または、このよう
なプロセス、方法、装置、物や装置に固有の要素を含む。これ以上の制限がない場合、「
一つの…を含む」という語句によって定義される要素は、その要素を含むプロセス、方法
、物品、または装置に他の同じ要素が存在することを排除しない。
。
なプログラムコードで実現できることを当業者は理解するだろう。図示または説明のステ
ップは、こことは異なる順序で実行されてもよく、またはそれぞれの集積回路モジュール
に作成されてもよく、またはそれらのうちの複数のモジュールまたはステップを単一の集
積回路モジュールに作成して実現されてもよい。このように、本発明は、任意の特定のハ
ードウェアとソフトウェアの組み合わせに限定されない。
用ハードウェアプラットフォームによって実現されてもよく、ハードウェアによってもも
ちろん可能であるが、多くの場合、前者はより良い実施形態であることが明らかになった
。このような理解に基づいて、本発明の技術的な態様は、本質的には、または既存の技術
に寄与する部分を、1台の端末装置(携帯電話、コンピュータ、サーバ、エアコンなど)
を可能にするためのいくつかの命令を含む、1つの記憶媒体に格納するソフトウェア製品
として具現化することができる。または、ネットワークデバイスなど)は、本発明の様々
な実施形態による方法を実行する。
発明の明細書及び図面の内容を利用してなされた等価構造又は等価フロー変換、又は直接
または間接的に他の関連技術分野に適用されるものであり、全ては本発明の特許保護範囲
に含まれる。
Claims (2)
- オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法であって、
ステップ1:
検出ロボットの端末に設置される全体RGB-D複合センサーD70によって要加工目標
の全体レジストレーションRGB二次元画面IRGBおよび全体レジストレーションデプ
スデータIDを獲得し、全体レジストレーションRGB二次元画面IRGBから要加工目
標O10の全体領域SRGBを獲得し、全体RGB-D複合センサーのキャリブレーショ
ン行列によって全体領域SRGBにしたがって全体レジストレーションデプスデータID
から要加工目標O10の全体的3DポイントクラウドデータS3Dを抽出するステップと
、
ステップ2:
全体的3DポイントクラウドデータS3Dを分析することにより要加工目標の全体加工案
内経路の集合点{AXj}j=1->nを獲得することであって、ただし、それぞれAX
jは要加工目標の全体的3DポイントクラウドデータS3Dにおける全体加工案内経路の
点、jは全体加工案内経路の点AXjの番号、jの値の範囲は[1,n]、nは全体加工
案内経路の点AXjの総数とするステップと、
ステップ3:
全体加工案内経路の集合点{AXj}j=1->nに基づいて、所定の要加工サブ目標領
域の高精度検出パラメータによって、要加工目標の全体的3DポイントクラウドデータS
3Dを要加工サブ目標領域のポイントクラウド集{S3D-j}j=1->n、に分割す
ることであって、ただし、S3D-jは全体加工案内経路の点AXjの要加工サブ目標領
域のポイントクラウドに対応するステップと、
ステップ4:
最適経路計画アルゴリズムによって、要加工サブ目標領域のポイントクラウド集{S3D
-j}j=1->nを順序付けすることによって、最適要加工サブ目標領域のポイントク
ラウド配列{S3D-i}i=1->nを生成することであって、ただしそれぞれS3D
-iは最適要加工サブ目標領域のポイントクラウド配列{S3D-i}i=1->n の
うちの要加工サブ目標領域のポイントクラウド、iは最適加工サブ目標領域のポイントク
ラウド配列{S3D-i}i=1->nの番号とし、iとjは一々対応し、iとjの一々
対応関係によって全体加工案内経路の集合点{AXj}j=1->nを全体加工案内経路
の点配列{AXi}i=1->nに変換するステップと、
ステップ5:
iは1~nとすると、要加工サブ目標領域のポイントクラウドS3D-iに対応する全体
加工案内経路の点AXiを検出ロボットベース座標系の全体加工案内経路の点BXiに変
換し、そして検出ロボットベース座標系の全体加工案内経路の点BXiを研磨ロボットベ
ース座標系の全体加工案内経路の点CXiを変換することによって、全体加工案内経路の
点配列{AXi}i=1->nを検出ロボットベース座標系の加工案内の点配列{BXi
}i=1->nに変換し、検出ロボットベース座標系の加工案内の点配列{BXi}i=
1->nを研磨ロボットベース座標系の全体加工案内の点配列{CXi}i=1->nに
変換するステップと、
ステップ6:
iは1~nとすると、研磨ロボットベース座標系の全体加工案内経路の点CXi にした
がって研磨ロボットの端末に設置されるローカルRGB-D複合センサーを案内しながら
要加工目標を走査することによって、要加工目標の要加工サブ目標領域に対応するポイン
トクラウドS3D-iの対応する領域の高精度ローカルポイントクラウドSS3D-iを
獲得するステップと、
ステップ7:
iは1~nとすると、レジストレーションアルゴリズムによって高精度ローカルポイント
クラウドSS3D-iをモジュールとして予定のサンプルポイントクラウドRS3Dの中
から高精度ローカルポイントクラウドSS3D-iにレジストレーションする高精度ロー
カルポイントクラウドRS3D-iを検索し、高精度ローカルポイントクラウドSS3D
-iと高精度ローカルポイントクラウドRS3D-iの対応する差異ポイントクラウドD
S3D-iを算出し、差異ポイントクラウドDS3D-iを分析検索し、研磨ロボットの
高精度3D加工案内信息を獲得するステップと、
を含むことを特徴とする、オーバービュー視覚およびローカル視覚の一体化によるロボッ
ト視覚案内方法。 - オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内装置1であって
、
加工目標データ収集モジュール10であって、検出ロボットの端末に設置される全体RG
B-D複合センサーD70によって要加工目標の全体レジストレーションRGB二次元画
面IRGBおよび全体レジストレーションデプスデータIDを獲得し、全体レジストレー
ションRGB二次元画面IRGBから要加工目標O10の全体領域SRGBを獲得し、全
体RGB-D複合センサーのキャリブレーション行列によって全体領域SRGBにしたが
って全体レジストレーションデプスデータIDから要加工目標O10の全体的3Dポイン
トクラウドデータS3Dを抽出するように構成される加工目標データ収集モジュール10
と、
全体加工案内経路モジュール20であって、全体的3DポイントクラウドデータS3Dを
分析することにより要加工目標の全体加工案内経路の集合点{AXj}j=1->nを獲
得するように構成されており、ただし、それぞれAXjは要加工目標の全体的3Dポイン
トクラウドデータS3Dにおける全体加工案内経路の点、jは全体加工案内経路の点AX
jの番号、jの値の範囲は[1、n]、nは全体加工案内経路の点AXjの総数とする全
体加工案内経路モジュール20と、
サブ目標領域分割モジュール30であって、全体加工案内経路の集合点{AXj}j=1
->nに基づいて、所定の要加工サブ目標領域の高精度検出パラメータによって、要加工
目標の全体的3DポイントクラウドデータS3Dを要加工サブ目標領域のポイントクラウ
ド集{S3D-j}j=1->n、に分割するように構成されており、ただし、S3D-
jは全体加工案内経路の点AXjの要加工サブ目標領域のポイントクラウドに対応するサ
ブ目標領域分割モジュール30と、
最適加工経路計画モジュール40であって、最適経路計画アルゴリズムによって、要加工
サブ目標領域のポイントクラウド集{S3D-j}j=1->nを順序付けすることによ
って、最適要加工サブ目標領域のポイントクラウド配列{S3D-i}i=1->nを生
成するように構成されており、ただしそれぞれS3D-iは最適要加工サブ目標領域のポ
イントクラウド配列{S3D-i}i=1->n のうちの要加工サブ目標領域のポイン
トクラウド、iは最適加工サブ目標領域のポイントクラウド配列{S3D-i}i=1-
>nの番号とし、iとjは一々対応し、iとjの一々対応関係によって全体加工案内経路
の集合点{AXj}j=1->nを全体加工案内経路の点配列{AXi}i=1->nに
変換する最適加工経路計画モジュール40と、
加工案内点変換モジュール50であって、iは1~nとすると、要加工サブ目標領域のポ
イントクラウドS3D-iに対応する全体加工案内経路の点AXiを検出ロボットベース
座標系の全体加工案内経路の点BXiに変換し、そして検出ロボットベース座標系の全体
加工案内経路の点BXiを研磨ロボットベース座標系の全体加工案内経路の点CXiを変
換することによって、全体加工案内経路の点配列{AXi}i=1->nを検出ロボット
ベース座標系の加工案内の点配列{BXi}i=1->nに変換し、検出ロボットベース
座標系の加工案内の点配列{BXi}i=1->nを研磨ロボットベース座標系の全体加
工案内の点配列{CXi}i=1->nに変換するように構成される加工案内点変換モジ
ュール50と、
ポイントクラウドの高精度ローカル収集モジュール60であって、iは1~nとすると、
研磨ロボットベース座標系の全体加工案内経路の点CXi にしたがって研磨ロボットの
端末に設置されるローカルRGB-D複合センサーを案内しながら要加工目標を走査する
ことによって、要加工目標の要加工サブ目標領域に対応するポイントクラウドS3D-i
の対応する領域の高精度ローカルポイントクラウドSS3D-iを獲得するように構成さ
れるポイントクラウドの高精度ローカル収集モジュール60と、
を含むことを特徴とする、オーバービュー視覚およびローカル視覚の一体化によるロボッ
ト視覚案内装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911215508.2A CN111216124B (zh) | 2019-12-02 | 2019-12-02 | 基于融入全局视觉和局部视觉的机器人视觉引导方法和装置 |
CN201911215508.2 | 2019-12-02 | ||
PCT/CN2020/101337 WO2021109575A1 (zh) | 2019-12-02 | 2020-07-10 | 基于融入全局视觉和局部视觉的机器人视觉引导方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022516852A JP2022516852A (ja) | 2022-03-03 |
JP7212236B2 true JP7212236B2 (ja) | 2023-01-25 |
Family
ID=70830739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021537213A Active JP7212236B2 (ja) | 2019-12-02 | 2020-07-10 | オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7212236B2 (ja) |
CN (1) | CN111216124B (ja) |
WO (1) | WO2021109575A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111216124B (zh) * | 2019-12-02 | 2020-11-06 | 广东技术师范大学 | 基于融入全局视觉和局部视觉的机器人视觉引导方法和装置 |
CN113386052A (zh) * | 2021-05-12 | 2021-09-14 | 华南理工大学 | 一种船体磨料水射流除漆除锈设备及其实现方法 |
JP2023047141A (ja) * | 2021-09-24 | 2023-04-05 | 村田機械株式会社 | ワーク位置判定装置、レーザ加工装置、及びワーク位置判定方法 |
CN114888794B (zh) * | 2022-04-24 | 2024-01-30 | 天津工程机械研究院有限公司 | 一种机器人人机交互运行路径标记方法及装置 |
CN115138527B (zh) * | 2022-06-22 | 2023-12-26 | 深圳市双翌光电科技有限公司 | 通过视觉引导的快速加工路径生成方法 |
CN115026396A (zh) * | 2022-06-27 | 2022-09-09 | 天津杰福德自动化技术有限公司 | 基于3d视觉引导的引熄弧板切割系统 |
CN115159149A (zh) * | 2022-07-28 | 2022-10-11 | 深圳市罗宾汉智能装备有限公司 | 一种基于视觉定位的取料卸货方法及其装置 |
CN115592501A (zh) * | 2022-10-11 | 2023-01-13 | 中国第一汽车股份有限公司(Cn) | 一种基于3d线激光视觉引导的顶盖钎焊自适应打磨方法 |
CN116652951B (zh) * | 2023-06-08 | 2024-04-05 | 广州鑫帅机电设备有限公司 | 一种非结构化大作业空间的机器人视觉定位方法及装置 |
CN116468764A (zh) * | 2023-06-20 | 2023-07-21 | 南京理工大学 | 基于超点空间引导的多视图工业点云高精度配准系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107127755A (zh) | 2017-05-12 | 2017-09-05 | 华南理工大学 | 一种三维点云的实时采集装置及机器人打磨轨迹规划方法 |
CN107598918A (zh) | 2017-08-16 | 2018-01-19 | 广东工业大学 | 基于打磨机器人的表面打磨处理自动编程方法和装置 |
CN108297105A (zh) | 2018-01-17 | 2018-07-20 | 广东工业大学 | 一种机械臂任务级时间最优轨迹规划方法 |
CN108326853A (zh) | 2018-01-17 | 2018-07-27 | 广东工业大学 | 一种打磨机器人系统 |
CN108994844A (zh) | 2018-09-26 | 2018-12-14 | 广东工业大学 | 一种打磨操作臂手眼关系的标定方法和装置 |
US20190122425A1 (en) | 2017-10-24 | 2019-04-25 | Lowe's Companies, Inc. | Robot motion planning for photogrammetry |
CN110103118A (zh) | 2019-06-18 | 2019-08-09 | 苏州大学 | 一种打磨机器人的路径规划方法、装置、系统及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103862341A (zh) * | 2014-04-01 | 2014-06-18 | 重庆大学 | 铸件打磨设备 |
CN106931969A (zh) * | 2015-12-29 | 2017-07-07 | 黑龙江恒和沙科技开发有限公司 | 一种基于Kinect的机器人三维导航地图生成方法 |
US10150213B1 (en) * | 2016-07-27 | 2018-12-11 | X Development Llc | Guide placement by a robotic device |
US20180348730A1 (en) * | 2017-06-01 | 2018-12-06 | X Development Llc | Automatic Generation of Toolpaths |
CN108858193B (zh) * | 2018-07-06 | 2020-07-03 | 清华大学深圳研究生院 | 一种机械臂抓取方法及系统 |
CN109102547A (zh) * | 2018-07-20 | 2018-12-28 | 上海节卡机器人科技有限公司 | 基于物体识别深度学习模型的机器人抓取位姿估计方法 |
CN109108942B (zh) * | 2018-09-11 | 2021-03-02 | 武汉科技大学 | 基于视觉实时示教与自适应dmps的机械臂运动控制方法和系统 |
CN109509215B (zh) * | 2018-10-30 | 2022-04-01 | 浙江大学宁波理工学院 | 一种KinFu的点云辅助配准装置及其方法 |
CN109960402B (zh) * | 2018-12-18 | 2022-04-01 | 重庆邮电大学 | 一种基于点云和视觉特征融合的虚实注册方法 |
CN111216124B (zh) * | 2019-12-02 | 2020-11-06 | 广东技术师范大学 | 基于融入全局视觉和局部视觉的机器人视觉引导方法和装置 |
-
2019
- 2019-12-02 CN CN201911215508.2A patent/CN111216124B/zh active Active
-
2020
- 2020-07-10 JP JP2021537213A patent/JP7212236B2/ja active Active
- 2020-07-10 WO PCT/CN2020/101337 patent/WO2021109575A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107127755A (zh) | 2017-05-12 | 2017-09-05 | 华南理工大学 | 一种三维点云的实时采集装置及机器人打磨轨迹规划方法 |
CN107598918A (zh) | 2017-08-16 | 2018-01-19 | 广东工业大学 | 基于打磨机器人的表面打磨处理自动编程方法和装置 |
US20190122425A1 (en) | 2017-10-24 | 2019-04-25 | Lowe's Companies, Inc. | Robot motion planning for photogrammetry |
CN108297105A (zh) | 2018-01-17 | 2018-07-20 | 广东工业大学 | 一种机械臂任务级时间最优轨迹规划方法 |
CN108326853A (zh) | 2018-01-17 | 2018-07-27 | 广东工业大学 | 一种打磨机器人系统 |
CN108994844A (zh) | 2018-09-26 | 2018-12-14 | 广东工业大学 | 一种打磨操作臂手眼关系的标定方法和装置 |
CN110103118A (zh) | 2019-06-18 | 2019-08-09 | 苏州大学 | 一种打磨机器人的路径规划方法、装置、系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111216124A (zh) | 2020-06-02 |
WO2021109575A1 (zh) | 2021-06-10 |
JP2022516852A (ja) | 2022-03-03 |
CN111216124B (zh) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7212236B2 (ja) | オーバービュー視覚およびローカル視覚の一体化によるロボット視覚案内方法及び装置 | |
CN111089569B (zh) | 一种基于单目视觉的大型箱体测量方法 | |
CN105729468B (zh) | 一种基于多深度摄像机增强的机器人工作台 | |
CN111476841B (zh) | 一种基于点云和图像的识别定位方法及系统 | |
CN108876852B (zh) | 一种基于3d视觉的在线实时物体识别定位方法 | |
WO2021103558A1 (zh) | 基于rgb-d数据融合的机器人视觉引导方法和装置 | |
CN116958146B (zh) | 3d点云的采集方法及装置、电子装置 | |
CN112017248B (zh) | 一种基于点线特征的2d激光雷达相机多帧单步标定方法 | |
CN107545247A (zh) | 基于双目识别的立体认知方法 | |
CN110780276A (zh) | 一种基于激光雷达的托盘识别方法、系统和电子设备 | |
CN112288815A (zh) | 一种目标模位置测量方法、系统、存储介质及设备 | |
CN109636897B (zh) | 一种基于改进RGB-D SLAM的Octomap优化方法 | |
CN111583342A (zh) | 一种基于双目视觉的目标快速定位方法及装置 | |
CN116909208B (zh) | 基于人工智能的壳体加工路径优化方法及系统 | |
KR20110121343A (ko) | 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법 | |
Hamzah et al. | A practical method for camera calibration in stereo vision mobile robot navigation | |
CN113932712A (zh) | 一种基于深度相机和关键点的瓜果类蔬菜尺寸测量方法 | |
CN113792645A (zh) | 一种融合图像和激光雷达的ai眼球 | |
Rashd et al. | Open-box target for extrinsic calibration of LiDAR, camera and industrial robot | |
Kheng et al. | Stereo vision with 3D coordinates for robot arm application guide | |
CN111354031A (zh) | 基于深度学习的3d视觉引导系统 | |
CN111678511B (zh) | 一种机器人的多传感器融合定位方法和系统 | |
CN113989465A (zh) | 一种工件智能引导装配中实际点云处理方法 | |
CN114387252A (zh) | 一种电力线缆识别与空间定位方法及系统 | |
CN117974775A (zh) | 机器人定位方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7212236 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |