JP6807450B2 - 多関節ロボットの平行度判定方法および多関節ロボットの傾き調整装置 - Google Patents

多関節ロボットの平行度判定方法および多関節ロボットの傾き調整装置 Download PDF

Info

Publication number
JP6807450B2
JP6807450B2 JP2019506828A JP2019506828A JP6807450B2 JP 6807450 B2 JP6807450 B2 JP 6807450B2 JP 2019506828 A JP2019506828 A JP 2019506828A JP 2019506828 A JP2019506828 A JP 2019506828A JP 6807450 B2 JP6807450 B2 JP 6807450B2
Authority
JP
Japan
Prior art keywords
predetermined direction
articulated robot
end side
distance
parallelism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019506828A
Other languages
English (en)
Other versions
JPWO2018173192A1 (ja
Inventor
崇 種池
崇 種池
信夫 大石
信夫 大石
雅登 鈴木
雅登 鈴木
識 西山
識 西山
慎也 三浦
慎也 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPWO2018173192A1 publication Critical patent/JPWO2018173192A1/ja
Priority to JP2020160845A priority Critical patent/JP6965422B2/ja
Application granted granted Critical
Publication of JP6807450B2 publication Critical patent/JP6807450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本明細書は、多関節ロボットの平行度判定方法および多関節ロボットの傾き調整装置について開示する。
従来より、ワークの基準面に対する平行度を判定するものが知られている。例えば、特許文献1には、位置合わせプレート(磁気プレート)上に位置決めされたウエハを、ロボットアームに装着されたカメラで撮影し、ウエハの撮影画像に基づいて磁気プレートに対するウエハの平行度を算出する制御装置を備えるものが開示されている。平行度の算出は、具体的には、制御装置により以下のようにして行なわれる。即ち、制御装置は、カメラによりウエハに付された2つのアライメントマークを撮像する。続いて、制御装置は、各アライメントマークの撮像画像に基づいて各アライメントマークにおける焦点のずれを算出し、焦点のずれから磁気プレートに対するウエハの平行度を算出する。そして、制御装置は、算出したウエハの平行度に基づいて磁気プレートに対してウエハが平行となるようにロボットアームの各関節部のアクチュエータを制御してウエハを傾斜させる。
特開2014−53343号公報
特許文献1記載の手法は、マークの撮像画像から焦点のずれを検出するものであるが、専用の検出装置が必要となったり、十分な検出精度を確保するために処理が複雑となったりする問題が生じる。こうした問題は、多関節ロボットの基準面に対する平行度を判定する場合にも同様に生じうる。
本開示は、より簡単に多関節ロボットの基準面に対する平行度を判定することを主目的とする。
本開示は、上述の主目的を達成するために以下の手段を採った。
本開示は、多関節ロボットの基準面に対する平行度を判定する多関節ロボットの平行度判定方法であって、前記多関節ロボットの作業台に所定パターンの模様を有するプレートを配置し、前記多関節ロボットのアームに装着されたカメラにより前記プレートを撮像し、前記プレートの撮像画像中に認識される模様の間隔を複数箇所で測定し、該測定した各間隔の対比に基づいて前記平行度を判定することを要旨とする。
プレートが有する模様の撮像画像は、カメラ(アーム)とプレートとが相対的に傾いていると、模様が実際よりも大きく写る領域と模様が実際よりも小さく写る領域とが生じる。そして、カメラとプレートとが大きく傾いているほど、各領域で写った模様の大小の差が大きくなる。本開示の多関節ロボットの平行度判定方法は、撮像画像中の模様の間隔を複数箇所で測定し、測定した複数の間隔を対比することにより平行度を判定するため、より簡単に多関節ロボットの基準面に対する平行度を判定することができる。
ロボット20の構成の概略を示す構成図である。 ロボット20の可動域を示す説明図である。 ロボット20の可動域を示す説明図である。 ロボット20とロボット制御装置70と画像処理装置80の電気的な接続関係を示すブロック図である。 傾き調整工程の一例を示す説明図である。 ジグプレートPの撮像の様子を示す説明図である。 ジグプレートPの上面模様を示す説明図である。 ジグプレートPの上面模様を示す説明図である。 カメラ24がジグプレートPに対して平行な場合のジグプレートPの撮像の様子を示す説明図である。 図7Aの位置から撮像されたジグプレートPの撮像画像を示す説明図である。 カメラ24がジグプレートPに対して平行でない場合のジグプレートPの撮像の様子を示す説明図である。 図8Aの位置から撮像されたジグプレートPの撮像画像を示す説明図である。 イメージセンサのサイズHと焦点距離Fと視野FOVとワーキングディスタンスWDとを示す説明図である。 ワーキングディスタンスWDと分解能RESとの関係を示す説明図である。 カメラ24が対象物に対して所定角θ傾いている場合の視野の左端(A端)におけるワーキングディスタンスWD1と視野の右端(B端)におけるワーキングディスタンスWD2とを示す説明図である。 A端のドット中心間距離La1,La2およびB端のドット中心間距離Lb1,Lb2とを示す説明図である。
次に、本開示の発明を実施するための形態について図面を参照しながら説明する。
図1は、ロボット20の構成の概略を示す構成図である。図2A,図2Bは、ロボット20の可動域を示す説明図である。図3は、ロボット20とロボット制御装置70と画像処理装置80の電気的な接続関係を示すブロック図である。
ロボット20は、ロボット制御装置70(図3参照)による制御を受けて、ワーク搬送装置12(図3参照)により搬送されるワーク(作業対象物)に対して所定の作業を行なうものである。なお、所定の作業としては、ワークをピックアップするピックアップ作業や、ワークを所定位置にプレースするプレース作業、ワークを所定位置に組み付ける組み付け作業などを挙げることができる。
ロボット20は、図1に示すように、5軸の垂直多関節アーム(以下、アームという)22を備える。アーム22は、6つのリンク(第1〜第6リンク31〜36)と、各リンクを回転または旋回可能に連結する5つの関節(第1〜第5関節41〜45)とを有する。各関節(第1〜第5関節41〜45)には、対応する関節を駆動するモータ(サーボモータ)51〜55と、対応するモータの回転位置を検出するエンコーダ(ロータリエンコーダ)61〜65とが設けられている。
アーム22の先端リンク(第6リンク36)には、エンドエフェクタとしての作業ツールが着脱可能となっている。なお、作業ツールとしては、電磁チャックやメカニカルチャック、吸着ノズルなどを挙げることができる。先端リンクに装着するツールは、作業対象のワークの形状や素材に合わせて適宜選択される。
また、アーム22の先端部(第5リンク35)には、カメラ24が取り付けられている。カメラ24は、ワークの位置および姿勢を認識するために当該ワークを撮像するためのものである。
こうして構成された本実施形態のアーム22は、図2Aに示すように、ロボット20を正面から見て前(手前)後(奥)の方向をX軸とし、ロボット20の上下方向(第1関節41の回転軸の延在方向)をZ軸とし、X軸およびZ軸に直交する方向をY軸とする三次元空間内の移動と、Z軸周りの回転方向(RC)の移動とが可能である。更に、アーム22は、図2Bに示すように、Y軸周りの回転方向(RB)の移動が可能である。
ロボット制御装置70は、図3に示すように、CPU71を中心としたマイクロプロセッサとして構成され、CPU71の他に、ROM72やHDD73、RAM74、図示しない入出力インタフェース、図示しない通信インタフェースなどを備える。なお、HDD73は、ロボット20の動作プログラムなどを記憶している。ロボット制御装置70には、エンコーダ61〜65などからの検知信号が入力される。また、ロボット制御装置70からは、モータ51〜55やワーク搬送装置12などへの制御信号が出力される。
ロボット制御装置70は、ロボット20の各モータ51〜55を駆動制御することにより、アーム22の先端リンク(第6リンク36)に装着された作業ルーツをワークに向けて移動させ、作業ツールを用いてワークに対して所定の作業を行なう。具体的には、ロボット制御装置70は、ワークに対して作業を行なうための作業ツールの目標位置(X,Y,Z)および目標姿勢(RB,RC)を画像処理装置80から取得する。続いて、ロボット制御装置70は、取得した目標位置(X,Y,Z)および目標姿勢(RB,RC)を周知のHDパラメータ等を用いてアーム22の各関節の目標位置(目標角度)に座標変換する。そして、ロボット制御装置70は、各関節の位置(角度)が座標変換した目標位置(目標角度)に一致するように対応するモータ51〜55を駆動制御すると共にワークに対して作業が行なわれるよう作業ツールを駆動制御する。
また、ロボット制御装置70には、画像処理装置80が通信可能に接続されている。画像処理装置80は、CPU81を中心としたマイクロプロセッサとして構成され、CPU81の他に、ROM82やHDD83、RAM84、図示しない入出力インタフェース、図示しない通信インタフェースなどを備える。画像処理装置80には、カメラ24からの画像信号や入力装置85からの入力信号などが入力される。また、画像処理装置80からは、カメラ24への駆動信号や出力装置86への出力信号などが出力される。ここで、入力装置85は、例えばキーボードやマウス等、オペレータが入力操作を行なう入力デバイスである。出力装置86は、例えば液晶ディスプレイ等、各種情報を表示するための表示デバイスである。画像処理装置80は、ロボット制御装置70と通信可能に接続されており、互いに制御信号やデータのやり取りを行なっている。
次に、こうして構成されたロボット20の基準面に対する傾きを調整する傾き調整工程について説明する。図4は、傾き調整工程の一例を示す説明図である。傾き調整工程は、オペレータが図5に示すようにジグプレートPをロボット20の作業台11上に設置した後(S100)、画像処理装置80のCPU81が以下のS110〜S160の処理を実行することにより行なわれる。図6A,図6Bは、ジグプレートPの上面模様を示す説明図である。ジグプレートPの上面には、図6Aに示すように、円形のドット(マーク)がマトリックス状に並んだパターンが形成されている。なお、ジグプレートPの上面には、図6Bに示すように、二色(白,黒)の正方形が交互に並ぶ市松模様状のパターンが形成されてもよい。
画像処理装置80のCPU81は、ロボット20のアーム22に装着されたカメラ24でジグプレートPを撮像する(S110)。この処理は、ジグプレートPの設置位置に対応したカメラ24の撮像位置を含む制御信号をロボット制御装置70に送信することにより行なわれる。ロボット制御装置70は、画像処理装置80から制御信号を受信すると、図5に示すようにジグプレートPの上方にカメラ24が来るようにモータ51〜55を駆動制御する。
続いて、CPU81は、ジグプレートPの撮像画像に含まれるレンズ収差(歪曲収差)を周知の歪み補正アルゴリズムを用いて補正するレンズ歪み補正を行なう(S120)。レンズ歪み補正は、例えば、画像の各画素の位置と歪み量とを対応付けて予め求めて歪み量マッピングデータとしてROM82に記憶しておき、撮像画像の各画素の位置を対応する歪み量で補正することにより行なうことができる。そして、CPU81は、レンズ歪み補正後の撮像画像から背景色(白)とマーク色(黒)とを分離し、ジグプレートPの4隅のマークの輪郭を抽出する(S130)。次に、CPU81は、ロボット20のX方向(ロボット20の前後方向)における一方側にあるA端の2つのドットの中心間距離(ドット中心間距離La)と他方側にあるB端の2つのドットの中心間距離(ドット中心間距離Lb)とをドット中心間に含まれる画素数をカウントして計測する(S140)。そして、CPU81は、A端のドット中心間距離Lbに対するB端のドット中心間距離Laの比(La/Lb)に基づいてロボット20の基準面(作業台11の上面)に対する平行度θ(Y軸周りの回転方向の傾き)を導出する(S150)。
図7Aは、カメラ24がジグプレートPに対して平行な場合のジグプレートPの撮像の様子を示す説明図である。図7Bは、図7Aの位置から撮像されたジグプレートPの撮像画像を示す説明図である。図8Aは、カメラ24がジグプレートPに対して平行でない場合のジグプレートPの撮像の様子を示す説明図である。図8Bは、図8Aの位置から撮像されたジグプレートPの撮像画像を示す説明図である。図7Aに示すように、カメラ24がジグプレートPに対して平行な場合、ジグプレートPの撮像画像は、図7Bに示すように、全てのマークが同じ大きさ且つ同じ間隔で写る。一方、図8Aに示すように、カメラ24がジグプレートPに対して相対的にY軸周りに傾いていると、ジグプレートPの撮像画像は、図8Bに示すように、マークが大きく且つ広い間隔で写る領域と、マークが小さく且つ狭い間隔で写る領域とが生じる。そして、カメラ24のジグプレートPに対する相対的な傾きが大きいほど、マークの大小差および広狭差は、大きくなる傾向を示す。CPU81は、こうした現象を利用し、ジグプレートPの撮像画像に写る各マークの間隔を複数箇所で計測してそれらを対比することにより、カメラ24とジグプレートPとの相対的な傾き、即ちロボット20の基準面に対する平行度θ(傾き)を求めることができる。
S150の処理は、具体的には、A端のドット中心間距離Lbに対するB端のドット中心間距離Laの比(La/Lb)と平行度θとの関係を予め実験的に求めてマップとしてROM82に記憶しておき、比(La/Lb)が与えられると、マップから対応する平行度θを導出することにより行なわれる。ここで、上述したS100〜S150の工程は、ロボット20の基準面に対する平行度(傾き)を判定する平行度判定工程に該当する。
CPU81は、こうしてロボット20の基準面に対する平行度θを導出すると、導出した平行度θに基づいてロボット20の傾き補正値を設定して(S160)、傾き調整工程を終了する。S160の処理は、Y軸周りの回転方向の傾き分だけ逆方向にオフセットするように作業ツールの目標姿勢(RB)に対するオフセット角度ΔRBを設定することにより行なわれる。これにより、ロボット制御装置70は、オフセット角度ΔRBだけオフセットされた作業ツールの目標姿勢(RB)に基づいてロボット20を制御することとなる。
ここで、実施形態の主要な要素と発明の開示の欄に記載した発明の主要な要素との対応関係について説明する。即ち、カメラ24がカメラに相当し、画像処理装置80のCPU81が制御装置に相当する。
以上説明した多関節ロボットの傾き補正装置では、画像処理装置80のCPU81は、上面(撮像面)に模様(マトリックス状のマーク)が形成されたジグプレートPをカメラ24で撮像する。続いて、CPU81は、ジグプレートPの撮像画像中の4隅のマークのうち対角でない2つのマークのドット中心間距離Laと、残りの2つのマークのドット中心間距離Lbとを測定する。そして、CPU81は、測定した各ドット中心間距離の比(La/Lb)に基づいてロボット20の平行度θを導出する。これにより、ダイヤルゲージなどを用いることなく、より簡単に多関節ロボットの基準面に対する平行度を判定することができる。
また、CPU81は、ジグプレートPの撮像画像にレンズ歪み補正を施し、レンズ歪み補正後の撮像画像に基づいてドット中心間距離La,Lbを測定する。これにより、CPU81は、ドット中心間距離La,Lbをより正確に測定することができ、平行度の判定をより適切に行なうことができる。
さらに、CPU81は、導出した平行度θに基づいてロボット20の傾き補正値を設定する。これにより、ロボット20の基準面に対する傾きをより簡易な手法により調整することができる。
本実施形態では、CPU81は、A端のドット中心間距離Lbに対するB端のドット中心間距離Laの比(La/Lb)に基づいてマップによりロボット20の基準面に対する平行度θを導出した。しかし、CPU81は、所定の演算式を用いて演算により平行度θを算出してもよい。図9は、イメージセンサのサイズHと焦点距離Fと視野FOVとワーキングディスタンスWDとを示す説明図である。レンズ24aとイメージセンサ24b(CCDなど)とを有するカメラ24において、イメージセンサ24bのサイズをH[mm]とし、イメージセンサ24bからレンズ24aまでの距離である焦点距離をF[mm]とし、ワーキングディスタンスをWD[mm]とし、ワーキングディスタンスの範囲における撮像範囲である視野をFOV[mm]とする。この場合、図9から解るように、H:F=FOV:WDにより次式(1)が成り立つため、視野FOVは、次式(2)で算出される。一方、分解能RESは、撮像画像中の1画素あたりの大きさを示すものであり、X方向の視野FOVとイメージセンサ24bのX方向の画素数PNとを用いて、次式(3)で算出される。式(3)に視野FOVの式(2)を代入すると、分解能RESは、次式(4)で算出される。分解能RESは、式(4)からワーキングディスタンスWDに比例することが解る。式(4)中のαは、ワーキングディスタンス単位長あたりの分解能(単位分解能とも呼ぶ)であり、イメージセンサ24bの仕様(画素数,センササイズ)とレンズ24aの個体(焦点距離,倍率)とにより決まる定数となる。
F*FOV=H*WD …(1)
FOV=(H/F)*WD …(2)
RES=FOV/PN …(3)
RES=(H/(F*PN))*WD
=α*WD 但し、α=H/(F*PN)…(4)
ここで、図9に示すように、基準のワーキングディスタンスWDよりも短いWD1と長いWD2とを設定した場合、ワーキングディスタンスと分解能との関係は、図10のように、単位分解能αを傾きとする直線で表わすことができる。単位分解能αは、次式(5)で算出される。
α=RES/WD
=ΔRES1/ΔWD1
=ΔRES1/ΔWD1
=(RES2-RES1)/(WD2-WD1) …(5)
図11は、カメラ24が対象物に対して所定角θ傾いている場合の視野の左端(A端)におけるワーキングディスタンスWD1と視野の右端(B端)におけるワーキングディスタンスWD2とを示す説明図である。図12は、A端のドット中心間距離La1,La2およびB端のドット中心間距離Lb1,Lb2とを示す説明図である。ドット(マーク)がマトリックス状に配列された図6AのジグプレートPをカメラ24で撮像する場合、CPU81は、カメラ24の視野の中心が中央のドットDC(図12参照)と一致するようにアーム22を移動させて撮像を行なう。この場合、図11に示すように、カメラ24がジグプレートPの上面に対して所定角θ傾いていると、視野の左端(A端)におけるワーキングディスタンスWD1は、本来のワーキングディスタンスWDよりも近くなり、視野の右端(B端)におけるワーキングディスタンスWD2は、本来のワーキングディスタンスWDよりも遠くなる。このため、カメラ24の撮像画像は、図12に示すように、近距離側のA端で大きく写り、遠距離側のB端で小さく写る。このとき、カメラ24の傾きθは、WD1とWD2との差(ΔWD=WD2−WD1)とジグプレートPのA端とB端との間の距離Lとから、次式(6)で算出される。距離Lは既知であるから、ΔWDを検出することにより、カメラ24の傾きθを算出することができる。
sinθ=ΔWD/L
θ=sin-1(ΔWD/L) …(6)
式(5)は、次式(7)のように変形することができる。一方、A端の分解能RES1とB端の分解能RES2は、図12の撮像画像を処理することで算出することができる。即ち、A端の分解能RES1は、撮像画像において写る図12のA端における端辺中央のドットを含む隣接する2つのドットのドット中心間距離La1,La2[pix]の平均値と、ジグプレートPの隣接する2つのドットの仕様上の中心間距離DP[mm]とを用いて、次式(8)で算出される。ドット中心間距離La1,La2[pix]は、それぞれ撮像画像に写る隣接するドットの中心間に含まれる画素数をカウントすることにより計測することができる。一方、B端の分解能RES2は、同様に、図12のB端における端辺中央のドットを含む隣接する2つのドットのドット中心間距離Lb1,Lb2[pix]の平均値と、上記仕様上の中心間距離DP[mm]とを用いて、次式(9)で算出される。このように、分解能RES1,RES2は、それぞれA端,B端の各端辺にあるドット群のうち何れか2つのドット間の仕様上の距離と、撮像画像において当該2つのドット間に含まれる画素数とを用いて算出することができる。
WD2-WD1=ΔWD
=(RES2-RES1)/α …(7)
RES1=DP/Average(La1,La2)
=2*DP/(La1+La2) …(8)
RES2=DP/Average(Lb1,Lb2)
=2*DP/(Lb1+Lb2) …(9)
式(6)に、式(7)〜(9)を代入することによりカメラ24の傾きθ、即ちロボット20の基準面に対する平行度θを算出することができる。
本実施形態では、ジグプレートPの上面(撮像面)に、マトリックス状のドットパターンや市松模様状の模様(パターン)が形成されるものとした。しかし、ジグプレートPに形成される模様(パターン)は、少なくとも正方形状または長方形状に並んだ4つのマークを有するパターンであれば、如何なるパターンであってもよい。また、ジグプレートPに形成される模様は、カメラ24によるジグプレートPの撮像画像に写る模様の間隔を複数箇所で計測することにより、ジグプレートPに対するカメラ24の平行度、すなわちロボット20の基準面に対する平行度を判定できるものであればよい。
本実施形態では、ロボット20は、5軸の垂直多関節アーム22を備えるものとした。しかし、多関節アームは、5軸に限られず、例えば、6軸以上有するものとしてもよい。例えば、6軸の多関節アームは、X(ロボットの前後方向),Y(左右方向),Z(上下方向)の三次元空間内の移動と、X軸周りの回転方向(RA)の移動と、Y軸周りの回転方向(RB)の移動と、Z軸周りの回転方向(RC)の移動とが可能である。この場合、画像処理装置のCPUは、カメラによるジグプレートの撮像画像中に含まれる4隅のマークのうちY方向における一方側の2つのマークのドット中心間距離と、他方側の2つのマークのドット中心間距離とを計測する。これにより、画像処理装置のCPUは、計測した各ドット中心間距離の対比に基づいてX軸周りの回転方向におけるロボットの基準面に対する傾き(平行度)を判定することができる。
本実施形態では、本開示の発明を傾き調整装置の形態として説明したが、平行度判定方法の形態としてもよい。
なお、本発明は上述した実施形態に何ら限定されることはなく、本開示の発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
本開示は、ロボットの製造産業などに利用可能である。
11 作業台、20 ロボット、22 アーム、24 カメラ、31 第1リンク、32 第2リンク、33 第3リンク、34 第4リンク、35 第5リンク、36 第6リンク、41 第1関節、42 第2関節、43 第3関節、44 第4関節、45 第5関節、51〜55 モータ、61〜65 エンコーダ、70 ロボット制御装置、71 CPU、72 ROM、73 HDD、74 RAM、80 画像処理装置、81 CPU、82 ROM、83 HDD、84 RAM、85 入力装置、86 出力装置、P ジグプレート。

Claims (3)

  1. イメージセンサとレンズとを有するカメラがアームに装着された多関節ロボットの基準面に対する平行度を判定する多関節ロボットの平行度判定方法であって、
    前記多関節ロボットの作業台に所定パターンの模様を有するプレートを配置し、
    前記カメラで前記プレートを撮像し、
    前記イメージセンサの所定方向におけるサイズHと前記イメージセンサの前記所定方向における画素数PNと前記イメージセンサから前記レンズまでの距離Fとに基づいて単位分解能αを式α=H/(F*PN)により導出し、
    前記プレートの撮像画像を処理して前記プレートの前記所定方向一端側における仕様上の2点間の距離と該2点間に含まれる画素数とに基づいて該所定方向一端側における分解能RES1を算出すると共に前記プレートの前記所定方向他端側における仕様上の2点間の距離と該2点間に含まれる画素数とに基づいて該所定方向他端側における分解能RES2を算出し、
    前記単位分解能αと前記分解能RES1,RES2とに基づいて前記所定方向一端側におけるワーキングディスタンスと前記所定方向他端側におけるワーキングディスタンスとの差分ΔWDを式ΔWD=(RES2−RES1)/αにより算出し、
    前記差分ΔWDと前記所定方向一端側から前記所定方向他端側までの距離Lとに基づいて前記平行度として前記多関節ロボットの前記基準面に対する傾きθを式θ=sin-1(ΔWD/L)により算出する、
    多関節ロボットの平行度判定方法。
  2. 請求項1記載の多関節ロボットの平行度判定方法であって、
    前記所定パターンの模様は、識別情報がマトリックス状に並んだ模様である、
    多関節ロボットの平行度判定方法。
  3. 多関節ロボットの基準面に対する傾きを調整する多関節ロボットの傾き調整装置であって、
    前記多関節ロボットのアームに装着され、イメージセンサとレンズとを有するカメラと

    前記多関節ロボットの作業台に設置された所定パターンの模様を有するプレートを前記カメラで撮像し、前記イメージセンサの所定方向におけるサイズHと前記イメージセンサの前記所定方向における画素数PNと前記イメージセンサから前記レンズまでの距離Fとに基づいて単位分解能αを式α=H/(F*PN)により導出し、前記プレートの撮像画像を処理して前記プレートの前記所定方向一端側における仕様上の2点間の距離と該2点間に含まれる画素数とに基づいて該所定方向一端側における分解能RES1を算出すると共に前記プレートの前記所定方向他端側における仕様上の2点間の距離と該2点間に含まれる画素数とに基づいて該所定方向他端側における分解能RES2を算出し、前記単位分解能αと前記分解能RES1,RES2とに基づいて前記所定方向一端側におけるワーキングディスタンスと前記所定方向他端側におけるワーキングディスタンスとの差分ΔWDを式ΔWD=(RES2−RES1)/αにより算出し、前記差分ΔWDと前記所定方向一端側から前記所定方向他端側までの距離Lとに基づいて前記多関節ロボットの前記基準面に対する傾きθを式θ=sin-1(ΔWD/L)により算出し、該算出した傾きθに基づいて前記多関節ロボットの傾き補正値を設定する制御装置と、
    を備える多関節ロボットの傾き調整装置。
JP2019506828A 2017-03-23 2017-03-23 多関節ロボットの平行度判定方法および多関節ロボットの傾き調整装置 Active JP6807450B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020160845A JP6965422B2 (ja) 2017-03-23 2020-09-25 カメラの平行度判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/011704 WO2018173192A1 (ja) 2017-03-23 2017-03-23 多関節ロボットの平行度判定方法および多関節ロボットの傾き調整装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020160845A Division JP6965422B2 (ja) 2017-03-23 2020-09-25 カメラの平行度判定方法

Publications (2)

Publication Number Publication Date
JPWO2018173192A1 JPWO2018173192A1 (ja) 2019-11-21
JP6807450B2 true JP6807450B2 (ja) 2021-01-06

Family

ID=63585110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019506828A Active JP6807450B2 (ja) 2017-03-23 2017-03-23 多関節ロボットの平行度判定方法および多関節ロボットの傾き調整装置

Country Status (2)

Country Link
JP (1) JP6807450B2 (ja)
WO (1) WO2018173192A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110187259A (zh) * 2019-06-10 2019-08-30 德淮半导体有限公司 一种防止晶圆测试中针痕偏移的调整系统以及调整方法
WO2021152744A1 (ja) * 2020-01-29 2021-08-05 株式会社Fuji 制御装置、制御方法、情報処理装置及び情報処理方法
WO2024089852A1 (ja) * 2022-10-27 2024-05-02 株式会社Fuji 制御装置、ロボットシステム及び制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011146A (ja) * 1996-06-25 1998-01-16 Shinko Electric Co Ltd 移動体の停止姿勢補正装置
JP4683516B2 (ja) * 2001-05-16 2011-05-18 日本工営株式会社 デジタルカメラを用いた構造物の亀裂変位計測方法
JP4450532B2 (ja) * 2001-07-18 2010-04-14 富士通株式会社 相対位置計測装置

Also Published As

Publication number Publication date
WO2018173192A1 (ja) 2018-09-27
JPWO2018173192A1 (ja) 2019-11-21

Similar Documents

Publication Publication Date Title
CN105066884B (zh) 一种机器人末端定位偏差校正方法及系统
JP7153085B2 (ja) ロボットキャリブレーションシステム及びロボットキャリブレーション方法
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP4267005B2 (ja) 計測装置及びキャリブレーション方法
JP6025386B2 (ja) 画像計測装置、画像計測方法及び画像計測プログラム
EP2682711B1 (en) Apparatus and method for three-dimensional measurement and robot system comprising said apparatus
US20090299684A1 (en) Method for calibrating cameras installed on vehicle
CN105783711B (zh) 三维扫描仪校正系统及其校正方法
JP6807450B2 (ja) 多関節ロボットの平行度判定方法および多関節ロボットの傾き調整装置
CN110170982B (zh) 模拟机器人的动作的模拟装置
US11548156B2 (en) Device and method for calibrating coordinate system of 3D camera and robotic arm
CN110815201B (zh) 机器手臂校正坐标的方法
TWI667090B (zh) 雷射加工裝置
JP6965422B2 (ja) カメラの平行度判定方法
JP7180783B2 (ja) コンピュータビジョンシステムのキャリブレーション方法及びこれに用いる基準立体物
CN112802123A (zh) 一种基于条纹虚拟靶标的双目线阵相机静态标定方法
EP3895855A1 (en) Robot control system and robot control method
JP7414850B2 (ja) ロボットシステム
CN111716340B (zh) 3d相机与机械手臂坐标系统的校正装置及方法
KR20220058740A (ko) 스캔을 이용한 로봇의 캘리브레이션 시스템 및 방법
CN114373020A (zh) 一种基于联合外参估计的线结构光传感器光平面标定方法
JPH05204423A (ja) 視覚装置付きロボット装置における座標較正方法
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
Wang et al. A direct calibration method for structured light
JP5481123B2 (ja) 部品の搭載装置、部品の搭載方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201207

R150 Certificate of patent or registration of utility model

Ref document number: 6807450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250