JP7258516B2 - キャリブレーション方法および把持システム - Google Patents

キャリブレーション方法および把持システム Download PDF

Info

Publication number
JP7258516B2
JP7258516B2 JP2018203631A JP2018203631A JP7258516B2 JP 7258516 B2 JP7258516 B2 JP 7258516B2 JP 2018203631 A JP2018203631 A JP 2018203631A JP 2018203631 A JP2018203631 A JP 2018203631A JP 7258516 B2 JP7258516 B2 JP 7258516B2
Authority
JP
Japan
Prior art keywords
measurement point
distance
coordinate system
predetermined
robot arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018203631A
Other languages
English (en)
Other versions
JP2020069549A (ja
Inventor
聖也 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THK Co Ltd
Original Assignee
THK Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THK Co Ltd filed Critical THK Co Ltd
Priority to JP2018203631A priority Critical patent/JP7258516B2/ja
Publication of JP2020069549A publication Critical patent/JP2020069549A/ja
Application granted granted Critical
Publication of JP7258516B2 publication Critical patent/JP7258516B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、三次元単眼カメラによって撮像された画像データに基づいて制御されるロボットアームに対して行われるキャリブレーション方法、および、該キャリブレーション方法が適用される把持システムに関する。
ロボットアームに設けられたハンド機構によって対象物を把持する把持システム等においては、三次元単眼カメラによって対象物を撮像することで取得された画像データに基づいて該ロボットアームを制御する場合がある。この場合、三次元単眼カメラの座標系(以下、「カメラ座標系」と称する場合もある。)における位置情報をロボットアームの制御のための座標系(以下、「ロボットアーム座標系」と称する場合もある。)における位置情報に変換する必要がある。そのため、このようなロボットアームの使用に際しては、カメラ座標系における位置情報をロボットアーム座標系における位置情報に変換するための変換パラメータを求めるべく、座標系のキャリブレーションが行われる。
また、特許文献1には、画像データ上における注目点の位置情報に基づいて実空間における位置情報を取得するためのキャリブレーション方法に関する技術が開示されている。この特許文献1に記載の技術では、実空間に設けられたフレームを構成する2つの直線の長さと、画像データ上でのピクセル長さとに基づいて、ピクセル位置情報を実際の位置情報に変換するための変換率が算出される。
特許第4205004号公報
上述したように、ロボットアームに対して行われる座標系のキャリブレーションでは、カメラ座標系における位置情報をロボットアーム座標系における位置情報に変換するための変換パラメータを算出する。この変換パラメータの算出は、キャリブレーションのための基準点となる測定点についての、カメラ座標系における位置情報、および、ロボットアーム座標系における位置情報を用いて行われる。
そして、このときのカメラ座標系における位置情報は、実空間における、三次元単眼カメラのレンズ面頂(レンズの球面の頂点)から測定点までの距離(以下、「測定点距離」と称する場合もある。)に基づいて算出される。そのため、三次元単眼カメラにおいては、ToF(Time of Flight)技術や光切断法等の距離測定技術を採用した測定装置によって測定点距離の測定が行われている。しかしながら、このような、画像データ以外の情報を用いて距離測定を行う測定装置によって測定点距離を測定した場合、その測定精度が不十分となる場合があった。そして、測定点距離の測定精度が不十分であると、座標系のキャリブレーションに用いるためのカメラ座標系における位置情報の精度も不十分となるため、該キャリブレーションを高精度で行うことが困難となる虞があった。また、ロボットアームに対して行われる座標系のキャリブレーションの精度が低いと、該ロボットアームを含む把持システムにおける対象物の把持動作の安定性が低下する虞があった。
本発明は、上記のような問題に鑑みてなされたものであって、三次元単眼カメラによって撮像された画像データに基づいて制御されるロボットアームに対して行われる座標系の
キャリブレーションの精度を向上させることが可能な技術を提供することを目的とする。
本発明に係るキャリブレーション方法は、
三次元単眼カメラによって撮像された画像データに基づいて制御されるロボットアームに対して行われるキャリブレーション方法であって、該三次元単眼カメラの座標系であるカメラ座標系における位置情報を、該ロボットアームの制御のための座標系であるロボットアーム座標系における位置情報に変換するための変換パラメータを求めるためのキャリブレーション方法において、
実空間における前記三次元単眼カメラのレンズ面頂から所定の測定点までの距離である測定点距離を前記画像データに基づいて算出する距離算出ステップと、
前記距離算出ステップにおいて算出された前記測定点距離に基づいて、前記所定の測定点についての前記カメラ座標系における位置情報を算出するカメラ座標算出ステップと、
前記所定の測定点についての前記ロボットアーム座標系における位置情報を取得するロボットアーム座標取得ステップと、
前記所定の測定点についての、前記カメラ座標系における位置情報および前記ロボットアーム座標系における位置情報に基づいて、前記変換パラメータを算出する変換パラメータ算出ステップと、を有する。
本発明によれば、三次元単眼カメラによって撮像された画像データに基づいて制御されるロボットアームに対して行われる座標系のキャリブレーションの精度を向上させることができる。
本実施例に係る把持システムの概略構成を示す図である。 実施例に係るロボットアームの概略構成を示す図である。 実施例に係るハンド機構の斜視図である。 実施例に係るハンド機構の上面図である。 実施例に係る、アーム制御装置、ハンド制御装置、および、画像処理装置に含まれる各機能部を示すブロック図である。 実施例に係るキャリブレーションプレートの概略構成を示す図である。 画像データ上の二次元の位置情報を、カメラ座標系における三次元の位置情報に変換する方法について説明するための図である。 画像データに基づく測定点距離の算出方法について説明するための図である。 実施例に係る座標系のキャリブレーションのフローを示すフローチャートである。
本発明に係るキャリブレーション方法では、距離算出ステップにおいて、所定の測定点についての測定点距離が、三次元単眼カメラによって撮像された画像データに基づいて算出される。ここで、三次元単眼カメラによって撮像された画像データからは、例えば、所定の測定点についてのピクセル座標(三次元単眼カメラの画像センサ上の座標)等の位置情報を抽出することができる。そのため、画像データに基づいて所定の測定点についての測定点距離を算出することで、該測定点距離を高精度で算出することができる。そして、カメラ座標算出ステップでは、距離算出ステップにおいて算出された測定点距離に基づいて、所定の測定点についてのカメラ座標系における位置情報が算出される。その結果、所定の測定点についてのカメラ座標系における位置情報を高精度で取得することができる。そして、変換パラメータ算出ステップにおいて、高精度で取得されたカメラ座標系におけ
る位置情報とロボットアーム座標系における位置情報とに基づいて変換パラメータが算出される。これにより、ロボットアームに対して行われる座標系のキャリブレーションの精度を向上させることができる。また、座標系のキャリブレーションの精度が向上することで、ロボットアームを含む把持システムにおいて、より安定した把持動作を行うことが可能となる。
以下、本発明の具体的な実施例について図面に基づいて説明する。本実施例に記載されている構成部品の寸法、材質、形状、その相対配置等は、特に記載がない限りは発明の技術的範囲をそれらのみに限定する趣旨のものではない。
<実施例1>
(把持システム)
ここでは、本発明を、把持システムにおけるロボットアームに適用した場合について説明する。図1は、本実施例に係る把持システムの概略構成を示す図である。把持システム100は、ロボットアーム1と、三次元単眼カメラ(以下、単に「カメラ」と称する。)8と、を含んでいる。カメラ8は、把持システム100における把持の対象となる対象物10の上方に位置するように設置されている。そして、カメラ8は、対象物10の上方から該対象物10を撮像する。なお、カメラ8は、必ずしも、対象物10の上方に位置するように設置されている必要はなく、該対象物10を所定の方向から撮像できるような位置に設置されていればよい。また、カメラ8は、ロボットアーム1に取り付けられていてもよい。また、カメラ8は、三次元カメラであり、レンズ面頂から所定の位置までの距離を測定可能な測定装置8aを備えている。このようなカメラ8としては、ToF(Time of Flight)カメラを採用することができる。ただし、測定装置8aは、ToF技術を用いた装置に限られるものではなく、例えば、光切断法を用いて距離測定を行う装置であってもよい。なお、カメラ8は、二次元単眼カメラと、レンズ面頂から所定の位置までの距離を測定可能な測定装置との組み合わせによって構成されてもよい。また、ロボットアーム1は、対象物10を把持するためのハンド機構2、アーム機構3、および台座部4を備えている。ここで、ロボットアーム1の詳細な構成について説明する。
(アーム機構)
図2は、ロボットアーム1の概略構成を示す図である。図2に示すように、ロボットアーム1においては、アーム機構3の一端にハンド機構2が取り付けられている。また、アーム機構3の他端は台座部4に取り付けられている。アーム機構3は、第1アームリンク部31、第2アームリンク部32、第3アームリンク部33、第4アームリンク部34、第5アームリンク部35、および接続部材36を備えている。そして、ハンド機構2のベース部20が、アーム機構3の第1アームリンク部31の一端側に形成された第1関節部30aに接続されている。第1関節部30aには、第1アームリンク部31に対してハンド機構2を該第1アームリンク部31の軸周りに回転させるためのモータ(図示略)が設けられている。第1アームリンク部31の他端側は、第2関節部30bで第2アームリンク部32の一端側に接続されている。第1アームリンク部31と第2アームリンク部32とはその中心軸が垂直に交わるように接続されている。そして、第2関節部30bには、第2アームリンク部32に対して、第1アームリンク部31を、その他端側を中心に該第2アームリンク部32の軸周りに回転させるためのモータ(図示略)が設けられている。また、第2アームリンク部32の他端側は、第3関節部30cで第3アームリンク部33の一端側に接続されている。第3関節部30cには、第3アームリンク部33に対して第2アームリンク部32を相対的に回転させるためのモータ(図示略)が設けられている。
同じように、第3アームリンク部33の他端側は、第4関節部30dで第4アームリンク部34の一端側に接続されている。また、第4アームリンク部34の他端側は、第5関節部30eで第5アームリンク部35に接続されている。そして、第4関節部30dには
、第4アームリンク部34に対して第3アームリンク部33を相対的に回転させるためのモータ(図示略)が設けられている。また、第5関節部30eには、第5アームリンク部35に対して第4アームリンク部34を相対的に回転させるためのモータ(図示略)が設けられている。さらに、第5アームリンク部35は、台座部4から垂直に配置された接続部材36に第6関節部30fで接続されている。第5アームリンク部35と接続部材36とは、それぞれの中心軸が同軸となるように接続されている。そして、第6関節部30fには、第5アームリンク部35を、該第5アームリンク部35および接続部材36の軸回りに回転させるためのモータ(図示略)が設けられている。アーム機構3をこのような構成とすることで、該アーム機構3を6自由度の自由度を有する機構とすることができる。
(ハンド機構)
次に、ハンド機構2の構成について説明する。図3はハンド機構2の斜視図である。図4はハンド機構2の上面図である。なお、図4において、矢印は、各指部21の回転可動範囲を示している。ハンド機構2は、アーム機構3に接続されるベース部20と、該ベース部20に設けられた4本の指部21とを備えている。また、図3および図4に示すように、ハンド機構2においては、ベース部20に4本の指部21が、ハンド機構2の長手方向(図4において紙面に垂直な方向)の軸を中心とした円周上に、等角度間隔(すなわち90deg間隔)に配置されている。また、4本の指部21は全て同一の構造を有し且つ同一の長さである。但し、各指部21の動作は、それぞれ独立して制御される。
各指部21は、第1指リンク部211、第2指リンク部212、および基端部213を有している。そして、図3に示すように、指部21の基端部213がベース部20に接続されている。ここで、基端部213は、図4において矢印で示すように、ベース部20に対して指部21の長手方向(図4において紙面に垂直な方向)の軸回りに回転可能に接続されている。そして、ベース部20の内部には、ベース部20に対して基端部213を回転駆動させるためのモータ(図示略)が設けられている。
また、指部21において、基端部213に第2指リンク部212の一端が接続されている。そして、この第2指リンク部212と基端部213との接続部に第2関節部23が形成されている。さらに、指部21においては、第2指リンク部212の他端に第1指リンク部211の一端が接続されている。そして、この第1指リンク部211と第2指リンク部212との接続部に第1関節部22が形成されている。なお、第1関節部22および第2関節部23はいずれも屈曲および伸展可能に形成されている。そして、第2関節部23において、基端部213に対して第2指リンク部212を相対的に回転させることで、該第2関節部23を屈曲または伸展させるためのモータ(図示略)が、ベース部20の内部に設けられている。また、第1関節部22において、第2指リンク部212に対して第1指リンク部211を相対的に回転させることで、該第1関節部22を屈曲または伸展させるためのモータ(図示略)が、第2指リンク部212の内部に設けられている。
また、図3に示すように、本実施例では、指部21の第1指リンク部211の先端側に感圧センサ70が設けられている。感圧センサ70は、第1指リンク部211の先端部に作用する外力(圧力)を検出するセンサである。
(台座部)
次に、台座部4に内蔵された、アーム制御装置42、ハンド制御装置43、および画像処理装置44の構成について図5に基づいて説明する。アーム制御装置42はロボットアーム1のアーム機構3を制御するための制御装置である。ハンド制御装置43はロボットアーム1のハンド機構2を制御するための制御装置である。画像処理装置44はカメラ8によって対象物10が撮像されることで取得される画像データを処理するための処理装置である。図5は、アーム制御装置42、ハンド制御装置43、および画像処理装置44に
含まれる各機能部を示すブロック図である。
アーム制御装置42は、アーム機構3の各関節部に設けられたモータを駆動するための駆動信号を生成する複数のドライバを含み、各ドライバからの駆動信号が対応する各モータに供給されるように構成される。また、アーム制御装置42は、演算処理装置及びメモリを有するコンピュータを含んでいる。そして、アーム制御装置42は、機能部として、アーム制御部420およびモータ状態量取得部421を有している。これらの機能部は、アーム制御装置42に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。
アーム制御部420は、ハンド制御装置43が有する機能部である後述の制御情報生成部430によって生成された制御情報に基づいて各ドライバから駆動信号を供給することで、アーム機構3の各関節部30a、30b、30c、30d、30e、30fに設けられたモータを制御する。そして、アーム制御部420は、各モータを制御することでアーム機構3を動かし、それによって、ハンド機構2の位置を所望の位置(ハンド機構2によって対象物10を把持することが可能な位置)に移動させる。また、アーム機構3の各関節部30a、30b、30c、30d、30e、30fに設けられたモータには、それぞれの回転状態に関する状態量(モータの回転軸の回転位置や回転速度等)を検出するエンコーダ(図示略)が設けられている。そして、各モータのエンコーダによって検出された各モータの状態量が、アーム制御装置42のモータ状態量取得部421に入力される。そして、アーム制御部420は、モータ状態量取得部421に入力された各モータの状態量に基づいて、ハンド機構2が所望の位置に移動するように各モータをサーボ制御する。
また、ハンド制御装置43は、ハンド機構2に設けられた各モータを駆動するための駆動信号を生成する複数のドライバを含み、各ドライバからの駆動信号が対応する各モータに供給されるように構成される。また、ハンド制御装置43は、演算処理装置及びメモリを有するコンピュータを含んでいる。そして、ハンド制御装置43は、機能部として、制御情報生成部430、ハンド制御部431、モータ状態量取得部432、およびセンサ情報取得部433を有している。これらの機能部は、ハンド制御装置43に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。
制御情報生成部430は、画像処理装置44から取得する対象物情報(ハンド機構2よって把持すべき対象物に関する情報)に基づいて、アーム機構3およびハンド機構2を制御するための制御情報を生成する。また、ハンド制御部431は、制御情報生成部430によって生成された制御情報に基づいて各ドライバから駆動信号を供給することで、ハンド機構2の各指部21を駆動させる各モータを制御する。これにより、ハンド機構2の複数の指部21によって対象物10が把持される。また、ハンド機構2の各モータには、それぞれの回転状態に関する状態量(モータの回転軸の回転位置や回転速度等)を検出するエンコーダ(図示略)が設けられている。そして、各モータのエンコーダによって検出された各モータの状態量が、ハンド制御装置43のモータ状態量取得部432に入力される。そして、ハンド制御部431は、ハンド機構2によって対象物10を把持する際に、モータ状態量取得部432に入力された各モータの状態量に基づいて、各指部21における各モータをサーボ制御する。これにより、複数の指部21によって対象物10が挟み込まれ把持される。
さらに、ハンド制御装置43はセンサ情報取得部(図示略)を有している。センサ情報取得部には、ハンド機構2の各指部21の第1指リンク部211に設けられた感圧センサ70の検出値が入力される。そして、ハンド制御部431は、各感圧センサ70によって、各指部21の対象物への接触が検知された場合に、その検知信号に基づいて各指部21における各モータ51、52、53を制御することもできる。
なお、図5では、把持システム100に含まれる制御装置として、アーム制御装置42とハンド制御装置43とが区別して示されているが、別法として、各機能部が、両装置が一体化された一の制御装置内に形成される構成を採用することもできる。また、把持システムに含まれる制御装置が、アーム制御装置42とハンド制御装置43とに区別される場合でも、図5に示す各機能部は、技術的な齟齬が生じない限りにおいて実質的に何れかの制御装置内に形成されればよく、必要に応じてアーム制御装置42とハンド制御装置43との間で適切な情報の授受を行うことができる。また、アーム制御装置42またはハンド制御装置43における各機能部のうちの一部が、アーム制御装置42およびハンド制御装置43とは別体の制御装置内に形成される構成を採用することもできる。
画像処理装置44は、演算処理装置及びメモリを有するコンピュータを含んでいる。そして、画像処理装置44は、機能部として、画像データ取得部440、画像データ処理部441を有している。これらの機能部は、画像処理装置44に含まれるコンピュータにおいて所定の制御プログラムが実行されることで形成される。画像データ取得部440は、カメラ8から、対象物10を撮像することで得られた画像データを取得する。また、画像データ処理部441は、画像データ取得部440によって取得された画像データに対して所定の処理を行うことで、対象物10に関する対象物情報を生成する。そして、画像データ処理部441によって生成された対象物情報がハンド制御装置43に入力される。なお、図5では、画像処理装置44が、アーム制御装置42とハンド制御装置43とは区別して示されているが、別法として、各機能部が、各装置が一体化された一の制御装置内に形成される構成を採用することもできる。
(位置情報の座標変換)
上記のような構成の把持システム100では、カメラ8によって対象物10を撮像することで得られた画像データに基づいて、ロボットアーム1が制御され、ハンド機構2によって該対象物10が把持される。このときの、把持システム100におけるデータの処理手順について以下に説明する。
カメラ8から取得された画像データを画像処理装置44の画像データ処理部441において処理することで生成される対象物情報には対象物10の位置情報が含まれている。ただし、ここで生成される対象物10の位置情報は、カメラ8の座標系であるカメラ座標系における位置情報である。ロボットアーム1を制御するためには、カメラ座標系における位置情報を、該ロボットアーム1を制御するための座標系であるロボットアーム座標系(すなわち、アーム制御部420によってアーム機構3の各モータを制御するとき、および、ハンド制御部431によってハンド機構2の各モータを制御するときに用いる座標系)における位置情報に変換する必要がある。そこで、ハンド制御装置43の制御情報生成部430においては、カメラ座標系における位置情報をロボットアーム座標系における位置情報に変換する座標変換処理が行われる。
このとき、座標変換処理は下記式Aに基づいて行われる。
Figure 0007258516000001
ただし、
:ロボットアーム座標系におけるX座標成分
:ロボットアーム座標系におけるY座標成分
:ロボットアーム座標系におけるZ座標成分
11~R33:変換パラメータの回転成分
~T:変換パラメータの並進成分
:カメラ座標系におけるX座標成分
:カメラ座標系におけるY座標成分
:カメラ座標系におけるZ座標成分
上記式Aのカメラ座標系における各座標成分X、Y、Zが画像処理装置44から入力されるカメラ座標系における対象物10の位置情報である。また、上記式AにおけるR11~R33、T~Tが、カメラ座標系における位置情報をロボットアーム座標系における位置情報に変換するための変換パラメータである。ここで、位置情報における並進方向はX軸方向、Y軸方向、Z軸方向の3方向であるため、変換パラメータの並進成分はT~T(3要素)となる。一方、変換パラメータの回転成分は、三次元での回転行列から得られることから、R11~R33(9要素)となる。そして、上記式Aのカメラ座標系における各座標成分X、Y、Zがロボットアーム座標系における対象物10の位置情報である。
(座標系のキャリブレーション)
上記のような座標変換処理によってカメラ座標系における位置情報をロボットアーム座標系における位置情報に変換することで、カメラ8から取得された画像データに基づいてロボットアーム1を制御することが可能となる。ただし、座標変換処理を行うためには、上記式Aに示すような変換パラメータR11~R33、T~Tが予め設定されている必要がある。そこで、把持システム100の使用に際しては、変換パラメータR11~R33、T~Tを算出すべく、ロボットアーム1に対して座標系のキャリブレーションが行われる。以下、本実施例に係る、ロボットアーム1に対して行われる座標系のキャリブレーション方法について説明する。
図6は、本実施例に係る座標系のキャリブレーションを実施する際に用いられるキャリブレーションプレートの概略構成を示す図である。このキャリブレーションプレートプレート200には、6つの測定点P1~P6が形成されている。キャリブレーションプレート200において、各測定点P1~P6の相対的な位置関係は予め定められている。つまり、いずれの測定点についても、測定点間の距離である二点間距離が予め定められている。
そして、座標系のキャリブレーションを実施する際には、所定の位置に配置されたキャリブレーションプレート200をカメラ8によって撮像することで、各測定点P1~P6についてのカメラ座標系における位置情報を取得する。具体的には、画像処理装置44が、カメラ8によってキャリブレーションプレート200を撮像することで得られた画像データを画像データ取得部440によって取得する。そして、画像処理装置44において、画像データ処理部441が、画像データ取得部440によって取得された画像データに対して位置情報算出処理を行うことで、各測定点P1~P6についてのカメラ座標系における位置情報が算出される。なお、位置情報算出処理の詳細については後述する。
さらに、所定の位置に配置されたキャリブレーションプレート200における各測定点P1~P6に、ハンド機構2の4本の指部21のうちの所定の指部の第1指リンク部211の先端部(すなわち、感圧センサ70)を接触させることで、各測定点P1~P6についてのロボットアーム座標系における位置情報を取得する。なお、別法としては、キャリブレーション用のプローブをアーム機構3に取り付けて、キャリブレーションプレート200における各測定点P1~P6に該プローブを接触させることで、各測定点P1~P6についてのロボットアーム座標系における位置情報を取得してもよい。このようにして取得される、キャリブレーションプレート200における各測定点P1~P6についてのカ
メラ座標系における位置情報およびロボットアーム座標系における位置情報により、下記式Bのような連立方程式を立てることができる。そして、下記式Bを解くことで、変換パラメータR11~R33、T~Tを算出することができる。
Figure 0007258516000002
ただし、
C1~XC6:各測定点P1~P6についてのカメラ座標系におけるX座標成分
C1~YC6:各測定点P1~P6についてのカメラ座標系におけるY座標成分
C1~ZC6:各測定点P1~P6についてのカメラ座標系におけるZ座標成分
R1~XR6:各測定点P1~P6についてのロボットアーム座標系におけるX座標成分
R1~YR6:各測定点P1~P6についてのロボットアーム座標系におけるY座標成分
R1~ZR6:各測定点P1~P6についてのロボットアーム座標系におけるZ座標成分
なお、キャリブレーションを実施する際に、カメラ座標系における位置情報およびロボットアーム座標系における位置情報を取得すべき測定点は、必ずしも上記のように6つである必要はない。変換パラメータR11~R33、T~Tは全部で12変数であるため、少なくとも、4つの測定点についてのカメラ座標系における位置情報およびロボットアーム座標系における位置情報を取得すれば、12変数の変換パラメータを算出するための連立方程式を立てることができる。ただし、より多くの測定点についてのカメラ座標系における位置情報およびロボットアーム座標系における位置情報に基づいて連立方程式を立てることで、変換パラメータR11~R33、T~Tをより高精度で求めることが可能となる。
また、図6に示すような6つの測定点が形成されたキャリブレーションプレート200をキャリブレーションのために用いる場合であっても、該キャリブレーションプレート200の配置位置を変更し、6つの測定点P1~P6についてのカメラ座標系における位置情報およびロボットアーム座標系における位置情報を配置位置毎に取得することで、実質的に12個以上の測定点について各位置情報を取得することができる。
(位置情報算出処理)
ここで、キャリブレーションプレート200の各測定点P1~P6についてのカメラ座標系における位置情報を画像テータに基づいて算出するための処理である位置情報算出処理について説明する。図7は、所定の測定点Pについて、画像データ上の二次元の位置情報を、カメラ座標系における三次元の位置情報に変換する方法について説明するための図である。カメラ8によって所定の測定点Pを含む画像を撮像することで得られた画像デー
タからは、該所定の測定点Pについての画像センサ上における二次元の座標であるピクセル座標(u,v)を取得することができる。そして、所定の測定点Pについてのカメ
ラ座標系における位置情報は、所定の測定点Pについてのピクセル座標(u,v)に
基づいて下記式C~Eにより算出することができる。

Figure 0007258516000003
ただし、
:所定の測定点Pについてのカメラ座標系におけるX座標成分
:所定の測定点Pについてのカメラ座標系におけるY座標成分
:所定の測定点Pについてのカメラ座標系におけるZ座標成分
:所定の測定点PについてのカメラにおけるX軸方向のピクセル座標
:所定の測定点PについてのカメラにおけるY軸方向のピクセル座標
d:所定の測定点Pの測定点距離
θ:所定の測定点Pの半画角
ここで、所定の測定点Pの測定点距離dとは、カメラ8のレンズ面頂(レンズの球面の頂点)から該所定の測定点Pまでの距離である。この測定点距離dは、カメラ8に設けられた測定装置8aによって測定することができる。ただし、測定装置8aによって測定点距離dを測定する場合、該測定装置8aの性能によっては、その測定精度が不十分となる場合がある。そして、測定点距離の測定精度が不十分であると、上記式C~Eによって求められるカメラ座標系における位置情報の精度も不十分となる虞がある。
そこで、本実施例に係る位置情報算出処理では、キャリブレーションプレート200の各測定点P1~P6についてのカメラ座標系における位置情報を算出する際に、各測定点P1~P6についての測定点距離を画像データに基づいて算出する。図8は、画像データに基づく測定点距離の算出方法について説明するための図である。ここでは、キャリブレーションプレート200における測定点P1~P3についての測定点距離d~dを算出する場合を例にあげて説明する。
上述したように、キャリブレーションプレート200においては二点間距離が予め定められている。ここで、図8に示すように、測定点P1と測定点P2との二点間距離をHとし、測定点P2と測定点P3との二点間距離をHとし、測定点P3と測定点P1との二点間距離をHとすると、下記式F~Hが成立する。
Figure 0007258516000004

ただし、
Figure 0007258516000005

、d、d:測定点P1、P2、P3についての測定点距離
、u、u:測定点P1、P2、P3についてのカメラにおけるX軸方向のピクセル座標
、v、v:測定点P1、P2、P3についてのカメラにおけるY軸方向のピクセル座標
θ、θ、θ:測定点P1、P2、P3についての半画角
ただし、上記式F~Hを満たすような測定点距離d~dの値は複数存在する。そこで、本実施例では、先ず、カメラ8に設けられた測定装置8aによって測定された測定点P1、P2、P3についての測定点距離を、該測定点距離の基準値d1b、d2b、d3bとして設定する。さらに、測定点P1、P2、P3についての測定点距離の候補値d´、d´、d´を任意に設定する。そして、各候補値d´、d´、d´を上記式F~Hに代入したときにおける各式F~Hの左辺の値と右辺の値との誤差を算出する。このとき、各候補値d´、d´、d´の値を変更しながら、それぞれの値に対する各式F~Hの左辺の値と右辺の値との誤差を算出する。そして、各式F~Hの左辺の値と右辺の値との誤差が最小となる候補値d´、d´、d´であって、且つ、測定点距離の基準値d1b、d2b、d3bに最も近い値である候補値d´、d´、d´を、測定点P1、P2、P3についての測定点距離d~dの最適解として算出する。
本実施例では、上記と同様の方法で、キャリブレーションプレート200における測定点P1~P3に加え、測定点P4~P6についての測定点距離を算出する。このように、二点間距離が予め定められているキャリブレーションプレート200における各測定点P1~P6についての測定点距離を画像データに基づいて算出することで、該測定点距離を高精度で算出することができる。また、カメラ8に設けられた測定装置8aによって測定された測定点距離を、該測定点距離の基準値として該測定点距離の候補値の評価のために用いることで、該測定点距離の最適解をより速やかに算出することができる。
さらに、本実施例に係る位置情報算出処理では、上記のような方法で算出された各測定点P1~P6についての測定点距離の最適解を上記式C~Eに代入することで、各測定点P1~P6についてのカメラ座標系における位置情報を算出する。つまり、測定装置8aによって測定された測定点距離の値をそのまま用いずに、上記のように画像データを用いて算出された測定点距離に基づいて各測定点P1~P6についてのカメラ座標系における位置情報を算出する。これにより、より精度の高い測定点距離に基づいて位置情報が算出されることになる。そのため、各測定点P1~P6についてのカメラ座標系における位置情報を高精度で取得することができる。
(キャリブレーションフロー)
本実施例に係る座標系のキャリブレーションのフローについて図9に基づいて説明する。図9は、本実施例に係る座標系のキャリブレーションのフローを示すフローチャートである。本フローは、画像処理装置44によって実行される。
本フローでは、先ずS101において、上述したような方法で、カメラ8によってキャリブレーションプレート200を撮像することで得られた画像データに基づいて、該キャリブレーションプレート200における各測定点P1~P6についての測定点距離(測定点距離の最適解)が算出される。次に、S102において、各測定点P1~P6についてのカメラ座標系における位置情報が算出される。具体的には、S101で算出された各測定点P1~P6についての測定点距離を上記式C~Eに代入することで、各測定点P1~P6についてのカメラ座標系における位置情報が算出される。なお、S101およびS102において実行される処理が位置情報算出処理に相当する。
次に、S103において、各測定点P1~P6についてのロボットアーム座標系における位置情報が取得される。次に、S104において、S102で算出されたカメラ座標系における位置情報、および、S103で取得されたロボットアーム座標系における位置情報に基づいて、変換パラメータR11~R33、T~Tが算出される。具体的には、キャリブレーションプレート200における各測定点P1~P6についてのカメラ座標系における位置情報およびロボットアーム座標系における位置情報に基づいて立てられる上記式Bのような連立方程式を解くことで、変換パラメータR11~R33、T~Tが算出される。なお、算出された変換パラメータR11~R33、T~Tは、ハンド制御装置43の記憶部に記憶される。そして、ハンド制御装置43の記憶部に記憶された変換パラメータR11~R33、T~Tを用いて、制御情報生成部430における座標変換処理が行われる。
上記フローによれば、高精度で取得されたカメラ座標系における位置情報とロボットアーム座標系における位置情報とに基づいて変換パラメータが算出される。これにより、ロボットアーム1に対して行われる座標系のキャリブレーションの精度を向上させることができる。また、座標系のキャリブレーションの精度が向上することで、把持システム100において、ロボットアーム1に設けられたハンド機構2によって対象物をより安定して把持することが可能となる。
なお、上記の位置情報算出処理において、測定点距離を算出する際に用いる該測定点距離の基準値としては、カメラ8に設けられた測定装置8aによって測定された測定点距離を用いた。しかしながら、測定点距離の基準値はこのような値に限られるものではない。例えば、座標系のキャリブレーションを実施する際の、カメラ8およびキャリブレーションプレート200それぞれの配置位置が予め定められているのであれば、この配置位置に基づいて算出される測定点距離を該測定点距離の基準値として用いてもよい。
1・・・ロボットアーム、2・・・ハンド機構、8・・・カメラ、20・・・ベース部、21・・・指部、22・・・第1関節部、23・・・第2関節部、211・・・第1指リンク部、212・・・第2指リンク部、213・・・基端部、3・・・アーム機構、30a・・・第1関節部、30b・・・第2関節部、30c・・・第3関節部、30d・・・第4関節部、30e・・・第5関節部、30f・・・第6関節部、31・・・第1アームリンク部、32・・・第2アームリンク部、33・・・第3アームリンク部、34・・・第4アームリンク部、35・・・第5アームリンク部、36・・・接続部材、4・・・台座部、42・・・アーム制御装置、420・・・アーム制御部、421・・・モータ状態量取得部、43・・・ハンド制御装置、430・・・制御情報生成部、431・・・ハンド制御部、432・・・モータ状態量取得部、44・・・画像処理装置、440・・・画像データ取得部、441・・・画像データ処理部、70・・・感圧センサ、100・・・把持システム、200・・・キャリブレーションプレート

Claims (4)

  1. 三次元単眼カメラによって撮像された画像データに基づいて制御されるロボットアームに対して行われるキャリブレーション方法であって、該三次元単眼カメラの座標系であるカメラ座標系における位置情報を、該ロボットアームの制御のための座標系であるロボットアーム座標系における位置情報に変換するための変換パラメータを求めるためのキャリブレーション方法において、
    実空間における前記三次元単眼カメラのレンズ面頂から所定の測定点までの距離である測定点距離を前記画像データに基づいて算出する距離算出ステップと、
    前記距離算出ステップにおいて算出された前記測定点距離に基づいて、前記所定の測定点についての前記カメラ座標系における位置情報を算出するカメラ座標算出ステップと、
    前記所定の測定点についての前記ロボットアーム座標系における位置情報を取得するロボットアーム座標取得ステップと、
    前記所定の測定点についての、前記カメラ座標系における位置情報および前記ロボットアーム座標系における位置情報に基づいて、前記変換パラメータを算出する変換パラメータ算出ステップと、を有し、
    前記距離算出ステップでは、前記所定の測定点についての前記測定点距離の候補値を前記画像データに基づいて設定し、さらに、前記画像データ以外の情報を用いる所定の距離測定方法によって該所定の測定点について測定された前記測定点距離の基準値に基づいて前記設定された候補値を評価することで、該所定の測定点についての前記測定点距離を算出する、キャリブレーション方法。
  2. 前記所定の測定点が、測定点間の距離である二点間距雛が予め定められている複数の測定点が形成されたキャリブレーションプレートにおける測定点であって、
    前記画像データが、前記三次元単眼カメラによって前記キャリブレーションプレートを撮像することで得られるデータであり、
    前記距離算出ステップでは、前記所定の測定点についての前記測定点距離を、前記画像データ、および、前記キャリブレーションプレートにおける該所定の測定点と他の測定点との間の二点間距離に基づいて算出する請求項1に記載のキャリブレーション方法。
  3. 前記距離算出ステップでは、
    前記キャリブレーションプレートにおける前記所定の測定点と前記他の測定点との間の
    二点間距離を、前記画像データから取得される前記所定の測定点および前記他の測定点についてのピクセル座標と、前記所定の測定点および前記他の測定点についての前記測定点距離の基準値とにより表す式に対して、前記所定の測定点および前記他の測定点についての任意の前記測定点距離の候補値を代入することで得られる値と、実際の前記二点間距離の値との誤差を算出し、
    前記誤差が最小となる前記所定の測定点および前記他の測定点についての前記測定点距離の候補値を求め、
    前記誤差が最小となる前記所定の測定点についての前記測定点距離の候補値であって、且つ、前記所定の測定点についての前記測定点距離の基準値に最も近い候補値を、前記所定の測定点についての前記測定点距離の最適解として算出する、請求項に記載のキャリブレーション方法。
  4. 対象物を撮像する三次元単眼カメラと、
    前記三次元単眼カメラによって撮像された画像データに基づいて制御されるロボットアームであって、請求項1から3のいずれか一項に記載のキャリブレーション方法によって座標系のキャリブレーションが行われるロボットアームと、を備える把持システムであって、
    前記ロボットアームは、複数の指部が設けられたハンド機構を有し、
    前記三次元単眼カメラによって撮像された画像データに基づいて、前記ロボットアームを制御することで、前記ハンド機構によって前記対象物を把持する把持システム。
JP2018203631A 2018-10-30 2018-10-30 キャリブレーション方法および把持システム Active JP7258516B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018203631A JP7258516B2 (ja) 2018-10-30 2018-10-30 キャリブレーション方法および把持システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203631A JP7258516B2 (ja) 2018-10-30 2018-10-30 キャリブレーション方法および把持システム

Publications (2)

Publication Number Publication Date
JP2020069549A JP2020069549A (ja) 2020-05-07
JP7258516B2 true JP7258516B2 (ja) 2023-04-17

Family

ID=70548924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203631A Active JP7258516B2 (ja) 2018-10-30 2018-10-30 キャリブレーション方法および把持システム

Country Status (1)

Country Link
JP (1) JP7258516B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111982072B (zh) * 2020-07-29 2022-07-05 西北工业大学 一种基于单目视觉的目标测距方法
CN112880562A (zh) * 2021-01-19 2021-06-01 佛山职业技术学院 一种机械臂末端位姿误差测量方法及系统
CN112959364B (zh) * 2021-03-15 2022-11-22 北京电子工程总体研究所 一种工业机器人装配误差补偿系统及方法
CN113672866A (zh) * 2021-07-27 2021-11-19 深圳市未来感知科技有限公司 测量点坐标标定方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304268A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20130010081A1 (en) 2011-07-08 2013-01-10 Tenney John A Calibration and transformation of a camera system's coordinate system
JP2013036988A (ja) 2011-07-08 2013-02-21 Canon Inc 情報処理装置及び情報処理方法
JP2013122434A (ja) 2011-12-12 2013-06-20 Itt:Kk レーザーを用いた単眼カメラによる3次元形状位置計測装置,3次元形状位置計測処理方法および3次元形状位置計測処理プログラム
JP2016052695A (ja) 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62194413A (ja) * 1986-02-21 1987-08-26 Yamaha Motor Co Ltd 三次元座標計測装置
JPH08210816A (ja) * 1995-02-03 1996-08-20 Fanuc Ltd ロボット−視覚センサシステムにおいてセンサ座標系とロボット先端部の関係を定める座標系結合方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304268A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20130010081A1 (en) 2011-07-08 2013-01-10 Tenney John A Calibration and transformation of a camera system's coordinate system
JP2013036988A (ja) 2011-07-08 2013-02-21 Canon Inc 情報処理装置及び情報処理方法
JP2013122434A (ja) 2011-12-12 2013-06-20 Itt:Kk レーザーを用いた単眼カメラによる3次元形状位置計測装置,3次元形状位置計測処理方法および3次元形状位置計測処理プログラム
JP2016052695A (ja) 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法

Also Published As

Publication number Publication date
JP2020069549A (ja) 2020-05-07

Similar Documents

Publication Publication Date Title
JP7258516B2 (ja) キャリブレーション方法および把持システム
US9517560B2 (en) Robot system and calibration method of the robot system
JP7237483B2 (ja) ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
JP5670416B2 (ja) ロボットシステム表示装置
JP6108860B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP6335460B2 (ja) ロボットシステムの制御装置及び指令値生成方法、並びにロボットシステムの制御方法
US9232980B2 (en) Operation input device and method of initializing operation input device
JP5371927B2 (ja) 座標系校正方法及びロボットシステム
JP6657469B2 (ja) ロボットシステムの自動較正方法
JP5612386B2 (ja) 形状測定装置
JP4021413B2 (ja) 計測装置
JP5928114B2 (ja) ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
CN108453785B (zh) 机器人系统、机器人控制装置以及机器人控制方法
CN111615443B (zh) 信息处理装置、信息处理方法和信息处理系统
US20110066393A1 (en) Calibration Of A Manipulator
JP6489776B2 (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP2012200805A (ja) ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
JP5618770B2 (ja) ロボットの校正装置および校正方法
JP6922204B2 (ja) 制御装置、ロボットおよびロボットシステム
JP6897396B2 (ja) 制御装置、ロボットシステムおよび制御方法
JP2010188439A (ja) パラメータ算出方法及びパラメータ算出装置
CN113974835B (zh) 一种基于远心不动点约束的手术机器人运动控制方法
JP2001050741A (ja) ロボットのキャリブレーション方法及び装置
JP5787646B2 (ja) ロボットシステム及び部品の製造方法
JP7343349B2 (ja) ロボット、測定用治具、およびツール先端位置の決定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7258516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150