JP2017124448A - 相対データ較正装置と方法 - Google Patents

相対データ較正装置と方法 Download PDF

Info

Publication number
JP2017124448A
JP2017124448A JP2016003318A JP2016003318A JP2017124448A JP 2017124448 A JP2017124448 A JP 2017124448A JP 2016003318 A JP2016003318 A JP 2016003318A JP 2016003318 A JP2016003318 A JP 2016003318A JP 2017124448 A JP2017124448 A JP 2017124448A
Authority
JP
Japan
Prior art keywords
arm
marker
external
data
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016003318A
Other languages
English (en)
Other versions
JP6674655B2 (ja
Inventor
拓 清水
Taku Shimizu
清水  拓
周平 江本
Shuhei Emoto
周平 江本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2016003318A priority Critical patent/JP6674655B2/ja
Publication of JP2017124448A publication Critical patent/JP2017124448A/ja
Application granted granted Critical
Publication of JP6674655B2 publication Critical patent/JP6674655B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】外部センサの観測データに基づいてロボットアームを制御する場合に、ロボットアームの作業中に、外部センサとロボットアームとの相対位置姿勢をキャリブレーションできるようにする。【解決手段】相対データ較正装置は、ロボットアーム3に設けられたアームマーカ13と、外部センサ5の観測により取得されたアームマーカ13の観測データに基づいて相対位置姿勢データを較正する較正処理部とを備える。【選択図】図1

Description

本発明は、外部センサの観測データに基づいてロボットアームを制御する場合におけるキャリブレーション技術に関する。より詳しくは、外部センサとロボットアームとの相対位置と相対姿勢の一方または両方を表す相対データをロボットアームの動作制御に用いる場合に、相対データを較正(キャリブレーション)する技術に関する。
ロボットアームは、様々な作業を行うために用いられている。ロボットアームが行う作業としては、例えば、次の(1)〜(3)がある。
(1)部品の組み付け
ロボットアームの先端部には、部品を把持する把持装置が取り付けられている。ロボットアームは、把持装置により部品を把持して、この部品を、対象物(例えば、自動車の車体)に組み付けるように動作する。
(2)対象物の搬送
ロボットアームは、上記と同様の把持装置により、ある場所に置かれている対象物を、把持して搬送し別の場所に置く。
(3)溶接
ロボットアームの先端部には、溶接トーチが取り付けられている。ロボットアームは、溶接トーチにより金属部材同士を溶接するように動作する。
ロボットアームに作業を行わせる制御において、ロボットアームの外部に設置した外部センサ(外部カメラ)が用いられる場合がある。この場合に、外部カメラとロボットアームとの間における相対位置と相対姿勢を表す相対データが予め求められる。
その上で、ロボットアームは、次のように制御されて作業を行う。外部カメラは、ロボットアームの動作領域を撮像することにより、この領域の画像データを得る。得られた画像データに基づいて、この領域内の計測対象(例えば、ロボットアームが作業する上述の対象物、障害物、目印など)の位置や姿勢を求める。求めた計測対象の位置や姿勢と、上述の相対データと、ロボットアームの現在位置および現在姿勢の計測値とに基づいて、ロボットアームが制御される。例えば、計測対象が上記対象物である場合には、求めた対象物の位置および姿勢に基づいて、ロボットアームが対象物に作業を行うように制御される。また、計測対象が障害物である場合には、求めた障害物の位置に基づいて、ロボットアームが障害物を回避するように制御される。計測対象が目印である場合には、求めた目印の位置や姿勢を基準にロボットアームの位置や姿勢が制御される。
上述の相対データを予め求める方法が、例えば下記の特許文献1に記載されている。特許文献1では、次のように相対データを求めている。ロボットアームにおける先端部の把持装置に指し棒を把持させる。指し棒の先端が長方形を描くようにロボットアームを動作させる。この時に、指し棒の動作を、外部カメラで撮像することにより画像データを取得する。この画像データに基づいて、指し棒の先端が移動した長方形軌跡の各頂点の位置を求める。これらの位置から、外部カメラとロボットアームとの相対位置姿勢関係(相対データ)を求める。
特許第3402021号公報
しかし、予め求めた相対データが、実際の値からずれてしまう場合がある。この原因としては、ロボットアームや外部カメラの配置変更、外部カメラへの人の接触、他の機械からの振動、地震、ロボットアームの経年劣化などがある。
このように予め求めた相対データが実際の値からずれた場合には、相対データを較正する必要がある。上述の原因がロボットアームの作業中に発生した場合には、較正を行うために、ロボットアームの作業を中断する。そのため、ロボットアームの作業能率が低下してしまう。
そこで、本発明の目的は、ロボットアームの作業中に上述の相対データが実際の値からずれた場合に、ロボットアームの作業を中断させることなく、相対データを較正できる手段を提供することにある。
上述の目的を達成するため、本発明によると、ロボットアームの動作領域を観測することにより観測データを取得する外部センサと、
前記ロボットアームと外部センサとの相対位置および相対姿勢の一方または両方を表す相対データを記憶する記憶部と、
前記観測データと前記相対データとに基づいて、前記ロボットアームが作業を行うように前記ロボットアームを制御するアーム制御部とを備える制御装置のために設けられる相対データ較正装置であって、
前記ロボットアームに設けられたアームマーカと、
前記外部センサの観測により取得された前記アームマーカの観測データに基づいて、前記相対データを較正する較正処理部と、を備える、相対データ較正装置が提供される。
また、上述の目的を達成するため、本発明によると、外部センサの観測データと、前記ロボットアームと前記外部センサとの相対位置および相対姿勢の一方または両方を表す相対データとに基づいて前記ロボットアームを制御する場合に、前記相対データを較正する方法であって、
(A)前記ロボットアームにアームマーカを設け、
(B)前記外部センサにより、前記アームマーカを観測して前記アームマーカの観測データを取得し、
(C)前記アームマーカの前記観測データに基づいて、前記相対データを較正し、
前記ロボットアームが作業をするための動作をしている作業中に、前記(B)と(C)を行う、相対データ較正方法が提供される。
上述した本発明では、ロボットアームの作業中に、外部センサは、アームマーカを観測してその観測データを取得できる。この観測データに基づいて、較正処理装置は相対データを較正する。したがって、ロボットアームの作業中に、相対データを較正できる。
本発明が適用可能なロボットアームとその周辺を示す。 ロボットアームの制御装置と、本発明の実施形態による相対データ較正装置とを示すブロック図である。 外部センサとアーム側センサの正面図である。 本発明の実施形態による相対データ較正方法と、ロボットアームの制御処理とを示すフローチャートである。
本発明の実施形態を図面に基づいて説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。
図1は、本発明が適用可能なロボットアーム3とその周辺を示す。図2は、ロボットアーム3の制御装置20と、本発明の実施形態による相対データ較正装置10とを示すブロック図である。
(ロボットアームの作業)
ロボットアーム3は、対象物1に作業を行う。図1の例では、ロボットアーム3は、搬送装置により吊り下げられ且つ搬送されて来る対象物1を把持し、指定の場所へ置く作業を行う。ただし、ロボットアーム3は他の作業を行ってもよい。この作業は、例えば、上述した(1)〜(3)のいずれかの作業であってもよい。
(制御装置の構成)
ロボットアーム3は、制御装置20に制御されることにより上述の作業を行う。制御装置20は、図2のように、外部センサ5(図1も参照)と記憶部7とアーム計測装置9とアーム制御部11を備える。
外部センサ5は、ロボットアーム3の外部に設けられる。外部センサ5は、ロボットアーム3の動作領域を観測することにより観測データを取得する。この観測データは、対象物1の観測データであってよい。本実施形態では、外部センサ5は、カメラであり、上記観測データとして、対象物1を含む上記動作領域の画像データを取得する。カメラ5は、例えば、路面または地面に置かれたカメラ支持体(例えば三脚)に取り付けられている。この場合、好ましくは、カメラ支持体は、路面または地面に固定される。外部カメラ5の数は、1つであっても複数であってもよい。以下において、外部センサ5が取得した観測データが、ロボットアーム3の制御に用いられる場合には、観測データをD1で示す。
記憶部7は、ロボットアーム3と外部センサ5との相対位置および相対姿勢の一方または両方を表す相対データを記憶する。なお、以下において、相対位置および相対姿勢の一方または両方を、単に相対位置姿勢といい、位置および姿勢の一方または両方を、単に位置姿勢という。
アーム計測装置9は、ロボットアーム3の位置姿勢を計測により求める。本実施形態では、ロボットアーム3は、複数のリンク3a〜3eが互いに対して回転可能にまたは伸縮可能に直列に連結されることにより構成される。アーム計測装置9は、これらのリンク3a〜3eの互いに対する回転量または伸縮量を計測し、これらの計測値に基づいてロボットアーム3の先端部3fの位置姿勢を求める。この場合、アーム計測装置9は、例えば、各リンク3a〜3eを駆動するモータの回転角を検出するロータリーエンコーダを用いるものであってよい。
アーム制御部11は、外部センサ5が取得した観測データD1と、アーム計測装置9が求めたロボットアーム3(本実施形態では、先端部3f)の位置姿勢と、記憶部7の相対データとに基づいて、ロボットアーム3が作業を行うようにロボットアーム3を制御する。この制御は、次の手順で行われてよい。アーム制御部11は、観測データD1に基づいて、外部センサ5に固定された座標系(以下、単に外部センサ座標系Saともいう)で表された対象物1の位置姿勢を求める。次いで、上記相対データに基づいて、アーム制御部11は、求めた対象物1の位置姿勢を、ロボットアーム3(本実施形態では、先端部3f)に固定された座標系(以下、単にアーム座標系Sbともいう)で表された位置姿勢に変換する。その後、アーム制御部11は、変換した対象物1の位置姿勢と、アーム計測装置9が計測したロボットアーム3の先端部3fの位置姿勢とに基づいて、ロボットアーム3を制御する。これにより、ロボットアーム3の先端部3f(例えば、先端部3fのハンド)は対象物1に作業を行うように動作する。
(相対データ較正装置の構成)
相対データ較正装置10は、記憶部7に記憶されている上述の相対データを較正する。記憶部7は、相対データ較正装置10に較正された最新の相対データを記憶する。制御装置20は、記憶部7に記憶されている最新の相対データに基づいて、上述のようにロボットアーム3を制御する。
相対データ較正装置10は、図2のように、アームマーカ13、外部マーカ15、アーム側センサ17、センサ駆動装置19、センサ向き制御部21、および、較正処理部23を備える。
アームマーカ13は、ロボットアーム3に設けられている。本実施形態では、アームマーカ13は、好ましくは、アームマーカ13の姿勢が特定可能な形状を有する。アームマーカ13は、後述のアーム側センサ17に一体的に固定されている。
アームマーカ13と外部センサ5は、ロボットアーム3が作業を行うための動作を行っている時に(すなわち、ロボットアーム3の作業中に)、外部センサ5によりアームマーカ13を観測できるように配置されている。例えば、ロボットアーム3が作業を行うために移動する作業用軌道上の少なくともいずれかの位置にロボットアーム3が来た時に、外部センサ5はアームマーカ13を観測できる。この作業用軌道は、予め設定されたものであってもよい。
したがって、外部センサ5は、ロボットアーム3の制御だけでなく相対データの較正にも用いられる。外部センサ5は、アームマーカ13を観測することにより、アームマーカ13の観測データを取得する。ここで、アームマーカ13がカメラである場合には、カメラ5は、アームマーカ13を含む領域を撮像することにより、アームマーカ13の観測データとして、この領域の画像データを取得する。以下において、外部センサ5が取得した観測データが、相対データの較正に用いられる場合には、この観測データをD2で表す。なお、外部センサ5が取得した1つの観測データが、ロボットアーム3の制御にも相対データの較正にも用いられる場合がある。
外部センサ5の位置と向きは固定されていてよい。好ましくは、外部センサ5は、自身の観測範囲にアームマーカ13が入っている期間において、アームマーカ13の観測データD2を繰り返し取得する。
外部マーカ15は、図1のように、外部センサ5に設けられている。外部マーカ15は、好ましくは、外部マーカ15の姿勢が特定可能な形状を有する。外部マーカ15は、外部センサ5に一体的に固定されている。
アーム側センサ17は、ロボットアーム3(本実施形態では、先端部3f)に設けられている。アーム側センサ17は、外部マーカ15を観測することにより、外部マーカ15の観測データD3を取得する。
アーム側センサ17と外部マーカ15は、ロボットアーム3の作業中にアーム側センサ17により外部マーカ15を観測できるように配置されている。例えば、ロボットアーム3が上述の作業用軌道上の少なくともいずれかの位置にロボットアーム3が来た時に、アーム側センサ17は外部マーカ15を観測できる。好ましくは、ロボットアーム3の作業中に、外部センサ5とアームマーカ13とが向かい合い、かつ、アーム側センサ17と外部マーカ15とが向かい合う時点が存在する。
アーム側センサ17がカメラである場合には、カメラ17は、外部マーカ15を含む領域を撮像することにより、外部マーカ15の観測データD3として、この領域の画像データを取得する。
アーム側センサ17は、先端部3fと一体で移動し姿勢を変える。好ましくは、アーム側センサ17は、自身の観測範囲に外部マーカ15が入っている期間において、外部マーカ15の観測データD3を繰り返し取得する。
図3(A)は、アーム側センサ17を、その正面から見た図である。図3(B)は、外部センサ5を、その正面から見た図である。図3のように、アームマーカ13と外部マーカ15の各々は、互いに間隔をおいて配置された複数のマーカ部13a,15aを有する。好ましくは、図3(A)に示すように、アームマーカ13は、アーム側センサ17の観測部17a(例えば、カメラ17の対物レンズ)を挟むように配置された2つのマーカ部13aを含む。観測部17aが向いている側が、アーム側センサ17の観測範囲になる。同様に、外部マーカ15は、外部センサ5の観測部5a(例えば、カメラ5の対物レンズ)を挟むように配置された2つのマーカ部15aを含む。観測部5aが向いている側が、外部マーカ15の観測範囲になる。好ましい一例では、各マーカ部13a,15aは、2次元バーコードであり、外部センサ5とアーム側センサ17は、それぞれカメラ5,17である。
センサ駆動装置19(図1参照)は、アーム側センサ17を回転軸まわりに回転駆動する。これにより、アーム側センサ17の向きは、ロボットアーム3(先端部3f)に対して変わる。
センサ向き制御部21(図2参照)は、ロボットアーム3の動作に応じて、アーム側センサ17が外部マーカ15を向くようにセンサ駆動装置19を制御する。センサ向き制御部21は、予め定められた参照データと、アーム計測装置9により得られたロボットアーム3の位置姿勢の計測値とに基づいてセンサ駆動装置19を制御する。
参照データは、センサ向き制御部21に記憶されていてよい。参照データは、予め定められたロボットアーム3の作業用軌道(位置の軌道と姿勢の軌道を含む)における各位置および姿勢と、該位置および姿勢に対して設定された回転駆動量(以下、設定駆動量という)とを互いに関連づけたデータである。設定駆動量は、アーム側センサ17の基準回転位置からの回転駆動量である。
センサ向き制御部21は、ロボットアーム3の位置姿勢の計測値を参照データに適用する。これにより、センサ向き制御部21は、この計測値に対応する設定駆動量を特定する。センサ向き制御部21は、特定された設定駆動量だけ基準回転位置から回転させた位置にアーム側センサ17を回転軸まわりに回転駆動する。このような回転軸は1つ又は複数存在していてよい。ここで、回転軸が複数ある場合には、設定駆動量は回転軸毎に定められている。
較正処理部23(図2を参照)は、外部センサ5の観測により取得されたアームマーカ13の観測データD2と、アーム側センサ17の観測により取得された外部マーカ15の観測データD3とに基づいて、相対データを較正する。この時、較正処理部23は、次の(a)〜(c)の処理を行う。
(a)アームマーカ13の観測データD2に基づいて、外部センサ座標系Saで表したアームマーカ13の位置姿勢を求める。
(b)外部マーカ15の観測データD3に基づいて、アーム座標系Sbで表した外部マーカ15の位置姿勢を求める。
(c)上記(a)で求めたアームマーカ13の位置姿勢に基づいて相対データを較正する。例えば、上記(a)で求めたアームマーカ13の位置姿勢に基づいて、新たに相対データを求め、この相対データを較正後の相対データとする。上記(b)で求めた外部マーカ15の位置姿勢に基づいて相対データを較正する。例えば、上記(b)で求めた外部マーカ15の位置姿勢に基づいて、新たに相対データを求め、この相対データを較正後の相対データとする。
上記(c)で較正された相対データは、外部センサ座標系Saの各位置をアーム座標系Sbの各位置に変換するための座標変換データ(例えば座標変換行列)であってよい。
上記(a)は、アームマーカ13の観測データD2が取得される度に行われてよい。上記(b)は、外部マーカ15の観測データD3が取得される度に行われてよい。上記(c)は、上記(a)が行われる度に行われ、上記(b)が行われる度に行われてよい。
上記(c)では、幾何学的に相対データを算出し、この相対データを較正後のデータとしてもよい。この場合、上記(a)(b)が合計で複数回行われることにより、複数回の上記(c)により相対データが複数回算出され、これらの相対データの平均値を較正後の相対データとしてもよい。
あるいは、上記(c)では、後述するようにカルマンフィルタを用いて相対データを較正してもよい。または、上記(c)では、別の方法で、観測データD2、D3に基づいて相対データを較正してもよい。
なお、特許請求の範囲における「アームマーカの観測データと外部マーカの観測データに基づいて、相対データを較正する」とは、相対データの1回の較正に1つの観測データD2またはD3を用いる場合だけでなく、相対データの1回の較正に複数の観測データ(例えば観測データD2と観測データD3の両方)を用いる場合も含む内容である。前者の場合の一例では、観測データD2に基づいて相対データを更新した後、観測データD3に基づいて相対データを更新する。後者の場合の一例では、上述したように複数回算出された相対データの平均値を較正後の相対データとする。
図4は、本発明の実施形態による相対データ較正方法と、ロボットアーム3の制御処理とを示すフローチャートである。この相対データ較正方法は、上述の相対データ較正装置10を用いて行われる。
相対データ較正方法は、ステップS1〜S3を有する。
ステップS1において、外部センサ5により、アームマーカ13を観測してアームマーカ13の観測データD2を取得する。
ステップS2において、アーム側センサ17により、外部マーカ15を観測して外部マーカ15の観測データD3を取得する。
ステップS1またはステップS2が行われたら、処理はステップS3へ移行する。
外部センサ5の数が複数である場合には、いずれかの外部センサ5が、ステップS1アームマーカ13の観測データD2を取得したら(すなわち、ステップS1を行ったら)、処理はステップS3へ移行する。また、アーム側センサ17が、いずれかの外部マーカ15の観測データD3を取得したら、処理はステップS3へ移行する。外部センサ5の数が複数である場合には、外部センサ5毎に、相対データが存在し、各外部センサ5が取得したアームマーカ13の観測データD2に基づいて、ステップS3で対応する相対データが較正される。この場合、アーム側センサ17がいずれかの外部マーカ15の観測データD3を取得したら、該外部マーカ15に対応する相対データがステップS3で較正される。
ステップS3において、較正処理部23により、ステップS1またはステップS2により得られた観測データD2,D3に基づいて、相対データを較正する。すなわち、較正処理部23は、上述の(a)〜(c)の処理を行う。
上述のステップS1〜S3は、ロボットアーム3の作業中に行われる。本実施形態では、ロボットアーム3の作業中に、上述のステップS1〜S3が、繰り返し行われる。この繰り返しにおいて、ステップS3で、較正処理部23は、ベイズフィルタ(好ましくは後述のカルマンフィルタ)を用いて相対データを較正(更新)する。ステップS3で相対データが較正される度に、較正後の相対データが最新の相対データとして記憶部7に記憶される。
なお、相対データの初期値は、予め求められていてもよいし、相対データ較正装置10により求められてもよい。
上述のステップS1〜S3を繰り返し行っている間に、ロボットアーム3の制御処理が行われる。ロボットアーム3の制御処理は、ステップS11〜S15を有する。
ステップS11において、外部センサ5は、ロボットアーム3の動作領域を観測することにより、この領域内に位置する対象物1の観測データD1を取得する。
ステップS12において、アーム制御部11は、ステップS11で得た観測データD1に基づいて、外部センサ座標系Saでの対象物1の位置姿勢を求める。
ステップS13において、記憶部7内の最新の相対データに基づいて、アーム制御部11は、ステップS12で求めた、外部センサ座標系Saでの対象物1の位置姿勢を、アーム座標系Sbでの位置姿勢に座標変換する。
ステップS14において、アーム計測装置9は、ロボットアーム3の先端部3fの位置姿勢を計測により求める。この位置姿勢は、アーム座標系Sbで表されたものである。
ステップS15において、アーム制御部11は、ステップS13で変換した対象物1の位置姿勢と、ステップS14で求めたロボットアーム3の先端部3fの位置姿勢とに基づいて、ロボットアーム3を制御する。これにより、ロボットアーム3の先端部3f(例えばハンド)は対象物1に作業を行うように動作する。
(較正処理)
ステップS3における相対データの較正処理の一例を詳しく説明する。この例では、カルマンフィルタを用いる。
最初に、次の式(1)〜(3)で示すように、上述の相対データ(内部状態)Xと、相対データXの初期値Xt0と、相対データXの初期分散共分散行列CovXt0を定義しておく。
Figure 2017124448
式(1)のx,y,zは、外部センサ5(外部センサ座標系Sa)に対するロボットアーム3の先端部3f(アーム座標系Sb)の位置を示す。外部センサ座標系Saは、互いに直交するx軸とy軸とz軸を有する。式(1)のx,y,zは、それぞれ、外部センサ座標系Saのx軸とy軸とz軸の座標値である。式(1)のx,y,zは、外部センサ座標系Saの原点に対するアーム座標系Sbの原点の座標値であってよい。
式(1)のr,r,rは、外部センサ5(外部センサ座標系Sa)に対するロボットアーム3の先端部3f(アーム座標系Sb)の姿勢を示す角度(ラジアン)である。すなわち、r,r,rは、それぞれ外部センサ座標系Saのx軸とy軸とz軸と平行な各軸(例えばアーム座標系Sbの原点を通る軸)まわりの回転角である。
なお、式(1)(2)では省略しているが、好ましくは、Xには、x,y,zの1回時間微分(速度)と2回時間微分(加速度)と、r,r,rの1回時間微分(角速度)も含まれている。
(アームマーカの観測に基づく較正)
ステップS1で取得されたアームマーカ13の観測データD2に基づいて、外部センサ座標系Saで表したアームマーカ13の位置姿勢Yを求める。較正処理部23は、この位置姿勢Yを次の式(4)(5)に適用することにより、相対データXとCovXを較正(更新)する。式(4)で較正された相対データXは、最新のデータとして記憶部7に記憶される。CovXは、Xの分散共分散行列を示す。

=X −K(Y1P−Y) ・・・(4)

CovX=(I−K)・CovX ・・・(5)
式(4)において、左辺のXは、較正後のXであり、右辺のX は、較正直前のXである。式(5)において、左辺のCovXは、較正後のCovXであり、右辺のCovX は、較正直前のCovXである。また、式(5)において、Iは、単位行列を示す。
上式(4)のY1Pは、次の式(6)で表される。

1P=g(X) ・・・(6)

(X)は、時刻tにおけるYの予測値を算出するための関数である。g(X)は、ロボットアーム3の運動モデルに基づいて定められる。較正処理部23は、アーム計測装置9や他のセンサにより計測されたXをg(X)に代入することにより、予測値Y1Pを算出する。
は、カルマンゲインであり、次の式(7)で表される。

=CovX・B ・V −1 ・・・(7)

ここで、Bは、次の式(8)で表される偏微分行列であり、その上付き文字「T」は転置行列を示す。
Figure 2017124448
上式(7)のVは、次の式(9)で表される。なお、上式(7)においてVの上付き数字「−1」は逆行列を示す。

=B・CovX・B +R ・・・(9)

ここで、Rは、ステップS1で得た観測データD2の計測誤差として想定される分散値である。
なお、上述では、1つの外部センサ5の観測に基づいて、カルマンフィルタで相対データXを較正する場合を説明した。外部センサ5が複数ある場合には、他の外部センサ5についても、上記と同様にカルマンフィルタでXを較正する。この場合、ただし、KやBは、外部センサ5毎に異なっていてよい。
(外部マーカの観測に基づく較正)
較正処理部23は、ステップS2で取得された外部マーカ15の観測データD3に基づいて、アーム座標系Sbで表した外部マーカ15の位置姿勢Yを求める。較正処理部23は、この位置姿勢Yと、最新の相対データXに基づいて、外部センサ座標系Saで表したアーム座標系Sbの位置姿勢Yを求める。
較正処理部23は、この位置姿勢Yを次の式(10)(11)に適用することにより、相対データXとCovXを較正(更新)する。式(10)で較正された相対データXは、最新のデータとして記憶部7に記憶される。

=X −K(Y2P−Y) ・・・(10)

CovX=(I−K)・CovX ・・・(11)
式(10)において、左辺のXは、較正後のXであり、右辺のX は、較正直前のXである。式(11)において、左辺のCovXは、較正後のCovXであり、右辺のCovX は、較正直前のCovXである。
上式(10)のY2Pは、次の式(12)で表される。

2P=g(X) ・・・(12)

(X)は、時刻tにおけるYの予測値を算出するための関数である。g(X)は、ロボットアーム3の運動モデルに基づいて定められる。較正処理部23は、アーム計測装置9や他のセンサにより計測されたXをg(X)に代入することにより、予測値Y2Pを算出する。なお、g(X)は、上述のg(X)と同じであってもよい。
は、カルマンゲインであり、次の式(13)で表される。

=CovX・B ・V −1 ・・・(13)

ここで、Bは、次の式(14)で表される偏微分行列である。
Figure 2017124448
上式(13)のVは、次の式(15)で表される。

=B・CovX・B +R ・・・(15)

ここで、Rは、ステップS2で得た観測データD3の計測誤差として想定される分散値である。
(実施形態の構成とその効果)
上述の実施形態は、以下のように特徴づけられる構成により以下の効果が得られる。
相対データ較正装置10は、外部センサ5に設けられた外部マーカ15と、ロボットアーム3に設けられ外部マーカ15を観測することにより外部マーカ15の観測データD3を取得するアーム側センサ17と、を備える。較正処理部23は、アームマーカ13の観測データD2と外部マーカ15の観測データD3に基づいて、相対データを較正する。
この構成では、外部センサ5にも外部マーカ15を設ける。したがって、較正処理部23は、アームマーカ13の観測データD2だけでなく、外部マーカ15の観測データD3にも基づいて、相対データを較正できる。よって、相対データを高精度に較正できる。
アームマーカ13は、該アームマーカ13の姿勢が特定可能な形状を有し、アーム側センサ17に一体的に固定されている。外部マーカ15は、該外部マーカ15の姿勢が特定可能な形状を有し、外部センサ5に一体的に固定されている。
この構成では、アームマーカ13と外部マーカ15は、それぞれ、その姿勢が特定可能な形状を有する。したがって、較正処理部23は、アームマーカ13の観測データD2と外部マーカ15の観測データD3とに基づいて、相対データとして、ロボットアーム3と外部センサ5との相対姿勢を較正できる。
相対データ較正装置10は、アーム側センサ17を回転軸まわりに回転駆動することによりアーム側センサ17の向きを変えるセンサ駆動装置19と、ロボットアーム3の動作に応じてアーム側センサ17が外部マーカ15を向くようにセンサ駆動装置19を制御するセンサ向き制御部21と、を備える。
この構成では、ロボットアーム3の作業中に、ロボットアーム3の動作に応じて、アーム側センサ17が外部マーカ15を向くようにセンサ駆動装置19はアーム側センサ17を駆動する。したがって、ロボットアーム3の作業において、より長い期間にわたって、アーム側センサ17は外部マーカ15の観測データD3を取得できる。すなわち、観測データD3の取得回数が増える。よって、これらの観測データD3に基づいて(例えばベイズフィルタを用いて)相対データを較正できるので、相対データの精度を高められる。
アームマーカ13と外部マーカ15の各々は、互いに間隔をおいて配置された複数のマーカ部13a,15aを有する。外部センサ5とアーム側センサ17の各々は、カメラである。アームマーカ13の観測データD2と外部マーカ15の観測データD3は、画像データである。
この構成では、アームマーカ13は、互いに間隔をおいて配置された複数のマーカ部13aを有する。したがって、較正処理装置は、アームマーカ13の画像データによりアームマーカ13の姿勢を精度よく特定できる。外部マーカ15も同様である。よって、簡易なカメラを用いた場合でも、姿勢に関して相対データを精度よく較正できる。
また、ロボットの作業中に、相対データの較正(すなわち、上述のステップS1〜S3)を繰り返し行う。したがって、1回目の較正の精度が低くても、(例えばベイズフィルタを用いた)複数回の較正により相対データの精度を高められる。
本発明は上述した実施の形態に限定されず、本発明の要旨を逸脱しない範囲で種々変更を加え得ることは勿論である。例えば、以下の変更例1〜4のいずれかを採用してもよいし、変更例1〜4の2つ以上を任意に組み合わせて採用してもよい。この場合、以下で説明しない点は、上述と同じである。
(変更例1)
外部マーカ15とアーム側センサ17を省略してもよい。この場合、較正処理部23は、外部センサ5により観測されたアームマーカ13の観測データD2に基づいて、相対データを較正する。
(変更例2)
アームマーカ13と外部マーカ15は、特定の形状を有する部分、特定の色を有する部分、特定の時間間隔をおいて点灯する点滅光源、または、他のものであってもよい。
(変更例3)
外部センサ5とアーム側センサ17の一方または両方は、その観測範囲内の各方向へレーザ光を射出することにより観測データを取得するレーザ距離計測装置であってもよい。この場合、観測データは、観測範囲内の物体上の各点までの距離と、これら各点へのレーザ光の射出方向とを含む。
(変更例4)
ロボットアーム3は、次のように制御されてもよい。ステップS11において、外部センサ5は、その観測範囲内における、対象物1以外の計測対象(例えば、障害物または目印)の観測データD2を取得する。ステップS12において、ステップS11で得た観測データD2に基づいて、外部センサ座標系Saでの計測対象の位置姿勢を求める。ステップS13において、記憶部7内の最新の相対データに基づいて、アーム制御部11は、ステップS12で求めた、外部センサ座標系Saでの計測対象の位置姿勢を、アーム座標系Sbでの位置姿勢に座標変換する。ステップS14において、アーム計測装置9は、ロボットアーム3の先端部3fの位置姿勢を計測により求める。ステップS15において、アーム制御部11は、ステップS13で変換した計測対象の位置姿勢と、ステップS14で求めたロボットアーム3の先端部3fの位置姿勢とに基づいて、ロボットアーム3を制御する。これにより、計測対象の位置姿勢に応じて、ロボットアーム3の先端部3f(例えばハンド)が動作する。計測対象が障害物である場合には、ステップS15において、アーム制御部11は、障害物の位置に基づいて、ロボットアーム3が障害物を回避するようにロボットアーム3を制御する。計測対象が目印である場合には、ステップS15において、アーム制御部11は、目印の位置姿勢を基準にロボットアーム3の位置姿勢を制御する。
なお、変更例4によると、対象物1の位置姿勢は、外部センサ5または他の装置(例えば、ロボットアーム3の先端部3fに設けたカメラやレーザ距離計測装置)を用いて計測されてもよい。アーム制御部11は、計測された対象物1の位置姿勢に基づいて、ロボットアーム3が対象物1に作業をするようにロボットアーム3を制御する。
1 対象物、3 ロボットアーム、3a,3b,3c,3d,3e リンク、3f 先端部、5 外部センサ、5a 観測部、7 記憶部、9 アーム計測装置、10 相対データ較正装置、11 アーム制御部、13 アームマーカ、13a マーカ部、15 外部マーカ、15a マーカ部、17 アーム側センサ、17a 観測部、19 センサ駆動装置、20 制御装置、21 センサ向き制御部、23 較正処理部、Sa 外部センサ座標系、Sb アーム座標系

Claims (7)

  1. ロボットアームの動作領域を観測することにより観測データを取得する外部センサと、
    前記ロボットアームと外部センサとの相対位置および相対姿勢の一方または両方を表す相対データを記憶する記憶部と、
    前記観測データと前記相対データとに基づいて、前記ロボットアームが作業を行うように前記ロボットアームを制御するアーム制御部とを備える制御装置のために設けられる相対データ較正装置であって、
    前記ロボットアームに設けられたアームマーカと、
    前記外部センサの観測により取得された前記アームマーカの観測データに基づいて、前記相対データを較正する較正処理部と、を備える、相対データ較正装置。
  2. 前記外部センサに設けられた外部マーカと、
    前記ロボットアームに設けられ、前記外部マーカを観測することにより、前記外部マーカの観測データを取得するアーム側センサと、を備え、
    前記較正処理部は、前記アームマーカの前記観測データと前記外部マーカの前記観測データに基づいて、前記相対データを較正する、請求項1に記載の相対データ較正装置。
  3. 前記アームマーカは、該アームマーカの姿勢が特定可能な形状を有し、前記アーム側センサに一体的に固定されており、
    前記外部マーカは、該外部マーカの姿勢が特定可能な形状を有し、前記外部センサに一体的に固定されている、請求項2に記載の相対データ較正装置。
  4. 前記アーム側センサを回転軸まわりに回転駆動することにより、前記アーム側センサの向きを変えるセンサ駆動装置と、
    前記ロボットアームの動作に応じて、前記アーム側センサが前記外部マーカを向くように前記センサ駆動装置を制御するセンサ向き制御部と、を備える、請求項2に記載の相対データ較正装置。
  5. 前記アームマーカと前記外部マーカの各々は、互いに間隔をおいて配置された複数のマーカ部を有し、
    前記外部センサと前記アーム側センサの各々は、カメラであり、
    前記アームマーカの前記観測データと前記外部マーカの前記観測データは、画像データである、請求項2〜4のいずれか一項に記載の相対データ較正装置。
  6. 外部センサの観測データと、前記ロボットアームと前記外部センサとの相対位置および相対姿勢の一方または両方を表す相対データとに基づいて前記ロボットアームを制御する場合に、前記相対データを較正する方法であって、
    (A)前記ロボットアームにアームマーカを設け、
    (B)前記外部センサにより、前記アームマーカを観測して前記アームマーカの観測データを取得し、
    (C)前記アームマーカの前記観測データに基づいて、前記相対データを較正し、
    前記ロボットアームが作業をするための動作をしている作業中に、前記(B)と(C)を行う、相対データ較正方法。
  7. 前記作業中に、前記(B)と(C)を繰り返し行う、請求項6に記載の相対データ較正方法。
JP2016003318A 2016-01-12 2016-01-12 相対データ較正装置と方法 Active JP6674655B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016003318A JP6674655B2 (ja) 2016-01-12 2016-01-12 相対データ較正装置と方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016003318A JP6674655B2 (ja) 2016-01-12 2016-01-12 相対データ較正装置と方法

Publications (2)

Publication Number Publication Date
JP2017124448A true JP2017124448A (ja) 2017-07-20
JP6674655B2 JP6674655B2 (ja) 2020-04-01

Family

ID=59363659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016003318A Active JP6674655B2 (ja) 2016-01-12 2016-01-12 相対データ較正装置と方法

Country Status (1)

Country Link
JP (1) JP6674655B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109382817A (zh) * 2017-08-03 2019-02-26 发那科株式会社 校准系统和校准方法
WO2019146201A1 (ja) * 2018-01-23 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
JP2020011339A (ja) * 2018-07-18 2020-01-23 キヤノン株式会社 ロボットシステムの制御方法、およびロボットシステム
JP2020114609A (ja) * 2019-01-17 2020-07-30 株式会社Fuji 制御装置、作業ロボット、作業システム及び制御方法
JPWO2020208826A1 (ja) * 2019-04-12 2020-10-15
JP2021076502A (ja) * 2019-11-11 2021-05-20 株式会社東芝 遠隔計測装置及び遠隔計測方法
KR20220063651A (ko) * 2020-11-10 2022-05-17 금오공과대학교 산학협력단 로봇의 6차원 포즈 추정을 위한 영상기반 능동형 마커모듈 및 시스템, 이를 이용한 마커 인식 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60193013A (ja) * 1984-03-15 1985-10-01 Hitachi Ltd 視覚センサを備えたロボツトの制御装置
JPH0830327A (ja) * 1994-07-18 1996-02-02 Fujitsu Ltd 能動的環境認識システム
JP2005262378A (ja) * 2004-03-18 2005-09-29 Oki Electric Ind Co Ltd 自律ロボットおよびその制御方法
JP2013526423A (ja) * 2010-05-14 2013-06-24 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60193013A (ja) * 1984-03-15 1985-10-01 Hitachi Ltd 視覚センサを備えたロボツトの制御装置
JPH0830327A (ja) * 1994-07-18 1996-02-02 Fujitsu Ltd 能動的環境認識システム
JP2005262378A (ja) * 2004-03-18 2005-09-29 Oki Electric Ind Co Ltd 自律ロボットおよびその制御方法
JP2013526423A (ja) * 2010-05-14 2013-06-24 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109382817A (zh) * 2017-08-03 2019-02-26 发那科株式会社 校准系统和校准方法
JP7111114B2 (ja) 2018-01-23 2022-08-02 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理システム
WO2019146201A1 (ja) * 2018-01-23 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
JPWO2019146201A1 (ja) * 2018-01-23 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
US11420335B2 (en) 2018-01-23 2022-08-23 Sony Corporation Information processing apparatus, information processing method, and information processing system
JP2020011339A (ja) * 2018-07-18 2020-01-23 キヤノン株式会社 ロボットシステムの制御方法、およびロボットシステム
JP7237483B2 (ja) 2018-07-18 2023-03-13 キヤノン株式会社 ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
JP2020114609A (ja) * 2019-01-17 2020-07-30 株式会社Fuji 制御装置、作業ロボット、作業システム及び制御方法
JP7296731B2 (ja) 2019-01-17 2023-06-23 株式会社Fuji 制御装置、作業ロボット、作業システム及び制御方法
CN113795355A (zh) * 2019-04-12 2021-12-14 株式会社尼康 机器人系统、终端效应器系统、终端效应器单元及配接器
WO2020208826A1 (ja) * 2019-04-12 2020-10-15 株式会社ニコン ロボットシステム、エンドエフェクタシステム、エンドエフェクタユニット、及びアダプタ
JPWO2020208826A1 (ja) * 2019-04-12 2020-10-15
JP7327469B2 (ja) 2019-04-12 2023-08-16 株式会社ニコン 駆動システム、エンドエフェクタシステム、エンドエフェクタユニット、及びアダプタ
JP2021076502A (ja) * 2019-11-11 2021-05-20 株式会社東芝 遠隔計測装置及び遠隔計測方法
JP7293087B2 (ja) 2019-11-11 2023-06-19 株式会社東芝 遠隔計測装置及び遠隔計測方法
KR20220063651A (ko) * 2020-11-10 2022-05-17 금오공과대학교 산학협력단 로봇의 6차원 포즈 추정을 위한 영상기반 능동형 마커모듈 및 시스템, 이를 이용한 마커 인식 방법
KR102483156B1 (ko) * 2020-11-10 2022-12-29 금오공과대학교 산학협력단 로봇의 6차원 포즈 추정을 위한 영상기반 능동형 마커모듈 및 시스템, 이를 이용한 마커 인식 방법

Also Published As

Publication number Publication date
JP6674655B2 (ja) 2020-04-01

Similar Documents

Publication Publication Date Title
JP6674655B2 (ja) 相対データ較正装置と方法
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
US9517560B2 (en) Robot system and calibration method of the robot system
JP6426725B2 (ja) 移動可能な対象物体の場所を追跡するためのシステム及び方法
US10618166B2 (en) Teaching position correction device and teaching position correction method
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2017209781A5 (ja)
JP6622765B2 (ja) ロボットシステム
JP2019509186A (ja) ロボットシステムの自動較正方法
JP6922204B2 (ja) 制御装置、ロボットおよびロボットシステム
JP2018027580A (ja) ロボット制御装置
JP2010188439A (ja) パラメータ算出方法及びパラメータ算出装置
JP6897396B2 (ja) 制御装置、ロボットシステムおよび制御方法
JP2001050741A (ja) ロボットのキャリブレーション方法及び装置
JP2011235400A (ja) マニピュレータのキャリブレーション方法及びロボット制御システム
JP2019000923A (ja) 多関節ロボットの機構モデルパラメータ推定方法
JP2012223871A (ja) ロボットの関節の原点補正方法およびそのシステム
JP5574805B2 (ja) 視覚センサを有するマニピュレータのセンサキャリブレーション方法及びロボット制御システム
JP2017052045A (ja) 位置関係データ取得装置と遠隔操縦装置
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP7011805B2 (ja) ロボットの制御点設定がなされるロボット制御装置およびロボット制御方法
JP7366264B2 (ja) ロボット教示方法及びロボット作業方法
JPH09222913A (ja) ロボットの教示位置補正装置
JP7296252B2 (ja) ロボット制御システムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200220

R151 Written notification of patent or utility model registration

Ref document number: 6674655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151