JP2023182423A - 作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラム - Google Patents

作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラム Download PDF

Info

Publication number
JP2023182423A
JP2023182423A JP2022096024A JP2022096024A JP2023182423A JP 2023182423 A JP2023182423 A JP 2023182423A JP 2022096024 A JP2022096024 A JP 2022096024A JP 2022096024 A JP2022096024 A JP 2022096024A JP 2023182423 A JP2023182423 A JP 2023182423A
Authority
JP
Japan
Prior art keywords
section
mirror
image
gripping
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022096024A
Other languages
English (en)
Inventor
洋一 堤
Yoichi Tsutsumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Production Engineering Corp
Original Assignee
Toyota Production Engineering Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Production Engineering Corp filed Critical Toyota Production Engineering Corp
Priority to JP2022096024A priority Critical patent/JP2023182423A/ja
Publication of JP2023182423A publication Critical patent/JP2023182423A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】鏡に映された画像を用いた際の対象物の掴持状態(掴みずれ)の把握の精度向上を図ることのできる作業ロボットを提供する。【解決手段】掴持部を装着するロボットアーム部を駆動させる駆動部と、掴持部の近傍に備えられ鏡部により映される対象物の鏡像を撮影する撮影部と、対象物の掴持状態を判定する処理部とを備え、処理部は、対象物を掴持部により掴持したときの鏡像を基準像として取得する基準像取得部と、作業時の載置状態の対象物を掴持部により掴持したときの鏡像を作業像として取得する作業像取得部と、基準像中の対象物と作業像中の対象物との間の対象物の位置ずれ量を算出するずれ算出部と、位置ずれ量に基づいて基準像を取得したときのロボットアーム部を駆動させる駆動部の駆動量から新たにロボットアーム部を駆動させる駆動部の駆動量を補正駆動量として設定する補正量設定部とを備える。【選択図】図1

Description

本発明は、作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラムに関し、特に、対象物が的確に掴持されていることを判定する作業ロボット、その作業ロボットにおける判定方法、判定プログラムに関する。
現在、作業場所に載置された対象物(ワーク等)を作業ロボットの掴持部(マニピュレータ等)が掴持し、対象物を所定の場所に移動させたり組み付けたりする産業用の作業ロボットが一般的である。ここで、作業ロボットの掴持部が対象物を掴持する際、作業ロボットの掴持部が的確に対象物を掴持しなければ、作業ロボットを通じて対象物を適切な位置に移動することができない。
掴持状態を把握するカメラの設置に際しては、対象物の状態を撮影するため、載置された対象物ごとにカメラは作業場所に複数台設置される。または、カメラは作業場所と作業ロボットの掴持部の両方に設置される。このことから、カメラの設置場所の確保とカメラの台数増加に伴う設備経費の増大が問題視されてきた。
そのため、カメラの数を抑制するため、作業場所に鏡が備えられ、鏡映しの画像から対象物の掴持状態を把握する技術が提案されている(特許文献1,2,3,4等参照)。これらの文献に提案の技術により、カメラの数の抑制は可能となった。しかしながら、鏡に映された画像を利用するため、画像認識の精度は必ずしも十分ではなかった。
特開2016-190309号公報 国際公開WO2016/113836号公報 特開2020-99969号公報 特表2020-513333号公報
本発明は上記の点に鑑みなされたものであり、鏡に映された画像を用いた際の対象物の掴持状態(掴みずれ)の把握の精度向上を図り、的確な対象物の掴持及び移動のできる作業ロボットと、当該作業ロボットの掴持状態の判定方法、当該作業ロボットの掴持状態の判定プログラムを提供する。
すなわち、実施形態の対象物を掴持する掴持部を備える作業ロボットは、掴持部を装着するロボットアーム部を駆動させる駆動部と、掴持部の近傍に備えられ、鏡部により映される掴持状態の対象物の鏡像を撮影する撮影部と、鏡像に基づいて対象物の掴持状態を判定する処理部とを備え、処理部は、対象物を掴持部により掴持したときの鏡像を基準像として取得する基準像取得部と、作業時の載置状態の対象物を掴持部により掴持したときの鏡像を作業像として取得する作業像取得部と、基準像中の対象物と作業像中の対象物との間の対象物の位置ずれ量を算出するずれ算出部と、位置ずれ量に基づいて基準像を取得したときのロボットアーム部を駆動させる駆動部の駆動量から新たにロボットアーム部を駆動させる駆動部の駆動量を補正駆動量として設定する補正量設定部とを備えることを特徴とする。
さらに、ロボットアーム部が接続されているロボット本体部に設置されることとしてもよい。
さらに、鏡部は複数設置され、鏡部は対向して配置されることとしてもよい。
さらに、鏡部には当該鏡部の傾斜を変更する鏡傾斜変更部が備えられ、処理部は鏡傾斜変更部を制御する鏡傾斜制御部を備えることとしてもよい。
さらに、撮影部には当該撮影部の傾斜を変更する撮影傾斜変更部が備えられ、処理部は撮影傾斜変更部を制御する撮影傾斜制御部を備えることとしてもよい。
さらに、作業ロボットは自走式であることとしてもよい。
さらに、鏡部は前記作業ロボットのロボット本体部に設置されることとしてもよい。
さらに、補正量設定部は、位置ずれ量に基づいてロボットアーム部を駆動させる駆動部の駆動量を、基準像を取得したときのロボットアーム部を駆動させる駆動部の駆動量から所定の必要量を補正して補正駆動量を設定することとしてもよい。
さらに、ずれ算出部が所定の位置ずれ量を算出した場合、作業ロボットは、掴持状態の対象物の移動を中止して掴持状態の対象物を掴持部により掴持前の位置に載置し、位置ずれ量に基づいて掴持部により対象物の位置を移動させ、再度対象物を掴持部により掴持することとしてもよい。
本発明の対象物を掴持する掴持部を備える作業ロボットは、掴持部を装着するロボットアーム部を駆動させる駆動部と、掴持部の近傍に備えられ、鏡部により映される掴持状態の対象物の鏡像を撮影する撮影部と、鏡像に基づいて対象物の掴持状態を判定する処理部とを備え、処理部は、対象物を掴持部により掴持したときの鏡像を基準像として取得する基準像取得部と、作業時の載置状態の対象物を掴持部により掴持したときの鏡像を作業像として取得する作業像取得部と、基準像中の対象物と作業像中の対象物との間の対象物の位置ずれ量を算出するずれ算出部と、位置ずれ量に基づいて基準像を取得したときのロボットアーム部を駆動させる駆動部の駆動量から新たにロボットアーム部を駆動させる駆動部の駆動量を補正駆動量として設定する補正量設定部とを備えるため、鏡に映された画像を用いた際の対象物の掴持状態(掴みずれ)の把握の精度向上を図り、的確な対象物の掴持及び移動が可能となる。
実施形態の作業ロボットを示す概略構成図である。 処理部の構成と機能部を示すブロック図である。 掴持状態の鏡像の模式図である。 (A)掴持状態の鏡像に対象物を認識させた模式図、(B)底面側の掴持状態の鏡像に対象物を認識させた模式図である。 (A)位置ずれの掴持状態の鏡像に対象物を認識させた模式図、(B)位置ずれの底面側の掴持状態の鏡像に対象物を認識させた模式図である。 他の実施形態の作業ロボットを示す模式図である。 (A)撮影部と鏡部の配置を示す第1模式図、(B)撮影部と鏡部の配置を示す第2模式図、(C)撮影部と鏡部の配置を示す第3模式図である。 作業ロボット内の処理の第1フローチャートである。 (A)作業ロボット内の処理の第2フローチャート、(B)作業ロボット内の処理の第3フローチャートである。
図1の概略構成図を用い、作業ロボット1と当該作業ロボット1における掴持状態の判定について説明する。作業ロボット1(後出の図6の作業ロボット1x)では、ばら積みの部品(対象物)を適切に掴持する際のピック補正、また、部品(対象物)をいったん掴持したときの掴みずれ補正に有効である。加えて、微細な部品の個数、印字不良等の際にカメラを近づける動作に際しても有効である。後出の図3ないし図5の鏡像の説明のとおり、作業ロボット1(作業ロボット1x)ではいったん掴持したときの掴みずれの判定から掴みずれ補正を有効に行うことができる。
作業ロボット1は、作業台8の上の所定位置に載置されている対象物Wを掴持するための掴持部3(マニピュレータ)を備える。特に、作業ロボット1は、ロボット本体部2にロボットアーム部5が装着され、ロボットアーム部5には複数の関節部と各関節部を駆動させるサーボモータ等の駆動部6が備えられる。掴持部3はロボットアーム部5の先端に装着される。各駆動部6の駆動制御(回動角度の制御)を通じてロボットアーム部5内の各部の動作量が制御される。そこで、作業ロボット1は、ロボットアーム部5の駆動を通じて掴持部3を作業台8上の対象物Wへ接近させ、対象物Wの掴持、対象物Wを掴持したまま別の場所への移動、再度の載置の一連の動作を可能とする。
作業ロボット1の掴持部3は、対象物Wを2方向から挟んで掴持する一対の爪部3a,3bを備える(図3等参照)。爪部3a,3bの動作は掴持部3の動作のための駆動部6により調整される。なお、作業ロボット1の掴持部3は図示の対象物Wを2方向から挟んで掴持する構成には限定されず、対象物いかんにより3方向、さらにはそれ以上の適宜としてもよい。
また、掴持状態の対象物Wの鏡像を写す鏡部9が備えられる。図示では、鏡部9は作業台8の上に所定の角度及び向きにより設置されている。鏡部9の設置については、鏡像内に対象物Wを掴持する掴持部3が写り、かつ、当該鏡像が撮影部4により撮影可能な角度及び向きが選択される。むろん、鏡部9は作業台8に限らず、ロボット本体部2側の設置としても良い。
掴持部3の近傍には撮影部4が備えられる。撮影部4は公知のCCDカメラ、CMOSイメージセンサ、赤外線カメラ等の機器である。撮影部4は鏡部9が写す掴持状態の対象物の鏡像を撮影する。撮影部4により直接掴持状態の対象物Wを撮影することは可能ではあるものの、対象物Wは掴持部3に隠されてしまい、後述する判定に有効かつ的確な画像を撮影することが容易ではない。そこで、鏡部9を介在させて鏡像を得ることにより掴持部3の映り込む量が減り対象物Wの撮影量が増やされ、判定に有効かつ的確な画像の撮影が可能となる。なお、実施形態では、鏡部9を用いることから撮影部4は単一(同一)のみで掴みずれ補正に対応することができる。
図示においては、作業ロボット1は、処理部10(コンピュータ)に有線または無線により接続される。処理部10は鏡像に基づいて掴持部3に掴持されている対象物Wの掴持状態を判定する。なお、エッジコンピューティングとして、ロボット本体部2に処理部10(コンピュータ)が組み込まれるようにしてもよい。
処理部10は、パーソナルコンピュータ(PC)、メインフレーム、ワークステーション、クラウドコンピューティングシステム等、種々の電子計算機(計算リソース)である。図示の処理部10はパーソナルコンピュータであり、演算結果の表示のためのディスプレイ16、その他、入力用のキーボード17、マウス18等が接続されている。
図2は処理部10の構成と機能部を示すブロック図である。処理部10には、各種の演算実行のためのCPU11、処理用のプログラムを記憶するROM12、データ等の記憶のためのRAM13、各種のデータ及び演算結果等の記憶のための記憶部14、さらに、I/O(インプット・アウトプットインターフェース)15等が備えられる。I/O15は通信(送受信)用のインターフェース、バッファ等である。I/O15は、駆動部6との信号の送受信、撮影部4等からの信号の受信等に用いられ、CPU11と連携する。
さらに図2のブロック図はCPU11内の機能部を示す。CPU11の各機能部をソフトウェアにより実現する場合、CPU11は各機能を実現するソフトウェアであるプログラムの命令を実行することで実現する。詳細には、CPU11には基準像取得部110、作業像取得部120、ずれ算出部130、補正量設定部140、出力部150等を備える。さらに、CPU11には後述する鏡傾斜制御部210、撮影傾斜制御部220が必要に応じて備えられる。
基準像取得部110は、作業台8の上の基準となる所定位置に載置され、その後、対象物Wが掴持部3により掴持されて持ち上げられたときの鏡部9に映る鏡像を基準像として取得する。
作業像取得部120は、作業台8の上の作業時の載置状態の対象物Wを掴持部3により掴持したときの鏡像を作業像として取得する。
図3の部分拡大模式図は、掴持部3による対象物Wの掴持状態の鏡像を表す。対象物Wは、掴持部3を構成する一対の爪部3a,3bにより挟持されている。図示では、掴持部3を動作する駆動部6とロボットアーム部5は省略されている。図示の例では、掴持部3(爪部3a,3b)は対象物Wの掴持の予定されている位置に当接しており、想定どおりの適切な掴持状態である。そこで、図示の掴持部3(爪部3a,3b)による対象物Wの掴持状態の鏡像が基準像となる。すなわち、今後実行される掴持部3による対象物Wの掴持について、常に図3の掴持状態の鏡像と同様の掴持状態が維持されれば良い。
基準像取得部110は、いわゆる今後実行される掴持状態の基準となる基準像を取得する。この前提において、作業像取得部120は、毎回の掴持部3による対象物Wの掴持状態の鏡像を作業像として逐次取得する。
それぞれの鏡像については、撮影画像のそのままを画像データとして保存することは可能である。しかし、鏡像中に映り込んでいる掴持部3、ロボットアーム部5等はむしろ掴持状態の判断に影響を与える外乱要因となり得る。そこで、掴持部3により掴持すべき対象物Wのみが撮影した鏡像から抽出され、対象物Wの大きさ、輪郭、形状等が画像データとして認識される。
図4の模式図は撮影した鏡像からの対象物Wの抽出の状態を表す。図4(A)の模式図は、前出の図3中の対象物Wの輪郭及び領域を強調するために対象物Wに着色(斜線表記)した状態を表す。図4(B)は撮影した鏡像より対象物Wの底面側に正対するように画像を変更した状態の模式図である。同様に対象物Wに着色(斜線表記)されている。図4では、対象物Wと掴持部3との関係が把握可能であることから基準像(マスター画像)となる。図示では、想定どおりの適切な掴持状態の対象物Wが表されている。
ずれ算出部130は、基準像中の対象物Wと作業像中の対象物Wとの間の対象物Wの位置ずれ量を算出する。基準像に基づいて、各回の撮影を通じて取得される作業像が適正であるか否かが判定される。具体的には、基準像中の対象物Wと掴持部3との間における位置関係からの、作業像中の対象物Wと掴持部3との位置関係のずれが判明する。なお、作業像の撮影に際しては、基準像の撮影時と同様のロボットアーム部5の動作、時間(撮影タイミング)として実行される。
補正量設定部140は、位置ずれ量に基づいて基準像を取得したときのロボットアーム部5を駆動させる駆動部6の駆動量から新たにロボットアーム部5を駆動させる駆動部6の駆動量を補正駆動量として設定する。
図5の模式図は不適切な掴持部3による対象物Wの掴持状態の作業像の鏡像を表す。図5(A)の模式図は対象物Wを表す。図示では爪部3bは省略されている。図5(B)は撮影した作業像の鏡像より対象物Wの底面側に正対するように画像を変更した状態の模式図である。特に、図5においては、基準像(マスター画像)における対象物Wi(対象物イメージ像)が破線により表示され、実際の掴持状態の対象物Wと比較可能に表示されている。
そこで、基準像中における対象物Wi(対象物イメージ像)と、実際の作業像中の掴持状態の対象物Wとの間の比較から位置ずれ量Zd(図中の矢印参照)が算出される。位置ずれ量は一方向に限らず対象物Wの形状に合わせて複数方向とすることができる。当該位置ずれ量Zdが生じているため、基準像の取得時に設定されたロボットアーム部5の動作とすると、実際の作業像中の掴持状態の対象物Wは、目標とする載置位置からずれた位置に載置されることになる。
このため、位置ずれ量Zdを考慮して、ロボットアーム部5を駆動させる駆動部6の駆動量を、基準像を取得したときのロボットアーム部5を駆動させる駆動部6の駆動量から必要量が補正されて補正駆動量が設定される。そして、補正駆動量を含めてロボットアーム部5を駆動させる駆動部6の駆動量は調整され、位置ずれ量Zdが生じている実際の作業像中の掴持状態の対象物Wは、位置ずれ量Zdを考慮した補正駆動量に基づいて目標とする本来の載置位置に載置される。ロボットアーム部5には駆動部6は複数装備されており、位置ずれ量Zdに応じて個々の駆動部6に最適な補正駆動量が設定される。なお、位置ずれ量Zdには、所定範囲の閾値が設定されてもよい。基準像と作業像との比較から、所定範囲の位置ずれ量に収まっていれ特段作業に支障なしとして進めることができる。
上記についてまとめると、補正量設定部140は、位置ずれ量Zdに基づいてロボットアーム部5を駆動させる駆動部6の駆動量を、基準像を取得したときのロボットアーム部5を駆動させる駆動部6の駆動量から所定の必要量(差分量)として算出することができる。そして、必要量(差分量)を、基準像を取得したときのロボットアーム部5を駆動させる駆動部6の駆動量に組み合わせる補正により補正駆動量を設定することとなる。
加えて、位置ずれ量Zdが算出されて明らかになる場合、次の制御が含められてもよい。例えば1つ目として、実際の作業像中の掴持状態の対象物Wの移動はいったん中止され、掴持状態の対象物Wは掴持部3により掴持前の作業台8上の位置に載置される。そして、対象物Wは位置ずれ量Zdを考慮して作業台8上において掴持部3(ロボットアーム部5)を通じて、本来の掴持のための適正な位置に移動される。その上で、再度作業台8から対象物Wは掴持部3により掴持される。2つ目として、実際の作業像中の掴持状態の掴持状態の対象物Wの移動はいったん中止され、掴持状態の対象物Wは掴持部3により、位置ずれ量Zdが考慮されて作業台8上の位置に載置され直される。そして、再度作業台8から対象物Wは掴持部3により掴持される。3つ目として、実際の作業像中の掴持状態の対象物Wの移動はいったん中止され、掴持状態の対象物Wは掴持部3により掴持前の作業台8上の位置に載置される(戻される)。そして、掴持部3(ロボットアーム部5)は位置ずれ量Zdを考慮して、作業台8に戻されて載置された対象物Wは再度掴持部3により掴持される。
上記の1つ目の制御についてまとめると、ずれ算出部130が所定の位置ずれ量Zdを算出した場合、作業ロボット1は、現在掴持状態の対象物Wの移動をいったん中止して掴持状態の対象物Wを掴持部3により掴持前の作業台8の上の位置に載置しなおす。そして、作業ロボット1は位置ずれ量Zdに基づいて掴持部3のみ、または掴持部3とロボットアーム部5の双方により対象物Wの位置を本来あるべき適正な位置(基準像を取得したときのロボットアーム部5の位置)まで移動させ、再度対象物Wを掴持部3により掴持する。なお、後出の作業ロボット1xにおいても同様の動作が可能である。むろん、2つ目及び3つ目の制御も同様にまとめられる。
出力部150は、図4のような撮影部4の撮影する鏡像、図5の対象物Wに着色した画像(基準像、対象物イメージ像)、位置ずれ量の表示等のディスプレイ16への出力等に関する必要な出力が行われる。一連の説明のとおり、ロボットアーム部5に備えられる撮影部4は1個であり、鏡部9も1枚に数量は抑えられるため、設備導入のコストは軽減される。併せて、作業ロボット1における撮影に関する設置場所が縮小され、また、撮影部4が1個であることから、画像処理自体も簡素化される。
図6の模式図は他の実施形態の作業ロボット1xを表す。この作業ロボット1xには車輪部7がロボット本体部2に装着され、作業ロボット1xは自走式とされている。作業ロボット1xは施設内の生産ライン(図示せず)の配置変更に伴い、容易に移動可能となる。そこで、作業ロボット1xでは、鏡部9はロボット本体部2に装着される。そこで、作業ロボット1xと鏡部9は一緒に移動可能である。むろん、図1に開示の作業ロボット1においても鏡部9はロボット本体部2に装着されていてもよい。
図7は撮影部4と鏡部9の位置関係を示す模式図である。図7において各図共通でロボットアーム部5の先端に装着された掴持部3にカメラアーム5aが備えられ、撮影部4はカメラアーム5aに備えられる。図中、撮影部4には撮影傾斜変更部4m、鏡部9には鏡傾斜変更部9mが備えられる。図7(A)の模式図では、鏡部9は撮影部4の延長線上に配置される。図示の配置状態では対象物Wを写す鏡像は斜めとなる。この場合、対象物Wを傾斜した状態として基準像は形成される。あるいは、鏡像から対象物Wの傾斜を補正して基準像は形成される。
図7(B)の模式図では、鏡部9は、撮影部4と掴持部3の双方から等しい位置に配置される。図示の配置状態では対象物Wを写す鏡像の歪みは小さくなる。ただし、鏡部9の設置場所の制約が大きくなる。図7(C)の模式図では、鏡部9は複数枚設置される。図示では、鏡部9は撮影部4の延長線上に1枚、さらに、掴持部3の延長線上に1枚と計2枚設置され、2枚の鏡部9同士は対向している。このため、撮影部4には、歪みの少ない対象物Wの鏡像が撮影可能となる。
さらに、図7では、撮影傾斜変更部4mにより撮影部4の角度及び向きが調整可能である。また鏡傾斜変更部9mにより鏡部9の角度及び向きが調整可能である。撮影傾斜変更部4mと鏡傾斜変更部9mには、サーボモータ、ステッピングモータ等が使用される。なお、撮影傾斜変更部4mと鏡傾斜変更部9mは、必要により備えられる構成である。例えば、図7(C)では撮影傾斜変更部4mと鏡傾斜変更部9mは省略してもよい。
処理部10は、鏡傾斜変更部9mを制御する鏡傾斜制御部210を備え、撮影傾斜変更部4mを制御する撮影傾斜制御部220を備える。そこで、鏡傾斜制御部210と撮影傾斜制御部220は、図7に見られる鏡部9、撮影部4、掴持部3の位置関係から、最適な鏡像を撮影するための鏡部9及び撮影部4の角度及び向きに制御する。
図8のフローチャートは処理部10(CPU11)における作業ロボットの掴持状態の判定方法の全体の流れであり、基準像取得ステップ(S110)、作業像取得ステップ(S120)、ずれ算出ステップ(S130)、補正量設定ステップ(S140)、出力ステップ(S150)の各種ステップを備える。むろん、処理部10自体の可動に必要な各種ステップは当然に含まれる。
図8のフローチャートは出力ステップ(S150)を含む構成としている。図8の構成に代えて出力ステップ(S150)が省略される構成としてもよい。また、基準像取得ステップ(S110)は、毎回の測定時に必ず実行する処理ではなく、いったん所定の基準像の取得が行われた後は、対象物Wの大きさ、形状等に変更がない限り省略は可能である。
基準像取得機能は、対象物Wを掴持部3により掴持したときの鏡像を基準像として取得する(S110;基準像取得ステップ)。作業像取得機能は、作業時の載置状態の対象物Wを掴持部3により掴持したときの鏡像を作業像として取得する(S120;作業像取得ステップ)。ずれ算出機能は、基準像中の対象物Wと作業像中の対象物Wとの間の対象物Wの位置ずれ量を算出する(S130;ずれ算出ステップ)。補正量設定機能は、位置ずれ量に基づいて基準像を取得したときのロボットアーム部5を駆動させる駆動部6の駆動量から新たにロボットアーム部5を駆動させる駆動部6の駆動量を補正駆動量として設定する(S140;補正量設定ステップ)。出力機能は、必要情報を出力する(S150;出力ステップ)。
さらに、処理部10(CPU11)における処理として、図9のフローチャートの処理が含められる。図9(A)のとおり、鏡傾斜制御機能は、鏡傾斜変更部9mを制御する(S210;鏡傾斜制御ステップ)。図9(B)のとおり、撮影傾斜制御機能は、撮影傾斜変更部4mを制御する(S220;撮影傾斜制御ステップ)。
上述した本発明のコンピュータプログラムは、プロセッサが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。
なお、上記コンピュータプログラムは、例えば、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装できる。
1,1x 作業ロボット
2 ロボット本体部
3 掴持部
4 撮影部
5 ロボットアーム部
6 駆動部
9 鏡部
10 処理部(コンピュータ)
11 CPU
12 ROM
13 RAM
14 記憶部
15 インプット・アウトプットインターフェース
16 ディスプレイ
17 キーボード
18 マウス
4m 撮影傾斜変更部
9m 鏡傾斜変更部
W 対象物
Wi 基準像中における対象物イメージ像
Zd 位置ずれ量
110 基準像取得部
120 作業像取得部
130 ずれ算出部
140 補正量設定部
150 出力部
210 鏡傾斜制御部
220 撮影傾斜制御部

Claims (11)

  1. 対象物を掴持する掴持部を備える作業ロボットであって、
    前記作業ロボットは、
    前記掴持部を装着するロボットアーム部を駆動させる駆動部と、
    前記掴持部の近傍に備えられ、鏡部により映される掴持状態の対象物の鏡像を撮影する撮影部と、
    前記鏡像に基づいて対象物の掴持状態を判定する処理部と、を備え、
    前記処理部は、
    対象物を前記掴持部により掴持したときの前記鏡像を基準像として取得する基準像取得部と、
    作業時の載置状態の対象物を前記掴持部により掴持したときの前記鏡像を作業像として取得する作業像取得部と、
    前記基準像中の対象物と前記作業像中の対象物との間の対象物の位置ずれ量を算出するずれ算出部と、
    前記位置ずれ量に基づいて前記基準像を取得したときの前記ロボットアーム部を駆動させる前記駆動部の駆動量から新たに前記ロボットアーム部を駆動させる前記駆動部の駆動量を補正駆動量として設定する補正量設定部と、を備える
    ことを特徴とする作業ロボット。
  2. 前記鏡部は、前記ロボットアーム部が接続されているロボット本体部に設置される請求項1に記載の作業ロボット。
  3. 前記鏡部は複数設置され、前記鏡部は対向して配置されている請求項1に記載の作業ロボット。
  4. 前記鏡部には、当該鏡部の傾斜を変更する鏡傾斜変更部が備えられ、
    前記処理部は、前記鏡傾斜変更部を制御する鏡傾斜制御部を備える請求項1に記載の作業ロボット。
  5. 前記撮影部には、当該撮影部の傾斜を変更する撮影傾斜変更部が備えられ、
    前記処理部は、前記撮影傾斜変更部を制御する撮影傾斜制御部を備える請求項1に記載の作業ロボット。
  6. 前記作業ロボットは自走式である請求項1に記載の作業ロボット。
  7. 前記鏡部は前記作業ロボットのロボット本体部に設置される請求項6に記載の作業ロボット。
  8. 前記補正量設定部は、前記位置ずれ量に基づいて前記ロボットアーム部を駆動させる前記駆動部の駆動量を、前記基準像を取得したときの前記ロボットアーム部を駆動させる前記駆動部の駆動量から所定の必要量を補正して前記補正駆動量を設定する請求項1に記載の作業ロボット。
  9. 前記ずれ算出部が所定の前記位置ずれ量を算出した場合、
    前記作業ロボットは、
    掴持状態の対象物の移動を中止して掴持状態の対象物を前記掴持部により掴持前の位置に載置し、
    前記位置ずれ量に基づいて前記掴持部により対象物の位置を移動させ、
    再度対象物を掴持部により掴持する請求項1に記載の作業ロボット。
  10. 対象物を掴持する掴持部を備える作業ロボットの掴持状態の判定方法であって、
    前記作業ロボットは、
    前記掴持部を装着するロボットアーム部を駆動させる駆動部と、
    前記掴持部の近傍に備えられ、鏡部により映される掴持状態の対象物の鏡像を撮影する撮影部と、
    前記鏡像に基づいて対象物の掴持状態を判定する処理部と、を備え、
    前記処理部は、
    対象物を前記掴持部により掴持したときの前記鏡像を基準像として取得する基準像取得ステップと、
    作業時の載置状態の対象物を前記掴持部により掴持したときの前記鏡像を作業像として取得する作業像取得ステップと、
    前記基準像中の対象物と前記作業像中の対象物との間の対象物の位置ずれ量を算出するずれ算出ステップと、
    前記位置ずれ量に基づいて前記基準像を取得したときの前記ロボットアーム部を駆動させる前記駆動部の駆動量から新たに前記ロボットアーム部を駆動させる前記駆動部の駆動量を補正駆動量として設定する補正量設定ステップと、を実行する
    ことを特徴とする作業ロボットの掴持状態の判定方法。
  11. 対象物を掴持する掴持部を備える作業ロボットの掴持状態の判定プログラムであって、
    前記作業ロボットは、
    前記掴持部を装着するロボットアーム部を駆動させる駆動部と、
    前記掴持部の近傍に備えられ、鏡部により映される掴持状態の対象物の鏡像を撮影する撮影部と、
    前記鏡像に基づいて対象物の掴持状態を判定する処理部と、を備え、
    前記処理部に、
    対象物を前記掴持部により掴持したときの前記鏡像を基準像として取得する基準像取得機能と、
    作業時の載置状態の対象物を前記掴持部により掴持したときの前記鏡像を作業像として取得する作業像取得機能と、
    前記基準像中の対象物と前記作業像中の対象物との間の対象物の位置ずれ量を算出するずれ算出機能と、
    前記位置ずれ量に基づいて前記基準像を取得したときの前記ロボットアーム部を駆動させる前記駆動部の駆動量から新たに前記ロボットアーム部を駆動させる前記駆動部の駆動量を補正駆動量として設定する補正量設定機能と、を実現させる
    ことを特徴とする作業ロボットの掴持状態の判定プログラム。
JP2022096024A 2022-06-14 2022-06-14 作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラム Pending JP2023182423A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022096024A JP2023182423A (ja) 2022-06-14 2022-06-14 作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022096024A JP2023182423A (ja) 2022-06-14 2022-06-14 作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラム

Publications (1)

Publication Number Publication Date
JP2023182423A true JP2023182423A (ja) 2023-12-26

Family

ID=89310082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022096024A Pending JP2023182423A (ja) 2022-06-14 2022-06-14 作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラム

Country Status (1)

Country Link
JP (1) JP2023182423A (ja)

Similar Documents

Publication Publication Date Title
JP7207851B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
CN110842928B (zh) 一种复合机器人视觉引导定位方法
JP6468741B2 (ja) ロボットシステム及びロボットシステムの校正方法
JP3946711B2 (ja) ロボットシステム
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
EP1488893A2 (en) Connector gripping device, connector inspection system comprising the device, and connector connection system
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN108621167B (zh) 一种基于轮廓边及内包圆特征的视觉伺服解耦控制方法
US20200147799A1 (en) Robot device
JP7306937B2 (ja) ロボットに支持された部材の位置を調整するロボット装置の制御装置
US20210031374A1 (en) Robot device controller for controlling position of robot
JP6777670B2 (ja) 画像処理を利用してロボットの教示を補正するロボットシステム
JP3412465B2 (ja) 移動ロボット装置
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
CN115008477B (zh) 机械手移动补偿方法、装置、计算机可读存储介质
JP2023182423A (ja) 作業ロボット、作業ロボットの掴持状態の判定方法、及び作業ロボットの掴持状態の判定プログラム
JP3823799B2 (ja) ビジュアルサーボによる位置姿勢制御方法
JPH09222913A (ja) ロボットの教示位置補正装置
JP2016203282A (ja) エンドエフェクタの姿勢変更機構を備えたロボット
JP5098846B2 (ja) ロボットシステム
JP7384653B2 (ja) ロボットの位置を制御するロボット装置の制御装置
JPH03281182A (ja) 移動ロボットの座標補正方法
WO2024135220A1 (ja) ロボット制御システム
JP3175623B2 (ja) ロボットの制御装置