JP5803124B2 - ロボット、位置検出装置、位置検出プログラム、および位置検出方法 - Google Patents
ロボット、位置検出装置、位置検出プログラム、および位置検出方法 Download PDFInfo
- Publication number
- JP5803124B2 JP5803124B2 JP2011027233A JP2011027233A JP5803124B2 JP 5803124 B2 JP5803124 B2 JP 5803124B2 JP 2011027233 A JP2011027233 A JP 2011027233A JP 2011027233 A JP2011027233 A JP 2011027233A JP 5803124 B2 JP5803124 B2 JP 5803124B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- goal
- image data
- robot
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
そこで、本発明は上記事情に鑑みてなされたものであり、ターゲットのサブピクセルレベルでの位置検出を高精度に行う、ロボット、位置検出装置、位置検出プログラム、および位置検出方法を提供することを目的とする。
[1]上記の課題を解決するため、本発明の一態様であるロボット装置は、ターゲットをゴール位置まで搬送可能に保持する搬送ロボットと、前記ゴール位置と前記ターゲットとを視野に含めて撮像し画像データを生成する撮像部と、前記画像データにおけるゴール位置にピクセルレベルで位置合わせされたターゲットをサブピクセルレベルの変位量で変位させたときの画素値の変化量により表される感度に応じて、前記ターゲットが配置された状態のゴール画像データを記憶するゴール画像記憶部と、前記撮像部が生成する前記搬送ロボットにより保持されたターゲットの画像を含む画像データと前記ゴール画像記憶部に記憶された前記ゴール画像データとの比較に基づいて前記ターゲットの一致度評価値を計算して、前記一致度評価値に基づいて前記ゴール位置に対する前記ターゲットの位置ずれを検出するターゲット検出部と、前記ターゲット検出部が検出した位置ずれをなくす方向に、前記搬送ロボットが保持するターゲットを搬送するよう前記搬送ロボットを制御する搬送ロボット制御部と、を備えることを特徴とする。
ここで、本発明の一態様であるロボット装置は、ビジュアルフィードバック制御によってターゲットをゴール位置まで搬送するものである。本発明の一態様であるロボット装置は、あらかじめターゲットをゴール位置にゴールさせた状態での、ターゲット撮像画像であるゴール画像と、ターゲットの撮像画像であるターゲット画像とのテンプレートマッチング処理を行ってフィードバック制御を行うことにより、ビジュアルフィードバック制御を実現するものである。一致度評価値は、例えば、ゴール画像とターゲット画像との輝度差の絶対値の総和や輝度差の2乗和等である。また、画素値は、例えば輝度値である。
この構成によれば、ロボット装置は、例えば、ターゲットのゴール位置が最も感度の高い位置となる状態でのゴール画像データを生成し記憶しておくことができる。そして、ロボット装置は、ターゲットをサブピクセルレベルの変位量で変位させる制御をしながらターゲット画像とゴール画像とのターゲットの一致度評価値を計算し、一致度評価が最も高いポイントを検出する。そして、ロボット装置は、そのポイントに対応する位置にターゲットを移動させるよう搬送ロボットを制御することにより、正確なサブピクセル精度でターゲットをゴール位置にゴールさせることができる。
[2]上記[1]記載のロボット装置において、ピクセルレベルで前記ゴール位置に位置合わせされたターゲットと前記撮像部との前記画像データ上の相対位置を変更する位置変更ロボットと、前記位置変更ロボットによって変位された前記ターゲットの画像を含む画像データに基づいて前記感度の分布を求め、前記分布を前記画像データ上の位置に対応させた感度マップを生成する感度マップ生成部と、前記感度マップ生成部が生成した感度マップに基づいて前記画像データにおけるゴール位置を決定するゴール位置決定部と、前記ゴール位置決定部が決定した前記ゴール位置に前記ターゲットを移動させるよう前記位置変更ロボットを制御する位置変更ロボット制御部と、を備え、前記ターゲット検出部は、前記位置ずれを検出した場合に、サブピクセル推定処理によって前記ターゲットの位置ずれの方向とずれ量とを計算し、前記搬送ロボット制御部は、前記ターゲットの前記位置ずれの方向と前記ずれ量とに基づいて、前記搬送ロボットが保持するターゲットを搬送するよう前記搬送ロボットを制御することを特徴とする。
この構成によれば、感度マップを生成することにより、ターゲット画像の感度の分布に応じて感度の高い適切なゴール位置を決定することができる。
[3]上記[2]記載のロボット装置において、前記感度マップ生成部は、前記感度に応じて画素に重み係数による重み付けをし、前記重み係数と前記感度マップとを対応付け、前記ターゲット検出部は、前記画素の重み係数に基づいて前記一致度評価値の計算処理に用いる画素を選択することを特徴とする。
この構成によれば、感度に応じた重み係数を適用することによって、ノイズや背景画像による影響を抑えて画像比較を行うことができ、信頼性が高いサブピクセルレベルでの位置合わせを行うことができる。
[4]上記[3]記載のロボット装置において、前記重み係数は、前記感度が高くなるにしたがって大きな値となるものであり、前記ターゲット検出部は、前記画素の重み係数が閾値を超える値である画素のみを用いて前記一致度評価値の計算処理に用いる画素を選択することを特徴とする。
[5]上記[1]から[4]のうちいずれか一項記載のロボット装置において、前記ターゲット検出部は、前記画像データと前記ゴール画像データとの輝度差の絶対値の総和または前記輝度差の2乗和を計算して前記一致度評価値を得ることを特徴とする。
[6]上記[1]から[5]のうちいずれか一項記載のロボット装置において、前記搬送ロボットは、可動のアーム部とこのアーム部に連結される可動のハンド部とを備え、前記ハンド部により前記ターゲットを保持させることを特徴とする。
[7]上記[2]から[6]のうちいずれか一項記載のロボット装置において、前記位置変更ロボットは、前記ターゲットまたは前記撮像部の一方が固定された状態で他方を可動に支持することを特徴とする。
この構成によれば、位置検出装置は、例えば、ターゲットのゴール位置が最も感度の高い位置となる状態でのゴール画像データを生成し記憶しておくことができる。そして、位置検出装置は、ターゲットをサブピクセルレベルの変位量で変位させる制御をしながらターゲット画像とゴール画像とのターゲットの一致度評価値を計算することにより、一致度評価が最も高いポイント、すなわち、正確なサブピクセル精度でターゲットの位置を検出することができる。
[第1の実施の形態]
本発明の第1実施形態であるロボット装置は、ビジュアルフィードバック制御によって部品(ターゲット)をゴール位置まで搬送し、アセンブリー部品の組立作業を行う装置である。ゴール位置とは、部品をアセンブリー部品に組み付ける際の、当該部品の目標となる位置である。
このロボット装置は、あらかじめゴール位置に部品を配置した状態、言い換えると、ターゲットをゴール位置にゴールさせた状態での、当該部品または当該部品における位置合わせ対象部位の撮像画像(ゴール画像)と、搬送中である部品の撮像画像(ターゲット画像)とのテンプレートマッチング処理を行ってフィードバック制御を行うことにより、ビジュアルフィードバック制御を実現する。
ロボット装置1は、サブピクセルレベルでのターゲットの位置合わせを高精度に行うために、上記のとおり、ターゲットを感度が高い位置に配置した状態でのゴール画像を生成して保有する。ロボット装置1は、ターゲットを感度が高い位置に配置するために、直交ロボット60によりターゲットの位置を移動させることができる。
図2は、工場の組立製造ラインに設置されたロボット装置1における多関節ロボット10がアセンブリー部品の組立作業を行っている様子を模式的に表した図である。図2に示す組立製造ラインには、ロボット装置1における、多関節ロボット10と、撮像装置20と、組立中であるアセンブリー部品が可動に設けられた直交ロボット60とが設置されている。
なお、図2では、位置検出装置30およびロボット制御装置50の図示を省略している。また、図2における部品や構造等の縮尺は、図を明りょうなものとするために実際のものとは異なる(後述する図3および図4についても同様である)。
なお、多関節ロボット10の自由度は6軸によるものに限られない。また、支持台10aは、床、壁、天井等、地面に対して固定された場所に設置してもよい。
図2に示す組立製造ラインにおいて、多関節ロボット10は、アセンブリー部品の軸210が部品220(平歯車)の軸穴に貫通するように、部品220をアセンブリー部品に取り付ける作業を行う。
撮像装置20は、位置検出装置30から供給される撮像要求コマンドにしたがってアセンブリー部品と部品220とを被写体として撮像し、この撮像により得られた画像データを位置検出装置30に供給する。
ゴール画像生成機能は、位置検出装置30が、撮像装置20とロボット制御装置50と直交ロボット60との連係した動作により、感度が高い位置にターゲットを配置した状態でのゴール画像を生成して記憶する機能である。
ターゲット検出機能は、位置検出装置30が、撮像装置20とロボット制御装置50と多関節ロボット10との連係した動作により、ゴール画像とターゲット画像とのテンプレートマッチング処理を行うことによってターゲットのピクセルレベルでの位置検出を行い、また、感度の分布に基づいてターゲットのサブピクセルレベルでの位置検出を行う機能である。位置検出装置30は、粗調整モードに設定されて動作したときにピクセルレベルでの位置検出を行い、微細調整モードに設定されて動作したときにサブピクセルレベルでの位置検出を行う。
位置検出装置30は、粗調整モードに設定されて動作した後に、微細調整モードに設定されて動作する。
微細調整モードは、ターゲットの位置がゴール位置にピクセルレベルで一致した状態において、位置検出装置30が、ターゲットを所定方向に微小距離(一画素未満に相当する距離)だけ動かす制御をしながらターゲット画像とゴール画像との一致度評価値を計算し、最も一致度評価が高い値に対応する位置にターゲットを移動させるよう制御する処理のモードである。
図5は、ターゲットのサイズが撮像系の一画素に相当するサイズ未満である場合についての、画像の感度を説明するための図である。図5(a),(b)それぞれは、ターゲット6とターゲット6の画像が含まれる画素5LU,5RU,5LB,5RBとを重ね合わせて模式的に表したものである。図5(a)の左側に示すように、ターゲット6が画素5LU,5RU,5LB,5RB全てに部分的に跨って位置する場合、画素5LU,5RU,5LB,5RBはターゲット6の画像成分を含む。画像成分は、例えば輝度値である。この状態から、図5(a)の右側に示すように、ターゲット6を一画素未満に相当する変位量で変位させてターゲット6が画素5RUに含まれるようにすると、画素5LU,5RU,5LB,5RBの画像成分は変化し、画素5LU,5LB,5RBにはターゲット6の画像成分が含まれず、画素5RUにのみターゲット6の画像成分が含まれるようになる。このように、ターゲット6の微小変位に対して、ターゲット6に対応する画像を構成する画素の画素値が大きく変化する場合、ターゲット6の微小変位前の画像は感度の高い画像であり、その微小変位前の位置は感度の高い位置であるという。
図6は、ターゲットをサブピクセルレベルで微小移動させた場合の、ターゲットの位置とゴール位置との一致度評価を説明するための図である。なお、図6は、説明の便宜上、画素配列を一次元で表したものである。図6において、P1,P2,およびP3は、X軸方向に連続する画素を表す。C(0),C(+0.1),C(+0.2),・・・,C(+0.9),およびC(+1.0)のそれぞれは、ターゲットC(0.4画素に相当する大きさである。)をX軸方向に、C(0)の位置(ターゲットCの中央の位置が画素P1,P2の境界位置に一致する。)から0.1画素ずつX軸の正方向に移動させたときの位置を表す。Gs,Giは、ともにターゲットCのゴール位置を表す。ゴール位置Gsは、画素P1と画素P2とに跨る位置(画素P1の0.1画素分と画素P2の0.3画素分とを占める範囲の位置)である。また、ゴール位置Giは、画素P2の先頭から0.4画素分ずれたところからの位置、つまり、画素P2に含まれる位置である。
図6において、ゴール位置Gsに一致するターゲットCの位置は位置C(+0.1)であり、ゴール位置Giに一致するターゲットCの位置は位置C(+0.6)である。
一方、図7(b)のグラフでは、ターゲットCが画素P2に相当する範囲内にある位置C(+0.2)から位置C(+0.8)までにおいて、ターゲット画像とゴール位置Giにおけるゴール画像との輝度差の2乗和が0(ゼロ)となる。つまり、ターゲットCの全範囲が画素P2に相当する範囲の部分である場合、ターゲットCがゴール位置Giに一致する位置を特定することができない。
よって、隣り合う画素を跨ぐ位置にターゲットがある場合に、ターゲット画像とゴール画像との位置合わせを、サブピクセルレベルで正確に行うことができる。
図8は、位置検出装置30の機能構成を表すブロック図である。図8に示すように、位置検出装置30は、画像データ取得部31と、感度マップ生成部32と、ゴール位置調整部33と、ゴール位置決定部34と、ゴール画像記憶部36と、ターゲット検出部37と、ターゲット位置調整部38とを備える。
感度マップ生成部32は、所定方向に微小変位させたターゲットの画像を画像データ取得部31から取得するために、ターゲットの移動方向と移動量との情報をゴール位置調整部33に供給する。
図9は、感度マップ生成部32が生成する感度マップの例である。図9の感度マップは、図5(a),(b)に示した、一画素に相当するサイズ未満の大きさであるターゲットを、図5(a),(b)に示すようにX軸正方向、X軸負方向、Y軸正方向、およびY軸負方向それぞれに微小移動させて計算した感度の値(感度値)の平均値を集計することにより得られたものである。
図9の感度マップにおいて、感度領域SHに対応する画像領域は、図5(a)の左図におけるターゲット6に相当する位置、つまり感度が高い位置を含む。また、図9の感度マップにおいて、感度領域SLに対応する領域は、図5(b)の左図におけるターゲット6に相当する位置、つまり感度が低い位置を含む。
また、ゴール位置調整部33は、ゴール位置決定部34から供給されるゴール位置の位置情報を取り込み、この位置情報にしたがってターゲットを移動させる指示を含む内容の直交ロボット制御コマンドを生成し、この直交ロボット制御コマンドをロボット制御装置50に供給する。
また、ゴール位置調整部33は、ロボット制御装置50から供給される直交ロボット制御ステータスを取り込み、この直交ロボット制御ステータスの内容が制御の成功を表す内容である場合に、撮像要求コマンドを撮像装置20に供給する。
また、ゴール位置決定部34は、ゴール位置の位置情報をゴール位置調整部33に供給した後、ゴール画像データを記憶させるためのゴール画像記憶制御信号を生成してゴール画像記憶部36に供給する。
位置検出装置30によるゴール画像生成処理の実行において、ゴール画像記憶部36は、ゴール位置決定部34から供給されるゴール画像記憶制御信号を取り込むと、画像データ取得部31から供給される画像データを取り込んで記憶する。このときの画像データは、感度が高い位置にターゲットが配置された状態におけるゴール画像のデータである。
また、ターゲット位置調整部38は、ロボット制御装置50から供給される多関節ロボット制御ステータスを取り込み、この多関節ロボット制御ステータスの内容が制御の成功を表す内容である場合に、撮像要求コマンドを撮像装置20に供給する。
図10は、ロボット装置1によるゴール画像生成処理の処理手順を表すフローチャートである。図10のフローチャートによる処理が開始される前段階の処理として、位置検出装置30は、撮像装置20にターゲットである部品220の軸穴221を撮像させて、この撮像によって得られる画像データ(基準画像データ)を取得して感度マップ生成部32に保有させておく。
次に、ロボット制御装置50は、直交ロボット60を制御した後に、制御が成功したか否かを示す情報等を含めた直交ロボット制御ステータスを位置検出装置30に供給する。
次に、ゴール位置調整部33は、ロボット制御装置50から供給される直交ロボット制御ステータスを取り込み、この直交ロボット制御ステータスの内容が制御の成功を表す内容である場合に、撮像要求コマンドを撮像装置20に供給する。
次に、ステップS6において、ゴール位置決定部34は、感度マップ生成部32が生成した感度マップに基づいてゴール位置を選定し、このゴール位置の位置情報をゴール位置調整部33に供給する。
次に、ロボット制御装置50は、位置検出装置30から供給される直交ロボット制御コマンドを取り込み、この直交ロボット制御コマンドに基づいて、直交ロボット60の二つの軸モジュールのうちいずれか一方または両方の動作を制御する。これにより、直交ロボット60は、ロボット制御装置50による制御によって、二つの軸モジュールを個別にまたは連係させて動かす。
次に、ゴール位置調整部33は、ロボット制御装置50から供給される直交ロボット制御ステータスを取り込み、この直交ロボット制御ステータスの内容が制御の成功を表す内容である場合に、撮像要求コマンドを撮像装置20に供給する。
次に、ゴール画像記憶部36は、画像データ取得部31から供給される画像データをゴール画像記憶制御信号に基づいて記憶する。
図11は、ロボット装置1によるターゲット検出処理の処理手順を表すフローチャートである。位置検出装置30が粗調整モードに設定された後、図11のフローチャートの処理が開始される。
まず、ターゲット検出部37は、画像データ取得部31から供給される画像データを取り込み、ゴール画像記憶部36からゴール画像データを読み込む。
次に、ターゲット検出部37は、ゴール画像データを用いてテンプレートマッチング法によるターゲットの探索処理を画像データの画像領域内で実行してターゲットを検出し、このターゲットの基準位置の座標値(xp,yp)を取得する。
次に、ターゲット検出部37は、その画像データにおける基準位置の座標値(xp,yp)とゴール画像データにおけるターゲットの基準位置の座標値(xo,yo)とを、ターゲット位置調整部38に供給する。
次に、ターゲット位置調整部38は、ゴール画像データにおけるターゲットの基準位置の座標値(xo,yo)と画像データにおけるターゲットの基準位置の座標値(xp,yp)との差分値(xo−xp,yo−yp)を計算する。
次に、ターゲット位置調整部38は、差分値(xo−xp,yo−yp)が(0,0)でない場合は、ターゲットがゴールしていないと判定してステップS24の処理に移り、差分値(xo−xp,yo−yp)が(0,0)である場合は、ターゲットがピクセルレベルの位置精度でゴールしたと判定して微細調整モードに切り替えてステップS25の処理に移る。
次に、ロボット制御装置50は、位置検出装置30から供給される多関節ロボット制御コマンドを取り込み、この多関節ロボット制御コマンドに基づいて、多関節ロボット10のアーム部10bとハンド部10cと把持部10dとのうちいずれか一つまたは組み合わせの動作を制御する。そして、多関節ロボット10は、ロボット制御装置50による制御によって、アーム部10bとハンド部10cと把持部10dとのうちいずれか一つまたは組み合わせを動かす。
次に、ロボット制御装置50は、多関節ロボット10を制御した後に、制御が成功したか否かを示す情報等を含めたロボット制御ステータスを位置検出装置30に供給する。
次に、ターゲット位置調整部38は、ロボット制御装置50から供給される多関節ロボット制御ステータスを取り込み、この多関節ロボット制御ステータスの内容が制御の成功を表す内容である場合に、撮像要求コマンドを撮像装置20に供給する。
次に、ステップS21の処理に戻る。
次に、ターゲット検出部37は、取り込んだターゲット画像とゴール画像との一致度評価値、例えば、ターゲット画像とゴール画像との輝度差の2乗和を計算する。
次に、ターゲット位置調整部38は、ターゲットの位置ずれの方向とずれ量とに基づいて、ターゲットを微小移動させる指示を含む内容の多関節ロボット制御コマンドを生成しロボット制御装置50に供給する。
次に、ロボット制御装置50は、位置検出装置30から供給される多関節ロボット制御コマンドを取り込み、この多関節ロボット制御コマンドに基づいて、多関節ロボット10のアーム部10bとハンド部10cと把持部10dとのうちいずれか一つまたは組み合わせの動作を制御する。そして、多関節ロボット10は、ロボット制御装置50による制御によって、アーム部10bとハンド部10cと把持部10dとのうちいずれか一つまたは組み合わせを動かす。
次に、ロボット制御装置50は、多関節ロボット10を制御した後に、制御が成功したか否かを示す情報等を含めたロボット制御ステータスを位置検出装置30に供給する。
次に、ターゲット位置調整部38は、ロボット制御装置50から供給される多関節ロボット制御ステータスを取り込み、この多関節ロボット制御ステータスの内容が制御の成功を表す内容である場合に、撮像要求コマンドを撮像装置20に供給する。
次に、ステップS25の処理に戻る。
位置検出装置30は、感度マップを生成するため、ターゲット画像の感度の分布に応じて感度の高い適切なゴール位置を決定することができる。
上述した第1実施形態では、ターゲットのサイズが撮像系の一画素に相当する大きさ未満である場合、具体的には、ターゲットが平歯車の微細な軸穴であり、撮像面における軸穴の大きさが一画素に相当する大きさ未満である場合を例に挙げて説明した。
本発明の第2実施形態では、ターゲットのサイズが撮像系の一画素に相当する大きさ以上である場合、具体的には、ターゲットが一つの平歯車全体であり、撮像面における平歯車全体の大きさが一画素に相当する大きさ以上である場合を例に挙げて説明する。
図12において網掛けが施された画素(例えば、画素P22,P31,P44等)は、ターゲット12をX軸正方向、X軸負方向、Y軸正方向、およびY軸負方向いずれかの方向に一画素未満に相当する変位量で変位させたときに画素値が変わる画素である。これらの画素は、感度値が正値となる。一方、図12において網掛けが施されていない画素(例えば、画素P00,P10,P43等)は、ターゲット12をX軸正方向、X軸負方向、Y軸正方向、およびY軸負方向いずれの方向に一画素未満に相当する変位量で変位させても画素値が変わらない画素である。これらの画素は、感度値が0(ゼロ)となる。
本発明の第2実施形態の第1変形例において、位置検出装置30の感度マップ生成部32は、感度値が大きくなるにしたがって大きな値となる重み係数を画素に対応付ける。例えば、感度マップ生成部32は、画素に対応する領域に含まれる各位置における感度値の平均値に応じた重み係数を、0から1までの範囲の中から対応付ける。
本発明の第2実施形態の第2変形例において、位置検出装置30の感度マップ生成部32は、ターゲットの変位の方向ごとに感度マップを生成する。そして、感度マップ生成部32は、ターゲットの変位の方向ごとに、感度値が大きくなるにしたがって大きな値となる重み係数を画素に対応付ける。例えば、感度マップ生成部32は、ターゲットの変位の方向ごとに、画素に対応する領域に含まれる各位置における感度値の平均値に応じた重み係数を、0から1までの範囲の中から対応付ける。つまり、X軸正方向、X軸負方向、Y軸正方向、およびY軸負方向それぞれに感度マップが生成された場合、感度マップ生成部32は、各画素に4種類の重み係数を対応付ける。
10 多関節ロボット(搬送ロボット)
10a 支持台
10b アーム部
10c ハンド部
10d 把持部
10d1,10d2 爪部
20 撮像装置(撮像部)
30 位置検出装置
31 画像データ取得部
32 感度マップ生成部
33 ゴール位置調整部
34 ゴール位置決定部
36 ゴール画像記憶部
37 ターゲット検出部
38 ターゲット位置調整部
50 ロボット制御装置(搬送ロボット制御部、位置変更ロボット制御部)
60 直交ロボット(位置変更ロボット)
Claims (10)
- 撮像部により撮像し生成されたゴール位置とターゲットとを視野に含む画像データにおける前記ゴール位置にピクセルレベルで位置合わせされた前記ターゲットを一画素未満の距離であるサブピクセルレベルの変位量で変位させたときの輝度値の変化量により表される感度に応じた前記ターゲットを含むゴール画像データと、前記画像データとに基づいて前記ターゲットを前記ゴール位置に移動させる、
ことを特徴とするロボット。 - 前記ゴール画像データを記憶するゴール画像記憶部と、
前記画像データと、前記ゴール画像記憶部に記憶された前記ゴール画像データとの比較に基づいて前記ターゲットの一致度評価値を計算して、前記一致度評価値に基づいて前記ゴール位置に対する前記ターゲットの位置ずれを検出し、前記位置ずれを検出した場合に、サブピクセル推定処理によって前記ターゲットの位置ずれの方向とずれ量とを計算するターゲット検出部と、
前記ターゲットの前記位置ずれの方向と前記ずれ量とに基づいて、前記位置ずれをなくす方向に前記ターゲットを移動させるロボット制御部と、
ピクセルレベルで前記ゴール位置に位置合わせされた前記ターゲットと前記撮像部との前記画像データ上の相対位置を変更する位置変更ロボットと、
前記位置変更ロボットによって変位された前記ターゲットの画像を含む画像データに基づいて前記感度の分布を求め、前記分布を前記画像データ上の位置に対応させた感度マップを生成する感度マップ生成部と、
前記感度マップ生成部が生成した感度マップに基づいて前記画像データにおけるゴール位置を決定するゴール位置決定部と、
前記ゴール位置決定部が決定した前記ゴール位置に前記ターゲットを移動させるよう前記位置変更ロボットを制御する位置変更ロボット制御部と、
を備えることを特徴とする請求項1記載のロボット。 - 前記感度マップ生成部は、前記感度に応じて画素に重み係数による重み付けをし、前記重み係数と前記感度マップとを対応付け、
前記ターゲット検出部は、前記画素の重み係数に基づいて前記一致度評価値の計算処理に用いる画素を選択する
ことを特徴とする請求項2記載のロボット。 - 前記重み係数は、前記感度が高くなるにしたがって大きな値となるものであり、
前記ターゲット検出部は、前記画素の重み係数が閾値を超える値である画素のみを用いて前記一致度評価値の計算処理に用いる画素を選択する
ことを特徴とする請求項3記載のロボット。 - 前記ターゲット検出部は、前記画像データと前記ゴール画像データとの輝度差の絶対値の総和または前記輝度差の2乗和を計算して前記一致度評価値を得る
ことを特徴とする請求項2から4のうちいずれか一項記載のロボット。 - 可動のアーム部とこのアーム部に連結される可動のハンド部とを備え、前記ハンド部により前記ターゲットを移動させる
ことを特徴とする請求項2から5のうちいずれか一項記載のロボット。 - 前記位置変更ロボットは、前記ターゲットまたは前記撮像部の一方が固定された状態で他方を可動に支持する
ことを特徴とする請求項2から6のうちいずれか一項記載のロボット。 - 画像データにおけるゴール位置にピクセルレベルで位置合わせされたターゲットを一画素未満の距離であるサブピクセルレベルの変位量で変位させたときの輝度値の変化量により表される感度に応じた前記ターゲットを含むゴール画像データと、前記ターゲットの画像を含む画像データとの比較に基づいて前記ターゲットの一致度評価値を計算して、前記一致度評価値に基づいて前記ゴール位置に対する前記ターゲットの位置ずれを検出する、
ことを特徴とする位置検出装置。 - コンピューターに、
画像データにおけるゴール位置にピクセルレベルで位置合わせされたターゲットを一画素未満の距離であるサブピクセルレベルの変位量で変位させたときの輝度値の変化量により表される感度に応じた前記ターゲットを含むゴール画像データと、前記ターゲットの画像を含む画像データとの比較に基づいて前記ターゲットの一致度評価値を計算する計算ステップと、
前記計算した一致度評価値に基づいて前記ゴール位置に対する前記ターゲットの位置ずれを検出する検出ステップと、
を実行させるための位置検出プログラム。 - 画像データにおけるゴール位置にピクセルレベルで位置合わせされたターゲットを一画素未満の距離であるサブピクセルレベルの変位量で変位させたときの輝度値の変化量により表される感度に応じた前記ターゲットを含むゴール画像データと、前記ターゲットの画像を含む画像データとの比較に基づいて前記ターゲットの一致度評価値を計算する計算ステップと、
前記計算した一致度評価値に基づいて前記ゴール位置に対する前記ターゲットの位置ずれを検出する検出ステップと、
を有することを特徴とする位置検出方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011027233A JP5803124B2 (ja) | 2011-02-10 | 2011-02-10 | ロボット、位置検出装置、位置検出プログラム、および位置検出方法 |
US13/368,741 US8577500B2 (en) | 2011-02-10 | 2012-02-08 | Robot apparatus, position detecting device, position detecting program, and position detecting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011027233A JP5803124B2 (ja) | 2011-02-10 | 2011-02-10 | ロボット、位置検出装置、位置検出プログラム、および位置検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012166279A JP2012166279A (ja) | 2012-09-06 |
JP5803124B2 true JP5803124B2 (ja) | 2015-11-04 |
Family
ID=46637518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011027233A Expired - Fee Related JP5803124B2 (ja) | 2011-02-10 | 2011-02-10 | ロボット、位置検出装置、位置検出プログラム、および位置検出方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8577500B2 (ja) |
JP (1) | JP5803124B2 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5781314B2 (ja) * | 2011-01-13 | 2015-09-16 | 三菱重工業株式会社 | 原子力設備の施工用準備ユニット、原子力設備の施工システム |
JP5915214B2 (ja) * | 2012-02-01 | 2016-05-11 | セイコーエプソン株式会社 | ロボット装置、組立て方法、及び組立てプログラム |
US9036865B2 (en) * | 2012-09-12 | 2015-05-19 | International Business Machines Corporation | Location determination for an object using visual data |
JP2014164641A (ja) * | 2013-02-27 | 2014-09-08 | Seiko Epson Corp | 画像処理装置、ロボット制御システム、ロボット、プログラム及び画像処理方法 |
JP6364836B2 (ja) * | 2014-03-14 | 2018-08-01 | セイコーエプソン株式会社 | ロボット、ロボットシステム、及び制御装置 |
JP2015223649A (ja) * | 2014-05-27 | 2015-12-14 | 株式会社安川電機 | ギヤ組み込みシステムおよびギヤ組み込み方法 |
CN107618030B (zh) * | 2016-07-16 | 2021-02-19 | 深圳市得意自动化科技有限公司 | 基于视觉的机器人动态跟踪抓取方法及系统 |
FI127100B (en) | 2016-08-04 | 2017-11-15 | Zenrobotics Oy | A method and apparatus for separating at least one piece from a plurality of pieces |
CN107972026B (zh) * | 2016-10-25 | 2021-05-04 | 河北亿超机械制造股份有限公司 | 机器人、机械臂及其控制方法和装置 |
JP6809245B2 (ja) * | 2017-01-20 | 2021-01-06 | セイコーエプソン株式会社 | ロボット |
CN107804708A (zh) * | 2017-09-21 | 2018-03-16 | 华南理工大学 | 一种贴装机取料旋转轴的旋转中心定位方法 |
CN110893999A (zh) * | 2018-09-12 | 2020-03-20 | 泰科电子(上海)有限公司 | 图像采集系统和图像采集方法 |
JP7000361B2 (ja) * | 2019-01-24 | 2022-01-19 | ファナック株式会社 | 追随ロボットおよび作業ロボットシステム |
CN110057552B (zh) * | 2019-04-23 | 2020-11-06 | 芋头科技(杭州)有限公司 | 虚像距离测量方法、装置、设备以及控制器和介质 |
JP7243615B2 (ja) * | 2019-12-23 | 2023-03-22 | コベルコ建機株式会社 | ガイダンスシステム |
CN111906770A (zh) * | 2020-09-14 | 2020-11-10 | 珠海格力智能装备有限公司 | 工件安装方法及系统、计算机可读存储介质 |
CN112561986A (zh) * | 2020-12-02 | 2021-03-26 | 南方电网电力科技股份有限公司 | 巡检机器人云台的二次对准方法、装置、设备和存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2897772B1 (ja) | 1998-06-01 | 1999-05-31 | 日本電気株式会社 | 画像位置合わせ方法、画像位置合わせ装置及び記録媒体 |
JP2003030669A (ja) | 2001-07-12 | 2003-01-31 | Dainippon Printing Co Ltd | 画像作成方法およびシステム |
US7239399B2 (en) * | 2001-11-13 | 2007-07-03 | Cyberoptics Corporation | Pick and place machine with component placement inspection |
US6961481B2 (en) * | 2002-07-05 | 2005-11-01 | Lockheed Martin Corporation | Method and apparatus for image processing using sub-pixel differencing |
US7408988B2 (en) | 2002-12-20 | 2008-08-05 | Lsi Corporation | Motion estimation engine with parallel interpolation and search hardware |
US7391931B2 (en) | 2003-01-10 | 2008-06-24 | Fujifilm Corporation | Method, apparatus, and program for moving image synthesis |
JP4121024B2 (ja) | 2003-01-10 | 2008-07-16 | 富士フイルム株式会社 | 動画像合成装置および方法並びにプログラム |
US7787655B1 (en) * | 2003-02-27 | 2010-08-31 | Adobe Systems Incorporated | Sub-pixel image registration |
JP2006039628A (ja) | 2004-07-22 | 2006-02-09 | Seiko Epson Corp | 画像処理装置、画像処理方法、および、画像処理プログラム |
DE102006024242A1 (de) * | 2006-05-23 | 2007-11-29 | Siemens Ag | Verfahren zur Detektierung einer Abweichung eines Röntgensystems in Bezug auf eine Soll-Position |
JP2007317013A (ja) * | 2006-05-26 | 2007-12-06 | Nikon Corp | 位置検出装置 |
JP4807194B2 (ja) | 2006-09-06 | 2011-11-02 | カシオ計算機株式会社 | 画像処理装置及びプログラム |
JP4461165B2 (ja) | 2007-09-26 | 2010-05-12 | 株式会社東芝 | 画像処理装置、方法およびプログラム |
JP5242248B2 (ja) | 2008-06-09 | 2013-07-24 | シャープ株式会社 | 欠陥検出装置、欠陥検出方法、欠陥検出プログラム、及び、記録媒体 |
JP2010033231A (ja) | 2008-07-28 | 2010-02-12 | Sanyo Electric Co Ltd | 画像処理装置及び撮像装置 |
-
2011
- 2011-02-10 JP JP2011027233A patent/JP5803124B2/ja not_active Expired - Fee Related
-
2012
- 2012-02-08 US US13/368,741 patent/US8577500B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US8577500B2 (en) | 2013-11-05 |
JP2012166279A (ja) | 2012-09-06 |
US20120209429A1 (en) | 2012-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5803124B2 (ja) | ロボット、位置検出装置、位置検出プログラム、および位置検出方法 | |
CN105066884B (zh) | 一种机器人末端定位偏差校正方法及系统 | |
JP7292829B2 (ja) | 案内された組立環境におけるマシンビジョン座標空間を結合するためのシステム及び方法 | |
JP6855492B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP5852364B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
US20140018957A1 (en) | Robot system, robot, robot control device, robot control method, and robot control program | |
US20050002555A1 (en) | Image processing apparatus | |
JP5899951B2 (ja) | ロボット装置および位置姿勢検出方法 | |
US12073582B2 (en) | Method and apparatus for determining a three-dimensional position and pose of a fiducial marker | |
JP2012055999A (ja) | 物体把持システム、物体把持方法、プログラム、およびロボットシステム | |
JP5803119B2 (ja) | ロボット装置、位置検出装置、位置検出プログラム、および位置検出方法 | |
CN113910219A (zh) | 运动臂系统以及控制方法 | |
JP5699697B2 (ja) | ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法 | |
WO2018043524A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP2015214022A (ja) | ロボット | |
JP2003296708A (ja) | データ処理方法、データ処理プログラムおよび記録媒体 | |
CN114998422B (zh) | 一种基于误差补偿模型的高精快速三维定位系统 | |
US20230001576A1 (en) | Adaptive mobile manipulation apparatus and method | |
CN118139729A (zh) | 用于自动化校准医学机器人的摄像头的校准方法和外科手术辅助系统 | |
CN113709441B (zh) | 一种扫描设备、相机的位姿确定方法、装置及电子设备 | |
TWI656421B (zh) | 自走設備的控制方法 | |
JP5906769B2 (ja) | ロボット装置およびロボット制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150804 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5803124 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |