JP2010127719A - 作業システム及び情報処理方法 - Google Patents

作業システム及び情報処理方法 Download PDF

Info

Publication number
JP2010127719A
JP2010127719A JP2008301714A JP2008301714A JP2010127719A JP 2010127719 A JP2010127719 A JP 2010127719A JP 2008301714 A JP2008301714 A JP 2008301714A JP 2008301714 A JP2008301714 A JP 2008301714A JP 2010127719 A JP2010127719 A JP 2010127719A
Authority
JP
Japan
Prior art keywords
light
work
processed
work system
arm mechanism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008301714A
Other languages
English (en)
Other versions
JP2010127719A5 (ja
JP5164811B2 (ja
Inventor
Masahito Aoba
雅人 青葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008301714A priority Critical patent/JP5164811B2/ja
Priority to US12/620,886 priority patent/US9239234B2/en
Publication of JP2010127719A publication Critical patent/JP2010127719A/ja
Publication of JP2010127719A5 publication Critical patent/JP2010127719A5/ja
Application granted granted Critical
Publication of JP5164811B2 publication Critical patent/JP5164811B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2504Calibration devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

【課題】 光切断法により対象物体の3次元情報を計測する作業システムにおいて、高い計測精度を実現する。
【解決手段】 ロボットアーム111と、前記ロボットアーム111先端部に配置されたハンド位置検出部114と、スリット光を照射するスリットレーザ投光器113と、ロボットアーム111とは独立した位置に固定され、対象物体160を撮像するカメラ120と、カメラ120による撮像により得られた対象物体160の画像データに含まれるハンド位置検出部114上に形成された光切断線に基づいて、スリット光の光切断面を算出し、該算出した光切断面と対象物体160上に形成された光切断線とに基づいて、対象物体160の位置及び姿勢を算出する計算機140とを備える。
【選択図】 図1

Description

本発明は、対象物体に対して所定の作業を行うアーム機構を備える作業システム及び該作業システムにおける情報処理方法に関するものである。
位置及び姿勢が変化する対象物体に対して所定の作業を行うアーム機構を備える作業システムでは、作業の実行に際して、対象物体の位置及び姿勢(3次元情報)を計測しておく必要があり、その計測手法として、光切断法が知られている。
光切断法は、カメラとスリット光投光器とを組み合わせて三角測量を行うことで、対象物体の3次元情報を得る手法であり、当該手法については、従来より、作業システムへの適用に関して、種々の提案がなされている。
例えば、下記特許文献1では、ロボットアームに3次元スキャナ(撮像装置及びスリット光投光器)を搭載したときの原点の位置校正方法が提案されている。また、下記特許文献2では、ロボットアームに3次元センサ(撮像装置及びスリット光投光器)を搭載した場合において照射されるビーム光の焦点を対象物体上に合わせる方法が提案されている。
特開2005−271103号公報 特開2005−163346号公報
しかしながら、上記特許文献に開示された作業システムは、いずれも、撮像装置とスリット光投光器とが一体化された構成を前提としている。このため、仮に撮像装置をグローバルな位置(ロボットアーム上ではない固定された位置)に配置した場合には、スリット光投光器もグローバルな位置に配置されることとなる。また、撮像装置をロボットアーム上に配置した場合には、スリット光投光器もロボットアーム上に固定されることとなる。
しかしながら、撮像装置とスリット光投光器とをグローバルな位置に配置すると、対象物体の位置または姿勢によっては、対象物体自身もしくはロボットアームによって、スリット光投光器より照射されるスリット光のオクルージョンを回避することができない。また、照射されるスリット光の焦点深度によっては、精度よく計測できる範囲が限定されてしまうという問題もある。これらの問題は、いずれも、高い計測精度を実現するうえで妨げとなる。
一方で、撮像装置とスリット光投光器とをロボットアーム上に配置した場合には、撮像装置とスリット光投光器との間を離して設置することができないという問題がある。光切断法は、三角測量の原理で計測を行うため、撮像装置とスリット光投光器との間の距離が短く、撮像装置の光軸とスリット光投光器の光軸とのなす角度(光軸間角度)が小さい場合、奥行き方向の計測精度が低下するという問題がある。
また、ロボットアームが小型の場合には、解像度が高く重量の大きい撮像装置を設置すること自体が困難であり、この場合には、高い計測精度は望めない。
本発明は上記課題に鑑みてなされたものであり、位置及び姿勢が変化する対象物体に対して光切断法により該対象物体の3次元情報を計測しながら、所定の作業を行うアーム機構を備える作業システムにおいて、高い計測精度を実現することを第1の目的とする。
更に、当該作業システムに適用される、光切断法による3次元情報の計測方法及び校正方法を提供することを第2の目的とする。
上記の目的を達成するために本発明に係る作業システムは以下のような構成を備える。即ち、
作業領域に載置された処理対象の物体に対して、予め定められた作業を行うために、位置及び姿勢を変更可能なアーム機構と、
前記アーム機構の先端部に配置された部材と、
前記部材に対する相対的な位置が一定となるように前記アーム機構において配置され、前記部材及び前記処理対象の物体に対してスリット光を照射することにより、前記部材の上及び前記処理対象の物体の上に光切断線を形成する照射手段と、
前記アーム機構から独立した位置に固定され、前記処理対象の物体を撮像する撮像手段と、
前記撮像手段による撮像により得られた前記処理対象の物体の画像データに含まれる前記部材の上に形成された光切断線に基づいて、前記アーム機構の先端部の位置及び姿勢、ならびに前記スリット光の光切断面を算出する第1の算出手段と、
前記算出された光切断面と、前記撮像手段が撮像することにより得られた前記処理対象の物体の画像データに含まれる前記処理対象の物体の上に形成された光切断線とに基づいて、前記処理対象の物体の位置及び姿勢を算出する第2の算出手段とを備える。
本発明によれば、位置及び姿勢が変化する対象物体に対して光切断法により該対象物体の3次元情報を計測しながら、所定の作業を行うアーム機構を備える作業システムにおいて、高い計測精度を実現することが可能となる。
更に、当該作業システムにおいて適用される、光切断法による3次元情報の計測方法及び校正方法を提供することが可能となる。
以下、図面を参照しながら、本発明の好適な実施の形態について説明する。
[第1の実施形態]
1.作業システムの外観構成
図1は、本発明の第1の実施形態に係る作業システム100の外観構成を示す図である。図1において、110は作業部であり、処理対象の物体(対象物体)に対して所定の作業を行うアーム機構を備える。111はロボットアームであり、先端部には対象物体に接触し所定の作業を行う部位(エンドエフェクタ)であるロボットハンド112が取り付けられている。なお、ロボットアーム111とロボットハンド112とをまとめて、以下、アーム機構と称す。
113は投光部としての機能するスリットレーザ投光器(スリット光投光器)であり、ロボットアーム111の先端部に取り付けられ、パターン光としてレーザによるスリット光を発光する。
114は検出部材として機能するハンド位置検出部である。ハンド位置検出部114は、ロボットハンド112に平行に、スリットレーザ投光器113に対する相対的な位置が変化しないように(一定となるように)取り付けられている。
ロボットアーム111、ロボットハンド112、スリットレーザ投光器113、ハンド位置検出部114は、作業部110を構成する。
120は撮像部として機能するカメラであり、ロボットアーム111の上空において、所定の作業が行われる作業領域内を撮像することができるようにロボットアーム111に対して独立して配置されている。
130は作業制御部として機能するロボットコントローラである。ロボットアーム111は、ロボットコントローラ130に接続されており、ロボットアーム111及びロボットハンド112は、ロボットコントローラ130によって制御される。
140は計算部として機能する計算機であり、ロボットコントローラ130を介して、ロボットアーム111及びロボットハンド112を制御するための情報処理を行う。また、カメラ120において撮像された画像データに基づいて、対象物体の位置及び姿勢(3次元情報)を算出する。150は作業領域であり、作業部110により作業される対象物体160が載置される。
このように、本実施形態における作業システム100では、カメラ120と、スリットレーザ投光器113及びハンド位置検出部114とを一体化せず、撮像部120は、ロボットアーム111とは独立した位置に配置する構成とした。また、スリットレーザ投光器113及びハンド位置検出部114は、ロボットアーム111上に配置する構成とした。
これにより、オクルージョンの問題ならびにビーム光の焦点深度の問題を回避することが可能となる。また、光軸間角度を大きくすることができるため、奥行き方向においても高い計測精度を実現することができるとともに、ロボットアームの大小に関わらず、解像度の高い(すなわち、重量の大きい)カメラを配置することが可能となる。
2.作業部の外観構成
次に作業部の外観構成について説明する。図2は、作業部110の外観構成を示す図である。
図2において、200はスリットレーザ投光器113より発光されたスリット光により形成される光切断面200である。光切断面200と交差する位置に物体があれば、その物体と光切断面とが交差する位置には、光切断線が発生する。
201は、スリットレーザ投光器113より発光されたスリット光の光切断面200が、ハンド位置検出部114と交差することによって発生した光切断線である。
なお、スリットレーザ投光器113は、発光されたスリット光の光切断面200が、ハンド位置検出部114上に光切断線201を発生させるような位置及び角度に設置されているものとする。
また、ハンド位置検出部114は、光切断線201に基づいて、その位置と姿勢が一意に定まるような形状をしているものとする。具体的には、光切断線201が途中で折れ曲がるように(すなわち、2以上の直線からなるように)、断面が三角形状を有しているものとする。
3.作業システムの機能構成
次に作業システムの機能構成について説明する。図3は、作業システム100の機能構成を示す図である。
図3において、作業部110、撮像部(カメラ)120、作業制御部(ロボットコントローラ)130については、図1、図2を用いて説明済みであるため、ここでは詳細な説明は省略する。
計算部(計算機)140は、不図示のCPU、RAM、ROMならびに記憶装置から構成されており、RAM内に読み込まれたプログラムがCPUにおいて実行されることで各種機能を実行する。具体的には、計算部140は、計測制御部301、計測値算出部302、画像データ保持部303、校正値算出部304、校正値保持部305として機能する。なお、各機能の詳細は後述する。
4.光切断法により3次元情報を計測するための校正方法
次に、光切断法により3次元情報を計測するための校正方法について説明する。
4.1 校正冶具の説明
はじめに、作業システム100の校正に用いられる校正冶具(既知の位置及び姿勢の対象物体)について説明する。図4は、作業システム100の校正に用いられる校正冶具を説明するための図である。
図4において、401は校正台であり、校正の際、作業領域150上に対象物体の代わりに載置される。
なお、校正台401の高さは対象物体の高さとおおよそ一致しているものとするが、厳密に一致している必要はない。
402は校正冶具であり、校正台401の上に載置される。校正冶具402は、少なくとも6つの既知寸法の頂点を持ち、複数の平面で構成されているものとする。また、各頂点の相対的な位置関係は高精度に既知であるとする。
なお、図4の例では、校正冶具402として正六角錘の物体を用意しているが、当該形状に限定されるものではなく、それ以外の形状、例えば五角錘、八角錘などであってもよい。以下では校正冶具402が正六角錘の形状を有している場合について説明する。
4.2 校正処理の概要
次に作業システムにおける校正処理の流れについて説明する。図5は、作業システム100における校正処理の流れを示すフローチャートである。
ステップS501(冶具座標系設定工程)では、校正値算出部304が計測制御部301に対して撮像する旨の指示を送り、計測制御部301では、撮像部120に撮像のための制御信号を送る。
撮像部120では、計測制御部301からの制御信号により撮像を行い、取得した画像データを画像データ保持部303を介して格納する。
校正値算出部304では、画像データ保持部303を介して格納された画像データから冶具座標系を設定するとともに、冶具座標系から画像座標系への変換を行う。
ステップS502(校正移動工程)では、校正値算出部304が作業制御部130に対して所定の位置へ移動する旨の指示を送り、作業制御部130では、当該指示に基づく制御信号を作業部110に送る。作業部110では、当該制御信号に基づいて、所定の位置へ移動する。
ステップS503(校正データ取得工程)では、校正値算出部304が計測制御部301に対して撮像を開始する旨の指示及びスリット光の照射を開始する旨の指示を送り、計測制御部301では、撮像部120及び投光部113に制御信号を送る。計測制御部301からの制御信号により、撮像部120では撮像を開始し、投光部113ではスリット光の発光を開始する。
ステップS504(スリット光状態算出工程)では、校正値算出部304が画像データ保持部303を介して格納された画像データを用いて画像データ中における校正冶具402上の光切断線を検出する。更に、検出された光切断線の位置に対して所定の計算を行うことで冶具座標系におけるスリット光の状態を推定し、作業部110の状態とスリット光の状態との対応付けを行う。
ステップS505(作業部状態算出工程)では、校正値算出部304が画像データ保持部303を介して格納された画像データを用いて画像データ中における検出部材114上の光切断線を検出する。更に、検出された光切断線の位置に対してスリット光状態算出工程(ステップS504)において得られたスリット光の状態に基づき、冶具座標系における作業部110の状態を推定し、作業部110の冶具座標系と作業部110への作業指示との対応付けを行う。
ステップS506では、所定回数の撮像が終わったか否かを判定し、所定回数の撮像が終わっていないと判定された場合には、ステップS502(校正移動工程)に戻る。一方、所定回数の撮像が終わったと判定された場合には、ステップS507(校正値算出工程)に進む。
ステップS507(校正値算出工程)では、スリット光状態算出工程(ステップS504)および作業部状態算出工程(ステップS505)で得られた対応値から、作業部110の任意の状態に対するスリット光の状態を算出する対応関数を生成する。また、任意の冶具座標系に対する作業部110の状態から、ロボット座標系における作業部110の状態を算出する対応関数を生成する。更に、生成された対応関数を構成するパラメータを、校正パラメータとして校正値保持部305を介して格納する。
4.3 校正処理の詳細
次に、図5の校正処理の詳細について説明する。
ステップS501(冶具座標系設定工程)では、最初にカメラ120により校正冶具402を撮影した画像データを取得する(図6)。そして、取得した画像データにおける校正冶具402の各頂点を所定の画像処理により検出する。
例えば、各辺のエッジ抽出結果からハフ変換などで直線式を求め、六直線の交点を上頂点600とし、三直線の交点を周辺頂点とする。校正冶具402は正六角錘であるため、例えば任意の周辺頂点を頂点601と指定して、半時計回りに頂点番号を振ってもよい。頂点を検出した結果、各頂点600〜606の画像座標系における検出位置がuJ0〜uJ6であったとする。ここで、校正台401の上頂点600の冶具座標系における位置を冶具座標系原点XJ0=[0,0,0]Tと設定する。
原点を中心とした冶具軸の方向は任意に定義し、頂点601〜606の冶具座標系における位置は上頂点600からの物理的な相対位置に基づいてXJ0から算出し、位置ベクトルXJ1〜XJ6として設定する。
ここで、各座標系の関係を明記しておく。
冶具座標系における任意の点X=[X,Y,Z]Tが射影行列Aによる座標変換で正規化画像座標系上の点x=[x、y、z]Tへと変換されたとする。このとき、画像座標系におけるXの対応点u=[u,v]Tは下記のようにして表される。
<数式1>
Figure 2010127719
ここでu’およびX’はuおよびXのスケールファクタを1とした同次座標であり、それぞれu’=[u,v,1]T、X’=[X,Y,Z,1]Tと表される。射影行列Aは3×4行列であり、各行を4次元列ベクトルの転置で表し、以下のように表記することとする。
<数式2>
Figure 2010127719
校正冶具402の頂点検出結果におけるi番目の頂点に関する画像座標uJi=[uJi,vJi]に関する同次座標u’k=[uk,vk,1]は、数式1より次のように表される。
<数式3>
Figure 2010127719
ここでzJiはi番目の頂点の正規化画像座標系におけるz座標、X’Jiはi番目の頂点の冶具座標系における座標値XJi=[XJi,YJi,ZJi]の同次座標でX’Ji=[XJi,YJi,ZJi,1]である。
u’Jiは同次座標であるため、zJiを無視して全体をスケールファクタa3・X’Jiで除しても同値である。したがって、uJiの各要素は以下のように書くことができる。
<数式4>
Figure 2010127719
これを式変形すると
<数式5>
Figure 2010127719
となるため、行列で次のような形式で記述することができる。
<数式6>
Figure 2010127719
ここで0=[0,0,0]Tとする。ここで
<数式7>
Figure 2010127719
とおき、すべての冶具頂点に対して
<数式8>
Figure 2010127719
と置くと、
<数式9>
Figure 2010127719
という拘束条件式が得られる。ここでは校正冶具402の頂点数が7であるため、最小二乗法により|Pa|2を最小化することでaの最適近似解を得ることができ、aはPTPの最小固有値に対応する固有ベクトルとして求めることができる。この結果により、射影行列Aが推定される。
次に、ステップS502(校正移動工程)では、計算機140からロボットコントローラ130へロボットアーム111を所定位置へ移動させるためのロボット座標系命令Θ=[XR,YR,ZR,θRX,θRY,θRZ]を与える。
ここでXR、YRおよびZRはロボットアーム111のロボット座標系における位置であり、θRX、θRYおよびθRZはロボット座標系における回転角である。
ロボットコントローラ130は、計算機140から受け取った命令をロボットアーム111へ送信し、ロボットアーム111は所定位置へと移動する。
ステップS503(校正データ取得工程)では、ロボットアーム111の移動後、計算機140からスリットレーザ投光器113にスリット光の発光命令を送るとともに、カメラ120へ撮影命令を送る。これによりスリット光を校正冶具402およびハンド位置検出部114に照射した状態での画像データを取得する(図7)。
ステップS504(スリット光状態算出工程)では、校正冶具402上に照射されたスリット光によって生じる光切断線701から、光切断面200の冶具座標系における平面式を算出する。
画像データ上から光切断線の輝点を検出し、輝点の集合から最小二乗法などによって画像座標系における直線式を得ることができる。校正冶具402の各頂点に関する画像座標値uJ0〜uJ6は既知であるため、校正冶具402上の頂点の組から成る辺と光切断線701の交点を算出することは容易である。
校正冶具402の二つの頂点iおよびjから成る辺と光切断線701の交点が画像座標系でuLと得られたとする。頂点iおよびjの画像座標系における座標uJiおよびuJjに対して、uLはそれら二点の内分点である。
これらの点の正規化画像座標系における対応点をu’Ji、u’Jjおよびu’L、冶具座標系における対応点XJi、XJjおよびXLの同次座標表現をX’Ji、X’JjおよびX’Lとする。X’LがX’JiおよびX’Jjをt:t−1に内分する点であったとすると、射影変換の結果より
<数式10>
Figure 2010127719
となる。
ここで正規化画像座標系における各点をu’L=[xL、yL、zL]、u’Ji=[xJi、yJi、zJi]、およびu’Jj=[xJj、yJj、zJjと表記すると、数式10は要素ごとに以下のように書くことができる。
<数式11>
Figure 2010127719
L=[uL,vLTの画像座標に関して、同次座標のスケールファクタで除することを考えると、
<数式12>
Figure 2010127719
となる。
これからzLを消去してtに関して解くと、
<数式13>
Figure 2010127719
となる。これにより、uLの冶具座標系における対応点XLが求まる。
このようにして得られた光切断線701と校正冶具402のエッジとの交点を、最低3点得ることができれば、光切断面200の冶具座標系における平面式を得ることができる。なお、図7のように交点が4点以上得られた場合には、最小二乗法などで近似平面式を推定すればよい。
このようにして得られた平面式の法線ベクトルがnで与えられたとすると、平面上の任意の点、例えば先に計測されたXLを用いて、平面のベクトル方程式は下記のように表現される。
<数式14>
Figure 2010127719
ここで、点Xの同次座標をX’=[X,Y,Z,1]とすれば、n’=[nT,−nTL]と置いて以下のように書き直すこともできる。
<数式15>
Figure 2010127719
n’は平面式のプリュッカー座標表現であるが、これはスケール不変であるため以下のように正規化してもよい。
<数式16>
Figure 2010127719
これにより、正規化された光切断面200の平面式が以下のように得られる。
<数式17>
Figure 2010127719
この平面上にある点Xの同次座標X’をAで射影変換した結果得られる正規化画像座標系上の点x=[x,y,z]が、画像上で得られた光切断線上の観測点u=[u,v]の同次座標に対応する。そこで、zをスケールファクタwと書き換えてx=[wu,wv,w]と表現できる。このとき、射影変換式
<数式18>
Figure 2010127719
に関して
Figure 2010127719
と置くことで下記のように書くことができる。
<数式19>
Figure 2010127719
よって、数式17および数式19より、Xおよびwに関する四元連立方程式が得られるため、画像データ上における光切断線701上の観測位置uに対応する冶具座標系における座標Xが得られることになる。
ステップS505(作業部状態算出工程)では、ハンド位置検出部114に照射された光切断線201から、ロボットアーム111の冶具座標系における状態を算出する。ハンド位置検出部114とスリットレーザ投光器113は相対的な位置が変化しないように設置されているため、ハンド位置検出部114上に生成される光切断線201は常にハンド位置検出部114上の同じ位置に生じる。
ここではハンド位置検出部114は三角形断面形状となっているため、画像上で検出されたハンド位置検出部114上の光切断線201は、数式17および数式19により冶具座標系における三角形の二辺として得ることができる。
ここで、例えば、得られた三角形を含む平面の法線ベクトルをnR、重心位置をXRとすれば、ロボットアーム111の位置および姿勢の観測値Ω=[nR,XR]に対するロボット座標系における命令Θが一対一に決まることになる。
ステップS507(校正値算出工程)では、複数位置において取得されたロボット座標系における命令、光切断面、ロボットアーム111の観測位置姿勢に関する対応関係から、それぞれの変換関数を生成する。
まず、ロボット座標系における命令に対する光切断面を推定する関数の生成に関して説明する。i番目の校正データを得るために与えたロボット座標系命令がΘiで、そのとき得られた光切断面のプリュッカー座標が
Figure 2010127719
であったとき、任意のΘを入力としたときに得られる光切断面のプリュッカー座標
Figure 2010127719
を推定する平面式推定関数
Figure 2010127719
を生成する。データ集合
Figure 2010127719
および
Figure 2010127719
をサンプルの組として、これらの変換関数は、例えば、多項式回帰による非線形関数モデルを最小二乗法によって平面式推定関数fの近似解を得るようにしてもよい。
ロボットアーム111の作業範囲が広く、多項式回帰によるモデルの設定を低次にできない場合には、多層パーセプトロンを用いたバックプロパゲーション学習などによって平面式推定関数fの近似解を得るようにしてもよい。
次にロボットアーム111の観測値に対するロボット座標系の値を推定する関数の生成に関して説明する。i番目の校正データを得るために与えたロボット座標系命令がΘiで、そのとき得られたロボットアーム111の観測値がΩiであったとする。このとき、任意のΩを入力としたときに得られるロボット座標系命令Θを推定するロボット座標推定関数g(Ω)=Θを生成する。
データ集合
Figure 2010127719
および
Figure 2010127719
をサンプルの組として、校正値算出工程(ステップS507)における平面式推定関数fを生成するときと同様の要領でロボット座標推定関数gの近似解を得る。
以上の処理により求められた関数fおよびgの校正パラメータを、校正値保持部305を介して計算機140が持つ記憶装置に格納することで、校正処理を終了する。
5.作業システムにおける作業処理
次に、上記校正方法により算出された校正パラメータを用いて、対象物体の3次元情報を計測し、所定の作業を行う作業処理の流れを説明する。
5.1 作業処理の概要
はじめに作業システムにおける作業処理の概要について説明する。図8は、作業システム100における作業処理の流れを示すフローチャートである。
ステップS801(測定移動工程)では、計測値算出部302が作業制御部130へ移動する旨の指示を送り、作業制御部130では、当該指示に基づいた制御信号を作業部110に送る。これにより、作業部110は、対象物体にスリット光を照射する位置へと移動する。
ステップS802(測定データ取得工程)では、計測値算出部302が計測制御部301へ撮像を開始する旨の指示を送り、計測制御部301では、撮像部120及び投光部113に制御信号を送る。撮像部120では、計測制御部301からの制御信号に基づいて撮像を開始し、投光部113では、計測制御部301からの制御信号によりスリット光の発光を開始する。なお、撮像部120により取得された画像データは、画像データ保持部303を介して格納される。
ステップS803(スリット光状態推定工程)では、校正値保持部305を介して格納された校正パラメータから得られる対応関数を用いて、作業制御部130に送った指示に対応するスリット光の状態を推定する(第1の算出手段)。
ステップS804(対象物体計測値算出工程)では、計測値算出部302が、画像データ保持部303を介して格納された画像データを用いて、画像データ中の対象物体上の光切断線を検出する。そして、ステップS803において得られたスリット光の状態に基づき、冶具座標系における対象物体の計測値を算出する(第2の算出手段)。
ステップS805(作業目標状態算出工程)では、ステップS804で得られた対象物体計測値に基づき、所望の作業内容における作業部110の冶具座標系における状態を算出する。
ステップS806(作業部命令算出工程)では、校正値保持部305を介して格納された校正パラメータから得られる対応関数を用いて算出された作業部110の冶具座標系における状態に基づいて作業制御部130に送る指示を生成する。
ステップS807では、ステップS806で得られた指示を作業制御部130へ送信し、作業制御部130では、当該指示に基づく制御信号を作業部110に送る。作業部110では、制御信号に基づいて動作することで、所望の作業を行う。
5.2 作業処理の詳細
次に、図8の作業処理の詳細について説明する。
ステップS801(測定移動工程)では、ロボットアーム111を所定位置へと移動させる。ステップS802(測定データ取得工程)では、スリットレーザ投光器113からスリット光を発光させ、カメラ120が画像データを取得する。
ステップS803(スリット光状態推定工程)では、ステップS802にてロボットアーム111に与えた命令Θに対して得られるべき光切断面のプリュッカー座標
Figure 2010127719
を、校正時に得られた平面式推定関数fを用いて推定する。
ステップS804(対象物体計測値算出工程)では、対象物体160上の光切断線を検出し、数式17および数式19にステップS803(スリット光状態推定工程)で得られた
Figure 2010127719
を代入することにより、光切断線上の輝点位置それぞれに対する冶具座標系における座標値を算出する。
ステップS805(作業目標状態算出工程)では、ステップS804(対象物体計測値算出工程)で得られた対象物体160の測定結果に基づき、所望の作業を行うために必要なロボットアーム111の冶具座標系における位置および姿勢を算出する。
まず、ハンド位置検出部114上の光切断線を検出することにより、ステップS804(対象物体計測値算出工程)と同様の手順にてハンド位置検出部114上に生じる光切断線上の輝点に関する冶具座標系における位置を算出する。
算出結果に基づき、ステップS505(作業部状態算出工程)と同様の手順にてハンド位置検出部114の光切断線で構成される三角形の法線ベクトルと重心の冶具座標系における値Ω=[nR,XR]を算出する。
必要とされる目標状態は作業内容に依存するものである。ここでは、対象物体の把持を行う場合について説明する。対象物体160の計測結果とハンド位置検出部114の測定結果の相対的な位置関係から、ロボットアーム111を冶具座標系にて△Ω=[△nR,△XR]移動させる必要があったとすれば、目標状態は
Figure 2010127719
として得ることができる。
ステップS806(作業部命令算出工程)では、ステップS805(作業目標状態算出工程)にて算出された目標状態
Figure 2010127719
をロボットアーム111に与える命令としてロボット座標系へと変換する。校正時に得られた座標推定関数gに
Figure 2010127719
を入力値として与えることで、対応するロボット座標系の座標値
Figure 2010127719
を得ることができる。
ステップS807(作業工程)では、ステップS806(作業部命令算出工程)で得られたロボットアーム111への命令
Figure 2010127719
をロボットコントローラ130に送信し、ロボットアーム111を移動させることで、所望の作業を行う。
以上の説明から明らかなように、本実施形態における作業システム100では、カメラ120と、スリットレーザ投光器113及びハンド位置検出部114とを一体化せず、カメラ120は、ロボットアーム111とは独立した位置に配置する構成とした。また、スリットレーザ投光器113及びハンド位置検出部114は、ロボットアーム111上に配置する構成とした。
これにより、オクルージョンの問題ならびにビーム光の焦点深度の問題を回避することが可能となった。また、光軸間角度を大きくすることができるため、奥行き方向において高い計測精度を実現できるとともに、ロボットアームの大小に関わらず、解像度の高いカメラを配置することが可能となった。
更に、当該作業システムに適用される、3次元情報の計測方法及び校正方法を明示することで、当該作業システムにおける3次元情報の計測が実現可能であることを示した。
[第2の実施形態]
上記第1の実施形態における作業処理は、ステップS807(作業工程)において作業を行うのに充分な3次元情報が、ステップS804において算出されることを前提としていた。
しかしながら、ステップS804における算出結果として、例えば、対象物体160の位置及び姿勢を一意に推定するのに必要な3次元情報が得られない場合も考えられる。そこで、本実施形態では、ステップS804における算出結果として、ステップS807(作業工程)において作業を行うのに充分な3次元情報が得られないことがあることを前提とした場合の作業処理について説明する。
なお、本実施形態に係る作業システムの外観構成、機能構成ならび校正処理は、基本的に上記第1の実施形態に係る作業システムと同様であるため、ここでは説明を省略する。
図9は、本実施形態に係る作業システムにおける作業処理の流れを示すフローチャートである。
ステップS901(測定移動工程)〜ステップS904(対象物体計測値算出工程)では、上記第1の実施形態に係る作業システムの作業処理におけるステップS801(測定移動工程)〜ステップS804(対象物体計測値算出工程)と同様の処理を行う。
ステップS905では、ステップS904における測定結果として、対象物体に対して作業を行うのに充分な3次元情報が得られたか否かを判定する。
ステップS905において充分な3次元情報が得られていないと判定された場合には、ステップS901(測定移動工程)に戻る。そして、現在位置とは別の位置へと作業部110を移動させ、別の位置からスリット光を照射することにより、追加の3次元情報を取得する。
一方、ステップS905において充分な3次元情報が得られていると判定された場合には、ステップS906に進む。ステップS906(作業目標状態算出工程)〜ステップS908(作業工程)では、上記第1の実施形態に係る作業システムの作業処理におけるステップS805(作業目標状態算出工程)〜ステップS807(作業工程)と同様の処理を行う。
以上の説明から明らかなように、本実施形態によれば、上記第1の実施形態より得られる効果を享受しつつ、更に、作業工程において作業を行うのに充分な3次元情報が得られなかった場合にも対応することが可能となった。
[第3の実施形態]
上記第1の実施形態では、発光されるスリット光の照射角度を固定し、撮像された光切断線201に基づいて、ロボットアーム111の位置及び姿勢が一意に定まるように、ハンド位置検出部の形状を構成することとした。
しかしながら、本発明はこれに限定されず、ロボットアーム111の位置及び姿勢が一意に定まるように、スリットレーザ投光器113より発光されるスリット光の照射角度を可変とする構成としてもよい。以下、本実施形態の詳細について説明する。
1.作業部の外観構成
図10は、本実施形態に係る作業システムの作業部の外観構成を示す図である。図10において、1003は光走査部として機能する、可動式のガルバノミラーもしくはポリゴンミラーである。図10に示すように、光走査部1003は、スリットレーザ投光器113の前部に配置されており、計測制御部301からの指示に基づいて、スリット光の光切断面1000の照射角度が変更できるように構成されている。
なお、光走査部1003によれば、一回の走査により、K本の光切断線が発生するものとする。このうち、k本目の光切断線を発生させるための光走査部1003の原点位置からのスリット光照射角度をαkとする。Kおよびα1〜αKはあらかじめ定義しておく固定値であり、校正処理時と作業処理時には同じ値を用いることとする。
1004はハンド位置検出部である。なお、ハンド位置検出部1004には一回の走査により、K本の光切断線が発生するため、ハンド位置検出部1004は、第1の実施形態のように複雑な形状である必要はなく、例えば図10に示したように平らな板であってもよい。ハンド位置検出部1004が平板形状を有する場合、光切断線1001は1直線となる。
2.作業システムにおける対象物体の計測原理
次に、光切断法により3次元情報を計測するための校正方法について説明する。
2.1 校正冶具の説明
本実施形態に係る作業システムの校正に用いられる校正冶具は、上記第1の実施形態に係る作業システムの校正に用いられる校正冶具と同様であるため、説明は省略する。
2.2 校正処理の詳細
次に、本実施形態に係る作業システムにおける校正処理の流れについて説明する。図11は、作業システムにおける校正処理の流れを示すフローチャートである。
ステップS1101(冶具座標系設計工程)、ステップS1102(校正移動工程)では、第1の実施形態において説明したステップS501(冶具座標系設計工程)、ステップS502(校正移動工程)と同様の処理を行う。
なお、ステップS1102では、スリット光照射角度の変更回数をカウントするカウンタ値kを1に初期化したうえで、ステップS1103(照射角度変更工程)に進む。
ステップS1103(照射角度変更工程)では、光走査部1003におけるスリット光照射角度をαkに設定する。
ステップS1104(校正データ取得工程)、ステップS1105(スリット光状態算出工程)では、第1の実施形態において説明したステップS503(校正データ取得工程)、ステップS504(スリット光状態算出工程)と同様の処理を行う。これにより、冶具座標系における光切断面1000の平面式を得る。
ステップS1106(作業部計測工程)では、数式17および数式19より、ハンド位置検出部1004上にスリット光照射角度αkで得られる光切断線に関する冶具座標系の座標値を算出する。
ステップS1107では、カウンタ値k=Kであるか否かを判定する。ステップS1107において、カウンタ値k<Kであると判定された場合には、カウンタ値kをインクリメントした後、ステップS1103に戻る。
一方、ステップS1107において、カウンタ値k=Kであると判定された場合には、ステップS1108に進む。
ステップS1108(作業部状態算出工程)では、スリット光照射角度α1〜αKそれぞれで得られたハンド位置検出部1004上の光切断線に関する冶具座標系の座標値から、冶具座標系におけるロボットアーム111の位置および姿勢を算出する。
ここで例えばハンド位置検出部1004が図10のように平らな板であれば、スリット光照射角度α1〜αKそれぞれで得られるハンド位置検出部1004の光切断線は図12のようになる。
すなわち、冶具座標系において同一平面上にあるK本の線分となり、最小二乗法などでその法線方向nRを得ることができる。また、ハンド位置検出部1004のエッジ1201および1202と両端となる光切断線1203および1204で囲まれる領域の重心位置をXRとして求める。これにより、ロボットアーム111の位置および姿勢の観測値Ω=[nR,XR]に対するロボット座標系における命令Θが一対一に決まることになる。
ステップS1109では、データ取得回数が所定回数に到達したか否かを判定する。ステップS1109において、データ取得回数が所定回数に到達していないと判定された場合には、ステップS1102に戻り、ロボットアーム111を別の位置に移動させて、校正データの収集を継続する。
一方、ステップS1109において、データ取得回数が所定回数に到達したと判定された場合には、ステップS1110に進む。
ステップS1110(校正値算出工程)では、複数位置、複数スリット光照射角度において取得されたロボット座標系における命令、光切断面、ロボットアーム111の観測位置姿勢に関する対応関係から、それぞれの変換関数を生成する。
まず、i番目の校正位置における校正データを得るために与えたロボット座標系命令がΘiで、そのときスリット光照射角度α1〜αKに対してそれぞれ得られた光切断面のプリュッカー座標が
Figure 2010127719
であったとする。そのとき、任意のΘ、αを入力としたときに得られる光切断面のプリュッカー座標
Figure 2010127719
を推定する平面式推定関数
Figure 2010127719
を生成する。
データ集合
Figure 2010127719
および
Figure 2010127719
をサンプルの組として、これらの変換関数は、例えば、多項式回帰による非線形関数モデルを最小二乗法によって平面式推定関数fの近似解を得てもよい。ロボットアーム111の作業範囲が広く、多項式回帰によるモデルの設定を低次にできない場合には、多層パーセプトロンを用いたバックプロパゲーション学習などによって平面式推定関数fの近似解を得てもよい。
次に、i番目の校正データを得るために与えたロボット座標系命令がΘiで、そのときスリット光照射角度α1〜αKを当てることによって得られたロボットアーム111の観測値がΩiであったする。そのとき、任意のΩを入力としたときに得られるロボット座標系命令Θを推定するロボット座標推定関数g(Ω)=Θを生成する。
データ集合
Figure 2010127719
および
Figure 2010127719
をサンプルの組として、ステップS1110(校正値算出工程)における平面式推定関数fを生成するときと同様の要領でロボット座標推定関数gの近似解を得る。
以上の処理により求められた関数fおよびgの校正パラメータを、校正値保持部305を介して計算機140が持つ記憶装置に格納する。
3.作業処理の詳細
次に、本実施形態に係る作業システムにおける作業処理の詳細について説明する。図13は、本実施形態に係る作業システムにおける作業処理の流れを示すフローチャートである。
ステップS1301(測定移動工程)では、第1の実施形態におけるステップS801(測定移動工程)と同様の処理が行われ、ロボットアーム111が移動する。なお、ステップS1301では、スリット光照射角度の変更回数をカウントするカウンタ値kを1に初期化したうえで、ステップS1302(照射角度変更工程)に進む。
ステップS1302(照射角度変更工程)では、ガルバノミラー1003におけるスリット光照射角度をαkに設定する。
ステップS1303(測定データ取得工程)〜ステップS1305(対象物体計測値算出工程)では、第1の実施形態と同様の処理を行い、対象物体160上にある光切断線の冶具座標系における座標値を求める。
ステップS1306では、カウンタ値k=Kであるか否かを判定する。ステップS1306において、カウンタ値k<Kであると判定された場合には、カウンタ値kをインクリメントした後、ステップS1302に戻る。
一方、ステップS1306において、カウンタ値k=Kであると判定された場合には、ステップS1307に進む。
ステップS1307では、測定結果として、対象物体に対して作業を行うのに充分な3次元情報が得られているか否かを判定する。例えば、対象物体160の位置および姿勢を一意に推定するのに必要な3次元情報が得られていないと判定された場合には、充分な3次元情報が得られていないと判定し、ステップS1301に戻る。そして、現在位置とは別の位置へとロボットアーム111を移動させ、別の位置からスリット光を照射することにより、追加の3次元情報を取得する。
一方、ステップS1307において、測定結果として、対象物体に対して作業を行うのに充分な3次元情報が得られていると判定した場合には、ステップS1308に進む。
ステップS1308(作業目標状態算出工程)では、校正時における作業部状態算出工程(ステップS1108)と同様の処理を行うことにより、ロボットアーム111の位置および姿勢を求める。
ステップS1309(作業部命令算出工程)およびステップS1310(作業工程)では、第1の実施形態と同様の処理を行う。
以上の説明から明らかなように、本実施形態では、スリットレーザ投光器113より発光されるスリット光の照射角度を変更可能な構成とした。これにより、ハンド位置検出部の形状に関わらず、ロボットアーム111の位置及び姿勢を一意に求めることが可能となった。
[第4の実施形態]
上記第1、第2および第3の実施形態では、投光部113よりスリット光を投光する構成とした。
しかしながら、本発明はこれに限定されず、例えば、投光部113として、空間コード化を行うためのパターン光投光器を用いる構成としてもよい。
なお、空間コード化とは、投光器から明暗による2値パターン光の組み合わせを、カメラと同期を取って変化させながら照射および撮影することで空間をコード化し、そこから対応付けられた投光位置との3角測量により距離情報を得る方法である。以下、本実施形態の詳細について説明する。
図14は、本実施形態に係る作業システムの作業部の外観構成を示す図である。図14において、1011は計測制御部301からの指示に基づいてカメラ120と同期してパターンを切り替えながらパターン光を投光するパターン投光器である。
一回のパターン投光器1011による2値パターン光による撮影画像における任意の位置には、図15に示すように1バイトの情報量が含まれる。ここでは、例えば、図16のように縦方向に周期性のあるパターンの周波数を倍にしていくような変化によるパターン光をN種類与えてそれぞれの投光パターンを撮影する。これにより、画像上の任意の位置における輝度値変化を2値化して時系列に並べることで、Nバイトの2値コード情報が与えられることとなる。
このとき、同一の2値コードを持つ画像上の点群は同一のパターン光変化を受けている部分であるため、図15の例に示すように、パターン投光器1011からの同一照射平面上にあると言える。そのため、上記のようなパターン変化を利用した場合は、2N枚の平面に載る点を画像上で区別することができることになる。
これら2Nの平面をK枚の光切断面と置き換えて考えれば、第3の実施形態と同値の問題となり、第3の実施形態と同様の手法により校正データの取得および作業時における対象物体の3次元情報取得を行うことが可能となる。
以上の説明から明らかなように、本実施形態では、投光部113として、パターン光を投光するパターン投光器を用いる構成とした。
この結果、パターン光による空間コード化においても、第3の実施形態と同様の方法で3次元情報の計測および校正が可能となった。
[他の実施形態]
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェース機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録したコンピュータ読取可能な記憶媒体を、システムあるいは装置に供給するよう構成することによっても達成されることはいうまでもない。この場合、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することにより、上記機能が実現されることとなる。なお、この場合、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フロッピ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合に限られない。例えば、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、前述した実施形態の機能が実現される場合も含まれる。つまり、プログラムコードがメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって実現される場合も含まれる。
本発明の第1の実施形態に係る作業システムの外観構成を示す図である。 作業部の外観構成を示す図である。 作業システムの機能構成を示す図である。 作業システムの校正に用いられる校正冶具を説明するための図である。 作業システムにおける校正処理の流れを示すフローチャートである。 校正冶具を撮影した画像データの一例を示す図である。 校正冶具を撮影した画像データの一例を示す図である。 作業システムにおける作業処理の流れを示すフローチャートである。 本発明の第2の実施形態に係る作業システムにおける作業処理の流れを示すフローチャートである。 本発明の第3の実施形態に係る作業システムの作業部の外観構成を示す図である。 作業システムにおける校正処理の流れを示すフローチャートである。 光切断線の一例を示す図である。 作業システムにおける作業処理の流れを示すフローチャートである。 本発明の第4の実施形態に係る作業システムの作業部の外観構成を示す図である。 パターン投光器による2値パターン光による撮影画像の一例を示す図である。 パターン投光器による投光パターンの一例を示す図である。

Claims (11)

  1. 作業領域に載置された処理対象の物体に対して、予め定められた作業を行うために、位置及び姿勢を変更可能なアーム機構と、
    前記アーム機構の先端部に配置された部材と、
    前記部材に対する相対的な位置が一定となるように前記アーム機構において配置され、前記部材及び前記処理対象の物体に対してパターン光を照射することにより、前記部材の上及び前記処理対象の物体の上に投光パターンを形成する照射手段と、
    前記アーム機構から独立した位置に固定され、前記処理対象の物体を撮像する撮像手段と、
    前記撮像手段による撮像により得られた前記処理対象の物体の画像データに含まれる前記部材の上に形成された投光パターンに基づいて、前記アーム機構の先端部の位置及び姿勢、ならびに前記パターン光の照射平面を算出する第1の算出手段と、
    前記算出された照射平面と、前記撮像手段が撮像することにより得られた前記処理対象の物体の画像データに含まれる前記処理対象の物体の上に形成された投光パターンとに基づいて、前記処理対象の物体の位置及び姿勢を算出する第2の算出手段と
    を備えることを特徴とする作業システム。
  2. 前記第1の算出手段により算出された前記アーム機構の先端部の位置及び姿勢と、前記第2の算出手段により算出された前記処理対象の物体の位置及び姿勢とに基づいて、前記アーム機構の動作を制御する制御手段を更に備えることを特徴とする請求項1に記載の作業システム。
  3. 前記照射手段は、前記部材および前記処理対象の物体に対してパターン光としてスリット光を照射し、前記部材の上及び前記処理対象の物体の上に投光パターンとして光切断線を形成する、スリット光投光器であることを特徴とする請求項1に記載の作業システム。
  4. 前記部材は、前記照射手段により照射されたスリット光により該部材の上に形成される光切断線が、2以上の直線からなる光切断線となるような形状を有していることを特徴とする請求項3に記載の作業システム。
  5. 前記照射手段は、前記部材に対する照射角度を変更可能に構成されていることを特徴とする請求項3に記載の作業システム。
  6. 前記部材は、前記照射手段により照射されたスリット光により該部材の上に形成される光切断線が、1つ以上の直線からなる光切断線となるような形状を有していることを特徴とする請求項5に記載の作業システム。
  7. 前記第1の算出手段は、前記部材に対する照射角度を変更することで形成される、複数の光切断線に基づいて、前記アーム機構の先端部の位置及び姿勢、ならびに前記スリット光の光切断面を算出することを特徴とする請求項6に記載の作業システム。
  8. 前記第2の算出手段は、前記アーム機構が予め定められた位置及び姿勢にあった場合に前記照射手段が既知の寸法の物体に対してパターン光を照射することにより該既知の寸法の物体の上に形成された投光パターンに基づいて算出された、該アーム機構の位置及び姿勢と該パターン光の照射平面との関係に基づいて、前記処理対象の物体の位置及び姿勢を算出することを特徴とする請求項1に記載の作業システム。
  9. 前記照射手段は、前記部材および前記処理対象の物体に対して時系列に変化するパターン光を照射し、前記部材の上及び前記処理対象の物体の上に時系列に投光パターンを形成する、パターン投光器であることを特徴とする請求項1に記載の作業システム。
  10. 作業領域に載置された処理対象の物体に対して、予め定められた作業を行うために、位置及び姿勢を変更可能なアーム機構と、
    前記アーム機構の先端部に配置された部材と、
    前記部材に対する相対的な位置が一定となるように前記アーム機構において配置され、前記部材及び前記処理対象の物体に対してパターン光を照射することにより、前記部材の上及び前記処理対象の物体の上に投光パターンを形成する照射手段と、
    前記アーム機構から独立した位置に固定され、前記処理対象の物体を撮像する撮像手段と、を備える作業システムにおける情報処理方法であって、
    前記撮像手段による撮像により得られた前記処理対象の物体の画像データに含まれる前記部材の上に形成された投光パターンに基づいて、前記アーム機構の先端部の位置及び姿勢、ならびに前記パターン光の照射平面を算出する第1の算出工程と、
    前記算出された照射平面と、前記撮像手段が撮像することにより得られた前記処理対象の物体の画像データに含まれる前記処理対象の物体の上に形成された投光パターンとに基づいて、前記処理対象の物体の位置及び姿勢を算出する第2の算出工程と
    を備えることを特徴とする作業システムにおける情報処理方法。
  11. 請求項10に記載の情報処理方法をコンピュータによって実行させるためのプログラムを格納したコンピュータ読取可能な記憶媒体。
JP2008301714A 2008-11-26 2008-11-26 作業システム及び情報処理方法 Expired - Fee Related JP5164811B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008301714A JP5164811B2 (ja) 2008-11-26 2008-11-26 作業システム及び情報処理方法
US12/620,886 US9239234B2 (en) 2008-11-26 2009-11-18 Work system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008301714A JP5164811B2 (ja) 2008-11-26 2008-11-26 作業システム及び情報処理方法

Publications (3)

Publication Number Publication Date
JP2010127719A true JP2010127719A (ja) 2010-06-10
JP2010127719A5 JP2010127719A5 (ja) 2012-01-19
JP5164811B2 JP5164811B2 (ja) 2013-03-21

Family

ID=42197106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008301714A Expired - Fee Related JP5164811B2 (ja) 2008-11-26 2008-11-26 作業システム及び情報処理方法

Country Status (2)

Country Link
US (1) US9239234B2 (ja)
JP (1) JP5164811B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014018932A (ja) * 2012-07-20 2014-02-03 Kobe Steel Ltd 光学式センサ付きロボットのキャリブレーション方法
JP2018519523A (ja) * 2015-07-01 2018-07-19 スリーエム イノベイティブ プロパティズ カンパニー 測定デバイス、システム、方法、及びプログラム
JP2018537301A (ja) * 2015-09-29 2018-12-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. レーザを使用したカメラシステムに対するロボットアームの自動較正
WO2019146201A1 (ja) * 2018-01-23 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
CN111590593A (zh) * 2020-06-19 2020-08-28 浙江大华技术股份有限公司 机械臂的标定方法、装置、系统及存储介质

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI585908B (zh) * 2010-11-25 2017-06-01 山田尖端科技股份有限公司 樹脂模塑裝置與樹脂模塑方法
JP4821934B1 (ja) * 2011-04-14 2011-11-24 株式会社安川電機 3次元形状計測装置およびロボットシステム
EP2722640A4 (en) * 2011-06-20 2014-11-19 Yaskawa Denki Seisakusho Kk DEVICE FOR MEASURING A THREE DIMENSIONAL SHAPE AND ROBOTIC SYSTEM
JP5847568B2 (ja) * 2011-12-15 2016-01-27 Ckd株式会社 三次元計測装置
CN102679897A (zh) * 2012-04-28 2012-09-19 东莞七海测量技术有限公司 无基准条件之配合间隙检测方法
CN103278091B (zh) * 2013-06-07 2016-01-20 上海发那科机器人有限公司 一种用于智能装配的空间定位方法
JP6113021B2 (ja) * 2013-08-09 2017-04-12 株式会社キーエンス 接触式変位計
CN104765380B (zh) * 2014-01-03 2017-04-19 科沃斯商用机器人有限公司 光点指示机器人及其光点指示方法
US10029857B2 (en) * 2014-08-04 2018-07-24 Panasonic Intellectual Property Management Co., Ltd. Package loading instruction method and loading instruction system
US10210625B2 (en) * 2015-10-30 2019-02-19 Industrial Technology Research Institute Measurement system comprising angle adjustment module
CN106530297B (zh) * 2016-11-11 2019-06-07 北京睿思奥图智能科技有限公司 基于点云配准的物体抓取区域定位方法
JP6586644B2 (ja) * 2017-02-24 2019-10-09 パナソニックIpマネジメント株式会社 電子機器製造装置および電子機器製造方法
JP6680720B2 (ja) * 2017-04-10 2020-04-15 ファナック株式会社 ロボットの動作軌跡を自動で生成する装置、システム、および方法
JP6904327B2 (ja) * 2018-11-30 2021-07-14 オムロン株式会社 制御装置、制御方法、及び制御プログラム
CN109579698B (zh) * 2018-12-05 2020-11-27 普达迪泰(天津)智能装备科技有限公司 一种智能货物检测系统及其检测方法
WO2020116814A1 (en) * 2018-12-06 2020-06-11 Samsung Electronics Co., Ltd. Heating cooker including three dimensional measuring device
CN110428465A (zh) * 2019-07-12 2019-11-08 中国科学院自动化研究所 基于视觉和触觉的机械臂抓取方法、系统、装置
US20210291435A1 (en) * 2020-03-19 2021-09-23 Ricoh Company, Ltd. Measuring apparatus, movable apparatus, robot, electronic device, fabricating apparatus, and measuring method
CN114001654B (zh) * 2021-11-01 2024-03-26 北京卫星制造厂有限公司 工件端面位姿评价方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04201021A (ja) * 1990-11-29 1992-07-22 Matsushita Electric Ind Co Ltd 位置合わせ装置
JPH05305588A (ja) * 1992-04-28 1993-11-19 Toyoda Mach Works Ltd 視覚付ロボットの制御装置
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
WO2008047872A1 (fr) * 2006-10-20 2008-04-24 Hitachi, Ltd. Manipulateur

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58177295A (ja) * 1982-04-07 1983-10-17 株式会社日立製作所 ロボット制御装置
CA1313040C (en) * 1988-03-31 1993-01-26 Mitsuaki Uesugi Method and apparatus for measuring a three-dimensional curved surface shape
JP2005138223A (ja) * 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
JP2005163346A (ja) 2003-12-02 2005-06-23 Komatsu Ltd 路盤再生車両用発電装置
JP2005271103A (ja) 2004-03-23 2005-10-06 Tookin:Kk 作業用ロボット及びそのキャリブレーション方法
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04201021A (ja) * 1990-11-29 1992-07-22 Matsushita Electric Ind Co Ltd 位置合わせ装置
JPH05305588A (ja) * 1992-04-28 1993-11-19 Toyoda Mach Works Ltd 視覚付ロボットの制御装置
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
WO2008047872A1 (fr) * 2006-10-20 2008-04-24 Hitachi, Ltd. Manipulateur

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014018932A (ja) * 2012-07-20 2014-02-03 Kobe Steel Ltd 光学式センサ付きロボットのキャリブレーション方法
JP2018519523A (ja) * 2015-07-01 2018-07-19 スリーエム イノベイティブ プロパティズ カンパニー 測定デバイス、システム、方法、及びプログラム
JP2018537301A (ja) * 2015-09-29 2018-12-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. レーザを使用したカメラシステムに対するロボットアームの自動較正
WO2019146201A1 (ja) * 2018-01-23 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
JPWO2019146201A1 (ja) * 2018-01-23 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
JP7111114B2 (ja) 2018-01-23 2022-08-02 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理システム
US11420335B2 (en) 2018-01-23 2022-08-23 Sony Corporation Information processing apparatus, information processing method, and information processing system
CN111590593A (zh) * 2020-06-19 2020-08-28 浙江大华技术股份有限公司 机械臂的标定方法、装置、系统及存储介质

Also Published As

Publication number Publication date
US20100131235A1 (en) 2010-05-27
US9239234B2 (en) 2016-01-19
JP5164811B2 (ja) 2013-03-21

Similar Documents

Publication Publication Date Title
JP5164811B2 (ja) 作業システム及び情報処理方法
CN108297096B (zh) 校准装置、校准方法以及计算机能够读取的介质
JP6635690B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10571254B2 (en) Three-dimensional shape data and texture information generating system, imaging control program, and three-dimensional shape data and texture information generating method
JP5943547B2 (ja) 非接触測定を行う装置および方法
JP6253368B2 (ja) 三次元形状計測装置およびその制御方法
CN108759669B (zh) 一种室内自定位三维扫描方法及系统
JP4885584B2 (ja) レンジファインダ校正方法及び装置
JP3930482B2 (ja) 3次元視覚センサ
JP2017077614A (ja) 教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置
JP2020518820A (ja) 平坦な形状を有し且つ符号化されていないスポットを投影する三角測量スキャナ
CN105190235A (zh) 以六自由度跟踪的结构光扫描仪的补偿
JP2014002033A (ja) 画像処理装置、画像処理方法
JP2011027724A (ja) 3次元計測装置、その計測方法及びプログラム
JP6282098B2 (ja) キャリブレーション装置及び方法
JP2010152550A (ja) 作業装置及びその校正方法
JP2017033429A (ja) 3次元物体検査装置
JP2019052983A (ja) 校正方法、および校正装置
JP2010287074A (ja) カメラ校正装置、カメラ校正方法、カメラ校正プログラムおよびプログラムを記録した記録媒体
JPWO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2008014882A (ja) 三次元計測装置
JP5481397B2 (ja) 3次元座標計測装置
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5445064B2 (ja) 画像処理装置および画像処理プログラム
CN113733078B (zh) 机械臂精调控制量判读方法、计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5164811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees