JP5218209B2 - 複数の物体間の相対移動を検出する方法 - Google Patents

複数の物体間の相対移動を検出する方法 Download PDF

Info

Publication number
JP5218209B2
JP5218209B2 JP2009082449A JP2009082449A JP5218209B2 JP 5218209 B2 JP5218209 B2 JP 5218209B2 JP 2009082449 A JP2009082449 A JP 2009082449A JP 2009082449 A JP2009082449 A JP 2009082449A JP 5218209 B2 JP5218209 B2 JP 5218209B2
Authority
JP
Japan
Prior art keywords
image
gripper
grip portion
relative movement
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009082449A
Other languages
English (en)
Other versions
JP2010236893A (ja
Inventor
宗隆 山本
正己 高三
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2009082449A priority Critical patent/JP5218209B2/ja
Publication of JP2010236893A publication Critical patent/JP2010236893A/ja
Application granted granted Critical
Publication of JP5218209B2 publication Critical patent/JP5218209B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本発明は、複数の物体間の相対移動を検出する方法に係り、特に、複数の物体を含む画像を取得し、この画像を処理することにより複数の物体間の相対移動を検出する方法に関する。
従来、カメラ等により複数の物体を含む画像を取得し、この画像を処理することにより複数の物体間の相対移動を検出する方法が知られている。
例えば、特許文献1には、部品を把持するためのハンドを備えた組み立てロボットにおいて、CCDカメラによりハンドに部品が把持されている状態を撮影し、このCCDカメラから取得される画像を処理することにより、ハンドと部品との相対位置を算出し、ハンドと部品との間の滑り(相対移動)を検出する方法が記載されている。
また、特許文献1には、ハンドと部品との間の接触領域を取得可能な分布式接触センサを設け、接触領域の時間変化に基づいて、ハンドと部品との間の滑り(相対移動)を検出する方法も記載されている。
特開2003−127081号公報
しかしながら、特許文献1に記載されている画像処理によりハンドと部品との相対位置を算出する方法では、ハンドと部品との間にある程度の滑り量が生じてからでないと、本当に滑りが生じているのか、或いは画像上のノイズの影響による誤差なのかを判別することができない。そのため、ハンドと部品との間に滑りが生じた場合に、その滑りを早期に検出することができない。
また、特許文献1に記載されている分布式接触センサを設ける方法では、センサの性能次第ではハンドと部品との間の滑りを早期に検出することができるが、コスト高となる。
本発明は、このような問題点を解決するためになされたものであり、複数の物体間に相対移動が生じた場合に、相対移動を検出するためのセンサ等を用いることなく、画像処理により複数の物体間の相対移動を早期に検出することができる方法を提供することを目的とする。
上記の課題を解決するために、本発明に係る複数の物体間の相対移動を検出する方法によれば、複数の物体のうちの少なくとも1つはロボットハンドの把持部であり、ロボットハンドは画像上における把持部の位置を特定するセンサを備え、センサからの入力に基づいて把持部及び把持部に把持されている物体を含む画像を取得し、画像から把持部及び把持部に把持されている物体をそれぞれ認識し、把持部及び把持部に把持されている物体の画像上における動きを表現する量をそれぞれ算出し、動きを表現する量に基づいて把持部と把持部に把持されている物体との間の相対移動を検出する
ロボットハンドは、画像上における把持部の位置に基づいて、把持部に把持されている物体を認識してもよい。
これにより、効率的に物体を認識することができる。
ロボットハンドは、アームを備え、アームの動きを表現する量と、把持部及び把持部に把持されている物体の動きを表現する量とに基づいて、把持部と把持部に把持されている物体との間の相対移動を検出してもよい。
画像上における動きを表現する量は、動きベクトルであってもよい。
相対移動の検出を、動きベクトルの大きさ及び方向のうちの少なくとも一つに基づいて行ってもよい。
相対移動の検出を、動きベクトルの平均及び分散のうちの少なくとも一つに基づいて行ってもよい。
本発明に係る複数の物体間の相対移動を検出する方法によれば、複数の物体を含む画像を取得し、その画像から複数の物体をそれぞれ認識し、認識された複数の物体の画像上における動きを表現する量に基づいて、複数の物体間の相対移動を検出する。これにより、複数の物体間に相対移動が生じた場合に、相対移動を検出するためのセンサ等を用いることなく、画像処理により複数の物体間の相対移動を早期に検出することができる。
本発明の実施の形態に係るロボットハンドの構成を示す図である。 本発明の実施の形態に係るロボットハンドにおける滑り検出手段及び動作制御手段の構成を示すブロック図である。 本発明の実施の形態に係るロボットハンドが行う処理を示すフローチャートである。 本発明の実施の形態に係るロボットハンドにおいて、画像処理手段により取得される部分画像Pの一例を示す図である。 本発明の実施の形態に係るロボットハンドにおいて、部分画像Pから把持部領域H及び物体領域Wが抽出され、動きベクトルh,wが算出された様子を示す図である(滑りなし状態)。 本発明の実施の形態に係るロボットハンドにおいて、部分画像Pから把持部領域H及び物体領域Wが抽出され、動きベクトルh,wが算出された様子を示す図である(滑りあり状態)。
以下、本発明の実施の形態について、添付の図面に基づいて説明する。
実施の形態.
本発明の実施の形態に係る複数の物体間の相対移動を検出する方法を用いることにより、把持部と把持部に把持されている物体との間の滑り(相対移動)検出を行いながら所望の位置まで物体を移動させるロボットハンドの構成を図1及び図2に基づいて説明する。
図1に示されるように、ロボットハンド1の筐体2の側面には、球状関節により角度制御可能なアーム3が取り付けられており、アーム3の先端には、4本の指部4a及び甲部4bから構成される把持部4が取り付けられている。ロボットハンド1は、把持部4の指部4aを開閉させることにより物体9を把持及び解放することができる。また、アーム3の角度を制御することにより、把持部4により把持されている物体9を所望の位置まで移動させることができる。また、筐体2の上部には、角度制御可能なCCDカメラ5が取り付けられている。さらに、筐体2の下部に設けられた台座6の内部には、滑り検出手段7及び動作制御手段8が格納されている。
滑り検出手段7は、把持部4と把持部4に把持されている物体9との間の滑り(相対移動)を検出し、検出結果を滑り検出信号として動作制御手段8に出力する。
動作制御手段8は、アーム3、把持部4、及びカメラ5の各種動作を制御すると共に、滑り検出手段7から入力される滑り検出信号に基づいて、把持部4に物体9を再把持させる処理を行う。
滑り検出手段7の内部構成について説明する。
図2に示されるように、滑り検出手段7は、画像取得手段7a、画像処理手段7b、評価値算出手段7c、閾値記憶手段7d、及び判定手段7eから構成されている。
以下、これらの詳細について順に説明していく。
画像取得手段7aは、アーム3及び把持部4に取り付けられた図示しない角度検出センサからの入力に基づいて、3次元空間上における把持部4の位置を特定する。そして、把持部4近傍を捉えるようにカメラ5の角度を制御することにより、把持部4近傍の画像を取得して画像処理手段7bに出力する。
画像処理手段7bは、アーム3及び把持部4に取り付けられた図示しない角度検出センサからの入力に基づいて、画像取得手段7aにより取得された画像上における把持部4の位置座標を特定する。そして、把持部4及び物体9を含む部分画像Pを取得し、その部分画像Pから把持部4及び物体9をそれぞれ認識する。また、把持部4及び物体9の画像上における動きを表現する量である「動きベクトル」をそれぞれ算出し、評価値算出手段7cに出力する。
評価値算出手段7cは、画像処理手段7bにより算出された把持部4及び物体9の動きベクトルに基づいて、把持部4と物体9との間の滑り状態を評価する評価値Evalを算出し、判定手段7eに出力する。また、把持部4と物体9との間に滑りが生じていない状態の評価値Eval_stableを算出し、閾値記憶手段7dに出力する。
閾値記憶手段7dは、評価値算出手段7cにより算出された評価値Eval_stableに基づいて、把持部4と物体9との間に滑りが生じているか否かを判定するための閾値Thを算出して記憶すると共に、閾値Thを判定手段7eに出力する。
判定手段7eは、把持部4と物体9との間に滑りが生じているか否かを、評価値算出手段7cから入力される評価値Eval及び閾値記憶手段7dに記憶されている閾値Thに基づいて判定し、滑りが生じていると判定された場合には、滑り検出信号を動作制御手段8に出力する。
次に、図3のフローチャートを参照して、本発明の実施の形態に係る複数の物体間の相対移動を検出する方法を用いることにより、把持部と把持部に把持されている物体との間の滑り(相対移動)検出を行いながら所望の位置まで物体を移動させるロボットハンドが行う処理について説明する。
まず、ロボットハンド1の把持部4と物体9との間の滑り検出を行う際の前処理として、把持部4と物体9との間に滑りが生じているか否かを判定するための閾値Thを算出して記憶する処理(ステップS1〜S7)を行う。尚、この前処理が終了するまでの間、ロボットハンド1の把持部4と物体9との間に滑りが生じていないことを、人間により目視で確認させるものとする。
動作制御手段8は、把持部4が物体9を把持した状態でアーム3の角度を制御することにより、物体9を移動させる処理を開始する(ステップS1)。
画像取得手段7aは、アーム3及び把持部4に取り付けられた図示しない角度検出センサからの入力に基づいて、カメラ5の位置を原点とする3次元空間上における把持部4の位置(r,θ,φ)を特定する。そして、把持部4近傍を捉えるようにカメラ5の角度を制御することにより、把持部4近傍の画像を取得して画像処理手段7bに出力する(ステップS2)。
画像処理手段7bは、アーム3及び把持部4に取り付けられた図示しない角度検出センサからの入力に基づいて、画像取得手段7aにより取得された画像上における把持部4の位置座標(X,Y)を特定し、位置座標(X,Y)を中心として把持部4及び物体9を含む部分画像Pを取得する(ステップS3)。ここで、部分画像Pの一例を図4に示す。尚、図中で×印が付されている箇所が画像上における把持部4の位置座標(X,Y)である。
続いて、画像処理手段7bは、部分画像Pを領域分割することにより、部分画像Pから把持部領域H及び物体領域Wを抽出し、把持部4及び物体9をそれぞれ認識する(ステップS4)。このとき、部分画像P上における把持部4の位置座標(X,Y)に基づいて、把持部領域Hを抽出し、把持部領域Hに隣接する領域として物体領域Wを抽出することにより、効率的に把持部4及び物体9を認識することができる。そして、把持部4のL個の動きベクトルh(i=1〜L)及び物体9のM個の動きベクトルw(j=1〜M)をそれぞれ算出し、評価値算出手段7cに出力する(ステップS5)。ここで、動きベクトルh,wは、把持部4及び物体9の各画素についてそれぞれ算出してもよいが、把持部4及び物体9に幾つかの特徴点を設定し、各特徴点についてそれぞれ算出したほうが、計算量削減の観点からより好ましい。部分画像Pから把持部領域H及び物体領域Wが抽出され、動きベクトルh(L=4),w(M=2)が算出された様子を図5に示す。尚、説明の便宜のために、把持部領域Hに斜線を付し、物体領域Wにドットを付して示している。
評価値算出手段7cは、把持部4と物体9との間の滑り状態を評価する評価値Evalを算出し、これを把持部4と物体9との間に滑りが生じていない状態の評価値Eval_stableとして閾値記憶手段7dに出力する(ステップS6)。
ここで、評価値Evalについて説明する。評価値Evalは、把持部4及び物体9の動きベクトルh,wの「大きさ及び方向」に基づいて定義される。詳細には、把持部4及び物体9の動きベクトルh,wの平均を
E(h)=(1/L)Σh ……………………………………………… 式(1)
E(w)=(1/M)Σw ……………………………………………… 式(2)
とするとき、
Eval=‖E(h)−E(w)‖ …………………………………… 式(3)
として定義される。
尚、把持部4と物体9との間に滑りが生じていない状態では、把持部4の動きベクトルhと物体9の動きベクトルwとはほぼ等しい大きさ及び方向を有するため、評価値Eval_stableは0に近い値となる。
閾値記憶手段7dは、評価値算出手段7cにより算出された評価値Eval_stableに所定の微少量εを加算することにより、把持部4と物体9との間に滑りが生じているか否かの判定基準である閾値Thを
Th=Eval_stable+ε ……………………………………… 式(4)
として算出して記憶する(ステップS7)。
以上により、ロボットハンド1の把持部4と物体9との間の滑り検出を行う際の前処理が終了する。
ステップS1〜S7の前処理が終了すると、動作制御手段8は、ロボットハンド1の把持部4と物体9との間の滑り検出を行いながら、所望の位置まで物体9を移動させる処理(ステップS8〜S16)を開始する。尚、これ以降の処理では、ロボットハンド1の把持部4と物体9との間に滑りが生じていないことを、人間により目視で確認させる必要はない。
動作制御手段8は、把持部4が物体9を把持した状態でアーム3の角度を制御することにより、物体9を移動させる処理を開始する(ステップS8)。続いて、画像取得手段7aは、把持部4近傍の画像を取得して画像処理手段7bに出力する(ステップS9)。
画像処理手段7bは、画像上における把持部4の位置座標(X,Y)を特定して把持部4及び物体9を含む部分画像Pを取得し(ステップS10)、部分画像Pから把持部領域H及び物体領域Wを抽出して把持部4及び物体9をそれぞれ認識する(ステップS11)。その後、把持部4のL個の動きベクトルh(i=1〜L)及び物体9のM個の動きベクトルw(j=1〜M)をそれぞれ算出し、評価値算出手段7cに出力する(ステップS12)。
評価値算出手段7cは、把持部4及び物体9の動きベクトルh,wに基づいて、式(1)〜(3)を用いて評価値Evalを算出し、判定手段7eに出力する(ステップS13)。
判定手段7eは、評価値算出手段7cから入力される評価値Evalと、閾値記憶手段7dに記憶されている閾値Thとを比較して、把持部4と物体9との間に滑りが生じているか否かを判定する。詳細には、評価値Evalが閾値Thより大きいか否か、すなわち
Eval>Th ………………………………………………………………… 式(5)
が成立するか否かを判定する(ステップS14)。
図5に示されるように、把持部4と物体9との間に滑りが生じていない状態では、把持部4の動きベクトルとhと物体9の動きベクトルwとはほぼ等しい大きさ及び方向を有するため、評価値Eval≒0となり閾値Thより小さくなる。
それに対して、図6に示されるように、外乱等の影響で把持部4と物体9との間に滑りが生じている状態では、h及びwの大きさ及び方向にずれが生じ、評価値Eval≠0となり閾値Thより大きくなる。
それ故、式(5)が成立する場合には、把持部4と物体9との間に滑りが生じていると判定し、滑り検出信号を動作制御手段8に出力する。式(5)が成立しない場合には、把持部4と物体9との間に滑りが生じていないと判定し、このときは滑り検出信号を出力しない。
動作制御手段8は、滑り検出手段7から滑り検出信号が出力されている場合には、把持部4により物体9を再把持させる処理を行う(ステップS15)。
最後に、動作制御手段8は、物体9の移動が完了したか否かを移動先位置に設けられた図示しない床上センサからの入力に基づいて判定し(ステップS16)、物体9の移動が完了したと判定されるまで、所定の時間間隔(例えば500ms)をおいてステップS9に戻り以降の処理を繰り返す。物体9の移動が完了したと判定された場合には、ロボットハンド1の動作を終了する。
以上説明したように、本発明の実施の形態に係るロボットハンド1によれば、把持部4及び物体9を含む部分画像Pを取得し、その部分画像Pから把持部4及び物体9をそれぞれ認識し、認識された把持部4及び物体9の動きベクトルh,wに基づいて、把持部4と物体9との間の滑りを検出する。これにより、把持部4と物体9との間に滑りが生じた場合に、把持部4と物体9との相対位置を算出する方法に比べて、その滑りを早期に検出することができる。
また、滑りを検出するためのセンサ等を用いることなく、画像処理により把持部4と物体9との間の滑りを検出することができる。
尚、上述した実施の形態の図5及び図6において、把持部4の動きベクトルhの数はL=4であり、物体9の動きベクトルwの数はM=2であったが、これらに限定されるものではなく、さらに多くても少なくてもよい。ただし、滑り検出精度の向上のためには、動きベクトルh,wの数は多い方が好ましく、計算量削減(処理時間短縮)のためには、動きベクトルh,wの数は少ない方が好ましい。
また、カメラ5は、通常のCCDカメラに限定されるものではなく、動き検知可能なカメラ、TOF(time of flight)カメラ、レーザーレンジファインダ等の立体形状を取得可能なカメラでもよい。
また、把持部4及び物体9の画像上における動きを表現する量は、動きベクトルに限定されるものではなく、オプティカルフロー等でもよい。
さらに、ロボットハンド1自体が移動することによりカメラ5が移動する場合には、カメラ5の移動ベクトル及び回転ベクトルを算出して背景領域の動きベクトルを推定し、この背景領域の動きベクトルに基づいて画像全体から背景領域を除去することにより対応することができる。
その他の実施の形態
ロボットハンドが複数の把持部4を備え、それらのうちのいずれかが物体9を把持する場合には、複数の把持部4の各指部4aに接触状態を感知する接触感知センサを設けてもよい。そして、把持部4の動きベクトルhを算出する際には、接触感知センサからの入力に基づいて、物体9を把持している把持部4を特定し、物体9を把持していると特定された把持部4の動きベクトルhのみを算出する。これにより、評価値Evalを算出する際に、物体9を把持していない他の把持部4の動きベクトルhが除外され、把持部4と物体9との間の滑り検出精度が向上すると共に計算量が削減される。
評価値Evalを、把持部4及び物体9の動きベクトルh,wの「大きさ」に基づいて定義してもよい。詳細には、把持部4及び物体9の動きベクトルh,wの平均を
E(h)=(1/L)Σh
E(w)=(1/M)Σw
とするとき、
Eval=|{‖E(h)‖−‖E(w)‖}|
或いは
Eval=‖E(w)‖/‖E(h)‖
として定義してもよい。
評価値Evalを、把持部4及び物体9の動きベクトルh,wの「方向」に基づいて定義してもよい。詳細には、把持部4及び物体9動きベクトルh,wの平均を
E(h)=(1/L)Σh
E(w)=(1/M)Σw
とするとき、
Eval={E(h)・E(w)}/{‖E(h)‖‖E(w)‖}
として定義してもよい。
評価値Evalを、把持部4の動きベクトルhの「分散」に基づいて定義してもよい。詳細には、把持部4の動きベクトルhの分散を
V(h)=(1/L)Σ{h−E(h)}{h−E(h)}
とするとき(Tはベクトルの転置を表す)、
Eval=V(h
として定義してもよい。
評価値Evalを、物体9の動きベクトルwの「分散」に基づいて定義してもよい。詳細には、物体9の動きベクトルwの分散を
V(w)=(1/M)Σ{w−E(w)}{w−E(w)}
とするとき、
Eval=V(w
として定義してもよい。
評価値Evalを、把持部4及び物体9の動きベクトルh,wの「分散」に基づいて定義してもよい。詳細には、把持部4及び物体9の動きベクトルh,wの分散を
V(h)=(1/L)Σ{h−E(h)}{h−E(h)}
V(w)=(1/M)Σ{w−E(w)}{w−E(w)}
とするとき、
Eval=|V(h)−V(w)|
或いは
Eval=V(w)/V(h
として定義してもよい。
評価値Evalを、アーム3の動きベクトルa(k=1〜N)と、把持部4及び物体9の動きベクトルh,wとに基づいて定義してもよい。詳細には、把持部4、物体9、アーム3の動きベクトルh,w,aの平均を
E(h)=(1/L)Σh
E(w)=(1/M)Σw
E(a)=(1/N)Σa
とするとき、
Eval=‖E(a)−{E(h)+E(w)}/2‖
として定義してもよい。
評価値Evalを、把持部4の指部4aのベクトルf(k=1〜N)と、把持部4及び物体9の動きベクトルh,wとに基づいて定義してもよい。詳細には、把持部4、物体9、指部4aの動きベクトルh,w,fの平均を
E(h)=(1/L)Σh
E(w)=(1/M)Σw
E(f)=(1/N)Σf
とするとき、
Eval=‖E(f)−{E(h)+E(w)}/2‖
として定義してもよい。
3 アーム、4 把持部、a アームの動きベクトル(アームの動きを表現する量)、h 把持部の動きベクトル(把持部の動きを表現する量)、P 部分領域(把持部及び物体を含む画像)、w 物体の動きベクトル(物体の動きを表現する量)。

Claims (6)

  1. 複数の物体間の相対移動を検出する方法であって、
    前記複数の物体のうちの少なくとも1つはロボットハンドの把持部であり、該ロボットハンドは画像上における前記把持部の位置を特定するセンサを備え、
    前記センサからの入力に基づいて前記把持部及び前記把持部に把持されている物体を含む画像を取得し、
    前記画像から前記把持部及び前記把持部に把持されている前記物体をそれぞれ認識し、
    前記把持部及び前記把持部に把持されている前記物体の画像上における動きを表現する量をそれぞれ算出し、
    前記動きを表現する量に基づいて前記把持部と前記把持部に把持されている前記物体との間の相対移動を検出する、
    ことを特徴とする方法。
  2. 前記ロボットハンドは、前記画像上における前記把持部の位置に基づいて、前記把持部に把持されている前記物体を認識することを特徴とする、請求項に記載の方法。
  3. 前記ロボットハンドは、アームを備え、
    前記アームの前記動きを表現する量と、前記把持部及び前記把持部に把持されている前記物体の前記動きを表現する量とに基づいて、前記把持部と前記把持部に把持されている前記物体との間の相対移動を検出することを特徴とする、請求項1または2に記載の方法。
  4. 前記画像上における前記動きを表現する量は、動きベクトルであることを特徴とする、請求項1〜のいずれか一項に記載の方法。
  5. 前記相対移動の検出を、前記動きベクトルの大きさ及び方向のうちの少なくとも一つに基づいて行うことを特徴とする、請求項に記載の方法。
  6. 前記相対移動の検出を、前記動きベクトルの平均及び分散のうちの少なくとも一つに基づいて行うことを特徴とする、請求項4または5に記載の方法。
JP2009082449A 2009-03-30 2009-03-30 複数の物体間の相対移動を検出する方法 Expired - Fee Related JP5218209B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009082449A JP5218209B2 (ja) 2009-03-30 2009-03-30 複数の物体間の相対移動を検出する方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009082449A JP5218209B2 (ja) 2009-03-30 2009-03-30 複数の物体間の相対移動を検出する方法

Publications (2)

Publication Number Publication Date
JP2010236893A JP2010236893A (ja) 2010-10-21
JP5218209B2 true JP5218209B2 (ja) 2013-06-26

Family

ID=43091360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009082449A Expired - Fee Related JP5218209B2 (ja) 2009-03-30 2009-03-30 複数の物体間の相対移動を検出する方法

Country Status (1)

Country Link
JP (1) JP5218209B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6364836B2 (ja) * 2014-03-14 2018-08-01 セイコーエプソン株式会社 ロボット、ロボットシステム、及び制御装置
JP6541397B2 (ja) * 2015-04-06 2019-07-10 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP7317481B2 (ja) * 2018-10-15 2023-07-31 株式会社今仙電機製作所 ロボット、このロボットを備えた搬送車、このロボットの制御方法及び制御プログラム
CN117283585B (zh) * 2023-11-24 2024-03-29 苏州英菲斯智能科技股份有限公司 一种安防巡检机器人及巡检方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004160614A (ja) * 2002-11-14 2004-06-10 Ricoh Co Ltd 自動作業教示システム
JP2005177977A (ja) * 2003-11-25 2005-07-07 Matsushita Electric Works Ltd ロボットハンドの制御装置
JP4513663B2 (ja) * 2005-06-15 2010-07-28 富士電機ホールディングス株式会社 自動組立システムにおける組立機構の動作教示方法
US7762119B2 (en) * 2006-11-30 2010-07-27 Corning Incorporated Method and apparatus for distortion measurement imaging

Also Published As

Publication number Publication date
JP2010236893A (ja) 2010-10-21

Similar Documents

Publication Publication Date Title
JP6983524B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5013270B2 (ja) ロボットシステム
JP6529302B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6700726B2 (ja) ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム
US20150105907A1 (en) Robot controller, robot system, robot, robot control method, and program
WO2020022302A1 (ja) 把持装置
US9844881B2 (en) Robotic device including machine vision
JP6357785B2 (ja) ロボット、ロボットシステム、制御装置および制御方法
JP2019181622A (ja) ハンド制御装置およびハンド制御システム
JP7377627B2 (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
KR102220304B1 (ko) 로봇 제어 장치 및 로봇 제어 방법
JP5218209B2 (ja) 複数の物体間の相対移動を検出する方法
JP2005078257A (ja) 動作識別装置、及び対象物の姿勢識別装置
JP2016196077A (ja) 情報処理装置、情報処理方法、およびプログラム
CN111037553B (zh) 控制装置
JP6666764B2 (ja) ワーク認識方法及びランダムピッキング方法
JP2006026875A (ja) ロボットハンドの把持制御装置
JP6067547B2 (ja) 物体認識装置、ロボット及び物体認識方法
JP2000263482A (ja) ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置
JP5769411B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2018179859A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6176091B2 (ja) 把持方法、運搬方法及びロボット
JP2015157343A (ja) ロボット、ロボットシステム、制御装置、および制御方法
JP2006007390A (ja) 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体
WO2019093299A1 (ja) 位置情報取得装置およびそれを備えたロボット制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees