JP2009083095A - ロボット装置の制御方法及びロボット装置 - Google Patents

ロボット装置の制御方法及びロボット装置 Download PDF

Info

Publication number
JP2009083095A
JP2009083095A JP2008223796A JP2008223796A JP2009083095A JP 2009083095 A JP2009083095 A JP 2009083095A JP 2008223796 A JP2008223796 A JP 2008223796A JP 2008223796 A JP2008223796 A JP 2008223796A JP 2009083095 A JP2009083095 A JP 2009083095A
Authority
JP
Japan
Prior art keywords
manipulator
image
neural network
robot apparatus
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008223796A
Other languages
English (en)
Other versions
JP5200772B2 (ja
Inventor
Sun Zengqi
サン ゼンキ
Hong Wang
ワン ホン
Hao Miao
ハオ ミャオ
Masakazu Fujii
正和 藤井
Yukihiro Kono
幸弘 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Publication of JP2009083095A publication Critical patent/JP2009083095A/ja
Application granted granted Critical
Publication of JP5200772B2 publication Critical patent/JP5200772B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ロボット装置のマニピュレータを制御するにあたり、多くの基準画像を用意する必要がなく、計算負荷が軽く、迅速な制御が可能でありながら、マニピュレータの対象物に対する位置及び姿勢を3次元空間内において制御することができるロボット装置の制御方法を提供する。
【解決手段】事前に取得してある対象物101の平均画像3aとマニピュレータ1の動作中にカメラ6により取得した対象物101の画像との差分から、画像処理部3bにより主成分分析により特徴量を算出し、この特徴量を動作指令生成部3cに入力し、この動作指令生成部3cに制御されたニューラルネットワーク3dの出力を指令信号とし、この指令信号に基づいてマニピュレータ1の先端5を対象物101に対する所望の位置姿勢へ動作させる。
【選択図】図1

Description

本発明は、マニピュレータの先端にカメラを備えたロボット装置において、事前に目標状態から算出し記憶した目標特徴量とカメラにより取得した画像から得た特徴量とが一致するようにマニピュレータを動作させるロボット装置の制御方法及びロボット装置に関する。
従来、マニピュレータを備えたロボット装置が提案されており、また、このようなロボット装置のマニピュレータの動作を制御するためのロボット装置の制御方法が提案されている。そして、ロボット装置の制御方法として、マニピュレータにより把持を行う対象物を目標として、マニピュレータの手先を移動させるための制御方法が種々提案されている。
例えば、特許文献1には、対象物の基準画像とその画像を撮像したときのカメラ位置と姿勢を複数用意しておくとともに、マニピュレータの手先に取り付けたカメラによる画像情報を取得し、画像情報における対象物の形状に近い基準画像を検索することによって、対象物とマニピュレータの手先との位置関係を計算するようにしたロボット装置が記載されている。
また、特許文献2には、対象物の基準画像を用意しておき、マニピュレータの手先に取り付けたカメラにより画像を撮影しながら、基準画像に近い画像が得られるまで、マニピュレータを一定量移動させるようにしたロボット装置が記載されている。
さらに、特許文献3には、マニピュレータによって把持している対象物について、頂点位置などの特徴量を外部のカメラにより取得し、ニューラルネットワークを学習させるようにしたロボット装置が記載されている。このロボット装置においては、動作時には、外部のカメラにより取得した特徴量をニューラルネットワークに入力し、マニピュレータの各関節の角度を調整する。また、事前に対象物の画像から取得した重心などの局所特徴量と、そのときのマニピュレータの各関節の角度とを用いて、ニューラルネットワークによりさらに学習を行ない、動作中には、ニューラルネットワークを用いて取得した局所特徴量に基づいてマニピュレータの各関節の角度を求めている。
特開2003−231078公報 特開2000−263482公報 特開平07−080790号公報
ところで、特許文献1に記載のロボット装置においては、制御の精度を高めるためには、多くの基準画像を用意しておき、マニピュレータの動作のたびに全ての基準画像の検索を行なう必要があるため、計算負荷が高く、迅速な制御ができない。
また、特許文献2に記載のロボット装置においては、2次元平面内におけるマニピュレータの位置及び姿勢合わせにしか対応できず、マニピュレータの対象物に対する位置及び姿勢を3次元空間内において制御することはできない。さらに、このロボット装置においては、撮像、計測とマニピュレータの動作とを繰り返さなければならないため、迅速な制御ができない。また、このロボット装置においては、カメラレンズの歪取りや座標系をあわせるなどのカメラキャリブレーションが必要であり、マニピュレータのリンク長の誤差や座標系のずれなどによる誤差が累積して、動作精度が劣化する虞がある。
そして、特許文献3に記載のロボット装置においては、画像処理の精度が直接にマニピュレータの動作の精度に影響するので、動作精度の向上が困難であり、また、画像処理に長時間を要してしまう。また、このロボット装置においては、重心などの局所特徴量に基づいてマニピュレータを動作させるため、ロバスト性が低いという問題もある。
そこで、本発明は、前述の実情に鑑みてなされたものであり、その目的は、ロボット装置のマニピュレータを制御するにあたり、多くの基準画像を用意する必要がなく、計算負荷が軽く、迅速な制御が可能でありながら、マニピュレータの対象物に対する位置及び姿勢を3次元空間内において制御することができるようになされたロボット装置の制御方法及びロボット装置を提供することにある。
前述の課題を解決し、前記目的を達成するため、本発明に係るロボット装置の制御方法は、以下の構成のいずれか一を有するものである。
〔構成1〕
本発明に係るロボット装置の制御方法は、6自由度以上のマニピュレータを有しマニピュレータの手先位置に撮像手段を有するロボット装置を制御するロボット装置の制御方法であって、事前に取得してある対象物の平均画像とマニピュレータの動作中に撮像手段により取得した対象物の画像との差分から、主成分分析により特徴量を算出し、この特徴量をニューラルネットワーク制御器に入力し、このニューラルネットワーク制御器により制御されたニューラルネットワークの出力を指令信号とし、この指令信号に基づいてマニピュレータの先端を対象物に対する所望の位置姿勢へ動作させることを特徴とするものである。
なお、ニューラルネットワーク制御器としては、ファジィ的ニューラルネットワーク(ファジィルール的な構造を持つニューラルネットワーク),高木・菅野ファジィ的ニューラルネットワーク(ファジィルール的な構造を持つニューラルネットワークのうち,高木・菅野が1985年2月に“Fuzzy Identificaion of Systems and Its Applications to Modeling and Control”という題目でIEEE Transactions on Systems, Man, and Cybernetics, vol.SMC-15, no.1, pp.116-132にて発表した構造)を用いることができる。
〔構成2〕
本発明に係るロボット装置は、6自由度以上のマニピュレータと、マニピュレータの手先位置に設けられた撮像手段と、事前に取得された対象物の平均画像を記憶する記憶手段と、マニピュレータの動作中に撮像手段により取得された対象物の画像と平均画像との差分を算出しこの差分から主成分分析により特徴量を算出する演算手段と、特徴量が入力されニューラルネットワークを制御して指令信号を出力させるニューラルネットワーク制御器とを備え、マニピュレータは、指令信号に基づいて制御されて、先端を対象物に対する所定の位置姿勢へ動作させることを特徴とするものである。
本発明に係る複数ロボット装置の制御方法においては、構成1を有することにより、事前に取得してある対象物の平均画像とマニピュレータの動作中に撮像手段により取得した対象物の画像との差分から、主成分分析により特徴量を算出し、この特徴量をニューラルネットワーク制御器に入力し、このニューラルネットワーク制御器により制御されたニューラルネットワークの出力を指令信号としてマニピュレータを制御するので、多くの基準画像を用意する必要がないため、計算負荷が軽く、迅速な制御が可能である。そして、このロボット装置の制御方法においては、画像全体から大域的な特徴量を求めるので、ある形状の位置や大きさなどの局所特徴量を用いる従来のロボット装置の制御方法に比較してロバスト性が高く、また、マニピュレータを3次元空間内において制御することができ、制御のための計算量を少なくすることができる。
本発明に係る複数ロボット装置においては、構成2を有することにより、事前に取得され記憶手段により記憶された平均画像と、マニピュレータの動作中に撮像手段により取得された対象物の画像との差分を算出し、この差分から主成分分析により特徴量を算出し、この特徴量をニューラルネットワーク制御器に入力してニューラルネットワークを制御して指令信号を出力させ、この指令信号に基づいてマニピュレータを制御するので、多くの基準画像を用意する必要がなく、計算負荷が軽いため、迅速な制御が可能である。このロボット装置においては、画像全体から大域的な特徴量を求めるので、ある形状の位置や大きさなどの局所特徴量を用いる従来のロボット装置に比較してロバスト性が高く、また、マニピュレータを3次元空間内において制御することができ、制御のための計算量を少なくすることができる。
すなわち、本発明は、ロボット装置のマニピュレータを制御するにあたり、多くの基準画像を用意する必要がなく、計算負荷が軽く、迅速な制御が可能でありながら、マニピュレータの対象物に対する位置及び姿勢を3次元空間内において制御することができるようになされたロボット装置の制御方法及びロボット装置を提供することができるものである。
以下、本発明を実施するための最良の形態について図面を参照して説明する。
〔ロボット装置の構成〕
図1は、本発明に係るロボット装置の構成を示す模式的な側面図である。
本発明に係るロボット装置は、図1に示すように、6自由度のマニピュレータ1を有し、このマニピュレータ1により、対象物101の把持、運搬及び他の部材への組立が可能となされているものである。
マニピュレータ1は、複数のアクチュエータ(駆動装置)とリンク(剛体の構造物)とによって構成されており、6自由度を有している。すなわち、各リンク間は、回動(屈曲)、または、旋回可能な関節2a,2b,2c,2d,2e,2fを介して接続されており、それぞれアクチュエータによって相対駆動されるようになっている。各アクチュエータは、制御手段となるコンピュータ3によって制御される。
このマニピュレータ1において、第1のリンク(基端部のリンク)1aは、基台部4に対し、基端側を第1の関節2aを介して接続されて設置されている。第1の関節2aは、鉛直軸(z軸)回りに旋回可能な関節である。この第1のリンク1aの先端側には、第2の関節2bを介して、第2のリンク1bの基端側が接続されている。第2の関節2bは、水平な軸回りに第2のリンク1bを回動可能とする関節である。第2のリンク1bの先端側には、第3の関節2cを介して、第3のリンク1cの基端側が接続されている。第3の関節2cは、水平な軸回りに第3のリンク1cを回動可能とする関節である。
そして、第3のリンク1cの先端側には、第4の関節2dを介して、第4のリンク1dの基端側が接続されている。第4の関節2dは、第3のリンク1cの軸回りに第4のリンク1dを旋回可能とする関節である。第4のリンク1dの先端側には、第5の関節2eを介して、第5のリンク1eの基端側が接続されている。第5の関節2eは、第4のリンク1dの軸に直交する軸回りに第5のリンク1eを回動可能とする関節である。第5のリンク1eの先端側には、第6の関節2fを介して、第6のリンク1fの基端側が接続されている。第6の関節2fは、第5のリンク1eの軸回りに第6のリンク1fを旋回可能とする関節である。
このように、マニピュレータ1においては、回動可能な関節と、旋回可能な関節とが、交互に計6個設けられていることにより、6自由度が確保されている。
第6のリンク1fの先端側(以下、「手先」という。)には、対象物101を把持したり加工したりする先端ツール機構5が設けられている。この先端ツール機構5は、コンピュータ3や図示しないその他の制御装置によって制御される。また、手先の近傍には、撮像レンズ及びCCDやCMOSSなどの固体撮像素子からなる撮像手段となるカメラ6が取付けられている。
コンピュータ3は、平均画像固有値行列を記憶した記憶手段となるメモリ3aを有している。このメモリ3aは、事前に取得された対象物の平均画像を平均画像固有値行列として記憶している。メモリ3aに記憶された平均画像固有値行列は、演算手段となる画像処理部3bに送られる。この画像処理部3bは、マニピュレータ1の動作中にカメラ6により取得された対象物101の画像と、平均画像固有値行列との差分を算出し、この差分から、主成分分析により特徴量を算出する。
そして、この特徴量は、ニューラルネットワーク制御器である動作指令生成部(ニューラルネットワークコントローラ)3cに送られる。この動作指令生成部3cは、学習されたニューラルネットワーク3dを制御して、入力された特徴量に応じた指令信号を出力する。この指令信号は、マニピュレータ1に送られる。
そして、マニピュレータ1は、指令信号に基づいて制御されて、先端ツール機構5を対象物101に対する所定の位置姿勢へ動作させる。すなわち、マニピュレータ1においては、第1のリンク1aに対する第2のリンク1bの位置、第2のリンク1bに対する第3のリンク1cの位置、第3のリンク1cに対する第4のリンク1dの位置と、順次先端側のリンクの位置が制御されることにより、手先の位置が制御され、この手先において先端ツール機構5によって把持したワークを所定の位置に搬送することができる。
〔ロボット装置の制御方法〕
そして、このロボット装置においては、以下に示す本発明に係るロボット装置の制御方法が実行されることにより、マニピュレータ1が自動制御される。すなわち、このロボット装置においては、事前に学習された平均画像と、カメラ6により取得された画像とが一致するように、マニピュレータ1を動作させる。
このロボット装置におけるマニピュレータ1の制御は、大分して「事前処理」と「オンライン処理」との2ステップからなる。
(1)事前処理
事前処理においては、マニピュレータ1を目標位置及び目標姿勢の近傍として、位置及び姿勢を少しずつ変え、カメラ6により対象物101の写真を数枚撮影し、これらの平均画像を求めておく。そして、撮影された各画像と、平均画像との差に、固有値ベクトルを並べた行列を掛け合わせて特徴量を算出する。この特徴量をニューラルネットワーク3dへの入力とし、各画像を取得したときの先端ツール機構5の位置及び姿勢を出力として、ニューラルネットワーク3dを学習させておく。
(2)オンライン処理
オンライン処理においては、画像処理部3bにより、カメラ6により取得した画像と平均画像との差に固有値ベクトルを並べた行列を掛け合わせ、特徴量を求める。求めた特徴量をニューラルネットワーク3dに入力し、マニピュレータ1において動作すべき関節角度、手先位置、姿勢を得る。
本発明においては、事前処理及びオンライン処理のいずれにおいても、「取得画像と平均画像の差に固有値ベクトルを並べた行列を掛け合わせた特徴量」を用いている。このような特徴量を用いることが本発明の特徴である。この特徴量及び各処理について、以下、さらに説明する。この特徴量は、画像全体から大域的な特徴量を求めたものとなっており、対象物101における特定の形状の位置、大きさなどの局所特徴量を用いる従来の技術に比較して、ロバスト性が高く、3次元空間における制御にも対応でき、かつ、オンライン処理における計算量を少なくすることができる。
〔特徴量算出について〕
本発明における特徴量算出は、主成分分析(PCA)と呼ばれる手法によって行う。まず、P枚の同じ解像度、例えば、縦q1ピクセル、横q2ピクセルのグレイスケール画像を用意する。p番目の画像の輝度を縦1列に並べた縦ベクトルをIpとし、この画像のX座標x、Y座標yの画素の輝度をIpxyとする。つまり、Ipにおいては、Ip11,Ip12,Ip13,・・・Ip1q1,Ip21,Ip22,・・・と画素の輝度が並んでいる。この画素の平均輝度Iaxyは、以下のように示される。
Iaxy=(I1xy+I2xy+・・・+IPxy)/P
これを全画素に対して行なうと、平均画像Iaが得られる。なお、元画像はq1×q2の画素の並びであるが、Iaでは、グレイスケール画像ではなくカラー画像の場合には、各色チャンネルごと、すなわち、RGB画像の場合には赤、青、緑の各チャンネルについて平均輝度を求めることで、平均画像を得る。
この平均画像Iaと、p番目のある画像Ipとの差ΔIpを以下のように定義する。
ΔIp=Ip−Ia
ΔIpは、Ipと同じく、q1×q2の大きさの縦ベクトルである。P枚の画像のそれぞれについてΔIpを求め、これらを横に並べて得られる行列をAとする。
A=(ΔI1, ΔI2,・・・,ΔIP)
そして、以下のような相関行列Cを求める。
C=A′A/P
ここで、A′は、Aの転置行列を意味する。この行列は、大きさがP×Pの実対称行列なので、P個の固有値を求めることができる。P個の固有値のうち値の大きなM個の固有値をλi(但し、i=1〜M、Mは調整値)、これに対応する固有ベクトルをei(但し、i=1〜M)とし、固有ベクトルeiを横に並べた行列Uを定義する。
U=(e1,e2,...,eM)
そして、大域的特徴量yを以下で定義する。
y=U′(I−Ia)
ここでIは、Iaと同じ大きさに整形された任意の画像である。任意の画像と平均画像との輝度差に変換行列U′を掛け合わせた特徴量yは、大きさがMのベクトルである。画像はq1×q2の情報を持っているので、情報量を大幅に圧縮できる。例えば、q1=64、q2=48とすると、画素数3072の情報となるが、扱う情報量をM=6まで圧縮することができる。このような特徴量yは、大域特徴量と呼ぶことができる。
〔事前処理〕
事前処理は、前述したように、ニューラルネットワーク3dを学習させる処理である。まず、マニピュレータ1を目標位置及び目標姿勢の近傍として、P枚の画像Ip(p=1〜P)を取得し、これらから平均画像を取得する。また、それぞれの画像を取得したときのマニピュレータ1の位置及び姿勢に対する6自由度の相対手先位置及び姿勢xp(p=1〜6、大きさ6のベクトル)も併せて取得しておく。
図2は、目標位置及び目標姿勢の近傍において取得された複数の画像を示す正面図である。
例えば、図2に示すように、マニピュレータ1を目標位置及び目標姿勢の近傍として、9枚の画像I1,I2,・・・,Ipを取得したとする。これら各画像においては、目標位置に対して対象物101の見え方(大域特徴量)がそれぞれ異なっている。このような対象物101見え方の差と、マニピュレータ1の位置及び姿勢の差との関係を、ニューラルネットワーク3dに学習させる。
すなわち、各画像について、前述したように、大域特徴量yp(p=1〜P)を求めると、各大域特徴量ypが得られたときのマニピュレータ1の位置及び姿勢情報が得られる。そして、大域特徴量ypをニューラルネットワーク3dに対する入力とし、相対手先位置及び姿勢xpが得られるように、ニューラルネットワーク3dの学習を行なう。
なお、ニューラルネットワークを用いることにより、マニピュレータ1の全ての位置及び姿勢について大域特徴量を保存しておく必要はない。実際に取得されなかった画像についての大域特徴量は、ニューラルネットワークの学習により補間される。このようなニューラルネットワークの構造や学習のさせ方、学習をさせるための入出力データの処理については、公知の技術を用いることができる。
〔オンライン処理〕
オンライン処理は、マニピュレータ1を動作させながらカメラ6により取得された画像に基づいて、マニピュレータ1の動作をリアルタイムで制御する処理である。まず、マニピュレータ1の動作中に、カメラ6により画像を取得する。そして、前述したように、取得された画像と平均画像との差から、大域特徴量yを求める。大域特徴量yを学習させたニューラルネットワーク3dの入力とすると、大域特徴量yのときのマニピュレータ1の目標位置及び姿勢からの相対位置及び姿勢xが得られる。
すなわち、前述のようにニューラルネットワーク3dが学習していることにより、対象物101見え方(大域特徴量)の差から、マニピュレータ1の位置及び姿勢を推定することができる。
そして、現在のマニピュレータ1の位置及び姿勢から、得られた相対位置及び姿勢xだけマニピュレータ1を動作させることにより、マニピュレータ1を目標の位置及び姿勢となるように制御することができる。
〔本発明の特徴〕
前述したように、本発明においては、単純に目標の位置及び姿勢の絶対値を記憶しておく制御方法と異なり、カメラ6により取得された画像と平均画像との差から得られた大域特徴量に基づいて、マニピュレータ1が動作すべき相対位置及び姿勢を推定するので、マニピュレータ1の初期の位置及び姿勢に拘わらず、任意の位置の対象物101に対応する目標位置及び姿勢にマニピュレータ1を動作させることができる。
取得された画像からの特徴量の抽出は、従来は、円や多角形(線分)を輪郭として抽出して形状認識を行い、これに基づいて面積や重心位置、中心位置、大きさなどを求め、これを特徴量とすることが多かった。この場合には、僅かなノイズや照明状態の変化などにより認識結果が影響を受け、また、認識誤差がマニピュレータ1の動作に大きな影響を与える。さらに、画像処理には長時間を要する。
これに対し、本発明においては、電子データとしての画像に含まれる数値情報に基づいて処理を行うため、比較的ノイズに強く、ロバストである。また、前述したように、用いる特徴量の数Mを調整したり、特徴量を速く計算する工夫を行なっているので、計算時間を短くすることができる。
本発明に係るロボット装置の構成を示す模式的な側面図である。 本発明に係るロボット装置において、マニピュレータを目標位置及び目標姿勢の近傍としたときに取得された複数の画像を示す正面図である。
符号の説明
1 マニピュレータ
1a 第1のリンク
1b 第2のリンク
1c 第3のリンク
1d 第4のリンク
1e 第5のリンク
1f 第6のリンク
2a 第1の関節
2b 第2の関節
2c 第3の関節
2d 第4の関節
2e 第5の関節
2f 第6の関節
3 コンピュータ
3a メモリ
3b 画像処理部
3c 動作指令生成部
3d ニューラルネットワーク
5 先端ツール機構
6 カメラ
101 対象物

Claims (2)

  1. 6自由度以上のマニピュレータを有し、マニピュレータの手先位置に撮像手段を有するロボット装置を制御するロボット装置の制御方法であって、
    事前に取得してある対象物の平均画像と、前記マニピュレータの動作中に前記撮像手段により取得した前記対象物の画像との差分から、主成分分析により特徴量を算出し、この特徴量をニューラルネットワーク制御器に入力し、このニューラルネットワーク制御器により制御されたニューラルネットワークの出力を指令信号とし、この指令信号に基づいて前記マニピュレータの先端を前記対象物に対する所望の位置姿勢へ動作させる
    ことを特徴とするロボット装置の制御方法。
  2. 6自由度以上のマニピュレータと、
    前記マニピュレータの手先位置に設けられた撮像手段と、
    事前に取得された対象物の平均画像を記憶する記憶手段と、
    前記マニピュレータの動作中に前記撮像手段により取得された前記対象物の画像と、前記平均画像との差分を算出し、この差分から、主成分分析により特徴量を算出する演算手段と、
    前記特徴量が入力され、ニューラルネットワークを制御して指令信号を出力させるニューラルネットワーク制御器と
    を備え、
    前記マニピュレータは、前記指令信号に基づいて制御されて、先端を前記対象物に対する所定の位置姿勢へ動作させる
    ことを特徴とするロボット装置。
JP2008223796A 2007-09-29 2008-09-01 ロボット装置の制御方法及びロボット装置 Active JP5200772B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN200710163075.1 2007-09-29
CNA2007101630751A CN101396829A (zh) 2007-09-29 2007-09-29 机器人装置的控制方法以及机器人装置

Publications (2)

Publication Number Publication Date
JP2009083095A true JP2009083095A (ja) 2009-04-23
JP5200772B2 JP5200772B2 (ja) 2013-06-05

Family

ID=40515794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008223796A Active JP5200772B2 (ja) 2007-09-29 2008-09-01 ロボット装置の制御方法及びロボット装置

Country Status (2)

Country Link
JP (1) JP5200772B2 (ja)
CN (1) CN101396829A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469423A (zh) * 2015-11-16 2016-04-06 北京师范大学 一种基于连续吸引子神经网络的在线目标跟踪方法
JP2019093461A (ja) * 2017-11-20 2019-06-20 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
JP2019164836A (ja) * 2019-06-19 2019-09-26 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
JP2019171540A (ja) * 2018-03-29 2019-10-10 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
WO2019233227A1 (zh) * 2018-06-05 2019-12-12 雅客智慧(北京)科技有限公司 一种基于视觉导航的牙科机器人路径规划系统及方法
JP2020078852A (ja) * 2018-11-14 2020-05-28 旭鉄工株式会社 学習システム、及びロボット位置調整システム
JP2021061014A (ja) * 2019-06-19 2021-04-15 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
CN112757284A (zh) * 2019-10-21 2021-05-07 佳能株式会社 机器人控制装置、方法和存储介质
US11034018B2 (en) 2017-05-31 2021-06-15 Preferred Networks, Inc. Learning device, learning method, learning model, detection device and grasping system
WO2021176984A1 (ja) 2020-03-03 2021-09-10 オムロン株式会社 モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム
US11285624B2 (en) 2019-02-22 2022-03-29 Fanuc Corporation Object detection device, control device, and object detection computer program
WO2022086157A1 (ko) * 2020-10-20 2022-04-28 삼성전자주식회사 전자 장치 및 그 제어 방법
CN114677429A (zh) * 2022-05-27 2022-06-28 深圳广成创新技术有限公司 一种机械手的定位方法、装置、计算机设备和存储介质
US11440184B2 (en) 2017-02-09 2022-09-13 Mitsubishi Electric Corporation Position control device and position control method

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT509927B1 (de) * 2010-06-08 2015-05-15 Keba Ag Verfahren zum programmieren oder vorgeben von bewegungen oder abläufen eines industrieroboters
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
EP2926955A4 (en) * 2012-11-30 2016-07-27 Yaskawa Denki Seisakusho Kk ROBOTIC SYSTEM
JP5616478B1 (ja) * 2013-04-18 2014-10-29 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP6177837B2 (ja) * 2015-06-30 2017-08-09 ファナック株式会社 視覚センサを用いたロボットシステム
JP6088605B1 (ja) * 2015-08-31 2017-03-01 ファナック株式会社 視覚センサを用いたロボットシステム
CN105082161B (zh) * 2015-09-09 2017-09-29 新疆医科大学第一附属医院 双目立体摄像机机器人视觉伺服控制装置及其使用方法
JP6986373B2 (ja) * 2017-06-21 2021-12-22 川崎重工業株式会社 ロボットシステム及びロボットシステムの制御方法
KR20230159628A (ko) * 2018-02-23 2023-11-21 구라시키 보세키 가부시키가이샤 선형물의 선단 이동 방법, 및, 제어 장치
CN109227540A (zh) * 2018-09-28 2019-01-18 深圳蓝胖子机器人有限公司 一种机器人控制方法、机器人及计算机可读存储介质
JPWO2020203819A1 (ja) * 2019-03-29 2021-10-14 株式会社Ihi 遠隔操作装置
CN111688526B (zh) * 2020-06-18 2021-07-20 福建百城新能源科技有限公司 一种用户侧新能源汽车储能充电站

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0588721A (ja) * 1991-09-30 1993-04-09 Fujitsu Ltd 関節型ロボツトの制御装置
JPH0780790A (ja) * 1993-09-16 1995-03-28 Fujitsu Ltd 三次元物体把持システム
JPH08212329A (ja) * 1995-02-06 1996-08-20 Fujitsu Ltd 適応的認識システム
JP2000263482A (ja) * 1999-03-17 2000-09-26 Denso Corp ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置
JP2003231078A (ja) * 2002-02-14 2003-08-19 Denso Wave Inc ロボットアームの位置制御方法およびロボット装置
JP2008012604A (ja) * 2006-07-03 2008-01-24 Fanuc Ltd 計測装置及びキャリブレーション方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0588721A (ja) * 1991-09-30 1993-04-09 Fujitsu Ltd 関節型ロボツトの制御装置
JPH0780790A (ja) * 1993-09-16 1995-03-28 Fujitsu Ltd 三次元物体把持システム
JPH08212329A (ja) * 1995-02-06 1996-08-20 Fujitsu Ltd 適応的認識システム
JP2000263482A (ja) * 1999-03-17 2000-09-26 Denso Corp ワークの姿勢探索方法および姿勢探索装置ならびにロボットによるワーク把持方法およびワーク把持装置
JP2003231078A (ja) * 2002-02-14 2003-08-19 Denso Wave Inc ロボットアームの位置制御方法およびロボット装置
JP2008012604A (ja) * 2006-07-03 2008-01-24 Fanuc Ltd 計測装置及びキャリブレーション方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469423B (zh) * 2015-11-16 2018-06-22 北京师范大学 一种基于连续吸引子神经网络的在线目标跟踪方法
CN105469423A (zh) * 2015-11-16 2016-04-06 北京师范大学 一种基于连续吸引子神经网络的在线目标跟踪方法
US11440184B2 (en) 2017-02-09 2022-09-13 Mitsubishi Electric Corporation Position control device and position control method
US11034018B2 (en) 2017-05-31 2021-06-15 Preferred Networks, Inc. Learning device, learning method, learning model, detection device and grasping system
US11565407B2 (en) 2017-05-31 2023-01-31 Preferred Networks, Inc. Learning device, learning method, learning model, detection device and grasping system
JP2019093461A (ja) * 2017-11-20 2019-06-20 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
US11338435B2 (en) 2017-11-20 2022-05-24 Kabushiki Kaisha Yaskawa Denki Gripping system with machine learning
JP2019171540A (ja) * 2018-03-29 2019-10-10 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
US11253999B2 (en) 2018-03-29 2022-02-22 Fanuc Corporation Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
WO2019233227A1 (zh) * 2018-06-05 2019-12-12 雅客智慧(北京)科技有限公司 一种基于视觉导航的牙科机器人路径规划系统及方法
JP2020078852A (ja) * 2018-11-14 2020-05-28 旭鉄工株式会社 学習システム、及びロボット位置調整システム
JP7207704B2 (ja) 2018-11-14 2023-01-18 旭鉄工株式会社 学習システム、及びロボット位置調整システム
US11285624B2 (en) 2019-02-22 2022-03-29 Fanuc Corporation Object detection device, control device, and object detection computer program
JP7051751B2 (ja) 2019-06-19 2022-04-11 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
JP2021061014A (ja) * 2019-06-19 2021-04-15 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
JP2019164836A (ja) * 2019-06-19 2019-09-26 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
JP7349423B2 (ja) 2019-06-19 2023-09-22 株式会社Preferred Networks 学習装置、学習方法、学習モデル、検出装置及び把持システム
CN112757284A (zh) * 2019-10-21 2021-05-07 佳能株式会社 机器人控制装置、方法和存储介质
CN112757284B (zh) * 2019-10-21 2024-03-22 佳能株式会社 机器人控制装置、方法和存储介质
WO2021176984A1 (ja) 2020-03-03 2021-09-10 オムロン株式会社 モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム
WO2022086157A1 (ko) * 2020-10-20 2022-04-28 삼성전자주식회사 전자 장치 및 그 제어 방법
CN114677429A (zh) * 2022-05-27 2022-06-28 深圳广成创新技术有限公司 一种机械手的定位方法、装置、计算机设备和存储介质
CN114677429B (zh) * 2022-05-27 2022-08-30 深圳广成创新技术有限公司 一种机械手的定位方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN101396829A (zh) 2009-04-01
JP5200772B2 (ja) 2013-06-05

Similar Documents

Publication Publication Date Title
JP5200772B2 (ja) ロボット装置の制御方法及びロボット装置
JP6527178B2 (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
JP5233601B2 (ja) ロボットシステム、ロボット制御装置およびロボット制御方法
Tamadazte et al. A direct visual servoing scheme for automatic nanopositioning
US8265791B2 (en) System and method for motion control of humanoid robot
JP6734253B2 (ja) ワークを撮像する視覚センサを備える撮像装置
KR20190108191A (ko) 로봇 파지용 심층 기계 학습 방법 및 장치
CN113379849B (zh) 基于深度相机的机器人自主识别智能抓取方法及系统
Hebert et al. Combined shape, appearance and silhouette for simultaneous manipulator and object tracking
CN104044132A (zh) 机器人系统及被加工物的制造方法
CN112757284B (zh) 机器人控制装置、方法和存储介质
JP2019089188A (ja) 作動システムおよびプログラム
CN106256512A (zh) 包括机器视觉的机器人装置
JP2020012669A (ja) 物体検査装置、物体検査システム、及び検査位置を調整する方法
Xiao et al. A novel visual guidance framework for robotic welding based on binocular cooperation
Nadi et al. Visual servoing control of robot manipulator with Jacobian matrix estimation
CN116460843A (zh) 一种基于元启发式算法的多机器人协作抓取方法及系统
JP2006224291A (ja) ロボットシステム
JP2015005093A (ja) パターンマッチング装置及びパターンマッチング方法
CN114187312A (zh) 目标物的抓取方法、装置、系统、存储介质及设备
Maeda et al. View-based teaching/playback for industrial manipulators
JP2014144516A (ja) ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム
CN109542094B (zh) 无期望图像的移动机器人视觉镇定控制
JP7376318B2 (ja) アノテーション装置
CN114407011A (zh) 异形工件抓取规划方法、规划装置及异形工件抓取方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130128

R151 Written notification of patent or utility model registration

Ref document number: 5200772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250