JPWO2008047872A1 - マニピュレータ - Google Patents
マニピュレータ Download PDFInfo
- Publication number
- JPWO2008047872A1 JPWO2008047872A1 JP2008539872A JP2008539872A JPWO2008047872A1 JP WO2008047872 A1 JPWO2008047872 A1 JP WO2008047872A1 JP 2008539872 A JP2008539872 A JP 2008539872A JP 2008539872 A JP2008539872 A JP 2008539872A JP WO2008047872 A1 JPWO2008047872 A1 JP WO2008047872A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- manipulator
- gripping
- image input
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008859 change Effects 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 claims description 5
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 238000012806 monitoring device Methods 0.000 abstract description 14
- 238000013459 approach Methods 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 49
- 230000008569 process Effects 0.000 description 24
- 238000012545 processing Methods 0.000 description 16
- 210000003857 wrist joint Anatomy 0.000 description 15
- 210000000245 forearm Anatomy 0.000 description 12
- 238000010276 construction Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 210000000707 wrist Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/20—Drives; Control devices
- E02F9/2025—Particular purposes of control systems not otherwise provided for
- E02F9/2033—Limiting the movement of frames or implements, e.g. to avoid collision between implements and the cabin
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Mining & Mineral Resources (AREA)
- Civil Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Structural Engineering (AREA)
- Manipulator (AREA)
Abstract
マニピュレータ(101)のアーム(103)に設けられた画像入力装置(2)により取得した把持部(102)周辺の画像と、把持部(102)とアーム(103)との間の関節(112)に設けられた角度センサ(122)により検出したマニピュレータ(101)の位置変化を基に、把持部(102)に把持された物体(109)の位置および形状を検出する。また、接触可能性判定装置(4)が、物体(109)の形状と位置を検出することで、周囲監視装置(3)により検出した周囲物体(108)の位置と比較して接触の可能性を判定する。また、物体(109)が周囲物体(108)と接触する可能性があればマニピュレータ(101)の移動を停止するか、又は警報手段5により把持物体(109)と周囲物体(108)の接近を警告する。
Description
本発明は、アームにより対象物を把持して位置決めや運搬を行うマニピュレータに関する。
マニピュレータは、人間の腕のように関節とアーム(腕)が組み合わされた装置であり、対象物を把持して位置決めや運搬を行う装置の総称である。マニピュレータは、一般に、対象物を把持する把持機構と把持機構を動かすアーム機構を備えており、アームの移動が自動制御されるものと、人が操作するものがある。アームが自動制御されるタイプのマニピュレータの例としては、工場において部品の搬送、組み立て等に用いられる産業用ロボットアームや、公共空間・オフィス・家庭内などで家事や介護などの作業を行うサービスロボットのアームなどがある。アームを人が操作するタイプのマニピュレータの例としては、大型・重量物を取り扱う建設機械や、宇宙環境や原子力施設などで使用されるマスタスレーブマニピュレータ、医療用の手術支援マニピュレータなどがある。
従来から、マニピュレータが周囲の物や人に接触することを防止する安全技術が提案されている。アーム型ロボットでは、ロボットアームの作業範囲の周囲に侵入検知センサなどを設け、障害物の進入を検知すると緊急停止するものが提案されている。また、建設機械では、作業員に赤外線発光器を装着させると共に、建設機械に赤外線受光器を取り付け、建設機械の周囲に設定した警報領域内に作業員が侵入すると、赤外線受光器で作業員を検知し、警告を発する建設機械の警報装置が提案されている。
一方、マニピュレータが把持している物体についても、周囲の物や人に対する接触を防止する必要がある。しかし、従来は、形状が予め与えられていない未知の物体を把持している場合に対応できる、把持物体の接触に関する安全技術は提案されていなかった。
未知の把持物体の周囲への接触を防止するためには、把持中の物体の寸法・形状を知る手段が必要となる。これに関連する技術としては、マニピュレータにより対象物を把持することを目的として、その対象物の形状に関する情報を得る技術がある。その技術として、アーム型ロボットに設けた視覚センサで取得した画像情報を基に、画像認識によって把持対象物を単純形状へと当てはめ、その大きさ、向きを算出し、それに基づいて把持方法を求め、任意形状物体を確実に把持する方法が提案されている。
特開2000−202790号公報には、アーム型ロボット本体に設けられている超音波センサが、周囲の移動物体を検出し、本体との距離が一定の範囲内になるとロボットアームの移動速度を減速制御するロボット装置が開示されている。
また、特開2005−128959号公報には、腕部ユニット等の可動部を学習対象物体に接触させて学習対象物体を動かすことで学習対象物体を示す物体領域画像を切り出し、その物体領域画像から特徴量を抽出して物体モデルデータベースに登録するロボット装置およびその学習方法が開示されている。ここで、対象物体の画像を抽出する手段は、撮像した画像から対象物体を動かす前後で変化のあった領域を抽出する方法を用いている。
従来は、マニピュレータが未知の物体を把持している場合に、把持物体が周囲の物や人に接触することを防止する、適当な安全技術は存在しなかった。また、上記従来の、画像認識によって把持対象物体の形状に関する情報を得る方法は、工場のような整備された環境には適用できるが、一般のオフィス・家庭内や屋外など、複雑な環境においては、画像に写っている背景の物体から把持対象物体を分離するのが難しいという問題がある。
より詳しく述べると、一般のオフィス・家庭内や屋外などの複雑な環境では、把持する対象物以外の周囲の物も動く可能性がある。特開2005−128959号公報のように、対象物が動いている場合に、対象物を画像の中から抽出する方法として、時刻の異なる複数の画像から、変化した部分を抽出する方法が知られているが、周囲の物も動く場合は、動いた背景の部分を対象物と誤認してしまうので、正しく対象物を抽出できない。
このように、未知の物体を安全に取り扱うためには、把持している物体を認識する必要があるが、従来技術では、一般の環境においては、把持対象物体を確実に認識するのは困難だった。このことは、オフィス・家庭用サービスロボットなど、未知の物体を扱う自動型のマニピュレータを持つロボットを実用化することを困難にしていた。また、建設機械など、操作型マニピュレータの場合は、操作者の注意力によって安全性を確保しなければならず、操作者の負担が大きかった。
本発明はかかる点に鑑みてなされたものであり、把持している物体も周囲の物体も任意に動きうる状況において、未知の把持物体の形状を確実に認識でき、認識した形状に基づいて作業を行い、かつ、把持物体が周囲の物・人に接触するのを防止し、それによって安全性を高めることができるマニピュレータを提供することを目的とする。
本発明のマニピュレータは、アームと、前記アームを駆動するアーム駆動手段と、前記アームに設けられた把持部と、前記把持部の周辺画像を取得する画像入力手段と、前記画像入力手段に対する前記把持部の相対位置を検出する把持部相対位置検出手段と、前記画像入力手段により取得された複数の画像と、前記把持部相対位置検出手段により検出された前記画像入力手段に対する前記把持部の相対位置とを記憶する記憶手段と、を有し、前記記憶手段に記憶された複数の画像と前記把持部の前記画像入力手段に対する相対位置に基づいて、前記把持物体の位置および形状を検出するものである。
本発明によれば、マニピュレータの把持物体の形状を認識して、その把持物体が周囲の物体に接触するのを防止して、マニピュレータの安全性を高めることができる。
以下、本発明の一実施の形態を、添付図面を参照して説明する。
図1に本実施例におけるマニピュレータの全体構成例を、図2に本実施例におけるマニピュレータのシステム構成例を示す。まず、図1を参照して、本実施例の全体構成例について説明する。
本実施例におけるマニピュレータ101は、ベース105と、ベースから直接に繋がっている複数のアーム(腕)103、104と、アームの先端に取り付けられた把持部102とを備えている。図1では、アームの数を2本としているが、それ以上設けてもよい。把持部102と、アーム103、104とベース105の間には、可動部である関節112、113、114がある。また、各関節には、関節を駆動するアクチュエータ132、133、134(図1では関節112、113、114と重ねて図示)と、可動部の変化量を測定するために関節112、113、114の角度を測定する角度センサ122、123、124(図1では関節112、113、114と重ねて図示)を備えている。ここで、関節は複数の回転自由度を持っていてもよく、その場合角度センサは複数の方向の回転角度を取得する。また、角度センサが取得した角度情報を入力し、アクチュエータを制御してマニピュレータ101を動かす制御装置106を備えている。制御装置106は、マニピュレータ101の用途、形状により、その設置位置はさまざまであるが、図1ではマニピュレータ101の近傍に記載した。
一般的に、マニピュレータは主にベースから直列に繋がるアームを用いて把持部の位置を制御し、先端のアームと把持部との間の関節を回転させることで、把持部の姿勢を制御する。ここでは、人の構造との対比から、把持部102の手前のアーム103を前腕103と呼ぶ。また、前腕103と把持部102の間の関節112を手首関節112と呼ぶ。手首関節112を回転させた場合も把持部102の先端の位置は動くが、把持部の長さはアーム103、104よりも短いため、位置の変化量は相対的に小さい。なお、手首関節に相当する部分が、複数の関節と短いアームから構成されている場合もあるが、ここではそれらをまとめて1個の手首関節と見なすことにする。
次に、図1および図2を参照して、本実施例におけるマニピュレータ101のシステム構成例について説明する。マニピュレータ101に搭載した本実施例のマニピュレータ101は、把持部102付近の物体の立体画像を取得する画像入力手段である画像入力装置2と、周囲の物体108などの位置を検出できる周囲監視手段である周囲監視装置3とを備える。本実施例では、画像入力装置2は前腕103に取り付け、周囲監視装置3は、画像入力装置2よりも広い範囲の周辺画像を取得できるよう、マニピュレータ101のベース105に設けている。画像入力装置2は把持部102付近の画像を取得できるのであればアーム104に設けても構わないが、間に関節113が入るためにできたら前腕(アーム)103に設けるのが好ましい。また、画像入力装置2に対する把持部102の装置位置・姿勢の変化を検出する把持部相対位置検出手段として、手首関節112の角度を測定する角度センサ122を用いる。また、画像入力装置2が取得した立体画像データと、制御装置106から取得した手首関節112の角度センサ122の角度情報を組み合わせて記憶する記憶手段である画像記憶部301を備えている。また、画像記憶手段301に記憶された複数の画像と把持部の相対位置・姿勢の情報を用いて、把持物体109の画像を抽出し、把持物体の位置および形状を検出する画像抽出部302を備えており、さらに、検出された把持物体109の位置および形状と、周囲監視装置3が検出した周囲物体108の位置の情報を基に、把持物体109と周囲物体108との接触する可能性を判定する接触可能性判定手段である接触可能性判定装置4と、接触の可能性を音・画像等で通知する警報手段である警報装置5を備えている。また、接触可能性判定装置4は、制御装置106に接触の可能性を通知することにより、マニピュレータの動作を制限させて接触を防止する。ここで、図1では、接触可能性判定装置4と警報装置5をマニピュレータ101や制御装置6とは分離して記載しているが、マニピュレータ101や制御装置6に組み込む構成としてもよい。
本実施例の画像入力装置2は、濃淡画像と、画像の各点までの距離情報からなる距離画像を取得する機能を有する。画像入力装置2としては、2台以上のカメラを用いて画像のずれにより距離を測定するステレオカメラや、レーザ光を1次元あるいは2次元に走査し、レーザ光が物体に当たって戻ってくるまでの往復時間により距離を測定するレーザレーダや、同じく光の往復時間により距離を測定可能な撮像素子を備える距離画像カメラや、これらの装置と通常の2次元のCCDカメラ等との組み合わせが使用できる。また、上記の画像入力装置を複数組み合わせて用いても良い。周囲監視装置3も画像入力装置2と同様に距離画像を取得する機能を有する。また、警報装置5としては、ブザー、ランプ、ディスプレイなどを使用する。
ここで、距離画像とは、画像処理技術の分野で用いられる用語であり、画像の画素ごとに物体までの距離の値を記憶したデータのことを意味する。通常の画像(濃淡画像)は、格子状に細かく分割された多数の方向に対する光の明るさ、すなわち、その方向に存在する物体で反射されてきた光の強さの情報を2次元の配列データとして記憶したものであるが、それに対して、距離画像は、画像中のそれぞれの点に対して、光りの明るさの代わりにその方向における物体までの距離を記憶している。つまり、距離画像は、物体までの距離を格納した2次元配列データであり、ステレオカメラなどの奥行き情報が得られるセンサの出力を格納するために一般的に用いられている。
マニピュレータ101は、把持部102によって対象となる把持物体109を把持している時に、把持物体109の位置・形状を認識できる機能を有している。以下は、把持物体109を把持していることを前提として説明する。把持物体109を把持する方法としては、自動型マニピュレータの場合は、例えば、画像入力装置2が取得した画像情報を基に形状の特徴を用いて画像認識することにより、対象となる把持物体109のなかの把持しやすい点の位置を計測し、把持部をその位置に位置決めすることで、把持物体109を把持する。また、操作型マニピュレータの場合は、操作者が目視で把持物体109の位置と形状を判断し、マニピュレータを手動操作で動かして把持物体109を把持する。
本実施例におけるマニュピレータ101は、把持物体109を把持している状態で、マニピュレータ101を動かし、把持部102付近の画像中での把持物体の動きを把持部102と画像入力装置2の相対位置の変化に基づいて把持物体109を予測して、その予測と同じ動きをしている部分を画像入力装置2の画像中から抽出することで、把持物体109を画像の中から信頼性高く抽出するというものである。
次に、図3を参照し、画像記憶部301、画像抽出部302および接触可能性判定装置4の動作について説明する。図3は、画像記憶部301、画像抽出部302および接触可能性判定装置4の処理例の全体概要を表すフローチャートである。
本処理は、マニピュレータ101の把持部102によって把持物体109を把持した時点で処理を開始する。まず、画像入力装置2から把持部102周辺の立体画像情報、すなわち、濃淡画像12と距離画像13を取得し、同時に、制御装置106を通じて、角度センサ122により計測された、手首関節112の角度14を取得して画像記憶部301に保存する(ステップS1)。これらのマニピュレータ101の移動前に取得された情報は、以降の処理において、濃淡画像12a、距離画像13a、手首関節角度14aで参照する。次に、把持物体109を移動させるために、マニピュレータ101が動き始め、把持部102が少し移動するまで待つ(ステップS2)。把持部102の移動後、画像入力装置2から把持部102周辺の濃淡画像12と距離画像13を取得し、制御装置106から手首関節112の角度14を取得して画像記憶部301に保存する(ステップS3)。これらの移動後に取得された情報は、以降の処理において、濃淡画像12b、距離画像13b、手首関節角度14bで参照する。次に、画像抽出部302により、ステップ1及びステップ3で取得した情報を基に、把持物体109の位置・形状を判定する(ステップS4)。次に、接触可能性判定装置4により、周囲監視装置3から周囲の物体の位置情報を取得し、ステップS4で判定した把持物体109の位置と比較することにより、把持物体109と周囲物体108との接触の可能性があるかを判定する(ステップS5)。ステップS5の接触可能性判定処理の結果を判断し(ステップS6)、接触の可能性がある場合は、警報装置5により警報を出力する(ステップS7)。警報出力方法としては、例えば、自動型マニピュレータの場合は、制御装置106に通知してマニピュレータを停止させ、操作型マニピュレータの場合は、音声出力や、警告ランプの点灯などにより、マニピュレータの操作者に伝える、などの方法が可能である。接触可能性判定処理の結果、接触の可能性のない場合は、次の処理へ進む。最後に、マニピュレータ101の把持部102が把持物体109を把持しているか否かを判定し(ステップS8)、物体を把持中の場合は、ステップS3で取得した濃淡画像12b、距離画像13b、手首関節112の角度14bの情報を移動前の情報に置き換えて保存し(ステップS9)、ステップS2の処理に戻って処理を繰り返し、把持物体と周囲の物体との接触可能性の監視を続ける。ステップS8で、把持部102が既に物体を把持していない場合は、処理を終了する。
上記の各処理について更に詳しく説明する。まず、図4のフローチャートを参照して画像抽出部302における把持物体の位置・形状判定処理(ステップS4)の処理例について説明する。
本処理では、ステップS1及びステップS3で取得した濃淡画像、距離画像、手首間接角度の情報を基に、把持物体109の位置・形状を判定する。まず、図6に示すように、移動後の濃淡画像12bと距離画像13b(図示せず)を格子状のブロックに分割する(ステップS31)。ブロックの大きさは、あらかじめ定めておく。ブロックは、小さいほど位置分解能が高まり、大きいほど後述の画像マッチングの精度が向上するという特徴があり、通常は5×5ピクセル(画素)ないし25×25ピクセル程度に設定する。なお、本実施例では、画像入力装置2を前腕103に取り付けているため、図5の濃淡画像例に示すように、前腕103が画像に写りこむ。把持部102が移動しても、画像の上では前腕103は常に同じ位置に見えるので、その部分(図5のハッチングの部分)はこれ以降の処理対象から除く。
次に、分割した移動後の濃淡画像12bのブロック情報をひとつ取り出し、ブロックB(i)として以下の処理を行う(ステップS32)。なお、以降の画像処理については、図6に示す画像処理例も参照して説明する。はじめに、ブロックB(i)に写っている点Q(i)の空間位置Pb(i)を求める(ステップS33)。すなわち、ブロックB(i)の中心に写っている物体の点をQ(i)とし、点Q(i)の画像上における位置(2次元座標)を求め、Rb(i)とする。そして、移動後の距離画像13bのブロックB(i)の内部の各画素が持つ距離情報を基に、各画素の距離の値を平均し、ブロックB(i)に写っている点Q(i)までの平均距離を求め、逆投影変換により、点Q(i)の画像入力装置2に対する相対的な3次元空間位置Pb(i)を求める(図6のJ1)。
次に、点Q(i)が把持部102に固定されていると仮定した時の移動前のQ(i)の空間位置Pa(i)を求める(ステップS34)。すなわち、点Q(i)が把持部102に固定されている把持物体109上の点と仮定し、手首関節112の角度14を、現在の移動後の手首角度14bから移動前の手首角度14aに回転させた時の3次元空間位置(画像入力装置2に対する相対位置)を座標変換により求め、これをPa(i)とする(図6のJ2)。次に、空間位置Pa(i)が、画像入力装置2の画像上に写る位置(2次元座標)Ra(i)を投影変換により求める(ステップS35)(図6のJ3)。なお、上記の空間位置Pa(i)も、Pb(i)と同様に画像入力装置2に対する相対位置である。
次に、移動後の濃淡画像12b上のブロックB(i)の画像と、移動前の濃淡画像12a上の位置Ra(i)を中心とする、ブロックと同じサイズの部分画像21を比較して、画像が一致するかどうかを判定する(ステップS36)。判定の結果、画像が一致した場合は(ステップS37)、ブロックB(i)に把持物体109上であることを示す把持物体マークを付ける(ステップS38)。
ここで、位置Ra(i)は、移動後の濃淡画像12b上のブロックB(i)に写っている点Q(i)が把持物体109の一部であると仮定した場合に、点Q(i)が移動前の濃淡画像12aに写る場所と推定される。そのため、もし点Q(i)が実際に把持物体109の一部であれば、ブロックB(i)の画像と部分画像21の画像が一致するはずである。逆に、もしQ(i)が仮定とは異なり、把持物体109の一部でなくて背景の物体だった場合には、画像は一致しない。これは、Q(i)が背景の物体だった場合は、マニピュレータ101の動作に伴って、前腕103に取り付けられた画像入力装置2の位置・姿勢が変化するので、点Q(i)は移動前濃淡画像12a上の位置Ra(i)とは異なる場所に現れるためである。このため、画像が一致した場合には、点Q(i)が把持物体109の一部であると判断できる。
なお、画像一致の判定には、正規化相関などの画像マッチングの手法を用いる。例えば、移動後の濃淡画像12b上のブロックB(i)の画像と、移動前の濃淡画像12a上の位置Ra(i)の部分画像21の正規化相関値を求め、その値が予め定めた閾値よりも大きい時は画像が一致したと判定する。
最後に、全てのブロックについて処理を行ったか否かを判定し(ステップS39)、まだ処理していないブロックがある場合は、上記のステップS32〜S38を繰り返し、全ブロックの処理を完了したら本処理を終了する。以上の処理により、把持物体上の点の3次元空間位置を検出でき、把持物体の位置・形状が分かる。
上記の画像抽出手順は、把持物体を把持している状態でマニピュレータを動かし、センサで計測した把持部と画像入力装置の相対位置を用いて、その時の画像中での把持物体の動きを予測して、その予測と同じ動きをしている部分を画像中から抽出することで、把持物体のみを画像の中から抽出するというものである。また、この方法は、見方を変えると、把持部102と画像入力装置2の相対位置を測定して、マニピュレータ101の移動の前後で、画像に写った把持部102が動かないように画像を変形し、そのように変形された画像同士を比較して、一致する部分を抽出することにより、把持部102に把持された把持物体109のみを画像の中から抽出する方法でもある。
次に、図3の接触可能性判定処理(ステップS5)の処理例について図7のフローチャートを参照して説明する。
この処理は、接触可能性判定装置4によって行われる。上述の画像抽出処理によって抽出された把持物体109上の点の位置と、周囲監視装置4から得られた周囲の物体の位置を比較し、近い点があった場合は、接触の可能性があると判定する。
まず、周囲監視装置3から周囲の物体の位置情報を得る(ステップS41)。次に、移動後の濃淡画像12b上のブロックB(i)のうち、把持物体マークが付けられているブロックを抽出する(ステップS42)。抽出した把持物体マークが付けられているブロックB(i)に対応する空間位置Pb(i)と、ステップS41で取得した周囲の物体の位置を比較する(ステップS43)。その結果、それらの距離が、予め定めた閾値よりも小さい場合は、位置が近いと判断し(ステップS44)、位置が近いブロックが1つでもあった場合には、把持物体109と周囲の物体に接触の可能性があるとして(ステップS45)、処理を終了する。ステップS44の判定の結果、位置は近くないと判断した場合は、把持物体マークが付けられている全てのブロックについて処理したかを判定し(ステップS46)、全てのブロックの処理が終了した場合は、接触可能性なしとして(ステップS47)、処理を終了する。まだ処理していないブロックがある場合は、上記のステップS42〜S44を繰り返す。
このように、本実施例のマニピュレータ101では、マニピュレータ101を動かした時の把持物体109と周囲物体108の画像上での動きの違いを利用して、画像マッチングにより画像中の把持物体109の部分を検出しているので、背景が複雑な場合や、背景の中に動く部分がある場合でも、確実に把持物体109の形状・位置を検出できる。そのため、一般の使用環境においても、把持物体109と周囲の物体との接近の可能性を確実に判定し、判定した結果を用いて把持物体109に接近する物体があれば、マニピュレータ101の操作者に警告することができる。
また、本実施例では、画像入力装置2をマニピュレータの前腕103に取り付けているので、把持物体109を常に視野の中心に捉えることができる。このため、画像入力装置2をベース105などに取り付けた場合に比べて、把持物体109が視野内(画像内)で大きく動かないので、把持物体109を確実に検出できるとともに、視野角を限定することができるので、高い解像度の情報が得られる。また、画像入力装置2と把持物体109までの距離が、把持部102に画像入力装置2を取り付ける場合と比較して適度に離れているので、把持物体109の全体の形状を容易に監視できる。一方、画像入力装置2を前腕103に取り付けているので、手首関節112が動くと把持物体109の像が視野内で動くという問題があるが、関節角度センサ122で得られた手首関節角度14の情報を用いて、把持物体109の視野内での移動を考慮して画像マッチング処理を行っているので、手首関節112が動いても把持物体109を正確に検出できる。
なお、本実施例では、画像入力装置2から取得した画像情報を基に検出した把持物体109の現在位置を用いて、周囲物体108との接近の状態を判定しているが、マニピュレータ101の運動から、把持物体109が今後の一定時間内に到着する位置を予測計算し、その位置での周囲物体108との接近の状態を調べることも可能である。これにより、事前に把持物体109と周囲物体108との接触の可能性を判定し、より早く警告を発することができるため、マニピュレータ101稼動時の安全性が高まる。
また、本実施例では、周囲監視装置3を画像入力装置2とは別に設けているが、周囲監視装置3を独立した装置として設ける代わりに、画像入力装置2に周囲物体108の画像を取得する機能を持たせることにより、周囲監視装置を兼ねる構成としても良い。また、接触可能性判定装置4に、あらかじめ製作された地図情報を格納しておき、その地図情報を参照して周囲の物の位置情報を取得してもよい。
具体的には、画像入力装置2に周囲物体108の画像を取得する機能を持たせる場合は、画像入力装置2により入力された立体画像の中から、上記の方法で抽出された把持物体109を除いた背景の中から周囲物体108を抽出し、その物体の3次元座標を記憶しておくようにする。抽出された把持物体109を除いた背景から周囲物体108を抽出するに際しては、周囲物体108はマニピュレータ101の動作により、基本的には位置を変えないので、画像入力装置2や周囲監視装置3により周囲の距離画像を得れば足りる。
また、本実施例では、画像入力装置2としてステレオカメラなどの立体画像センサを用いているが、その代わりに、簡易な構成として、CCD等の単眼のカメラを用いても良い。この場合は、奥行き情報が検出できないので、把持物体109が一定の距離にあると仮定して把持物体の検出および周囲との接触可能性の判定を行う。
あるいは、把持物体109が把持部102に固定された一つの仮想面の上にあると仮定することで、単眼カメラの像から距離を推定しても良い。その場合の仮想面は、把持物体109がある確率が高い場所にするのが良く、例えば、把持部102の先端を通り、把持部に直交する面に設定するのがよい。
また、本実施例では、画像入力装置2をマニピュレータの前腕103に取り付けているが、他の場所に取り付けることもできる。画像入力装置2をベース105に取り付けた場合は、図4に示す把持物体の位置・形状判定処理のフローチャートのステップS34において、手首以外の関節の角度変化も考慮して点Q(i)の移動前の空間位置Pa(i)を求めればよい。この場合は、把持物体109が視野内で大きく動くという問題はあるが、画像入力装置2の位置が固定されるので、構造が簡単になることや、画像入力装置2が周囲監視装置3を兼ねることができるという利点がある。一方、画像入力装置2を把持部102に取り付けた場合は、把持物体109が視野内で動かないので、ステップS34において点Q(i)の移動前の空間位置Pa(i)は移動後の位置Pb(i)と等しくすればよい。この場合は、把持物体109が画像入力装置2に近づきすぎるという問題はあるが、計算処理が簡単になるという利点がある。
更に、本実施例では、画像入力装置と把持部の相対位置関係を検出する、把持部相対位置検出手段として、手首関節の角度を測定する角度センサを用いているが、その代わりに、他の方法で画像入力装置と把持部の位置・姿勢を検出して相対位置関係を求めても良い。位置・姿勢を測定する方法には、アームの関節角度を計測する方法の他に、測定対象物を外部に置いたカメラで撮影して、位置・姿勢を求める方法などがある。
次に、本実施例のマニピュレータを建設機械に搭載した実施例を示す。図8は林業や解体作業などに使われる作業機械に、本実施例のマニピュレータを搭載した場合の構成例である。
本実施例による作業機械201は、マニピュレータとして、把持部であるグラップル202と、アーム203と、ブーム204を備えている。作業機械201は、グラップル202により物を掴んで解体・運搬等を行う用途に使用される。
本実施例のマニピュレータを構成する画像入力装置2は、前腕に相当するアーム203の底面に取り付けられている。この場所は、グラップル202との位置関係が大きく変わらず、かつグラップル202から適度に離れているので、グラップル202が把持している物体を捉えるのに適している。また、周囲監視装置3は広い視界をカバーするため、キャビン209の上部に取り付けられている。また、手首に相当する関節212には、手首角度センサとして角度センサ222が取り付けられている。本実施例では、接触可能性判定装置4と警報装置5をキャビン209の内部に設置するよう図示しているが、マニピュレータの操作に支障がなく、各装置との情報伝達が可能な場所であれば、他の場所に設置してもよい。
本実施例では、接触可能性判定装置4は、画像入力装置2により取得したグラップル202の周辺の立体画像と、角度センサ222から取得した関節212の角度を用いて、グラップル202が把持している物体を検出し、周囲監視装置3により検出された周囲の物体の位置と比較して、接触の可能性があるかを判定する。接触の可能性がある場合は、警報装置5により操作者に伝える。警報装置5が、操作者に対して接触の可能性を伝える方法は、音声や画像による通知方法に加えて、操作レバーに振動を与えるなどの方法がある。また、接触可能性判定装置4における処理に関する一連の画像情報を、図示しない表示手段により表示するようにしてもよい。
このように、本実施例のマニピュレータを適用することにより、操作者の負担を軽減することができる。また、本実施例のように、林業や解体作業、建設作業などのような障害物の多い複雑な作業環境において、事前に把持物体と周囲物体108との接触可能性を警告することにより、より安全、迅速に作業を行うことができる。
以上により本発明の実施例によれば、複雑な環境において未知の物体を把持している場合においても、マニピュレータの把持物体の形状を確実に認識でき、その把持物体が周囲の物体に接触するのを防止して、マニピュレータの安全性を高めることができる。
Claims (5)
- アームと、前記アームを駆動するアーム駆動手段と、前記アームに設けられた把持部と、前記把持部の周辺画像を取得する画像入力手段と、前記画像入力手段に対する前記把持部の相対位置を検出する把持部相対位置検出手段と、前記画像入力手段により取得された複数の画像と、前記把持部相対位置検出手段により検出された前記画像入力手段に対する前記把持部の相対位置とを記憶する記憶手段と、を有し、前記記憶手段に記憶された複数の画像と前記把持部の前記画像入力手段に対する相対位置に基づいて、前記把持物体の位置および形状を検出するマニピュレータ。
- 請求項1記載のマニピュレータにおいて、周囲の物体の位置を検出する周囲監視手段と、検出された前記把持物体の位置及び形状と、前記周囲監視手段により検出された周囲の物体の位置に基づいて、前記把持物体と前記周囲の物体との接触の可能性を判定する接触可能性判定手段と、前記接触可能性判定手段の判定結果に基づいて警報を発する警報手段と、を備えるマニピュレータ。
- 請求項1または請求項2記載のマニピュレータにおいて、前記画像入力手段は、前記マニピュレータのアームに設けられており、前記把持部相対位置検出手段は、前記画像入力手段が設けられたアームから前記把持部の間に設けられた可動部の変化量を検出する手段である、ことを特徴とするマニピュレータ。
- 請求項1ないし請求項3記載のマニピュレータにおいて、前記画像入力手段は、濃淡画像および距離画像を取得できる立体画像入力手段である、ことを特徴とするマニピュレータ。
- 請求項2記載のマニピュレータにおいて、前記接触可能性判定手段は、前記把持部相対位置検出手段により検出された把持部の相対位置の変化状態に基づいて、前記把持物体の将来の位置を予測し、前記周囲の物体との接触の可能性を判定する、ことを特徴とするマニピュレータ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006286419 | 2006-10-20 | ||
JP2006286419 | 2006-10-20 | ||
PCT/JP2007/070360 WO2008047872A1 (fr) | 2006-10-20 | 2007-10-18 | Manipulateur |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2008047872A1 true JPWO2008047872A1 (ja) | 2010-02-25 |
Family
ID=39314090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008539872A Pending JPWO2008047872A1 (ja) | 2006-10-20 | 2007-10-18 | マニピュレータ |
Country Status (3)
Country | Link |
---|---|
JP (1) | JPWO2008047872A1 (ja) |
CN (1) | CN101522377B (ja) |
WO (1) | WO2008047872A1 (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5164811B2 (ja) * | 2008-11-26 | 2013-03-21 | キヤノン株式会社 | 作業システム及び情報処理方法 |
JP2010271978A (ja) * | 2009-05-22 | 2010-12-02 | Nippon Telegr & Teleph Corp <Ntt> | 行動推定装置 |
JP5578844B2 (ja) | 2009-12-21 | 2014-08-27 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP4837116B2 (ja) * | 2010-03-05 | 2011-12-14 | ファナック株式会社 | 視覚センサを備えたロボットシステム |
JP5423520B2 (ja) * | 2010-03-24 | 2014-02-19 | 富士ゼロックス株式会社 | 位置計測システム、位置計測装置及び位置計測プログラム |
CN101870110B (zh) | 2010-07-01 | 2012-01-04 | 三一重工股份有限公司 | 一种机械铰接臂的控制方法及控制装置 |
JP5505138B2 (ja) * | 2010-07-05 | 2014-05-28 | 株式会社安川電機 | ロボット装置およびロボット装置による把持方法 |
DE102010043574A1 (de) * | 2010-11-08 | 2012-05-10 | Fresenius Medical Care Deutschland Gmbh | Manuell zu öffnender Klemmhalter mit Sensor |
DE102010063214A1 (de) * | 2010-12-16 | 2012-06-21 | Robert Bosch Gmbh | Sicherungseinrichtung für eine Handhabungsvorrichtung, insbesondere einen Industrieroboter, sowie Verfahren zum Betreiben der Sicherungseinrichtung |
US9469035B2 (en) * | 2011-06-29 | 2016-10-18 | Mitsubishi Electric Corporation | Component supply apparatus |
US9279661B2 (en) * | 2011-07-08 | 2016-03-08 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
US9437005B2 (en) * | 2011-07-08 | 2016-09-06 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
FR2982941B1 (fr) * | 2011-11-18 | 2020-06-12 | Hexagon Metrology Sas | Appareil de mesure comportant un bras a verrouillage indexe |
CN103192414B (zh) * | 2012-01-06 | 2015-06-03 | 沈阳新松机器人自动化股份有限公司 | 一种基于机器视觉的机器人防撞保护装置及方法 |
US9217636B2 (en) | 2012-06-11 | 2015-12-22 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and a computer-readable storage medium |
CN103101760A (zh) * | 2012-12-28 | 2013-05-15 | 长春大正博凯汽车设备有限公司 | 一种用于工件搬运的视觉搬运系统及其搬运方法 |
CN104416581A (zh) * | 2013-08-27 | 2015-03-18 | 富泰华工业(深圳)有限公司 | 具有报警功能的机械手 |
CN104802174B (zh) * | 2013-10-10 | 2016-09-07 | 精工爱普生株式会社 | 机器人控制系统、机器人、程序以及机器人控制方法 |
CN108602187A (zh) * | 2015-09-09 | 2018-09-28 | 碳机器人公司 | 机械臂系统和物体躲避方法 |
JP6572156B2 (ja) * | 2016-03-02 | 2019-09-04 | 株式会社神戸製鋼所 | 建設機械の干渉防止装置 |
CN105870814A (zh) * | 2016-03-31 | 2016-08-17 | 广东电网有限责任公司中山供电局 | 一种适用于10kV开关紧急分闸的操作装置 |
JP6548816B2 (ja) * | 2016-04-22 | 2019-07-24 | 三菱電機株式会社 | 物体操作装置及び物体操作方法 |
US11173599B2 (en) * | 2016-05-20 | 2021-11-16 | Google Llc | Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment |
CN111757796B (zh) * | 2018-02-23 | 2023-09-29 | 仓敷纺绩株式会社 | 线状物的前端移动方法、控制装置以及三维照相机 |
JP7210369B2 (ja) * | 2018-04-27 | 2023-01-23 | 新明和工業株式会社 | 作業車両 |
JP7000992B2 (ja) * | 2018-05-25 | 2022-01-19 | トヨタ自動車株式会社 | マニピュレータおよび移動ロボット |
CN108527374A (zh) * | 2018-06-29 | 2018-09-14 | 德淮半导体有限公司 | 应用于机械臂的防撞系统和方法 |
FI129250B (en) | 2018-07-12 | 2021-10-15 | Novatron Oy | Control system for controlling the machine tool |
JP7341837B2 (ja) * | 2019-10-10 | 2023-09-11 | 清水建設株式会社 | 建設作業用ロボット |
US20220362936A1 (en) * | 2021-05-14 | 2022-11-17 | Intelligrated Headquarters, Llc | Object height detection for palletizing and depalletizing operations |
CN113386135A (zh) * | 2021-06-16 | 2021-09-14 | 深圳谦腾科技有限公司 | 一种具有2d相机的机械手及其抓取方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05261692A (ja) * | 1992-03-17 | 1993-10-12 | Fujitsu Ltd | ロボットの作業環境監視装置 |
JP2005001022A (ja) * | 2003-06-10 | 2005-01-06 | Yaskawa Electric Corp | 物体モデル作成装置及びロボット制御装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63245387A (ja) * | 1987-03-30 | 1988-10-12 | 豊田工機株式会社 | ロボツトの視覚認識装置 |
JP2004243454A (ja) * | 2003-02-13 | 2004-09-02 | Yaskawa Electric Corp | ロボットの工具形状指定装置および工具干渉チェック装置 |
DE10319253B4 (de) * | 2003-04-28 | 2005-05-19 | Tropf, Hermann | Dreidimensional lagegerechtes Zuführen mit Roboter |
-
2007
- 2007-10-18 CN CN2007800378723A patent/CN101522377B/zh not_active Expired - Fee Related
- 2007-10-18 JP JP2008539872A patent/JPWO2008047872A1/ja active Pending
- 2007-10-18 WO PCT/JP2007/070360 patent/WO2008047872A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05261692A (ja) * | 1992-03-17 | 1993-10-12 | Fujitsu Ltd | ロボットの作業環境監視装置 |
JP2005001022A (ja) * | 2003-06-10 | 2005-01-06 | Yaskawa Electric Corp | 物体モデル作成装置及びロボット制御装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2008047872A1 (fr) | 2008-04-24 |
CN101522377B (zh) | 2011-09-14 |
CN101522377A (zh) | 2009-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2008047872A1 (ja) | マニピュレータ | |
CN114728417B (zh) | 由远程操作员触发的机器人自主对象学习的方法及设备 | |
JP7154815B2 (ja) | 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体 | |
US11090815B2 (en) | Robot, control device, and robot system | |
KR100773184B1 (ko) | 자율 이동로봇 | |
US8816874B2 (en) | Danger presentation device, danger presentation system, danger presentation method and program | |
CN101479082B (zh) | 机器人装置和机器人装置的控制方法 | |
JP5370127B2 (ja) | ロボットの干渉回避装置 | |
CN110856932B (zh) | 干涉回避装置以及机器人系统 | |
JP2021500668A (ja) | 監視装置、産業用設備、監視方法及びコンピュータプログラム | |
JP2010120139A (ja) | 産業用ロボットの安全制御装置 | |
KR101615687B1 (ko) | 충돌 예측 로봇 원격 제어 시스템 및 그 방법 | |
JP2009006410A (ja) | 遠隔操作支援装置および遠隔操作支援プログラム | |
US20200254610A1 (en) | Industrial robot system and method for controlling an industrial robot | |
US10987810B2 (en) | Robot system | |
JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
CN112012269A (zh) | 操纵辅助系统及方法、维护辅助方法以及建筑机械 | |
JP2005219161A (ja) | ロボット把持制御装置及びロボット把持制御システム | |
CN111113374A (zh) | 机器人系统 | |
KR102500684B1 (ko) | 로봇 청소기 및 로봇 청소기의 제어 방법 | |
KR102691989B1 (ko) | 협동 로봇 지능제어를 위한 모니터링 제어 시스템 | |
KR102690238B1 (ko) | 로봇의 자세 측정 방법 및 이를 이용한 로봇 시스템 | |
JP2023140945A (ja) | 検査装置および検査方法 | |
JP2022096933A (ja) | ロボットシステムの報知方法およびロボットシステム | |
JP2022064653A (ja) | 監視制御装置及び監視制御用プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110805 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120117 |