JP2005001022A - 物体モデル作成装置及びロボット制御装置 - Google Patents

物体モデル作成装置及びロボット制御装置 Download PDF

Info

Publication number
JP2005001022A
JP2005001022A JP2003164470A JP2003164470A JP2005001022A JP 2005001022 A JP2005001022 A JP 2005001022A JP 2003164470 A JP2003164470 A JP 2003164470A JP 2003164470 A JP2003164470 A JP 2003164470A JP 2005001022 A JP2005001022 A JP 2005001022A
Authority
JP
Japan
Prior art keywords
hand
model
object model
feature
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003164470A
Other languages
English (en)
Inventor
Toshimitsu Irie
俊充 入江
Masahito Tanaka
雅人 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2003164470A priority Critical patent/JP2005001022A/ja
Publication of JP2005001022A publication Critical patent/JP2005001022A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

【課題】把持部を含めた正しい物体モデルを作成することができる物体モデル作成装置を提供する。
【解決手段】請求項1に記載の発明は、対象物に関する物体モデルを作成する物体モデル作成装置において、視覚センサから取得される前記対象物と前記ハンドに関する3次元データから形状に関するハンド付き特徴を抽出して出力する特徴抽出手段と、前記ハンド付き特徴の内、前記ハンドに相当する部分を除去してハンド無し特徴を出力する第1のハンド除去手段と、前記対象物に関して作成し、保存する物体モデルと、前記ハンド無し特徴と、前記物体モデルとから、前記物体モデルに該当するモデルが存在しない場合には前記ハンド無し特徴を前記物体モデルに登録し、前記物体モデルに該当するモデルが存在する場合には前記物体モデルと前記ハンド無し特徴とを重ね合わせて前記物体モデルを更新する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、対象物に関する物体モデルを作成する物体モデル作成装置に関し、特に、ハンドによる把持部を同時に登録することのできる物体モデル作成装置に関する。また、それを用いたロボット制御装置に関する。
【0002】
【従来の技術】
従来より、コンピュータグラフィックス、CAD、ロボットビジョン等で利用するために、3次元の物体モデルを作成する技術が開示されている(例えば、特許文献1)。特許文献1では、複数の異なる観測方向から撮像されたステレオ画像から、ステレオビジョンによって復元した3次元情報を位置合わせして統合し、対象物の3次元モデルを作成する技術が開示されている。
【0003】
【特許文献1】
特許第2961264号公報
【0004】
以下では、特許文献1を例に、従来の物体モデルを作成する技術の概要を説明する。図9は、特許文献1に関する物体モデル生成方法のフローチャートである。図9において、S1からS9はフローチャートの各ステップで、D1、D2はフローチャートの各データである。
ステップS1では、2台または3台のカメラでステレオカメラを構成し、ある観測方向から、モデル作成対象となる対象物に関する画像(ステレオ画像)を入力する。ステップS2では、ステレオ画像からエッジを抽出して、直線や曲線のセグメントに分割する。ステップS3では、セグメントを対応の単位としてステレオ画像の対応付けを行い、輪郭線(エッジ)の3次元情報(データD1)を求める。一方、これらと並行して、ステップS4では、ステレオ画像の画素間の相関を求め、相関の高い画素を対応付けて、領域の3次元情報(データD2)を求める。ステップS5では、作成中の物体モデルの存在を判定する。存在する場合には、ステップS6で、既に登録されている物体モデルに、輪郭線の3次元情報(データD1)を位置合わせし、ステップS7で、輪郭線の3次元情報(データD1)と領域の3次元情報(データD2)を統合して物体モデルを更新する。ステップS5で、物体モデルが存在しない場合には、ステップS7で、輪郭線の3次元情報(データD1)と領域の3次元情報(データD2)を統合して物体モデルとして新規に登録する。ステップS8では、物体モデルの完成を判定する。完成している場合には、処理を終了し、完成していない場合には、ステップS9で、観測方向を移動し、ステップS1からS8までの処理を繰り返す。
【0005】
ところで、ステップS9の観測方向の移動と、ステップS6の物体モデルとの位置合わせについて、次のような3つの手法が開示されている。
(1)位置合わせ手法1
対象物を回転テーブルに載せ、回転テーブルを用いて観測方向の移動量を制御する。回転テーブルとステレオカメラとの位置関係は予めキャリブレーションされている。ステップS9の観測方向の移動は、回転テーブルを必要な量だけ回転することによって行う。ステップS6の物体モデルの位置合わせは、回転量から位置を演算して行う。
【0006】
(2)位置合わせ手法2
未知の観測方向からの3次元情報を位置合わせする。ステップS9の観測方向の移動は、ステレオカメラ、対象物のいずれかを移動することにより行う。ステップS6の物体モデルの位置合わせは、物体モデルと、新たに作成した輪郭線の3次元情報(データD1)とをマッチングして行う。そのため、ステップS9の観測方向の移動は、物体モデルと重複した輪郭線の3次元情報(データD1)が得られるように行う。
【0007】
(3)位置合わせ手法3
未知の観測方向の移動を検出しながら3次元情報を位置合わせする。ステップS9の観測方向の移動は、ステレオカメラ、対象物のいずれかを移動することにより行う。ステップS6の物体モデルの位置合わせは、物体モデルに指定した追跡点を追跡し、追跡点の微小移動量を演算して行う。
【0008】
【発明が解決しようとする課題】
ここで、ロボットビジョンの分野において、対象物の3次元モデルを作成する技術を必要とするビンピッキングシステムを考える。図5は、ビンピッキングシステムの説明図である。図5において、503は対象物、504はビンで、箱であるビン504の中に、対象物503がバラバラに多数積み込まれている。501は視覚センサで、ビン504内部を撮像または計測し、3次元データを出力する。502はデータ処理装置で、視覚センサ501で取得された3次元データを処理して、ビン504内部のいくつかの対象物503の位置・姿勢を演算すると共に、取り上げることのできる対象物503の候補を決定する。505はハンド、506はロボットで、ハンド505はロボット506の手先に装着されている。507はロボットコントローラで、データ処理装置502から得られた対象物503の候補をハンドで把持できる位置・姿勢にロボット506を移動させる。このようにして、ロボット506は、ビン504内部の対象物503を順次取り上げて行く。
【0009】
このようなビンピッキングシステムにおいては、データ処理装置502でビン504内部の対象物503の位置・姿勢を演算する際に、予め作成し、保存された対象物503に関する物体モデルを利用する。すなわち、データ処理装置502では、視覚センサ501で取得された3次元データから、対象物503に関する物体モデルをマッチング等の手段によって探索し、ビン504内部の対象物503の位置・姿勢を演算する。
【0010】
このビンピッキングシステムに、従来の技術で説明した特許文献1の物体モデルを作成する技術を適用すると、以下に示すような問題が挙げられる。
位置合わせ手法1においては、回転テーブルを用いるため、その分システムのコストが高価となるという問題がある。また、回転テーブルとステレオカメラ(視覚センサ501)との位置関係をキャリブレーションする必要があり、実際の現場にシステムを設置する場合には、大変手間が掛かるという問題がある。
【0011】
位置合わせ手法2または位置合わせ手法3においては、回転テーブルを用いないが、対象物503またはステレオカメラ(視覚センサ501)を移動させるための機構が別途必要となり、システムのコストが高価となるという問題がある。その機構を、図5に示したようなロボット506とハンド505とする場合も考えられるが、ハンド505が対象物503を隠してしまうため、対象物503全体の物体モデルが作成できない、または、ハンド505も含めてモデル化されてしまい正しい物体モデルが作成できないという問題がある。
【0012】
また、ロボット506のハンド505がビン504内部の対象物503を把持しに行く場合には、対象物503のどこを把持したら良いかという情報も必要であるが、特許文献1の技術では形状に関する物体モデルを作成する技術しか提供されていないという問題がある。
【0013】
そこで、本発明は、このような問題点に鑑みてなされたものであり、システムのコストを抑えた、手間の掛からない、把持部を含めた正しい物体モデルを作成することができる物体モデル作成装置を提供することを目的とする。また、この物体モデル作成装置を用いて、ロボットが操作対象とする物体を把持する等の作業が簡便に行えるようなロボット制御装置を提供することを目的とする。
【0014】
【課題を解決するための手段】
上記問題を解決するため、本発明を次のように構成した。
請求項1に記載の発明は、対象物と、前記対象物に関する3次元データを取得して出力する視覚センサとを備え、前記3次元データから前記対象物に関する物体モデルを作成する物体モデル作成装置において、前記対象物を把持するハンドと、前記ハンドを装着し、前記ハンドの位置・姿勢を変えるロボットと、前記ロボットに動作指令を供給し、前記ロボットの現在位置を取得し、前記ハンドの位置・姿勢を演算して出力するロボットコントローラと、前記視覚センサから取得される前記対象物と前記ハンドに関する3次元データから形状に関するハンド付き特徴を抽出して出力する特徴抽出手段と、前記ハンドに関して予め作成し、保存したハンドモデルと、前記ハンド付き特徴と、前記ハンドモデルと、前記ハンドの位置・姿勢とから、前記ハンド付き特徴の内、前記ハンドに相当する部分を除去してハンド無し特徴を出力する第1のハンド除去手段と、前記対象物に関して作成し、保存する物体モデルと、前記ハンドが前記対象物を把持するのに最適な部分(把持部)を把持している時にオンとするように構成した把持部登録選択手段と、前記ハンド無し特徴と、前記物体モデルとから、前記物体モデルに該当するモデルが存在しない場合には前記ハンド無し特徴を前記物体モデルに登録し、前記物体モデルに該当するモデルが存在する場合には前記物体モデルと前記ハンド無し特徴とを重ね合わせて前記物体モデルを更新し、前記把持部登録選択手段がオンの場合には前記把持部を前記物体モデルに登録するモデル作成手段と、を備えるものである。
【0015】
また、請求項2に記載の発明は、前記モデル作成手段は、前記物体モデルと前記ハンド無し特徴とを重ね合わせて前記物体モデルを更新する重ね合わせ手段と、前記物体モデルと前記ハンド無し特徴とをマッチングさせて前記物体モデルを更新するモデルマッチング手段と、前記ハンドによる前記対象物の把持に応じて、前記重ね合わせ手段と前記モデルマッチング手段の利用を選択するモデル作成選択手段と、から構成するものである。
【0016】
また、請求項3に記載の発明は、前記モデル作成手段は、前記モデルマッチング手段とするものである。
【0017】
また、請求項4に記載の発明は、前記第1のハンド除去手段は、前記ハンド付き特徴と、前記ハンドモデルと、前記ハンドの位置・姿勢とから、前記ハンド付き特徴の内、前記ハンドに相当する部分をマッチングさせて除去してハンド無し特徴を出力する第2のハンド除去手段とするものである。
【0018】
また、請求項5に記載の発明は、前記視覚センサは、固体撮像素子を利用したカメラを複数台、または、1台の前記カメラの位置を変えて利用し、前記3次元データを演算するものである。
【0019】
また、請求項6に記載の発明は、前記視覚センサは、前記対象物に光エネルギーを照射して受光し、受光位置から計測、または、前記光エネルギーの飛行時間を計測して前記3次元データを演算するものである。
【0020】
また、請求項7に記載の発明は、前記ロボットと前記ハンドは、実際の作業において、前記対象物を操作するロボットとハンドとするものである。
【0021】
また、請求項8に記載の発明は、前記特徴抽出手段の出力である対象物の特徴と前記物体モデルから操作対象となる前記対象物の位置・姿勢を演算して出力する対象物検出手段と請求項1から7までのいずれか1つに記載の物体モデル作成装置を備えてロボット制御装置を構成するものである。
【0022】
【発明の実施の形態】
以下、本発明の具体的実施の形態を図に基づいて説明する。なお従来技術の説明と共通する構成要素には同一の符号を付したので、その説明を割愛する。
本実施の形態では、図5に示したようなビンピッキングシステムにおいて、物体モデルを作成する技術について説明する。基本的な考え方は、ロボット506のハンド505に対象物503を把持させた状態で、対象物503を動かして視覚センサ501に見せ、逐次、物体モデルを作成すると共に、対象物503の把持部を登録するものである。
【0023】
(1)第1の実施の形態(請求項1記載の内容に相当)
第1の実施の形態について、図1を用いて説明する。図1は、第1の実施の形態に関わる物体モデル作成装置のブロック図である。図1において、ロボット506の手先に装着されたハンド505が、対象物503を把持し、視覚センサ501が対象物503とハンド505に関する3次元データ108を取得して出力するようになっている。また、ロボットコントローラ507は、ロボット506を動作させるための各軸指令111をロボット506に供給し、ロボット506の現在位置・姿勢情報として各軸位置112を入力する。ロボット506とハンド505との位置関係は予めキャリブレーションされているので、ロボットコントローラ507は、各軸位置112からハンドの位置・姿勢113を演算して出力する。
【0024】
101は特徴抽出手段であり、対象物503とハンド505に関する3次元データ108を入力し、エッジや三角メッシュ等の3次元形状を表す特徴を抽出して出力する。この特徴は、物体モデル107やハンドモデル106の形式と同等であれば良い。また、特徴の抽出は、広く知られている物体のモデル化技術を適用すれば良い。この段階では、ハンド505に関する特徴も含まれているので、特徴抽出手段101の出力はハンド付き特徴109となる。また、ハンド付き特徴109は、視覚センサ501に設置された座標系Σに関するものであり、とおく。
【0025】
106はハンドモデルで、ハンド505に関する3次元データから特徴抽出手段101と同様の処理で抽出した特徴を予め作成しておき、保存しておくものである。ハンドモデル106は、ハンド505に設置された座標系Σに関するものであり、Hとおく。尚、ハンドモデル106は、ハンド505に関するCADデータから、特徴抽出手段101と同等の特徴を求めるようにしても良い。
【0026】
102は第1のハンド除去手段で、ハンド付き特徴109と、ハンドモデル106と、ハンド位置・姿勢113を入力し、ハンド付き特徴109の内、ハンド505に相当する部分を除去してハンド無し特徴110を出力する。まず、視覚センサ501に設置された座標系Σに関するハンド付き特徴109()を下記の式を用いて、ハンド505に設置された座標系Σに関するものに変換する。
【0027】
(1)
【0028】
ここで、 Tは、ハンド505に設置された座標系Σから見たロボット5
06に設置された座標系Σの位置・姿勢を表す4行4列の同次変換行列で、ハンド位置・姿勢113から演算することができる。 Tは、ロボット506に設置された座標系Σから見た、視覚センサ501に設置された座標系Σの位置・姿勢を表す同次変換行列で、ロボット506と視覚センサ501との位置関係が予めキャリブレーションされているため固定値となる。すなわち、対象物503がある位置・姿勢の状態にあるハンド付き特徴109()が入力されると、これが、式(1)によりハンド505に設置された座標系Σに関するものに変換される。ハンドモデル106(H)も、同じハンド505に設置された座標系Σに関して表現されているため、ハンド付き特徴におけるハンド505各部の位置を知ることができる、すなわち、ハンド付き特徴における、ハンド505を構成する領域を知ることができる。第1のハンド除去手段では、演算されたハンド付き特徴から、ハンド505を構成する領域にある特徴を除去し、ハンド無し特徴110(F)として出力する。
【0029】
107は物体モデルで、本発明で作成対象とするものである。物体モデル107は、ハンドモデル106と同様、ハンド505に設置された座標系Σに関して表現されており、Mとおく。
【0030】
104は把持部登録選択手段で、物体モデル作成時に、ハンド505が対象物503を把持するのに最適な部分(把持部)を把持している時にオンとし、把持していない時にオフとする。オンの場合には把持部登録信号105を出力する。
【0031】
103はモデル作成手段で、ハンド無し特徴110と、物体モデル107を入力し、物体モデル107に、モデル作成対象となる対象物503に関する物体モデルが存在しない場合には、そのままハンド無し特徴110を対象物503に関する物体モデルとして登録する。既に対象物503に関する物体モデルが存在する場合には、ハンド無し特徴110(F)と物体モデル107(M)とを重ね合わせて対象物503に関する物体モデルを更新する。ハンド無し特徴110と物体モデル107とは、共にハンド505に設置された座標系Σに関して表現されているため、そのまま重ね合わせることができる。また、把持部登録選択手段104がオンの場合には、すなわち、把持部登録信号105が入力されている場合には、物体モデルの登録時または更新時に、物体モデル中の、ハンド505に設置された座標系Σを対象物503の把持部として物体モデル107に登録する。
【0032】
以上説明したように、本発明の第1の実施形態は、ロボット506の手先に装着されたハンド505が対象物503を把持し、視覚センサ501が対象物503とハンド505に関する3次元データ108を取得し、特徴抽出手段101が対象物503とハンド505に関する特徴(ハンド付き特徴109)を抽出し、第1のハンド除去手段102がハンド付き特徴109の内、ハンド505に相当する部分を除去してハンド無し特徴110を出力し、モデル作成手段103がハンド無し特徴110を用いて対象物503に関する物体モデルを登録し、ロボット506が対象物503の位置・姿勢を変更し、以上の処理を繰り返して物体モデル107を登録するので、回転テーブルや、対象物503または視覚センサ501を移動させるための機構を別途必要とせずに、また、ハンド505の部分を除いて対象物503に関する物体モデル107を作成することができ、システムのコストを抑え、手間を掛けずに、正しい物体モデルを作成することができる。
【0033】
また、把持部登録選択手段104が対象物503を把持するのに最適な部分(把持部)を把持している時にオンとなり、オンの時にモデル作成手段103が把持部を登録するので、対象物503の形状に関する物体モデル107と同時に把持部を登録することができる。
【0034】
(2)第2の実施の形態(請求項2記載の内容に相当)
第2の実施の形態について、図2を用いて説明する。図2は、第2の実施の形態に関わるモデル作成手段のブロック図である。本実施の形態は、図1を用いて説明した第1の実施の形態におけるモデル作成手段103を、モデル作成選択手段201と、重ね合わせ手段202と、モデルマッチング手段203とから構成するようにしたものである。
【0035】
図2において、202は重ね合わせ手段で、ハンド無し特徴110と、物体モデル107を入力し、物体モデル107に、モデル作成対象となる対象物503に関する物体モデルが存在しない場合には、そのままハンド無し特徴110を対象物503に関する物体モデルとして登録する。既に対象物503に関する物体モデルが存在する場合には、ハンド無し特徴110(F)と物体モデル107(M)とを重ね合わせて対象物503に関する物体モデルを更新する。ハンド無し特徴110と物体モデル107とは、共にハンド505に設置された座標系Σに関して表現されているため、そのまま重ね合わせることができる。
【0036】
203はモデルマッチング手段で、ハンド無し特徴110と、物体モデル107を入力し、物体モデル107に、モデル作成対象となる対象物503に関する物体モデルが存在しない場合には、そのままハンド無し特徴110を対象物503に関する物体モデルとして登録する。既に対象物503に関する物体モデルが存在する場合には、ハンド無し特徴110と物体モデル107とをマッチングさせて対象物503に関する物体モデルを更新する。マッチングは、現在取得したハンド無し特徴110が、物体モデル107のどの部分に対応するかを見つける処理である。物体モデル107と重複した部分が存在するように、対象物503を移動して3次元データ108を取得しているため、モデルマッチング手段203の処理によって重複部分を見つけることができる。重複部分が見つかった後、ハンド無し特徴110と物体モデル107とを重複部分が重なるように統合して対象物503に関する物体モデルを更新する。
【0037】
201はモデル作成選択手段で、ハンド505による対象物503の把持に応じて、重ね合わせ手段202とモデルマッチング手段203との利用を選択する。モデル作成選択手段201は、例えば、次のように用いる。
今、ある対象物503に関して物体モデル107の作成を開始したとする。ハンド505が対象物503の把持部を把持し、視覚センサ501に対象物503を見せる位置にロボット506が対象物503を移動させる。視覚センサ501が3次元データ108を取得し、一連の処理を行い、ハンド無し特徴110まで出力できたとする。モデル作成選択手段201は、重ね合わせ手段202を選択し、対象物503に関する物体モデルが存在しないので、このハンド無し特徴110を対象物503に関する物体モデルとして登録する。次に、ロボット506が対象物503の位置・姿勢を変え、視覚センサ501が3次元データ108を取得する。一連の処理を行い、ハンド無し特徴110まで出力する。モデル作成選択手段201は、重ね合わせ手段202を選択し、既に対象物503に関する物体モデルが存在するので、このハンド無し特徴110と物体モデル107とを重ね合わせて対象物503に関する物体モデルを更新する。以上の処理を繰り返し、物体モデル107を更新して行くが、ハンド505は対象物503の把持部を把持しているので、どこかのタイミングで、把持部登録選択手段104をオンにし、物体モデル中の、ハンド505に設置された座標系Σを対象物503の把持部として物体モデル107に登録する。この間、モデル作成選択手段201は、重ね合わせ手段202を選択し続けている。
【0038】
次に、ハンド505に対象物503を持ち替えさせ、対象物503の把持部でない部分を把持させ、上と同様に、3次元データ108の取得から、ハンド無し特徴110の出力までを行う。これは、ハンド505が対象物503の把持部を把持したままだと、把持部をハンド505が隠してしまう可能性があり、把持部の3次元データ108が良好に取得できない場合には、把持部に関する物体モデル107が正確に作成できない可能性があるためである。この時、モデル作成選択手段201は、モデルマッチング手段203を選択し、既に対象物503に関する物体モデルが存在するので、ハンド無し特徴110と物体モデル107とをマッチングさせて対象物503に関する物体モデルを更新する。対象物503の把持部に関する物体モデル107の精度を向上させたい場合には、ロボット506が対象物503の位置・姿勢を変え、同様の処理を繰り返す。この間、モデル作成選択手段201は、モデルマッチング手段203を選択し続けている。
【0039】
モデル作成選択手段201についてまとめると、ハンド505が対象物503を持ち替えるまでは重ね合わせ手段202を選択し、持ち替えた後はモデルマッチング手段203を選択する。これは、物体モデル107がハンド505に設置された座標系Σに関して表現されており、持ち替えるまでは、この同じ座標系Σで表現されているハンド無し特徴110を重ね合わせることができるが、持ち替えた後のハンド無し特徴110は、同様にハンド505に設置された座標系Σに関して表現されているが、対象物503から見た場合、持ち替える前の座標系Σとは位置・姿勢が異なっているため、そのまま重ね合わせることができない。従って、モデルマッチング手段203によって、ハンド無し特徴110が物体モデル107のどの部分に対応するかを見つけることによって、物体モデル107を更新するのである。
【0040】
以上説明したように、本発明の第2の実施形態は、モデル作成手段103に、重ね合わせ手段202とモデルマッチング手段203を備え、ハンド505が対象物503を持ち替えた場合には、モデル作成選択手段201が処理を切り替えるので、ハンド505が対象物503を隠してしまっても、持ち替えて適切な処理を選択することができ、対象物503全体の正しい物体モデルを作成することができる。
【0041】
(3)第3の実施の形態(請求項3記載の内容に相当)
第3の実施の形態について、図3を用いて説明する。図3は、第3の実施の形態に関わる物体モデル作成装置のブロック図である。本実施の形態は、図1を用いて説明した第1の実施の形態におけるモデル作成手段103を、モデルマッチング手段203に置き換えたものである。
モデルマッチング手段203は、図2を用いて第2の実施の形態で説明したように、ハンド無し特徴110と、物体モデル107を入力し、物体モデル107に、モデル作成対象となる対象物503に関する物体モデルが存在しない場合には、そのままハンド無し特徴110を対象物503に関する物体モデルとして登録する。既に対象物503に関する物体モデルが存在する場合には、ハンド無し特徴110と物体モデル107とをマッチングさせて対象物503に関する物体モデルを更新する。
【0042】
すなわち、本実施の形態は、第1や第2の実施形態のように、ハンド無し特徴110と物体モデル107とを重ね合わせることを行わず、全て、現在取得したハンド無し特徴110が、物体モデル107のどの部分に対応するかを見つける処理を行うようにするものである。これにより、ハンド505の対象物503の持ち替えにも対応でき、重ね合わせ手段202やモデル作成選択手段201が不要となるため、簡素な構成となる。
【0043】
以上説明したように、本発明の第3の実施形態は、モデル作成手段103を、モデルマッチング手段203に置き換えて、ハンド無し特徴110と物体モデル107とをマッチングさせて対象物503に関する物体モデルを更新するので、ハンド505が対象物503を隠してしまっても、対象物503全体の正しい物体モデルを作成することができる。また、重ね合わせ手段202やモデル作成選択手段201が不要となるため、簡素に物体モデル作成装置を構成することができる。
【0044】
(4)第4の実施の形態(請求項4記載の内容に相当)
第4の実施の形態について、図4を用いて説明する。図4は、第4の実施の形態に関わる物体モデル作成装置のブロック図である。本実施の形態は、図1を用いて説明した第1の実施の形態における第1のハンド除去手段102を、第2のハンド除去手段401に置き換えたものである。
【0045】
図4において、401は第2のハンド除去手段で、ハンド付き特徴109と、ハンドモデル106と、ハンド位置・姿勢113を入力し、ハンド付き特徴109の内、ハンド505に相当する部分をマッチングさせて除去してハンド無し特徴110を出力する。第1のハンド除去手段102が、ハンド位置・姿勢113から、ハンド付き特徴109を式(1)を用いて、ハンド505に設置された座標系Σに関するハンド付き特徴に変換してハンド505を構成する領域にある特徴を除去し、ハンド無し特徴110として出力するのに対し、第2のハンド除去手段401は、同様に変換した、ハンド505に設置された座標系Σに関するハンド付き特徴と、ハンドモデル106とをマッチングさせて、ハンド付き特徴からハンド505の部分を探索し、ハンド505を構成する領域にある特徴を除去し、ハンド無し特徴110として出力する。マッチングは、ハンドモデル106が、現在取得したハンド付き特徴のどの部分に対応するかを見つける処理である。
【0046】
すなわち、本実施の形態は、第1の実施形態のように、ハンド付き特徴109の内、ハンド505に相当する部分を除去するが、同様の作用でありながら別の手法を提供するものである。
【0047】
以上説明したように、本発明の第4の実施形態は、第2のハンド除去手段102がハンド付き特徴109の内、ハンド505に相当する部分を除去してハンド無し特徴110を出力するので、ハンド505の部分を除いて対象物503に関する物体モデル107を作成することができ、正しい物体モデルを作成することができる。
【0048】
(5)第5の実施の形態(請求項5、6記載の内容に相当)
第5の実施の形態について、次に説明する。
本発明で用いる視覚センサ501は、3次元データを取得して出力するものであるが、その機能を満足すれば良く、手段を限定しない。
例えば、固体撮像素子を利用したタイプの、CCDカメラやCMOSカメラに代表されるカメラを、複数台用いてステレオカメラを構成しても良いし、1台のカメラで、その位置を変えることで擬似的にステレオカメラを構成するようにしても良い。また、光エネルギーを照射して受光し、受光位置から計測、または、光エネルギーの飛行時間を計測して3次元データを演算・出力するタイプの、レーザレンジファインダに代表される装置を利用しても良い。
【0049】
以上説明したように、本発明の第5の実施形態は、視覚センサ501として3次元データ108を取得して出力する機能を満足していれば、その手段を限定しないため、容易に物体モデル作成装置を構成することができる。
【0050】
(6)第6の実施の形態(請求項7記載の内容に相当)
第6の実施の形態について、次に説明する。
本発明で用いるハンド505は、対象物503を把持し、ロボット506は、対象物503の表面全体に関する3次元データ108が取得できるように、対象物503を移動させて視覚センサ501の視野に入れ、物体モデル107を作成する。一方、ロボット506とハンド505は、図5に示したように、ビン504内部の対象物503を順次取り上げて行くようなビンピッキング作業等も実行する。すなわち、実際の作業を実行するロボット506を、物体モデル107を作成する際に、用いれば良い。
【0051】
以上説明したように、本発明の第6の実施形態は、実際の作業において利用するロボット506とハンド505を、物体モデル107を作成する際のロボットとハンドとして利用することができるため、回転テーブルや、対象物503または視覚センサ501を移動させるための機構を別途必要とせず、システムのコストを抑えた物体モデル作成装置を構成することができる。
尚、以上説明した実施の形態では、物体モデル107の基本となる座標系を、ハンド505に設置された座標系Σとしてきたが、本発明はこれに限定されるものではなく、物体モデル107を登録・更新するにあたって統一した座標系で、ハンド505と位置関係がキャリブレーションされている座標系であれば、他の座標系を基本としても良い。
【0052】
また、第2の実施の形態において、モデル作成手段103を、重ね合わせ手段202とモデルマッチング手段203との利用を選択するように構成したが、本発明はこれに限定されるものではなく、例えば、重ね合わせ手段202の処理の後に、モデルマッチング手段203の処理を行うようにして、モデルマッチング手段203で、重ね合わせ手段202の処理をして良いかどうかの確認を行うようにしても良い。この場合、重ね合わせ手段202の精度が向上し、結果として物体モデル107の精度が向上する。
【0053】
(7)第7の実施の形態(請求項8記載の内容に相当)
第7の実施の形態について、図6から8までを用いて説明する。図6から8までは、それぞれ、第1の実施形態の物体モデル作成装置、第3の実施形態の物体モデル作成装置、第4の実施形態の物体モデル作成装置を用いたロボット制御装置のブロック図である。本実施の形態は、図1、図3、図4を用いて説明した第1、第3、第4の実施の形態における物体モデル作成装置に、対象物検出手段601を付加したものである。
【0054】
すなわち、本実施の形態は、ロボット506のハンド505に対象物503を把持させた状態で、対象物503を動かして視覚センサ501に見せ、本発明の物体モデル作成装置を用いて物体モデル107の作成と対象物503把持部の登録をオフラインで行い、ビン504の中のバラバラに積まれた対象物503をロボット506が取り上げるような作業をオンラインで行う際、本発明の物体モデル作成装置で作成した物体モデル107を用いてビンピッキング等の作業を行うロボット制御装置を構成するものである。
【0055】
図6から8までにおいて、特徴抽出手段101は、物体モデル107作成のオフライン時に、対象物503とハンド505に関する3次元データ108を入力し、エッジや三角メッシュ等の3次元形状を表す特徴をハンド付き特徴109として抽出して出力する一方、オンラインでの作業時には、対象物503に関する3次元データ108を入力し、エッジや三角メッシュ等の3次元形状を表す特徴を対象物特徴602として抽出して出力する。オフライン時でもオンライン時でも、3次元形状を表す特徴を抽出して出力する点で、機能的には同等である。
【0056】
601は対象物検出手段で、対象物特徴602と、物体モデル107を入力し、操作対象となる対象物503の位置・姿勢603を演算して出力する。まず、操作対象となる対象物503に関する物体モデル107を読み出し、それが、対象物特徴602のどこに存在するかをマッチングさせて検出する。対象物503はバラバラに積まれているため、対象物特徴602は、多数の対象物503に関する特徴を持っている。その中からマッチングの度合いが高いものを抽出してその位置・姿勢を演算する。但し、ここで演算された位置・姿勢は、視覚センサ501に設置された座標系Σに関する対象物503の位置・姿勢( T)なので、次に、これをロボット506に設置された座標系Σに関する位置・姿勢( T)に変換する。これは、予めキャリブレーションされて既知となっている、ロボット506に設置された座標系Σから見た、視覚センサ501に設置された座標系Σの位置・姿勢 Tを用いて、下式によって求まる。
【0057】
T= T (2)
【0058】
これを対象物位置・姿勢603として、ロボットコントローラ507に出力する。
【0059】
ロボットコントローラ507は、対象物位置・姿勢603から各軸指令111を演算して出力し、ロボット506を移動させる。ハンド505は、バラバラに積まれた対象物503の中から操作対象だけを把持し、取り上げる。
【0060】
以上説明したように、本発明の第7の実施形態は、本発明の物体モデル作成装置を用いてモデル作成のオフライン時に物体モデル107を作成し、実際の作業を行うオンライン時には、対象物検出手段601が操作対象となる対象物503の位置・姿勢603を演算して出力するので、本発明の物体モデル作成装置に、対象物検出手段601を加えるだけで、簡便にロボット制御装置を構成することができる。
【0061】
【発明の効果】
以上述べたように、本発明の請求項1に記載の物体モデル作成装置によれば、ロボットの手先に装着されたハンドが対象物を把持し、視覚センサが対象物とハンドに関する3次元データを取得し、特徴抽出手段が対象物とハンドに関する特徴(ハンド付き特徴)を抽出し、第1のハンド除去手段がハンド付き特徴の内、ハンドに相当する部分を除去してハンド無し特徴を出力し、モデル作成手段がハンド無し特徴を用いて対象物に関する物体モデルを登録し、ロボットが対象物の位置・姿勢を変更し、以上の処理を繰り返して物体モデルを登録するので、回転テーブルや、対象物または視覚センサを移動させるための機構を別途必要とせずに、また、ハンドの部分を除いて対象物に関する物体モデルを作成することができ、システムのコストを抑え、手間を掛けずに、正しい物体モデルを作成することができるという効果がある。
【0062】
また、把持部登録選択手段が対象物を把持するのに最適な部分(把持部)を把持している時にオンとなり、オンの時にモデル作成手段が把持部を登録するので、対象物の形状に関する物体モデルと同時に把持部を登録することができるという効果がある。
【0063】
また、本発明の請求項2に記載の物体モデル作成装置によれば、モデル作成手段に、重ね合わせ手段とモデルマッチング手段を備え、ハンドが対象物を持ち替えた場合には、モデル作成選択手段が処理を切り替えるので、ハンドが対象物を隠してしまっても、持ち替えて適切な処理を選択することができ、対象物全体の正しい物体モデルを作成することができるという効果がある。
【0064】
また、本発明の請求項3に記載の物体モデル作成装置によれば、モデル作成手段を、モデルマッチング手段に置き換えて、ハンド無し特徴と物体モデルとをマッチングさせて対象物に関する物体モデルを更新するので、ハンドが対象物を隠してしまっても、対象物全体の正しい物体モデルを作成することができるという効果がある。また、重ね合わせ手段やモデル作成選択手段が不要となるため、簡素に物体モデル作成装置を構成することができるという効果がある。
【0065】
また、本発明の請求項4に記載の物体モデル作成装置によれば、第2のハンド除去手段がハンド付き特徴の内、ハンドに相当する部分を除去してハンド無し特徴を出力するので、ハンドの部分を除いて対象物に関する物体モデルを作成することができ、正しい物体モデルを作成することができるという効果がある。
【0066】
また、本発明の請求項5または6に記載の物体モデル作成装置によれば、視覚センサとして3次元データを取得して出力する機能を満足していれば、その手段を限定しないため、容易に物体モデル作成装置を構成することができるという効果がある。
【0067】
また、本発明の請求項7に記載の物体モデル作成装置によれば、実際の作業において利用するロボットとハンドを、物体モデルを作成する際のロボットとハンドとして利用することができるため、回転テーブルや、対象物または視覚センサを移動させるための機構を別途必要とせず、システムのコストを抑えた物体モデル作成装置を構成することができるという効果がある。
【0068】
また、本発明の請求項8に記載の物体モデル作成装置によれば、本発明の物体モデル作成装置を用いてモデル作成のオフライン時に物体モデルを作成し、実際の作業を行うオンライン時には、対象物検出手段が操作対象となる対象物の位置・姿勢を演算して出力するので、本発明の物体モデル作成装置に、対象物検出手段を加えるだけで、簡便にロボット制御装置を構成することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に関わる物体モデル作成装置のブロック図
【図2】本発明の第2の実施形態に関わるモデル作成手段のブロック図
【図3】本発明の第3の実施形態に関わる物体モデル作成装置のブロック図
【図4】本発明の第4の実施形態に関わる物体モデル作成装置のブロック図
【図5】ビンピッキングシステムの説明図
【図6】本発明の第7の実施形態に関わる第1の実施形態の物体モデル作成装置を用いたロボット制御装置のブロック図
【図7】本発明の第7の実施形態に関わる第3の実施形態の物体モデル作成装置を用いたロボット制御装置のブロック図
【図8】本発明の第7の実施形態に関わる第4の実施形態の物体モデル作成装置を用いたロボット制御装置のブロック図
【図9】従来の物体モデル生成方法のフローチャート
【符号の説明】
101 特徴抽出手段、102 第1のハンド除去手段、103 モデル作成手段、104 把持部登録選択手段、105 把持部登録信号、106 ハンドモデル、107 物体モデル、108 3次元データ、109 ハンド付き特徴、110 ハンド無し特徴、111 各軸指令、112 各軸位置、113 ハンド位置・姿勢、201 モデル作成選択手段、202 重ね合わせ手段、203モデルマッチング手段、401 第2のハンド除去手段、501 視覚センサ、502 データ処理装置、503 対象物、504 ビン、505 ハンド、506 ロボット、507 ロボットコントローラ、601 対象物検出手段、602 対象物特徴、603 対象物位置・姿勢

Claims (8)

  1. 対象物と、前記対象物に関する3次元データを取得して出力する視覚センサとを備え、前記3次元データから前記対象物に関する物体モデルを作成する物体モデル作成装置において、
    前記対象物を把持するハンドと、
    前記ハンドを装着し、前記ハンドの位置・姿勢を変えるロボットと、
    前記ロボットに動作指令を供給し、前記ロボットの現在位置を取得し、前記ハンドの位置・姿勢を演算して出力するロボットコントローラと、
    前記視覚センサから取得される前記対象物と前記ハンドに関する3次元データから形状に関するハンド付き特徴を抽出して出力する特徴抽出手段と、
    前記ハンドに関して予め作成し、保存したハンドモデルと、
    前記ハンド付き特徴と、前記ハンドモデルと、前記ハンドの位置・姿勢とから、前記ハンド付き特徴の内、前記ハンドに相当する部分を除去してハンド無し特徴を出力する第1のハンド除去手段と、
    前記対象物に関して作成し、保存する物体モデルと、
    前記ハンドが前記対象物を把持するのに最適な部分(把持部)を把持している時にオンとするように構成した把持部登録選択手段と、
    前記ハンド無し特徴と、前記物体モデルとから、前記物体モデルに該当するモデルが存在しない場合には前記ハンド無し特徴を前記物体モデルに登録し、前記物体モデルに該当するモデルが存在する場合には前記物体モデルと前記ハンド無し特徴とを重ね合わせて前記物体モデルを更新し、前記把持部登録選択手段がオンの場合には前記把持部を前記物体モデルに登録するモデル作成手段と、
    を備えることを特徴とする物体モデル作成装置。
  2. 前記モデル作成手段は、
    前記物体モデルと前記ハンド無し特徴とを重ね合わせて前記物体モデルを更新する重ね合わせ手段と、
    前記物体モデルと前記ハンド無し特徴とをマッチングさせて前記物体モデルを更新するモデルマッチング手段と、
    前記ハンドによる前記対象物の把持に応じて、前記重ね合わせ手段と前記モデルマッチング手段の利用を選択するモデル作成選択手段と、
    から構成することを特徴とする請求項1記載の物体モデル作成装置。
  3. 前記モデル作成手段は、前記モデルマッチング手段とすることを特徴とする請求項1記載の物体モデル作成装置。
  4. 前記第1のハンド除去手段は、前記ハンド付き特徴と、前記ハンドモデルと、前記ハンドの位置・姿勢とから、前記ハンド付き特徴の内、前記ハンドに相当する部分をマッチングさせて除去してハンド無し特徴を出力する第2のハンド除去手段とすることを特徴とする請求項1から3までのいずれか1つに記載の物体モデル作成装置。
  5. 前記視覚センサは、固体撮像素子を利用したカメラを複数台、または、1台の前記カメラの位置を変えて利用し、前記3次元データを演算することを特徴とする請求項1から4までのいずれか1つに記載の物体モデル作成装置。
  6. 前記視覚センサは、前記対象物に光エネルギーを照射して受光し、受光位置から計測、または、前記光エネルギーの飛行時間を計測して前記3次元データを演算することを特徴とする請求項1から4までのいずれか1つに記載の物体モデル作成装置。
  7. 前記ロボットと前記ハンドは、実際の作業において、前記対象物を操作するロボットとハンドとすることを特徴とする請求項1から6までのいずれか1つに記載の物体モデル作成装置。
  8. 前記特徴抽出手段の出力である対象物の特徴と前記物体モデルから操作対象となる前記対象物の位置・姿勢を演算して出力する対象物検出手段と請求項1から7までのいずれか1つに記載の物体モデル作成装置を備えることを特徴とするロボット制御装置。
JP2003164470A 2003-06-10 2003-06-10 物体モデル作成装置及びロボット制御装置 Pending JP2005001022A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003164470A JP2005001022A (ja) 2003-06-10 2003-06-10 物体モデル作成装置及びロボット制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003164470A JP2005001022A (ja) 2003-06-10 2003-06-10 物体モデル作成装置及びロボット制御装置

Publications (1)

Publication Number Publication Date
JP2005001022A true JP2005001022A (ja) 2005-01-06

Family

ID=34091225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003164470A Pending JP2005001022A (ja) 2003-06-10 2003-06-10 物体モデル作成装置及びロボット制御装置

Country Status (1)

Country Link
JP (1) JP2005001022A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001793A1 (fr) * 2006-06-27 2008-01-03 Toyota Jidosha Kabushiki Kaisha Dispositif de robot et son procédé de commande
EP2045772A2 (en) 2007-03-30 2009-04-08 Fanuc Ltd Apparatus for picking up objects
JPWO2008047872A1 (ja) * 2006-10-20 2010-02-25 株式会社日立製作所 マニピュレータ
JP2011245569A (ja) * 2010-05-25 2011-12-08 Ihi Corp 切削部を有するワークの把持装置及び把持方法
JP2012101320A (ja) * 2010-11-10 2012-05-31 Canon Inc 画像生成装置、画像生成方法、およびプログラム
WO2012093473A1 (ja) * 2011-01-05 2012-07-12 財団法人機械振興協会 工具衝突防止システム及び工具衝突防止方法
JP2014206910A (ja) * 2013-04-15 2014-10-30 オークマ株式会社 数値制御装置
JP2017120515A (ja) * 2015-12-28 2017-07-06 株式会社ニイガタマシンテクノ 制御用データ生成方法および制御用データ生成装置
JP2018144152A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001793A1 (fr) * 2006-06-27 2008-01-03 Toyota Jidosha Kabushiki Kaisha Dispositif de robot et son procédé de commande
JP2008006519A (ja) * 2006-06-27 2008-01-17 Toyota Motor Corp ロボット装置及びロボット装置の制御方法
US20090208094A1 (en) * 2006-06-27 2009-08-20 Hirohito Hattori Robot apparatus and method of controlling same
CN101479082B (zh) * 2006-06-27 2011-07-13 丰田自动车株式会社 机器人装置和机器人装置的控制方法
JPWO2008047872A1 (ja) * 2006-10-20 2010-02-25 株式会社日立製作所 マニピュレータ
EP2045772A2 (en) 2007-03-30 2009-04-08 Fanuc Ltd Apparatus for picking up objects
US8098928B2 (en) 2007-03-30 2012-01-17 Fanuc Ltd Apparatus for picking up objects
JP2011245569A (ja) * 2010-05-25 2011-12-08 Ihi Corp 切削部を有するワークの把持装置及び把持方法
JP2012101320A (ja) * 2010-11-10 2012-05-31 Canon Inc 画像生成装置、画像生成方法、およびプログラム
US9118823B2 (en) 2010-11-10 2015-08-25 Canon Kabushiki Kaisha Image generation apparatus, image generation method and storage medium for generating a target image based on a difference between a grip-state image and a non-grip-state image
WO2012093473A1 (ja) * 2011-01-05 2012-07-12 財団法人機械振興協会 工具衝突防止システム及び工具衝突防止方法
JP5161373B2 (ja) * 2011-01-05 2013-03-13 一般財団法人機械振興協会 工具衝突防止システム及び工具衝突防止方法
JP2014206910A (ja) * 2013-04-15 2014-10-30 オークマ株式会社 数値制御装置
US9696714B2 (en) 2013-04-15 2017-07-04 Okuma Corporation Numerical controller for controlling a tool and distinguished workpiece and jig
JP2017120515A (ja) * 2015-12-28 2017-07-06 株式会社ニイガタマシンテクノ 制御用データ生成方法および制御用データ生成装置
JP2018144152A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器

Similar Documents

Publication Publication Date Title
JP4506685B2 (ja) 移動型ロボット
JP5810562B2 (ja) 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置
JP5852364B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5200772B2 (ja) ロボット装置の制御方法及びロボット装置
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
JP2011110621A (ja) ロボットの教示データを作成する方法およびロボット教示システム
JP5471355B2 (ja) 3次元視覚センサ
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US20110142353A1 (en) Device method and program for human hand posture estimation
JP2010112859A (ja) ロボットシステム、ロボット制御装置およびロボット制御方法
JP2008015683A (ja) ロボットプログラムを作成するための装置、プログラム、記録媒体及び方法
JP2015176217A (ja) 画像処理装置、システム、画像処理方法、および画像処理プログラム
JP2009157430A (ja) 座標補正方法、座標補正プログラム、及び自律移動ロボット
JP2005001022A (ja) 物体モデル作成装置及びロボット制御装置
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
KR20100062320A (ko) 영상 데이터를 이용한 로봇 움직임 데이터 생성 방법 및 생성 장치
JP4849178B2 (ja) 移動型ロボット
JP6973444B2 (ja) 制御システム、情報処理装置および制御方法
JP2003256850A (ja) 動き認識装置および画像処理装置並びにプログラム
CN112805127A (zh) 用于创建机器人控制程序的方法和设备
CN110942083A (zh) 拍摄装置以及拍摄系统
JPH07146121A (ja) 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
CN113302027B (zh) 作业坐标生成装置
JP6603993B2 (ja) 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP2012022600A (ja) マスク画像作成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071011