JP2006007390A - 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体 - Google Patents
撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体 Download PDFInfo
- Publication number
- JP2006007390A JP2006007390A JP2004190723A JP2004190723A JP2006007390A JP 2006007390 A JP2006007390 A JP 2006007390A JP 2004190723 A JP2004190723 A JP 2004190723A JP 2004190723 A JP2004190723 A JP 2004190723A JP 2006007390 A JP2006007390 A JP 2006007390A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- shielding
- arrangement
- imaging
- finger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像する。
【解決手段】 ロボット10は、ワーク14を撮像するサブカメラ24と、ワーク14の背景の少なくとも一部を遮蔽する第4指40〜第6指44と、第4指40〜第6指44の少なくとも一部およびサブカメラ24がワーク14を挟んで向き合い、かつサブカメラ24と向き合う第4指40〜第6指44の一部がワーク14と障害物16および障害物18との間に在るように、サブカメラ24および第4指40〜第6指44の配置を制御する制御用コンピュータとを含む。
【選択図】 図1
【解決手段】 ロボット10は、ワーク14を撮像するサブカメラ24と、ワーク14の背景の少なくとも一部を遮蔽する第4指40〜第6指44と、第4指40〜第6指44の少なくとも一部およびサブカメラ24がワーク14を挟んで向き合い、かつサブカメラ24と向き合う第4指40〜第6指44の一部がワーク14と障害物16および障害物18との間に在るように、サブカメラ24および第4指40〜第6指44の配置を制御する制御用コンピュータとを含む。
【選択図】 図1
Description
本発明は、撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体に関し、特に対象物を確実に認識するロボットの視覚として動作する撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体に関する。
人が日常的に生活する環境下で介護や家事を代行できるロボットの実用化に対し、期待が高まっている。この期待の背景には、現代の社会における少子化および高齢化の進行と、近年のロボティクス技術の発展とがある。このような期待に応えるために、センシング技術が重要視され始めている。特に、センシング技術のうち、人が生活する環境下における作業のための技術が重要視され始めている。しかし、従来のセンシング技術が、多様かつ複雑な人の生活環境において、人の視覚と同様なセンシングを実現することは困難である。その理由は、従来のセンシング技術が、工場や実験室などといった、限定された環境下での適用を前提とした技術である点にある。ここでいう「限定された環境」とは、ワークおよび環境を制限することが可能な環境をいう。このような環境下での適用を前提とした理由は、従来、確実に作業を行なうことを主眼としていた点にある。
従来のセンシング技術の1つであるビジュアルフィードバックについて説明する。ワークの位置や姿勢が不確定な場合、ロボットがそのワークを把持したり操作したりするために、何らかの方法でワークの位置や姿勢を推定することが必要となる。単独あるいは複数のカメラを用いた認識処理は、ワークの位置や姿勢を推定する方法の1つである。このように、カメラが撮像した画像に基づいてグリッパあるいはマニピュレータの位置や姿勢などを制御する方法が、ビジュアルフィードバックである。ビジュアルフィードバックは、グリッパあるいはマニピュレータを有するロボットに対して採用例が多い方法である。ビジュアルフィードバックは、ロボティクス技術の一分野となっている。
ビジュアルフィードバックを行なう場合、画像を確実に処理できることが前提条件となる。この前提を満たすため、ワークとワークの背景とは容易に識別できることが望ましい。このことは、ワークの背景を作業台などに事実上制限してしまうことを意味する。
特許文献1は、この問題を解決する技術を開示する。特許文献1に開示された視覚装置は、カメラに固定され、かつワークの背後に一端が配置される既知の遮断板が、ワークの背景を遮断することを特徴とする。これにより、次の効果が生じる。その効果の第1は、ワークの背景を作業台などに制限する必要がなくなるという効果である。この効果が得られる理由は、ワークの背景が強制的に変更されるという点にある。その効果の第2は、物体の位置や姿勢を確実に計測できるという効果である。この効果が得られる理由は、画像が単純化されるという点にある。画像が単純化される理由は、ワークの背景が限定されている点にある。
しかしながら、特許文献1に開示されたように、カメラに固定された遮断板によってワークの背景を遮断する場合、日常的な環境下で利用することが困難であるという問題点がある。日常的な環境下で利用することが困難な理由は、ワークの形状や大きさも、特許文献1に開示された視覚装置が利用される場所も、日常的な環境下では不確定である点にある。
特開平6−262567号公報
本発明は上述の問題点を解決するためになされたものであって、その目的は、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像できる、撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体を提供することにある。
上記目的を達成するために、本発明のある局面にしたがうと、撮像装置は、対象物を撮像するカメラと、対象物の背景の少なくとも一部を遮蔽するための遮蔽手段と、遮蔽手段の少なくとも一部およびカメラが対象物を挟んで向き合い、かつカメラと向き合う遮蔽手段の一部が対象物と対象物以外の有形物との間に在るように、カメラおよび遮蔽手段の配置を制御するための制御手段とを含む。
すなわち、制御手段は、遮蔽手段の少なくとも一部およびカメラが対象物を挟んで向き合い、かつカメラと向き合う遮蔽手段の一部が対象物と対象物以外の有形物との間に在るように、カメラおよび遮蔽手段の配置を制御する。これにより、カメラは、遮蔽手段により、対象物以外の有形物を遮蔽した状態で対象物を撮像できる。対象物以外の有形物を遮蔽した状態で対象物を撮像できるので、不確定に映込む背景がなくなる。その結果、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像できる撮像装置を提供することができる。
また、上述の遮蔽手段は、対象物を把持する把持装置を含むことが望ましい。あわせて制御手段は、把持装置を構成する部材のいずれかの配置を制御するための手段を含むことが望ましい。
すなわち、把持装置が対象物の背景の少なくとも一部を遮蔽する。これにより、背景の遮蔽と、ワークの撮像と、ワークの把持とを順次行なうことができる。これらが順次行なわれるので、動作の無駄を削減できる。その結果、複雑で多様な環境下であっても、無駄を省きつつ、背景の影響を排除した状態で対象物を撮像できる撮像装置を提供することができる。
また、上述の把持装置は、屈曲可能な複数の部材により、対象物を把持する装置を含むことが望ましい。あわせて部材のいずれかの配置を制御するための手段は、複数の部材の配置をそれぞれ制御するための手段を含むことが望ましい。
すなわち、複数の部材は、屈曲することによって形状を変更できる。形状が変更されるので、把持装置は、周辺の環境に応じた背景の遮蔽方法を選択できる。これにより、多様な環境下においても背景を遮蔽できる。その結果、より複雑で多様な環境下であっても、無駄を省きつつ、背景の影響を排除した状態で対象物を撮像できる撮像装置を提供することができる。
また、上述の撮像装置は、対象物および有形物の配置を検出するための配置用の検出手段をさらに含むことが望ましい。あわせて制御手段は、配置用の検出手段が検出した配置に基づいて、カメラおよび遮蔽手段の配置を制御するための手段を含むことが望ましい。
すなわち、配置用の検出手段は、対象物および有形物の配置を検出する。制御手段は、配置用の検出手段が検出した配置に基づいて、カメラおよび遮蔽手段の配置を制御する。これにより、対象物と対象物以外の有形物とに接触することなく、遮蔽手段を対象物の背面に回りこませることができる。その結果、複雑で多様な環境下であっても背景の影響を排除した状態で安全に対象物を撮像できる撮像装置を提供することができる。
また、上述の撮像装置は、カメラおよび遮蔽手段の配置の複数の候補を表わす情報を記録するための候補用の記録手段をさらに含むことが望ましい。あわせて制御手段は、配置用の検出手段が検出した配置に基づいて、複数の候補のいずれかを選択するための選択手段と、選択手段が選択した候補に対応するように、カメラおよび遮蔽手段の配置を制御するための手段とを含むことが望ましい。
すなわち、配置を制御するための手段は、選択手段が候補用の記録手段が記録した情報の中から選択した候補に対応するように、カメラおよび遮蔽手段の配置を制御する。これにより、比較的安全で確実な方法を選択して、カメラおよび遮蔽手段の配置を制御することができる。その結果、複雑で多様な環境下であっても背景の影響を排除した状態で安全かつ確実に対象物を撮像できる撮像装置を提供することができる。
また、上述の撮像装置は、遮蔽手段の配置を表わす情報を記録するための配置用の記録手段と、制御手段の制御の後、遮蔽手段の配置を表わす情報を用いて計算した、カメラが撮像した画像における遮蔽手段の配置を、カメラが撮像した画像にマッピングすることにより、カメラが撮像した画像のうち、遮蔽手段が遮蔽した領域を検出するための領域用の検出手段をさらに含むことが望ましい。
すなわち、配置用の記録手段は、遮蔽手段の配置を表わす情報を記録する。領域用の検出手段は、制御手段の制御の後、遮蔽手段の配置を表わす情報を用いて計算した、カメラが撮像した画像における遮蔽手段の配置を、カメラが撮像した画像にマッピングすることにより、カメラが撮像した画像のうち、遮蔽手段が遮蔽した領域を検出する。これにより、遮蔽手段が遮蔽した領域では、対象物を表わす領域と遮蔽手段を表わす領域とが明確なので、対象物を認識することが容易になる。その結果、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像でき、かつ対象物を認識できる撮像装置を提供することができる。
また、上述の撮像装置は、領域用の検出手段が検出した領域が遮蔽手段か否かを、遮蔽手段の外面の色に基づいて確認するための確認手段をさらに含むことが望ましい。
すなわち、確認手段は、領域用の検出手段が検出した領域が遮蔽手段か否かを、遮蔽手段の外面の色に基づいて確認する。これにより、対象物を表わす領域と遮蔽手段を表わす領域とを認識できる上に、領域用の検出手段が検出した領域が遮蔽手段か否かを、遮蔽手段の外面の色に基づいて確認できる。その結果、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像でき、かつ対象物をより確実に認識できる撮像装置を提供することができる。
また、上述の遮蔽手段の外面の色は、第1の色、および第1の色より暗くかつ第1の色が占める面積より広い面積を占める第2の色を模様として含むことが望ましい。
すなわち、第1の色、および第1の色より暗くかつ第1の色が占める面積より広い面積を占める第2の色を模様として含む色は、対象物や有形物の模様として用いられることが少ない色である。これにより、確認手段は、領域用の検出手段が検出した領域が遮蔽手段か否かをさらに確実に確認できる。その結果、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像でき、かつ対象物をさらに確実に認識できる撮像装置を提供することができる。
本発明の他の局面にしたがうと、撮像方法は、カメラで対象物を撮像する撮像ステップと、マニピュレータの先端にある遮蔽物で、対象物の背景の少なくとも一部を遮蔽する遮蔽ステップと、カメラが対象物を撮像する前に、遮蔽物の少なくとも一部およびカメラが対象物を挟んで向き合い、かつカメラと向き合う遮蔽物の一部が対象物と対象物以外の有形物との間に在るように、カメラおよび遮蔽物の配置を制御する制御ステップとを含む。
すなわち、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像できる撮像方法を提供することができる。
本発明の他の局面にしたがうと、撮像プログラムは、カメラで対象物を撮像する撮像ステップと、遮蔽物で、対象物の背景の少なくとも一部を遮蔽する遮蔽ステップと、カメラが対象物を撮像する前に、遮蔽物の少なくとも一部およびカメラが対象物を挟んで向き合い、かつカメラと向き合う遮蔽物の一部が対象物と対象物以外の有形物との間に在るように、カメラおよび遮蔽物の配置を制御する制御ステップとを含む各ステップをコンピュータに実行させる。
すなわち、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像できる撮像プログラムを提供することができる。
本発明の他の局面にしたがうと、記録媒体は、撮像プログラムを記録したコンピュータ読取り可能な記録媒体である。記録媒体は、カメラで対象物を撮像する撮像ステップと、マニピュレータの先端にある遮蔽物で、対象物の背景の少なくとも一部を遮蔽する遮蔽ステップと、カメラが対象物を撮像する前に、遮蔽物の少なくとも一部およびカメラが対象物を挟んで向き合い、かつカメラと向き合う遮蔽物の一部が対象物と対象物以外の有形物との間に在るように、カメラおよび遮蔽物の配置を制御する制御ステップとを含む各ステップをコンピュータに実行させるための撮像プログラムを記録したコンピュータ読取り可能な記録媒体である。
すなわち、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像できる撮像プログラムを記録したコンピュータ読取り可能な記録媒体を提供することができる。
本発明に係る撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体は、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を撮像できる。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同一である。したがって、それらについての詳細な説明は繰返さない。
図1を参照して、本実施の形態に係るロボット10が、ワークを認識する状況を説明する。図1は、ロボット10が白く塗装されたテーブル12上のワーク14、障害物16、および障害物18のうち、ワーク14を後述する第4指40〜第6指44で掴んで移動させる作業を表わす図である。ロボット10の手前に、テーブル12に載せられた、ワーク14、障害物16、および障害物18が存在する。ロボット10は、ワーク14を認識して、ワーク14を把持する。ワーク14および障害物18は、円筒状の形状を有する。障害物16は、直方体である。ワーク14、障害物16、および障害物18は赤く塗装されている。障害物18の直径よりもワーク14の直径の方が小さい。障害物18の高さよりもワーク14の高さの方が高い。
ロボット10は、ボディ部20と、メインカメラ22と、サブカメラ24と、右アーム26と、左アーム28と、右ハンド30と、左ハンド32と、第1指34と、第2指36と、第3指38と、第4指40と、第5指42と、第6指44とを含む。ボディ部20は、ロボット10を制御する制御用コンピュータ100を格納する。ボディ部20は、メインカメラ22、右アーム26、および左アーム28を取付ける構造体でもある。メインカメラ22は、ボディ部20の上(ロボット10の頭に相当する位置)からテーブル12の上に置かれたワーク14、障害物16、および障害物18を撮像する。これにより、メインカメラ22は、制御用コンピュータ100と協調することによって、1つの装置として、ワーク14、障害物16、および障害物18の配置を検出できる。サブカメラ24は、第1指34〜第3指38の間から、対象物(撮像の対象となる物のこと。本実施の形態の場合、ワーク14がこれにあたる。)などを撮像する。これにより、制御用コンピュータ100は、サブカメラ24が撮像した画像に基づき、ビジュアルフィードバックを用いて、ワーク14、障害物16、および障害物18の正確な位置を認識できる。右アーム26は、右ハンド30を移動させる。右アーム26は、図示しないリンク、駆動用アクチュエータ、および関節用の角度センサからなる。右アーム26の自由度は「7」である。左アーム28は、左ハンド32を移動させる。左アーム28も、図示しないリンク、駆動用アクチュエータ、および関節用の角度センサからなる。左アーム28の自由度も「7」である。右ハンド30は、サブカメラ24および第1指34〜第3指38を移動させる。右ハンド30も、図示しないリンク、駆動用アクチュエータ、および関節用の角度センサからなる。左ハンド32は、第4指40〜第6指44を移動させる。左ハンド32も、図示しないリンク、駆動用アクチュエータ、および関節用の角度センサからなる。第1指34〜第3指38は、それぞれ屈曲可能な複数の部材である。第1指34〜第3指38は、互いに協調して、ワーク14を把持し、かつワーク14の背景を遮蔽する。これらは全体として1つの把持装置である。第4指40〜第6指44も、同様である。第1指34〜第6指44も、図示しないリンク、駆動用アクチュエータ、および関節用の角度センサからなる。本実施の形態において、第1指34〜第6指44はいずれも黒く塗装されていることとする。
図2を参照して、上述の制御用コンピュータ100は、制御用コンピュータ100自体およびロボット10の各部を集中的に管理し、かつ制御するCPU(Central Processing Unit)102と、ROM(Read Only Memory)またはRAM(Random Access Memory)を含んで構成されるメモリ104と、固定ディスク106と、キーによる入力を受付けるキーボード108と、液晶からなるディスプレイ110と、FD(Flexible Disk)120が着脱自在に装着されて、装着されたFD120にアクセスするFD駆動装置112と、CD−ROM(Compact Disk Read Only Memory)122が着脱自在に装着されて、装着されたCD−ROM122にアクセスするCD−ROM駆動装置114とを含む。これらの各部はバスを介して通信・接続される。
メモリ104は、一般部、配置部および候補部を含む。一般部は、一般的なデータを記録する。配置部は、右アーム26、左アーム28、右ハンド30、左ハンド32、第1指34〜第3指38、および第4指40〜第6指44のサイズ、ならびに右アーム26、左アーム28、右ハンド30、左ハンド32、第1指34〜第3指38、および第4指40〜第6指44の角度センサが取得した情報(角度を表わす情報)を記録する。これらの情報は、それぞれの配置を表わす情報である。候補部は、サブカメラ24ならびに第1指34〜第3指38および第4指40〜第6指44の配置の複数の候補を表わす情報を記録する。
このロボット10は、上述した各部材(制御用コンピュータ100を含む)と、CPU102により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアは、FD120やCD−ROM122などの記録媒体に格納されて流通し、FD駆動装置112やCD−ROM駆動装置114などにより記録媒体から読取られて固定ディスク106に一旦格納される。さらに固定ディスク106からメモリ104へ読出されて、上述したCPU102により実行される。上述した制御用コンピュータ100のハードウェア自体は一般的なものである。したがって、本発明の最も本質的な部分は、CD−ROM122などの記録媒体に記録されたソフトウェアである。
図3および図4を参照して、ロボット10で実行されるプログラムは、ワーク14の識別に関し、以下のような制御構造を有する。
ステップ50(以下、ステップをSと略す。)にて、メインカメラ22は、ワーク14、障害物16、および障害物18の画像を撮像する。S52にて、制御用コンピュータ100は、メインカメラ22の画像を処理する。この処理により、制御用コンピュータ100は、ワーク14、障害物16、および障害物18の位置や姿勢を認識する。
S54にて、制御用コンピュータ100は、ワーク14を、障害物16および障害物18が映込むことなく撮像できる否かを判断する。撮像できると判断した場合(S54にてYES)、処理はS56へと移される。もしそうでないと(S54にてNO)、処理はS64へと移される。
S56にて、制御用コンピュータ100は、右アーム26により、右ハンド30および右ハンド30に取付けられた部材を撮像用の位置に移動させる。S58にて、制御用コンピュータ100は、右ハンド30および右ハンド30に取付けられた部材を撮像用の姿勢(サブカメラ24がワーク14を撮像しやすい姿勢のこと。原則として第1指34〜第3指38を伸ばす姿勢をいう。ただし障害物16および障害物18の配置によっては、それらの指のいずれかを曲げた姿勢をいうこともある。)に変形させる。S60にて、メインカメラ22は、テーブル12上のワーク14の画像を撮像する。S62にて、制御用コンピュータ100は、マスク領域を利用しない画像処理(画像処理(1))を実行する。本実施の形態における画像処理(1)とは、テーブル12の色(本実施の形態の場合、その色は「白」である)とワーク14の色(本実施の形態の場合、その色は「赤」である)との色彩の差を利用して、ワーク14を認識する処理のことである。
S64にて、制御用コンピュータ100は、ワーク14と障害物16および障害物18との間に左ハンド32および左ハンド32に取付けられた部材が入るスペースがあるか否かを判断する。CPU102は、メモリ104に記録された右アーム26、左アーム28、右ハンド30、および左ハンド32のサイズとS50およびS52の処理により取得した情報とに基づいて、そのようなスペースがあるか否かを判断する。この判断は、次の処理を経る。第1の処理は、制御用コンピュータ100が、メインカメラ22および制御用コンピュータ100自身が検出した配置に基づいて、候補部に記録された複数の候補のいずれかを選択する処理である。第2の処理は、制御用コンピュータ100が、左アーム28および左ハンド32の配置のうち、ワーク14、障害物16、および障害物18と干渉しないものがあるか否かを判断する処理である。ただし、第4指40〜第6指44の配置が選択された候補の通りであると仮定する。これらの処理により、スペースがあると判断した場合(S64にてYES)、処理はS66へと移される。もしそうでないと(S64にてNO)、処理はS80へと移される。
S66にて、制御用コンピュータ100は、第1指34〜第3指38を、撮像用の姿勢に変形させる。S68にて、制御用コンピュータ100は、右アーム26により、右ハンド30および右ハンド30に取付けられた部材を撮像用の位置に移動させる。
S70にて、制御用コンピュータ100は、第4指40〜第6指44を遮蔽用の姿勢(原則として指を伸ばす姿勢をいう。ただし障害物16および障害物18の配置によっては、第4指40〜第6指44のいずれかを曲げた姿勢をいうこともある。)に変形させる。
S72にて、制御用コンピュータ100は、左アーム28により、左ハンド32および左ハンド32に取付けられた部材を遮蔽用の位置に移動させる。S74にて、サブカメラ24は、画像を撮像する。
S76にて、制御用コンピュータ100は、左ハンド32および左ハンド32に取付けられた部材のうち、どの部分が画像に写っているかを推定する。この推定には、右アーム26、左アーム28、右ハンド30、および左ハンド32内の角度センサが取得した情報と、順運動学上の計算とが用いられる。この推定の手順は次の処理を経る。第1の処理は、サブカメラ24が撮像した画像における第4指40〜第6指44の配置を、第4指40〜第6指44の配置を表わす情報を用いて計算する処理である。第2の処理は、第4指40〜第6指44の配置を、サブカメラ24が撮像した画像にマッピングする(サブカメラ24が撮像した画像における、第4指40〜第6指44の配置を算出する)処理である。第3の処理は、サブカメラ24が撮像した画像のうち、第4指40〜第6指44が遮蔽した領域を検出する処理である。
S78にて、制御用コンピュータ100は、画像のうち、左ハンド32および左ハンド32に取付けられた部材にあたる領域を物理的マスク領域(1)とする。制御用コンピュータ100は、物理的マスク領域(1)をメモリ104に登録する。
S80にて、制御用コンピュータ100は、S50およびS52の処理により取得した情報に基づき、ワーク14と障害物16および障害物18との間に第1指34〜第3指38が入るスペースがあるか否かを判断する。このステップでいう「第1指34〜第3指38が入るスペースがあるか否か」とは、次の2つの要件を満たすことを意味する。その第1の要件は、ワーク14、障害物16、および障害物18と干渉しないという要件である。第2の要件は、サブカメラ24から見てワーク14の背後および側方にあたる場所に、第1指34〜第3指38を移動させることができるか否かという要件である。この判断は、次の処理を経る。第1の処理は、制御用コンピュータ100が、メインカメラ22および制御用コンピュータ100自身が検出した配置に基づいて、候補部に記録された複数の候補のいずれかを選択する処理である。第2の処理は、制御用コンピュータ100が、左アーム28および左ハンド32の配置のうち、ワーク14、障害物16、および障害物18と干渉しないものがあるか否かを判断する処理である。ただし、第1指34〜第3指38の配置が、選択された候補の通りであると仮定する。これらの処理により、スペースがあると判断した場合(S80にてYES)、処理はS82へと移される。もしそうでないと(S80にてNO)、処理はS96へと移される。
S82にて、制御用コンピュータ100は、右アーム26により、右ハンド30および右ハンド30に取付けられた部材を遮蔽用の位置に移動させる。S84にて、制御用コンピュータ100は、第1指34〜第3指38を遮蔽用の姿勢(この場合の第1指34〜第3指38の姿勢は後述する)に変形する。S86にて、サブカメラ24は、画像を撮像する。
S88にて、制御用コンピュータ100は、右ハンド30に取付けられた部材のうち、どの部分が画像に写っているかを推定する。この推定には、右アーム26、左アーム28、右ハンド30、および左ハンド32内の角度センサが取得した情報(角度を表わす情報)と、順運動学上の計算とが用いられる。この推定の手順は次の処理を経る。第1の処理は、サブカメラ24が撮像した画像における第1指34〜第3指38の配置を、第1指34〜第3指38の配置を表わす情報を用いて計算する処理である。第2の処理は、第1指34〜第3指38の配置を、サブカメラ24が撮像した画像にマッピングする処理である。第3の処理は、サブカメラ24が撮像した画像のうち、第1指34〜第3指38が遮蔽した領域を検出する処理である。
S90にて、制御用コンピュータ100は、画像のうち、右ハンド30に取付けられた部材にあたる領域を物理的マスク領域(2)とする。制御用コンピュータ100は、物理的マスク領域(2)をメモリ104に登録する。
S92にて、メインカメラ22は、画像を撮像する。S94にて、制御用コンピュータ100は、マスク領域を利用した画像処理(2)を実行する。すなわち、制御用コンピュータ100は、自らがS88にて検出した領域が第1指34〜第3指38か否かを、第1指34〜第3指38の外面の色(本実施の形態の場合、黒色である。)に基づいて確認する(本実施の形態の場合、確認の結果、エラーが検出されたならば、処理は中断する)。確認が終了すると、制御用コンピュータ100は、自らがS88にて検出した領域から、ワーク14の位置を計測する。
S96にて、メインカメラ22は、画像を撮像する。S98にて、制御用コンピュータ100は、ワーク14と障害物16および障害物18のいずれかとを区別するように、一般に広く用いられている画像処理(画像処理(3))を実行する。そのような処理を実行する理由は、制御用コンピュータ100が、本実施の形態に係る発明を適用して画像処理を実施できない点にある。
以上のような構造およびフローチャートに基づく、ロボット10の動作について説明する。
[左ハンドで背景を遮蔽する場合]
ロボット10のメインカメラ22は、テーブル12上のワーク14の状態を撮像する(S50)。状態が撮像されると、制御用コンピュータ100は、テーブル12とワーク14と障害物16および障害物18の色彩に基づき、ワーク14、および障害物16および障害物18の位置や姿勢を認識する(S52)。
ロボット10のメインカメラ22は、テーブル12上のワーク14の状態を撮像する(S50)。状態が撮像されると、制御用コンピュータ100は、テーブル12とワーク14と障害物16および障害物18の色彩に基づき、ワーク14、および障害物16および障害物18の位置や姿勢を認識する(S52)。
位置が認識されると、制御用コンピュータ100は、ワーク14を、障害物16および障害物18が映込むことなく撮像できる否かを判断する(S54)。この場合、障害物が映込むため(S54にてNO)、制御用コンピュータ100は、予めボディ部20の記録回路に記録された左ハンド32のサイズに基づき、ワーク14と障害物16および障害物18との間に左ハンド32および左ハンド32に取付けられた部材の入るスペースがあるか否かを判断する(S64)。この場合、左ハンド32および左ハンド32に取付けられた部材の入るスペースがあるので(S64にてYES)、制御用コンピュータ100は、第1指34〜第3指38を撮像用の姿勢に変形させる(S66)。姿勢が変形されると、制御用コンピュータ100は、右アーム26により右ハンド30および右ハンド30に取付けられた部材を撮像用の位置に移動させる(S68)。右ハンド30および右ハンド30に取付けられた部材が移動させられると、制御用コンピュータ100は、第4指40〜第6指44を遮蔽用の姿勢に変形させる(S70)。指が変形させられると、制御用コンピュータ100は、左アーム28により、左ハンド32および左ハンド32に取付けられた部材を遮蔽用の位置に移動させる(S72)。図5に、このときの第1指34〜第6指44の配置を示す。この図は、上述の処理により、制御用コンピュータ100が、制御用コンピュータ100自身およびメインカメラ22が検出した配置に基づいて、第4指40〜第6指44の少なくとも一部およびサブカメラ24がワーク14を挟んで向き合い、かつサブカメラ24と向き合う第4指40〜第6指44がワーク14と障害物16および障害物18との間に在るように、ワーク14、障害物16、および障害物18の配置を制御することを裏付けている。しかも、制御用コンピュータ100が選択した候補に対応するように、サブカメラ24および第4指40〜第6指44の配置が制御されることをも裏付けている。左ハンド32および左ハンド32に取付けられた部材が移動させられると、サブカメラ24は、画像を撮像する(S74)。図6に、このときサブカメラ24が撮像した画像を示す。ワーク14、第4指40〜第6指44、障害物16および障害物18、およびテーブル12が写っている。第4指40〜第6指44が、ワーク14の背景の少なくとも一部を遮蔽していることが明らかである。図6において、点線で描かれている部分は、ワーク14の背後にあって写っていない部分である。画像が撮像されると、制御用コンピュータ100は、左ハンド32および左ハンド32に取付けられた部材のうち、どの部分が画像に写っているかを推定する(S76)。推定が終了すると、制御用コンピュータ100は、画像のうち、左ハンド32および第4指40〜第6指44にあたる領域を物理的マスク領域(1)とする(S78)。
マスクが設定されると、メインカメラ22は画像を撮像する(S92)。画像が撮像されると、制御用コンピュータ100は、マスク領域を利用した画像処理(2)を実行する(S94)。
[左ハンドが入らない場合]
制御用コンピュータ100が、ワーク14と障害物16および障害物18との間に左ハンド32および左ハンド32に取付けられた部材が入るスペースがないと判断した場合(S64にてNO)、制御用コンピュータ100は、S50およびS52の処理により取得した情報に基づき、ワーク14と障害物16および障害物18との間に第1指34〜第3指38が入るスペースがあるか否かを判断する(S80)。この場合、指が入るスペースがあると判断されるので(S80にてYES)、制御用コンピュータ100は、右アーム26により、右ハンド30および右ハンド30に取付けられた部材を遮蔽用の位置に移動させる(S82)。右ハンド30などが移動させられると、制御用コンピュータ100は、第1指34〜第3指38を遮蔽用の姿勢に変形させる(S84)。図7に、このときの第1指34〜第3指38の状態を示す。この図は、上述の処理により、制御用コンピュータ100が、制御用コンピュータ100自身およびメインカメラ22が検出した配置に基づいて、第1指34〜第3指38の少なくとも一部およびサブカメラ24がワーク14を挟んで向き合い、かつサブカメラ24と向き合う第1指34〜第3指38がワーク14と障害物16および障害物18との間に在るように、ワーク14、障害物16、および障害物18の配置を制御することを裏付けている。しかも、制御用コンピュータ100が選択した候補に対応するように、サブカメラ24および第1指34〜第3指38の配置が制御されることをも裏付けている。指が移動させられると、サブカメラ24は画像を撮像する(S86)。図8は、このときサブカメラ24が撮像した画像を示す図である。図6と同様に、ワーク14と、第1指34〜第3指38と、障害物16および障害物18と、テーブル12とが写っている。第1指34〜第3指38が、ワーク14の背景の少なくとも一部を遮蔽していることが明らかである。点線で描かれている部分は、ワーク14の背後にあって写っていない部分である。画像が撮像されると、制御用コンピュータ100は、右ハンド30および右ハンド30に取付けられた部材のうち、どの部分が画像に写っているかを推定する(S88)。推定が終了すると、制御用コンピュータ100は、画像のうち、第1指34〜第3指38にあたる領域を物理的マスク領域(2)とする(S90)。
制御用コンピュータ100が、ワーク14と障害物16および障害物18との間に左ハンド32および左ハンド32に取付けられた部材が入るスペースがないと判断した場合(S64にてNO)、制御用コンピュータ100は、S50およびS52の処理により取得した情報に基づき、ワーク14と障害物16および障害物18との間に第1指34〜第3指38が入るスペースがあるか否かを判断する(S80)。この場合、指が入るスペースがあると判断されるので(S80にてYES)、制御用コンピュータ100は、右アーム26により、右ハンド30および右ハンド30に取付けられた部材を遮蔽用の位置に移動させる(S82)。右ハンド30などが移動させられると、制御用コンピュータ100は、第1指34〜第3指38を遮蔽用の姿勢に変形させる(S84)。図7に、このときの第1指34〜第3指38の状態を示す。この図は、上述の処理により、制御用コンピュータ100が、制御用コンピュータ100自身およびメインカメラ22が検出した配置に基づいて、第1指34〜第3指38の少なくとも一部およびサブカメラ24がワーク14を挟んで向き合い、かつサブカメラ24と向き合う第1指34〜第3指38がワーク14と障害物16および障害物18との間に在るように、ワーク14、障害物16、および障害物18の配置を制御することを裏付けている。しかも、制御用コンピュータ100が選択した候補に対応するように、サブカメラ24および第1指34〜第3指38の配置が制御されることをも裏付けている。指が移動させられると、サブカメラ24は画像を撮像する(S86)。図8は、このときサブカメラ24が撮像した画像を示す図である。図6と同様に、ワーク14と、第1指34〜第3指38と、障害物16および障害物18と、テーブル12とが写っている。第1指34〜第3指38が、ワーク14の背景の少なくとも一部を遮蔽していることが明らかである。点線で描かれている部分は、ワーク14の背後にあって写っていない部分である。画像が撮像されると、制御用コンピュータ100は、右ハンド30および右ハンド30に取付けられた部材のうち、どの部分が画像に写っているかを推定する(S88)。推定が終了すると、制御用コンピュータ100は、画像のうち、第1指34〜第3指38にあたる領域を物理的マスク領域(2)とする(S90)。
以上のようにして、本実施の形態に係るロボットは、ワークの背景をロボットの指にあたる部材で遮蔽する。物理的マスク領域が表れるので、サブカメラが撮像した画像のうち黒く塗潰された領域を抽出すれば、メモリに記録されたデータから求めたハンドなどの位置と、画像上のハンドなどの位置とを比較できる。これらが比較できれば、メモリに記録されたデータから求めたハンドなどの位置が正確か否かを検証できる。ハンドなどの位置が正確とすれば、物理的マスク領域に存在するものはハンド、ハンドに取付けられた部材、およびワークのいずれかである。物理的マスク領域に存在するものがこれら限定されるので、物理的マスク領域の中で、障害物などの有形物を除外する作業が不要となる。その作業が不要となるので、画像処理の負担が軽くなり、かつ画像処理の結果の信頼性が向上する。その結果、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を認識でき、かつ信頼性が高いロボットを提供できる。また、工場や実験室のような場所であっても、画像処理の対象範囲をより拡大させることができる。
なお、ロボット10の外面に、人の居住空間で通常使用されないパターンを付してもよい。図9は、そのようなパターンの一例を付したロボットの外観図である。図9のパターンは、第1の色(本変形例の場合は白色であるが、これに限定されない)、および第1の色より暗くかつ第1の色が占める面積より広い面積を占める第2の色(本変形例の場合は黒色であるが、これに限定されない)を模様として含む。具体的には、黒地にピッチが4ミリメートルで直径が2ミリメートルの斑点を付したパターンである。図9は、ロボット10の外面にこのようなパターンが付されたことをあらわす図である。ロボットが使用される環境下の物のいずれかが、ハンドおよびハンドに取付けられた部材の色と同じ色を有する場合、ハンドなどの位置を検証することが困難になる。ハンドおよびハンドに取付けられた部材に、人の居住空間で通常使用されないパターンを付してあれば、位置を検証することが困難になる可能性は少なくなる。これにより、より信頼性が向上する。その結果、複雑で多様な環境下であっても背景の影響を排除した状態で対象物を認識でき、かつより信頼性が高いロボットを提供できる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
10 ロボット、12 テーブル、14 ワーク、16,18 障害物、20 ボディ部、22 メインカメラ、24 サブカメラ、26 右アーム、28 左アーム、30 右ハンド、32 左ハンド、34 第1指、36 第2指、38 第3指、40 第4指、42 第5指、44 第6指、100 制御用コンピュータ、102 CPU、104 メモリ、106 固定ディスク、108 キーボード、110 ディスプレイ、112 FD駆動装置、114 CD-ROM駆動装置、120 FD、122 CD-ROM。
Claims (11)
- 対象物を撮像するカメラと、
前記対象物の背景の少なくとも一部を遮蔽するための遮蔽手段と、
前記遮蔽手段の少なくとも一部およびカメラが前記対象物を挟んで向き合い、かつ前記カメラと向き合う遮蔽手段の一部が前記対象物と前記対象物以外の有形物との間に在るように、前記カメラおよび遮蔽手段の配置を制御するための制御手段とを含む、撮像装置。 - 前記遮蔽手段は、前記対象物を把持する把持装置を含み、
前記制御手段は、前記把持装置を構成する部材のいずれかの配置を制御するための手段を含む、請求項1に記載の撮像装置。 - 前記把持装置は、屈曲可能な複数の部材により、前記対象物を把持する装置を含み、
前記部材のいずれかの配置を制御するための手段は、前記複数の部材の配置をそれぞれ制御するための手段を含む、請求項2に記載の撮像装置。 - 前記撮像装置は、前記対象物および有形物の配置を検出するための配置用の検出手段をさらに含み、
前記制御手段は、前記配置用の検出手段が検出した配置に基づいて、前記カメラおよび遮蔽手段の配置を制御するための手段を含む、請求項1に記載の撮像装置。 - 前記撮像装置は、前記カメラおよび遮蔽手段の配置の複数の候補を表わす情報を記録するための候補用の記録手段をさらに含み、
前記制御手段は、
前記配置用の検出手段が検出した配置に基づいて、前記複数の候補のいずれかを選択するための選択手段と、
前記選択手段が選択した候補に対応するように、前記カメラおよび遮蔽手段の配置を制御するための手段とを含む、請求項4に記載の撮像装置。 - 前記撮像装置は、
前記遮蔽手段の配置を表わす情報を記録するための配置用の記録手段と、
前記制御手段の制御の後、前記遮蔽手段の配置を表わす情報を用いて計算した、前記カメラが撮像した画像における遮蔽手段の配置を、前記カメラが撮像した画像にマッピングすることにより、前記カメラが撮像した画像のうち、前記遮蔽手段が遮蔽した領域を検出するための領域用の検出手段をさらに含む、請求項1に記載の撮像装置。 - 前記撮像装置は、前記領域用の検出手段が検出した領域が前記遮蔽手段か否かを、前記遮蔽手段の外面の色に基づいて確認するための確認手段をさらに含む、請求項6に記載の撮像装置。
- 前記遮蔽手段の外面の色は、第1の色、および前記第1の色より暗くかつ前記第1の色が占める面積より広い面積を占める第2の色を模様として含む、請求項7に記載の撮像装置。
- カメラで対象物を撮像する撮像ステップと、
マニピュレータの先端にある遮蔽物で、前記対象物の背景の少なくとも一部を遮蔽する遮蔽ステップと、
前記カメラが前記対象物を撮像する前に、前記遮蔽物の少なくとも一部およびカメラが前記対象物を挟んで向き合い、かつ前記カメラと向き合う遮蔽物の一部が前記対象物と前記対象物以外の有形物との間に在るように、前記カメラおよび遮蔽物の配置を制御する制御ステップとを含む、撮像方法。 - カメラで対象物を撮像する撮像ステップと、
遮蔽物で、前記対象物の背景の少なくとも一部を遮蔽する遮蔽ステップと、
前記カメラが前記対象物を撮像する前に、前記遮蔽物の少なくとも一部およびカメラが前記対象物を挟んで向き合い、かつ前記カメラと向き合う遮蔽物の一部が前記対象物と前記対象物以外の有形物との間に在るように、前記カメラおよび遮蔽物の配置を制御する制御ステップとを含む各ステップをコンピュータに実行させるための撮像プログラム。 - 撮像プログラムを記録したコンピュータ読取り可能な記録媒体であって、
カメラで対象物を撮像する撮像ステップと、
マニピュレータの先端にある遮蔽物で、前記対象物の背景の少なくとも一部を遮蔽する遮蔽ステップと、
前記カメラが前記対象物を撮像する前に、前記遮蔽物の少なくとも一部およびカメラが前記対象物を挟んで向き合い、かつ前記カメラと向き合う遮蔽物の一部が前記対象物と前記対象物以外の有形物との間に在るように、前記カメラおよび遮蔽物の配置を制御する制御ステップとを含む各ステップをコンピュータに実行させるための撮像プログラムを記録したコンピュータ読取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004190723A JP2006007390A (ja) | 2004-06-29 | 2004-06-29 | 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004190723A JP2006007390A (ja) | 2004-06-29 | 2004-06-29 | 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006007390A true JP2006007390A (ja) | 2006-01-12 |
Family
ID=35775180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004190723A Withdrawn JP2006007390A (ja) | 2004-06-29 | 2004-06-29 | 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006007390A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007319938A (ja) * | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | ロボット装置及び物体の三次元形状の取得方法 |
JP2008137114A (ja) * | 2006-12-01 | 2008-06-19 | Honda Motor Co Ltd | ロボット、ならびにその制御方法および制御プログラム |
JP2011230263A (ja) * | 2010-04-30 | 2011-11-17 | Seiko Epson Corp | 把持ロボットおよび把持方法 |
JP2011235380A (ja) * | 2010-05-07 | 2011-11-24 | Honda Motor Co Ltd | 制御装置 |
WO2012052614A1 (en) * | 2010-10-21 | 2012-04-26 | Zenrobotics Oy | Method for the filtering of target object images in a robot system |
WO2013108345A1 (ja) * | 2012-01-17 | 2013-07-25 | セイコーエプソン株式会社 | ロボットハンド及びロボット装置 |
JP2015089579A (ja) * | 2013-11-05 | 2015-05-11 | セイコーエプソン株式会社 | ロボット、ロボットシステム、及びロボット制御装置 |
WO2020190166A1 (ru) * | 2019-03-21 | 2020-09-24 | Публичное Акционерное Общество "Сбербанк России" | Способ и система захвата объекта с помощью роботизированного устройства |
-
2004
- 2004-06-29 JP JP2004190723A patent/JP2006007390A/ja not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007319938A (ja) * | 2006-05-30 | 2007-12-13 | Toyota Motor Corp | ロボット装置及び物体の三次元形状の取得方法 |
JP2008137114A (ja) * | 2006-12-01 | 2008-06-19 | Honda Motor Co Ltd | ロボット、ならびにその制御方法および制御プログラム |
JP4481291B2 (ja) * | 2006-12-01 | 2010-06-16 | 本田技研工業株式会社 | ロボット、ならびにその制御方法および制御プログラム |
JP2011230263A (ja) * | 2010-04-30 | 2011-11-17 | Seiko Epson Corp | 把持ロボットおよび把持方法 |
JP2011235380A (ja) * | 2010-05-07 | 2011-11-24 | Honda Motor Co Ltd | 制御装置 |
CN103347661A (zh) * | 2010-10-21 | 2013-10-09 | 泽恩机器人技术有限公司 | 用于在机器人系统中的目标物体图像过滤的方法 |
WO2012052614A1 (en) * | 2010-10-21 | 2012-04-26 | Zenrobotics Oy | Method for the filtering of target object images in a robot system |
WO2013108345A1 (ja) * | 2012-01-17 | 2013-07-25 | セイコーエプソン株式会社 | ロボットハンド及びロボット装置 |
JP2013146798A (ja) * | 2012-01-17 | 2013-08-01 | Seiko Epson Corp | ロボットハンド及びロボット装置 |
CN104053526A (zh) * | 2012-01-17 | 2014-09-17 | 精工爱普生株式会社 | 机器人手以及机器人装置 |
CN104053526B (zh) * | 2012-01-17 | 2016-07-13 | 精工爱普生株式会社 | 机器人手以及机器人装置 |
JP2015089579A (ja) * | 2013-11-05 | 2015-05-11 | セイコーエプソン株式会社 | ロボット、ロボットシステム、及びロボット制御装置 |
WO2020190166A1 (ru) * | 2019-03-21 | 2020-09-24 | Публичное Акционерное Общество "Сбербанк России" | Способ и система захвата объекта с помощью роботизированного устройства |
EA038279B1 (ru) * | 2019-03-21 | 2021-08-04 | Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) | Способ и система захвата объекта с помощью роботизированного устройства |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4961860B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
WO2011065035A1 (ja) | ロボットの教示データを作成する方法およびロボット教示システム | |
US10306149B2 (en) | Image processing apparatus, robot system, robot, and image processing method | |
WO2019146201A1 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
JPWO2018043525A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
CN111152243B (zh) | 控制系统 | |
JP2018167334A (ja) | 教示装置および教示方法 | |
JP6042291B2 (ja) | ロボット、ロボット制御方法、及びロボット制御プログラム | |
JP7186349B2 (ja) | エンドエフェクタの制御システムおよびエンドエフェクタの制御方法 | |
JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
JP2006007390A (ja) | 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体 | |
CN114670189B (zh) | 存储介质、以及生成机器人的控制程序的方法及系统 | |
JP7051751B2 (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
CN112109069A (zh) | 机器人示教装置以及机器人系统 | |
JP2015071207A (ja) | ロボットハンドおよびその制御方法 | |
JP2006021300A (ja) | 推定装置および把持装置 | |
Schiebener et al. | Discovery, segmentation and reactive grasping of unknown objects | |
JPS6257884A (ja) | マニピユレ−タ装置 | |
CN115213894A (zh) | 机器人图像的显示方法、显示系统以及记录介质 | |
JP5739680B2 (ja) | マニプレータ装置およびマニプレータ付き作業装置 | |
JP2616225B2 (ja) | 相対位置決め方式 | |
JP7345902B2 (ja) | 触覚センサ、触覚センサシステム及びプログラム | |
JP2021061014A (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
JP7385303B2 (ja) | 把持装置、制御方法及びプログラム | |
WO2023243051A1 (ja) | ワーク取り出しシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070904 |