JP2012524663A - 物体学習ロボットおよび方法 - Google Patents
物体学習ロボットおよび方法 Download PDFInfo
- Publication number
- JP2012524663A JP2012524663A JP2012506609A JP2012506609A JP2012524663A JP 2012524663 A JP2012524663 A JP 2012524663A JP 2012506609 A JP2012506609 A JP 2012506609A JP 2012506609 A JP2012506609 A JP 2012506609A JP 2012524663 A JP2012524663 A JP 2012524663A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- gripper
- learned
- pixels
- optical system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本発明は、物体学習ロボットおよびそれに対応する方法に関する。ロボットは、ロボット(10)に学習されるべき物体(11)を把持するためのグリッパ(14)と、物体(11)をロボット(10)に紹介するとともにグリッパ(14)およびグリッパ(14)により把持された物体(11)を観察するための視野を有する光学システム(16)と、ロボット(10)に学習されるべき物体の物体アイデンティティを提供するための入力装置(26)と、所定の運動パターンに従ってグリッパ(14)の動きを制御するためのコントローラ(24)と、物体アイデンティティとの関連付けのために物体(11)を識別する光学システム(16)から得られた画像データを解析するための画像処理手段(28)と、を有する。これは、ロボットが、学習のためのオフライン時間なしに、動的環境内で新しい物体のアイデンティティを学習することを可能にする。
Description
本発明は、物体学習ロボットおよびそれに対応する方法に関する。
物体認識は視覚の研究において広く研究されている主題である。これを行うための方法は、アルゴリズムが識別できる特徴を学習するように物体の多数の画像を提示することから成る。これは通常「オフライン」で行われ、すなわち、画像の提示が事前に行われ、使用中の適応または「学習」はない。
キッチン補助ロボットアームは棚、戸棚、冷蔵庫、オーブン、調理台、食器洗い機等から物体を摘み取るとともに棚、戸棚、冷蔵庫、オーブン、調理台、食器洗い機等へ物体置く。さらに、このようなロボットアームは、調理台を清掃し、野菜を切り、皿をすすぎ、作りたての飲み物を用意する等をすることができる。しかし、現在のロボットは、実用性に影響する多くの制限を有する。
現在のロボットの物体学習システムは、ロボットを操作するアルゴリズムが画像内の識別できる特徴を学習するようロボットに物体の多数の画像を提示することから成る。このプロセスは典型的には、ロボットがオフラインのときに、すなわちロボットが稼働中ではない或いは他の作業に使用されていないときに、遂行される。
特許文献1は、物体を学習するロボット装置及び方法を開示し、これは物体学習フェーズの動作と物体認識フェーズの動作との両方を開示する。さらに、この文献は、ロボットがユーザとの対話を必要とするとともにこの対話のために音声出力手段が備えられることを開示する。
本発明の目的は、学習のためのオフライン時間なしに、動的環境内で新しい物体のアイデンティティを学習する物体学習ロボットおよびそれに対応する方法を提供することである。
本発明の別の目的は、物体がロボットに示されたときにロボットに物体を学習することを可能にする物体学習ロボットおよびそれに対応する方法を提供することである。
本発明の第1の態様では、
− ロボットに学習されるべき物体を把持するためのグリッパと、
− 物体をロボットに紹介するとともにグリッパおよびグリッパにより把持された物体を観察するための視野を有する光学システムと、
− ロボットに学習されるべき物体の物体アイデンティティを提供するための入力装置と、
− 所定の運動パターンに従ってグリッパの動きを制御するためのコントローラと、
− 物体アイデンティティとの関連付けのために物体を識別する光学システムから得られた画像データを解析するための画像処理手段と、
を有する、物体学習ロボットが提案される。
− ロボットに学習されるべき物体を把持するためのグリッパと、
− 物体をロボットに紹介するとともにグリッパおよびグリッパにより把持された物体を観察するための視野を有する光学システムと、
− ロボットに学習されるべき物体の物体アイデンティティを提供するための入力装置と、
− 所定の運動パターンに従ってグリッパの動きを制御するためのコントローラと、
− 物体アイデンティティとの関連付けのために物体を識別する光学システムから得られた画像データを解析するための画像処理手段と、
を有する、物体学習ロボットが提案される。
本発明の別の態様では、
− 物体が学習されるべきであることをロボットに示すために、学習されるべき物体をロボットの光学システムの視野内に紹介するステップと、
− ロボット(10)に学習されるべき物体に対応する物体アイデンティティをロボットの入力装置で提供するステップと、
− 学習されるべき物体をロボットのグリッパで把持するステップと、
− 所定の運動パターンに従ってグリッパおよび学習されるべき物体の動きを制御するステップと、
− 物体アイデンティティとの関連付けのために物体を識別するよう光学システムから得られた画像データを解析するステップと、
を有する、物体学習ロボットのための方法が提案される。
− 物体が学習されるべきであることをロボットに示すために、学習されるべき物体をロボットの光学システムの視野内に紹介するステップと、
− ロボット(10)に学習されるべき物体に対応する物体アイデンティティをロボットの入力装置で提供するステップと、
− 学習されるべき物体をロボットのグリッパで把持するステップと、
− 所定の運動パターンに従ってグリッパおよび学習されるべき物体の動きを制御するステップと、
− 物体アイデンティティとの関連付けのために物体を識別するよう光学システムから得られた画像データを解析するステップと、
を有する、物体学習ロボットのための方法が提案される。
本発明の装置および方法は、オフライン学習時間を待つまたは起動することなしに、新しい物体に直面したときにロボットが新しい物体アイデンティティを教えられ得る、という利点をもたらす。加えて、物体学習ロボットおよびそれに対応する方法が、新たな物体を物体学習ロボットに教えるために、ロボットが稼働中にロボットに新たな物体を教えることを可能にするとともに通常のワークフローを邪魔しないことは有利である。さらに、本発明は、ロボットが言語で学習プロセスを開始することを必要とせず、ロボットのオペレータにより学習されるべき物体のロボットの視野への規則的または振動する方法での提示を通じて開始されるという、物体学習ロボットに新たな物体を教えることの利点をもたらす。従って、例えば、ロボットに学習プロセスを即座に開始することを合図する、単純で非言語的な信号が、学習フェーズを開始するのに十分で有り得る。これはいつでも行うことができるとともに予定される必要がない。
さらに、学習されるべき物体の視覚的な特徴を迅速に決定するために、物体学習ロボットおよび方法が、グリッパおよび学習されるべき物体の所定の運動のパターンを命令するコントローラを有することは有利である。
物体を物体学習ロボットに提示することによりオンライン学習を実行するために、ロボットはどの物体が認識されるべき物体の例であるかを「教えられることができる」必要がある。従って、ロボットが注目している関心のある物体の名前または特性を知るように、物体学習ロボットと学習されるべき物体の即座の識別を可能にするそれに対応する方法とを有することは、さらに有利である。
開示されたロボットおよび方法は、オンラインまたはオフラインで使用され得るが、従来技術では知られていない革新的な特徴を提供することができる。このロボットおよび方法は、2つの静止画像を単純に比較するのではなく、例えば光学システムからのライブビュー(live view)などの一連の画像を比較する。この装置は次の幾つかの利点を提供する。一連の画像の物体セグメンテーション、このために関心のある物体が、それらの特性のより完全な、包括的な視点が得られるように幾つかの視野角から観察される;物体教示中の変化する照明条件に対するより少ない感受性および非依存を伴う、より高い信頼性;全ての画像からの情報を使用することができるので、事前/事後の比較を必要としないより速い方法;ロボットからユーザへの音声指令が無い−ユーザは物体をロボットに手渡すだけである;従って、この方法はまたより直感的である。
実施形態によれば、グリッパがロボットのアームに取り付けられる。これは、アームとグリッパの動作の範囲を人間のものと同様にすることができるという利点を提供する。これはロボットを有するとともに操作するために必要な設備を単純にする。
別の実施形態によれば、光学システムがロボットのアームに取り付けられる。これは、アーム上のカメラの正確な位置に応じて、アームの動きとカメラの動きとが同様または同一になるという利点を提供する。これは、グリッパ、グリッパ内の学習されるべき物体、およびロボットの学習中には重要ではない背景の情報を識別することに関するアルゴリズムを単純にする。より具体的には、画像シーケンス、例えば、物体アイデンティティに関連付けて物体を識別するための光学システムから得られた画像データ、が時間で積分されると、背景が不鮮明になるまたは区別し難くなり得る一方、関心のある物体およびおそらくロボットアーム自体は不鮮明にならなくすることができる。また、グリッパを有するアームのコンプライアンスまたは機械的な不完全さにより、いかなる不鮮明も小さいかもしれない。
さらなる実施形態によれば、光学システムは2つ以上のカメラを有し、好ましくはロボットアームに取り付けられる。これは、学習されるべき物体の非常に多くの外観および細部に関する詳細な3次元情報をアルゴリズムに提供するステレオ画像の利点をもたらす。
追加的な実施形態によれば、画像処理手段は、物体がロボットの光学システムに紹介される視野内の物体の規則的または振動性の動きを認識するように適合される。このようにして、ロボットは学習フェーズを開始するように命じられることができる。
別の実施形態によれば、光学システムは、静止ピクセル(stationary pixels)、移動ピクセル(moving pixels)、既知のピクセル(known pixels)及び未知のピクセル(unknown pixels)を含む全体画像(overall image)を提供する。有利には、グリッパの位置およびその向き、ならびにグリッパ内の学習されるべき物体および背景画像に関する情報がロボットに提供される。従って、画像の各部が独立して識別されるとともに分解される(resolved)。これは、画像セグメンテーションが迅速かつ効果的に実行され得るという利点を提供する。すなわち、関心のある領域/物体ならびに関心のある領域/物体が属するピクセルが迅速に識別される。セグメンテーションの問題は直感的で洗練されロバストな方法で解決され、おまけとして、握る方法により、物体のコンプライアンスなど物体に関する追加的な情報を学習することができる。
別の実施形態によれば、画像処理手段は、所定の運動パターンに従って、グリッパおよびロボットにより学習されるべき物体の動きを命令するように適合される。所定の運動パターンは、例えば、並進および回転等、既知の運動及びマニピュレーションパターンを含み、学習されるべき物体、グリッパおよび背景画像の情報を互いから識別するための手段をもたらす。
別の実施形態によれば、画像処理手段は、グリッパの位置および動きを監視するように適合される。従って、全体画像の中に見られる(既知の形態/画像を有する)グリッパの位置および動きを決定することができる。
さらなる実施形態によれば、画像処理手段は、学習されるべき物体の形状、色、および/またはテクスチャ(texture)を決定するように適合される。コントローラは、グリッパおよび学習されるべき物体の所定の動きを命令する。従って、全体画像のどの部分がグリッパであるか知ることができるとともにそれによってこれらの部分をそれに応じて取り除くことができるので、学習されるべき物体を検知するとともに測定するために、画像処理手段は、グリッパ内の学習されるべき物体の様々なパラメータおよび特性を決定することができる。
別の実施形態によれば、光学システムからの全体画像はグリッパに属するピクセルを含む。コントローラは、グリッパの動きを命令するとともに、命令された動きにより、グリッパの位置および向きを知る。その結果、全体画像内のどのピクセルがグリッパに関連するかが知られる。従って、学習されるべき物体ではないグリッパは、全体画像から容易に認識されるとともに無視または除去されるので、より少ない無関係な情報の量が全体画像中に残る。
さらなる実施形態によれば、画像処理手段は、残りの画像を生成するために、全体画像からグリッパに属するピクセルを取り去るよう適合される。これは、より少ない数のピクセルが処理されそれに続く解析で認識される利点をもたらす。このように、グリッパの視覚特性は関心のある物体に関連付けられない。
別の実施形態によれば、画像処理手段は、物体ピクセルと背景ピクセルとを含む、残りの画像を検出するよう適合される。画像中に2つのセットのピクセルしか残らないようにすることは、学習されるべき物体の識別に必要な処理の量を大幅に減らす。
それに続く実施形態によれば、画像処理手段は、背景ピクセルを検出するよう適合される。コントローラは、グリッパおよびグリッパ内の学習されるべき物体の動きを命令するので、残りの画像が学習されるべき物体および背景のみを含むように画像処理手段は全体画像からグリッパを取り除く。学習されるべき物体は、コントローラにより命令された所定の運動パターンに関連した運動パターンを示す。背景は変化しない、またはコントローラによるまたはアームの所定の動きに関連付けられた動きを示さない。従って、背景ピクセルは容易に識別されるとともに残りの画像から取り除かれる。この残りの画像は、学習されるべき物体のみを残す。
さらなる実施形態によれば、画像処理手段は、所定の運動パターンに従って物体ピクセルを検出するよう適合される。コントローラは、グリッパおよびグリッパ内の学習されるべき物体の動きを命令するので、画像処理手段は、残りの画像が学習されるべき物体および背景のみを含むように、全体画像からグリッパを取り除くことができる。学習されるべき物体は、所定の運動パターンに関連した運動パターンを示す。背景は変化しない、或いは所定の動きに従った動きを示さない。従って、所定の動きに従った動きを示すピクセルは、グリップ内の物体に属するもの、従って学習されるべき物体として識別される。
別の実施形態によれば、画像処理手段は、物体ピクセルに従って学習されるべき物体を識別するよう適合される。物体の識別は、物体ピクセルの識別により遂行される。この物体ピクセルは、物体がグリッパに把持されるときに所定の運動パターンに従って動く。従って、学習され、物体はロボットのデータベースに取り入れられることができる状態になり、ロボットは物体に関する支援を提供できる状態になる。
さらなる実施形態によれば、ロボットは、ロボットアームの複数の動きを監視するとともに記憶するよう適合された教示インターフェースを有する。従って、ユーザは、例えば、リモート/触覚インターフェースなどにより、物体を拾い上げるようロボットを制御することができる、或いは、特定の関心のある物体をどのように拾い上げるまたは握るかをロボットに教えるために、ユーザはロボットのアームをつかんでアームを直接ガイドすることができる。握る方法は、後に続く物体との遭遇を効率化するために、物体の認識に組み合わされる、物体の認識が記憶され、物体の認識と関連付けられてもよい。これは、ロボットによる課題の半自律の実行を促進するとともに、より役立つようにする。
本発明のこれらのおよび他の態様は、後述の実施形態を参照して明らかになるとともに説明される。
図1は、物体学習ロボット10の配置を示す。ロボット10は、グリッパ14、光学システム16、入力装置26、コントローラ24および画像処理手段28を有する。グリッパ14は、ロボット10に、学習されるべき物体11を受け取り、把持し、扱うことを可能にする。光学システム16は、グリッパ14および学習されるべき任意の物体11を観察するための視野を有する。入力装置26は、コントローラ24と通信するとともにユーザがロボット10に学習されるべき物体11を識別することを可能にする。物体アイデンティティを提供するための入力装置26は、例えばマイクロフォンなどのオーディオ装置でもよく、キーボード、タッチパッド、またはロボット10に対して物体を識別するための他の装置であってもよい。ユーザは、ロボット10を、例えばリモート/触覚インターフェースなどの入力装置26を用いて物体を拾い上げるように制御することができる。あるいは、エンドユーザがロボット10のアームまたはグリッパ14を持ち直接ガイドすることができる、或いはアーム22/グリッパ14に接続された教示インターフェース21を介して命令してもよい。ユーザはそのときにロボット10に特定の関心のある物体を握るまたは持つ特定の方法を教えることができる。これは、ロボット10が握る方法と関心のある物体を結びつけることができるという利点を与える。
コントローラ24は、グリッパ14、光学システム16、入力装置26および画像処理手段28と通信する。コントローラ24は、例えば並進および回転などの所定の運動パターンに従ってグリッパ14を光学システム16の視野内で誘導するように用いられる。画像処理手段28は、その後、物体を学習するとともに物体アイデンティティと関連付けるために、光学システム16により得られるとともに光学システム16から受け取った画像データを解析する。
コントローラ24は、グリッパ14およびグリッパ14に把持された物体の所定の動きを命令するためのアルゴリズム20を有してもよい。しかし、他のハードウェアおよびソフトウェアが、コントローラ24を実装するために用いられてもよい。同様に、画像処理手段28は、例えば、マイクロプロセッサの、またはハードウェアの、または両方の組み合わせの等、ソフトウェア内に実装されてもよい。
ロボット10は、特定の課題、すなわち、キッチン補助または家庭の掃除を有してもよく、この目的に基づいて様々な付属品または能力を有してもよい。グリッパ14はロボットアーム22に取り付けられてもよい。この配置は、指定された課題を達成するロボット10の広範囲の動きおよび影響をもたらす。この配置はまた、人間の腕および手の配置とも類似し、そのためユーザが関わるあるいは収容し易くなり得る。ロボットのさらなる応用は、人間工学的、離れた場所にある、安全な、高齢者および身体障害者の支援、および遠隔操作されるロボットを含んでもよいが、これらに限られるものではない。
光学システム16は、アーム22に取り付けられることができ、さらに1つまたは複数のカメラ17、18を有することができる。これらのカメラ17、18は、アーム22またはロボット10の他の場所に取り付けられ得る。単一のカメラ17は、グリッパ14の位置および学習されるべき物体11の位置に関する有用な情報を提供することができ、コントローラ24および画像処理手段28は、学習されるべき物体11を、観察し、解析し、学習するために使用される。図1および図3に示すように、2つ以上のカメラ17、18が同時に使用される場合、コントローラ24に提供されたグリッパ14および学習されるべき物体11のステレオまたは3次元画像は、学習されるべき物体11に関して非常に詳細で情報量が多くなり得る。さらに、アーム22に取り付けられた光学システム16を有することは、コントローラ24および画像処理手段28が計算するとともに調整するために必要である、光学システム16と学習されるべき物体11との間に起こり得る動きの変化があまりないという利点をもたらす。この配置は、頭部に装着した光学システムに比べてその単純さのために有利であるとともに、コントローラ24および画像処理手段28のより単純な要件によりグリッパ14および学習されるべき物体11の観察をより迅速にする。光学システム16のカメラ17、18は、さまざまなアーム位置と物体サイズに適応させるために、手動或いはコントローラ24による命令により可動であってもよい。
図2は物体学習ロボットのための方法を示す。図3は、対応する方法と物体学習ロボット10の統合を示す。この対応する方法は、ステップ30において、ロボット10に物体11が学習されるべきであることを示すために、ロボット10の光学システム16の視野に学習されるべき物体11を紹介するステップを含む。物体11は、ロボット10に規則的或いは振動性の運動で紹介され得る。次に、ステップ32において、物体11に対応する物体アイデンティティがロボット10にロボット10の入力装置26を用いて提供される。このステップは、物体の名前をロボット10に言葉で述べることにより、或いはロボット10のまたはロボット10と通信するキーボード或いは他の入力装置を介して物体に対するコードまたは名前を入力することにより達成される。物体学習の方法はさらに、ロボット10のグリッパ14に物体を受け取るとともに把持するステップ34を有する。このとき、ロボット10は、例えば、物体をステップ30においてロボットの視野内で規則的または振動性を有する方法で動かすことにより学習プロセスを開始するよう合図されること、およびステップ32において物体をロボット10に認識させること等、学習プロセスを引き継ぐ。もちろん、学習フェーズの開始は、例えば、入力装置26を介して対応する命令を与えることによるなど、他の方法で合図されることも可能である。
次に、ステップ36において、ロボット10は、コントローラ24による所定の運動パターンに従ったグリッパ14および物体11の動きを制御する。このコントローラ24はグリッパ14と通信する。コントローラ24は、物体を出来る限り効率的に見るために、グリッパ14および物体11の計画されたまたは所定の運動パターンを命令する。これは、物体11の詳細な解析を可能にする。次に、ステップ38において、ロボット10の光学システム16は全体画像P0を生成するために物体を観察する。光学システム16は、グリッパ14およびグリッパ14により把持された如何なる物体も見る。最後に、ステップ40において、画像処理手段28は、予め提供された物体アイデンティティに関連付けるために、物体11の全体画像P0を解析する。
コントローラ24はグリッパ14の動きを命令する。したがって、グリッパ14内の如何なる物体11も、コントローラ24により命令される所定の運動パターンに沿って動く。コントローラ24のこの所定の運動パターンにより、ロボット10は、撮像システムを通じて作り出された画像から物体11を観察するとともに最終的に学習する。このプロセスはいつでも遂行されてもよく、ロボット10がオフライン、非番、或いは運転休止中である必要がない。ロボット10は、物体を学習するための所定の観察および学習運動の完了時に通常の活動を再開することができる。
物体学習ロボット10は、光学システム16の視野内の物体の所定の運動から全体画像P0を検出する。全体画像P0は、例えば、複数の静止ピクセル、複数の移動ピクセル、複数の既知のピクセル及び複数の未知のピクセルなど、複数のピクセルを含み得る。光学システム16からの全体画像P0の様々な部分は、物体の学習およびそれに続く物体の識別をより効率化するとともに合理化するために、さまざまなカテゴリーに識別されるとともに分類され得る。
コントローラ24に従った学習されるべき物体11の動きは、コントローラ24に取り込まれた、例えば、並進および回転などの所定の運動パターンに従う。したがって、コントローラ24は、秩序だった方法で物体を学習するために、グリッパ14内の学習されるべき物体11の正確な、所定の一連の動作を命令する。運動は、予め決められているが、グリッパ14内の物体の広範囲の可能な向きに対応するため、および不規則な形状および様々なサイズを有する物体に対応するために、いくらか多様性がある。
コントローラ24は位置および運動を命令するので、例えば、グリッパ14の位置および運動など、状態情報Sがコントローラ24に知られる。コントローラ24は、グリッパ14およびアーム22に関連するハードウェアと通信する。アーム22のハードウェアはいくつかのアクチュエータA、B、Cを有し得る。このアクチュエータA、B、Cはアーム22の関節接合および運動を可能にする関節である。グリッパ14も、グリッパ14が物体11を握ることを可能にするいくつかのアクチュエータG、Hを有し得る。アクチュエータA、B、C、G、Hは、コントローラ24に、個々のアクチュエータの測定された角度および特定の方向における個々のアクチュエータにより加えられた力を含む、入力またはフィードバック情報Mを供給することができる。コントローラ24は、学習プロセスにおいてグリッパ14の所定の運動を命令するとともに画像処理手段28と通信する。したがって、コントローラ24および画像処理手段28はグリッパ14の位置を知り、グリッパに属するピクセルPGが光学システム16により得られた画像データ内でより容易に識別される。
ロボット10は、コントローラ24への入力情報Mに従って物体の形状、色および/またはテクスチャを決定することができる。既知の力が物体に既知の方向に加えられたとき、物体の相対的な硬さあるいは柔らかさが、実際のアクチュエータの角度と、同じ入力/力が空のグリッパ14または既知のまたは基準の硬さを有する物体11を把持しているグリッパ14に加えられたものについてのマップに基づく理想的なアクチュエータの角度との比較を通じて決定され得る。さらに、異なるタイプの触覚センサが、物体11に関連する触覚に関する特徴Tに関するより多くの詳細を提供するために使用されてもよい。
ロボット10は、コントローラ24からグリッパ14への命令によりグリッパ14の位置を知る。全体画像はコヒーレント運動を示すコヒーレントピクセルPCを含み得る。すなわち、コヒーレントピクセルPCの動きはコントローラ24により命令される所定の運動パターンに合致する。コヒーレントピクセルPCのいくつかのピクセル、例えばグリッパピクセルPGはグリッパに属し、残りのピクセルは物体ピクセルPKであり得る。グリッパ14のピクセル化された外観は、グリッパピクセルPGを迅速かつ容易に識別するために、コントローラ24内にマップされるとともに組み込まれる。したがって、学習されるべき物体11は、グリッパ14内の位置により光学システム16を介して容易に識別可能になる。物体の物体ピクセルPKは、グリッパピクセルPGが全体画像から取り除かれた後に容易に識別される。全体ピクセルPO、背景ピクセルPB、並びにグリッパピクセルPGと物体ピクセルPKとを含むコヒーレントピクセルPCの考えられるビューが図4に示される。背景ピクセルPBは、グリッパ14の動き、並びにグリッパ14、物体11および背景に関する光学システム16の相対的な動きにより、ぼけを示し得る。
グリッパ14は、ロボット10のアーム22に取り付けられ得る。これは、アーム22がアーム22の範囲内のほぼどこでもグリッパ14に異なる物体を握るように調整されるまたは移動され得るという利点をもたらす。光学システム16はさらに、ロボット10のアーム22に取り付けられた1つまたは複数のカメラ17、18を有し得る。この配置において、光学システム16とグリッパ14および学習されるべき物体11との間に関節、アクチュエータまたは付属物は少ししかない。光学システム16とグリッパ14との間の角度の可能性が限定されることは、学習されるべき物体11を識別するとともに物体11の追加の特徴を決定するためのより単純な計算の手はずをもたらす。したがって、コントローラ24および画像処理手段28の機能および実装が簡易化される。光学システム16は、物体11のより詳細な学習のために、学習されるべき物体11のステレオまたは3次元画像を提供する2つ以上のカメラ17、18を有してもよい。
上述のように、グリッパピクセルPGは、全体画像POから差し引かれ得る。グリッパピクセルPGが全体画像POから差し引かれた後、全体画像POには著しく少ない数のピクセルしか残らない。これらの残っているピクセルは、背景ピクセルと物体ピクセルとを含む。したがって、画像処理はさらに簡易化される。
別の装置によれば、グリッパピクセルPGが全体画像POから差し引かれた後、ロボット10は、残っている画像を検出し得る。この画像は主として物体ピクセルPKと背景ピクセルとを含む。物体ピクセルPKは、コントローラ24を介してグリッパ14に伝えられた所定の動きに従ってコヒーレント運動を示す。物体ピクセルPKの動きはグリッパ14の動きに一致する。それに反して、背景ピクセルPBは、概して静止している或いはコントローラ24により命令された所定の動きに対してインコヒーレントな方法で動く。したがって、物体ピクセルPKおよび背景ピクセルPBは、独立して識別可能である。これは、グリッパ14から伝えられた所定の運動に従った、学習されるべき物体11の所定の運動と、コントローラ24により命令されたグリッパ14の所定の動きに対する背景ピクセルPBの相対的に静止した或いはインコヒーレントな動きとの間の運動の差異に基づく。
したがって、学習されるべき物体11は画像処理手段28により識別40される。コントローラ24により命令された所定の動きに対する背景ピクセルPBのインコヒーレントな動きは、画像処理手段28に、背景ピクセルPBを識別してそれにより残りの画像からそれを取り除くことをもたらす。このステップの後、物体ピクセルPKのみが残る。ロボット10は、学習されるべき物体11をこれらの最終的に残っているピクセル、物体ピクセルPKに対応する特性に関連付ける。
本発明は図面および上述の記述で詳細に図示されるとともに記載されているが、このような図示および記載は説明或いは例示とみなされるべきであり限定するものではない。本発明は開示された実施形態に限定されるものではない。開示された実施形態の他の変形は、図面、開示および添付の特許請求の範囲の検討から、特許請求の範囲に記載された本発明を実施する際に当業者により理解されると共に実施される。
特許請求の範囲において、「備える」または「含む」(「comprising」)の語は、他の要素またはステップを除外せず、不定冠詞「1つの」(「a」または「an」)は複数を除外しない。単一の要素または他のユニットは特許請求の範囲に挙げられた幾つかの項目の機能を果たし得る。特定の手段が互いに異なる従属請求項に列挙されているという単なる事実は、これらの手段の組み合わせが有利に使用できないということを示すものではない。
本発明に従って用いられた制御方法または画像処理方法が実装されたコンピュータプログラムは、他のハードウェアと共に又は他のハードウェアの一部として供給される光記憶媒体又は固体媒体のような、適切な媒体上で保存/配布されても良いが、インターネット又はその他の有線若しくは無線通信システムを介してのような、他の形態で配布されても良い。
請求項におけるいずれの参照記号も、請求の範囲を限定するものとして解釈されるべきではない。
Claims (15)
- − ロボットに学習されるべき物体を把持するためのグリッパと、
− 前記物体を前記ロボットに紹介するとともに前記グリッパおよび前記グリッパにより把持された前記物体を観察するための視野を有する光学システムと、
− 前記ロボットに学習されるべき物体の物体アイデンティティを提供するための入力装置と、
− 所定の運動パターンに従って前記グリッパの動きを制御するためのコントローラと、
− 前記物体アイデンティティとの関連付けのために前記物体を識別する前記光学システムから得られた画像データを解析するための画像処理手段と、
を有する、物体学習ロボット - 前記画像処理手段は、前記物体が前記ロボットに紹介される前記視野内の前記物体の規則的または振動性の動きを認識するように適合される、
請求項1に記載のロボット。 - 前記光学システムは、ロボットアームに取り付けられる、
請求項1に記載のロボット。 - 前記光学システムは、2つ以上のカメラを有する、
請求項1に記載のロボット。 - 前記光学システムは、静止ピクセル、移動ピクセル、既知のピクセルおよび未知のピクセルを含む全体画像を提供する、
請求項1に記載のロボット。 - 前記コントローラは、前記所定の運動パターンに従って、前記グリッパおよび前記ロボットにより学習されるべき物体の動きを命令するよう適合される、
請求項1に記載のロボット。 - 前記画像処理手段は、前記グリッパの位置および動きを監視するように適合される、
請求項1に記載のロボット。 - 前記画像処理手段は、前記学習されるべき物体の形状、色、および/またはテクスチャを決定するように適合される、
請求項1に記載のロボット。 - 前記光学システムからの前記全体画像は前記グリッパに属するピクセルを含み、前記画像処理手段は、残りの画像を生成するために、前記全体画像から前記グリッパに属する前記ピクセルを取り去るよう適合される、
請求項5に記載のロボット。 - 前記画像処理手段は、物体ピクセルと背景ピクセルとを含む前記残りの画像を解析するよう適合される
請求項9に記載のロボット。 - 前記画像処理手段は、前記背景ピクセルを検出するよう適合される、
請求項10に記載のロボット。 - 前記画像処理手段は、前記所定の運動パターンに従って前記物体ピクセルを検出するよう適合される、
請求項10に記載のロボット。 - 前記画像処理手段は、前記物体ピクセルに従って前記学習されるべき物体を識別するよう適合される、
請求項12に記載のロボット。 - ロボットアームの複数の動きを監視するとともに記憶するよう適合された教示インターフェースをさらに有する、
請求項1に記載のロボット。 - − 物体が学習されるべきであることをロボットに示すために、学習されるべき前記物体を前記ロボットの光学システムの視野内に紹介するステップと、
− 前記ロボットに前記学習されるべき物体に対応する物体アイデンティティを前記ロボットの入力装置で提供するステップと、
− 前記学習されるべき物体を前記ロボットのグリッパで把持するステップと、
− 所定の運動パターンに従って前記グリッパおよび前記学習されるべき物体の動きを制御するステップと、
− 前記物体アイデンティティとの関連付けのために前記物体を識別するよう前記光学システムから得られた画像データを解析するステップと、
を有する、物体学習ロボットのための方法
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09158605.7 | 2009-04-23 | ||
EP09158605 | 2009-04-23 | ||
PCT/IB2010/051583 WO2010122445A1 (en) | 2009-04-23 | 2010-04-13 | Object-learning robot and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012524663A true JP2012524663A (ja) | 2012-10-18 |
Family
ID=42341460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012506609A Withdrawn JP2012524663A (ja) | 2009-04-23 | 2010-04-13 | 物体学習ロボットおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20120053728A1 (ja) |
EP (1) | EP2422295A1 (ja) |
JP (1) | JP2012524663A (ja) |
KR (1) | KR20120027253A (ja) |
CN (1) | CN102414696A (ja) |
WO (1) | WO2010122445A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180114217A (ko) * | 2016-03-03 | 2018-10-17 | 구글 엘엘씨 | 로봇 파지용 심층 기계 학습 방법 및 장치 |
JP2019518297A (ja) * | 2016-05-19 | 2019-06-27 | ディープ ラーニング ロボティクス リミテッドDeep Learning Robotics Ltd. | ロボット支援型物体学習視覚システム |
JP2019531907A (ja) * | 2016-07-18 | 2019-11-07 | ラエル オドナー, | ロボット把持の査定 |
US10639792B2 (en) | 2016-03-03 | 2020-05-05 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
EP3660517B1 (en) * | 2010-11-23 | 2024-04-03 | Andrew Alliance S.A | Apparatus for programmable manipulation of pipettes |
US9566710B2 (en) | 2011-06-02 | 2017-02-14 | Brain Corporation | Apparatus and methods for operating robotic devices using selective state space training |
NL2006950C2 (en) * | 2011-06-16 | 2012-12-18 | Kampri Support B V | Cleaning of crockery. |
US8843236B2 (en) * | 2012-03-15 | 2014-09-23 | GM Global Technology Operations LLC | Method and system for training a robot using human-assisted task demonstration |
US20130343640A1 (en) | 2012-06-21 | 2013-12-26 | Rethink Robotics, Inc. | Vision-guided robots and methods of training them |
US9183631B2 (en) * | 2012-06-29 | 2015-11-10 | Mitsubishi Electric Research Laboratories, Inc. | Method for registering points and planes of 3D data in multiple coordinate systems |
EP2685403A3 (en) | 2012-07-09 | 2017-03-01 | Technion Research & Development Foundation Limited | Natural machine interface system |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US9242372B2 (en) | 2013-05-31 | 2016-01-26 | Brain Corporation | Adaptive robotic interface apparatus and methods |
US9314924B1 (en) | 2013-06-14 | 2016-04-19 | Brain Corporation | Predictive robotic controller apparatus and methods |
US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
US20150032258A1 (en) * | 2013-07-29 | 2015-01-29 | Brain Corporation | Apparatus and methods for controlling of robotic devices |
US9296101B2 (en) | 2013-09-27 | 2016-03-29 | Brain Corporation | Robotic control arbitration apparatus and methods |
US9579789B2 (en) | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
US9463571B2 (en) | 2013-11-01 | 2016-10-11 | Brian Corporation | Apparatus and methods for online training of robots |
US9597797B2 (en) | 2013-11-01 | 2017-03-21 | Brain Corporation | Apparatus and methods for haptic training of robots |
US9248569B2 (en) | 2013-11-22 | 2016-02-02 | Brain Corporation | Discrepancy detection apparatus and methods for machine learning |
US9358685B2 (en) | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
US9737990B2 (en) | 2014-05-16 | 2017-08-22 | Microsoft Technology Licensing, Llc | Program synthesis for robotic tasks |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
US9881349B1 (en) | 2014-10-24 | 2018-01-30 | Gopro, Inc. | Apparatus and methods for computerized object identification |
US9492923B2 (en) | 2014-12-16 | 2016-11-15 | Amazon Technologies, Inc. | Generating robotic grasping instructions for inventory items |
US9717387B1 (en) | 2015-02-26 | 2017-08-01 | Brain Corporation | Apparatus and methods for programming and training of robotic household appliances |
US9878447B2 (en) * | 2015-04-10 | 2018-01-30 | Microsoft Technology Licensing, Llc | Automated collection and labeling of object data |
US10089575B1 (en) | 2015-05-27 | 2018-10-02 | X Development Llc | Determining grasping parameters for grasping of an object by a robot grasping end effector |
CN104959990B (zh) * | 2015-07-09 | 2017-03-15 | 江苏省电力公司连云港供电公司 | 一种配网检修机械手臂及其方法 |
DE102015111748B4 (de) * | 2015-07-20 | 2024-09-19 | Deutsche Post Ag | Verfahren und Übergabevorrichtung zur Übergabe von personenbezogenen Sendungen |
US9751211B1 (en) * | 2015-10-08 | 2017-09-05 | Google Inc. | Smart robot part |
JP6744709B2 (ja) * | 2015-11-30 | 2020-08-19 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US9975241B2 (en) * | 2015-12-03 | 2018-05-22 | Intel Corporation | Machine object determination based on human interaction |
US9981382B1 (en) | 2016-06-03 | 2018-05-29 | X Development Llc | Support stand to reorient the grasp of an object by a robot |
US10430657B2 (en) | 2016-12-12 | 2019-10-01 | X Development Llc | Object recognition tool |
EP3589457B1 (en) * | 2017-03-01 | 2022-01-12 | Omron Corporation | Monitored control system |
CN110382173B (zh) * | 2017-03-10 | 2023-05-09 | Abb瑞士股份有限公司 | 用于标识物体的方法和设备 |
JP6325174B1 (ja) | 2017-04-04 | 2018-05-16 | 株式会社Mujin | 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法 |
DE112017007398B4 (de) | 2017-04-04 | 2021-11-18 | Mujin, Inc. | Steuervorrichtung, Greifsystem, Verteilersystem, Programm und Steuerverfahren |
WO2018185857A1 (ja) * | 2017-04-04 | 2018-10-11 | 株式会社Mujin | 情報処理装置、ピッキングシステム、物流システム、プログラム、及び、情報処理方法 |
CN115385039A (zh) | 2017-04-04 | 2022-11-25 | 牧今科技 | 控制装置、信息处理装置、控制方法以及信息处理方法 |
DE112017007392B4 (de) | 2017-04-04 | 2021-11-04 | Mujin, Inc. | Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren |
JP6457587B2 (ja) * | 2017-06-07 | 2019-01-23 | ファナック株式会社 | ワークの動画に基づいて教示点を設定するロボットの教示装置 |
JP6948516B2 (ja) * | 2017-07-14 | 2021-10-13 | パナソニックIpマネジメント株式会社 | 食器処理機 |
CN107977668A (zh) * | 2017-07-28 | 2018-05-01 | 北京物灵智能科技有限公司 | 一种机器人图像识别方法及系统 |
US10952591B2 (en) * | 2018-02-02 | 2021-03-23 | Dishcraft Robotics, Inc. | Intelligent dishwashing systems and methods |
TWI822729B (zh) | 2018-02-06 | 2023-11-21 | 美商即時機器人股份有限公司 | 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備 |
US11738457B2 (en) * | 2018-03-21 | 2023-08-29 | Realtime Robotics, Inc. | Motion planning of a robot for various environments and tasks and improved operation of same |
WO2020061725A1 (en) * | 2018-09-25 | 2020-04-02 | Shenzhen Dorabot Robotics Co., Ltd. | Method and system of detecting and tracking objects in a workspace |
JP7047726B2 (ja) * | 2018-11-27 | 2022-04-05 | トヨタ自動車株式会社 | 把持ロボットおよび把持ロボットの制御プログラム |
KR102619004B1 (ko) | 2018-12-14 | 2023-12-29 | 삼성전자 주식회사 | 로봇 장치 및 로봇의 작업 기술을 학습하는 방법 |
US20210001488A1 (en) * | 2019-07-03 | 2021-01-07 | Dishcraft Robotics, Inc. | Silverware processing systems and methods |
US11584004B2 (en) | 2019-12-17 | 2023-02-21 | X Development Llc | Autonomous object learning by robots triggered by remote operators |
KR20220065232A (ko) | 2020-11-13 | 2022-05-20 | 주식회사 플라잎 | 강화학습 기반으로 로봇을 제어하는 장치 및 방법 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58177295A (ja) * | 1982-04-07 | 1983-10-17 | 株式会社日立製作所 | ロボット制御装置 |
JPS63288683A (ja) * | 1987-05-21 | 1988-11-25 | 株式会社東芝 | 組立てロボット |
JP3633642B2 (ja) * | 1994-02-28 | 2005-03-30 | 富士通株式会社 | 情報の処理装置 |
JP3300682B2 (ja) * | 1999-04-08 | 2002-07-08 | ファナック株式会社 | 画像処理機能を持つロボット装置 |
JP3529049B2 (ja) * | 2002-03-06 | 2004-05-24 | ソニー株式会社 | 学習装置及び学習方法並びにロボット装置 |
JP4407244B2 (ja) * | 2003-11-11 | 2010-02-03 | ソニー株式会社 | ロボット装置及びその物体学習方法 |
FR2872728B1 (fr) * | 2004-07-06 | 2006-09-15 | Commissariat Energie Atomique | Procede de saisie d'un objet par un bras de robot muni d'une camera |
EP1739594B1 (en) * | 2005-06-27 | 2009-10-28 | Honda Research Institute Europe GmbH | Peripersonal space and object recognition for humanoid robots |
JP4364266B2 (ja) * | 2007-08-01 | 2009-11-11 | 株式会社東芝 | 画像処理装置およびプログラム |
JP4504433B2 (ja) * | 2008-01-29 | 2010-07-14 | 株式会社東芝 | オブジェクト探索装置及び方法 |
-
2010
- 2010-04-13 JP JP2012506609A patent/JP2012524663A/ja not_active Withdrawn
- 2010-04-13 CN CN201080017775XA patent/CN102414696A/zh active Pending
- 2010-04-13 EP EP10716892A patent/EP2422295A1/en not_active Withdrawn
- 2010-04-13 WO PCT/IB2010/051583 patent/WO2010122445A1/en active Application Filing
- 2010-04-13 KR KR1020117027637A patent/KR20120027253A/ko not_active Application Discontinuation
- 2010-04-13 US US13/265,894 patent/US20120053728A1/en not_active Abandoned
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180114217A (ko) * | 2016-03-03 | 2018-10-17 | 구글 엘엘씨 | 로봇 파지용 심층 기계 학습 방법 및 장치 |
KR102023588B1 (ko) | 2016-03-03 | 2019-10-14 | 구글 엘엘씨 | 로봇 파지용 심층 기계 학습 방법 및 장치 |
US10639792B2 (en) | 2016-03-03 | 2020-05-05 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
US10946515B2 (en) | 2016-03-03 | 2021-03-16 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
US11045949B2 (en) | 2016-03-03 | 2021-06-29 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
US11548145B2 (en) | 2016-03-03 | 2023-01-10 | Google Llc | Deep machine learning methods and apparatus for robotic grasping |
JP2019518297A (ja) * | 2016-05-19 | 2019-06-27 | ディープ ラーニング ロボティクス リミテッドDeep Learning Robotics Ltd. | ロボット支援型物体学習視覚システム |
JP2019531907A (ja) * | 2016-07-18 | 2019-11-07 | ラエル オドナー, | ロボット把持の査定 |
JP7069110B2 (ja) | 2016-07-18 | 2022-05-17 | ラエル オドナー, | ロボット把持の査定 |
Also Published As
Publication number | Publication date |
---|---|
EP2422295A1 (en) | 2012-02-29 |
WO2010122445A1 (en) | 2010-10-28 |
CN102414696A (zh) | 2012-04-11 |
US20120053728A1 (en) | 2012-03-01 |
KR20120027253A (ko) | 2012-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012524663A (ja) | 物体学習ロボットおよび方法 | |
US8155787B2 (en) | Intelligent interface device for grasping of an object by a manipulating robot and method of implementing this device | |
US20190126484A1 (en) | Dynamic Multi-Sensor and Multi-Robot Interface System | |
EP3486041A3 (en) | Gripping system, learning device, and gripping method | |
JP5471355B2 (ja) | 3次元視覚センサ | |
WO2016189924A1 (ja) | ロボット操作装置およびプログラム | |
JP7050573B2 (ja) | 物品配置システム及び食品盛り付けシステム | |
JP2011110620A (ja) | ロボットの動作を制御する方法およびロボットシステム | |
JP2011110621A (ja) | ロボットの教示データを作成する方法およびロボット教示システム | |
Peer et al. | Multi-fingered telemanipulation-mapping of a human hand to a three finger gripper | |
WO2022191414A1 (en) | Parameterized waypoint generation on dynamically parented non-static objects for robotic autonomous tasks | |
JP7000253B2 (ja) | 力覚視覚化装置、ロボットおよび力覚視覚化プログラム | |
CN114449970B (zh) | 使用器具推断装置、方法以及手术辅助机器人 | |
Seita et al. | Robot bed-making: Deep transfer learning using depth sensing of deformable fabric | |
US20220152825A1 (en) | Automated manipulation of objects using a vision-based method for determining collision-free motion planning | |
Ke et al. | Telemanipulation with chopsticks: Analyzing human factors in user demonstrations | |
JP6067547B2 (ja) | 物体認識装置、ロボット及び物体認識方法 | |
JP2023181513A (ja) | 教示システム、教示方法及び教示プログラム | |
Chu et al. | Hands-free assistive manipulator using augmented reality and tongue drive system | |
CN116229156A (zh) | 机器人及其控制方法、装置和可读存储介质 | |
JP2006167902A (ja) | 双腕ロボットの制御装置および制御方法 | |
KR20230056321A (ko) | 로봇 손 시스템 및 로봇 손 제어 방법 | |
Wu et al. | Visual servoing for object manipulation: A case study in slaughterhouse | |
Ma et al. | Task evaluations of a compact laparoscopic surgical robot system | |
WO2019064752A1 (ja) | ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130412 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20130422 |