JP2012524663A - 物体学習ロボットおよび方法 - Google Patents

物体学習ロボットおよび方法 Download PDF

Info

Publication number
JP2012524663A
JP2012524663A JP2012506609A JP2012506609A JP2012524663A JP 2012524663 A JP2012524663 A JP 2012524663A JP 2012506609 A JP2012506609 A JP 2012506609A JP 2012506609 A JP2012506609 A JP 2012506609A JP 2012524663 A JP2012524663 A JP 2012524663A
Authority
JP
Japan
Prior art keywords
robot
gripper
learned
pixels
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012506609A
Other languages
English (en)
Inventor
テー フェルハール,バウデウェイン
ブルールス,ハリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2012524663A publication Critical patent/JP2012524663A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、物体学習ロボットおよびそれに対応する方法に関する。ロボットは、ロボット(10)に学習されるべき物体(11)を把持するためのグリッパ(14)と、物体(11)をロボット(10)に紹介するとともにグリッパ(14)およびグリッパ(14)により把持された物体(11)を観察するための視野を有する光学システム(16)と、ロボット(10)に学習されるべき物体の物体アイデンティティを提供するための入力装置(26)と、所定の運動パターンに従ってグリッパ(14)の動きを制御するためのコントローラ(24)と、物体アイデンティティとの関連付けのために物体(11)を識別する光学システム(16)から得られた画像データを解析するための画像処理手段(28)と、を有する。これは、ロボットが、学習のためのオフライン時間なしに、動的環境内で新しい物体のアイデンティティを学習することを可能にする。

Description

本発明は、物体学習ロボットおよびそれに対応する方法に関する。
物体認識は視覚の研究において広く研究されている主題である。これを行うための方法は、アルゴリズムが識別できる特徴を学習するように物体の多数の画像を提示することから成る。これは通常「オフライン」で行われ、すなわち、画像の提示が事前に行われ、使用中の適応または「学習」はない。
キッチン補助ロボットアームは棚、戸棚、冷蔵庫、オーブン、調理台、食器洗い機等から物体を摘み取るとともに棚、戸棚、冷蔵庫、オーブン、調理台、食器洗い機等へ物体置く。さらに、このようなロボットアームは、調理台を清掃し、野菜を切り、皿をすすぎ、作りたての飲み物を用意する等をすることができる。しかし、現在のロボットは、実用性に影響する多くの制限を有する。
現在のロボットの物体学習システムは、ロボットを操作するアルゴリズムが画像内の識別できる特徴を学習するようロボットに物体の多数の画像を提示することから成る。このプロセスは典型的には、ロボットがオフラインのときに、すなわちロボットが稼働中ではない或いは他の作業に使用されていないときに、遂行される。
特許文献1は、物体を学習するロボット装置及び方法を開示し、これは物体学習フェーズの動作と物体認識フェーズの動作との両方を開示する。さらに、この文献は、ロボットがユーザとの対話を必要とするとともにこの対話のために音声出力手段が備えられることを開示する。
特開2005−148851号
本発明の目的は、学習のためのオフライン時間なしに、動的環境内で新しい物体のアイデンティティを学習する物体学習ロボットおよびそれに対応する方法を提供することである。
本発明の別の目的は、物体がロボットに示されたときにロボットに物体を学習することを可能にする物体学習ロボットおよびそれに対応する方法を提供することである。
本発明の第1の態様では、
− ロボットに学習されるべき物体を把持するためのグリッパと、
− 物体をロボットに紹介するとともにグリッパおよびグリッパにより把持された物体を観察するための視野を有する光学システムと、
− ロボットに学習されるべき物体の物体アイデンティティを提供するための入力装置と、
− 所定の運動パターンに従ってグリッパの動きを制御するためのコントローラと、
− 物体アイデンティティとの関連付けのために物体を識別する光学システムから得られた画像データを解析するための画像処理手段と、
を有する、物体学習ロボットが提案される。
本発明の別の態様では、
− 物体が学習されるべきであることをロボットに示すために、学習されるべき物体をロボットの光学システムの視野内に紹介するステップと、
− ロボット(10)に学習されるべき物体に対応する物体アイデンティティをロボットの入力装置で提供するステップと、
− 学習されるべき物体をロボットのグリッパで把持するステップと、
− 所定の運動パターンに従ってグリッパおよび学習されるべき物体の動きを制御するステップと、
− 物体アイデンティティとの関連付けのために物体を識別するよう光学システムから得られた画像データを解析するステップと、
を有する、物体学習ロボットのための方法が提案される。
本発明の装置および方法は、オフライン学習時間を待つまたは起動することなしに、新しい物体に直面したときにロボットが新しい物体アイデンティティを教えられ得る、という利点をもたらす。加えて、物体学習ロボットおよびそれに対応する方法が、新たな物体を物体学習ロボットに教えるために、ロボットが稼働中にロボットに新たな物体を教えることを可能にするとともに通常のワークフローを邪魔しないことは有利である。さらに、本発明は、ロボットが言語で学習プロセスを開始することを必要とせず、ロボットのオペレータにより学習されるべき物体のロボットの視野への規則的または振動する方法での提示を通じて開始されるという、物体学習ロボットに新たな物体を教えることの利点をもたらす。従って、例えば、ロボットに学習プロセスを即座に開始することを合図する、単純で非言語的な信号が、学習フェーズを開始するのに十分で有り得る。これはいつでも行うことができるとともに予定される必要がない。
さらに、学習されるべき物体の視覚的な特徴を迅速に決定するために、物体学習ロボットおよび方法が、グリッパおよび学習されるべき物体の所定の運動のパターンを命令するコントローラを有することは有利である。
物体を物体学習ロボットに提示することによりオンライン学習を実行するために、ロボットはどの物体が認識されるべき物体の例であるかを「教えられることができる」必要がある。従って、ロボットが注目している関心のある物体の名前または特性を知るように、物体学習ロボットと学習されるべき物体の即座の識別を可能にするそれに対応する方法とを有することは、さらに有利である。
開示されたロボットおよび方法は、オンラインまたはオフラインで使用され得るが、従来技術では知られていない革新的な特徴を提供することができる。このロボットおよび方法は、2つの静止画像を単純に比較するのではなく、例えば光学システムからのライブビュー(live view)などの一連の画像を比較する。この装置は次の幾つかの利点を提供する。一連の画像の物体セグメンテーション、このために関心のある物体が、それらの特性のより完全な、包括的な視点が得られるように幾つかの視野角から観察される;物体教示中の変化する照明条件に対するより少ない感受性および非依存を伴う、より高い信頼性;全ての画像からの情報を使用することができるので、事前/事後の比較を必要としないより速い方法;ロボットからユーザへの音声指令が無い−ユーザは物体をロボットに手渡すだけである;従って、この方法はまたより直感的である。
実施形態によれば、グリッパがロボットのアームに取り付けられる。これは、アームとグリッパの動作の範囲を人間のものと同様にすることができるという利点を提供する。これはロボットを有するとともに操作するために必要な設備を単純にする。
別の実施形態によれば、光学システムがロボットのアームに取り付けられる。これは、アーム上のカメラの正確な位置に応じて、アームの動きとカメラの動きとが同様または同一になるという利点を提供する。これは、グリッパ、グリッパ内の学習されるべき物体、およびロボットの学習中には重要ではない背景の情報を識別することに関するアルゴリズムを単純にする。より具体的には、画像シーケンス、例えば、物体アイデンティティに関連付けて物体を識別するための光学システムから得られた画像データ、が時間で積分されると、背景が不鮮明になるまたは区別し難くなり得る一方、関心のある物体およびおそらくロボットアーム自体は不鮮明にならなくすることができる。また、グリッパを有するアームのコンプライアンスまたは機械的な不完全さにより、いかなる不鮮明も小さいかもしれない。
さらなる実施形態によれば、光学システムは2つ以上のカメラを有し、好ましくはロボットアームに取り付けられる。これは、学習されるべき物体の非常に多くの外観および細部に関する詳細な3次元情報をアルゴリズムに提供するステレオ画像の利点をもたらす。
追加的な実施形態によれば、画像処理手段は、物体がロボットの光学システムに紹介される視野内の物体の規則的または振動性の動きを認識するように適合される。このようにして、ロボットは学習フェーズを開始するように命じられることができる。
別の実施形態によれば、光学システムは、静止ピクセル(stationary pixels)、移動ピクセル(moving pixels)、既知のピクセル(known pixels)及び未知のピクセル(unknown pixels)を含む全体画像(overall image)を提供する。有利には、グリッパの位置およびその向き、ならびにグリッパ内の学習されるべき物体および背景画像に関する情報がロボットに提供される。従って、画像の各部が独立して識別されるとともに分解される(resolved)。これは、画像セグメンテーションが迅速かつ効果的に実行され得るという利点を提供する。すなわち、関心のある領域/物体ならびに関心のある領域/物体が属するピクセルが迅速に識別される。セグメンテーションの問題は直感的で洗練されロバストな方法で解決され、おまけとして、握る方法により、物体のコンプライアンスなど物体に関する追加的な情報を学習することができる。
別の実施形態によれば、画像処理手段は、所定の運動パターンに従って、グリッパおよびロボットにより学習されるべき物体の動きを命令するように適合される。所定の運動パターンは、例えば、並進および回転等、既知の運動及びマニピュレーションパターンを含み、学習されるべき物体、グリッパおよび背景画像の情報を互いから識別するための手段をもたらす。
別の実施形態によれば、画像処理手段は、グリッパの位置および動きを監視するように適合される。従って、全体画像の中に見られる(既知の形態/画像を有する)グリッパの位置および動きを決定することができる。
さらなる実施形態によれば、画像処理手段は、学習されるべき物体の形状、色、および/またはテクスチャ(texture)を決定するように適合される。コントローラは、グリッパおよび学習されるべき物体の所定の動きを命令する。従って、全体画像のどの部分がグリッパであるか知ることができるとともにそれによってこれらの部分をそれに応じて取り除くことができるので、学習されるべき物体を検知するとともに測定するために、画像処理手段は、グリッパ内の学習されるべき物体の様々なパラメータおよび特性を決定することができる。
別の実施形態によれば、光学システムからの全体画像はグリッパに属するピクセルを含む。コントローラは、グリッパの動きを命令するとともに、命令された動きにより、グリッパの位置および向きを知る。その結果、全体画像内のどのピクセルがグリッパに関連するかが知られる。従って、学習されるべき物体ではないグリッパは、全体画像から容易に認識されるとともに無視または除去されるので、より少ない無関係な情報の量が全体画像中に残る。
さらなる実施形態によれば、画像処理手段は、残りの画像を生成するために、全体画像からグリッパに属するピクセルを取り去るよう適合される。これは、より少ない数のピクセルが処理されそれに続く解析で認識される利点をもたらす。このように、グリッパの視覚特性は関心のある物体に関連付けられない。
別の実施形態によれば、画像処理手段は、物体ピクセルと背景ピクセルとを含む、残りの画像を検出するよう適合される。画像中に2つのセットのピクセルしか残らないようにすることは、学習されるべき物体の識別に必要な処理の量を大幅に減らす。
それに続く実施形態によれば、画像処理手段は、背景ピクセルを検出するよう適合される。コントローラは、グリッパおよびグリッパ内の学習されるべき物体の動きを命令するので、残りの画像が学習されるべき物体および背景のみを含むように画像処理手段は全体画像からグリッパを取り除く。学習されるべき物体は、コントローラにより命令された所定の運動パターンに関連した運動パターンを示す。背景は変化しない、またはコントローラによるまたはアームの所定の動きに関連付けられた動きを示さない。従って、背景ピクセルは容易に識別されるとともに残りの画像から取り除かれる。この残りの画像は、学習されるべき物体のみを残す。
さらなる実施形態によれば、画像処理手段は、所定の運動パターンに従って物体ピクセルを検出するよう適合される。コントローラは、グリッパおよびグリッパ内の学習されるべき物体の動きを命令するので、画像処理手段は、残りの画像が学習されるべき物体および背景のみを含むように、全体画像からグリッパを取り除くことができる。学習されるべき物体は、所定の運動パターンに関連した運動パターンを示す。背景は変化しない、或いは所定の動きに従った動きを示さない。従って、所定の動きに従った動きを示すピクセルは、グリップ内の物体に属するもの、従って学習されるべき物体として識別される。
別の実施形態によれば、画像処理手段は、物体ピクセルに従って学習されるべき物体を識別するよう適合される。物体の識別は、物体ピクセルの識別により遂行される。この物体ピクセルは、物体がグリッパに把持されるときに所定の運動パターンに従って動く。従って、学習され、物体はロボットのデータベースに取り入れられることができる状態になり、ロボットは物体に関する支援を提供できる状態になる。
さらなる実施形態によれば、ロボットは、ロボットアームの複数の動きを監視するとともに記憶するよう適合された教示インターフェースを有する。従って、ユーザは、例えば、リモート/触覚インターフェースなどにより、物体を拾い上げるようロボットを制御することができる、或いは、特定の関心のある物体をどのように拾い上げるまたは握るかをロボットに教えるために、ユーザはロボットのアームをつかんでアームを直接ガイドすることができる。握る方法は、後に続く物体との遭遇を効率化するために、物体の認識に組み合わされる、物体の認識が記憶され、物体の認識と関連付けられてもよい。これは、ロボットによる課題の半自律の実行を促進するとともに、より役立つようにする。
本発明のこれらのおよび他の態様は、後述の実施形態を参照して明らかになるとともに説明される。
図1は、本発明の実施形態に沿った物体学習ロボットを示す。 図2は、本発明の実施形態に沿ったロボットのための物体学習方法を示す。 図3は、本発明の実施形態に沿った物体学習方法の詳細を示す。 図4は、全体ピクセル、背景ピクセル、並びにグリッパピクセルおよび物体ピクセルを含むコヒーレントピクセルの考えられるビューを表す図を示す。
図1は、物体学習ロボット10の配置を示す。ロボット10は、グリッパ14、光学システム16、入力装置26、コントローラ24および画像処理手段28を有する。グリッパ14は、ロボット10に、学習されるべき物体11を受け取り、把持し、扱うことを可能にする。光学システム16は、グリッパ14および学習されるべき任意の物体11を観察するための視野を有する。入力装置26は、コントローラ24と通信するとともにユーザがロボット10に学習されるべき物体11を識別することを可能にする。物体アイデンティティを提供するための入力装置26は、例えばマイクロフォンなどのオーディオ装置でもよく、キーボード、タッチパッド、またはロボット10に対して物体を識別するための他の装置であってもよい。ユーザは、ロボット10を、例えばリモート/触覚インターフェースなどの入力装置26を用いて物体を拾い上げるように制御することができる。あるいは、エンドユーザがロボット10のアームまたはグリッパ14を持ち直接ガイドすることができる、或いはアーム22/グリッパ14に接続された教示インターフェース21を介して命令してもよい。ユーザはそのときにロボット10に特定の関心のある物体を握るまたは持つ特定の方法を教えることができる。これは、ロボット10が握る方法と関心のある物体を結びつけることができるという利点を与える。
コントローラ24は、グリッパ14、光学システム16、入力装置26および画像処理手段28と通信する。コントローラ24は、例えば並進および回転などの所定の運動パターンに従ってグリッパ14を光学システム16の視野内で誘導するように用いられる。画像処理手段28は、その後、物体を学習するとともに物体アイデンティティと関連付けるために、光学システム16により得られるとともに光学システム16から受け取った画像データを解析する。
コントローラ24は、グリッパ14およびグリッパ14に把持された物体の所定の動きを命令するためのアルゴリズム20を有してもよい。しかし、他のハードウェアおよびソフトウェアが、コントローラ24を実装するために用いられてもよい。同様に、画像処理手段28は、例えば、マイクロプロセッサの、またはハードウェアの、または両方の組み合わせの等、ソフトウェア内に実装されてもよい。
ロボット10は、特定の課題、すなわち、キッチン補助または家庭の掃除を有してもよく、この目的に基づいて様々な付属品または能力を有してもよい。グリッパ14はロボットアーム22に取り付けられてもよい。この配置は、指定された課題を達成するロボット10の広範囲の動きおよび影響をもたらす。この配置はまた、人間の腕および手の配置とも類似し、そのためユーザが関わるあるいは収容し易くなり得る。ロボットのさらなる応用は、人間工学的、離れた場所にある、安全な、高齢者および身体障害者の支援、および遠隔操作されるロボットを含んでもよいが、これらに限られるものではない。
光学システム16は、アーム22に取り付けられることができ、さらに1つまたは複数のカメラ17、18を有することができる。これらのカメラ17、18は、アーム22またはロボット10の他の場所に取り付けられ得る。単一のカメラ17は、グリッパ14の位置および学習されるべき物体11の位置に関する有用な情報を提供することができ、コントローラ24および画像処理手段28は、学習されるべき物体11を、観察し、解析し、学習するために使用される。図1および図3に示すように、2つ以上のカメラ17、18が同時に使用される場合、コントローラ24に提供されたグリッパ14および学習されるべき物体11のステレオまたは3次元画像は、学習されるべき物体11に関して非常に詳細で情報量が多くなり得る。さらに、アーム22に取り付けられた光学システム16を有することは、コントローラ24および画像処理手段28が計算するとともに調整するために必要である、光学システム16と学習されるべき物体11との間に起こり得る動きの変化があまりないという利点をもたらす。この配置は、頭部に装着した光学システムに比べてその単純さのために有利であるとともに、コントローラ24および画像処理手段28のより単純な要件によりグリッパ14および学習されるべき物体11の観察をより迅速にする。光学システム16のカメラ17、18は、さまざまなアーム位置と物体サイズに適応させるために、手動或いはコントローラ24による命令により可動であってもよい。
図2は物体学習ロボットのための方法を示す。図3は、対応する方法と物体学習ロボット10の統合を示す。この対応する方法は、ステップ30において、ロボット10に物体11が学習されるべきであることを示すために、ロボット10の光学システム16の視野に学習されるべき物体11を紹介するステップを含む。物体11は、ロボット10に規則的或いは振動性の運動で紹介され得る。次に、ステップ32において、物体11に対応する物体アイデンティティがロボット10にロボット10の入力装置26を用いて提供される。このステップは、物体の名前をロボット10に言葉で述べることにより、或いはロボット10のまたはロボット10と通信するキーボード或いは他の入力装置を介して物体に対するコードまたは名前を入力することにより達成される。物体学習の方法はさらに、ロボット10のグリッパ14に物体を受け取るとともに把持するステップ34を有する。このとき、ロボット10は、例えば、物体をステップ30においてロボットの視野内で規則的または振動性を有する方法で動かすことにより学習プロセスを開始するよう合図されること、およびステップ32において物体をロボット10に認識させること等、学習プロセスを引き継ぐ。もちろん、学習フェーズの開始は、例えば、入力装置26を介して対応する命令を与えることによるなど、他の方法で合図されることも可能である。
次に、ステップ36において、ロボット10は、コントローラ24による所定の運動パターンに従ったグリッパ14および物体11の動きを制御する。このコントローラ24はグリッパ14と通信する。コントローラ24は、物体を出来る限り効率的に見るために、グリッパ14および物体11の計画されたまたは所定の運動パターンを命令する。これは、物体11の詳細な解析を可能にする。次に、ステップ38において、ロボット10の光学システム16は全体画像Pを生成するために物体を観察する。光学システム16は、グリッパ14およびグリッパ14により把持された如何なる物体も見る。最後に、ステップ40において、画像処理手段28は、予め提供された物体アイデンティティに関連付けるために、物体11の全体画像Pを解析する。
コントローラ24はグリッパ14の動きを命令する。したがって、グリッパ14内の如何なる物体11も、コントローラ24により命令される所定の運動パターンに沿って動く。コントローラ24のこの所定の運動パターンにより、ロボット10は、撮像システムを通じて作り出された画像から物体11を観察するとともに最終的に学習する。このプロセスはいつでも遂行されてもよく、ロボット10がオフライン、非番、或いは運転休止中である必要がない。ロボット10は、物体を学習するための所定の観察および学習運動の完了時に通常の活動を再開することができる。
物体学習ロボット10は、光学システム16の視野内の物体の所定の運動から全体画像Pを検出する。全体画像Pは、例えば、複数の静止ピクセル、複数の移動ピクセル、複数の既知のピクセル及び複数の未知のピクセルなど、複数のピクセルを含み得る。光学システム16からの全体画像Pの様々な部分は、物体の学習およびそれに続く物体の識別をより効率化するとともに合理化するために、さまざまなカテゴリーに識別されるとともに分類され得る。
コントローラ24に従った学習されるべき物体11の動きは、コントローラ24に取り込まれた、例えば、並進および回転などの所定の運動パターンに従う。したがって、コントローラ24は、秩序だった方法で物体を学習するために、グリッパ14内の学習されるべき物体11の正確な、所定の一連の動作を命令する。運動は、予め決められているが、グリッパ14内の物体の広範囲の可能な向きに対応するため、および不規則な形状および様々なサイズを有する物体に対応するために、いくらか多様性がある。
コントローラ24は位置および運動を命令するので、例えば、グリッパ14の位置および運動など、状態情報Sがコントローラ24に知られる。コントローラ24は、グリッパ14およびアーム22に関連するハードウェアと通信する。アーム22のハードウェアはいくつかのアクチュエータA、B、Cを有し得る。このアクチュエータA、B、Cはアーム22の関節接合および運動を可能にする関節である。グリッパ14も、グリッパ14が物体11を握ることを可能にするいくつかのアクチュエータG、Hを有し得る。アクチュエータA、B、C、G、Hは、コントローラ24に、個々のアクチュエータの測定された角度および特定の方向における個々のアクチュエータにより加えられた力を含む、入力またはフィードバック情報Mを供給することができる。コントローラ24は、学習プロセスにおいてグリッパ14の所定の運動を命令するとともに画像処理手段28と通信する。したがって、コントローラ24および画像処理手段28はグリッパ14の位置を知り、グリッパに属するピクセルPが光学システム16により得られた画像データ内でより容易に識別される。
ロボット10は、コントローラ24への入力情報Mに従って物体の形状、色および/またはテクスチャを決定することができる。既知の力が物体に既知の方向に加えられたとき、物体の相対的な硬さあるいは柔らかさが、実際のアクチュエータの角度と、同じ入力/力が空のグリッパ14または既知のまたは基準の硬さを有する物体11を把持しているグリッパ14に加えられたものについてのマップに基づく理想的なアクチュエータの角度との比較を通じて決定され得る。さらに、異なるタイプの触覚センサが、物体11に関連する触覚に関する特徴Tに関するより多くの詳細を提供するために使用されてもよい。
ロボット10は、コントローラ24からグリッパ14への命令によりグリッパ14の位置を知る。全体画像はコヒーレント運動を示すコヒーレントピクセルPを含み得る。すなわち、コヒーレントピクセルPの動きはコントローラ24により命令される所定の運動パターンに合致する。コヒーレントピクセルPのいくつかのピクセル、例えばグリッパピクセルPはグリッパに属し、残りのピクセルは物体ピクセルPであり得る。グリッパ14のピクセル化された外観は、グリッパピクセルPを迅速かつ容易に識別するために、コントローラ24内にマップされるとともに組み込まれる。したがって、学習されるべき物体11は、グリッパ14内の位置により光学システム16を介して容易に識別可能になる。物体の物体ピクセルPは、グリッパピクセルPが全体画像から取り除かれた後に容易に識別される。全体ピクセルP、背景ピクセルP、並びにグリッパピクセルPと物体ピクセルPとを含むコヒーレントピクセルPの考えられるビューが図4に示される。背景ピクセルPは、グリッパ14の動き、並びにグリッパ14、物体11および背景に関する光学システム16の相対的な動きにより、ぼけを示し得る。
グリッパ14は、ロボット10のアーム22に取り付けられ得る。これは、アーム22がアーム22の範囲内のほぼどこでもグリッパ14に異なる物体を握るように調整されるまたは移動され得るという利点をもたらす。光学システム16はさらに、ロボット10のアーム22に取り付けられた1つまたは複数のカメラ17、18を有し得る。この配置において、光学システム16とグリッパ14および学習されるべき物体11との間に関節、アクチュエータまたは付属物は少ししかない。光学システム16とグリッパ14との間の角度の可能性が限定されることは、学習されるべき物体11を識別するとともに物体11の追加の特徴を決定するためのより単純な計算の手はずをもたらす。したがって、コントローラ24および画像処理手段28の機能および実装が簡易化される。光学システム16は、物体11のより詳細な学習のために、学習されるべき物体11のステレオまたは3次元画像を提供する2つ以上のカメラ17、18を有してもよい。
上述のように、グリッパピクセルPは、全体画像Pから差し引かれ得る。グリッパピクセルPが全体画像Pから差し引かれた後、全体画像Pには著しく少ない数のピクセルしか残らない。これらの残っているピクセルは、背景ピクセルと物体ピクセルとを含む。したがって、画像処理はさらに簡易化される。
別の装置によれば、グリッパピクセルPが全体画像Pから差し引かれた後、ロボット10は、残っている画像を検出し得る。この画像は主として物体ピクセルPと背景ピクセルとを含む。物体ピクセルPは、コントローラ24を介してグリッパ14に伝えられた所定の動きに従ってコヒーレント運動を示す。物体ピクセルPの動きはグリッパ14の動きに一致する。それに反して、背景ピクセルPは、概して静止している或いはコントローラ24により命令された所定の動きに対してインコヒーレントな方法で動く。したがって、物体ピクセルPおよび背景ピクセルPは、独立して識別可能である。これは、グリッパ14から伝えられた所定の運動に従った、学習されるべき物体11の所定の運動と、コントローラ24により命令されたグリッパ14の所定の動きに対する背景ピクセルPの相対的に静止した或いはインコヒーレントな動きとの間の運動の差異に基づく。
したがって、学習されるべき物体11は画像処理手段28により識別40される。コントローラ24により命令された所定の動きに対する背景ピクセルPのインコヒーレントな動きは、画像処理手段28に、背景ピクセルPを識別してそれにより残りの画像からそれを取り除くことをもたらす。このステップの後、物体ピクセルPのみが残る。ロボット10は、学習されるべき物体11をこれらの最終的に残っているピクセル、物体ピクセルPに対応する特性に関連付ける。
本発明は図面および上述の記述で詳細に図示されるとともに記載されているが、このような図示および記載は説明或いは例示とみなされるべきであり限定するものではない。本発明は開示された実施形態に限定されるものではない。開示された実施形態の他の変形は、図面、開示および添付の特許請求の範囲の検討から、特許請求の範囲に記載された本発明を実施する際に当業者により理解されると共に実施される。
特許請求の範囲において、「備える」または「含む」(「comprising」)の語は、他の要素またはステップを除外せず、不定冠詞「1つの」(「a」または「an」)は複数を除外しない。単一の要素または他のユニットは特許請求の範囲に挙げられた幾つかの項目の機能を果たし得る。特定の手段が互いに異なる従属請求項に列挙されているという単なる事実は、これらの手段の組み合わせが有利に使用できないということを示すものではない。
本発明に従って用いられた制御方法または画像処理方法が実装されたコンピュータプログラムは、他のハードウェアと共に又は他のハードウェアの一部として供給される光記憶媒体又は固体媒体のような、適切な媒体上で保存/配布されても良いが、インターネット又はその他の有線若しくは無線通信システムを介してのような、他の形態で配布されても良い。
請求項におけるいずれの参照記号も、請求の範囲を限定するものとして解釈されるべきではない。

Claims (15)

  1. − ロボットに学習されるべき物体を把持するためのグリッパと、
    − 前記物体を前記ロボットに紹介するとともに前記グリッパおよび前記グリッパにより把持された前記物体を観察するための視野を有する光学システムと、
    − 前記ロボットに学習されるべき物体の物体アイデンティティを提供するための入力装置と、
    − 所定の運動パターンに従って前記グリッパの動きを制御するためのコントローラと、
    − 前記物体アイデンティティとの関連付けのために前記物体を識別する前記光学システムから得られた画像データを解析するための画像処理手段と、
    を有する、物体学習ロボット
  2. 前記画像処理手段は、前記物体が前記ロボットに紹介される前記視野内の前記物体の規則的または振動性の動きを認識するように適合される、
    請求項1に記載のロボット。
  3. 前記光学システムは、ロボットアームに取り付けられる、
    請求項1に記載のロボット。
  4. 前記光学システムは、2つ以上のカメラを有する、
    請求項1に記載のロボット。
  5. 前記光学システムは、静止ピクセル、移動ピクセル、既知のピクセルおよび未知のピクセルを含む全体画像を提供する、
    請求項1に記載のロボット。
  6. 前記コントローラは、前記所定の運動パターンに従って、前記グリッパおよび前記ロボットにより学習されるべき物体の動きを命令するよう適合される、
    請求項1に記載のロボット。
  7. 前記画像処理手段は、前記グリッパの位置および動きを監視するように適合される、
    請求項1に記載のロボット。
  8. 前記画像処理手段は、前記学習されるべき物体の形状、色、および/またはテクスチャを決定するように適合される、
    請求項1に記載のロボット。
  9. 前記光学システムからの前記全体画像は前記グリッパに属するピクセルを含み、前記画像処理手段は、残りの画像を生成するために、前記全体画像から前記グリッパに属する前記ピクセルを取り去るよう適合される、
    請求項5に記載のロボット。
  10. 前記画像処理手段は、物体ピクセルと背景ピクセルとを含む前記残りの画像を解析するよう適合される
    請求項9に記載のロボット。
  11. 前記画像処理手段は、前記背景ピクセルを検出するよう適合される、
    請求項10に記載のロボット。
  12. 前記画像処理手段は、前記所定の運動パターンに従って前記物体ピクセルを検出するよう適合される、
    請求項10に記載のロボット。
  13. 前記画像処理手段は、前記物体ピクセルに従って前記学習されるべき物体を識別するよう適合される、
    請求項12に記載のロボット。
  14. ロボットアームの複数の動きを監視するとともに記憶するよう適合された教示インターフェースをさらに有する、
    請求項1に記載のロボット。
  15. − 物体が学習されるべきであることをロボットに示すために、学習されるべき前記物体を前記ロボットの光学システムの視野内に紹介するステップと、
    − 前記ロボットに前記学習されるべき物体に対応する物体アイデンティティを前記ロボットの入力装置で提供するステップと、
    − 前記学習されるべき物体を前記ロボットのグリッパで把持するステップと、
    − 所定の運動パターンに従って前記グリッパおよび前記学習されるべき物体の動きを制御するステップと、
    − 前記物体アイデンティティとの関連付けのために前記物体を識別するよう前記光学システムから得られた画像データを解析するステップと、
    を有する、物体学習ロボットのための方法
JP2012506609A 2009-04-23 2010-04-13 物体学習ロボットおよび方法 Withdrawn JP2012524663A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09158605.7 2009-04-23
EP09158605 2009-04-23
PCT/IB2010/051583 WO2010122445A1 (en) 2009-04-23 2010-04-13 Object-learning robot and method

Publications (1)

Publication Number Publication Date
JP2012524663A true JP2012524663A (ja) 2012-10-18

Family

ID=42341460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012506609A Withdrawn JP2012524663A (ja) 2009-04-23 2010-04-13 物体学習ロボットおよび方法

Country Status (6)

Country Link
US (1) US20120053728A1 (ja)
EP (1) EP2422295A1 (ja)
JP (1) JP2012524663A (ja)
KR (1) KR20120027253A (ja)
CN (1) CN102414696A (ja)
WO (1) WO2010122445A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180114217A (ko) * 2016-03-03 2018-10-17 구글 엘엘씨 로봇 파지용 심층 기계 학습 방법 및 장치
JP2019518297A (ja) * 2016-05-19 2019-06-27 ディープ ラーニング ロボティクス リミテッドDeep Learning Robotics Ltd. ロボット支援型物体学習視覚システム
JP2019531907A (ja) * 2016-07-18 2019-11-07 ラエル オドナー, ロボット把持の査定
US10639792B2 (en) 2016-03-03 2020-05-05 Google Llc Deep machine learning methods and apparatus for robotic grasping

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
EP3660517B1 (en) * 2010-11-23 2024-04-03 Andrew Alliance S.A Apparatus for programmable manipulation of pipettes
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
NL2006950C2 (en) * 2011-06-16 2012-12-18 Kampri Support B V Cleaning of crockery.
US8843236B2 (en) * 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
US20130343640A1 (en) 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US9183631B2 (en) * 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
EP2685403A3 (en) 2012-07-09 2017-03-01 Technion Research & Development Foundation Limited Natural machine interface system
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9314924B1 (en) 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US20150032258A1 (en) * 2013-07-29 2015-01-29 Brain Corporation Apparatus and methods for controlling of robotic devices
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US9737990B2 (en) 2014-05-16 2017-08-22 Microsoft Technology Licensing, Llc Program synthesis for robotic tasks
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
US9492923B2 (en) 2014-12-16 2016-11-15 Amazon Technologies, Inc. Generating robotic grasping instructions for inventory items
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US9878447B2 (en) * 2015-04-10 2018-01-30 Microsoft Technology Licensing, Llc Automated collection and labeling of object data
US10089575B1 (en) 2015-05-27 2018-10-02 X Development Llc Determining grasping parameters for grasping of an object by a robot grasping end effector
CN104959990B (zh) * 2015-07-09 2017-03-15 江苏省电力公司连云港供电公司 一种配网检修机械手臂及其方法
DE102015111748B4 (de) * 2015-07-20 2024-09-19 Deutsche Post Ag Verfahren und Übergabevorrichtung zur Übergabe von personenbezogenen Sendungen
US9751211B1 (en) * 2015-10-08 2017-09-05 Google Inc. Smart robot part
JP6744709B2 (ja) * 2015-11-30 2020-08-19 キヤノン株式会社 情報処理装置、情報処理方法
US9975241B2 (en) * 2015-12-03 2018-05-22 Intel Corporation Machine object determination based on human interaction
US9981382B1 (en) 2016-06-03 2018-05-29 X Development Llc Support stand to reorient the grasp of an object by a robot
US10430657B2 (en) 2016-12-12 2019-10-01 X Development Llc Object recognition tool
EP3589457B1 (en) * 2017-03-01 2022-01-12 Omron Corporation Monitored control system
CN110382173B (zh) * 2017-03-10 2023-05-09 Abb瑞士股份有限公司 用于标识物体的方法和设备
JP6325174B1 (ja) 2017-04-04 2018-05-16 株式会社Mujin 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法
DE112017007398B4 (de) 2017-04-04 2021-11-18 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm und Steuerverfahren
WO2018185857A1 (ja) * 2017-04-04 2018-10-11 株式会社Mujin 情報処理装置、ピッキングシステム、物流システム、プログラム、及び、情報処理方法
CN115385039A (zh) 2017-04-04 2022-11-25 牧今科技 控制装置、信息处理装置、控制方法以及信息处理方法
DE112017007392B4 (de) 2017-04-04 2021-11-04 Mujin, Inc. Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
JP6457587B2 (ja) * 2017-06-07 2019-01-23 ファナック株式会社 ワークの動画に基づいて教示点を設定するロボットの教示装置
JP6948516B2 (ja) * 2017-07-14 2021-10-13 パナソニックIpマネジメント株式会社 食器処理機
CN107977668A (zh) * 2017-07-28 2018-05-01 北京物灵智能科技有限公司 一种机器人图像识别方法及系统
US10952591B2 (en) * 2018-02-02 2021-03-23 Dishcraft Robotics, Inc. Intelligent dishwashing systems and methods
TWI822729B (zh) 2018-02-06 2023-11-21 美商即時機器人股份有限公司 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備
US11738457B2 (en) * 2018-03-21 2023-08-29 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
WO2020061725A1 (en) * 2018-09-25 2020-04-02 Shenzhen Dorabot Robotics Co., Ltd. Method and system of detecting and tracking objects in a workspace
JP7047726B2 (ja) * 2018-11-27 2022-04-05 トヨタ自動車株式会社 把持ロボットおよび把持ロボットの制御プログラム
KR102619004B1 (ko) 2018-12-14 2023-12-29 삼성전자 주식회사 로봇 장치 및 로봇의 작업 기술을 학습하는 방법
US20210001488A1 (en) * 2019-07-03 2021-01-07 Dishcraft Robotics, Inc. Silverware processing systems and methods
US11584004B2 (en) 2019-12-17 2023-02-21 X Development Llc Autonomous object learning by robots triggered by remote operators
KR20220065232A (ko) 2020-11-13 2022-05-20 주식회사 플라잎 강화학습 기반으로 로봇을 제어하는 장치 및 방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58177295A (ja) * 1982-04-07 1983-10-17 株式会社日立製作所 ロボット制御装置
JPS63288683A (ja) * 1987-05-21 1988-11-25 株式会社東芝 組立てロボット
JP3633642B2 (ja) * 1994-02-28 2005-03-30 富士通株式会社 情報の処理装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3529049B2 (ja) * 2002-03-06 2004-05-24 ソニー株式会社 学習装置及び学習方法並びにロボット装置
JP4407244B2 (ja) * 2003-11-11 2010-02-03 ソニー株式会社 ロボット装置及びその物体学習方法
FR2872728B1 (fr) * 2004-07-06 2006-09-15 Commissariat Energie Atomique Procede de saisie d'un objet par un bras de robot muni d'une camera
EP1739594B1 (en) * 2005-06-27 2009-10-28 Honda Research Institute Europe GmbH Peripersonal space and object recognition for humanoid robots
JP4364266B2 (ja) * 2007-08-01 2009-11-11 株式会社東芝 画像処理装置およびプログラム
JP4504433B2 (ja) * 2008-01-29 2010-07-14 株式会社東芝 オブジェクト探索装置及び方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180114217A (ko) * 2016-03-03 2018-10-17 구글 엘엘씨 로봇 파지용 심층 기계 학습 방법 및 장치
KR102023588B1 (ko) 2016-03-03 2019-10-14 구글 엘엘씨 로봇 파지용 심층 기계 학습 방법 및 장치
US10639792B2 (en) 2016-03-03 2020-05-05 Google Llc Deep machine learning methods and apparatus for robotic grasping
US10946515B2 (en) 2016-03-03 2021-03-16 Google Llc Deep machine learning methods and apparatus for robotic grasping
US11045949B2 (en) 2016-03-03 2021-06-29 Google Llc Deep machine learning methods and apparatus for robotic grasping
US11548145B2 (en) 2016-03-03 2023-01-10 Google Llc Deep machine learning methods and apparatus for robotic grasping
JP2019518297A (ja) * 2016-05-19 2019-06-27 ディープ ラーニング ロボティクス リミテッドDeep Learning Robotics Ltd. ロボット支援型物体学習視覚システム
JP2019531907A (ja) * 2016-07-18 2019-11-07 ラエル オドナー, ロボット把持の査定
JP7069110B2 (ja) 2016-07-18 2022-05-17 ラエル オドナー, ロボット把持の査定

Also Published As

Publication number Publication date
EP2422295A1 (en) 2012-02-29
WO2010122445A1 (en) 2010-10-28
CN102414696A (zh) 2012-04-11
US20120053728A1 (en) 2012-03-01
KR20120027253A (ko) 2012-03-21

Similar Documents

Publication Publication Date Title
JP2012524663A (ja) 物体学習ロボットおよび方法
US8155787B2 (en) Intelligent interface device for grasping of an object by a manipulating robot and method of implementing this device
US20190126484A1 (en) Dynamic Multi-Sensor and Multi-Robot Interface System
EP3486041A3 (en) Gripping system, learning device, and gripping method
JP5471355B2 (ja) 3次元視覚センサ
WO2016189924A1 (ja) ロボット操作装置およびプログラム
JP7050573B2 (ja) 物品配置システム及び食品盛り付けシステム
JP2011110620A (ja) ロボットの動作を制御する方法およびロボットシステム
JP2011110621A (ja) ロボットの教示データを作成する方法およびロボット教示システム
Peer et al. Multi-fingered telemanipulation-mapping of a human hand to a three finger gripper
WO2022191414A1 (en) Parameterized waypoint generation on dynamically parented non-static objects for robotic autonomous tasks
JP7000253B2 (ja) 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
CN114449970B (zh) 使用器具推断装置、方法以及手术辅助机器人
Seita et al. Robot bed-making: Deep transfer learning using depth sensing of deformable fabric
US20220152825A1 (en) Automated manipulation of objects using a vision-based method for determining collision-free motion planning
Ke et al. Telemanipulation with chopsticks: Analyzing human factors in user demonstrations
JP6067547B2 (ja) 物体認識装置、ロボット及び物体認識方法
JP2023181513A (ja) 教示システム、教示方法及び教示プログラム
Chu et al. Hands-free assistive manipulator using augmented reality and tongue drive system
CN116229156A (zh) 机器人及其控制方法、装置和可读存储介质
JP2006167902A (ja) 双腕ロボットの制御装置および制御方法
KR20230056321A (ko) 로봇 손 시스템 및 로봇 손 제어 방법
Wu et al. Visual servoing for object manipulation: A case study in slaughterhouse
Ma et al. Task evaluations of a compact laparoscopic surgical robot system
WO2019064752A1 (ja) ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130412

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20130422