JP7050740B2 - 物体を把持するための奥行知覚モデリング - Google Patents

物体を把持するための奥行知覚モデリング Download PDF

Info

Publication number
JP7050740B2
JP7050740B2 JP2019233680A JP2019233680A JP7050740B2 JP 7050740 B2 JP7050740 B2 JP 7050740B2 JP 2019233680 A JP2019233680 A JP 2019233680A JP 2019233680 A JP2019233680 A JP 2019233680A JP 7050740 B2 JP7050740 B2 JP 7050740B2
Authority
JP
Japan
Prior art keywords
gripping
potential
grip
data
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019233680A
Other languages
English (en)
Other versions
JP2020110911A (ja
Inventor
ネービッド・ジャマリ
ソーシ・イバ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2020110911A publication Critical patent/JP2020110911A/ja
Application granted granted Critical
Publication of JP7050740B2 publication Critical patent/JP7050740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39295Learn position correction values to be added to reference values
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39473Autonomous grasping, find, approach, grasp object, sensory motor coordination

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示の態様は、概して、ロボットを制御することに関し、より具体的には、物体を把持する際にロボットを支援するための奥行知覚モデリングの使用に関する。
ロボットは、物体を操作するための物体把持動作を実行する。把持動作は、ロボットが物体の表面に接触し、どのように物体を把持するかを決定することを可能にするための触覚データの使用を含み得る。触覚データは、物体に接触するためのロボットによる反復的な試行によって蓄積されたデータを含み得る。物体に接触しようとするこれらの反復的な試行は、ロボットが、物体の形状及び材料などの、物体の特性を学習すること、並びに物体を把持するためにロボットに最も好適である物体のエリアを識別することを支援し得る。触覚データを生成するための複数の接触試行を含む把持動作は、ロボットにとって時間がかかり、かつ非効率的であり得、物体に損傷を与える場合もある。それゆえに、ロボットによって使用される把持動作を改善するための方法及びシステムのために、未解決の必要性が当該技術分野に残っている。
以下は、そのような態様の基本的な理解を提供するために、本開示の1つ以上の態様の概要を提示する。この概要は、全ての想到される態様の広範な概要ではなく、全ての態様の基本的又は決定的な要素を識別することも、任意の又は全ての態様の範囲を描写することも意図されていない。その唯一の目的は、本開示の1つ以上の態様のいくつかの概念を、後に提示されるより詳細な説明の前置きとして、簡略化された形態で提示することである。
一例では、把持システムによって物体を把持するための方法が開示される。方法は、物体の奥行画像を取得することを含み得る。方法はまた、奥行画像に基づいて、物体の潜在的把持点を決定することを含み得る。方法は、奥行画像からのデータに基づいて、潜在的把持点に対応する触覚出力を推定することを更に含み得る。方法はまた、推定された触覚出力に基づいて、潜在的把持点で物体を把持するように把持システムを制御することを含み得る。
別の例では、物体を把持するための把持システムが提供される。把持システムは、メモリ、及びメモリと連結された少なくとも1つのプロセッサを含み得る。少なくとも1つのプロセッサは、物体の奥行画像を取得するように構成され得る。少なくとも1つのプロセッサはまた、奥行画像に基づいて物体の潜在的把持点を決定するように構成され得る。少なくとも1つのプロセッサは、奥行画像からのデータに基づいて、潜在的把持点に対応する触覚出力を推定するように更に構成され得る。少なくとも1つのプロセッサはまた、推定された触覚出力に基づいて、潜在的把持点で物体を把持するように把持システムを制御するように構成され得る。
別の例では、把持システムによって物体を把持するためのコンピュータ実行可能コードを記憶するコンピュータ可読媒体が提供される。コンピュータ可読媒体は、物体の奥行画像を取得するためのコードを含み得る。コンピュータ可読媒体はまた、奥行画像に基づいて、物体の潜在的把持点を決定するためのコードを含み得る。コンピュータ可読媒体は、奥行画像からのデータに基づいて、潜在的把持点に対応する触覚出力を推定するためのコードを更に含み得る。コンピュータ可読媒体はまた、推定された触覚出力に基づいて、潜在的把持点で物体を把持するように把持システムを制御するためのコードを含み得る。
上述の及び関連する目標の達成のために、本開示の1つ以上の態様は、以下に完全に説明され、特許請求の範囲に特に指摘される特徴を含む。以下の説明及び添付図面は、1つ以上の態様の特定の例示的な特徴を詳細に明らかにする。しかしながら、これらの特徴は、様々な態様の原理が用いられ得る様々な手段のうちのいくつかを示すが、この説明は、全てのそのような態様及びそれらの等価物を含むことを意図する。
本明細書に説明される態様に特徴的であると考えられる新規な特徴は、添付の特許請求の範囲に規定される。以下の説明において、明細書及び図面を通して、同様の部分にはそれぞれ同一の符号を付す。図面は必ずしも縮尺どおりに描画されておらず、明確性及び簡潔さのために、特定の図面は、誇張された又は一般化された形態で示され得る。しかしながら、本開示自体、並びにその好ましい使用形態、更なる目的及び進歩は、添付図面と併せて読むと、例示的な変形例の以下の詳細な説明を参照することによって、最も良く理解されるであろう。
本開示の態様による、例示的な把持システムの概念図を例示する。
本開示の態様による、図1の把持システムによる例示的な推定動作の概念図を例示する。
本開示の態様による、図1の把持システムの例示的な把持構成要素の概略図を例示する。
本開示の態様による、把持動作を実行するための例示的な方法のフローチャートを例示する。
本開示の態様による、様々なハードウェア構成要素及び他の特徴の例示的なシステム図を例示する。
本開示の態様による、様々な例示的なシステム構成要素のブロック図を例示する。
添付図面に関連して以下に明らかにされる詳細な説明は、様々な構成の説明として意図され、本明細書に説明される概念を実践することができる唯一の構成を表すことを意図するものではない。詳細な説明は、様々な概念の完全な理解を提供する目的のための具体的な詳細を含む。しかしながら、これらの概念が、これらの具体的な詳細を伴わずに実践することができることは、当業者には明らかであろう。いくつかの例では、そのような概念を不明瞭にすることを避けるために、周知の構成要素がブロック図の形態で示されている。
本明細書では、物体を把持する際にロボットを支援するための奥行知覚モデリングの使用に関する態様が説明される。ロボットによる物体との直接的な接触の複数の試行を回避するために、本開示は、深層学習によって訓練されたニューラルネットワークの使用を通じて、物体の表面に対応する奥行データに基づいて、触覚センサの出力を推定し得る。推定された触覚出力は、ロボットが物体の表面に接触しようとする試行の前に決定され得る。
ロボットは、物体の表面の構造を検知する奥行センサを介して奥行データを取得するための把持システムを含み得る。ロボットは、奥行データに基づいて、触覚センサのサイズに等しい対象領域を選択し得る。対象領域からの奥行センサデータは、ニューラルネットワークの入力として使用され得る。ニューラルネットワークは、ロボットが物体に接触した場合に触覚センサが生成するであろう出力を推定し得る。言い換えると、ニューラルネットワークは、ロボットが物体と物理的に接触することなく、触覚データを生成し得る。
そのようなシステムは、物体を把持する前にロボットが物体に接触する必要性を低減又は排除することによって、ロボット操作に著しい恩恵を与え得る。代わりに、ロボットは、ニューラルネットワークからのデータに基づいて、第1の試行で物体を把持することができ得る。
本明細書で使用される場合、「メモリ」という用語は、揮発性メモリ及び/又は不揮発性メモリを含み得る。不揮発性メモリとしては、例えば、ROM(読み取り専用メモリ)、PROM(プログラム可能な読み取り専用メモリ)、EPROM(消去可能なPROM)、及びEEPROM(電気的に消去可能なPROM)を挙げることができる。揮発性メモリとしては、例えば、RAM(ランダムアクセスメモリ)、同期型RAM(synchronous RAM、SRAM)、ダイナミックRAM(dynamic RAM、DRAM)、同期型DRAM(synchronous DRAM、SDRAM)、ダブルデータレートSDRAM(double data rate SDRAM、DDR SDRAM)、及びダイレクトRAMバスRAM(direct RAM bus RAM、DRRAM)を挙げることができる。
本明細書で使用される場合、「動作可能な接続」という用語は、エンティティが「動作可能に接続される」接続を含み得、これは、信号、物理的通信、及び/又は論理的通信が、送信及び/又は受信され得るものである。動作可能な接続は、物理的インターフェース、データインターフェース、及び/又は電気インターフェースを含んでもよい。
本明細書で使用される場合、「プロセッサ」という用語は、信号を処理し、一般的なコンピューティング及び演算機能を実行するデバイスを指し得る。プロセッサによって処理された信号は、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は受信、送信、及び/若しくは検出され得る他のコンピューティングを含んでもよい。プロセッサは、例えば、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(digital signal processor、DSP)、フィールドプログラマブルゲートアレイ(field programmable gate array、FPGA)、プログラマブル論理デバイス(programmable logic device、PLD)、状態マシン、ゲート論理、別個のハードウェア回路、システムオンチップ(system-on-a-chip、SoC)、及び本明細書に説明される様々な機能を実行するように構成された他の好適なハードウェアを含み得る。
特定のシステムのいくつかの態様が、ここで、様々な装置及び方法を参照して提示されることになる。これらの装置及び方法は、様々なブロック、モジュール、構成要素、回路、ステップ、プロセス、アルゴリズムなど(総称して「要素」と呼ばれる)によって、以下の詳細な説明で説明され、添付図面に例示されることになる。これらの要素は、電子ハードウェア、コンピュータソフトウェア、又はそれらの任意の組み合わせを使用して実装され得る。そのような要素がハードウェア又はソフトウェアとして実装されるか否かは、システム全体に課される特定のアプリケーション及び設計上の制約に依存する。
例として、要素、若しくは要素の任意の部分、又は要素の任意の組み合わせは、1つ以上のプロセッサを含む「処理システム」で実装され得る。処理システム内の1つ以上のプロセッサは、ソフトウェアを実行することができる。ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又は別様に称されるか否かにかかわらず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行ファイル、実行のスレッド、手順、機能などを意味するように広範に解釈されるべきである。
したがって、1つ以上の態様では、説明される機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせにおいて実装され得る。ソフトウェアにおいて実装される場合、機能は、コンピュータ可読媒体上の1つ以上の命令又はコードに記憶されるか、又はそれらとしてコード化され得る。コンピュータ可読媒体は、コンピュータ記憶媒体を含む。記憶媒体は、コンピュータによってアクセスされ得る任意の利用可能な媒体とすることができる。例として、限定されないが、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROM若しくは他の光ディスク記憶デバイス、磁気ディスク記憶デバイス若しくは他の磁気記憶デバイス、又は命令若しくはデータ構造の形態で所望のプログラムコードを搬送若しくは記憶するために使用され得、かつコンピュータによってアクセスされ得る任意の他の媒体を含み得る。
図1は、本開示の態様による、例示的な把持システム100の概念図を例示する。把持システム100の一部又は全部が、限定されないが、人型ロボットなどのより大きいロボットデバイスの一部であってもよいことが、当業者には明らかであろう。この概念図では、把持システム100は、表面155の上に置かれた物体150を把持するタスクを課され得る。
把持システム100は、物体150を把持するように構成された把持デバイス102を含み得る。把持ユニット102の例としては、ロボットハンド、ピンサー、爪、又は物体を把持することができる任意の他のロボットデバイスが挙げられ得る。把持デバイス102は、肩部として例示されている、本体106に接続され得るロボットのロボットアームなどの延伸ユニット104に接続されてもよい。把持システム100はまた、把持デバイス102を制御する把持制御システム108を含み得る。更に、いくつかの例では、把持システム100は、物体150に物理的に接触する把持デバイス102に基づいて、触覚データを生成するための1つ以上の触覚センサ110を含み得る。
一例では、把持システム100は、物体150に接触する前に触覚出力(例えば、物体150のテクスチャ、縁、又は輪郭)を推定することによって、物体150を操作し得る。より詳細に以下に説明されるように、把持デバイス102は、物体150に接触する前に触覚出力を推定するために、奥行データを取得し得る。把持制御システム108は、次いで、把持動作120中に、物体150に接触させるように把持デバイス102を制御するために、推定された触覚出力を利用し得る。推定された触覚出力の使用は、物体150との把持デバイス102による反復的な物理的接触を防止することができ、それゆえに、把持の失敗及び/又は物体150への損傷を防止することができる。更に、場合によっては、推定された触覚出力の使用はまた、把持システム100が物体を物理的に把持することを必要とする時間量を低減し得る。
図1の把持システム100と併せて説明される、図2及び図3を参照すると、把持制御システム108は、把持デバイス102が物体150に物理的に接触する前に触覚センサの触覚出力を推定し得る。図2は、本開示の態様による、図1の把持システム100による例示的な推定動作の概念図を例示する。図3は、本開示の態様による、図1の把持システム100の例示的な把持構成要素の概略図を例示する。把持制御システム108は、本明細書に説明される特定の行動を実施するために通信する、1つ以上のプロセッサ202及び1つ以上のメモリ204を含み得るか、又はそれらと動作可能に連結され得る(又はそれらによって実行され得る)。例えば、1つ以上のプロセッサ202及び/又は1つ以上のメモリ104は、把持する物体(例えば、物体150)を識別する物体識別構成要素206、把持する物体の奥行画像302を取得するための奥行センサ208、把持する物体に対応する触覚出力を推定するための把持推定構成要素212、推定された触覚出力に基づいて、物体150を把持するように把持デバイス102及び/若しくは把持システム100を制御するための把持コントローラ214、並びに/又は物体150の触覚データを取得するための触覚センサ110を実行するための命令、パラメータなどを実行、及び/又は記憶し得る。
プロセッサ202、メモリ204、並びに構成要素206、208、212及び214のうちの様々なものは、バス210を介して動作可能に連結され得る。別の例では、プロセッサ(単数又は複数)202は、バス210を介してメモリ204及び/又は他の構成要素に動作可能に連結されつつ、本明細書に説明される機能を実行するために、様々な構成要素206、208、212、214及び110のうちの1つ以上を実行し得る。
一例では、物体識別構成要素206は、把持システム100の動作中に、シーンの画像及び/又は映像を取り込み、シーンから把持する物体を決定し得る。一例では、メモリ204は、シーン内の1つ以上の物体を識別することを容易にするための物体識別データセットを含み得る。この例では、物体識別構成要素206は、物体識別データセットの1つ以上の物体に対応する1つ以上の物体に基づいて、シーンにおける把持する1つ以上の物体(例えば、物体150)を識別し得る。
奥行センサ208は、把持するように識別された物体の奥行画像302を取り込み得る。把持推定構成要素212は、奥行センサ208から奥行データを受信し、かつ把持する物体を把持するための奥行画像の1つ以上の潜在的把持点304又は関心領域を選択するための領域選択構成要素220を含み得る。一例では、把持点を生成するために把持提案システムが使用され得る。把持提案システムは、物体の凸包上の1つ以上の点を均一にサンプリングし得る。
把持推定構成要素212はまた、1つ以上の潜在的把持点304に対応する触覚出力を推定するための触覚推定構成要素222を含み得る。一態様では、触覚推定構成要素222は、以下に説明されるように、触覚経験データを介して訓練されたニューラルネットワーク310を含み得る。ニューラルネットワーク310は、1つ以上の潜在的把持点304を受信し、1つ以上の潜在的把持点304に基づいて、触覚センサの触覚出力に対応する触覚出力を推定し得る。言い換えると、ニューラルネットワーク310は、把持システム100が物体150と接触することなく、物体150の触覚データを推定し得る。一例では、ニューラルネットワーク310は、奥行センサ208から奥行データを受信し、奥行データを推定された触覚出力にマッピングし得る。
把持推定構成要素212はまた、推定された触覚出力に基づいて、潜在的把持点の接触の質を決定するための安定性推定構成要素224を含み得る。一例では、安定性推定構成要素224は、推定された出力の接触エリアの割合を計算することによって、潜在的把持点の接触の質を決定し得る。
安定性推定構成要素224はまた、推定された触覚出力に基づいて、潜在的把持点の各々で物体150を把持する成功確率を推定し得る。一例では、安定性推定構成要素224は、教師あり学習方法に基づいて、物体150を把持する成功確率を推定し得る。例えば、安定性推定構成要素224は、入力として触覚センサ推定値(又はその潜在的反復)を有するニューラルネットワークを使用し得る。ニューラルネットワークによって使用される学習方法の間、把持デバイスは、試験物体を持ち上げるために把持行動を実行し得る。試験物体の持ち上げ成功率が、物体を把持する確率を決定するために使用され得る。したがって、安定性推定構成要素224は、ニューラルネットワーク及び奥行データを介して取得されたデータを使用して、潜在的把持点の各々での物体150を把持する成功確率を推定し得る。
把持推定構成要素212は、物体150を把持するための最良の場所を決定する把持合成器を含み得る。把持合成器の例としては、Dex-Netが挙げられ得、これは、奥行センサを使用して物体150の潜在的把持点をランク付けし、物体150を把持するための1つの把持点を選択する。
把持コントローラ214は、物体150を把持するために把持システム100の1つ以上の構成要素又はシステムを制御し得る。一例では、把持コントローラ214は、推定された触覚出力、潜在的把持点の決定された接触の質、又は潜在的把持点での物体150を把持する成功確率のうちの1つ以上に基づいて、把持システム100を制御し得る。
いくつかの例では、触覚センサ110は、物体150に物理的に接触することによって物体150の触覚データを取り込み得る。触覚センサ110からの触覚データは、物体150の推定された触覚出力と共に把持コントローラ214によって、物体150を把持するように把持システム100を制御するために使用され得る。一例では、触覚センサ110からの触覚データは、物体150を把持するために、推定された触覚出力に加えて情報が必要であるという把持コントローラ214による決定に基づいて取得され得る。例えば、把持コントローラ214は、潜在的把持点の接触の質、又は潜在的把持点での物体150を把持する成功確率のうちの1つ以上が閾値未満であるときに、触覚センサ110からの触覚データを必要とし得る。
一態様では、把持制御システム108はまた、ネットワーク230に接続され得る。いくつかの例では、構成要素のうちの任意の1つは、上記に提供された機能のうちの1つ以上を実行するために、ネットワーク230を介して1つ以上の他のデバイスに/から、データを提供又は受信し得る。
ニューラルネットワークの訓練
図3を参照すると、一態様では、ニューラルネットワーク310は、訓練物体の状態に基づいて、触覚センサの触覚出力を推定するために、教師あり深層学習を介して訓練され得る。推定は、奥行センサ(例えば、奥行センサ208)からのデータ、又は視覚センサ若しくは力センサなどの1つ以上のセンサからのデータに基づき得る。いくつかの例では、ニューラルネットワーク310は、他の把持システム(図示せず)からのセンサからデータを取得し得る。ニューラルネットワーク310は、自然及び合成の訓練物体、異なる形状の訓練物体、及び/又は異なる表面特性を有する訓練物体を含む、様々な訓練物体との接触を繰り返し行うことによって、触覚経験データを収集し得る。触覚経験データは、2つの時点での環境の記録された状態を含み得る。第1の時点は、把持システムが訓練物体と接触する直前の時点であり得る。第1の時点では、把持デバイス、及び/又は延伸デバイスは、把持する物体と接触しておらず、把持デバイス及び延伸デバイスは、奥行センサと把持物体との間にない。第1の時点では、奥行センサは、奥行画像を取り込み得る。第2の時点は、訓練物体が把持される時点であり得る。第2の時点では、奥行センサによって検知された訓練物体の表面に対応する触覚センサからの触覚出力が登録され得る。
ニューラルネットワーク310を訓練する次のステップは、ニューラルネットワーク310を訓練するための記録された状態を分析することを含み得る。例えば、奥行センサは、奥行センサの視線内で、訓練物体の全ての表面の点を出力し得る。物体と接触する触覚センサのアクティブエリアは、一般に、物体上の表面よりも小さい場合がある。例えば、物体の表面は、30cm×30cmであり得るが、触覚センサは、3cm×4cmのアクティブエリアを有し得る。奥行センサからのデータは、触覚センサが訓練物体と接触していた訓練物体上の点のみを含むようにフィルタリングされ得る。フィルタリングされた点は、アクティブエリアに対応する体積(例えば、3cm×4cm×1cmの体積)を形成し得る。
一例では、ニューラルネットワーク310の入力層内のニューロンの数は、一定である必要があり得る。しかしながら、奥行点群は、典型的には、様々な数の点を有する。この目的のために、体積は、ボクセルに量子化されてもよく、ボクセルは、そのボクセル内に収まる接触点の最小(又は平均)値をとる。ボクセルの形態の量子化された体積は、ニューラルネットワーク310を訓練するために使用され得る。
ニューラルネットワークの例としては、条件付きの敵対的生成ネットワーク(generative adversarial network、GAN)が挙げられ得る。GANは、画像レベルとして、また潜在的空間レベルでの触覚センサの推定値を生成するために使用され得る。画像レベルは、触覚センサ推定値の可視化のために使用され得る。潜在的空間レベルは、触覚センサ推定値の簡潔表現として使用され得る。ニューラルネットワーク310が触覚経験モデルを学習又は組み込むと、ニューラルネットワーク310は、物体(例えば、物体150)と接触することなく、触覚センサの触覚出力を推定するように把持システム(例えば、把持システム100)によって使用され得る。
ここで、図1~図3に関連して説明される図4を参照すると、把持動作120を実行するための方法400の一例が例示されている。一態様では、方法400は、本明細書に説明される把持システム100によって実行され得る。例えば、本明細書に説明されるブロックのうちの1つ以上は、把持制御システム108の構成要素及び/又は下位構成要素のうちの1つ以上によって実行されてもよく(例えば、1つ以上のプロセッサ202、1つ以上のメモリ204、物体識別構成要素206、奥行センサ208、把持推定構成要素212、及び把持コントローラ214)、把持制御システム108は、単一のコンピューティングデバイス、複数のコンピューティングデバイスにわたって分散されたものなどであってもよく、把持制御判断又は決定を行うために把持システム(例えば、把持システム100)内に組み込まれるか、又は別様にそれと関連付けられ得る。この点に関して、方法400の1つ以上のブロックは、所与のコンピューティングデバイス上、遠隔場所のデバイス上(結果が所与のコンピューティングデバイスと共有され得るように)などで実行され得る。
ブロック402では、方法400は、任意選択的に、把持する物体として物体を識別することを含み得る。一態様では、物体識別構成要素206は、把持する物体としてシーンからの物体を識別する。物体識別構成要素206は、シーン内に物体150を有するシーンの画像及び/又は映像を取り込み得る。物体識別構成要素206は、メモリ204によって記憶された物体識別データセット内の識別された物体との比較に基づいて、物体150を把持することを決定し得る。
ブロック404では、方法400は、物体の奥行画像を取得することを含み得る。一態様では、奥行センサ208は、物体の奥行画像を取得するように構成され得る。ブロック406では、方法400は、奥行画像に基づいて、物体の潜在的把持点を決定することを含み得る。一態様では、把持推定構成要素212及び/又は領域選択構成要素220は、奥行画像に基づいて、物体の潜在的把持点を決定し得る。
ブロック408では、方法400は、奥行画像からのデータに基づいて、潜在的把持点に対応する触覚出力を推定することを含み得る。一態様では、把持推定構成要素212及び/又は触覚推定構成要素222は、奥行画像からのデータに基づいて、潜在的把持点に対応する触覚出力を推定し得る。例えば、把持推定構成要素212及び/又は触覚推定構成要素222は、触覚経験データを介して訓練されたニューラルネットワーク310を含み得る。一例では、ニューラルネットワーク310は、1つ以上の潜在的把持点304を受信し、1つ以上の潜在的把持点304に基づいて、触覚センサの触覚出力に対応する触覚出力を推定し得る。
ブロック410では、方法400は、任意選択的に、推定された触覚出力に基づいて、潜在的把持点の接触の質を決定することを含み得る。一態様では、把持推定構成要素212及び/又は安定性推定構成要素224は、推定された触覚出力に基づいて潜在的把持点の接触の質を決定するように構成され得る。例えば、把持推定構成要素212及び/又は安定性推定構成要素224は、奥行センサに基づいて、潜在的把持点を決定するために、Dex-Netなどの把持合成器を含み得る。
ブロック412では、方法400は、任意選択的に、推定された触覚出力に基づいて、潜在的把持点での物体の把持の成功確率を推定することを含み得る。一態様では、把持推定構成要素212及び/又は安定性推定構成要素224は、推定された触覚出力に基づいて、潜在的把持点での物体150の把持の成功確率を推定するように構成され得る。
ブロック414では、方法400は、任意選択的に、複数の潜在的把持点から、複数の潜在的把持点の各々での物体の把持の成功確率に基づいて潜在的把持点を選択することを含み得る。一態様では、把持推定構成要素212及び/又は安定性推定構成要素224は、複数の潜在的把持点から、複数の潜在的把持点の各々での物体150の把持の成功確率に基づいて潜在的把持点を選択するように構成され得る。
ブロック416では、方法400は、推定された触覚出力に基づいて、潜在的把持点で物体を把持するように把持システムを制御することを含み得る。一態様では、把持コントローラ214は、推定された触覚出力に基づいて、潜在的把持点で物体を把持するように、把持デバイス102及び/又は延伸デバイス104を含む把持システム100を制御し得る。
いくつかの例では、把持コントローラ214は、潜在的把持点での接触の質に基づいて、潜在的把持点で物体を把持するように、把持デバイス102及び/又は延伸デバイス104を含む把持システム100を制御し得る。
いくつかの例では、把持コントローラ214は、物体の把持の成功確率に基づいて、潜在的把持点で物体を把持するように、把持デバイス102及び/又は延伸デバイス104を含む把持システム100を制御し得る。
本開示の態様は、ハードウェア、ソフトウェア、又はそれらの組み合わせを使用して実装されてもよく、1つ以上のコンピュータシステム又は他の処理システムにおいて実装されてもよい。一態様では、本開示は、本明細書に記載される機能を実行することができる、1つ以上のコンピュータシステムを対象とする。そのようなコンピュータシステム500の例が図5に示される。
図5は、本開示の一態様による使用のための、様々なハードウェア構成要素及び他の特徴の例示的なシステム図を提示する。コンピュータシステム500は、プロセッサ504などの1つ以上のプロセッサを含む。プロセッサ504は、通信インフラストラクチャ506(例えば、通信バス、クロスオーバーバー、又はネットワーク)に接続されている。一例では、プロセッサ202は、プロセッサ504を含み得る。この例示的なコンピュータシステム500に関して、様々なソフトウェア態様が説明される。この説明を読んだ後、他のコンピュータシステム及び/又はアーキテクチャを使用して本明細書に説明される態様を実施する手法が当業者には明らかとなるであろう。
コンピュータシステム500は、表示ユニット530上に表示するために、通信インフラストラクチャ506から(又は図示されないフレームバッファから)グラフィック、テキスト、及び他のデータを転送する、表示インターフェース502を含み得る。コンピュータシステム500はまた、メインメモリ508、好ましくはランダムアクセスメモリ(random access memory、RAM)を含み、二次メモリ510も含み得る。二次メモリ510は、例えば、ハードディスクドライブ512、及び/又はフロッピーディスクドライブ、磁気テープドライブ、光ディスクドライブなどを表す取り外し可能な記憶ドライブ514を含んでもよい。取り外し可能な記憶ドライブ514は、周知の様式で、取り外し可能な記憶ユニット518から読み取り、及び/又はそこに書き込む。取り外し可能な記憶ユニット518は、フロッピーディスク、磁気テープ、光ディスクなどを表し、これは取り外し可能な記憶ドライブ514によって読み取られ、そこに書き込まれる。理解されるように、取り外し可能な記憶ユニット518は、その中にコンピュータソフトウェア及び/又はデータを記憶する、コンピュータ使用可能な記憶媒体を含む。
代替的な態様では、二次メモリ510は、コンピュータプログラム又は他の命令を、コンピュータシステム500にロードすることを可能にするための他の同様のデバイスを含んでもよい。このようなデバイスは、例えば、取り外し可能な記憶ユニット522及びインターフェース520を含み得る。このような例としては、プログラムカートリッジ及びカートリッジインターフェース(ビデオゲームデバイスに見られるものなど)、取り外し可能なメモリチップ(消去可能プログラマブル読み取り専用メモリ(erasable programmable read only memory、EPROM)又はプログラム可能な読み取り専用メモリ(programmable read only memory、PROM)など)、及び関連するソケット、並びにソフトウェア及びデータが、取り外し可能な記憶ユニット522からコンピュータシステム500に転送されることを可能にする、他の取り外し可能な記憶ユニット522及びインターフェース520が挙げられ得る。一例では、メモリ204は、メインメモリ508、二次メモリ510、取り外し可能な記憶ドライブ514、取り外し可能な記憶ユニット518、取り外し可能な記憶ユニット522などのうちの1つ以上を含み得る。
コンピュータシステム500はまた、通信インターフェース524を含み得る。通信インターフェース524は、ソフトウェア及びデータが、コンピュータシステム500と外部デバイスとの間で転送されることを可能にする。通信インターフェース524の例としては、モデム、ネットワークインターフェース(イーサネットカードなど)、通信ポート、パーソナルコンピュータメモリカード国際協会(Personal Computer Memory Card International Association、PCMCIA)スロット及びカードなどを含むことができる。通信インターフェース524を介して転送されるソフトウェア及びデータは、通信インターフェース524によって受信されることが可能な電子、電磁気、光学、又は他の信号であり得る、信号528の形態である。これらの信号528は、通信経路(例えば、チャネル)526を介して、通信インターフェース524に提供される。この通信経路526は、信号528を搬送し、ワイヤ若しくはケーブル、光ファイバ、電話線、セルラリンク、無線周波数(radio frequency、RF)リンク、及び/又は他の通信チャネルを使用して、実装されてもよい。本明細書では、「コンピュータプログラム媒体」及び「コンピュータ使用可能媒体」という用語は、一般に、取り外し可能な記憶ドライブ580、ハードディスクドライブ570に取り付けられたハードディスク、及び信号528などの媒体を指すために使用される。コンピュータプログラム製品は、コンピュータシステム500にソフトウェアを提供する。本明細書に説明される態様は、そのようなコンピュータプログラム製品を対象とし得る。
コンピュータプログラム(コンピュータ制御ロジックとも称される)は、メインメモリ508及び/又は二次メモリ510に記憶される。コンピュータプログラムはまた、通信インターフェース524を介して受信されてもよい。そのようなコンピュータプログラムは、実行されると、コンピュータシステム500が、本明細書に説明された態様に従って様々な機能を実行することを可能にする。具体的には、コンピュータプログラムは、実行されると、プロセッサ504がそのような機能を実行することを可能にする。したがって、そのようなコンピュータプログラムは、コンピュータシステム500のコントローラを表す。コンピュータプログラムは、本明細書に説明されるように、物体識別構成要素206、把持推定構成要素212、把持コントローラ214、及び/又はこれらの構成要素の下位構成要素を含み得る。
本明細書に説明される態様がソフトウェアを使用して実装される変形例では、ソフトウェアは、コンピュータプログラム製品に記憶され、取り外し可能な記憶ドライブ514、ハードディスクドライブ512又は通信インターフェース520を使用して、コンピュータシステム500にロードされてもよい。制御ロジック(ソフトウェア)は、プロセッサ504によって実行されると、プロセッサ504に、本明細書に説明されるような本明細書に説明される態様に従って機能を実行させる。別の変形例では、態様は、例えば、特定用途向け集積回路(application specific integrated circuit、ASIC)などのハードウェア構成要素を使用して、主にハードウェアにおいて実装される。本明細書に記載される機能を実行するためのハードウェア状態マシンの実装は、当業者(複数可)には明らかとなるであろう。
更に別の例示的な変形例では、本明細書に説明される態様は、ハードウェア及びソフトウェアの両方の組み合わせを使用して実装される。
図6は、一態様による、様々な例示的なシステム構成要素のブロック図である。図6は、本明細書に説明される態様に従って使用可能な通信システム600を示す。通信システム600は、1つ以上のアクセッサ660、662(本明細書では、1以上の「ユーザ」とも互換的に称される)及び1つ以上の端末642、666を含む。例えば、端末642、666は、プロセッサ(例えば、プロセッサ202)、メモリ(例えば、メモリ204)を含み得るコンピューティングデバイスであり得る。一態様では、本明細書に説明される態様に従って使用するためのデータは、例えば、パーソナルコンピュータ(personal computer、PC)、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、電話デバイスなどの端末642、666、又はPC、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、若しくはプロセッサ及びデータ用のリポジトリ、並びに/又は例えば、インターネット若しくはイントラネットなどのネットワーク644、及びカップリング645、646、664を介した、データ用のリポジトリへの接続を有する他のデバイスなどのサーバー643に連結されたパーソナルデジタルアシスタント(personal digital assistant、「PDA」)若しくはハンドヘルド無線デバイスなどの無線デバイスを介して、アクセッサ660、662によって入力及び/又はアクセスされる。カップリング645、646、664は、例えば、有線、無線、又は光ファイバリンクを含む。別の例示的な変形例では、本明細書に説明される態様による方法及びシステムは、単一端末上などの独立型環境で動作する。
本明細書で考察される態様はまた、コンピュータ実行可能命令を記憶するコンピュータ可読記憶媒体のコンテキストにおいて、説明及び実施され得る。コンピュータ可読記憶媒体は、コンピュータ記憶媒体及び通信媒体を含む。例えば、フラッシュメモリドライブ、デジタル多用途ディスク(digital versatile disc、DVD)、コンパクトディスク(compact disc、CD)、フロッピーディスク、及びテープカセットである。コンピュータ可読記憶媒体は、コンピュータ可読命令、データ構造、モジュール、又は他のデータなどの情報を記憶するための任意の方法又は技術において実装される、揮発性及び不揮発性、取り外し可能及び取り外し不可能な媒体を含んでもよい。
上記に開示された及び他の特徴並びに機能又はこれらの代替物若しくは変形の様々な実装が、望ましくは多くの他の異なるシステム又はアプリケーションに組み合わされ得ることが理解されるであろう。また、当業者であれば、添付の特許請求の範囲によって包含されることも意図される、現在予測又は予期されていない様々な代替、修正、変形、又は改良を今後行うことができる。

Claims (15)

  1. 把持システムによって物体を把持するための方法であって、
    メモリに記憶された物体識別データセット内の物体との比較に基づいて、把持する物体として前記物体を識別することと、
    前記把持する物体として前記物体を識別することに応答して、前記物体の奥行画像を取得することと、
    前記奥行画像に基づいて、前記物体の潜在的把持点を決定することと、
    前記奥行画像からのデータに基づいて、前記潜在的把持点が前記物体と接触する前に、前記潜在的把持点に対応する触覚出力を推定することと、
    前記推定された触覚出力に基づいて、前記潜在的把持点の接触の質を決定することと、
    前記推定された触覚出力及び前記潜在的把持点の接触の質に基づいて、前記潜在的把持点で前記物体を把持するように前記把持システムを制御することと、を含む、方法。
  2. 前記触覚出力の前記推定が、
    前記奥行画像からの前記データを、触覚経験データを用いて訓練されたニューラルネットワークに供給することと、
    前記ニューラルネットワークによって、前記奥行画像からの前記データを前記推定された触覚出力にマッピングすることと、を含む、請求項1に記載の方法。
  3. 前記触覚経験データは、1つ以上の把持デバイスが1つ以上の訓練物体に接触する前後の環境の記録された状態に対応するデータを含む、請求項2に記載の方法。
  4. 前記推定された触覚出力に基づいて、前記潜在的把持点での前記物体の把持の成功確率を推定することを更に含み、
    前記物体を把持するための前記把持システムの前記制御が、前記物体の把持の前記成功確率に更に基づく、請求項1に記載の方法。
  5. 複数の潜在的把持点から、前記複数の潜在的把持点の各々での前記物体の把持の前記成功確率に基づいて前記潜在的把持点を選択することを更に含む、請求項に記載の方法。
  6. 物体を把持するための把持システムであって、
    メモリと、
    前記メモリと連結された少なくとも1つのプロセッサと、を備え、前記少なくとも1つのプロセッサが、
    前記メモリに記憶された物体識別データセット内の物体との比較に基づいて、把持する物体として前記物体を識別することと、
    前記把持する物体として前記物体を識別することに応答して、前記物体の奥行画像を取得することと、
    前記奥行画像に基づいて、前記物体の潜在的把持点を決定することと、
    前記奥行画像からのデータに基づいて、前記潜在的把持点が前記物体と接触する前に、前記潜在的把持点に対応する触覚出力を推定することと、
    前記推定された触覚出力に基づいて、前記潜在的把持点の接触の質を決定することと、
    前記推定された触覚出力及び前記潜在的把持点の接触の質に基づいて、前記潜在的把持点で前記物体を把持するように前記把持システムを制御することと、を行うように構成されている、把持システム。
  7. 前記少なくとも1つのプロセッサが、
    前記奥行画像からの前記データを、触覚経験データを用いて訓練されたニューラルネットワークに供給することと、
    前記ニューラルネットワークによって、前記奥行画像からの前記データを前記推定された触覚出力にマッピングすることと、を行うように更に構成されている、請求項に記載の把持システム。
  8. 前記触覚経験データは、1つ以上の把持デバイスが1つ以上の訓練物体に接触する前後の環境の記録された状態に対応するデータを含む、請求項に記載の把持システム。
  9. 前記少なくとも1つのプロセッサが、
    前記推定された触覚出力に基づいて、前記潜在的把持点での前記物体の把持の成功確率を推定することと、
    前記物体の把持の前記成功確率に基づいて、前記物体を把持するように前記把持システムを制御することと、を行うように更に構成されている、請求項に記載の把持システム。
  10. 前記少なくとも1つのプロセッサが、
    複数の潜在的把持点から、前記複数の潜在的把持点の各々での前記物体の把持の前記成功確率に基づいて前記潜在的把持点を選択するように更に構成されている、請求項に記載の把持システム。
  11. 把持システムによって物体を把持するためのコンピュータ実行可能コードを記憶するコンピュータ可読媒体であって、前記コードが、
    メモリに記憶された物体識別データセット内の物体との比較に基づいて、把持する物体として前記物体を識別するコードと、
    前記把持する物体として前記物体を識別することに応答して、前記物体の奥行画像を取得するためのコードと、
    前記奥行画像に基づいて、前記物体の潜在的把持点を決定するためのコードと、
    前記奥行画像からのデータに基づいて、前記潜在的把持点が前記物体と接触する前に、前記潜在的把持点に対応する触覚出力を推定するためのコードと、
    前記推定された触覚出力に基づいて、前記潜在的把持点の接触の質を決定するためのコードと、
    前記推定された触覚出力及び前記潜在的把持点の接触の質に基づいて、前記潜在的把持点で前記物体を把持するように前記把持システムを制御するためのコードと、を含む、コンピュータ可読媒体。
  12. 前記奥行画像からの前記データを、触覚経験データを用いて訓練されたニューラルネットワークに供給するためのコードと、
    前記ニューラルネットワークによって、前記奥行画像からの前記データを前記推定された触覚出力にマッピングするためのコードと、を更に含む、請求項11に記載のコンピュータ可読媒体。
  13. 前記触覚経験データは、1つ以上の把持デバイスが1つ以上の訓練物体に接触する前後の環境の記録された状態に対応するデータを含む、請求項12に記載のコンピュータ可読媒体。
  14. 前記推定された触覚出力に基づいて、前記潜在的把持点での前記物体の把持の成功確率を推定するためのコードと、
    前記物体の把持の前記成功確率に更に基づいて、前記物体を把持するように前記把持システムを制御するためのコードと、を更に含む、請求項11に記載のコンピュータ可読媒体。
  15. 複数の潜在的把持点から、前記複数の潜在的把持点の各々での前記物体の把持の前記成功確率に基づいて前記潜在的把持点を選択するためのコードを更に含む、請求項14に記載のコンピュータ可読媒体。
JP2019233680A 2019-01-08 2019-12-25 物体を把持するための奥行知覚モデリング Active JP7050740B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/242856 2019-01-08
US16/242,856 US11185978B2 (en) 2019-01-08 2019-01-08 Depth perception modeling for grasping objects

Publications (2)

Publication Number Publication Date
JP2020110911A JP2020110911A (ja) 2020-07-27
JP7050740B2 true JP7050740B2 (ja) 2022-04-08

Family

ID=71403683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019233680A Active JP7050740B2 (ja) 2019-01-08 2019-12-25 物体を把持するための奥行知覚モデリング

Country Status (2)

Country Link
US (1) US11185978B2 (ja)
JP (1) JP7050740B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9333649B1 (en) * 2013-03-15 2016-05-10 Industrial Perception, Inc. Object pickup strategies for a robotic device
US11440183B2 (en) * 2019-03-27 2022-09-13 Abb Schweiz Ag Hybrid machine learning-based systems and methods for training an object picking robot with real and simulated performance data
US11745337B2 (en) 2019-08-29 2023-09-05 Kabushiki Kaisha Toshiba Handling device, control device, and computer program product
US20210125052A1 (en) * 2019-10-24 2021-04-29 Nvidia Corporation Reinforcement learning of tactile grasp policies
US20210270605A1 (en) * 2020-02-27 2021-09-02 Honda Motor Co., Ltd. Systems and methods for estimating tactile output based on depth data
JP7364505B2 (ja) * 2020-03-18 2023-10-18 株式会社東芝 ハンドリング装置、制御装置、およびプログラム
US11794350B2 (en) * 2020-10-22 2023-10-24 Mitsubishi Electric Research Laboratories, Inc. Interactive tactile perception method for classification and recognition of object instances
US20220405506A1 (en) * 2021-06-22 2022-12-22 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
CN113814970B (zh) * 2021-08-12 2023-05-23 杭州迁移科技有限公司 工件抓取点优化计算方法、装置、设备及存储介质
CN113763476B (zh) * 2021-09-09 2023-12-01 西交利物浦大学 目标物的抓取方法、设备和存储介质
CN115213890B (zh) * 2021-09-29 2023-12-08 达闼科技(北京)有限公司 抓取的控制方法、装置、服务器、电子设备及存储介质
NL2029461B1 (en) * 2021-10-19 2023-05-16 Fizyr B V Automated bin-picking based on deep learning

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006026875A (ja) 2004-07-21 2006-02-02 Toyota Motor Corp ロボットハンドの把持制御装置
JP2007245326A (ja) 2006-02-17 2007-09-27 Toyota Motor Corp ロボットとロボットの制御方法
JP2013144355A (ja) 2012-01-13 2013-07-25 Toyota Motor Engineering & Manufacturing North America Inc ロボットが用いる把持パターンを生成する方法及び計算機プログラム製品
JP2015520040A (ja) 2012-06-21 2015-07-16 リシンク ロボティクス インコーポレイテッド 産業用ロボットを訓練および動作させること
JP2015169515A (ja) 2014-03-06 2015-09-28 株式会社メガチップス 姿勢推定システム、プログラムおよび姿勢推定方法
JP2017185578A (ja) 2016-04-05 2017-10-12 株式会社リコー 物体把持装置及び把持制御プログラム
WO2017183414A1 (ja) 2016-04-22 2017-10-26 三菱電機株式会社 物体操作装置及び物体操作方法
WO2017199261A1 (en) 2016-05-19 2017-11-23 Deep Learning Robotics Ltd. Robot assisted object learning vision system
US20180361588A1 (en) 2016-01-27 2018-12-20 South China University Of Technology Multiple Lens-Based Smart Mechanical Arm and Positioning and Assembly Method Thereof

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4980626A (en) * 1989-08-10 1990-12-25 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for positioning a robotic end effector
WO2005099417A2 (en) * 2004-04-12 2005-10-27 Strider Labs, Inc. System and method for computing grasps for a robotic hand with a palm
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
CA2795826C (en) * 2010-04-08 2015-08-11 Vrsim, Inc. Simulator for skill-oriented training
US8781629B2 (en) * 2010-09-22 2014-07-15 Toyota Motor Engineering & Manufacturing North America, Inc. Human-robot interface apparatuses and methods of controlling robots
DE112011103794B4 (de) * 2010-11-17 2019-01-24 Mitsubishi Electric Corporation Aufnehmervorrichtung für Werkstücke
JP5835926B2 (ja) * 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US9002098B1 (en) 2012-01-25 2015-04-07 Hrl Laboratories, Llc Robotic visual perception system
JP2013184273A (ja) 2012-03-09 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US9785911B2 (en) * 2013-07-25 2017-10-10 I AM Robotics, LLC System and method for piece-picking or put-away with a mobile manipulation robot
WO2016022714A1 (en) * 2014-08-05 2016-02-11 Makefield Llc Dispensable unit retrieval mechanism, identification, and networked notification
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US10089575B1 (en) * 2015-05-27 2018-10-02 X Development Llc Determining grasping parameters for grasping of an object by a robot grasping end effector
US9889564B2 (en) * 2015-07-08 2018-02-13 Empire Technology Development Llc Stable grasp point selection for robotic grippers with machine vision and ultrasound beam forming
CN105598965B (zh) 2015-11-26 2018-03-16 哈尔滨工业大学 基于立体视觉的机器人欠驱动手自主抓取方法
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment
CN106530297B (zh) 2016-11-11 2019-06-07 北京睿思奥图智能科技有限公司 基于点云配准的物体抓取区域定位方法
CN110691676B (zh) * 2017-06-19 2023-02-03 谷歌有限责任公司 使用神经网络和几何感知对象表示的机器人抓取预测
US10646999B2 (en) * 2017-07-20 2020-05-12 Tata Consultancy Services Limited Systems and methods for detecting grasp poses for handling target objects
JP7116901B2 (ja) * 2017-08-01 2022-08-12 オムロン株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CA3073516A1 (en) * 2017-09-01 2019-03-07 The Regents Of The University Of California Robotic systems and methods for robustly grasping and targeting objects
US10723027B2 (en) * 2017-09-26 2020-07-28 Toyota Research Institute, Inc. Robot systems incorporating cloud services systems
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
US11017317B2 (en) * 2017-12-27 2021-05-25 X Development Llc Evaluating robot learning
US10730181B1 (en) * 2017-12-27 2020-08-04 X Development Llc Enhancing robot learning
US11097418B2 (en) * 2018-01-04 2021-08-24 X Development Llc Grasping of an object by a robot based on grasp strategy determined using machine learning model(s)
US20200019864A1 (en) * 2018-07-11 2020-01-16 Deepbrain Chain, Inc. Systems and methods for artificial-intelligence-based automated object identification and manipulation
JP7467041B2 (ja) * 2018-09-27 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
US20200164505A1 (en) * 2018-11-27 2020-05-28 Osaro Training for Robot Arm Grasping of Objects
CN109658413B (zh) * 2018-12-12 2022-08-09 达闼机器人股份有限公司 一种机器人目标物体抓取位置检测的方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006026875A (ja) 2004-07-21 2006-02-02 Toyota Motor Corp ロボットハンドの把持制御装置
JP2007245326A (ja) 2006-02-17 2007-09-27 Toyota Motor Corp ロボットとロボットの制御方法
JP2013144355A (ja) 2012-01-13 2013-07-25 Toyota Motor Engineering & Manufacturing North America Inc ロボットが用いる把持パターンを生成する方法及び計算機プログラム製品
JP2015520040A (ja) 2012-06-21 2015-07-16 リシンク ロボティクス インコーポレイテッド 産業用ロボットを訓練および動作させること
JP2015169515A (ja) 2014-03-06 2015-09-28 株式会社メガチップス 姿勢推定システム、プログラムおよび姿勢推定方法
US20180361588A1 (en) 2016-01-27 2018-12-20 South China University Of Technology Multiple Lens-Based Smart Mechanical Arm and Positioning and Assembly Method Thereof
JP2017185578A (ja) 2016-04-05 2017-10-12 株式会社リコー 物体把持装置及び把持制御プログラム
WO2017183414A1 (ja) 2016-04-22 2017-10-26 三菱電機株式会社 物体操作装置及び物体操作方法
WO2017199261A1 (en) 2016-05-19 2017-11-23 Deep Learning Robotics Ltd. Robot assisted object learning vision system

Also Published As

Publication number Publication date
US11185978B2 (en) 2021-11-30
JP2020110911A (ja) 2020-07-27
US20200215685A1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
JP7050740B2 (ja) 物体を把持するための奥行知覚モデリング
US11557085B2 (en) Neural network processing for multi-object 3D modeling
CN110168578B (zh) 具有任务特定路径的多任务神经网络
KR102419136B1 (ko) 다채널 특징맵을 이용하는 영상 처리 장치 및 방법
US20210390653A1 (en) Learning robotic tasks using one or more neural networks
KR102589303B1 (ko) 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치
JP6755849B2 (ja) 人工ニューラルネットワークのクラスに基づく枝刈り
KR20200070831A (ko) 인공 신경망을 압축하기 위한 장치 및 방법
JP2022532460A (ja) モデル訓練方法、装置、端末及びプログラム
TWI802820B (zh) 機器人控制裝置、方法和儲存媒體
US20210406695A1 (en) Systems and Methods for Training an Autoencoder Neural Network Using Sparse Data
US20210107144A1 (en) Learning method, learning apparatus, and learning system
KR102659494B1 (ko) 전자 장치 및 그 제어 방법
KR102629474B1 (ko) 데이터 압축 및 복원을 위한 전자 장치 및 그 압축 방법
CN108810551B (zh) 一种视频帧预测方法、终端及计算机存储介质
EP3859660A1 (en) Data processing method and sensor device for performing the same
EP3843012A1 (en) Method and apparatus with neural network data input and output control
CN114358274A (zh) 训练用于图像识别的神经网络的方法和设备
KR20190041388A (ko) 전자 장치 및 그 제어 방법
US20210374543A1 (en) System, training device, training method, and predicting device
CN114529010A (zh) 一种机器人自主学习方法、装置、设备及存储介质
KR20230061776A (ko) 전자 장치 및 그 제어 방법
CN110533189B (zh) 机器学习系统
CN113055546A (zh) 处理图像的系统和方法
CN111814813A (zh) 神经网络训练和图像分类方法与装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191225

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200109

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7050740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150