JP6744709B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP6744709B2
JP6744709B2 JP2015233759A JP2015233759A JP6744709B2 JP 6744709 B2 JP6744709 B2 JP 6744709B2 JP 2015233759 A JP2015233759 A JP 2015233759A JP 2015233759 A JP2015233759 A JP 2015233759A JP 6744709 B2 JP6744709 B2 JP 6744709B2
Authority
JP
Japan
Prior art keywords
information processing
orientation
gripping
image
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015233759A
Other languages
English (en)
Other versions
JP2017100216A (ja
Inventor
裕人 吉井
裕人 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015233759A priority Critical patent/JP6744709B2/ja
Priority to US15/360,812 priority patent/US10363664B2/en
Priority to CN201611086224.4A priority patent/CN106808473A/zh
Publication of JP2017100216A publication Critical patent/JP2017100216A/ja
Application granted granted Critical
Publication of JP6744709B2 publication Critical patent/JP6744709B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Description

本発明は、物体を把持するための技術に関するものである。
従来より、部品をバラ積みした状態からロボットを使って自動的に部品をピッキングするロボットピッキングシステムが存在した。このシステムでは先ず、パレットに対象物体である部品が複数個ランダムに配置されている状態を、パレット上方に設置したカメラで撮像する、または3次元計測装置で計測する。その撮像結果、もしくは計測結果を用いて、把持対象となる部品の位置・姿勢を求め、ロボットハンドを用いて把持対象部品を把持する。
その際、出来るだけロボットハンドが他の物体と衝突することなく動作するために、通常、パレット中の高い位置にある部品を優先的に把持候補として導き出してロボットハンドで把持する。また、特許文献1にあるように、一番高い位置にある部品が所定の閾値を超えて他の部品より高い位置にある場合は、把持せずに位置をずらす動作をさせることでより確実に把持できるようにする工夫がある。
特開2012‐135820号公報
しかしながら、従来技術には以下のような課題が存在した。ピッキングシステムにおける“高い方向”が“重力方向と逆方向”であることが暗黙の前提としてあり、その前提を元にカメラ、または計測装置を配置し、どの物体を優先的に把持するのかを決定する把持順決定等の情報処理を実施していた。ところが、必ずしも把持順決定において基準とする方向が“重力方向と逆方向”とはならない場合があり、このようなケースに従来のピッキングシステムでは対応することが出来なかった。
本発明はこのような問題に鑑みてなされたものであり、複数の物体に対して任意の方向から物体の把持を行うための把持順を決定するための技術を提供する。
本発明の一様態は、複数の物体の画像を取得する取得手段と、
物体の把持順の決定において基準とする方向を設定する設定手段と、
前記画像における、前記方向側から見て最も近い物体上の点を含む一部の画像領域を、物体の位置姿勢の認識を行う画像領域として求め、該画像領域に含まれるそれぞれの物体の位置姿勢を認識する認識手段と、
前記画像領域に含まれるそれぞれの物体の把持順を、該物体の位置姿勢と、前記方向と、に基づいて決定する決定手段と
を備えることを特徴とする。
本発明の構成により、複数の物体に対して任意の方向から物体の把持を行うための把持順を決定することができる。
ピッキングシステムが行う処理のフローチャート。 情報処理装置のハードウェア構成例を示すブロック図。 ピッキングシステムの一例を示す図。 ピッキングシステムの一例を示す図。 撮像装置402の撮像範囲内の様子の一例を示す図。 チェックステップ109を説明する図。 判定ステップ114を説明する図。 設定ステップ103を説明する図。 第2の実施形態に係る優先方向104の設定方法を説明する図。 第3の実施形態に係る優先方向104の設定方法を説明する図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
先ず、従来技術における問題について、図3の物体を把持(ピッキング)するピッキングシステムを例にとり説明する。図3において、301が撮像装置、302がロボット(ロボットアーム)、303がパレット、304が物体で、305が撮像装置301のZ方向、306がロボット302のZ方向である。以下の説明で、Z方向とはXYZ座標系のZ軸プラスの方向を意味する。305は撮像装置301の座標系Z軸プラスの方向で、306はロボット302の座標系Z軸プラスの方向を意味する。
上記の通り、どの物体を優先的に把持するのかを決定する把持順決定において基準とする方向(把持の優先方向)が鉛直下方向とは異なる方向、例えばパレット303とロボット302との位置関係からして図3のように方向307となる場合がある。この方向307は、パレット303の開口部の方向(すなわちパレット303の底面の法線ベクトルの方向)、撮像装置301のZ方向305、ロボット302のZ方向306、のどれとも平行でない。通常のピッキングシステムでは、把持の優先方向と撮像装置のZ方向とが平行になるように撮像装置を配置していた。しかしながら、ロボットの可動範囲などのシステム制約条件が理由で撮像装置を自由な位置・方向で配置できない場合がある。図3で示した例がそのような例であり、従来のピッキングシステムでは所望の把持優先方向を指定できないという課題があった。
また、従来より、パレット内の“高い場所”を選んで、その中で物体を検出・認識し、ロボットで把持する機能を有するロボットピッキングシステムがあった。この機能も従来では暗黙に撮像装置・計測装置のZ方向305を基準に実施していた。よって同様に、従来のシステムでは図3で示したような撮像装置301のZ方向305と全く関係のない方向を基準に“高い場所”を物体検出・認識領域として選ぶことができないという課題もあった。
また、従来より物体を把持する際に、把持姿勢の角度をチェックする機能を有するロボットピッキングシステムがあった。この機能も従来は暗黙に重力方向を基準にその角度を計算していた。よって同様に、従来のシステムでは図3で示したような重力方向とは全く関係のない方向を基準に把持姿勢の角度チェックを実施することができないという課題もあった。
また、従来より物体の重なりを計算して、重なりが所定量を超えた物体は把持をしないようにする重なりチェック機能を有するロボットピッキングシステムがあった。この機能は従来は暗黙に撮像装置・計測装置のZ方向305を基準に実施していた。よって同様に、従来のシステムでは図3で示したような撮像装置のZ方向305と全く関係のない方向を基準に重なりチェックを実施することができないという課題もあった。
本実施形態に係る情報処理装置は、このような課題に鑑み、複数の物体の画像を取得し、該画像に基づいて物体の位置姿勢を取得し、該位置姿勢と、設定された方向と、に基づいて、物体の把持順を決定する。以下では、このような情報処理装置の一例について説明する。先ず、本実施形態に係る情報処理装置のハードウェア構成例について、図2のブロック図を用いて説明する。
CPU201は、ROM202やRAM203に格納されているコンピュータプログラムやデータを用いて処理を実行することで、情報処理装置全体の動作制御を行うと共に、情報処理装置が行うものとして後述する各処理を実行若しくは制御する。
ROM202には、ブートプログラムや設定データなどが格納されている。RAM203は、ROM202や2次記憶装置204からロードされたコンピュータプログラムやデータ、I/Oデバイス209から入力されたデータ、等を格納するためのエリアを有する。更に、RAM203は、CPU201が各種の処理を実行する際に用いるワークエリアを有する。このように、RAM203は、各種のエリアを適宜提供することができる。
2次記憶装置204は、ハードディスクドライブ装置などの大容量情報記憶装置である。2次記憶装置204には、OS(オペレーティングシステム)211や、情報処理装置が行うものとして後述する各処理をCPU201に実行させるためのコンピュータプログラムやデータが保存されている。このコンピュータプログラムには、モジュール213やアプリケーション212などが含まれる。また、このデータには、データ214が含まれている。また、2次記憶装置204には、以下の説明において既知の情報として取り扱う情報も保存されている。2次記憶装置204に保存されているコンピュータプログラムやデータは、CPU201による制御に従って適宜RAM203にロードされ、CPU201による処理対象となる。
ディスプレイ206は、CRTや液晶画面等により構成されており、CPU201による処理結果を画像や文字などでもって表示することができる装置である。なお、ディスプレイ206の代わりに、プロジェクタなど、CPU201による処理結果を画像や文字として投影する装置を用いても構わない。
キーボード207やマウス208は、情報処理装置の操作者が操作することで各種の指示をCPU201に対して入力することができる、ユーザインターフェースとして機能する装置である。なお、ディスプレイ206、キーボード207、マウス208の代わりに若しくは加えてタッチパネル画面を設けても良く、該タッチパネル画面によって、ユーザ入力を受け付けると共に、CPU201による処理結果を表示するようにしても良い。
I/Oデバイス209は、情報処理装置に対して様々な情報を入力する機器、様々な情報を情報処理装置から外部の装置に対して出力する機器、を含むものである。本実施形態では、I/Oデバイス209は、少なくとも、物体を含む画像を取得可能な機器を含んでいる。このような機器には例えば各画素の画素値が輝度値を表す2次元撮像画像を撮像する撮像装置、各画素の画素値が該機器の距離計測範囲内の各位置までの3次元距離を表す距離画像を撮像する機器(例えばTOFセンサ装置等の3次元入力装置)が適用可能である。
また例えば、I/Oデバイス209に、2台のステレオカメラを適用しても良い。その場合、該2台のステレオカメラのそれぞれは物体を含む撮像画像を撮像し、CPU201は該2台のステレオカメラのそれぞれによる撮像画像を用いて三角測量技術を適用することで、該撮像画像に写っている空間の各位置までの3次元距離を求める。これにより、距離画像を生成することができる。
また例えば、I/Oデバイス209として1台のパターン光投影装置(プロジェクタ)と1台以上の撮像装置とを適用しても良い。その場合、パターン光投影装置は、投影パターン(例えば、空間符号化画像や位相シフト法に用いられる空間的三角関数画像)を物体に投影する。撮像装置は該投影パターンが投影された物体の画像を撮像し、CPU201は該画像を用いて周知の技術を適用することで、物体までの距離の計測を行うことができる。これにより、距離画像を生成することができる。また、同様の目的のために、パターン光投影装置でランダムドットパターンを物体に投影し、該物体を2台の撮像装置で撮影する方法もある。また、同様の目的のために、レーザースリット光を用いた光切断法を用いても良い。
また、I/Oデバイス209は、情報処理装置が後述する各処理により求めた様々な情報(例えば物体の属性や位置)を、該物体を把持するためのロボット等の外部の機器に対して送出する機器をも含む。本実施形態では、I/Oデバイス209に含まれる該機器には、物体を把持するロボット(ロボットアーム)が接続されているものとして説明する。ロボットアームは、情報処理装置からの制御に応じてその位置姿勢を変更したり、物体を把持したりする。
CPU201、ROM202、RAM203、2次記憶装置204、ディスプレイ206、キーボード207、マウス208、I/Oデバイス209、は何れも、バス205に接続されている。
なお、図2に示した構成を有する機器としては、PC(パーソナルコンピュータ)や、スマートフォンやタブレット端末装置などの携帯端末装置、等が適用可能である。また、図2の構成は、組み込みデバイス、デジタルカメラ、ネットワークを介した分散システム上で実行されてもよい。
上記のような構成を有する情報処理装置を含む、物体のピッキングシステムについて、図3,4を用いて説明する。図3,4では説明上、情報処理装置の図示は省略しているが、図3では撮像装置301はI/Oデバイス209に対応しており、ロボット302はI/Oデバイス209に接続されている。また、図4では撮像装置402はI/Oデバイス209に対応しており、ロボット404はI/Oデバイス209に接続されている。
先ず、図3のピッキングシステムについて説明する。撮像装置301は、I/Oデバイス209の一例であり、鉛直下向き(重力方向)を撮像方向とするように設置されている。この場合、撮像装置301を基準とする座標系においてそのZ方向305は、鉛直下向き方向となる。
ロボット302は、情報処理装置に接続されており、該情報処理装置によってその動作が制御される。その一例としてロボット302は、情報処理装置による制御に従ってその位置姿勢を変更し、パレット303に積載されている物体304を把持する。ロボット302を基準とする座標系においてそのZ方向306は、鉛直上向きとなる。
パレット303には複数個の物体304がバラ積み状態で積載されており、且つ該パレット303は地面に対して傾けて(図3の場合は時計回りにある角度だけ傾けて)設置されている。このようにパレット303を傾けて設置することで、ロボット302がパレット303に積載されている物体をより把持しやすい状況を作り出すことが出来る。この時、積載された物体群の表面は水平面より傾くが、パレット303の底面の傾きよりは角度が浅い傾きとなる。なぜなら、重力の影響で、ある程度、物体が下(図3の右)方向へ流れるが、物体間の摩擦があり液体のように完全には流れ落ちることはないからである。ここで、図3のようなバラ積み物体群を表層から順番にロボット302によって把持しようとする場合、パレット303の底面の法線方向とは異なる方向307を、どの物体を優先的に把持するのかを決定する際の基準となる方向とするのが好ましい。
次に、図4のピッキングシステムについて説明する。撮像装置402は、I/Oデバイス209の一例であり、鉛直下向き(重力方向)を撮像方向とするように天井401に取り付けられている。この場合、撮像装置402を基準とする座標系においてそのZ方向403は、鉛直下向き方向となる。
ロボット404は、撮像装置402と同様に天井401に取り付けられている。また、ロボット404は、情報処理装置に接続されており、該情報処理装置によってその動作が制御される。その一例としてロボット404は、情報処理装置による制御に従ってその位置姿勢を変更し、パレットに積載されている物体405を把持して取り出し、該取り出した物体405を作業台407へ置き、そこで加工する。図4では、作業台407には既に取り出された物体408が置かれている。
パレットには複数個の物体405がバラ積み状態で積載されている。装置406は、新たな物体をパレットに供給する。図4のような積載状態のバラ積み物体群を表層から順番にロボット404によって把持しようとする場合、「できるだけ表層から且つできるだけ作業台407に近い方から」という条件の下で物体の把持を行うのが好ましい。そこで、パレットの底面の法線方向とは異なる方向409を、どの物体を優先的に把持するのかを決定する際の基準となる方向とするのが好ましい。
以上説明してきた図3や図4のようなピッキングシステムの設計をすると、これまでにない利便性が実現できる。具体的には、図3のようなピッキングシステムを設計すると、従来ではパレットの隅まで届くような長いアームを持つ大型ロボットを準備しなければいけない所が、それより小型のロボットでピッキングシステムを組むことができるようになる。また、図4のようなピッキングシステムを設計すると、従来では物体を補充する際に、一旦システムを止めてパレットを交換する必要があった所を、システム停止・パレット交換なしに連続してピッキングを続けられるようになる。しかしながら、従来の物体認識技術では、把持の優先方向が暗黙に鉛直方向に設定されていたので、図3や図4のような柔軟なシステム運用が不可能であった。本実施形態では、把持の優先方向を柔軟に設定できることを可能にし、図3や図4のような柔軟なシステム設計を実現できるようになる。
パレットにバラ積み状態で積載されている物体群のうち1つをロボット(図3のロボット302、図4のロボット404を含む)に把持させるためにピッキングシステムが行う処理について、図1のフローチャートを用いて説明する。図1はシステムの動作を記述したデータフローダイアグラムであり、実線で囲った処理と点線で囲ったデータとからなる。
<計測ステップ101>
I/Oデバイス209は、パレットにバラ積み状態で積載されている物体群(全体でも良いし一部でも良い)を撮像若しくは計測し、その結果を計測情報102として出力する。この計測情報102は上記の通り、各画素の画素値が輝度値を表す2次元撮像画像、各画素の画素値が距離計測範囲内の各位置までの3次元距離を表す距離画像、ステレオカメラによる撮像画像、投影パターンが投影された物体の撮像画像等である。すなわち、計測情報102は、物体の位置姿勢を認識するために必要な情報である。
<設定ステップ103>
ユーザはキーボード207やマウス208を操作して、上記の把持の優先方向104を設定するので、CPU201は該設定された優先方向104を取得する。図3の場合、CPU201は、方向307を優先方向104として取得する。また、図4の場合、CPU201は、方向409を優先方向104として取得する。設定ステップ103は、CPU201が後述する決定ステップ105を実行する前に実行されていれば、設定ステップ103の実行タイミングは計測ステップ101の後に限るものではない。
<決定ステップ105>
CPU201は、計測情報102及び優先方向104を用いて、「優先方向104側から見て最も近い物体上の点を含む周辺領域」を認識領域106として求める。積載されている物体群から把持対象となる物体を認識する際に、予め物体認識を実施する領域を決定することが良い場合が多い。
図4を例にとると、鉛直方向に沿って地面からの距離を考える場合(鉛直方向を基準とした場合)、地面から最も離れている物体上の1点は、○で示した点410となる。一方、方向409に沿って地面からの距離を考える場合(方向409を基準とした場合)、地面から最も離れている物体上の1点は、○で示した点411となる。然るにこの場合、本実施形態では、点411を含む周辺領域を認識領域106として設定する。例えば、撮像装置402の撮像範囲内の様子が図5に示したようなものであった場合、点411を含む周辺領域503を認識領域106として設定する。結果として、図5に示すようにバラ積み中央より少し右側のロボット404に近い位置に認識領域106が設定されることになる。なお、図5では周辺領域503の形状は矩形であるが、その形状は矩形に限るものではなく、矩形を平面に射影した台形、楕円、一般の閉曲線で囲まれた領域でも良い。また、物体が大きく撮像範囲若しくは計測範囲の大部分を覆うような場合は、認識領域106は撮像範囲若しくは計測範囲全体としても良い。そして後述する認識ステップ107では、この認識領域106内で物体の認識(その位置姿勢の認識も含む)を行う。
なお、認識領域106の求め方については、例えば次のような方法が考えられる。計測情報102を用いれば、上記の通り、I/Oデバイス209の撮像範囲若しくは計測範囲内の各点(3次元点)における3次元座標(I/Oデバイス209を原点とする座標系における3次元座標)を得ることができる。然るに、優先方向104を方向ベクトルとする直線上に該各点の3次元座標を投影する。そして、該投影した各点の3次元座標のうち優先方向104(図4の場合は右上方向)において端部に位置する3次元座標の点を決定し、該決定した点を含む周辺領域を認識領域106として設定する。また、優先方向104を基準にして物体の存在する領域に概略高さマップ(優先方向104を法線とする面上のマップ)を作成し、該概略高さマップにおいて最も高い領域に認識領域106を設けても良い。
<認識ステップ107>
CPU201は、計測情報102を用いて、認識領域106内にある物体の認識(物体の位置姿勢の認識を含む)を行い、認識領域106内にあるそれぞれの物体について、該物体の認識した位置姿勢を登録したリスト108を作成する。計測情報102を用いて物体の位置姿勢を認識する技術については周知であるため、これに係る説明は省略する。ここで、物体の位置とは、物体を代表する点の3次元座標を意味し、例えば物体の重心位置の3次元座標であったり、物体の設計におけるCAD原点の3次元座標であったりする。
<決定ステップ109>
CPU201は、リスト108に登録されている各物体の位置姿勢を、より優先方向104側の物体の位置姿勢から、より優先方向104とは逆側の物体の位置姿勢へと並ぶようにソートし、ソート済みのリスト110を生成する。例えば、リスト108に登録されている各3次元座標を、優先方向104を方向ベクトルとする直線上に投影する。そして、投影した3次元座標が優先方向104において端部となる物体の位置姿勢から、投影した3次元座標が優先方向104とは逆の方向において端部となる物体の位置姿勢へと並ぶように、リスト108中の各物体の位置姿勢をソートする。
<チェックステップ112>
CPU201は、リスト110に登録されているそれぞれの物体の位置姿勢について、該位置姿勢の物体をロボットが把持可能であるか否かをチェックする。このチェックの方法には様々なものがあり、物体やロボットに応じた様々なものが考えられる。ここではその一例について、図6を用いて説明する。
ロボットが有するアーム602の先端部には吸着ハンド603が取り付けられており、図6(a)に示す如く、この吸着ハンド603でもって物体601を吸着して移動させることができる。ここで、アーム602の先端(フランジ)に原点604、そこからアーム先端方向へ延びるベクトル605を規定する。
認識ステップ107において、図6(b)に示す如く物体606及び607を認識したとする。情報処理装置の2次記憶装置204には予め、物体の位置姿勢が与えられた場合に、該位置姿勢を有する物体をロボットが把持するために必要な情報(ロボットのアームの位置や姿勢など)が把持教示情報111として保存されている。然るに物体606の位置姿勢を認識すると、CPU201はこの把持教示情報111を用いて、該位置姿勢を有する物体606を吸着ハンド603でもって吸着するためにアーム602の位置姿勢をどのような位置姿勢とするのかを特定する。これは、物体607についても同様である。図6(b)では、認識した物体606の位置姿勢と把持教示情報111とに基づいて求めたアーム602の位置姿勢、認識した物体607の位置姿勢と把持教示情報111とに基づいて求めたアーム602の位置姿勢、が示されている。従来の鉛直上方向から物体を把持することを前提にしたシステムでは、この2つの物体は同程度の把持困難さと考えられる。一方、図3のようにロボットが図中右側に配置されていたとすると、ロボットがアームを伸ばしやすい物体は物体606よりも物体607となる。また、物体606はアームの可動範囲から考えて、把持不可となる可能性もある。
然るに図6の場合、CPU201は、吸着ハンド603によって物体606を吸着可能か否かを判断するためには、ベクトル608と優先方向610との内積値の絶対値を求め、該絶対値が正の閾値以上であるか否かを判断する。ベクトル608は、認識した物体606の位置姿勢と把持教示情報111とに基づいて求めたアーム602の姿勢成分を表すベクトル(アーム先端方向へ延びるベクトル)である。この判断の結果、該絶対値が正の閾値以上であれば、物体606が吸着ハンド603によって吸着可能(吸着ハンド603が物体606を吸着できるようにアーム602の位置姿勢を制御可能)と判断する。一方、該絶対値が正の閾値未満であれば、物体606が吸着ハンド603によって吸着不可能(吸着ハンド603が物体606を吸着できるようにアーム602の位置姿勢を制御不可能)と判断する。同様に、吸着ハンド603によって物体607を吸着可能か否かを判断するためには、ベクトル609と優先方向610との内積値の絶対値を求め、該絶対値が正の閾値以上であるか否かを判断する。ベクトル609は、認識した物体607の位置姿勢と把持教示情報111とに基づいて求めたアーム602の姿勢成分を表すベクトル(アーム先端方向へ延びるベクトル)である。この判断の結果、該絶対値が正の閾値以上であれば、物体607が吸着ハンド603によって吸着可能(吸着ハンド603が物体607を吸着できるようにアーム602の位置姿勢を制御可能)と判断する。一方、該絶対値が正の閾値未満であれば、物体607が吸着ハンド603によって吸着不可能(吸着ハンド603が物体607を吸着できるようにアーム602の位置姿勢を制御不可能)と判断する。
なお、上記の説明では、図6に示された吸着ハンドによる物体把持を例にとり、認識したそれぞれの物体が把持可能であるか否かを判断する処理について説明した。しかし、物体の把持方法(把持部)はこれに限るものではないため、認識したそれぞれの物体が把持可能であるか否かを判断する処理もまた、上記の処理に限るものではない。例えば、物体の把持が開閉ハンドで物体をつかむような構成によるものであっても良いし、磁石を用いた物体把持構成によるものであっても良い。
また、優先方向104との内積を計算する対象となるベクトルは、フランジからアーム先端方向に伸びたベクトルに限らない。例えば、物体を把持するエンドイフェクタが図6(a)に示した吸着ハンドでない場合、優先方向104との内積を計算する対象となるベクトルは、フランジからアーム先端方向に伸びたベクトルではなく、他のベクトルとなる。一般的に言うと、優先方向104との内積を計算する対象となるベクトルは、把持する際にアームがアプローチする方向のベクトルであれば、如何なるベクトルであっても良い。
このようにしてCPU201は、リスト110に登録されているそれぞれの物体の位置姿勢について、該位置姿勢の物体をロボットが把持可能であるか否かをチェックし、把持不可能と判断した物体の位置姿勢をリスト110から削除する。つまり、把持対象から除外する物体を決定してリスト110から削除する。リスト113は、リスト110から、把持不可能と判断した物体の位置姿勢を削除することで得られるリストである。然るに、把持不可能と判断した物体が無ければ、リスト113はリスト110と同じものである。
<判定ステップ114>
CPU201は、リスト113に位置姿勢が登録されているそれぞれの物体について、該物体と他物体との重なりの度合いを判定し、その判定結果に応じて、該物体がロボットによって把持可能であるのか否かを判断する。この判定処理について、図7を例にとり説明する。図7では、何れの物体も板状の物体であるものとしているが、物体は板状の物体に限らず、他の形状の物体であっても良い。
図7(a)、(c)、(e)は何れも、物体701の一部に物体702の一部が重なっており、物体703の一部に物体704の一部が重なっている、物体701〜704の積載状態を上方から見下ろしている状態を示している。また、図7(b)、(d)、(f)はそれぞれ、図7(a)、(c)、(e)の状態を側面から見た場合の断面図である。図3の撮像装置301や図4の撮像装置402からは図7(a)のように観察される。ここで、物体同士の重なりの部分について考える。
従来では、物体同士の重なりは図7(d)に示す如く、鉛直方向について求めていた。そのため、物体701と物体702との間の重なりは部分705となり、物体703と物体704との間の重なりは部分706となり、物体同士の重なり部分の面積はどちらの物体でも同程度となる。然るに、仮に、物体701と物体703とを認識していた場合、物体701と物体703とで把持容易さは同程度と判断していた。
一方、本実施形態では、物体同士の重なりは、優先方向104について求める。例えば、図7(f)に示す如く、優先方向104が方向709であるとすると、この方向709についての物体701と物体702との間の重なりは図7(e)に示す如く部分707となる。また、方向709についての物体703と物体704との間の重なりは図7(e)に示す如く部分708となる。このように、方向709について物体同士の重なりを求めた場合、物体701と物体702との間の重なりの部分の面積、物体703と物体704との間の重なりの部分の面積はそれぞれ異なり、部分708の面積>部分707の面積となる。然るに、仮に、物体701と物体703とを認識していた場合、物体703と比べて物体701の方が大幅に把持が容易となる。
本ステップでは、例えば、図7を例にとると、認識した物体(ここでは物体701及び物体703とする)のモデルを該物体の認識した位置姿勢で配置し、該配置したモデルを方向709に並進移動した時に生成される柱状の3次元領域を求める。そして、該3次元領域において、他の物体の領域(ここではそれぞれ物体702及び物体704)と重複する領域を求める(ここではそれぞれ部分707及び部分708)。そして、認識した物体について求めた3次元領域における重複領域の面積が正の閾値以上であれば、該物体は把持不可能と判断し、該面積が正の閾値未満であれば、該物体は把持可能と判断する。なお、本ステップでは、単に面積と閾値との比較によるものに限らず、認識した物体の面積に対する重複領域の割合が閾値以上であれば該物体は把持不可能と判断し、閾値未満であれば該物体は把持可能と判断するようにしても良い。
また、本ステップでは、同様の目的を達成することができるのであれば、他の方法を用いて判定処理を行っても良い。例えば、物体上の3次元点群(計測情報102によって求められる)を優先方向と逆方向に射影した時に認識した物体と衝突する3次元点の個数を上記の「重複領域の面積」として取り扱っても良い。
そしてCPU201は、リスト113に登録されているそれぞれの物体の位置姿勢のうち、把持不可能と判断された位置姿勢を削除することで、新たなリスト115を生成する。つまり、把持対象から除外する物体を決定してリスト113から削除する。
そしてCPU201は、リスト115に登録されている物体の位置姿勢を用いて、該物体をロボットに把持させるべく該ロボットのアームの位置姿勢を制御するための制御信号を生成して、I/Oデバイス209を介してロボットに対して出力する。上記の通り、リスト115には、より優先方向104側の物体から、より優先方向104とは逆側の物体の順に、その位置姿勢が登録されているので、ロボットは、より優先方向104側の物体から順に把持することになる。
次に、上記の設定ステップ103について、図8を用いて説明する。図8は、ユーザが優先方向104を設定するために使用するGUI(グラフィカルユーザインターフェース)の一例を示すものであり、このGUIはディスプレイ206に表示される。以降、このGUIの表示制御や、GUIに対するユーザ操作に応じた処理は何れも、CPU201が行う。
領域801には、優先方向104を規定する方向ベクトル成分が、ビジョン座標系におけるものとするのか、それともロボット座標系におけるものとするのかを選択するためのラジオボタンが設けられている。ここで、ビジョン座標系とは、I/Oデバイス209(図3では撮像装置301、図4では撮像装置402)を基準とする座標系であり、通常は、Z軸プラス方向が図3のZ方向305や図4のZ方向403となる。ロボット座標系とは、ロボット(図3ではロボット302、図4ではロボット404)を基準とする座標系である。ユーザがキーボード207やマウス208を操作して上側のラジオボタンをチェックすると、ビジョン座標系が選択され、下側のラジオボタンをチェックすると、ロボット座標系が選択される。図8では上側のラジオボタンがチェックされている。
領域802には、優先方向104を規定する方向ベクトルのx成分、y成分、z成分を入力するためのボックスが設けられている。図8では、x成分として「1」、y成分として「0」、z成分として「0」が入力されている。このようにして設定される各成分は、領域801においてラジオボタンの選択により設定される座標系におけるものであるから、これを例えば世界座標系におけるものとする為には適宜変換が必要である。ここで、世界座標系とは、実空間中の1点を原点とし、該原点で直交する3軸をそれぞれx軸、y軸、z軸とする座標系である。
そしてユーザがキーボード207やマウス208を操作してOKボタン803を指示すると、領域806には、領域802内の各ボックスに入力した成分を有する方向ベクトル、即ち優先方向104を表すオブジェクト808が表示される。領域806内には更に、パレットを表すオブジェクト807も表示される。領域806内には、現在設定されている視点の位置姿勢に応じて、パレットのオブジェクト807及び優先方向104のオブジェクト808が配置された仮想の空間の画像が表示される。オブジェクト808はベクトルの方向を円盤とそれに針状の物体が取り付けられた形状を有する(針の根元から先端へ向けたベクトル)。オブジェクト808の向きは、領域801内で指定した座標系における「領域802内で指定した成分」を、オブジェクト807と同じ座標系における成分に変換した方向である。
また、ユーザはキーボード207やマウス208を操作して、例えば領域806内をドラッグ操作するなどして、自由に視点の位置姿勢を変更することができ、領域806内の表示は、視点の位置姿勢の変更に応じて変わる。なお、優先方向104を表すオブジェクトの形状は上記の形状に限るものではない。また、優先方向104の表現方法はオブジェクトを用いた表現方法に限るものではない。また、図8では、パレットのオブジェクト807と優先方向104のオブジェクト808とを表示することで3次元座標における位置関係を表示しているが、計測した3次元点群とベクトルを表す3次元図形を表示してもよい。
また、ユーザがキーボード207やマウス208を操作してキャンセルボタン804を指示すると、CPU201はGUIを用いて設定した内容は破棄する。なお、優先方向104を設定しない場合は、予め設定されて2次記憶装置204に保存されているデフォルトの優先方向104を用いても良い。
ユーザがキーボード207やマウス208を操作してOKボタン803を指示しても、キャンセルボタン804を指示しても、CPU201は図8のGUIをディスプレイ206から消去する。
[第2の実施形態]
以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態では、優先方向104の設定方法が第1の実施形態とは異なる。以下では、本実施形態に係る優先方向104の設定方法について、図9を用いて説明する。図9では、図8と同じように、パレットのオブジェクト901と優先方向104を表すオブジェクト902とを使って説明する。
図9(a)は、優先方向の始点903と終点904とをロボットで教示する例を示している。通常、ロボットアームの先端(フランジ)を始点に移動させて教示した後で終点に移動させて教示するか、逆に、終点に移動させて教示した後で始点に移動させて教示する。ロボットによる把持操作をティーチングで行う際に、このプロトコルを使って教示すると便利である。ロボットアームを移動させて優先方向104の始点や終点を教示するたびに、CPU201はその教示位置をロボットから取得し、始点の教示位置から終点の教示位置に向かうベクトルを優先方向104の方向ベクトルとして求める。
一方、図3で示すように、物体群がなす表層面を指定して把持の優先方向を設定する場合は図9(b)や図9(c)で示す方法が便利である。図9(b)では3次元空間上の3点(点905〜907)をロボットアームで教示する。CPU201は、この3点の3次元位置を取得すると、該3点の張る平面の法線を優先方向を表すベクトルとして求める。ベクトルの向きは、3点の教示順序で決定することができ、予め右手座標系か左手座標系かを決めておく。ベクトルの向きを別に指定する例としては図9(c)にあるように、平面を規定する3点(点905〜907)とその平面から離れた1点908を指定する方法がある。この場合、該3点の張る平面から点908に向かう方向が法線方向となる。
なお、ロボットアームを用いて位置を教示し、該教示した位置に基づいて優先方向を指定する上記の方法は、上記の設定ステップ103において実行される。なお、ロボットアームを用いて優先方向104を決定する方法には上記の方法以外にも様々な方法が考えられる。
[第3の実施形態]
以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態では、優先方向104の設定方法が第1の実施形態とは異なる。以下では、本実施形態に係る優先方向104の設定方法について、図10を用いて説明する。
I/Oデバイス209により、図10(a)に例示する画像を撮像したとする。図10(a)の画像には、パレット1001内に積載された物体1002が含まれている。図10(a)の画像を撮像したときのパレットの断面を図10(b)に示す。図3の設置状況の説明でも記述したように、積載された物体群の表面は、水平面より傾くが、パレット底面の傾きよりは角度が浅い傾きとなる。この状況で、把持の優先方向としては、物体群の表面が形作る概平面の法線方向が適切となる。そして、本実施形態ではこの平面および法線方向を簡易に設定する方法を提供する。
まず、図10(a)の画像をディスプレイ206に表示し、ユーザがキーボード207やマウス208を操作して部分領域を指定する。図10(a)では1003で示す矩形領域が指定されている。そして、矩形領域1003内の各画素に対応する3次元点の3次元座標を用いて、例えば最小2乗法を用いて平面フィッティングを行って、矩形領域1003内の各画素に対応する3次元点による概平面1004を求める。そして、該求めた概平面1004の法線1005を把持の優先方向として設定する。なお、図10ではユーザが指定する部分領域は矩形領域としたが、部分領域は矩形領域に限るものではなく、楕円や自由曲線で囲った部分を部分領域としても良い。また、第1〜3の実施形態やその変形例については、その一部若しくは全部を適宜組み合わせて使用しても構わないし、選択的に使用しても構わない。
上記の実施例では、バラ積みされた物体を把持する場合の例を説明したが、適用はこれに限られない。例えば、パレットの中の敷居に配置された物体を把持するような場合にも適用可能であるし、ハンガーのようにつるされた状態の物体を把持するような場合にも適用可能である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201:CPU 209:I/Oデバイス

Claims (11)

  1. 複数の物体の画像を取得する取得手段と、
    物体の把持順の決定において基準とする方向を設定する設定手段と、
    前記画像における、前記方向側から見て最も近い物体上の点を含む一部の画像領域を、物体の位置姿勢の認識を行う画像領域として求め、該画像領域に含まれるそれぞれの物体の位置姿勢を認識する認識手段と、
    前記画像領域に含まれるそれぞれの物体の把持順を、該物体の位置姿勢と、前記方向と、に基づいて決定する決定手段と
    を備えることを特徴とする情報処理装置。
  2. 前記決定手段は、前記方向の側により近い物体をより先に把持するよう前記把持順を決定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記決定手段は、前記物体を把持した状態の把持部の姿勢を求め、該求めた姿勢と前記方向とに基づいて、把持対象から除外する物体を決定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記認識手段は、前記画像に対応する撮像範囲内の各点の3次元座標を取得し、前記方向を方向ベクトルとする直線上に該各点の3次元座標を投影し、該投影した各点の3次元座標のうち前記方向側から見て最も近い3次元座標の点を決定し、前記画像において該決定した点に対応する位置を含む領域を前記画像領域として求める、ことを特徴とする請求項1ないし3の何れか1項に記載の情報処理装置。
  5. 複数の物体の画像を取得する手段と、
    前記画像に基づいて前記物体の位置姿勢を取得する取得手段と、
    前記位置姿勢と、設定された方向と、に基づいて、物体の把持順を決定する決定手段と
    を備え、
    前記決定手段は、前記方向に基づいて物体同士の重なりの度合いを求め、該重なりの度合いに基づいて、把持対象から除外する物体を決定することを特徴とする情報処理装置。
  6. 前記設定手段は、ユーザ操作に応じて前記方向を設定することを特徴とする請求項1ないし4の何れか1項に記載の情報処理装置。
  7. 前記設定手段は、前記方向として、物体を把持する把持部の教示位置として取得した2つの位置の一方の位置から他方の位置に向かう方向、該把持部の教示位置として取得した3点の張る平面の法線、の何れかを設定することを特徴とする請求項1ないし4の何れか1項に記載の情報処理装置。
  8. 前記設定手段は、前記画像の部分領域内の各画素に対応する3次元点に基づいて、該3次元点による概平面を求め、該概平面の法線方向を前記方向として設定することを特徴とする請求項1ないし4の何れか1項に記載の情報処理装置。
  9. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の取得手段が、複数の物体の画像を取得する取得工程と、
    前記情報処理装置の設定手段が、物体の把持順の決定において基準とする方向を設定する設定工程と、
    前記情報処理装置の認識手段が、前記画像における、前記方向側から見て最も近い物体上の点を含む一部の画像領域を、物体の位置姿勢の認識を行う画像領域として求め、該画像領域に含まれるそれぞれの物体の位置姿勢を認識する認識工程と、
    前記情報処理装置の決定手段が、前記画像領域に含まれるそれぞれの物体の把持順を、該物体の位置姿勢と、前記方向と、に基づいて決定する決定工程と
    を備えることを特徴とする情報処理方法。
  10. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の画像を取得する手段が、複数の物体の画像を取得する工程と、
    前記情報処理装置の取得手段が、前記画像に基づいて前記物体の位置姿勢を取得する取得工程と、
    前記情報処理装置の決定手段が、前記位置姿勢と、設定された方向と、に基づいて、物体の把持順を決定する決定工程と
    を備え、
    前記決定工程では、前記方向に基づいて物体同士の重なりの度合いを求め、該重なりの度合いに基づいて、把持対象から除外する物体を決定することを特徴とする情報処理方法。
  11. コンピュータを、請求項1乃至の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2015233759A 2015-11-30 2015-11-30 情報処理装置、情報処理方法 Active JP6744709B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015233759A JP6744709B2 (ja) 2015-11-30 2015-11-30 情報処理装置、情報処理方法
US15/360,812 US10363664B2 (en) 2015-11-30 2016-11-23 Information processing apparatus, information processing method, and recording medium
CN201611086224.4A CN106808473A (zh) 2015-11-30 2016-11-28 信息处理装置及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015233759A JP6744709B2 (ja) 2015-11-30 2015-11-30 情報処理装置、情報処理方法

Publications (2)

Publication Number Publication Date
JP2017100216A JP2017100216A (ja) 2017-06-08
JP6744709B2 true JP6744709B2 (ja) 2020-08-19

Family

ID=58777222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015233759A Active JP6744709B2 (ja) 2015-11-30 2015-11-30 情報処理装置、情報処理方法

Country Status (3)

Country Link
US (1) US10363664B2 (ja)
JP (1) JP6744709B2 (ja)
CN (1) CN106808473A (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
JP6608894B2 (ja) * 2017-09-27 2019-11-20 ファナック株式会社 ロボットシステム
JP6687591B2 (ja) * 2017-12-26 2020-04-22 ファナック株式会社 物品搬送装置、ロボットシステムおよび物品搬送方法
JP7021620B2 (ja) * 2018-09-07 2022-02-17 オムロン株式会社 マニピュレータおよび移動ロボット
WO2020090809A1 (ja) * 2018-11-01 2020-05-07 キヤノン株式会社 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
JP6810173B2 (ja) * 2019-01-29 2021-01-06 日本金銭機械株式会社 物体把持システム
CN111508014B (zh) * 2019-01-31 2023-06-09 上银科技股份有限公司 排除随机堆叠的多个工件的干涉的系统
US11485015B2 (en) * 2019-02-21 2022-11-01 Hiwin Technologies Corp. System for eliminating interference of randomly stacked workpieces
US11046519B2 (en) 2019-02-25 2021-06-29 Rehrig Pacific Company Delivery system
WO2020209167A1 (ja) * 2019-04-08 2020-10-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CA3115442A1 (en) 2020-04-20 2021-10-20 Rehrig Pacific Company Camera enabled portal
WO2022013935A1 (ja) * 2020-07-14 2022-01-20 株式会社Fuji ロボットシステム
WO2022015863A1 (en) * 2020-07-14 2022-01-20 Vicarious Fpc, Inc. Method and system for monitoring a container fullness
CN113696203A (zh) * 2021-08-16 2021-11-26 北京图菱视频科技有限公司 一种基于移动设备的机器人控制装置
WO2023023366A1 (en) 2021-08-19 2023-02-23 Rehrig Pacific Company Imaging system with unsupervised learning
EP4174787A3 (en) 2021-11-01 2023-05-10 Rehrig Pacific Company Delivery system

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4715773A (en) * 1985-06-04 1987-12-29 Clemson University Method and apparatus for repositioning a mislocated object with a robot hand
US5040056A (en) * 1990-01-29 1991-08-13 Technistar Corporation Automated system for locating and transferring objects on a conveyor belt
JP3300682B2 (ja) 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP4640290B2 (ja) 2005-11-21 2011-03-02 日産自動車株式会社 ワーク移し替えのための方法及びシステム
FR2902235B1 (fr) * 2006-06-09 2008-10-31 Alcatel Sa Dispositif de transport, de stockage et de transfert de substrats
FR2934487B1 (fr) * 2008-07-29 2010-08-27 Univ Joseph Fourier Grenoble I Dispositif de positionnement d'un outil chirurgical dans le corps d'un patient
JP2012524663A (ja) 2009-04-23 2012-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 物体学習ロボットおよび方法
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2012135820A (ja) 2010-12-24 2012-07-19 Ihi Corp 自動ピッキング装置及び自動ピッキング方法
JP5879704B2 (ja) * 2011-03-10 2016-03-08 富士電機株式会社 ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法
JP5614553B2 (ja) * 2012-09-14 2014-10-29 株式会社安川電機 ロボット装置
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP5929854B2 (ja) 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
IL229490A (en) * 2013-11-18 2017-11-30 Tidhar Gil A multichannel flash detection system
JP2015202544A (ja) 2014-04-15 2015-11-16 株式会社安川電機 ロボット制御システム、情報通信モジュール、ロボットコントローラ、コンピュータプログラム及びロボット制御方法
US9492923B2 (en) * 2014-12-16 2016-11-15 Amazon Technologies, Inc. Generating robotic grasping instructions for inventory items
JP2017003331A (ja) * 2015-06-05 2017-01-05 キヤノン株式会社 被計測物の形状を計測する計測装置、算出装置、算出方法及びプログラム
US9669543B1 (en) * 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping

Also Published As

Publication number Publication date
CN106808473A (zh) 2017-06-09
US20170154430A1 (en) 2017-06-01
US10363664B2 (en) 2019-07-30
JP2017100216A (ja) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6744709B2 (ja) 情報処理装置、情報処理方法
JP6822718B1 (ja) 自動パッケージ登録メカニズムを備えたロボットシステム、および、その動作方法
US10589424B2 (en) Robot control device, robot, and robot system
JP6642968B2 (ja) 情報処理装置、情報処理方法、プログラム
US9415511B2 (en) Apparatus and method for picking up article randomly piled using robot
JP6415026B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
US20180290307A1 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
US9352467B2 (en) Robot programming apparatus for creating robot program for capturing image of workpiece
JP6879238B2 (ja) ワークピッキング装置及びワークピッキング方法
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2012206219A (ja) ロボット制御装置及びロボットシステム
JP2015171745A (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
US20130054030A1 (en) Object gripping apparatus, object gripping method, and object gripping program
JP6042291B2 (ja) ロボット、ロボット制御方法、及びロボット制御プログラム
US10724963B2 (en) Device and method for calculating area to be out of inspection target of inspection system
US20190385329A1 (en) Robot control device, robot control method, and robot control program
JP2018176311A (ja) 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
JP2018126862A (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2015160257A (ja) ロボット、ロボットシステム、制御装置および制御方法
US10722992B2 (en) Workpiece placement system for placing workpiece in containment area or on jig
JP2020013548A (ja) 画像処理装置、画像処理方法、システム、物品の製造方法
JP7439410B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2015085434A (ja) ロボット、画像処理方法及びロボットシステム
US20230321823A1 (en) Robot control device, and robot system
CN116175542A (zh) 抓取控制方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200731

R151 Written notification of patent or utility model registration

Ref document number: 6744709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151