JP7275759B2 - 物体検出方法、物体検出装置およびロボットシステム - Google Patents
物体検出方法、物体検出装置およびロボットシステム Download PDFInfo
- Publication number
- JP7275759B2 JP7275759B2 JP2019064848A JP2019064848A JP7275759B2 JP 7275759 B2 JP7275759 B2 JP 7275759B2 JP 2019064848 A JP2019064848 A JP 2019064848A JP 2019064848 A JP2019064848 A JP 2019064848A JP 7275759 B2 JP7275759 B2 JP 7275759B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- robot
- imaging
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/653—Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39514—Stability of grasped objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40584—Camera, non-contact sensor mounted on wrist, indep from gripper
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Description
ロボットアームを備えるロボット、前記ロボットアームに装着されている保持部、前記ロボットの駆動を制御するロボット制御装置、および、撮像部、を用い、対象物の物体位置姿勢を検出する物体検出方法であって、
前記撮像部により複数の前記対象物を撮像し、第1画像を取得する工程と、
前記第1画像に基づいて、前記対象物の物体位置姿勢を認識する工程と、
前記対象物の物体位置姿勢を認識することができた数を物体位置姿勢認識数として計数する工程と、
前記対象物の物体位置姿勢に基づいて、前記保持部により前記対象物を保持させる信号を出力する工程と、
前記保持部により前記対象物を保持することができたか否かの結果を、前記ロボット制御装置を介して取得し、タスク評価値として算出する工程と、
前記物体位置姿勢認識数と前記タスク評価値とを含む評価指標に基づいて、前記撮像部の撮像位置姿勢から前記評価指標を推定するモデルを更新し、更新後の前記モデルに基づいて、前記撮像部の更新撮像位置姿勢を決定する工程と、
前記更新撮像位置姿勢で複数の前記対象物を撮像して第2画像を取得する工程と、
前記第2画像に基づいて、前記対象物の物体位置姿勢を認識する工程と、
を有する。
1.1 ロボットシステム
まず、第1実施形態に係るロボットシステムについて説明する。
なお、図1では、互いに直交する3軸として、X軸、Y軸およびZ軸を図示している。また、説明の便宜上、Z軸の先端方向を「上」とし、Z軸の基端方向を「下」とする。
図1に示すロボット1は、いわゆる6軸の垂直多関節ロボットであり、基台110と、基台110に接続されたロボットアーム10と、を有する。
図1に示すカメラ3は、ロボットアーム10の先端部に装着されている。そして、図1に示すカメラ3は、ロボットアーム10の駆動によって撮像位置姿勢が変更されるようになっており、テーブル92上に置かれている対象物91を撮像することができる。なお、「撮像位置姿勢」とは、例えばカメラ3についての6自由度の位置姿勢である。
物体検出装置4は、カメラ3およびロボット制御装置5と通信可能に接続されている。なお、物体検出装置4とロボット制御装置5との接続は、有線による接続の他、無線による接続であってもよい。
図1に示すカメラ制御部41は、カメラ3と接続され、テーブル92上に置かれている対象物91をカメラ3により撮像させ、第1画像および第2画像を取得する。そして、取得した第1画像および第2画像をそれぞれ物体位置姿勢算出部42に出力する。例えばカメラ3が2Dカメラと3Dカメラの双方で構成されている場合、第1画像および第2画像は、それぞれ、二次元画像と深度画像とで構成されている。
図2に示す物体検出装置4は、プロセッサー4aと、記憶部4bと、外部インターフェース4cと、を含んでいる。そして、これらの各要素は、システムバス4dを介して相互に通信可能に接続されている。
ロボット制御装置5は、ロボット1の作動を制御する機能を有し、図1に示すように、ロボット1および物体検出装置4に対して通信可能に接続されている。なお、ロボット制御装置5と、ロボット1および物体検出装置4との間は、それぞれ、有線で接続されていてもよいし、無線で接続されていてもよい。また、ロボット制御装置5には、モニター等の表示装置、キーボード、タッチパネル等の入力装置等が接続されていてもよい。
次に、第1実施形態に係る物体検出方法について説明する。
図3に示す物体検出方法は、対象物91の物体位置姿勢を検出する方法である。本実施形態に係る物体検出方法は、例えばばら積みされている対象物91の状態が短時間で変化したとしても、対象物91を安定して検出することを可能にする。そして、対象物91の検出結果に基づき、ロボット制御装置5を介してロボット1の動作を制御し、エンドエフェクター17に対象物91を安定して保持させることができる。
1.2.1 撮像位置姿勢を決定(工程S10)
まず、撮像位置姿勢決定部46により、カメラ3の撮像位置姿勢を決定する。本工程は、初期状態であるため、撮像位置姿勢を決定するための画像が存在しない。このため、この段階では、撮像位置姿勢を任意に決定してもよいが、本実施形態では、撮像位置姿勢決定部46が保有する推定モデルに基づいて決定する。この推定モデルは、後述するが、カメラ3の撮像位置姿勢から前述した評価指標を推定するモデルである。最初の工程である本工程S10では、推定モデルが過去の経験を踏まえた内容になっていないため、任意に与えられた推定モデルに基づいて撮像位置姿勢を決定するようにすればよい。
図4には、本工程において決定した撮像位置姿勢の一例として位置aを示している。
次に、決定した撮像位置姿勢になるように、カメラ3を移動させる。すなわち、カメラ3のX軸に沿った位置xが、位置aになるように、カメラ3を移動させる。本実施形態では、カメラ3がロボットアーム10の先端部に装着されている。カメラ制御部41は、撮像位置姿勢決定部46から出力された撮像位置姿勢に基づき、ロボット制御装置5に制御信号を出力する。これにより、ロボットアーム10を制御し、カメラ3を目的とする撮像位置姿勢になるように移動させる。
次に、その撮像位置姿勢で、カメラ3により、複数の対象物91が同一視野内に入るように第1画像を撮像する。撮像した第1画像は、カメラ制御部41で取得する。そして、第1画像を物体位置姿勢算出部42に出力する。
次に、物体位置姿勢算出部42により、第1画像に基づいて、対象物91の物体位置姿勢を認識する。対象物91の物体位置姿勢を認識するとは、第1画像において対象物91を検出すること、および、対象物91の物体位置姿勢を推定すること、の双方を行うことをいう。
次に、認識評価部43では、第1画像において対象物91の物体位置姿勢を認識することができた数を物体位置姿勢認識数として取り扱う。そして、物体位置姿勢認識数が多い場合、その第1画像を撮像した撮像位置姿勢が、認識成功数が多い撮像位置姿勢であると評価することができる。そして、物体位置姿勢認識数を、撮像位置姿勢決定部46に出力する。
次に、保持位置姿勢算出部44により、エンドエフェクター17で保持すべき1つの対象物91の物体位置姿勢情報に基づいて、その対象物91を保持するエンドエフェクター17の保持位置姿勢を算出する。なお、保持位置姿勢の算出には、前述したように、対象物91の種類ごとに保存しておいたデータベースを用い、このデータベースに基づいて、対象物91を保持するのに最適なエンドエフェクター17の保持位置姿勢を算出する。
そして、エンドエフェクター17により、前述した保持位置姿勢で対象物91を保持させる制御信号を出力する。制御信号は、ロボット制御装置5に出力される。ロボット制御装置5では、この制御信号に基づき、ロボット1の駆動を制御して、エンドエフェクター17の保持位置姿勢を変更させる。そして、エンドエフェクター17により、対象物91の保持を試みる。
次に、エンドエフェクター17によって対象物91を保持することができたか否かの結果、つまり保持の成否の情報を、ロボット制御装置5を介してタスク評価部45により取得する。タスク評価部45では、保持の成否をタスク評価値として算出し、これを撮像位置姿勢決定部46に出力する。
次に、撮像位置姿勢決定部46において、認識評価部43から出力された物体位置姿勢認識数と、タスク評価部45から出力されたタスク評価値と、を含む評価指標を算出する。そして、算出した評価指標を、撮像位置姿勢決定部46において保有している推定モデルに反映させる。この推定モデルは、例えばベイズ推定を用いたモデルである。ベイズ推定では、過去の経験を踏まえたモデルを有し、そのモデルに直近の評価指標を反映させることで、モデルを更新する。これにより、過去の経験と直近の評価結果とを踏まえて、最適な更新撮像位置姿勢を決定することができる。
f(x)=D(x)+S(x)
なお、タスク評価値の値は、上記の値に限定されず、いかなる値であってもよい。
次に、決定した更新撮像位置姿勢になるように、ロボット1のロボットアーム10の駆動を制御して、カメラ3を配置する。
次に、カメラ3により、複数の対象物91が同一視野内に入るように第2画像を撮像する。撮像した第2画像は、カメラ制御部41で取得する。そして、第2画像を物体位置姿勢算出部42に出力する。
次に、物体位置姿勢算出部42により、第2画像に基づいて、対象物91の物体位置姿勢を認識する。第2画像に基づく対象物91の認識方法は、前述した第1画像に基づく対象物91の認識方法と同様である。
次に、対象物91の撮像を終了するか否かを判断する。すなわち、テーブル92上に置かれている対象物91の全ての保持を完了しているのであれば、撮像を終了すればよい。一方、保持すべき対象物91がまだ残っている場合には、前述した工程S13の前に戻る。
次に、認識評価部43により、第2画像において対象物91の物体位置姿勢を認識することができた数を物体位置姿勢認識数として計数する。
次に、保持位置姿勢算出部44により、エンドエフェクター17で保持すべき1つの対象物91の物体位置姿勢情報に基づいて、その対象物91を保持するエンドエフェクター17の保持位置姿勢を算出する。なお、保持位置姿勢の算出には、前述したように、対象物91の種類ごとに保存しておいたデータベースを用い、このデータベースに基づいて、対象物91を保持するのに最適なエンドエフェクター17の保持位置姿勢を算出する。
そして、エンドエフェクター17により、前述した保持位置姿勢で対象物91を保持させる制御信号を出力する。制御信号は、ロボット制御装置5に出力される。ロボット制御装置5では、この制御信号に基づき、ロボット1のロボットアーム10の駆動を制御して、エンドエフェクター17の保持位置姿勢を変更させる。そして、エンドエフェクター17により、対象物91の保持を試みる。
次に、エンドエフェクター17によって対象物91を保持することができたか否かの結果、つまり保持の成否の情報を、ロボット制御装置5を介してタスク評価部45により取得する。タスク評価部45では、保持の成否をタスク評価値として算出し、これを撮像位置姿勢決定部46に出力する。
次に、撮像位置姿勢決定部46において、認識評価部43から出力された物体位置姿勢認識数と、タスク評価部45から出力されたタスク評価値と、を含む評価指標を算出する。そして、算出した評価指標を、撮像位置姿勢決定部46において保有している推定モデルに反映させ、推定モデルをさらに更新する。これにより、更新後の推定モデルに基づいて、最適な更新撮像位置姿勢を決定することができる。
次に、決定した更新撮像位置姿勢になるように、ロボット1のロボットアーム10の駆動を制御して、カメラ3を配置する。
次に、配置した更新撮像位置姿勢で、カメラ3により、複数の対象物91が同一視野内に入るように第3画像を撮像する。撮像した第3画像は、カメラ制御部41で取得する。そして、第3画像を物体位置姿勢算出部42に出力する。
次に、物体位置姿勢算出部42により、第3画像に基づいて、対象物91の保持位置姿勢を認識する。第3画像に基づく対象物91の認識方法は、前述した第1画像に基づく対象物91の認識方法と同様である。
次に、第2実施形態に係るロボットシステムについて説明する。
図7は、第2実施形態に係るロボットシステムを示す機能ブロック図である。
以上のような第2実施形態においても、第1実施形態と同様の効果が得られる。
次に、第3実施形態に係るロボットシステムについて説明する。
図8は、第3実施形態に係るロボットシステムを示す機能ブロック図である。
Claims (9)
- ロボットアームを備えるロボット、前記ロボットアームに装着されている保持部、前記ロボットの駆動を制御するロボット制御装置、および、撮像部、を用い、対象物の物体位置姿勢を検出する物体検出方法であって、
前記撮像部により複数の前記対象物を撮像し、第1画像を取得する工程と、
前記第1画像に基づいて、前記対象物の物体位置姿勢を認識する工程と、
前記対象物の物体位置姿勢を認識することができた数を物体位置姿勢認識数として計数する工程と、
前記対象物の物体位置姿勢に基づいて、前記保持部により前記対象物を保持させる信号を出力する工程と、
前記保持部により前記対象物を保持することができたか否かの結果を、前記ロボット制御装置を介して取得し、タスク評価値として算出する工程と、
前記物体位置姿勢認識数と前記タスク評価値とを含む評価指標に基づいて、前記撮像部の撮像位置姿勢から前記評価指標を推定するモデルを更新し、更新後の前記モデルに基づいて、前記撮像部の更新撮像位置姿勢を決定する工程と、
前記更新撮像位置姿勢で複数の前記対象物を撮像して第2画像を取得する工程と、
前記第2画像に基づいて、前記対象物の物体位置姿勢を認識する工程と、
を有することを特徴とする物体検出方法。 - 前記第1画像は、二次元画像または深度画像である請求項1に記載の物体検出方法。
- 前記モデルは、忘却率の概念を導入したベイズ推定のモデルである請求項1または2に記載の物体検出方法。
- 前記タスク評価値は、前記保持部により前記対象物を保持させ、前記対象物を用いた作業を行わせた結果を含む請求項1ないし3のいずれか1項に記載の物体検出方法。
- ロボットアームを備えるロボット、前記ロボットアームに装着されている保持部、前記ロボットの駆動を制御するロボット制御装置、および、撮像部、を用い、対象物の物体位置姿勢を検出する物体検出装置であって、
前記撮像部により、複数の前記対象物を含む第1画像を撮像させ、取得する撮像制御部と、
前記第1画像に基づいて、前記対象物の物体位置姿勢を認識する物体位置姿勢算出部と、
前記対象物の物体位置姿勢を認識することができた数を物体位置姿勢認識数として計数する認識評価部と、
前記対象物の物体位置姿勢に基づいて、前記対象物を保持する前記保持部の保持位置姿勢を算出し、前記保持位置姿勢で前記保持部により前記対象物を保持させる制御信号を出力する保持位置姿勢算出部と、
前記保持部によって前記対象物を保持することができたか否かの結果を、前記ロボット制御装置を介して取得し、タスク評価値を算出するタスク評価部と、
前記物体位置姿勢認識数と前記タスク評価値とを含む評価指標に基づいて、前記撮像部の撮像位置姿勢から前記評価指標を推定するモデルを更新し、更新後の前記モデルに基づいて、前記撮像部の更新撮像位置姿勢を決定する撮像位置姿勢決定部と、
を有し、
前記撮像制御部は、前記更新撮像位置姿勢において前記撮像部に第2画像を撮像させて取得し、
前記物体位置姿勢算出部は、前記第2画像に基づいて、前記対象物の物体位置姿勢を認識することを特徴とする物体検出装置。 - 前記物体位置姿勢認識数、前記タスク評価値および前記評価指標のうちの少なくとも1つを表示する表示部を有する請求項5に記載の物体検出装置。
- 前記ロボットアームを備える前記ロボットと、
前記ロボットアームに設置されている前記撮像部と、
請求項5または6に記載の物体検出装置と、
前記物体検出装置の検出結果に基づいて前記ロボットの駆動を制御する前記ロボット制御装置と、
を有することを特徴とするロボットシステム。 - 前記ロボットを搭載する無人搬送車を有する請求項7に記載のロボットシステム。
- 前記撮像位置姿勢決定部は、前記ロボットの位置が変わったとき、前記モデルを初期化する請求項7または8に記載のロボットシステム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019064848A JP7275759B2 (ja) | 2019-03-28 | 2019-03-28 | 物体検出方法、物体検出装置およびロボットシステム |
CN202010223866.4A CN111745640B (zh) | 2019-03-28 | 2020-03-26 | 物体检测方法、物体检测装置以及机器人系统 |
US16/831,987 US11393063B2 (en) | 2019-03-28 | 2020-03-27 | Object detecting method, object detecting device, and robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019064848A JP7275759B2 (ja) | 2019-03-28 | 2019-03-28 | 物体検出方法、物体検出装置およびロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020163502A JP2020163502A (ja) | 2020-10-08 |
JP7275759B2 true JP7275759B2 (ja) | 2023-05-18 |
Family
ID=72605927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019064848A Active JP7275759B2 (ja) | 2019-03-28 | 2019-03-28 | 物体検出方法、物体検出装置およびロボットシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11393063B2 (ja) |
JP (1) | JP7275759B2 (ja) |
CN (1) | CN111745640B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022091290A1 (ja) * | 2020-10-29 | 2022-05-05 | 株式会社ニコン | はんだ付け装置及びはんだ付けシステム、並びに、加工装置 |
JP2022123510A (ja) * | 2021-02-12 | 2022-08-24 | オムロン株式会社 | 支援システム、画像処理装置、支援方法およびプログラム |
WO2023203727A1 (ja) * | 2022-04-21 | 2023-10-26 | ヤマハ発動機株式会社 | 多関節ロボットアーム制御装置 |
CN114783040B (zh) * | 2022-06-23 | 2022-09-20 | 东莞先知大数据有限公司 | 一种楼宇内偷拍行为检测方法及检测装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293695A (ja) | 1999-04-08 | 2000-10-20 | Fanuc Ltd | 画像処理装置 |
JP2004160567A (ja) | 2002-11-11 | 2004-06-10 | Fanuc Ltd | 物品取出し装置 |
WO2008076942A1 (en) | 2006-12-15 | 2008-06-26 | Braintech Canada, Inc. | System and method of identifying objects |
JP2013144355A (ja) | 2012-01-13 | 2013-07-25 | Toyota Motor Engineering & Manufacturing North America Inc | ロボットが用いる把持パターンを生成する方法及び計算機プログラム製品 |
JP2017047505A (ja) | 2015-09-02 | 2017-03-09 | トヨタ自動車株式会社 | 把持可否判定方法 |
JP2018149628A (ja) | 2017-03-13 | 2018-09-27 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
JP2018158439A (ja) | 2018-03-15 | 2018-10-11 | 株式会社東芝 | 物体ハンドリング装置、制御装置、および較正方法 |
JP2018161692A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2018179859A (ja) | 2017-04-18 | 2018-11-15 | 株式会社キーエンス | 画像処理装置、画像処理方法、及びコンピュータプログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63174890A (ja) * | 1987-01-16 | 1988-07-19 | トヨタ自動車株式会社 | 物体の認識方法 |
JPH0863581A (ja) * | 1994-06-17 | 1996-03-08 | Fujitsu Ltd | 外部環境認識装置 |
JP3525896B2 (ja) * | 1999-03-19 | 2004-05-10 | 松下電工株式会社 | 3次元物体認識方法および同方法を使用したビンピッキングシステム |
JP3300682B2 (ja) * | 1999-04-08 | 2002-07-08 | ファナック株式会社 | 画像処理機能を持つロボット装置 |
JP4087874B2 (ja) * | 2006-02-01 | 2008-05-21 | ファナック株式会社 | ワーク取り出し装置 |
JP4238256B2 (ja) * | 2006-06-06 | 2009-03-18 | ファナック株式会社 | ロボットシミュレーション装置 |
JP4298757B2 (ja) * | 2007-02-05 | 2009-07-22 | ファナック株式会社 | ロボット機構のキャリブレーション装置及び方法 |
JP5393318B2 (ja) * | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP5567922B2 (ja) | 2010-07-21 | 2014-08-06 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
JP2012187651A (ja) * | 2011-03-09 | 2012-10-04 | Omron Corp | 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置 |
US9437005B2 (en) * | 2011-07-08 | 2016-09-06 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
JP5806606B2 (ja) | 2011-12-01 | 2015-11-10 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5266377B2 (ja) * | 2011-12-19 | 2013-08-21 | ファナック株式会社 | 物品の姿勢を修正する機能を備えた取出し装置 |
JP5620445B2 (ja) * | 2012-09-13 | 2014-11-05 | ファナック株式会社 | 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置 |
JP6370038B2 (ja) * | 2013-02-07 | 2018-08-08 | キヤノン株式会社 | 位置姿勢計測装置及び方法 |
JP6126437B2 (ja) * | 2013-03-29 | 2017-05-10 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
WO2015079740A1 (ja) * | 2013-11-28 | 2015-06-04 | 三菱電機株式会社 | ロボットシステムおよびロボットシステムの制御方法 |
WO2015129473A1 (ja) * | 2014-02-28 | 2015-09-03 | ソニー株式会社 | ロボットアーム装置、キャリブレーション方法及びプログラム |
JP5877857B2 (ja) * | 2014-03-10 | 2016-03-08 | ファナック株式会社 | ワークの取出工程をシミュレーションするロボットシミュレーション装置 |
JP2016099257A (ja) | 2014-11-21 | 2016-05-30 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
JP6573354B2 (ja) * | 2014-11-28 | 2019-09-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
SG11201704378QA (en) * | 2014-12-03 | 2017-06-29 | Nec Corp | Direction control device, direction control method and recording medium |
JP6140204B2 (ja) * | 2015-02-06 | 2017-05-31 | ファナック株式会社 | 3次元センサを備えた搬送ロボットシステム |
JP7022076B2 (ja) * | 2016-12-19 | 2022-02-17 | 株式会社安川電機 | 産業機器用の画像認識プロセッサ及びコントローラ |
JP7047249B2 (ja) * | 2017-01-10 | 2022-04-05 | オムロン株式会社 | 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム |
JP2018161726A (ja) * | 2017-03-27 | 2018-10-18 | セイコーエプソン株式会社 | ロボット制御装置、ロボット、及びロボットシステム |
JP7116901B2 (ja) * | 2017-08-01 | 2022-08-12 | オムロン株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
-
2019
- 2019-03-28 JP JP2019064848A patent/JP7275759B2/ja active Active
-
2020
- 2020-03-26 CN CN202010223866.4A patent/CN111745640B/zh active Active
- 2020-03-27 US US16/831,987 patent/US11393063B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293695A (ja) | 1999-04-08 | 2000-10-20 | Fanuc Ltd | 画像処理装置 |
JP2004160567A (ja) | 2002-11-11 | 2004-06-10 | Fanuc Ltd | 物品取出し装置 |
WO2008076942A1 (en) | 2006-12-15 | 2008-06-26 | Braintech Canada, Inc. | System and method of identifying objects |
JP2013144355A (ja) | 2012-01-13 | 2013-07-25 | Toyota Motor Engineering & Manufacturing North America Inc | ロボットが用いる把持パターンを生成する方法及び計算機プログラム製品 |
JP2017047505A (ja) | 2015-09-02 | 2017-03-09 | トヨタ自動車株式会社 | 把持可否判定方法 |
JP2018149628A (ja) | 2017-03-13 | 2018-09-27 | ファナック株式会社 | 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法 |
JP2018161692A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2018179859A (ja) | 2017-04-18 | 2018-11-15 | 株式会社キーエンス | 画像処理装置、画像処理方法、及びコンピュータプログラム |
JP2018158439A (ja) | 2018-03-15 | 2018-10-11 | 株式会社東芝 | 物体ハンドリング装置、制御装置、および較正方法 |
Also Published As
Publication number | Publication date |
---|---|
US11393063B2 (en) | 2022-07-19 |
US20200311854A1 (en) | 2020-10-01 |
CN111745640B (zh) | 2023-01-10 |
JP2020163502A (ja) | 2020-10-08 |
CN111745640A (zh) | 2020-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7275759B2 (ja) | 物体検出方法、物体検出装置およびロボットシステム | |
US11338435B2 (en) | Gripping system with machine learning | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
CN111684474B (zh) | 运算装置、运算方法及记录介质 | |
EP1905548B1 (en) | Workpiece picking apparatus | |
JP2022145915A (ja) | 推論方法、推論プログラム、推論装置、学習方法、学習プログラム、学習装置およびモデル生成方法 | |
US7283661B2 (en) | Image processing apparatus | |
JP7191569B2 (ja) | 把持装置 | |
WO2011105522A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
JP2014054715A (ja) | 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置 | |
JP2012101320A (ja) | 画像生成装置、画像生成方法、およびプログラム | |
CN112775959A (zh) | 机械手的抓取位姿确定方法及系统、存储介质 | |
JP2018169660A (ja) | オブジェクト姿勢検出装置、制御装置、ロボットおよびロボットシステム | |
JP2022160363A (ja) | ロボットシステム、制御方法、画像処理装置、画像処理方法、物品の製造方法、プログラム、及び記録媒体 | |
JP5698815B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP6040264B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
CN111745639B (zh) | 信息处理方法及装置、物体检测装置以及机器人系统 | |
US20220092290A1 (en) | Image Recognition Method And Robot System | |
WO2024023934A1 (ja) | ワーク取出し装置、ワーク取出し方法及び制御装置 | |
RU2745380C1 (ru) | Способ и система захвата объектов с помощью роботизированного устройства | |
WO2023286138A1 (ja) | ロボット制御システム、ロボットシステム、ロボット制御方法、およびロボット制御プログラム | |
WO2023100282A1 (ja) | データ生成システム、モデル生成システム、推定システム、学習済みモデルの製造方法、ロボット制御システム、データ生成方法、およびデータ生成プログラム | |
Piao et al. | Robotic tidy-up tasks using point cloud-based pose estimation | |
Chang et al. | Simultaneous Localization and Calibration Employing Two Flying Cameras | |
JP2023009776A (ja) | ピッキング方法、ピッキングシステムおよびピッキング制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7275759 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |