JP2020166371A - 情報処理方法、情報処理装置、物体検出装置およびロボットシステム - Google Patents
情報処理方法、情報処理装置、物体検出装置およびロボットシステム Download PDFInfo
- Publication number
- JP2020166371A JP2020166371A JP2019064127A JP2019064127A JP2020166371A JP 2020166371 A JP2020166371 A JP 2020166371A JP 2019064127 A JP2019064127 A JP 2019064127A JP 2019064127 A JP2019064127 A JP 2019064127A JP 2020166371 A JP2020166371 A JP 2020166371A
- Authority
- JP
- Japan
- Prior art keywords
- data
- imaging
- unit
- information processing
- bulk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 121
- 238000003672 processing method Methods 0.000 title claims abstract description 57
- 238000001514 detection method Methods 0.000 title claims abstract description 44
- 238000003384 imaging method Methods 0.000 claims abstract description 464
- 238000013461 design Methods 0.000 claims abstract description 71
- 238000004088 simulation Methods 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 5
- 230000002950 deficient Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 17
- 230000036544 posture Effects 0.000 description 13
- 239000012636 effector Substances 0.000 description 11
- 238000005259 measurement Methods 0.000 description 10
- 238000011960 computer-aided design Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 102220492485 Selenoprotein V_D21A_mutation Human genes 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000001179 sorption measurement Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
前記物体の設計データを受け付ける工程と、
前記設計データから、前記物体の形状データと、前記物体の位置姿勢情報と、を含む物体データを生成する工程と、
シミュレーションにより、前記物体データを積み上げて、第1ばら積みデータを生成する工程と、
前記第1ばら積みデータにおいて、最表面に配置されている前記物体データを最表面物体データとして抽出する工程と、
単独で置かれている前記物体を撮像部により撮像した場合に、前記最表面物体データの位置姿勢が得られる撮像角度および撮像距離に基づいて、前記撮像部を配置する工程と、
単独で置かれている前記物体を前記撮像角度および撮像距離から前記撮像部により撮像し、第1撮像データを取得する工程と、
前記第1ばら積みデータにおいて、前記最表面物体データに含まれている前記形状データを前記第1撮像データに置き換えて、前記学習データを生成する工程と、
を有することを特徴とする。
1.1 ロボットシステム
まず、第1実施形態に係るロボットシステムについて説明する。
なお、図1では、互いに直交する3軸として、X軸、Y軸およびZ軸を図示している。また、説明の便宜上、Z軸の先端方向を「上」とし、Z軸の基端方向を「下」とする。
図1に示すロボット1は、いわゆる6軸の垂直多関節ロボットであり、基台110と、基台110に接続されたロボットアーム10と、を有する。
図1に示す撮像部3は、ロボットアーム10の先端部に装着されている。図1に示す撮像部3は、ロボットアーム10の駆動によって撮像位置が変更されるようになっており、例えばテーブル92上に置かれている対象物91およびテーブル93上に置かれている対象物91を撮像することができる。
物体検出装置4は、撮像部3およびロボット制御装置5と通信可能に接続されている。なお、物体検出装置4とロボット制御装置5との接続は、有線による接続の他、無線による接続であってもよい。
1.1.3.1 情報処理装置
図1に示す情報処理装置42は、座標校正用データ取得部420と、設計データ受付部421と、物体データ生成部422と、第1ばら積みデータ生成部423と、最表面抽出部424と、撮像角度算出部426と、単独撮像データ取得部427(第1撮像データ取得部)と、学習データ生成部428と、を有する。
図2に示す情報処理装置42は、プロセッサー42aと、記憶部42bと、外部インターフェース42cと、を含んでいる。そして、これらの各要素は、システムバス42dを介して相互に通信可能に接続されている。
ばら積み撮像データ取得部44(第2撮像データ取得部)は、テーブル93上にばら積みされている対象物91を、撮像部3により撮像させ、ばら積み撮像データ(第2撮像データ)を取得する。また、ばら積み撮像データ取得部44は、ばら積みされている対象物91を撮像可能な位置に撮像部3を配置するように、ロボット制御装置5に制御信号を出力する。
物体位置姿勢検出部46は、ばら積み撮像データと、学習データと、に基づいて、テーブル93上にばら積みされている対象物91の位置姿勢を検出する。これにより、ばら積みされている状態でも、個々の対象物91を検出し、エンドエフェクター17によって保持等の作業を行うことができる。
ロボット制御装置5は、ロボット1の作動を制御する機能を有し、図1に示すように、ロボット1および物体検出装置4に対して通信可能に接続されている。なお、ロボット制御装置5と、ロボット1および物体検出装置4との間は、それぞれ、有線で接続されていてもよいし、無線で接続されていてもよい。また、ロボット制御装置5には、モニター等の表示装置、キーボード、タッチパネル等の入力装置等が接続されていてもよい。
次に、第1実施形態に係る情報処理方法について説明する。
図3は、第1実施形態に係る情報処理方法を示すフローチャートである。
まず、設計データ受付部421により、対象物91の設計データを受け付ける。設計データの受け付けは、図示しないデータ入力部に設計データを入力することにより行う。設計データは、前述したように、例えば、三次元CADのデータ、三次元CGのデータ等である。
次に、対象物91が置かれている空間におけるロボット座標と、後述する工程S14で行うシミュレーションで用いるシミュレーション座標と、を一致させる。すなわち、座標の校正を行う。
図4に示す例では、対象物91に2つのステーブルポーズがあるものと仮定する。図4に示すように、2つのポーズであるステーブルポーズP1およびステーブルポーズP2で対象物91をテーブル92上においたとき、撮像部3によって撮像可能な空間上の範囲は、テーブル92上の範囲となる。なお、図4では、撮像部3によって撮像することができない範囲、つまりテーブル92の上面より下方にドットを付している。
次に、物体データ生成部422において、設計データから物体データを生成する。物体データは、前述したように、対象物91の形状データと、対象物91の位置姿勢情報と、を含むデータである。設計データが例えば三次元CADのデータである場合には、データ変換により、モデルの2次元画像データと、表面点群データと、を含む対象物91の形状データを生成することができる。また、三次元CADのデータは、対象物91の位置姿勢情報を有していることから、それを物体データに付与することができる。
次に、第1ばら積みデータ生成部423において、シミュレーションにより、複数の物体データを積み上げて、第1ばら積みデータを生成する。第1ばら積みデータは、複数の物体データを積み上げて、合成してなる合成物体データである。このシミュレーションでは、まず、ばら積みに関する初期条件として、ばら積みする箱の大きさ、ばら積みする対象物91の数、第1ばら積みデータにおける撮像部3の位置等の条件を入力する。この入力は、第1ばら積みデータ生成部423に接続された図示しないデータ入力部を用いて行うようにすればよい。次に、対象物91を単体で落下させたときの対象物91の三次元姿勢をシミュレートする。これにより、第1ばら積みデータにおける各物体データを多数生成することができる。なお、このようなシミュレーションは、例えば対象物91についての物理演算ライブラリーを用いて行うことができる。
次に、最表面抽出部424において、第1ばら積みデータのうち、最表面に位置する物体データ(最表面物体データ)を抽出する。最表面に位置する物体データとは、第1ばら積みデータにおいて、例えばZ座標が周囲よりも大きい値を示している物体データである。シミュレーションによって求められた第1ばら積みデータでは、各物体データの位置姿勢が既知であるため、最表面に位置する物体データの抽出は容易である。なお、最表面に位置する物体データは、必ずしも、撮像部3によって対象物91の外形の全体を撮像できるような位置姿勢で配置されている物体データに限定されず、一部、撮像できない部分が存在するような位置姿勢で配置されている物体データを含んでいてもよい。
次に、撮像角度算出部426において、最表面に位置する物体データに対応する撮像部3の撮像角度および撮像距離を算出する。
次に、単独撮像データ取得部427(第1撮像データ取得部)からの制御信号に基づき、撮像部3により、テーブル92上に単独で置かれた対象物91を撮像させる。そして、単独撮像データ取得部427において、単独撮像データ(第1撮像データ)を取得する。単独撮像データは、対象物91の2次元画像データと、対象物91の表面点群データと、を含む実測データである。
次に、学習データ生成部428により、第1ばら積みデータにおいて、抽出した最表面の物体データに含まれている対象物91の形状データを、工程S17で取得した単独撮像データに置き換える工程S181を行う。これにより、抽出した物体データに含まれた合成画像に基づく形状データを、実測データである単独撮像データに入れ替えることができる。また、それとともに、入れ替えられた単独撮像データに、物体データに含まれていた位置姿勢情報を対応づけることができる。このようにして、学習データの1つの要素が得られる。
2.1 情報処理装置
次に、第2実施形態に係る情報処理装置について説明する。
次に、第2実施形態に係る情報処理方法について説明する。
図9は、第2実施形態に係る情報処理方法を示すフローチャートである。
まず、対象物91を単独でテーブル92上に置く。次に、互いに異なる複数の撮像条件で対象物91を撮像する。そして、複数条件撮像データ取得部431により、複数の複数条件撮像データ(第3撮像データ)を取得する。なお、以下では、説明を簡単にするため、2つの撮像条件で対象物91を撮像する。
次に、第2ばら積みデータ生成部432において、シミュレーションにより、複数条件撮像データを積み上げて、第2ばら積みデータを生成する。具体的には、ばら積み状態にあるときの対象物91の位置姿勢を、複数条件撮像データを積み上げることによってシミュレートする。本実施形態では、複数条件撮像データを平面上にランダムに並べることにより、ばら積み状態をシミュレートする。
次に、最表面位置姿勢情報付与部433により、第2ばら積みデータの最表面部分に位置姿勢情報を付与する。本実施形態に係る第2ばら積みデータは、第1実施形態とは異なり、設計データに基づく位置姿勢情報を保有していない。そこで、本工程において位置姿勢情報を付与する。位置姿勢情報は、学習データの利用方法に応じて様々な形態があるが、一例として、吸着方式のエンドエフェクター17によって対象物91を吸着する作業に用いる学習データを生成する際には、対象物91を吸着する吸着点とその吸着点の法線とを含む情報を位置姿勢情報として付与する。具体的には、例えば、複数条件撮像データD11、D12の中心位置をそれぞれ吸着点とし、その吸着点の位置とその法線方向と、を位置姿勢情報とすればよい。なお、吸着点は、中心位置に限定されず、それ以外の位置であってもよい。
次に、撮像角度算出部426において、第2ばら積みデータの最表面に位置する複数条件撮像データに基づいて、その複数条件撮像データに対応する撮像部3の撮像角度および撮像距離を算出する。本工程は、第1実施形態に係る工程S16と同様である。
次に、単独撮像データ取得部434(第4撮像データ取得部)からの制御信号に基づき、撮像部3により、テーブル92上に単独で置かれた対象物91を撮像させる。そして、単独撮像データ取得部434において、単独撮像データ(第4撮像データ)を取得する。単独撮像データは、対象物91の2次元画像データと、対象物91の表面点群データと、を含む実測データである。なお、本工程は、第1実施形態に係る工程S17と同様である。
次に、学習データ生成部428により、第2ばら積みデータにおいて、最表面に位置する複数条件撮像データに含まれている対象物91の形状データを、工程S25で取得した単独撮像データに置き換える工程S261を行う。これにより、最表面の複数条件撮像データにおいて、実測データである単独撮像データと、複数条件撮像データに含まれていた対象物91の位置姿勢情報と、を対応づけることができる。
3.1 情報処理装置
次に、第3実施形態に係る情報処理装置について説明する。
次に、第3実施形態に係る情報処理方法について説明する。
図14は、第3実施形態に係る情報処理方法を示すフローチャートである。
4.1 情報処理装置
次に、第4実施形態に係る情報処理装置について説明する。
次に、第4実施形態に係る情報処理方法について説明する。
図16は、第4実施形態に係る情報処理方法を示すフローチャートである。
なお、第4実施形態では、第1実施形態と同様にするのではなく、上記相違点以外、第3実施形態と同様であってもよい。
Claims (10)
- 物体の位置姿勢を検出するための学習データを生成する情報処理方法であって、
前記物体の設計データを受け付ける工程と、
前記設計データから、前記物体の形状データと、前記物体の位置姿勢情報と、を含む物体データを生成する工程と、
シミュレーションにより、前記物体データを積み上げて、第1ばら積みデータを生成する工程と、
前記第1ばら積みデータにおいて、最表面に配置されている前記物体データを最表面物体データとして抽出する工程と、
単独で置かれている前記物体を撮像部により撮像した場合に、前記最表面物体データの位置姿勢が得られる撮像角度および撮像距離に基づいて、前記撮像部を配置する工程と、
単独で置かれている前記物体を前記撮像角度および撮像距離から前記撮像部により撮像し、第1撮像データを取得する工程と、
前記第1ばら積みデータにおいて、前記最表面物体データに含まれている前記形状データを前記第1撮像データに置き換えて、前記学習データを生成する工程と、
を有することを特徴とする情報処理方法。 - 前記設計データは、前記物体の三次元CADのデータである請求項1に記載の情報処理方法。
- 単独で置かれている前記物体を、前記撮像部により、複数の撮像条件で撮像し、前記物体の前記形状データを含む第5撮像データを取得する工程をさらに有し、
前記第1ばら積みデータを生成する工程は、前記物体データを前記第5撮像データに対応付け、前記物体データが対応付けられた前記第5撮像データを積み上げて、前記第1ばら積みデータを得る工程である請求項1または2に記載の情報処理方法。 - 物体の位置姿勢を検出するための学習データを生成する情報処理方法であって、
単独で置かれている前記物体を、撮像部により、複数の撮像条件で撮像し、前記物体の形状データを含む複数の第3撮像データを取得する工程と、
シミュレーションにより、前記第3撮像データを積み上げて、第2ばら積みデータを生成する工程と、
前記第2ばら積みデータの最表面部分に配置されている前記第3撮像データに位置姿勢情報を付与する工程と、
単独で置かれている前記物体を前記撮像部により撮像した場合に、前記最表面部分に配置された前記第3撮像データの位置姿勢が得られる撮像角度および撮像距離に基づいて、前記撮像部を配置する工程と、
単独で置かれている前記物体を前記撮像角度および前記撮像距離から前記撮像部により撮像し、第4撮像データを取得する工程と、
前記第2ばら積みデータにおいて、前記位置姿勢情報が付与された前記第3撮像データに含まれている前記形状データを前記第4撮像データに置き換えて、前記学習データを生成する工程と、
を有することを特徴とする情報処理方法。 - 前記第2ばら積みデータを生成する工程は、前記第3撮像データの前記形状データの一部を欠損させた欠損撮像データを、前記最表面部分の背景に配置されるデータとする処理を含む請求項4に記載の情報処理方法。
- 前記第2ばら積みデータを生成する工程は、オクルージョンがない前記第3撮像データを、前記最表面部分とする処理を含む請求項4または5に記載の情報処理方法。
- 物体の位置姿勢を検出するための学習データを生成する情報処理装置であって、
前記物体の設計データを受け付ける設計データ受付部と、
前記設計データから、前記物体の形状データと前記物体の位置姿勢情報とを含む物体データを生成する物体データ生成部と、
シミュレーションにより、前記物体データを積み上げて、第1ばら積みデータを生成する第1ばら積みデータ生成部と、
前記第1ばら積みデータにおいて、最表面に配置されている前記物体データを最表面物体データとして抽出する最表面抽出部と、
単独で置かれている前記物体を撮像部により撮像させるときの、前記最表面物体データに対応する撮像角度および撮像距離を算出する撮像角度算出部と、
単独で置かれている前記物体を撮像部により前記撮像角度および撮像距離で撮像させ、第1撮像データを取得する第1撮像データ取得部と、
前記第1ばら積みデータにおいて、前記最表面物体データに含まれている前記形状データを前記第1撮像データに置き換えて、学習データを生成する学習データ生成部と、
を有することを特徴とする情報処理装置。 - 物体の位置姿勢を検出するための学習データを生成する情報処理装置であって、
単独で置かれている前記物体を、撮像部により、複数の撮像条件で撮像させ、前記物体の形状データを含む複数の第3撮像データを取得する第3撮像データ取得部と、
シミュレーションにより、前記第3撮像データを積み上げて、第2ばら積みデータを生成する第2ばら積みデータ生成部と、
前記第2ばら積みデータにおいて、最表面に配置されている前記第3撮像データに位置姿勢情報を付与する最表面位置姿勢情報付与部と、
単独で置かれている前記物体を撮像部により撮像させるときの、前記位置姿勢情報を付与した前記第3撮像データに対応する撮像角度および撮像距離を算出する撮像角度算出部と、
単独で置かれている前記物体を撮像部により前記撮像角度および前記撮像距離で撮像させ、第4撮像データを取得する第4撮像データ取得部と、
前記第2ばら積みデータにおいて、前記位置姿勢情報が付与された前記第3撮像データに含まれている前記形状データを前記第4撮像データに置き換えて、学習データを生成する学習データ生成部と、
を有することを特徴とする情報処理装置。 - 物体の位置姿勢を検出する物体検出装置であって、
請求項7または8に記載の情報処理装置と、
前記物体を、撮像部により撮像させ、第2撮像データを取得する第2撮像データ取得部と、
前記第2撮像データおよび前記学習データに基づいて、前記物体の位置姿勢を検出する物体位置姿勢検出部と、
を有することを特徴とする物体検出装置。 - ロボットアームを備えるロボットと、
前記ロボットアームに設置されている撮像部と、
請求項9に記載の物体検出装置と、
前記物体検出装置の検出結果に基づいて前記ロボットの駆動を制御するロボット制御装置と、
を有することを特徴とするロボットシステム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019064127A JP2020166371A (ja) | 2019-03-28 | 2019-03-28 | 情報処理方法、情報処理装置、物体検出装置およびロボットシステム |
CN202010219335.8A CN111745639B (zh) | 2019-03-28 | 2020-03-25 | 信息处理方法及装置、物体检测装置以及机器人系统 |
US16/831,961 US11158080B2 (en) | 2019-03-28 | 2020-03-27 | Information processing method, information processing device, object detection apparatus, and robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019064127A JP2020166371A (ja) | 2019-03-28 | 2019-03-28 | 情報処理方法、情報処理装置、物体検出装置およびロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020166371A true JP2020166371A (ja) | 2020-10-08 |
Family
ID=72606132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019064127A Withdrawn JP2020166371A (ja) | 2019-03-28 | 2019-03-28 | 情報処理方法、情報処理装置、物体検出装置およびロボットシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11158080B2 (ja) |
JP (1) | JP2020166371A (ja) |
CN (1) | CN111745639B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024161891A1 (ja) * | 2023-01-31 | 2024-08-08 | 京セラ株式会社 | 処理装置及びプログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10906188B1 (en) | 2019-10-25 | 2021-02-02 | Dexterity, Inc. | Singulation of arbitrary mixed items |
WO2022036261A1 (en) * | 2020-08-13 | 2022-02-17 | Opsis Health, Inc. | Object-recognition training |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011083882A (ja) * | 2009-10-19 | 2011-04-28 | Yaskawa Electric Corp | ロボットシステム |
JP2013117795A (ja) * | 2011-12-01 | 2013-06-13 | Canon Inc | 画像処理装置、画像処理方法 |
JP2018161692A (ja) * | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3377465B2 (ja) * | 1999-04-08 | 2003-02-17 | ファナック株式会社 | 画像処理装置 |
JP2007101197A (ja) * | 2005-09-30 | 2007-04-19 | Nachi Fujikoshi Corp | 物体探索装置,物体探索装置を備えるロボットシステム及び物体探索方法 |
PT2828830T (pt) * | 2012-03-20 | 2018-03-13 | Siemens Corp | Visualização de bagagem e desembalamento virtual |
DE102016015936B4 (de) * | 2015-07-31 | 2024-08-29 | Fanuc Corporation | Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsysem zum Lernen eines Werkstückaufnahmevorgangs |
JP7071054B2 (ja) | 2017-01-20 | 2022-05-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6526100B2 (ja) * | 2017-04-28 | 2019-06-05 | ファナック株式会社 | 物品取出システム |
JP6549644B2 (ja) * | 2017-06-27 | 2019-07-24 | ファナック株式会社 | 機械学習装置、ロボット制御システム及び機械学習方法 |
JP6895563B2 (ja) * | 2017-09-25 | 2021-06-30 | ファナック株式会社 | ロボットシステム、モデル生成方法、及びモデル生成プログラム |
US20200311855A1 (en) * | 2018-05-17 | 2020-10-01 | Nvidia Corporation | Object-to-robot pose estimation from a single rgb image |
CN109255813B (zh) * | 2018-09-06 | 2021-03-26 | 大连理工大学 | 一种面向人机协作的手持物体位姿实时检测方法 |
JP7467041B2 (ja) * | 2018-09-27 | 2024-04-15 | キヤノン株式会社 | 情報処理装置、情報処理方法及びシステム |
JP7263878B2 (ja) * | 2019-03-27 | 2023-04-25 | セイコーエプソン株式会社 | 光スキャナー、三次元計測装置およびロボットシステム |
KR102198851B1 (ko) * | 2019-11-12 | 2021-01-05 | 네이버랩스 주식회사 | 물체의 3차원 모델 데이터 생성 방법 |
JP7364439B2 (ja) * | 2019-11-25 | 2023-10-18 | ファナック株式会社 | Tofセンサを用いた物体検出システム |
JP7409848B2 (ja) * | 2019-12-04 | 2024-01-09 | ファナック株式会社 | 表示装置及び表示プログラム |
-
2019
- 2019-03-28 JP JP2019064127A patent/JP2020166371A/ja not_active Withdrawn
-
2020
- 2020-03-25 CN CN202010219335.8A patent/CN111745639B/zh active Active
- 2020-03-27 US US16/831,961 patent/US11158080B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011083882A (ja) * | 2009-10-19 | 2011-04-28 | Yaskawa Electric Corp | ロボットシステム |
JP2013117795A (ja) * | 2011-12-01 | 2013-06-13 | Canon Inc | 画像処理装置、画像処理方法 |
JP2018161692A (ja) * | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024161891A1 (ja) * | 2023-01-31 | 2024-08-08 | 京セラ株式会社 | 処理装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN111745639A (zh) | 2020-10-09 |
US11158080B2 (en) | 2021-10-26 |
CN111745639B (zh) | 2023-07-07 |
US20200311965A1 (en) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6546618B2 (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
JP5977544B2 (ja) | 情報処理装置、情報処理方法 | |
JP5743499B2 (ja) | 画像生成装置、画像生成方法、およびプログラム | |
JP5624394B2 (ja) | 位置姿勢計測装置、その計測処理方法及びプログラム | |
JP6427972B2 (ja) | ロボット、ロボットシステム及び制御装置 | |
JP6892286B2 (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
CN111745639B (zh) | 信息处理方法及装置、物体检测装置以及机器人系统 | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
JP2017170571A (ja) | ロボット、ロボット制御装置、及びロボットシステム | |
JP4889928B2 (ja) | 基準座標算出方法、基準座標算出プログラム、その記録媒体、定盤および形状測定装置 | |
WO2012091144A4 (en) | Information processing apparatus and method | |
JP2012026974A (ja) | 3次元物体認識装置及び3次元物体認識方法 | |
JP2018122376A (ja) | 画像処理装置、ロボット制御装置、及びロボット | |
JP7439410B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP5083715B2 (ja) | 三次元位置姿勢計測方法および装置 | |
JP6237122B2 (ja) | ロボット、画像処理方法及びロボットシステム | |
JP2017042897A (ja) | ロボットシステム、ロボット、及びロボット制御装置 | |
JP2013072857A (ja) | 3次元位置・姿勢認識装置およびその方法、プログラム | |
JP2018017610A (ja) | 三次元計測装置、ロボット、ロボット制御装置、及びロボットシステム | |
JP7161857B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2021061014A (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
JP2017219359A (ja) | 形状測定装置、ロボット制御装置、及びロボット | |
JP2013158845A (ja) | ロボット装置、画像生成装置、画像生成方法、および画像生成プログラム | |
JP2010186219A (ja) | テンプレート生成システム、テンプレートマッチングシステムおよびテンプレート生成方法 | |
JP7533265B2 (ja) | 支援システム、画像処理装置、支援方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20230927 |