JP7129065B2 - 画像データからの物体のポーズ検出 - Google Patents
画像データからの物体のポーズ検出 Download PDFInfo
- Publication number
- JP7129065B2 JP7129065B2 JP2019150869A JP2019150869A JP7129065B2 JP 7129065 B2 JP7129065 B2 JP 7129065B2 JP 2019150869 A JP2019150869 A JP 2019150869A JP 2019150869 A JP2019150869 A JP 2019150869A JP 7129065 B2 JP7129065 B2 JP 7129065B2
- Authority
- JP
- Japan
- Prior art keywords
- pose
- image
- computer model
- computer
- environment simulator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title description 33
- 238000005094 computer simulation Methods 0.000 claims description 144
- 238000000034 method Methods 0.000 claims description 94
- 230000006870 function Effects 0.000 claims description 86
- 230000008569 process Effects 0.000 claims description 75
- 238000012549 training Methods 0.000 claims description 44
- 238000004088 simulation Methods 0.000 claims description 40
- 238000004590 computer program Methods 0.000 claims description 24
- 230000000694 effects Effects 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 230000001939 inductive effect Effects 0.000 claims description 7
- 239000003086 colorant Substances 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 230000008676 import Effects 0.000 claims description 5
- 230000001427 coherent effect Effects 0.000 claims description 4
- 238000005096 rolling process Methods 0.000 claims 1
- 238000011960 computer-aided design Methods 0.000 description 20
- 238000003860 storage Methods 0.000 description 17
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000411 inducer Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
- B25J9/12—Programme-controlled manipulators characterised by positioning means for manipulator elements electric
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37555—Camera detects orientation, position workpiece, points of workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40532—Ann for vision processing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Quality & Reliability (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Description
Claims (25)
- コンピュータによって実行可能なコンピュータプログラムであって、前記コンピュータに、
物体のコンピュータモデルを取得する手順と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションする手順と、
複数のポーズ表現を含む訓練データを取り込む手順であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取り込む手順と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成する手順と、
物理的環境における前記物体の画像を取り込む手順と、
前記ポーズ決定関数を前記物体の前記画像に適用することによって前記物体のポーズ指定を決定する手順と、
前記物体の前記ポーズ指定を補正する手順と、
を含む操作を実行させ、
前記コンピュータモデルの前記画像が深度情報を含み、
前記物体の前記画像を前記取り込む手順が、深度情報を取り込む手順をさらに含み、
前記補正する手順が、直接画像位置合わせ(Direct Image Alignment,DIA)およびコヒーレント点ドリフト(Coherent Point Drift,CPD)のうちの1つを適用して、前記物体の前記ポーズ指定に従った前記コンピュータモデルの前記画像と前記物理的環境における前記物体の前記画像との間の差異を低減させる手順をさらに含む、
コンピュータプログラム。 - 前記ポーズ指定に従い、ロボットアームの位置決めをする手順をさらに含む、請求項1に記載のコンピュータプログラム。
- 前記ロボットアームを前記位置決めする手順が、前記物体の前記画像を取り込んだカメラの位置に基づいて、前記ロボットアームに対する前記物体の位置を決定することを含む、請求項2に記載のコンピュータプログラム。
- 前記補正する手順が、前記物体の前記ポーズ指定に従った前記コンピュータモデルの画像を作成する手順を含む、請求項1から3のいずれか一項に記載のコンピュータプログラム。
- 前記補正する手順が、
前記物体の前記ポーズ指定に従った前記コンピュータモデルの前記画像を、前記物理的環境における前記物体の前記画像と比較する手順と、
前記ポーズ指定を調整して、前記取り込まれた画像と前記作成された画像との間の差異を低減させる手順と、
をさらに含む、請求項4に記載のコンピュータプログラム。 - 前記ポーズ指定が、位置および向きの6D指定である、請求項1から5のいずれか一項に記載のコンピュータプログラム。
- 前記シミュレーションする手順が、前記コンピュータモデルの1より多くのインスタンスをシミュレーションする手順を含み、
各画像は、前記コンピュータモデルの前記1より多くのインスタンスを含み、前記コンピュータモデルの各インスタンスは固有のポーズである、
請求項1から6のいずれか一項に記載のコンピュータプログラム。 - 前記現実的環境シミュレータが物理エンジンを含み、
前記シミュレーションする手順は、前記コンピュータモデルがランダムなポーズを呈するように、前記現実的環境シミュレータ内で、プラットフォームに対する前記コンピュータモデルの運動を誘発する手順を含む、
請求項1から7のいずれか一項に記載のコンピュータプログラム。 - 前記運動を誘発する手順が、落下、回転、および衝突する手順のうちの少なくとも1つを含む、請求項8に記載のコンピュータプログラム。
- 前記シミュレーションする手順が、前記現実的環境シミュレータ内で、前記コンピュータモデルおよび前記プラットフォームに1つまたは複数の表面色をポーズごとにランダムに割り当てる手順を含む、請求項8または9に記載のコンピュータプログラム。
- コンピュータによって実行可能なコンピュータプログラムであって、前記コンピュータに、
物体のコンピュータモデルを取得する手順と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションする手順と、
複数のポーズ表現を含む訓練データを取り込む手順であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取り込む手順と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成する手順と、
を含む操作を実行させ、
前記現実的環境シミュレータが物理エンジンを含み、
前記シミュレーションする手順は、前記コンピュータモデルがランダムなポーズを呈するように、前記現実的環境シミュレータ内で、プラットフォームに対する前記コンピュータモデルの運動を誘発する手順を含み、
前記シミュレーションする手順が、前記現実的環境シミュレータ内で、前記コンピュータモデルおよび前記プラットフォームに1つまたは複数の表面色をポーズごとにランダムに割り当てる手順を含む、
コンピュータプログラム。 - 前記シミュレーションする手順が、前記現実的環境シミュレータ内で、前記コンピュータモデルおよび前記プラットフォームに1つまたは複数の表面テクスチャをポーズごとにランダムに割り当てる手順を含む、請求項8から11のいずれか一項に記載のコンピュータプログラム。
- コンピュータによって実行可能なコンピュータプログラムであって、前記コンピュータに、
物体のコンピュータモデルを取得する手順と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションする手順と、
複数のポーズ表現を含む訓練データを取り込む手順であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取り込む手順と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成する手順と、
を含む操作を実行させ、
前記現実的環境シミュレータが物理エンジンを含み、
前記シミュレーションする手順は、前記コンピュータモデルがランダムなポーズを呈するように、前記現実的環境シミュレータ内で、プラットフォームに対する前記コンピュータモデルの運動を誘発する手順を含み、
前記シミュレーションする手順が、前記現実的環境シミュレータ内で、前記コンピュータモデルおよび前記プラットフォームに1つまたは複数の表面テクスチャをポーズごとにランダムに割り当てる手順を含む、
コンピュータプログラム。 - 前記シミュレーションする手順が、前記現実的環境シミュレータ内で、環境における照明効果をポーズごとにランダムに割り当てる手順を含む、請求項1から13のいずれか一項に記載のコンピュータプログラム。
- コンピュータによって実行可能なコンピュータプログラムであって、前記コンピュータに、
物体のコンピュータモデルを取得する手順と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションする手順と、
複数のポーズ表現を含む訓練データを取り込む手順であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取り込む手順と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成する手順と、
を含む操作を実行させ、
前記シミュレーションする手順が、前記現実的環境シミュレータ内で、環境における照明効果をポーズごとにランダムに割り当てる手順を含む、
コンピュータプログラム。 - 前記照明効果が、明るさ、コントラスト、色温度、および方向のうちの少なくとも1つを含む、請求項14または15に記載のコンピュータプログラム。
- 前記学習プロセスが畳み込みニューラルネットワークである、請求項1から16のいずれか一項に記載のコンピュータプログラム。
- 物体のコンピュータモデルを取得する段階と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションする段階と、
複数のポーズ表現を含む訓練データを取り込む段階であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取り込む段階と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成する段階と、
物理的環境における前記物体の画像を取り込む段階と、
前記ポーズ決定関数を前記物体の前記画像に適用することによって前記物体のポーズ指定を決定する段階と、
前記物体の前記ポーズ指定を補正する段階と、
を含み、
前記コンピュータモデルの前記画像が深度情報を含み、
前記物体の前記画像を前記取り込む段階が、深度情報を取り込む段階をさらに含み、
前記補正する段階が、直接画像位置合わせ(Direct Image Alignment,DIA)およびコヒーレント点ドリフト(Coherent Point Drift,CPD)のうちの1つを適用して、前記物体の前記ポーズ指定に従った前記コンピュータモデルの前記画像と前記物理的環境における前記物体の前記画像との間の差異を低減させる段階をさらに含む、
コンピュータ実装方法。 - 物体のコンピュータモデルを取得する段階と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションする段階と、
複数のポーズ表現を含む訓練データを取り込む段階であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取り込む段階と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成する段階と、
を含み、
前記現実的環境シミュレータが物理エンジンを含み、
前記シミュレーションする段階は、前記コンピュータモデルがランダムなポーズを呈するように、前記現実的環境シミュレータ内で、プラットフォームに対する前記コンピュータモデルの運動を誘発する段階を含み、
前記シミュレーションする段階が、前記現実的環境シミュレータ内で、前記コンピュータモデルおよび前記プラットフォームに1つまたは複数の表面色をポーズごとにランダムに割り当てる段階を含む、
コンピュータ実装方法。 - 物体のコンピュータモデルを取得する段階と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションする段階と、
複数のポーズ表現を含む訓練データを取り込む段階であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取り込む段階と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成する段階と、
を含み、
前記現実的環境シミュレータが物理エンジンを含み、
前記シミュレーションする段階は、前記コンピュータモデルがランダムなポーズを呈するように、前記現実的環境シミュレータ内で、プラットフォームに対する前記コンピュータモデルの運動を誘発する段階を含み、
前記シミュレーションする段階が、前記現実的環境シミュレータ内で、前記コンピュータモデルおよび前記プラットフォームに1つまたは複数の表面テクスチャをポーズごとにランダムに割り当てる段階を含む、
コンピュータ実装方法。 - 物体のコンピュータモデルを取得する段階と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションする段階と、
複数のポーズ表現を含む訓練データを取り込む段階であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取り込む段階と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成する段階と、
を含み、
前記シミュレーションする段階が、前記現実的環境シミュレータ内で、環境における照明効果をポーズごとにランダムに割り当てる段階を含む、
コンピュータ実装方法。 - 物体のコンピュータモデルを取得するように構成された取得部と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションするように構成されたシミュレーション部と、
複数のポーズ表現を含む訓練データ、及び物理的環境における前記物体の画像を取り込むように構成された取込み部であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは、前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取込み部と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成するように構成された学習プロセス適用部と、
前記ポーズ決定関数を前記物体の前記画像に適用することによって前記物体のポーズ指定を決定するポーズ決定部と、
前記物体の前記ポーズ指定を補正するポーズ補正部と、
を備え、
前記コンピュータモデルの前記画像が深度情報を含み、
前記取込み部が、深度情報をさらに取り込み、
前記ポーズ補正部が、直接画像位置合わせ(Direct Image Alignment,DIA)およびコヒーレント点ドリフト(Coherent Point Drift,CPD)のうちの1つを適用して、前記物体の前記ポーズ指定に従った前記コンピュータモデルの前記画像と前記物理的環境における前記物体の前記画像との間の差異を低減させる、
装置。 - 物体のコンピュータモデルを取得するように構成された取得部と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションするように構成されたシミュレーション部と、
複数のポーズ表現を含む訓練データを取り込むように構成された取込み部であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは、前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取込み部と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成するように構成された学習プロセス適用部と、
を備え、
前記現実的環境シミュレータが物理エンジンを含み、
前記シミュレーション部が、前記コンピュータモデルがランダムなポーズを呈するように、前記現実的環境シミュレータ内で、プラットフォームに対する前記コンピュータモデルの運動を誘発し、
前記シミュレーション部が、前記現実的環境シミュレータ内で、前記コンピュータモデルおよび前記プラットフォームに1つまたは複数の表面色をポーズごとにランダムに割り当てる、
装置。 - 物体のコンピュータモデルを取得するように構成された取得部と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションするように構成されたシミュレーション部と、
複数のポーズ表現を含む訓練データを取り込むように構成された取込み部であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは、前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取込み部と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成するように構成された学習プロセス適用部と、
を備え、
前記現実的環境シミュレータが物理エンジンを含み、
前記シミュレーション部が、前記コンピュータモデルがランダムなポーズを呈するように、前記現実的環境シミュレータ内で、プラットフォームに対する前記コンピュータモデルの運動を誘発し、
前記シミュレーション部が、前記現実的環境シミュレータ内で、前記コンピュータモデルおよび前記プラットフォームに1つまたは複数の表面テクスチャをポーズごとにランダムに割り当てる、
装置。 - 物体のコンピュータモデルを取得するように構成された取得部と、
現実的環境シミュレータで前記コンピュータモデルをシミュレーションするように構成されたシミュレーション部と、
複数のポーズ表現を含む訓練データを取り込むように構成された取込み部であって、各ポーズ表現が、複数のポーズのうちの1つにある前記コンピュータモデルの画像を含み、前記複数のポーズのうちの1つは、前記画像に示される前記コンピュータモデルのポーズ指定を含むラベルと対になっており、前記コンピュータモデルの前記画像および前記ポーズ指定は前記現実的環境シミュレータによって規定される、取込み部と、
前記複数のポーズ表現に学習プロセスを適用して、前記物体の画像をポーズ指定に関連付けるためのポーズ決定関数を生成するように構成された学習プロセス適用部と、
を備え、
前記シミュレーション部が、前記現実的環境シミュレータ内で、環境における照明効果をポーズごとにランダムに割り当てる、
装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019150869A JP7129065B2 (ja) | 2019-08-21 | 2019-08-21 | 画像データからの物体のポーズ検出 |
US16/999,087 US20210056247A1 (en) | 2019-08-21 | 2020-08-21 | Pose detection of objects from image data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019150869A JP7129065B2 (ja) | 2019-08-21 | 2019-08-21 | 画像データからの物体のポーズ検出 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021056542A JP2021056542A (ja) | 2021-04-08 |
JP7129065B2 true JP7129065B2 (ja) | 2022-09-01 |
Family
ID=74645728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019150869A Active JP7129065B2 (ja) | 2019-08-21 | 2019-08-21 | 画像データからの物体のポーズ検出 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210056247A1 (ja) |
JP (1) | JP7129065B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115222871B (zh) * | 2021-08-31 | 2023-04-18 | 达闼科技(北京)有限公司 | 模型评估方法、装置、存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063567A (ja) | 2000-08-23 | 2002-02-28 | Nec Corp | 物体位置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法 |
JP2013010155A (ja) | 2011-06-28 | 2013-01-17 | Canon Inc | 対象物把持装置、対象物把持装置の制御方法、およびプログラム |
US20140079314A1 (en) | 2012-09-18 | 2014-03-20 | Yury Yakubovich | Method and Apparatus for Improved Training of Object Detecting System |
JP2015072581A (ja) | 2013-10-02 | 2015-04-16 | キヤノン株式会社 | 情報処理方法、情報処理装置、およびコンピュータプログラム |
JP2018144158A (ja) | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9715761B2 (en) * | 2013-07-08 | 2017-07-25 | Vangogh Imaging, Inc. | Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis |
US10055667B2 (en) * | 2016-08-03 | 2018-08-21 | X Development Llc | Generating a model for an object encountered by a robot |
-
2019
- 2019-08-21 JP JP2019150869A patent/JP7129065B2/ja active Active
-
2020
- 2020-08-21 US US16/999,087 patent/US20210056247A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063567A (ja) | 2000-08-23 | 2002-02-28 | Nec Corp | 物体位置姿勢推定装置及びその方法並びそれを用いた特徴点位置抽出方法及び画像照合方法 |
JP2013010155A (ja) | 2011-06-28 | 2013-01-17 | Canon Inc | 対象物把持装置、対象物把持装置の制御方法、およびプログラム |
US20140079314A1 (en) | 2012-09-18 | 2014-03-20 | Yury Yakubovich | Method and Apparatus for Improved Training of Object Detecting System |
JP2015072581A (ja) | 2013-10-02 | 2015-04-16 | キヤノン株式会社 | 情報処理方法、情報処理装置、およびコンピュータプログラム |
JP2018144158A (ja) | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
Non-Patent Citations (1)
Title |
---|
Yu Xiang et al,PoseCNN: A Convolutional Neural Network for 6D Object Pose Estimation in Cluttered Scenes,arXiv,2018年05月26日,https://arxiv.org/pdf/1711.00199v3.pdf |
Also Published As
Publication number | Publication date |
---|---|
US20210056247A1 (en) | 2021-02-25 |
JP2021056542A (ja) | 2021-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10867444B2 (en) | Synthetic data generation for training a machine learning model for dynamic object compositing in scenes | |
JP6771645B2 (ja) | ドメイン分離ニューラルネットワーク | |
US20190295305A1 (en) | Retargeting skeleton motion sequences through cycle consistency adversarial training of a motion synthesis neural network with a forward kinematics layer | |
US9536338B2 (en) | Animating objects using the human body | |
US10565792B2 (en) | Approximating mesh deformations for character rigs | |
US11741666B2 (en) | Generating synthetic images and/or training machine learning model(s) based on the synthetic images | |
US20200057831A1 (en) | Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation | |
US11710040B2 (en) | Generating synthetic models or virtual objects for training a deep learning network | |
KR20200102114A (ko) | 학습기반 3d 모델 생성 장치 및 방법 | |
JP2018532216A (ja) | 画像正則化及びリターゲティングシステム | |
US20210205988A1 (en) | Task embedding for device control | |
Borrego et al. | A generic visual perception domain randomisation framework for gazebo | |
WO2018080533A1 (en) | Real-time generation of synthetic data from structured light sensors for 3d object pose estimation | |
JP7129065B2 (ja) | 画像データからの物体のポーズ検出 | |
US11875441B2 (en) | Data-driven extraction and composition of secondary dynamics in facial performance capture | |
JP7406654B2 (ja) | 実際の場所の仮想環境復元を作成するための方法 | |
CN115035224A (zh) | 图像处理和重构图像生成的方法和装置 | |
US20240153188A1 (en) | Physics-based simulation of dynamic character motion using generative artificial intelligence | |
JP7490142B2 (ja) | 姿勢の脱曖昧化 | |
Naeem | Domain Randomization for Visual sim-to-real Object Pose Estimation | |
TW202121334A (zh) | 用於人臉辨識的訓練資料產生方法及資料產生裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220812 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7129065 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |