JP2017120672A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP2017120672A JP2017120672A JP2017076805A JP2017076805A JP2017120672A JP 2017120672 A JP2017120672 A JP 2017120672A JP 2017076805 A JP2017076805 A JP 2017076805A JP 2017076805 A JP2017076805 A JP 2017076805A JP 2017120672 A JP2017120672 A JP 2017120672A
- Authority
- JP
- Japan
- Prior art keywords
- image
- luminance
- image processing
- target object
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 82
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000009826 distribution Methods 0.000 claims abstract description 123
- 230000006870 function Effects 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 29
- 230000036544 posture Effects 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 4
- 235000019557 luminance Nutrition 0.000 claims 26
- 230000007613 environmental effect Effects 0.000 abstract description 9
- 238000005315 distribution function Methods 0.000 description 38
- 238000003860 storage Methods 0.000 description 28
- 238000011156 evaluation Methods 0.000 description 24
- 238000003384 imaging method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 239000000463 material Substances 0.000 description 6
- 238000007476 Maximum Likelihood Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 238000012706 support-vector machine Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000012636 effector Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000465 moulding Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004381 surface treatment Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、入力画像から対象物体の画像を検出する画像認識処理において参照される辞書の生成に用いられる学習画像を、実環境下で対象物体を撮影した情報に基づき、環境条件を反映して対象物体の表面輝度を近似させるように生成する。
図1(a)に、本実施形態における画像認識処理を行う画像処理装置において、特に学習画像の生成を行うための構成の概要を示す。モデル設定部1010は、対象物体のモデルを設定し、モデル記憶部1020に記憶する。画像取得部1110は、対象物体を撮影することで事前取得画像を取得し、事前取得画像記憶部1120に記憶する。観測データ分布取得部1130は、事前取得画像記憶部1120に記憶された事前取得画像から得られる情報に基づき、輝度値の観測データ分布を取得する。輝度推定部1210では、観測データ分布取得部1130で得られたデータ分布に基づき、対象物体表面の輝度分布を推定する。画像生成部1220は、モデル記憶部1020に記憶されているモデルと、輝度推定部1210で推定された輝度分布に基づき、対象物体の様々な姿勢のCG画像を生成する。生成されたCG画像は、学習画像として学習画像記憶部2010に記憶される。本実施形態では、このように対象物体を撮影して得られた輝度分布に基づく学習画像を容易に生成することを特徴とする。
以下、上述した構成からなる本実施形態の画像処理装置を、ロボットによる作業へ応用する場合を例として、説明を行う。まず、ランタイム時に対象物体を検出するための装置構成を図2に示す。図2において、トレイ500に検出の対象物体400が配置されている。300は画像情報および撮影位置からの距離情報を得るための撮像装置であり、図1における入力画像取得部3020に相当する。撮像装置300としては、撮影時に画像情報とともに距離情報を得ることができれば、ステレオカメラやTOFセンサ、あるいは、カメラと投光器の組み合わせによる光切断や空間コード化などの装置でもよく、本発明において限定されるものではない。また、後述するようにトラッキング技術を利用したモデルとの位置合わせを行う場合には、距離情報を得る必要はなく、撮像装置300はカメラのみによる構成であってもよい。撮像装置300は有線もしくは無線を介して計算機100に接続されている。
図2に示す構成におけるランタイム処理について、図3(a)のフローチャートを用いて説明する。上述したようにランタイムとは、本実施形態で作成された学習画像に基づく辞書を用いて、実際の入力画像に対して対象物体の認識(検出)処理を行うことである。図2に示す構成例では、例えば実際の工場などで次々と搬送されてくる対象物体を撮影し、物体の位置および姿勢を認識することを指す。ただし、本発明は上記のようなランタイム処理に限定されるものではなく、例えば本発明を顔認識に応用した場合であれば、カメラを人に向けて撮影して顔認識を行う場面なども、ランタイム処理であると言える。
以上のようなランタイム処理を行うにあたり、対象物体400を検出するための辞書を事前に用意しておく必要がある。以下、この辞書を設定するための処理について詳細に説明する。なお上述したように、繰り返し行われるランタイム作業において辞書は再利用されるものであるから、辞書生成処理は一度だけ行えばよい。
そして、対象物体400表面の任意の位置における表面法線40の法線ベクトルN=(Nx,Ny,Nz)と、反射中心軸30の方向ベクトルHのなす角50をθとすると、θは以下の(2)式で表わされる。
このとき、上記対象物体表面の任意の位置における輝度値Jは、θの関数として以下の(3)式のようにガウス関数で近似することができる。
なお、(3)式におけるCとmはそれぞれ、輝度分布全体の強度と輝度分布の広がりを表す輝度分布パラメータであり、これを推定することで輝度分布モデルの近似が行われる。
最尤推定フィッティングをこの誤差関数Eの最小化問題として考える。すると、誤差関数EはパラメータCに関して下に凸の2次関数であるため、以下の(5)式を解けば、パラメータCの更新式が(6)式のように求まる。
(7)式を最急降下的に解くと、逐次更新式は以下の(8)式のようになり、これはRobbins-Monroの手続きと呼ばれる。なお、(8)式における係数ηは正の値で定義される定数であり、観測データ数の逆数として与えるのが一般的である。
なお、(9)式においてKd,Ks,mはこのモデルにおける輝度分布パラメータである。このモデルを図4に適用すると、θは(2)式のθと同様であり、すなわち表面法線40の方向ベクトルNと反射中心軸30の方向ベクトルHのなす角50である。また、αは表面法線40の方向ベクトルNと光源軸20の方向ベクトルLのなす角70、βは表面法線40の方向ベクトルNとカメラ光軸100の方向ベクトルVのなす角60であり、それぞれ以下の(10),(11)式で表わされる。
β=cos-1(V・N/(|V||N|)) ・・・(11)
各観測画素jに対応する(9)式における角度αjとβjは、上記(10),(11)式から得ることができ、これによりθj、αj、βjに対応する輝度値Jjの観測分布を得ることができる。この観測分布に対して(9)式のモデルを最尤推定によってフィッティングすることで、対象物体400の表面輝度分布の推定モデルを得ることができる。
第1実施形態では、撮像装置300での撮影によって、対象物体を含む輝度画像および距離画像を取得する例を示したが、撮像装置300が測距機能を有さない場合にも、本実施形態は適用可能である。以下、撮像装置300にて距離画像を取得できない場合に、第1実施形態を適用する変形例について説明する。本変形例においては、周知のトラッキング技術を用いて対象物体の位置姿勢を推定することで、距離画像を生成する。図1(b)に、本変形例における学習画像生成用の構成を示すが、図1(a)と同様の構成には同一番号を付し、説明を省略する。すなわち、図1(b)における距離画像生成部1140にて、距離画像を生成する。この場合、撮像装置300で撮影した輝度画像に対し、ユーザが対象物体のモデルを画像上に重畳させて概位置および概姿勢を設定し、既存のトラッキング技術を用いて詳細な位置および姿勢に合わせ込む。合わせ込まれたモデルとの対応から、対象物体が写っている領域に関する各画素のカメラ座標系における推定位置を算出することで、推定された距離画像として扱うことができる。
以下、本発明に係る第2実施形態について説明する。上述した第1実施形態では、対象物体が単色物体であることを前提として説明を行った。しかしながら、対象物体が複数の色から成る場合ももちろんある。例えば、複数部品によるアッセンブリとして供給される部品が対象物体である場合、該対象物体の一部が黒いプラスチック、一部が白いプラスチックで構成されるといったように、部位によって輝度特性が異なることが考えられる。第2実施形態ではこのように複数の輝度特性を有する対象物体について、学習画像を生成する例について説明する。
第2実施形態においても第1実施形態と同様に、後述するように生成された学習画像から、対象物体を検出するための辞書を生成する。第2実施形態における辞書生成処理の概要は第1実施形態で示した図3(b)のフローチャートと同様であるが、その詳細が異なる。なお、図3(b)においてモデル設定工程S1000、画像取得工程S1100、観測データ分布取得工程S1130については第1実施形態と同様であるため、説明を省略する。
なお、(12)式におけるCtとmtはそれぞれ、輝度分布全体の強度と輝度分布の広がりを表すパラメータである。
なお、(14)式においてKdt,Kst,mtはこのモデルにおけるパラメータであり、α,βは上記(10),(11)式で表わされる。これらのパラメータも第1実施形態と同様に関数フィッティングによって推定される。なお、輝度値が多チャンネルで得られている場合にも、第1実施形態と同様にそれぞれのチャンネルに関する輝度分布を別々に推定すればよい。
以下、本発明に係る第3実施形態について説明する。上述した第1および第2実施形態では、対象物体の表面性状が表面法線方向に対して安定しているものとして説明を行ったが、この表面性状は必ずしも安定しているとは限らない。例えば、対象物体表面に梨地のような加工がなされていれば、同一方向を向いた対象物体の面であっても、部分によって輝度値が変化する。また意図的な表面加工がなくても、成型時の型の粗さ等によって同様に輝度値の変化が発生する場合がある。このような表面正常が不安定な対象物体に対し、その輝度値の不安定さを再現するために学習画像生成時にノイズを加えることが考えられる。第3実施形態ではすなわち、学習画像生成時に加えるノイズを考慮して、対象物体の輝度分布を推定することを特徴とする。
第3実施形態においても第1実施形態と同様に、後述するように生成された学習画像から、対象物体を検出するための辞書を生成するが、この辞書生成処理も図3(b)のフローチャートに従う。図3(b)においてモデル設定工程S1000、画像取得工程S1100、観測データ分布取得工程S1130については第1実施形態と同様であるため、説明を省略する。
w=(w1,…,wh,…,wM)T ・・・(19)
Φ(θ)=(φ1(θ),…,φh(θ),…,φM(θ))T ・・・(20)
ここで、θは図4で説明した表面法線40の方向ベクトルNと反射中心軸30の方向ベクトルHのなす角50である。またMはカーネルの数であって、ユーザによって定義される。角度θは0〜90degの範囲で収まるため、例えばM=9と設定すれば、10deg程度の間隔でカーネルを配置することができる。また、パラメータwはM次元ベクトルであり、その要素wh(h=1,…,M)は正の実数値である。ベクトルφはM次元ベクトルであり、その要素φh(h=1,…,M)は(21)式のように定義されるガウスカーネルである。
ここで、μhはガウスカーネルφhの中心位置を表す。カーネル中心μhは角度θの定義域内に配置すればよく、例えばM=9と定義した場合には、9degごとにμhを設定してもよい。
ここで、Rは観測輝度値の集合ベクトルであり、観測画素の総数がNである場合には以下の(23)式に示すような列ベクトルで表わされる。
ここで、Jjは観測データの画素jにおける輝度値の観測値である。
ここで、εは精度パラメータであり、以下の(25)式に示すような、第1および第2実施形態における推定輝度関数J(θj)と観測輝度値Jjとの二乗誤差平均を用いる。なお、(25)式においてΣはjについての総和を示す。
上記(24)式を重みwの尤度関数と考え、この共役事前分布を、以下の(26)式に示すような期待値m0、共分散S0を持つガウス分布であるとする。
このとき、事後分布である(22)式の右辺第二項は、以下の(27)(28)(29)式に示すような正規分布で表わすことができる。
mN=SN(S0 -1m0+1/ε2ΦTR) ・・・(28)
SN -1=S0 -1+1/ε2ΦTΦ ・・・(29)
ここで、Φは計画行列と呼ばれ、カーネルと観測データから以下の(30)式のように決定される。
σN 2(θ)=ε2+φ(θ)TSNφ(θ) ・・・(32)
なお、(32)式は予測輝度分布の分散であって、その平方根であるσN(θ)は予測輝度分布の標準偏差である。
以下、本発明に係る第4実施形態について説明する。上述した第1実施形態では、対象物体表面の輝度を上記(3)式や(9)式による輝度分布モデルで近似する例を示した。第4実施形態ではさらに、輝度分布モデルについてのパラメータ(輝度分布パラメータ)として複数のパラメータ候補を用意する。そして、各パラメータ候補に基づいて対象物体の認識用の辞書を作成し、実写による入力画像に対して該辞書を適用した認識結果を評価値として、最適なパラメータ候補を選択する例を示す。ここで輝度分布パラメータとは、(3)式におけるCとm、あるいは(9)式におけるKd,Ks,mである。
第4実施形態における辞書生成処理は、図15(a)のフローチャートに従う。なお、図15(a)においてモデル設定工程S1000、画像取得工程S1100では第1実施形態と同様に、対象物体のCADモデルと複数の事前取得画像が設定される。
なお、上述した第1〜第4実施形態においては、ランタイム時の入力画像を事前取得画像として用いてもよい。そうすることで、ランタイム時の環境変化に対して、動的に適切な学習画像を生成することが可能となる。
Claims (17)
- 入力画像から物体を検出する画像認識処理において参照される辞書の生成に用いられる、該物体の学習画像を生成する画像処理装置であって、
複数の前記物体の輝度画像と、前記物体の距離画像と、を入力する第1の入力手段と、
前記輝度画像に基づいて、前記距離画像に含まれている複数の第1の領域の面の向きに係る情報を取得する第1の取得手段と、
前記複数の第1の領域の面の向きに係る情報と、前記輝度画像において前記複数の第1の領域に対応する複数の第2の領域の輝度値と、の間の対応関係を表す観測データ分布を取得する第2の取得手段と、
前記取得した観測データ分布に基づいて、前記物体の学習画像を生成する生成手段と
を有することを特徴とする画像処理装置。 - 前記観測データ分布に基づいて、前記物体の表面における輝度分布を推定する推定手段を更に有し、
前記生成手段は、前記輝度分布に基づいて、前記物体の学習画像を生成することを特徴とする請求項1に記載の画像処理装置。 - 前記第1の入力手段は、前記複数の物体の輝度画像を複数入力することを特徴とする請求項1又は2に記載の画像処理装置。
- 前記推定手段は、前記観測データ分布と所定の輝度分布モデルとに基づいて、前記輝度分布を推定することを特徴とする請求項2に記載の画像処理装置。
- 前記推定手段は、
複数の輝度分布モデルを取得する手段と、
前記複数の輝度分布モデルに、前記観測データ分布を割り当てる割り当て手段と、
前記複数の輝度分布モデルを、該輝度分布モデルに割り当てられている観測データ分布に基づいて更新する更新手段と
を有することを特徴とする請求項4に記載の画像処理装置。 - 前記割り当て手段は、前記観測データ分布が示す面の向きに係る情報を入力して得られる輝度値が該観測データ分布が示す輝度値に最も近い前記輝度分布モデルに対して、該観測データ分布を割り当てることを特徴とする請求項5に記載の画像処理装置。
- 更に、
前記更新の前後における前記観測データ分布の割当先が一致するまで、前記割り当て手段及び前記更新手段に処理を繰り返し行わせる手段を有することを特徴とする請求項5に記載の画像処理装置。 - 前記生成手段は、前記物体の複数の姿勢に対応する射影変換を、前記物体のモデル情報に対して行い、該射影変換後の前記モデル情報によって示される前記物体の表面の向きに係る情報に、前記輝度分布に従う輝度値を与えて、前記姿勢ごとの前記学習画像を生成することを特徴とする請求項2に記載の画像処理装置。
- 前記モデル情報はCADデータであり、
前記学習画像がCG画像である
ことを特徴とする請求項8に記載の画像処理装置。 - 前記第1の入力手段は、検出対象となる物体が山積みされた状態を撮影して得られた、前記輝度画像及び前記距離画像を入力することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
- 前記生成手段は、前記物体の表面の向きに係る情報に応じた輝度値を前記輝度分布の分散から決定することを特徴とする請求項2に記載の画像処理装置。
- 更に、
前記輝度画像と前記物体のモデル情報から前記距離画像を生成する距離画像生成手段を有することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 - 前記距離画像は、前記物体の表面の位置を表すことを特徴とする請求項1乃至12の何れか1項に記載の画像処理装置。
- 更に、前記生成された学習画像に基づいて、前記物体を認識するための識別器を生成する手段を有することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
- 更に、前記物体を含む画像を取得する手段を有し、
前記識別器に基づいて、前記物体を含む画像から前記物体を認識することを特徴とする請求項14に記載の画像処理装置。 - 入力画像から物体を検出する画像認識処理において参照される辞書の生成に用いられる、該物体の学習画像を生成する画像処理装置が行う画像処理方法であって、
前記画像処理装置の第1の入力手段が、複数の前記物体の輝度画像と、前記物体の距離画像と、を入力する第1の入力工程と、
前記画像処理装置の第1の取得手段が、前記輝度画像に基づいて、前記距離画像に含まれている複数の第1の領域の面の向きに係る情報を取得する第1の取得工程と、
前記画像処理装置の第2の取得手段が、前記複数の第1の領域の面の向きに係る情報と、前記輝度画像において前記複数の第1の領域に対応する複数の第2の領域の輝度値と、の間の対応関係を表す観測データ分布を取得する第2の取得工程と、
前記画像処理装置の生成手段が、前記取得した観測データ分布に基づいて、前記物体の学習画像を生成する生成工程と
を有することを特徴とする画像処理方法。 - コンピュータ装置で実行されることにより、該コンピュータ装置を請求項1乃至15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017076805A JP6255125B2 (ja) | 2017-04-07 | 2017-04-07 | 画像処理装置、画像処理システム、および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017076805A JP6255125B2 (ja) | 2017-04-07 | 2017-04-07 | 画像処理装置、画像処理システム、および画像処理方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013074860A Division JP6126437B2 (ja) | 2013-03-29 | 2013-03-29 | 画像処理装置および画像処理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017120672A true JP2017120672A (ja) | 2017-07-06 |
JP2017120672A5 JP2017120672A5 (ja) | 2017-08-17 |
JP6255125B2 JP6255125B2 (ja) | 2017-12-27 |
Family
ID=59272288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017076805A Active JP6255125B2 (ja) | 2017-04-07 | 2017-04-07 | 画像処理装置、画像処理システム、および画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6255125B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019091436A (ja) * | 2017-10-18 | 2019-06-13 | ダッソー システムズDassault Systemes | 3d配置のタイプに応じた2d画像の分類 |
JP2019191973A (ja) * | 2018-04-26 | 2019-10-31 | 株式会社神戸製鋼所 | 学習画像生成装置及び学習画像生成方法、並びに画像認識装置及び画像認識方法 |
JP2019215240A (ja) * | 2018-06-12 | 2019-12-19 | シチズンファインデバイス株式会社 | 外観検査装置の教師画像生成方法 |
CN111968057A (zh) * | 2020-08-24 | 2020-11-20 | 浙江大华技术股份有限公司 | 图像降噪方法、装置、存储介质及电子装置 |
US10891508B2 (en) | 2017-09-26 | 2021-01-12 | Canon Kabushiki Kaisha | Image processing apparatus, method, and non-transitory computer-readable storage medium |
JPWO2019167277A1 (ja) * | 2018-03-02 | 2021-02-12 | 日本電気株式会社 | 画像収集装置、画像収集システム、画像収集方法、画像生成装置、画像生成システム、画像生成方法、およびプログラム |
WO2022097353A1 (ja) * | 2020-11-09 | 2022-05-12 | 東京ロボティクス株式会社 | データセット生成装置、方法、プログラム及びシステム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3759649B1 (en) * | 2018-04-06 | 2022-04-20 | Siemens Aktiengesellschaft | Object recognition from images using cad models as prior |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010267232A (ja) * | 2009-05-18 | 2010-11-25 | Canon Inc | 位置姿勢推定方法および装置 |
-
2017
- 2017-04-07 JP JP2017076805A patent/JP6255125B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010267232A (ja) * | 2009-05-18 | 2010-11-25 | Canon Inc | 位置姿勢推定方法および装置 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10891508B2 (en) | 2017-09-26 | 2021-01-12 | Canon Kabushiki Kaisha | Image processing apparatus, method, and non-transitory computer-readable storage medium |
JP2019091436A (ja) * | 2017-10-18 | 2019-06-13 | ダッソー システムズDassault Systemes | 3d配置のタイプに応じた2d画像の分類 |
JP7294788B2 (ja) | 2017-10-18 | 2023-06-20 | ダッソー システムズ | 3d配置のタイプに応じた2d画像の分類 |
JPWO2019167277A1 (ja) * | 2018-03-02 | 2021-02-12 | 日本電気株式会社 | 画像収集装置、画像収集システム、画像収集方法、画像生成装置、画像生成システム、画像生成方法、およびプログラム |
JP2019191973A (ja) * | 2018-04-26 | 2019-10-31 | 株式会社神戸製鋼所 | 学習画像生成装置及び学習画像生成方法、並びに画像認識装置及び画像認識方法 |
JP7017462B2 (ja) | 2018-04-26 | 2022-02-08 | 株式会社神戸製鋼所 | 学習画像生成装置及び学習画像生成方法、並びに画像認識装置及び画像認識方法 |
JP2019215240A (ja) * | 2018-06-12 | 2019-12-19 | シチズンファインデバイス株式会社 | 外観検査装置の教師画像生成方法 |
JP7186521B2 (ja) | 2018-06-12 | 2022-12-09 | シチズンファインデバイス株式会社 | 外観検査装置の教師画像生成装置 |
CN111968057A (zh) * | 2020-08-24 | 2020-11-20 | 浙江大华技术股份有限公司 | 图像降噪方法、装置、存储介质及电子装置 |
WO2022097353A1 (ja) * | 2020-11-09 | 2022-05-12 | 東京ロボティクス株式会社 | データセット生成装置、方法、プログラム及びシステム |
JP2022076296A (ja) * | 2020-11-09 | 2022-05-19 | 東京ロボティクス株式会社 | データセット生成装置、生成方法、プログラム、システム、機械学習装置、物体認識装置、及びピッキングシステム |
JP7446615B2 (ja) | 2020-11-09 | 2024-03-11 | 東京ロボティクス株式会社 | データセット生成装置、生成方法、プログラム、システム、機械学習装置、物体認識装置、及びピッキングシステム |
Also Published As
Publication number | Publication date |
---|---|
JP6255125B2 (ja) | 2017-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6126437B2 (ja) | 画像処理装置および画像処理方法 | |
JP6255125B2 (ja) | 画像処理装置、画像処理システム、および画像処理方法 | |
JP6074272B2 (ja) | 画像処理装置および画像処理方法 | |
US7321370B2 (en) | Method and apparatus for collating object | |
JP6983828B2 (ja) | ビジョンシステムにより画像特徴におけるエッジと法線を同時に考慮するためのシステム及び方法 | |
JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2016103230A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
WO2017143745A1 (zh) | 一种确定待测对象的运动信息的方法及装置 | |
US10726569B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
US10984610B2 (en) | Method for influencing virtual objects of augmented reality | |
US10623629B2 (en) | Imaging apparatus and imaging condition setting method and program | |
JP4379459B2 (ja) | 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体 | |
JP2018022247A (ja) | 情報処理装置およびその制御方法 | |
JP6237032B2 (ja) | 色と三次元形状の計測方法及び装置 | |
KR101865886B1 (ko) | 근적외선 영상을 이용한 물체 표현의 기하 구조 및 반사도 추정 방법, 그리고 이를 구현한 시스템 | |
JP6890422B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
US11436754B2 (en) | Position posture identification device, position posture identification method and position posture identification program | |
JP4623320B2 (ja) | 三次元形状推定システム及び画像生成システム | |
KR102567379B1 (ko) | 3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템 | |
JP2018194544A (ja) | 情報処理装置、情報処理方法、コンピュータプログラム | |
JP6796850B2 (ja) | 物体検出装置、物体検出方法および物体検出プログラム | |
CN116137062A (zh) | 生成训练数据的方法、系统以及存储介质 | |
JP2023172115A (ja) | 物体検知モデル学習装置、物体検知装置及び物体検知モデル学習方法 | |
Muttenthaler | Object recognition for robotic grasping applications | |
JP2017009413A (ja) | 3次元形状計測装置、3次元形状計測方法および3次元形状計測プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170613 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170613 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171201 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6255125 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |