JP6474179B2 - 学習データセット作製方法、並びに、物体認識及び位置姿勢推定方法 - Google Patents
学習データセット作製方法、並びに、物体認識及び位置姿勢推定方法 Download PDFInfo
- Publication number
- JP6474179B2 JP6474179B2 JP2018141910A JP2018141910A JP6474179B2 JP 6474179 B2 JP6474179 B2 JP 6474179B2 JP 2018141910 A JP2018141910 A JP 2018141910A JP 2018141910 A JP2018141910 A JP 2018141910A JP 6474179 B2 JP6474179 B2 JP 6474179B2
- Authority
- JP
- Japan
- Prior art keywords
- learning data
- data set
- marker
- recognition
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 239000003550 marker Substances 0.000 claims description 166
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 claims description 48
- 238000010801 machine learning Methods 0.000 claims description 22
- 238000003384 imaging method Methods 0.000 claims description 14
- 238000004519 manufacturing process Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 10
- 238000005520 cutting process Methods 0.000 claims description 5
- 230000036544 posture Effects 0.000 description 65
- 230000005484 gravity Effects 0.000 description 37
- 230000007246 mechanism Effects 0.000 description 16
- 238000013135 deep learning Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 235000013305 food Nutrition 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 8
- 230000000052 comparative effect Effects 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 210000003813 thumb Anatomy 0.000 description 6
- 230000032258 transport Effects 0.000 description 6
- 210000005224 forefinger Anatomy 0.000 description 5
- 238000013480 data collection Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 235000021058 soft food Nutrition 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Manipulator (AREA)
Description
ロボットによる作業の自動化は、あらゆる業界にニーズが存在するが、中でも、食品業界や物流業界は今後の成長が期待される分野であり、ロボットによる作業の自動化のニーズは高く存在する。
しかしながら、食品業界や物流業界において扱う製品は、柔軟なものが多く、取り扱いの際に複雑に形状が変化してしまうため、ロボットに備えられたロボットハンドでのハンドリングが難しいという問題がある。また、食品業界や物流業界において扱う商品は、多品種であることから、商品の認識を正確かつ迅速に行うことが難しいという問題もある。すなわち、多品種な商品を短時間で認識して、詰め合わせギフトや不良品の除去作業などのような仕分け作業を正確に行うことが求められるのである。
これらの事情から、食品業界や物流業界においては、未だにロボットによる工場の自動化が十分に進んでいないのが現実である。
しかしながら、特許文献1に開示された表示データ解析装置では、マーカの位置情報と姿勢情報を表示するのみであり、物体を囲むセグメント領域の情報を取得できていないため、機械学習に用いる学習データセットとしては活用できないという問題がある。
しかしながら、特許文献2に開示された推定装置では、複数の物体を用いる場合には、それぞれの位置や姿勢を推定できない場合があるという問題がある。
しかしながら、非特許文献1に開示されている学習画像の生成手法では、取得した画像を加工する必要があるところ、変形を加えるという加工により作製された学習データセットは、実際の環境で作製されたものとは異なるため、実環境での学習データセットが必要とされるという要求には適用が困難であり、また、実環境での学習データセットでは無いことから充分に学習の効果を発揮しないという問題がある。さらに、取得した画像に変形を加えるため、学習データセットの準備に時間がかかるという問題もある。
学習データセットの生成に用いる撮像画像自体には、加工は行われないため、学習済みモデルを利用する実際の環境で得られる撮像画像に近い撮像画像を用いて、機械学習を行うことができる。そのため、物体認識と位置・姿勢推定の精度を向上させることができる。
なお、対象物の物体情報とは、対象物の名称、サイズといった基本情報のことであり、学習データセットの生成に当たって、予めコンピュータにこれらの情報が記憶されている。
また、バウンディングボックスとは、画像等において、対象物が収まるように取り囲まれた表示領域であり、矩形などの領域をいう。取得した画像群に対して対象物のバウンディングボックスを設定する際は、バウンディングボックスが対象物全体を可能な限り確実に囲うようにするために、物体の位置情報として、物体の重心位置を取得して設定する。
マーカの撮像画像と、マーカと対象物との相対位置関係を用いて、対象物の姿勢を推定することにより、精度の高い姿勢推定が可能となる。
基準座標系は、例えば、予め学習データセット生成冶具に取り付けた位置姿勢検出用マーカを基準マーカとして利用して、基準としたい位置及び姿勢に配置することにより定義することができる。そのようにすることで、基準マーカの基準位置及び基準姿勢に関するデータをデータベースとして記憶し、学習データセット作製段階に、実空間の基準座標系を用いて、その基準座標系における位置と姿勢の差分を、位置と姿勢の情報として画像に紐づけることができる。
基準座標系を示す基準マーカが撮像画像内に無い場合であっても、撮像画像から基準座標系を認識することは可能である。例えば、カメラが単一で固定されている場合には、ズームする前の撮像画像内で基準マーカにより基準座標系が設定できていれば、ズームを行い見えなくなった場合でもズーム倍率がわかる限り、撮像画像外の基準マーカの位置と姿勢を計算することが可能である。
一方、複数台のカメラが固定されている場合には、それぞれのカメラ間の位置関係が予めわかっていれば、基準座標系を示す基準マーカが撮像画像内に無い場合であっても、撮像画像外の基準マーカの位置と姿勢を計算することが可能である。また、1台のカメラでしか見えない位置に基準マーカを配置した場合でも、見えているカメラと見えていないカメラで同時に撮像可能な場所に、仮の基準マーカを配置した状態で撮像した映像を用いて、基準座標系を算出することが可能である。さらに、カメラが動的に動く場合についても、最初に基準座標系を撮影したときのカメラの位置と移動先のカメラとの間の位置関係が分かってさえいれば、計算により基準座標系を算出できる。
また、本発明の学習データセット作製方法における位置情報が重心位置情報である場合、重心位置情報は、ベース部をガイドとして配置された対象物の重心位置と、基準座標系における基準姿勢の重心位置との差分情報である。
ここで、基準座標系の替わりに、カメラ座標系を用いて、対象物の姿勢情報及び位置情報を表すことも可能である。例えば、1台の固定カメラで撮像する場合、そのカメラのカメラ座標系での3次元座標で、対象物の姿勢情報と位置情報を表す。そして、カメラ座標系の3次元座標から、実空間の3次元座標に変換し、ロボットに実空間の3次元座標を伝達することにより、ロボットが物体を正確に捉えさせることができる。
ベース部が、対象物を載せる台座部とされることで、学習データセット生成治具に対象物が配置された際に、対象物が、支柱の上方に設けられたマーカを安定させる重石としての役割を果たすことにもなる。
ここで、搬送手段とは、搬送路をレーンとして対象物を搬送するものであり、具体的には、対象物を学習データセット生成治具に配置した状態で、搬送ベルトで搬送するベルトコンベアが好適に用いられる。また、回転手段として、例えば、対象物を学習データセット生成治具に配置した状態で、水平面で回動可能な回転機構が用いられる。また、移動手段として、例えば、対象物を学習データセット生成治具に配置した状態で、学習データセット生成治具が水平の直線レール上の移動可能な直動機構が用いられる。さらには、回転機構と直動機構を組合せ、回転しながら移動できる回転移動機構も使用することができる。これらの回転機構、直動機構や回転移動機構を、ベルトコンベアに載せて、カメラ1台で多視点画像群を取得することができる。
なお、検出した物体全体を取り囲む認識用バウンディングボックスの位置は、取り囲んだバウンディングボックスの重心位置でもよい。また、検出した物体に関する実空間の3次元座標における位置は、物体の重心位置でもよい。
これにより、検出された各物体に関して、推定した実空間の3次元座標における姿勢及び位置を、工場の自動化システムのロボットに対して伝達できる。また、検出された各物体に関して、実空間の3次元座標における姿勢及び重心位置を推定し算出することにより、ロボットが正確に物体を捉えることができる。
学習データセットの作製環境と同一又は近似した環境下で撮像された撮像画像が用いられることにより、物体認識と位置姿勢の推定精度を向上させることができる。
a)多視点画像群に対して対象物のバウンディングボックスを設定するステップ、
b)撮像画像から推定した対象物の姿勢情報と位置情報、物体情報及びバウンディングボックスに関する情報を、撮像画像に関連付けして、学習データセットを生成するステップ。
c)新たに撮像された撮像画像から、画像認識によって物体の名称を検出して認識用バウンディングボックスを作成するステップ、
d)認識用バウンディングボックスを切り出した部分画像を生成し、生成した部分画像に基づき学習済みモデルを用いて、検出した物体の姿勢を推定するステップ、
e)認識用バウンディングボックスの位置、幅及び高さを取得し、学習済みモデルを用いて、検出した物体に関して実空間の3次元座標における位置を推定するステップ。
なお、検出した物体全体を取り囲む認識用バウンディングボックスの位置は、取り囲んだバウンディングボックスの重心位置でもよい。また、検出した物体に関する実空間の3次元座標における位置は、物体の重心位置でもよい。
1)対象物の配置位置のガイドとなるベース部と、該ベース部の上方に固定され、対象物の物体情報が関連付けされる位置姿勢検出用マーカとから構成される学習データセット生成治具、
2)学習データセット生成治具のベース部をガイドとして対象物を配置した状態で、マーカを含む物体全体の多視点画像群を取得する撮像手段、
3)取得した画像群に対して対象物のバウンディングボックスを設定する手段、
4)撮像画像から推定した対象物の姿勢情報と位置情報、物体情報及びバウンディングボックスに関する情報を、撮像画像に関連付けして、対象物の物体認識及び位置姿勢推定を行うための学習データセットを生成する手段。
本発明の学習データセット作製方法により作製した学習データセットを用いて機械学習を行った産業用ロボット、本発明の物体認識及び位置姿勢推定方法を用いた産業用ロボット、そして、本発明の物体認識及び位置姿勢推定プログラムが搭載された産業用ロボットは、食品業界や物流業界における仕分け作業や加工作業などの工場の自動化システムに利用できる。
なお、上記ステップS06のバウンディングボックスの設定において、可能な限り対象物全体を取り囲めればよく、多少、対象物を囲めていない場合であっても、学習データセットとして使用することができる。仮に対象物が他の物体で隠れていた場合であっても、隠れずに見えている範囲で囲めていれば構わない。
そして、物体認識及び位置姿勢推定段階では、まず撮像画像を取得し(ステップS10)、画像認識により撮像画像中の物体を検出して認識用バウンディングボックスを設定する(ステップS11)。なお、物体の名称は、物体を検出し、物体を認識した時点で取得できる。物体の認識用バウンディングボックスを切り出した部分画像を用いて、予め定義された基準座標系(実空間の3次元座標)における姿勢及び重心位置を推定する(ステップS12)。
基準座標系は、予め学習データセット生成冶具に取り付けた位置姿勢検出用マーカを、基準としたい位置姿勢に配置することにより定義する。
生成された学習済みモデルは、物体認識及び位置姿勢推定装置11において利用される。物体認識及び位置姿勢推定装置11では、撮像手段21により、物体が撮影される。得られた撮像画像は、コンピュータ41が物体認識手段41aとして動作することにより、画像中に含まれる物体が検出され、物体名称などの物体情報が取得される。検出された物体は、コンピュータ41が認識用バウンディングボックス設定手段41bとして動作することにより、認識用バウンディングボックスが設定される。認識用バウンディングボックスが設定されると、かかる認識用バウンディングボックス毎に、コンピュータ41が学習済みモデル41cとして動作することにより、姿勢及び重心位置が推定される。
なお、撮像手段20と撮像手段21、コンピュータ40とコンピュータ41、又は、データベース80の記憶手段とデータベース81の記憶手段は、いずれも、同一の機器を用いた構成であってもよい。
図3は、学習データセット作製の際のシステム構成図を示している。図3に示すように、学習データセット作製の際は、1台のカメラ2、学習データセット生成治具である台座14、基準マーカ33、台座14とその上の対象物5の位置を動かすベルトコンベア12及びコンピュータ4から成る。
学習データセット生成治具である台座14は、ARマーカ3、支柱18及び台座部17から成り、ARマーカ3と台座部17は、支柱18を介して接続されている。台座部17上には、認識対象となる対象物5が配置されている。対象物5の撮影は上方に設けられたカメラ2によって行う。撮影時にARマーカ3が対象物5に隠れることを防止するため、ARマーカ3は対象物5よりも高い位置に設けられている。
基準マーカ33は、ベルトコンベア12の外側に配置され固定された位置に置かれる。基準マーカ33は、学習データセット生成治具である台座14をそのまま利用可能であり、台座14のARマーカ3が、基準マーカ33として用いることができる。基準マーカ33を、基準としたい位置及び姿勢に配置することにより、基準座標系を定義する。
コンピュータ4には、データベース8が設けられており、カメラ2において撮像した画像群、ARマーカ3、対象物5に関する位置姿勢の情報が保存される。
ARマーカ3が支柱18に取り付けられると、台座部17とARマーカ3の相対的位置及び姿勢が固定されることになる。また、対象物5を、一定の基準を設定した後に、台座部17上に配置すると、対象物5と台座部17の相対的位置及び姿勢が固定されることになる。これにより、対象物5を台座部17上に配置するだけで、容易にARマーカ3と対象物5の間の相対的位置及び姿勢を固定することができる。
また、ARマーカ3と台座部17と対象物5の間の相対的な位置姿勢関係から、基準座標系における対象物5の姿勢を推定する。また、ARマーカ3と台座部17と対象物5の間の相対的位置の関係と、対象物5および台座部17のサイズから、基準座標系における対象物5の重心位置を推定する。
データベース8に予め登録されている対象物の大きさに関するデータを用いて、上記の推定された位置や姿勢のデータに基づいて、対象物5を囲むバウンディングボックスを設定する。
対象物5aは、台座14aの台座部17a上に配置されている。同様に、対象物5bは、台座14bの台座部17b上に、対象物5cは、台座14cの台座部17c上にそれぞれ配置されている。対象物5aは紙製容器入り食品であり、容器を立てた状態で配置しているが、寝かせた状態で配置してもよい。なお、対象物5bはビニール袋に入った軟質の食品であり、対象物5cは筒状容器入り食品である。ここでは、対象物としては食品を用いているが、食品以外の対象物でもよい。
矢印19dは、ベルトコンベア12が流れる方向を示したものであり、画像7aは、ベルトコンベア12が矢印19dの方向に流れる中で撮影したものである。なお、画像7aでは、上記以外の物体等は表示されていないが、背景に別の装置等の物体が配置され、映り込んでいても構わない。
ここで、対象物(5a〜5c)の撮影は、ベルトコンベア12上を一度流される際に、複数回行われる。
なお、図7(1)〜(3)に示すように、対象物15と共にARマーカ3も、対象物15との相対的位置及び姿勢が固定された状態で移動するため、ARマーカ3の位置や姿勢も変化することとなる。
ARマーカ(3a〜3c)に定義された位置姿勢情報に基づいて、対象物(5a〜5c)の位置姿勢情報を推定する。
図8に示すように、対象物5bを長方形として認識し、例えば、下記数1をように、矩形(四角形)の幅(x´)と高さ(y´)にそれぞれマージンとなるオフセットを加算して、バウンディングボックスの幅と高さを決定し、バウンディングボックスを設定する。ここで、hは 物体の高さ、φは 鉛直方向に対するカメラの設置角度である。
このように、バウンディングボックス(6a〜6c)が挿入された画像7aのような画像が集積することで、学習データセットが作製される。
学習データセットが生成された後、学習データセットを具体的なロボット制御に利用する場合には、先立って学習データセットを使用した深層学習などの機械学習が必要となる。そこで、コンピュータ4は、データベース8に保存された学習データセットを用いて、推定を行う対象物について、深層学習を行い、学習済みモデルを取得する。
図9は、学習済みモデル生成のフロー図を示している。図9に示すように、まず学習データセットを入力する(ステップS21)。入力された学習データセットを基に、深層学習を行う(ステップS22)。本実施例では、Google(登録商標)が開発しオープンソースとして公開した人工知能のソフトウェアライブラリであるTensorFlow(登録商標)を使用して深層学習を行う。深層学習により得られた学習済みモデルを出力する(ステップS23)。
図10は、物体認識及び位置姿勢推定時のロボット制御システムのシステム構成図を示している。図10に示すように、物体認識及び位置姿勢推定時においては、ロボット制御システム1は、カメラ2、コンピュータ4及びロボット13から成る。
ベルトコンベア12上には、認識対象となる対象物5が配置されている。コンピュータ4には、データベース8が設けられており、カメラ2において撮影した画像等が保存される。ロボット13には、ロボットアーム13aが設けられており、ロボットアーム13aによって、対象物を把持できる構造となっている。
学習済みモデルの利用に先立って、学習データセットを用いた深層学習が行われたことにより、対象物を認識し、位置及び姿勢を推定することが可能となっている。
コンベアベルト120aの上に、学習データセット生成治具の台座14を載せ、台座部17をガイドとして対象物5を配置した状態で、コンベアベルト120aを水平(矢印19fに示す方向)に移動させ、ARマーカ3を含む物体5全体の多視点画像群を効率よく取得することができる。
さらに、図13に示すように、回転機構120bと直動機構120cを組合せた装置に、学習データセット生成治具の台座14を取付け、当該装置をコンベアベルト120aの上に載せて、コンベアベルト120aを水平に移動させることにより、更に効率よく多視点画像群を取得することができる。すなわち、コンベア120aが矢印19fに示す方向に移動しながら、回転機構120bが矢印19gに示す方向に水平に回転し、さらに、直動機構120cが矢印19hに示す方向に水平に移動することで、マーカを含む物体全体の多視点画像群を効率よく取得するのである。これにより、対象物5及び台座14をコンベアベルト120a上に一度流すだけで、あらゆる角度から撮像することが可能であり、短時間で、効率的に学習データセットを作製することができる。
なお、矢印19fに示す移動方向や矢印19gに示す回転方向は、逆方向であってもよく、更には、正方向と逆方向に交互に動くものであってもよい。また、矢印19hに示す移動方向は往復移動であるが、片方向のみに移動するものでもよい。
上記1)のステップでは、取得した画像に含まれるARマーカを画像解析により検出し(ステップS102)、ARマーカに関連付けされた物体情報を取得し(ステップS103)、ARマーカの姿勢情報に基づいて、対象物の姿勢を推定し(ステップS104)、対象物の重心位置を算出し(ステップS105)、対象物を取り囲むバウンディングボックスを設定する(ステップS106)。
上記2)のステップでは、物体情報、姿勢、重心位置及び設定したバウンディングボックス情報(画像中の位置、幅、高さ)を画像に関連付けし(ステップS107)、画像内に未だ処理していないARマーカが存在する場合には、未処理のARマーカを同様に処理し、画像内の全てのARマーカが処理済みの場合(ステップS108)には、対象物の物体情報、姿勢・重心位置情報及びバウンディングボックス情報が紐付いた1枚の画像を出力し(ステップS109)、全ての撮像画像につき処理を行い、学習データセットを作製する(ステップS110)。
上記a)のステップでは、画像認識により、物体を検出し、画像座標系における位置を検出し(ステップS302)、物体情報(名称など)を取得して、認識用バウンディングボックスを設定する(ステップS303)。
上記b)のステップでは、設定された認識用バウンディングボックスの内、いずれか1つを選択し(ステップS304)、撮像画像から、認識用バウンディングボックス内を切り抜き(ステップS305)、深層学習など機械学習によって得られた学習済みモデルの分類器を用いて、物体の姿勢を推定する(ステップS306)。
上記c)のステップでは、認識用バウンディングボックスの幅、高さを取得し(ステップS307)、学習済みモデルの回帰器により、実空間の3次元座標における物体の重心位置を推定する(ステップS308)。
そこで、例えば、親指及び人差し指の指先と手の第一指間部の3ヶ所に装着し、学習データセット生成治具に配置しているARマーカと、人が把持する場合の親指及び人差し指の指先と手の第一指間部に装着するARマーカとの相対的な位置姿勢の関係を予め計測する。なお、人の手に取り付けるマーカの位置と数は任意に決定することができる。
そして、対象物の重心位置は、例えば、3ヶ所に装着したARマーカの位置情報を円周上にあると仮定し、近似したときの円の中心位置を、把持する重心位置とし、データベースに、学習データセット生成治具のARマーカと、基本座標系における対象物の重心位置との相対位置関係として登録する。
また、基準座標系における対象物の姿勢もデータベースに登録はする。これはロボットを使用して実際に把持を行う際に活用する。
学習データセット生成治具14のARマーカ3と、親指及び人差し指の指先と手の第一指間部に装着するARマーカ(35a〜35c)との相対的な位置姿勢の計測方法としては、把持位置、すなわち、把持位置計測用マーカ(35a〜35c)の位置が固定された状態で、1台のカメラで対象物の把持の姿勢を複数回撮像もしくは複数台のカメラで同時に撮像する。その際、撮像を行うカメラ位置姿勢は、学習データセット生成治具14のARマーカ3との相対位置姿勢のみ使用するため、任意のカメラ位置姿勢で構わない。
すなわち、人間もしくはロボットハンドを使用することで、学習データセット生成治具のARマーカに対する相対位置の設定と、ロボットによる把持の際に使用する情報をデータベースに登録することができる。
まず、撮像画像を得るためのカメラとしては、RGBカメラ(ポイントグレイリサーチ株式会社製:Flea3 FL3-U3-88S2C)を使用し、工場環境を再現するために、オークラ輸送機株式会社(登録商標)製のコンベアベルトを使用した。
画像処理ライブラリは、OpenCV 3.2.0を使用した。また、物体認識モデルのニューラルネットワークは、Tensor Flow(登録商標)(tensorflow-gpu 1.3.0)上で動作するKeras 1.2.2を使用した。回帰モデルは、位置を推定するためにscikit-learn 0.19.0を使用した。
実験に用いた対象物は、背の高い物体としてボトルA及びボトルBを選択し、変形可能な物体としてパウチA及びパウチBを選択し、背の低い物体として缶A及び缶Bを選択した。なお、ボトルA及びボトルBとは、ペットボトルのことである。
実験に使用したARマーカは、一辺が40mmの正方形のARマーカであり、対象物とARマーカが重なることを防ぐべく、台座部から高さ200mmの位置に設けた。ARマーカの検出には、ArUcoと呼ばれるARライブラリを用いて行った。
比較実験における撮影方法の説明図を図15に示す。図に示すように、撮影の際は、データの偏りが起こらないように、3×7のマトリックスのポイント38を画像71中に設定し、それぞれのポイント毎に配置して、撮影を行った。縦横のポイント同士の間隔はいずれも100mmである。
撮影は2人で行い、いずれの場合も、1人が物体の姿勢を変化させ、もう1人がカメラで撮影した。モデルをトレーニングするために400画像、モデルの検証に100画像、テストに100画像を使用した。
人手によるアノテーションは2人で行った。具体的には、グラフィカルにアノテーション可能なツールである“LabelImg”を使用した。各対象物の周囲にバウンディングボックスを作成し、そのオブジェクト名を同時に入力を行った。また、全ての対象物の位置を手動で割り当てた。
ここで、アノテーションとは、撮像画像に対するバウンディングボックスの設定だけではなく、物体情報の関連付けも含めたものを意味する用語である。
以上より、ARマーカによる学習データセットの生成は、人手による学習データセットの生成と比較して、88.4%の効率化に成功したといえる。また、アノテーション時間についても、ARマーカによる場合では、人手による場合に比べて5%未満に時間が短縮されている。
下記表3は、ARマーカによる場合についての物体認識精度に関する測定結果を表し、下記表4は、人手による場合についての物体認識精度に関する測定結果を表している。対象物であるボトルA、ボトルB、パウチA、パウチB、缶A及び缶Bにつき、“F値”、“Precision”及び“Recall”を測定した。
ここで、“Recall”は、再現率であり、実際に正であるもののうち、正であると予測されたものの割合を意味し、見つけなければいけないものをどれだけ見つけたかを数値化したものである。“Recall”は、最小値が0%であり100%あるいは100%に近いほど優れている。また、“Precision”は、判定したものの正確さを表す指標であり、TP/(TP+FP)から算術する(TP:True Positive,FP:False Positive)。“Precision”も“Recall”と同じく、最小値が0%であり100%に近いほど優れている。また、“F値”は、機械学習における予測結果の評価尺度の一つであり、精度と再現率の調和平均を示している。具体的には、F値は、Recallの値を“A”、Precisionの値を“B”とすると、2×B×A/(A+B)から算術する。F値も、最小値が0%であり100%に近いほど優れている。
図16は、位置推定に関する比較実験結果を表すグラフであり、ARマーカによる場合及び人手による場合についての位置推定誤差を表すグラフである。なお、図16では、ボトルA、ボトルB、パウチA、パウチB、缶A及び缶Bにつき比較しており、グラフの数値は小数第二位を四捨五入して説明する。
したがって、いずれの対象物についても、人手による場合の方がARマーカによる場合よりも誤差は小さかったが、ボトルA及びボトルBについては、ARマーカによる場合でも人手による場合と殆ど変わらない誤差であることが判った。
以上より、ARマーカを用いた場合は、88.4%のデータ収集時間の効率化が図られ、物体認識においては、十分な性能が得られることが判った。また、位置推定についても物体の形状によっては、十分な性能が得られることが判った。
2 カメラ
3,3a〜3c ARマーカ
4,40,41 コンピュータ
5,5a〜5c,15,50 対象物
6a〜6c バウンディングボックス
7a〜7f,70,71 画像
8,80,81 データベース
9 モデル生成コンピュータ
9a 分類器
9b 回帰器
10 学習データセット生成手段
11 物体認識及び位置姿勢推定手段
12 ベルトコンベア
13 ロボット
13a ロボットアーム
14,14a〜14c 学習データセット生成治具(台座)
15a〜15d 面
16a〜16c 認識用バウンディングボックス
17,17a〜17c 台座部
18 支柱
19a〜19h 矢印
20,21 撮像手段
30 学習データセット生成治具
33 基準マーカ(ARマーカ)
34 人の手
35a〜35c 把持位置計測用マーカ(ARマーカ)
36 ペットボトル
38 ポイント
40a ARマーカ認識手段
40b 対象物認識手段
40c バウンディングボックス設定手段
40d 対象物の姿勢推定手段
40e 重心位置推定手段
40f バウンディングボックス割付手段
41a 物体認識手段
41b 認識用バウンディングボックス設定手段
41c 学習済みモデル
120 コンベア
120a コンベアベルト
120b 回転機構
120c 直動機構
Claims (19)
- 位置姿勢検出用マーカに対象物の物体情報を関連付けし、
対象物の配置位置のガイドとなるベース部と、該ベース部の上方に固定された前記マーカとから構成される学習データセット生成治具を用いて、前記ベース部をガイドとして対象物を配置した状態で、前記マーカを含む物体全体の多視点画像群を取得し、
取得した画像群に対して対象物のバウンディングボックスを設定し、
撮像画像から推定した対象物の姿勢情報と位置情報、前記物体情報及び前記バウンディングボックスに関する情報を、前記撮像画像に関連付けして、対象物の物体認識及び位置姿勢推定を行うための学習データセットを生成することを特徴とする学習データセット作製方法。 - 前記位置情報は、前記ベース部をガイドとして配置された対象物の位置と、予め定義した基準座標系における基準姿勢の位置との差分情報であることを特徴とする請求項1に記載の学習データセット作製方法。
- 前記姿勢情報は、前記マーカの撮像画像と、前記マーカと対象物との相対位置関係を用いて算出した情報であり、前記ベース部をガイドとして配置された対象物の姿勢と、予め定義した基準座標系における基準姿勢との差分情報であることを特徴とする請求項1又は2に記載の学習データセット作製方法。
- 前記学習データセット生成治具において、前記ベース部は対象物を載せる台座部であり、
前記マーカは、該台座部に上に固着された支柱の上方に脱着自在に固定されたことを特徴とする請求項1〜3の何れかに記載の学習データセット作製方法。 - 前記マーカは、ARマーカを含む2次元パターンマーカ、又は、3次元マーカであることを特徴とする請求項1〜4の何れかに記載の学習データセット作製方法。
- 前記多視点画像群は、対象物を前記学習データセット生成治具に配置して搬送手段により搬送しながら撮像、対象物を前記学習データセット生成治具に配置して回転手段により回転させながら撮像、及び、対象物を前記学習データセット生成治具に配置して移動手段により移動させながら撮像の少なくとも何れかにより取得されたことを特徴とする請求項1〜5の何れかに記載の学習データセット作製方法。
- 請求項1〜6の何れかの作製方法により作製した前記学習データセット。
- 請求項1〜6の何れかの作製方法に用いる前記学習データセット生成治具。
- 請求項7の学習データセットを用いて機械学習を行い、学習済みモデルを取得し、
新たに撮像された撮像画像から、画像認識によって物体の名称を検出して認識用バウンディングボックスを作成し、
前記認識用バウンディングボックスを切り出した部分画像を生成し、前記学習済みモデルを用いて、生成した部分画像に基づき検出した物体の姿勢を推定し、
前記認識用バウンディングボックスの位置、幅及び高さを取得し、前記学習済みモデルを用いて、検出した物体に関する実空間の3次元座標における位置を推定することを特徴とする物体認識及び位置姿勢推定方法。 - 前記学習済みモデルは、物体の姿勢もしくは位置を推定するための分類器又は回帰器の少なくとも何れかが含まれることを特徴とする請求項9に記載の物体認識及び位置姿勢推定方法。
- 前記撮像画像は、複数の物体が撮像された画像であり、
検出した各物体に対して、各々認識用バウンディングボックスを作成し、
検出した全ての物体の名称、並びに、推定した姿勢及び位置を実空間の3次元座標として算出することを特徴とする請求項9又は10に記載の物体認識及び位置姿勢推定方法。 - 前記撮像画像は、前記学習データセットの作製環境と同一又は近似した環境下で撮像された画像であることを特徴とする請求項9〜11の何れかに記載の物体認識及び位置姿勢推定方法。
- 請求項1〜6の何れかの学習データセット作製方法の一部の処理をコンピュータに実行させるためのプログラムであって、
前記多視点画像群に対して対象物の前記バウンディングボックスを設定するステップ、
前記撮像画像から推定した対象物の姿勢情報と位置情報、前記物体情報及び前記バウンディングボックスに関する情報を、前記撮像画像に関連付けして、前記学習データセットを生成するステップ、
をコンピュータに実行させるための学習データセット作製プログラム。 - 請求項9〜12の何れかの物体認識及び位置姿勢推定方法の一部の処理をコンピュータに実行させるためのプログラムであって、
新たに撮像された撮像画像から、画像認識によって物体の名称を検出して認識用バウンディングボックスを作成するステップ、
前記認識用バウンディングボックスを切り出した部分画像を生成し、生成した部分画像に基づき前記学習済みモデルを用いて、検出した物体の姿勢を推定するステップ、
前記認識用バウンディングボックスの位置、幅及び高さを取得し、前記学習済みモデルを用いて、検出した物体に関して実空間の3次元座標における位置を推定するステップ、
をコンピュータに実行させるための物体認識及び位置姿勢推定プログラム。 - 対象物の配置位置のガイドとなるベース部と、該ベース部の上方に固定され、対象物の物体情報が関連付けされる位置姿勢検出用マーカとから構成される学習データセット生成治具、
前記ベース部をガイドとして対象物を配置した状態で、前記マーカを含む物体全体の多視点画像群を取得する撮像手段、
取得した画像群に対して対象物のバウンディングボックスを設定する手段、
撮像画像から推定した対象物の姿勢情報と位置情報、前記物体情報及び前記バウンディングボックスに関する情報を、前記撮像画像に関連付けして、対象物の物体認識及び位置姿勢推定を行うための学習データセットを生成する手段、
を備えたことを特徴とする学習データセット作製装置。 - 前記学習データセット生成治具において、前記ベース部は対象物を載せる台座部であり、
前記マーカは、該台座部に上に固着された支柱の上方に脱着自在に固定されたことを特徴とする請求項15に記載の学習データセット作製装置。 - 請求項1〜6の何れかの作製方法により作製した前記学習データセットを用いて機械学習を行った産業用ロボットによる工場の自動化システム。
- 請求項9〜12の何れかの物体認識及び位置姿勢推定方法を用いた産業用ロボットによる工場の自動化システム。
- 請求項14に記載の物体認識及び位置姿勢推定プログラムが搭載された産業用ロボットによる工場の自動化システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017147305 | 2017-07-30 | ||
JP2017147305 | 2017-07-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019029021A JP2019029021A (ja) | 2019-02-21 |
JP6474179B2 true JP6474179B2 (ja) | 2019-02-27 |
Family
ID=65478514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018141910A Active JP6474179B2 (ja) | 2017-07-30 | 2018-07-27 | 学習データセット作製方法、並びに、物体認識及び位置姿勢推定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6474179B2 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7384898B2 (ja) * | 2019-03-13 | 2023-11-21 | 日本電気株式会社 | 情報処理装置、駆動制御方法およびコンピュータプログラム |
JP7301467B2 (ja) * | 2019-04-12 | 2023-07-03 | 三菱電機株式会社 | 画像判読支援システムおよび画像判読支援プログラム |
KR102128399B1 (ko) * | 2019-06-04 | 2020-06-30 | (주)자이언트스텝 | Ai 기반의 얼굴 애니메이션 구현을 위한 학습데이터 생성 방법, ai 기반의 얼굴 애니메이션 구현 방법 및 컴퓨터 판독 가능한 저장매체 |
KR102111499B1 (ko) * | 2019-09-19 | 2020-05-18 | (주)자이언트스텝 | 얼굴 애니메이션을 위한 얼굴 형태 변화 전사 방법 및 컴퓨터 판독 가능한 저장매체 |
JP7395913B2 (ja) * | 2019-09-30 | 2023-12-12 | 株式会社アイシン | 物体検知装置 |
JP7443014B2 (ja) * | 2019-10-08 | 2024-03-05 | 大豊精機株式会社 | ロボットアーム試験装置 |
JP7524548B2 (ja) | 2020-02-06 | 2024-07-30 | 日本電気株式会社 | 画像処理装置、検出方法、及びプログラム |
CN115298626A (zh) * | 2020-03-24 | 2022-11-04 | 索尼集团公司 | 作业管理装置和作业状态判定方法 |
EP4130904A1 (en) * | 2020-03-25 | 2023-02-08 | Sony Group Corporation | Information processing device, program, and method |
JP7370922B2 (ja) * | 2020-04-07 | 2023-10-30 | 株式会社東芝 | 学習方法、プログラム及び画像処理装置 |
JP7508350B2 (ja) | 2020-12-04 | 2024-07-01 | 株式会社日立製作所 | キャリブレーション装置およびキャリブレーション方法 |
WO2022131390A1 (ko) * | 2020-12-15 | 2022-06-23 | 한국전자기술연구원 | 다중 시점 이미지를 사용한 자가지도 학습 기반 3차원 사람 자세 추정 방법 |
WO2022259362A1 (en) * | 2021-06-08 | 2022-12-15 | Nec Corporation | Training data generation apparatus, training data generation system, training data generation method, and program |
KR102657338B1 (ko) * | 2021-10-12 | 2024-04-12 | 네이버랩스 주식회사 | 학습 데이터 수집 시스템 및 방법 |
CN114347028B (zh) * | 2022-01-10 | 2023-12-22 | 武汉科技大学 | 一种基于rgb-d图像的机器人末端智能抓取方法 |
WO2023199623A1 (ja) * | 2022-04-13 | 2023-10-19 | ソニーグループ株式会社 | 情報処理装置、及び情報処理方法 |
JP2024020924A (ja) | 2022-08-02 | 2024-02-15 | 富士通株式会社 | 特定プログラム、特定方法および情報処理装置 |
JP2024091182A (ja) | 2022-12-23 | 2024-07-04 | 富士通株式会社 | アラート生成プログラム、アラート生成方法および情報処理装置 |
JP2024091181A (ja) | 2022-12-23 | 2024-07-04 | 富士通株式会社 | 情報処理プログラム、情報処理方法および情報処理装置 |
JP2024091179A (ja) | 2022-12-23 | 2024-07-04 | 富士通株式会社 | アラート生成プログラム、アラート生成方法および情報処理装置 |
JP2024091177A (ja) | 2022-12-23 | 2024-07-04 | 富士通株式会社 | 特定プログラム、特定方法および情報処理装置 |
JP2024091105A (ja) | 2022-12-23 | 2024-07-04 | 富士通株式会社 | 情報処理プログラム、情報処理方法、および情報処理装置 |
JP2024091180A (ja) | 2022-12-23 | 2024-07-04 | 富士通株式会社 | データ生成プログラム、データ生成方法および情報処理装置 |
JP2024091178A (ja) | 2022-12-23 | 2024-07-04 | 富士通株式会社 | アラート生成プログラム、アラート生成方法および情報処理装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010123007A (ja) * | 2008-11-21 | 2010-06-03 | Casio Computer Co Ltd | 画像処理装置 |
JP5812599B2 (ja) * | 2010-02-25 | 2015-11-17 | キヤノン株式会社 | 情報処理方法及びその装置 |
JP2015182212A (ja) * | 2014-03-26 | 2015-10-22 | セイコーエプソン株式会社 | ロボットシステム、ロボット、制御装置、及び制御方法 |
-
2018
- 2018-07-27 JP JP2018141910A patent/JP6474179B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019029021A (ja) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6474179B2 (ja) | 学習データセット作製方法、並びに、物体認識及び位置姿勢推定方法 | |
JP7083189B2 (ja) | 学習データセット作製方法及び装置 | |
JP7105766B2 (ja) | 仕分け支援方法、仕分けシステム、および平台機械工具 | |
CN108109174B (zh) | 一种用于散乱零件随机分拣的机器人单目引导方法和系统 | |
JP6822718B1 (ja) | 自動パッケージ登録メカニズムを備えたロボットシステム、および、その動作方法 | |
JP6993061B2 (ja) | 仕分け支援方法および平台機械工具 | |
JP5458885B2 (ja) | 物体検出方法と物体検出装置およびロボットシステム | |
JP4004899B2 (ja) | 物品の位置姿勢検出装置及び物品取出し装置 | |
CN111226237A (zh) | 用于稳健抓取和瞄准物体的机器人系统和方法 | |
JP2019111640A (ja) | 物品搬送装置、ロボットシステムおよび物品搬送方法 | |
US20040172164A1 (en) | Method and apparatus for single image 3D vision guided robotics | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
CN110560373B (zh) | 一种多机器人协作分拣运输方法及系统 | |
CN112561886A (zh) | 一种基于机器视觉的工件自动分拣方法及系统 | |
US20220016764A1 (en) | Object grasping system | |
Malik et al. | Advances in machine vision for flexible feeding of assembly parts | |
JP5544464B2 (ja) | 対象物の3次元位置・姿勢認識装置及びその方法 | |
US20210034043A1 (en) | Industrial manufacturing plant and method for an automated booking of manual activities | |
JP5476943B2 (ja) | 姿勢認識方法およびこの方法を用いた3次元視覚センサ | |
JP5083715B2 (ja) | 三次元位置姿勢計測方法および装置 | |
CN110914021A (zh) | 带有用于执行至少一个工作步骤的操纵设备的操纵装置以及方法和计算机程序 | |
CN113597362B (zh) | 用于确定机器人坐标系与可移动装置坐标系之间的关系的方法和控制装置 | |
Fröhlig et al. | Three-dimensional pose estimation of deformable linear object tips based on a low-cost, two-dimensional sensor setup and AI-based evaluation | |
TW202303183A (zh) | 適應性移動操作設備及方法 | |
Phyu et al. | Verification of unique cloth handling performance based on 3D recognition accuracy of cloth by dual-eyes cameras with photo-model-based matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6474179 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |