JP2020077231A - 位置検出プログラム、位置検出方法及び位置検出装置 - Google Patents

位置検出プログラム、位置検出方法及び位置検出装置 Download PDF

Info

Publication number
JP2020077231A
JP2020077231A JP2018210460A JP2018210460A JP2020077231A JP 2020077231 A JP2020077231 A JP 2020077231A JP 2018210460 A JP2018210460 A JP 2018210460A JP 2018210460 A JP2018210460 A JP 2018210460A JP 2020077231 A JP2020077231 A JP 2020077231A
Authority
JP
Japan
Prior art keywords
learning
learning model
position detection
model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018210460A
Other languages
English (en)
Other versions
JP7200610B2 (ja
Inventor
泰斗 横田
Yasuto Yokota
泰斗 横田
彼方 鈴木
Kanata Suzuki
彼方 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018210460A priority Critical patent/JP7200610B2/ja
Priority to US16/668,708 priority patent/US11069086B2/en
Publication of JP2020077231A publication Critical patent/JP2020077231A/ja
Application granted granted Critical
Publication of JP7200610B2 publication Critical patent/JP7200610B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

【課題】事前に想定した形状と異なる形状の物体の検出可能性を高めること。【解決手段】位置検出装置10は、モデル作成部20と物体位置検出部31を有する。モデル作成部20は、複数の単純形状モデルの学習用データセットを取得して学習することで第1学習モデルを作成する。そして、物体位置検出部31が、対象物体を撮像した画像を取得し、第1学習モデルを用いて、取得した画像から対象物体の位置を検出し、検出した位置に基づく位置情報を作成する。【選択図】図7

Description

本発明は、位置検出プログラム、位置検出方法及び位置検出装置に関する。
近年、画像内の人や物体を検出する技術が広く使われている。例えば、工場や倉庫におけるピッキングロボットでは、把持する物体の位置を画像から検出する技術が利用されている。
画像内の物体を検出する技術として、テンプレートマッチングがある。図14は、テンプレートマッチングを説明するための図である。テンプレートマッチングでは、検出装置は、検出する物体の画像をテンプレート画像91として予め記憶し、テンプレート画像91と類似度が高い範囲を入力画像92から探索する。検出装置は、入力画像上で探索窓93をスライドさせながら、探索窓内の画像とテンプレート画像91の類似度を計算し、類似度が最も高い位置に物体が存在すると判断する。
また、深層学習(Deep Learning)を行うニューラルネットワーク(NN:Neural Network)を用いて画像内の物体を検出する技術としてSSD(Single Shot Multibox Detector)がある。SSDでは、利用者は、事前に正解ラベル付きの入力画像のデータセットを用意し、用意したデータセットを画像の学習に特化したNNである畳み込みNNに学習させる。学習後のNNは、入力画像中の物体を検出し、検出した物体の位置と検出対象の確からしさを示す信頼度を出力する。
なお、ロボットアームの先端に取り付けたカメラからの画像情報をコントローラに入力し、深層学習を用いてロボット自らリアルタイムに動作を学習・生成することで教示を不要とする技術がある。
「ロボットによる対象物の多様なつかみ方を実現するAIピッキング機能を開発」、[平成30年10月22日検索]、インターネット<URL:https://www.yaskawa.co.jp/newsrelease/technology/35697>
テンプレートマッチングやSSDには、事前に想定した形状と異なる形状の物体を検出できないという問題がある。
本発明は、1つの側面では、事前に想定した形状と異なる形状の物体の検出可能性を高めることを目的とする。
1つの態様では、位置検出プログラムは、コンピュータに、それぞれが相似形でない、単純形状の立体のデータを複数取得し、取得した複数の前記データを用いて学習を行う処理を実行させる。そして、前記位置検出プログラムは、前記コンピュータに、撮像手段により撮像された画像を取得し、前記学習に基づいて生成された第1学習モデルを用いて、取得した前記画像から物体の位置を検出する処理を実行させる。
1つの側面では、本発明は、事前に想定した形状と異なる形状の物体の検出可能性を高めることができる。
図1は、ピッキングロボットの概略を示す図である。 図2は、ピッキングの流れの一例を示す図である。 図3は、実施例に係るピッキングロボットシステムの構成を示す図である。 図4は、アンサンブル学習モデルの作成の流れを示す図である。 図5は、単純形状モデルによる検出例を示す図である。 図6は、アンサンブル学習モデルによる検出例を示す図である。 図7は、位置検出装置の機能構成を示す図である。 図8は、入力画像から対象物体の位置を推定する処理を説明するための図である。 図9は、検出位置グループを説明するための図である。 図10は、位置検出装置による処理のフローを示すフローチャートである。 図11は、アンサンブル学習モデルによる処理のフローを示すフローチャートである。 図12は、検出位置グループの効果を説明するための図である。 図13は、実施例に係る位置検出プログラムを実行するコンピュータのハードウェア構成を示す図である。 図14は、テンプレートマッチングを説明するための図である。
以下に、本願の開示する位置検出プログラム、位置検出方法及び位置検出装置の実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。
まず、ピッキングロボットについて説明する。図1は、ピッキングロボットの概略を示す図である。図1に示すように、ピッキングロボット1は、アーム2の先端に取り付けたグリッパ3を用いて対象物体4をつかんで移動させるロボットである。ピッキングロボット1は、工場で部品や製品をつかんで移動させる場合、あるいは、倉庫で荷物をつかんで移動させる場合などに用いられる。
図2は、ピッキングの流れの一例を示す図である。図2に示すように、事前作業として、利用者は、ピッキングの対象物体4とアーム動作を決め(t1)、ティーチングを実施する(t2)。ここで、「ティーチング」とは、事前に対象物体4の形状などの情報やアーム動作をロボット制御プログラムに設定することである。
そして、ティーチングが行われたピッキングロボット1は、ピッキング動作を行う。すなわち、ピッキングロボット1は、カメラで画像を取得し(t3)、画像から対象物体4を検出し、位置を推定する(t4)。そして、ピッキングロボット1は、対象物体4をつかむ動作を実施し(t5)、指定場所に移動して対象物体4を放す(t6)。
このように、ピッキングロボット1を動作させるためには、事前にティーチングを行う必要がある。対象物体4の形状や周囲の環境が変わると、ティーチングをし直す必要があり、ティーチングの工数を如何に減らすかが重要となっている。
また、深層学習による画像認識では、大量の学習データを用いた学習を行うことで、認識精度の向上を図っており、大量の学習データが必要となる。利用可能なオープンデータが多数ある場合には、学習データの数を確保することに困難はないが、ピッキング作業の分野においては、オープンデータはほとんどなく、学習データとして利用できるデータは多くない。したがって、ピッキング作業の分野では、学習データをいかに用意するかが重要となっている。
また、ピッキングという観点では、対象物体4の全体を認識する必要はなく、把持可能な部分を認識できることが重要となる。把持可能な形状は、円柱、直方体、立方体、正多面体、円錐、角錐、球、トーラス(ドーナツ型)、螺旋などの単純な形状であり、ピッキングの対象物体4は、これらの単純な形状な部分を備える。このような単純な形状は、一般にプリミティブと呼ばれることがある。
次に、実施例に係るピッキングロボットシステムの構成について説明する。図3は、実施例に係るピッキングロボットシステムの構成を示す図である。図3に示すように、実施例に係るピッキングロボットシステム5は、ピッキングロボット1と、カメラ6と、ロボット制御装置7と、位置検出装置10とを有する。
カメラ6は、対象物体4を撮像し、撮像した画像を位置検出装置10に出力する。位置検出装置10は、カメラ6により撮像された画像を入力して把持位置情報をロボット制御装置7に出力する。ロボット制御装置7は、把持位置情報に基づいてピッキングロボット1に動作指示を行う。ピッキングロボット1は、対象物体4に対してピッキングを実施する。
位置検出装置10は、アンサンブル学習モデル10aと、変換部32とを有する。アンサンブル学習モデル10aは、学習モデルA〜学習モデルEで表される5つの学習モデル11を有する。学習モデル11は、学習用データセットを深層学習したNNである。学習モデル11は、SSDに基づくNNである。学習モデル11は、カメラ6が撮影した画像を入力して対象物体4を検出し、位置情報と信頼度を出力する。アンサンブル学習モデル10aは、各学習モデル11が出力した位置情報と信頼度に基づいて対象物体4の位置情報を出力する。変換部32は、対象物体4の位置情報を入力して把持位置情報を出力する。
図4は、アンサンブル学習モデル10aの作成の流れを示す図である。利用者は、単純形状モデルA〜単純形状モデルEで表される5種類の単純形状モデル12をCG(Computer Graphics)を用いて用意する。ここで、単純形状モデル12とは、単純な形状の3次元モデルである。各単純形状モデル12は他の単純形状モデル12と相似形でない。図4では、単純形状モデルAは円柱の3次元モデルであり、単純形状モデルBは直方体の3次元モデルであり、単純形状モデルCは立方体の3次元モデルである。また、単純形状モデルDは球の3次元モデルであり、単純形状モデルEはバネの3次元モデルである。
そして、利用者は、ピッキングロボット1のシミュレータを使い、単純形状モデル12ごとに学習用データセット13を作成する。そして、位置検出装置10が、1つの学習用データセット13に対して1つの学習モデル11を作成する。学習データセットAから学習モデルAが作成され、学習データセットBから学習モデルBが作成され、学習データセットCから学習モデルCが作成され、学習データセットDから学習モデルDが作成され、学習データセットEから学習モデルEが作成される。
そして、位置検出装置10は、5つの学習モデル11を用いて対象物体4の位置を検出するアンサンブル学習モデル10aを作成する。アンサンブル学習モデル10aは、例えば、各位置情報について5つの学習モデル11の信頼度の合計をアンサンブル学習モデル10aの信頼度とし、信頼度が基準値以上であれば、対象物体4を検出したと判定する。基準値は、例えば、1.0である。
なお、学習に用いられる単純形状モデル12の数は、5より多くても少なくてもよいが、単純形状モデル12の数が多いほど位置検出装置10の汎用性が増すが、処理に時間がかかるため、5〜10がよい。ビッキング対象の形状の種類が事前に決まっている場合は、位置検出装置10は、ビッキング対象の形状を抽象化したモデルを用いてもよい。あるいは、ピッキング対象の形状に含まれる部分的な単純形状が単純形状モデルとして選択されることとしてもよい。
図5は、単純形状モデル12による検出例を示す図である。ケース#1は、検出対象の物体が「ボルト」である場合を示し、ケース#2は、検出対象の物体が「ICチップ」である場合を示す。また、検出判定の基準の信頼度を0.5以上であるとする。
ケース#1では、学習用データセット13の対象が実写のボルトである場合には、信頼度が0.95であるのでボルトは検出されるが、学習用データセット13の対象が実写のICチップである場合には、信頼度が0.09であるのでボルトは検出されない。また、学習用データセット13の対象が単純形状モデル12の1つである円柱の3次元モデルである場合には、信頼度が0.83であるのでボルトが検出される。
ケース#2では、学習用データセット13の対象が実写のボルトである場合には、信頼度が0.13であるのでICチップは検出されず、学習用データセット13の対象が実写のICチップである場合には、信頼度が0.92であるのでICチップは検出される。また、学習用データセット13の対象が単純形状モデル12のうちの1つである円柱の3次元モデルである場合には、信頼度が0.61であるのでICチップが検出される。
このように、位置検出装置10は、単純形状モデル12を学習させることによって、対象物体4の形状を過学習することを避け、検出可能な形状の類似度の幅を広げることができる。
図6は、アンサンブル学習モデル10aによる検出例を示す図である。図6では、検出対象の物体形状は未知である。図6において、単体の学習モデル11では、検出判定の基準の信頼度を0.5以上であるとし、アンサンブル学習モデル10aでは、検出判定の基準の信頼度を1.0以上であるとする。
図6に示すように、各単純形状モデル12からそれぞれ作成された各学習モデル11は、信頼度が0.5未満のため、対象物体4を検出することはできない。一方、アンサンブル学習モデル10aは、各学習モデル11の結果を利用することで、対象物体4を検出することができる。図6では、5つの学習モデル11の信頼度の合計が0.39+0.37+0.25+0.11+0.09=1.21で1.0以上となるので、アンサンブル学習モデル10aは、対象物体4を検出することができる。
このように、位置検出装置10は、アンサンブル学習モデル10aを用いることによって、検出可能な形状の範囲を飛躍的に広げることができる。
次に、位置検出装置10の機能構成について説明する。図7は、位置検出装置10の機能構成を示す図である。図7に示すように、位置検出装置10は、モデル作成部20と把持位置検出部30とを有する。モデル作成部20は、5つの単純形状モデル12の学習用データセット13を取得し、5つの単純形状モデル12に基づくアンサンブル学習モデル10aを作成する。把持位置検出部30は、対象物体4を撮像した画像を取得し、アンサンブル学習モデル10aを用いて画像内の対象物体4の位置を検出し、検出した位置に基づいて把持位置を特定して把持位置情報を出力する。
モデル作成部20は、個別モデル作成部21とアンサンブルモデル作成部22を有する。把持位置検出部30は、物体位置検出部31と、変換部32とを有する。
個別モデル作成部21は、5つの単純形状モデル12の学習用データセット13を取得し、取得した5つの学習用データセット13をそれぞれ学習した5つの学習モデル11を作成する。各学習用データセット13には、例えば、検出位置の正解ラベル付きデータが10000個含まれる。また、個別モデル作成部21は、学習用データセット13ごとに学習モデル11を100エポック訓練させる。
アンサンブルモデル作成部22は、個別モデル作成部21により作成された5つの学習モデル11を用いてアンサンブル学習モデル10aを作成する。アンサンブルモデル作成部22は、各位置情報について5つの学習モデル11の信頼度の合計を信頼度とし、信頼度が基準値以上であれば対象物体4を検出したと判定するアンサンブル学習モデル10aを作成する。
物体位置検出部31は、対象物体4を撮像した画像を取得し、アンサンブル学習モデル10aを用いて画像内の対象物体4の位置を検出し、位置情報を出力する。図8は、入力画像から対象物体4の位置を推定する処理を説明するための図である。図8に示すように、物体位置検出部31は、入力画像から対象物体4を検出し、位置情報としてバウンディングボックスの左上の点(xu,yu)、右下の点(xv,yv)を出力する。
ここで、バウンディングボックスは、対象物体4の位置を定義する長方形の枠である。バウンディングボックスは、例えば、左上と右下の2点のx座標及びy座標で定義される。座標軸の原点は、例えば、入力画像の左下である。
アンサンブル学習モデル10aは、各学習モデル11が出力した位置情報の中から信頼度の高い順に5個の位置情報を検出位置候補として選択し、5個の学習モデル11で合計25個の検出位置候補に基づいて、対象物体4の位置情報を作成する。
具体的には、アンサンブル学習モデル10aは、検出位置候補のバウンディングボックスに重なりがある場合には、検出位置候補をグルーピングして検出位置グループとする。図9は、検出位置グループを説明するための図である。図9では、25個の検出位置候補うち5個の検出位置候補だけを示す。
図9では、5個のバウンディングボックスのうち3個のバウンディングボックスに重なりがあるため、3個のバウンディングボックスがグループ化され、太線で示す枠が検出位置グループを示す。検出位置グループの信頼度は、重なりのある検出位置候補の信頼度の合計である。
そして、アンサンブル学習モデル10aは、信頼度がもっとも高い検出位置候補又は検出位置グループを対象物体4の位置情報として選択する。アンサンブル学習モデル10aは、対象物体4の位置情報として検出位置グループを選択した場合には、バウンディングボックスの左上の点の座標(X,Y)を、
(X,Y)=(s1(x1,y1)+s2(x2,y2)+・・・+sn(xn,yn))/(s1+s2+・・・+sn)
により計算する。ここで、nは検出位置グループに含まれる検出位置候補の数であり、si(i=1,2,・・・,n)は検出位置候補iの信頼度であり、(xi,yi)は検出位置候補iのバウンディングボックスの左上の点の座標である。バウンディングボックスの右下の点の座標も同様に計算される。
そして、アンサンブル学習モデル10aは、対象物体4の位置情報としてバウンディングボックスの左上と右下の座標を出力する。物体位置検出部31は、アンサンブル学習モデル10aが出力した位置情報を変換部32に渡す。
変換部32は、物体位置検出部31から位置情報を取得し、取得した位置情報を把持位置情報に変換する。変換部32は、位置情報と対象物体4の把持可能な形状の個所とに基づいて位置情報を把持位置情報に変換する。
次に、位置検出装置10による処理のフローについて説明する。図10は、位置検出装置10による処理のフローを示すフローチャートである。図10に示すように、位置検出装置10は、単純形状モデル12の学習用データセット13を5個取得し(ステップS1)、5個の学習用データセット13を用いて5個の学習モデル11を作成する(ステップS2)。そして、位置検出装置10は、5個の学習モデル11からアンサンブル学習モデル10aを作成する(ステップS3)。
そして、位置検出装置10は、対象物体4が撮像された画像を取得し(ステップS4)、アンサンブル学習モデル10aを用いて、取得した画像から対象物体4を検出し、位置情報を作成する(ステップS5)。そして、位置検出装置10は、位置情報を把持位置情報に変換し(ステップS6)、把持位置情報を出力する(ステップS7)。
このように、位置検出装置10は、5つの単純形状モデル12の学習用データセット13をそれぞれ学習した5つの学習モデル11を用いてアンサンブル学習モデル10aを作成し、アンサンブル学習モデル10aを用いて対象物体4を検出する。したがって、位置検出装置10は、事前に想定した形状と異なる形状の物体を検出することができる。
次に、アンサンブル学習モデル10aによる処理のフローについて説明する。図11は、アンサンブル学習モデル10aによる処理のフローを示すフローチャートである。図11に示すように、アンサンブル学習モデル10aは、各学習モデル11から信頼度が高い順に5個のバウンディングボックス及び信頼度を取得する(ステップS11)。
そして、アンサンブル学習モデル10aは、バウンディングボックスが重なっている領域があるか否かを判定する(ステップS12)。そして、ある場合には、アンサンブル学習モデル10aは、領域が重なっていた複数の検出位置候補を、1つの検出位置グループと定義し、領域が重なっていた複数の検出位置候補の信頼度を合算して検出位置グループの信頼度を計算する(ステップS13)。
そして、アンサンブル学習モデル10aは、信頼度がもっとも高い検出位置候補又は検出位置グループを対象物体4の位置情報として選択し(ステップS14)、最も信頼度が高いのは検出位置グループか否かを判定する(ステップS15)。そして、最も信頼度が高いのは検出位置グループである場合には、アンサンブル学習モデル10aは、元の検出位置候補の信頼度で重み付けした座標を検出位置グループの座標として計算する(ステップS16)。
そして、アンサンブル学習モデル10aは、対象物体4の位置情報として、計算した座標を出力する(ステップS17)。
このように、アンサンブル学習モデル10aは、領域が重なっていた検出位置候補を、1つの検出位置グループと定義し、重なっていた検出位置候補の信頼度を合算して検出位置グループの信頼度とする。したがって、アンサンブル学習モデル10aは、単体の学習モデル11のみでは検出ができない対象物体4を検出することができる。
図12は、検出位置グループの効果を説明するための図である。図12では、単体の学習モデル11の基準値は0.5であり、アンサンブル学習モデル10aの基準値は1.0であるとする。
図12に示すように、検出対象の物体形状がバネのケースでは、検出位置グループは定義されない。また、単体の学習モデル11では、バネを学習した学習モデル11の信頼度が0.5以上となり、バネを学習した学習モデル11のみで検出が可能である。
一方、検出対象の物体形状が未知のケースでは、円柱を学習した学習モデル11が出力した検出位置候補と直方体を学習した学習モデル11が出力した検出位置候補と立方体を学習した学習モデル11が出力した検出位置候補がグループ化される。そして、検出位置グループの信頼度が0.39+0.37+0.25=1.01となり、検出位置グループを用いるアンサンブル学習モデル10aにより物体形状が未知の物体が検出される。
上述してきたように、実施例では、個別モデル作成部21が、複数の単純形状モデル12からそれぞれ作成された複数の学習用データセット13をそれぞれ用いて複数の学習モデル11を作成する。そして、アンサンブルモデル作成部22が、複数の学習モデル11に基づいてアンサンブル学習モデル10aを作成する。そして、物体位置検出部31が、アンサンブル学習モデル10aを用いて、対象物体4を撮像した画像から対象物体4を検出して位置情報を作成する。したがって、位置検出装置10は、対象物体4の形状を過学習することを避け、事前に想定した形状と異なる形状の物体の検出可能性を高めることができる。
また、実施例では、位置検出装置10は、位置情報を把持位置情報に変換してロボット制御装置7に出力するので、対象物体4の形状が変更になった場合でもピッキングロボット1のティーチングを不要とすることができ、ティーチングの工数を減らすことができる。
また、実施例では、アンサンブル学習モデル10aは、検出位置候補のバウンディングボックスに重なりがある場合には、検出位置候補をグルーピングして検出位置グループとし、検出位置グループの信頼度を、重なりのある検出位置候補の信頼度の合計とする。したがって、位置検出装置10は、1つの学習モデル11だけでは検出できない未知の物体を検出することができる。
また、実施例では、単純形状モデル12の学習用データセット13は、ロボットシミュレータにより作成されるので、学習に十分な量の学習用データセット13を簡単に作成することができる。
また、実施例では、位置検出装置10は、単純形状として円柱、直方体、立方体、球及びバネを用いるので、検出できる物体形状の汎用性を高めることができる。
なお、実施例では、位置検出装置10について説明したが、位置検出装置10が有する構成をソフトウェアによって実現することで、同様の機能を有する位置検出プログラムを得ることができる。そこで、位置検出プログラムを実行するコンピュータについて説明する。
図13は、実施例に係る位置検出プログラムを実行するコンピュータのハードウェア構成を示す図である。図13に示すように、コンピュータ50は、メインメモリ51と、CPU(Central Processing Unit)52と、LAN(Local Area Network)インタフェース53と、HDD(Hard Disk Drive)54とを有する。また、コンピュータ50は、スーパーIO(Input Output)55と、DVI(Digital Visual Interface)56と、ODD(Optical Disk Drive)57とを有する。
メインメモリ51は、プログラムやプログラムの実行途中結果等を記憶するメモリである。CPU52は、メインメモリ51からプログラムを読み出して実行する中央処理装置である。CPU52は、メモリコントローラを有するチップセットを含む。
LANインタフェース53は、コンピュータ50をLAN経由で他のコンピュータに接続するためのインタフェースである。HDD54は、プログラムやデータを格納するディスク装置であり、スーパーIO55は、マウスやキーボード等の入力装置を接続するためのインタフェースである。DVI56は、液晶表示装置を接続するインタフェースであり、ODD57は、DVDの読み書きを行う装置である。
LANインタフェース53は、PCIエクスプレス(PCIe)によりCPU52に接続され、HDD54及びODD57は、SATA(Serial Advanced Technology Attachment)によりCPU52に接続される。スーパーIO55は、LPC(Low Pin Count)によりCPU52に接続される。
そして、コンピュータ50において実行される位置検出プログラムは、コンピュータ50により読み出し可能な記録媒体の一例であるDVDに記憶され、ODD57によってDVDから読み出されてコンピュータ50にインストールされる。あるいは、位置検出プログラムは、LANインタフェース53を介して接続された他のコンピュータシステムのデータベース等に記憶され、これらのデータベースから読み出されてコンピュータ50にインストールされる。そして、インストールされた位置検出プログラムは、HDD54に記憶され、メインメモリ51に読み出されてCPU52によって実行される。
また、実施例では、アンサンブル学習モデルが位置情報を作成し、変換部が位置情報を把持位置情報に変換する場合について説明したが、アンサンブル学習モデルは、把持位置情報を直接作成してもよい。この場合、アンサンブル学習モデルは、物体検出範囲を把持位置範囲に置き換えて、信頼度及び把持角度とともに出力する。
また、実施例では、ピッキングロボット1で使われる場合について説明したが、位置検出装置10は、医療用ロボット、調理ロボット、土木及び建設用機械、自動走行車、ドローン、家庭用電化製品などの他の装置で使われてもよい。
1 ピッキングロボット
2 アーム
3 グリッパ
4 対象物体
5 ピッキングロボットシステム
6 カメラ
7 ロボット制御装置
10 位置検出装置
10a アンサンブル学習モデル
11 学習モデル
12 単純形状モデル
13 学習用データセット
32 変換部
50 コンピュータ
51 メインメモリ
52 CPU
53 LANインタフェース
54 HDD
55 スーパーIO
56 DVI
57 ODD
91 テンプレート画像
92 入力画像
93 探索窓

Claims (8)

  1. コンピュータに、
    それぞれが相似形でない、単純形状の立体のデータを複数取得し、
    取得した複数の前記データを用いて学習を行い、
    撮像手段により撮像された画像を取得し、
    前記学習に基づいて生成された第1学習モデルを用いて、取得した前記画像から物体の位置を検出する、
    処理を実行させることを特徴とする位置検出プログラム。
  2. 前記コンピュータに、
    前記位置から前記物体の把持位置を検出する
    処理をさらに実行させることを特徴とする請求項1に記載の位置検出プログラム。
  3. 前記第1学習モデルは、複数の前記データをそれぞれ用いて学習を行って生成された複数の第2学習モデルに基づくアンサンブル学習モデルであることを特徴とする請求項1又は2に記載の位置検出プログラム。
  4. 前記第2学習モデルは、深層学習を用いる畳み込み型のニューラルネットワークであって、前記画像から物体の検出位置を示すバウンディングボックスを位置候補として検出物体の確からしさを示す信頼度を対応付けて複数作成し、
    前記アンサンブル学習モデルは、第1の数の第2学習モデルからそれぞれ第2の数の位置候補を取得し、前記第1の数に前記第2の数を乗じた数の位置候補のバウンディングボックスの中に重なる領域がある場合には、重なる領域を有する位置候補をグループ化し、グループ化した位置候補の信頼度の合計をグループの信頼度とし、信頼度が最大であるグループ又は位置候補のバウンディングボックスを前記物体の位置の情報として出力することを特徴とする請求項3に記載の位置検出プログラム。
  5. 前記データは、シミュレータにより前記単純形状の立体のモデルから作成されたデータであることを特徴とする請求項1〜4のいずれか1つに記載の位置検出プログラム。
  6. 前記単純形状は、円柱、直方体、立方体、球及びバネを含むことを特徴とする請求項1〜5のいずれか1つに記載の位置検出プログラム。
  7. コンピュータが、
    それぞれが相似形でない、単純形状の立体のデータを複数取得し、
    取得した複数の前記データを用いて学習を行い、
    撮像手段により撮像された画像を取得し、
    前記学習に基づいて生成された第1学習モデルを用いて、取得した前記画像から物体の位置を検出する、
    処理を実行することを特徴とする位置検出方法。
  8. それぞれが相似形でない、単純形状の立体のデータを複数取得し、取得した複数の前記データを用いて学習を行うモデル生成部と、
    撮像手段により撮像された画像を取得し、前記学習に基づいて生成された第1学習モデルを用いて、取得した前記画像から物体の位置を検出する検出部と
    を有することを特徴とする位置検出装置。
JP2018210460A 2018-11-08 2018-11-08 位置検出プログラム、位置検出方法及び位置検出装置 Active JP7200610B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018210460A JP7200610B2 (ja) 2018-11-08 2018-11-08 位置検出プログラム、位置検出方法及び位置検出装置
US16/668,708 US11069086B2 (en) 2018-11-08 2019-10-30 Non-transitory computer-readable storage medium for storing position detection program, position detection method, and position detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018210460A JP7200610B2 (ja) 2018-11-08 2018-11-08 位置検出プログラム、位置検出方法及び位置検出装置

Publications (2)

Publication Number Publication Date
JP2020077231A true JP2020077231A (ja) 2020-05-21
JP7200610B2 JP7200610B2 (ja) 2023-01-10

Family

ID=70550293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018210460A Active JP7200610B2 (ja) 2018-11-08 2018-11-08 位置検出プログラム、位置検出方法及び位置検出装置

Country Status (2)

Country Link
US (1) US11069086B2 (ja)
JP (1) JP7200610B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7350218B1 (ja) 2022-04-15 2023-09-25 三菱電機株式会社 学習モデル生成装置、情報処理装置、学習モデル生成方法および情報処理方法
DE112021005280T5 (de) 2020-12-25 2023-11-02 Fanuc Corporation Maschinelle Lernvorrichtung und ein maschinelles Lernverfahren

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557026B2 (en) * 2020-06-05 2023-01-17 Advanced Micro Devices, Inc. Automated artifact detection

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116599A (ja) * 2017-01-20 2018-07-26 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116599A (ja) * 2017-01-20 2018-07-26 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021005280T5 (de) 2020-12-25 2023-11-02 Fanuc Corporation Maschinelle Lernvorrichtung und ein maschinelles Lernverfahren
JP7350218B1 (ja) 2022-04-15 2023-09-25 三菱電機株式会社 学習モデル生成装置、情報処理装置、学習モデル生成方法および情報処理方法
WO2023199502A1 (ja) * 2022-04-15 2023-10-19 三菱電機株式会社 学習モデル生成装置、情報処理装置、学習モデル生成方法および情報処理方法

Also Published As

Publication number Publication date
US11069086B2 (en) 2021-07-20
US20200151906A1 (en) 2020-05-14
JP7200610B2 (ja) 2023-01-10

Similar Documents

Publication Publication Date Title
EP3401815B1 (en) Determining an architectural layout
RU2700246C1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
Harris et al. Applying hand gesture recognition for user guide application using MediaPipe
US11069086B2 (en) Non-transitory computer-readable storage medium for storing position detection program, position detection method, and position detection apparatus
Wang et al. Perception of demonstration for automatic programing of robotic assembly: framework, algorithm, and validation
US10937150B2 (en) Systems and methods of feature correspondence analysis
Hu et al. Physical interaction: Reconstructing hand-object interactions with physics
Panda et al. Single and multiple view support order prediction in clutter for manipulation
CN116249607A (zh) 用于机器人抓取三维物体的方法和装置
Dong et al. A review of robotic grasp detection technology
US10304258B2 (en) Human feedback in 3D model fitting
Gao et al. Parallel dual-hand detection by using hand and body features for robot teleoperation
CN111385813B (zh) 用于重复活动序列中的循环持续时间测量的系统和方法
Bose et al. In-situ enhanced anchor-free deep CNN framework for a high-speed human-machine interaction
WO2018135326A1 (ja) 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
Lee et al. Robust multithreaded object tracker through occlusions for spatial augmented reality
Huang et al. Hand gesture based intuitive CAD interface
Bhole et al. Implementation of Virtual Mouse Control System Using Hand Gestures for Web Service Discovery
RU2745380C1 (ru) Способ и система захвата объектов с помощью роботизированного устройства
US11620479B2 (en) System for determining diverting availability of object recognition model
Zhang et al. A Non-parametric RDP Algorithm Based on Leap Motion
Rungta Using Novel Visuo-Tactile Sensors to Recognize Contact in Robotic Manipulation
Pannase To analyze hand gesture recognition for electronic device control
Zholshiyeva et al. A Real-Time Approach to Recognition of Kazakh Sign Language
Cardona López Hand recognition using depth cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221205

R150 Certificate of patent or registration of utility model

Ref document number: 7200610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150