JP2019197441A - 学習装置、学習方法及び学習プログラム - Google Patents

学習装置、学習方法及び学習プログラム Download PDF

Info

Publication number
JP2019197441A
JP2019197441A JP2018091841A JP2018091841A JP2019197441A JP 2019197441 A JP2019197441 A JP 2019197441A JP 2018091841 A JP2018091841 A JP 2018091841A JP 2018091841 A JP2018091841 A JP 2018091841A JP 2019197441 A JP2019197441 A JP 2019197441A
Authority
JP
Japan
Prior art keywords
product
learning
recognition result
inference model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018091841A
Other languages
English (en)
Other versions
JP7025989B2 (ja
Inventor
博章 三沢
Hiroaki Misawa
博章 三沢
古川 博基
Hiromoto Furukawa
博基 古川
和久井 一則
Kazunori Wakui
一則 和久井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2018091841A priority Critical patent/JP7025989B2/ja
Publication of JP2019197441A publication Critical patent/JP2019197441A/ja
Application granted granted Critical
Publication of JP7025989B2 publication Critical patent/JP7025989B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】ラベル付け作業を自動化する。【解決手段】本発明の学習装置は、製品の画像を入力とし製品に対する認識結果を出力とする推論モデルから、推論モデルによる認識結果を取得する推論部と、製品の画像及び製品に対する人の行動の画像から、人による認識結果を取得する正解ラベル情報作成部と、推論モデルによる認識結果及び人による認識結果に基づいて、推論モデルを学習する学習部と、を備えることを特徴とする。さらに、推論モデルによる認識結果及び人による認識結果は、製品に対する検査の合否を含むこと、を特徴とする。【選択図】図4

Description

本発明は、学習装置、学習方法及び学習プログラムに関する。
近年、少子高齢化に伴う労働人口の減少に伴い、工場、倉庫等では、人工知能及びロボットが活躍する機会が増加している。例えば、製品の検査作業(良品、不良品の判定)に従事していた作業員は、ロボットに代替されつつある。ロボットは、製品を視認し製品を把持したうえで製品が不良品であるか否かを認識し、製品が不良品である場合、製品を検査ライン等から排除する。ロボットにこのような作業をさせるためには、ロボットを制御するソフトウエア(人工知能)を、予め膨大な学習データで学習しておく必要がある。
人工知能が多層構造のニューラルネットワークである場合、いわゆるディープラーニング(Deep Learning)が行われる。教師データを使用するディープラーニングにおいては、膨大な数の学習データを準備する工数に加え、それらの学習データに正解ラベルを付す工数も必要となる。例えば、検査ラインにおいて数万規模の画像が取得され、次に、その画像の製品が良品であったかそれとも不良品であったか等を示すラベルが画像に付される。特許文献1のデータ処理装置は、人の動きを時系列の画像として取得する。当該装置は、第1の時点の画像とその後の第2の時点の画像との間の変化の程度に基づいて、両画像間の画像を新たに抽出する。当該装置は、変化の程度が所定の閾値より小さい場合、新たに抽出した画像に対して、第1の時点の画像に付したラベルと同じラベル、又は、第2の時点の画像に付したラベルと同じラベルを付す。
特開2016−76073号公報
しかしながら、特許文献1のデータ処理装置は、ラベルを付すべき候補となっている画像に対して、どのラベルを付すかの判定をユーザの手動入力によっている(特許文献1の段落0068、図3)。つまり、特許文献1では、教師データの有効な候補となる画像を取得することについては効果が認められるものの、ラベル付けの工数を削減するためには、別途方策が必要であった。
そこで、本発明は、ラベル付け作業を自動化することを目的とする。
本発明の学習装置は、製品の画像を入力とし製品に対する認識結果を出力とする推論モデルから、推論モデルによる認識結果を取得する推論部と、製品の画像及び製品に対する人の行動の画像から、人による認識結果を取得する正解ラベル情報作成部と、推論モデルによる認識結果及び人による認識結果に基づいて、推論モデルを学習する学習部と、を備えることを特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
本発明によれば、ラベル付け作業を自動化することができる。
学習装置が稼働する環境を説明する図である。 学習装置の構成を説明する図である。 正解ラベル情報を説明する図である。 把持可能位置座標及びフレームアウトを説明する図である。 推論結果情報を説明する図である。 全体処理手順のフローチャートである。 製品ID作成処理手順のフローチャートである。 正解ラベル情報作成処理手順のフローチャートである。 推論結果情報作成処理手順のフローチャートである。
以降、本発明を実施するための形態(“本実施形態”という)を、図等を参照しながら詳細に説明する。本実施形態は、製品の検査工程において、ロボットが製品の良/不良を判定し不良品を排除する例である。しかしながら、本発明は、ロボットが物の外観を視認し物を把持した結果に基づき、物に対して動作を行う例に一般的に適用可能である。
(環境)
図1に沿って、本実施形態の学習装置が稼働する環境を説明する。図1は、ある工場の検査ライン6の図である。図1の左右方向にベルトコンベア4が敷設されている。ベルトコンベア4は、図1の左から右の方向へ複数の製品5を搬送している。製品5は、出荷直前の完成品であってもよいし、次の工程に行く直前の中間製品であってもよい。製品5の形状等は一様ではなく、製品5ごとに異なっている。作業員3がベルトコンベア4の前に立っている。
作業員3は、左側から搬送されて来る製品5を目視し、製品の形状、色等を認識する。同時に作業員3は、製品5のある箇所を手で把持し、重量、重心位置、内部構造の固定状態等を認識する。認識の結果、製品5の形状等が所定の基準を満たさないと作業員3が判定した場合、作業員3は、その製品5は不良品であると判定し、不良品をベルトコンベア4の外側の不良品回収ヤード(図示せず)に排除する。製品5の形状等が所定の基準を満たす場合、作業員3は、その製品5は良品であると判定し、製品5がそのままベルトコンベア4上で搬送されて行くのを見送る。
このような作業員3の判定及び動作を、まったく同じようにロボット(図示せず)が行う。ロボットは、人間の全身形状を有するヒューマノイドロボットであってもよいし、人間の腕及び手の部分のみを有するアームロボットであってもよい。製品5及び作業員3の画像を撮像装置2が取得している。撮像装置2は、例えば、3次元RGB(Red Green Blue)カメラである。3次元RGBカメラは、撮像した製品5及び作業員3の手等を、3次元仮想空間内でカラー画像として時系列で再現することができる。
本実施形態の学習装置は、撮像装置2が取得した画像から正解ラベル情報(詳細後記)を作成し、正解ラベル情報を学習データとして使用して推論モデル(詳細後記)を学習する。さらに、学習装置は、学習済みの推論モデルを使用してロボットを制御する。つまり、ロボットが製品の良/不良を判定する基準、及び、ロボットが把持する製品の位置は、推論モデルによって決定される。
(推論モデル)
本実施形態の推論モデル31(図2)は、例えば、入力層、出力層及び複数の中間層を有するニューラルネットワーク(図示せず)である。入力層は、製品の画像を受け付ける。出力層は、良/不良の判定結果、及び、製品の把持可能位置座標を出力する。公知のように、入力層、中間層及び出力層は、複数のノード(人間の神経細胞に相当)を有している。あるノードがある情報量を受け取ると、その情報量のうちある部分を次の層のあるノードに伝搬する。どれだけの情報量をどのノードに伝搬するかという情報(重みベクトル)を、それぞれのノードが保有している。推論モデル31を学習することは、それぞれのノードについて重みベクトルの成分を最適化することに相当する。以降、本実施形態では、それぞれのノードの重みベクトルを総称して“パラメータ”と呼ぶ。
(学習装置の構成)
図2に沿って、学習装置1の構成を説明する。学習装置1は、一般的なコンピュータであり、中央制御装置11、キーボード、タッチパネル等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び画像取得装置16を備える。これらは、バスで相互に接続されている。補助記憶装置15は、推論モデル31、正解ラベル情報32及び推論結果情報33(いずれも詳細後記)を格納している。
主記憶装置14における、推論部21、正解ラベル情報作成部22、学習部23、製品検出部24、誤差算出部25、学習継続判定部26及び推論モデル出力部27は、プログラムである。以降において、“○○部は”と動作主体を記した場合、それは、中央制御部11が補助記憶装置15から“○○部”を読み出して主記憶装置14にロードしたうえで、後記する処理を実行することを意味する。撮像装置2は、検査ライン6のベルトコンベア4上の製品5及び作業員3(図2には図示せず)を撮像する。撮像装置2は、有線又は無線のネットワーク7を介して、撮像した画像を学習装置1に送信する。学習装置1の画像取得装置16は、画像を受信する。
(正解ラベル情報)
図3に沿って、正解ラベル情報32を説明する。正解ラベル情報32は、撮像時点欄101に記憶された撮像時点に関連付けて、画像保存位置欄102には画像保存位置が、製品ID(Identifier)欄103には製品IDが、製品位置座標欄104には製品位置座標が、判定結果欄105には判定結果が、把持可能位置座標欄106には把持可能位置座標が記憶されている。なお、機械学習の分野において、手本とすべきデータ(教師データ)を特定することを、一般に、“データに正解ラベルを付す”のように表現することが多い。このことが、ここでの“正解ラベル情報”の命名根拠である。
撮像時点欄101の撮像時点は、撮像装置2が製品の画像を取得した時点の時分秒である。撮像時点は、製品の画像を取得した時点の年月日を含んでもよい。
画像保存位置欄102の画像保存位置は、製品の画像が記憶されている位置を示す情報である。製品の画像は、学習装置1の補助記憶装置15に記憶されてもよいし、他の外部装置に記憶されてもよい。
製品ID欄103の製品IDは、製品を一意に特定する識別子である。
製品位置座標欄104の製品位置座標は、撮像装置2の画面における製品の位置を示す座標値である。例えば“(X1,Y1,X2,Y2)”は、点(X1,Y1)及び点(X2,Y2)を結ぶ線分を対角線として有する長方形を意味する。ここで製品位置座標を2次元としたのは、説明の単純化のためであり、製品位置座標は、3次元であってもよい。
判定結果欄105の判定結果は、“0”又は“1”のいずれかである。“0”は、不良品を示し、“1”は良品を示す。ここでの判定結果は、作業員による判定の結果である。作業員が製品を排除した場合、判定結果は“0”となり、排除せずに見送った場合、判定結果は“1”となる(詳細後記)。なお、請求項の“検査の合否”には、ここでの判定結果が相当する。
把持可能位置座標欄106の把持可能位置座標は、撮像装置2の画面のうちその製品を切り出した部分画面における製品の把持可能位置を示す座標値である。つまり、製品位置座標をグローバル座標とした場合、把持可能位置座標は、ローカル座標であるといえる。もちろん、この例以外に、把持可能位置座標が、製品位置座標と同じグローバル座標であってもよい。把持可能位置とは、作業員が製品を検査する目的でその製品を手で掴む位置である。把持可能位置は、1つの製品について通常2つ以上存在する。これらの把持可能位置は、手の関節位置に対応する(図4の符号41参照)。ここでの把持可能位置座標を2次元としたのは、説明の単純化のためであり、把持可能位置座標は、3次元であってもよい。ここでの把持可能位置座標は、作業員の動作の結果である。
なお、請求項における“人による認識結果”には、図3における判定結果及び把持可能位置座標が相当する。
製品は相当の重量を有する。したがって、作業員は、落下させにくい位置で製品を把持しなければならない。また、不完全な把持によって製品の不良箇所がさらに増える場合もある。したがって、作業員は、構造上頑強な位置で製品を把持しなければならない。さらに、作業員は、製品の必要箇所を短時間かつ1度の動作で検査することを要求されている。したがって、作業員は、持ち替える必要のない位置で製品を把持しなければならない。熟練した作業員は、経験的にこれらの位置を知っている。
図3から、例えば以下のことがわかる。
・撮像装置2は、12時00分00秒、12時00分01秒、12時00分02秒及び12時00分03秒において1枚ずつ、計4枚の画像を取得した。
・12時00分00秒の画像には、製品は写っていなかった。
・12時00分01秒の画像には、製品P001が写っていた。作業員は、2つの位置“(X3,Y3)”及び“(X4,Y4)”で製品P001に接触し始めた。なお、“接触”は、“把持”の初期段階である。
・12時00分02秒の画像には、製品P001、P002及びP003が写っていた。
・12時00分02秒において、作業員は、前記した2つの位置に加えてさらに4つの位置“(X7,Y7)”、“(X8,Y8)”、“(X9,Y9)”及び“(X10,Y10)”で製品P001に接触した(握った)。作業員は、製品P001を不良品回収ヤードに排除した。
・12時00分02秒において、作業員は、2つの位置“(X13,Y13)”及び“(X14,Y14)”で製品P002に接触した(摘まんだ)。作業員は、製品P002は良品であると判定した。
・12時00分02秒において、作業員は、2つの位置“(X17,Y17)”及び“(X18,Y18)”で製品P003に接触した(摘まんだ)。作業員は、製品P003は良品であると判定した。
・撮像装置2は、その光軸及び画角を固定することによって撮像画面を固定している。そして、その撮像画面上を時系列で製品が移動している。例えば、12時00分01秒から12時00分02秒までの間に、製品P001は“(X1,Y1,X2,Y2)”から“(X5,Y5,X6,Y6)”に移動している。12時00分02秒から12時00分03秒までの間に、製品P003は“(X15,Y15,X16,Y16)”から“(X19,Y19,X20,Y20)”に移動している。この間、作業員は、製品P003を同じ位置“(X17,Y17)”及び“(X18,Y18)”で把持し続けている(欄106のローカル座標は変化していない)。
(把持可能位置座標)
図4に沿って、把持可能位置座標及びフレームアウトを説明する。作業員が、自身の手を製品5に接触させている(図4の上図)。この図では、作業員は製品5に触れているだけであるが、作業員は、製品5を握りしめ、持ち上げることもある。このとき、関節41が製品5に接触する位置が把持可能位置である。製品5が良品であると作業員が判定すると、作業員は製品5から手を離す。すると、図5の下図のように、製品5は、画面の右側42に消えて行く(フレームアウト)。
(推論結果情報)
図5に沿って、推論結果情報33を説明する。推論結果情報33の構成は、正解ラベル情報32(図3)と同じである。しかしながら、推論結果情報33の各欄のデータは、正解ラベル情報32の同じ欄のデータと、以下の点で異なる。
・図3の判定結果(欄105)は、前記したように作業員による判定に基づく。他方、図5の判定結果(欄115)は、推論部21が推論モデル31に製品の画像を入力したことを受け推論モデルが出力した出力値に基づく。
・図3の把持可能位置座標(欄106)は、前記したように作業員による動作に基づく。他方、図5の把持可能位置座標(欄116)は、推論部21が推論モデルに製品の画像を入力したことを受け推論モデルが出力した出力値に基づく。
なお、請求項における“推論モデルによる認識結果”には、図5における判定結果及び把持可能位置座標が相当する。
(全体処理手順)
図6に沿って、全体処理手順を説明する。
ステップS201において、学習装置1の推論部21は、未学習の推論モデル31を準備する。具体的には、推論部21は、パラメータが未だ学習されていない推論モデル31を準備する。
ステップS202において、学習装置1の正解ラベル情報作成部22は、作業員に検査指示を送信する。具体的には、正解ラベル情報作成部22は、作業員が携帯している端末装置等に、検査作業を開始する旨の指示を送信する。
ステップS203において、学習装置1の学習部23は、推論モデル31に初期パラメータを入力する。具体的には、学習部23は、例えば、乱数表を使用して無作為的に作成したパラメータを推論モデル31に入力する。
ステップS203が終了した段階で、撮像装置2は製品を撮像した画像を、1フレームずつ学習装置1に送信する。学習装置1の画像取得装置16は、画像を1フレームずつ受信する。
ステップS204において、学習装置1の製品検出部24は、製品ID等を作成する。ステップS204の詳細は、製品ID作成処理手順(図7)として後記する。ここでは結果的に、製品検出部24は、ベルトコンベア4上を流れる製品に対して付与した製品ID、画像保存位置、撮像時点及び製品位置座標を取得したものとする。ステップS204の段階では、図3の正解ラベル情報32の1本のレコード(欄105及び欄106は空欄である)が新たに作成され、図5の推論結果情報33の1本のレコード(欄115及び欄116は空欄である)が新たに作成されていることになる。
ステップS205において、学習装置1の正解ラベル情報作成部22は、正解ラベル情報32を作成する。ステップS205の詳細は、正解ラベル情報作成処理手順(図8)として後記する。ここでは結果的に、正解ラベル情報作成部22は、図3の正解ラベル情報32の1本のレコード(すべての欄が埋まったもの)を完成したことになる。
ステップS206において、学習装置1の推論部21は、推論結果情報33を作成する。ステップS206の詳細は、推論結果情報作成処理手順(図9)として後記する。ここでは結果的に、推論部21は、図5の推論結果情報33の1本のレコード(すべての欄が埋まったもの)を完成したことになる。
ステップS207において、学習装置1の学習部23は、搬送された製品の数が第1の基準値を超えたか否かを判断する。第1の基準値とは、推論モデルのパラメータを固定した状態で推論モデルに判定結果及び把持可能位置座標を推定させる学習データの数である。例えて言えば、第1の基準値は、教師が生徒に課する1回のテストの問題数に相当する。
学習部23は、ステップS204において作成した製品IDの個数(第1のカウンタ値)をカウントしておく。学習部23は、第1のカウンタ値が第1の基準値に達した場合(ステップS207“Yes”)、この時点までに蓄積された推論結果情報33及び正解ラベル情報32を補助記憶装置15に記憶し、第1のカウンタ値を“0”に戻したうえでステップS208に進む。推論結果情報33及び正解ラベル情報32は、それぞれ、テストの答案及び解答に相当する。学習部23は、それ以外の場合(ステップS207“No”)、ステップS204に戻る。
いま、第1の基準値が“100”であるとする。すると、搬送された製品の累積個数が100個を超えた場合、学習部23は、ステップS208に進む。その後しばらく学習部23は、ステップS204に戻り続ける。次に学習部23がステップS208に進むのは、搬送された製品の累積個数が200個を超えた場合である。
ステップS208において、学習部23は、パラメータが変化した回数が第2の基準値に達したか否かを判断する。学習部23は、ステップS203又はS209を経由する回数(第2のカウンタ値)をカウントしておく。学習部23は、第2のカウンタ値が第2の基準値に達した場合(ステップS208“Yes”)、第2のカウンタ値を“0”に戻したうえでステップS210に進む。学習部23は、それ以外の場合(ステップS208“No”)、ステップS209に進む。例えて言えば、第2の基準値は、教師が生徒に課するテストの回数に相当する。いま、第2の基準値が“50”であるとする。すると、搬送された製品の累積個数が5000個を超えるまでは、学習部23は、ステップS209に進む。その間にパラメータは初期値も含め50の異なる値を取る。
ステップS209において、学習部23は、新たなパラメータを作成する。具体的には、学習部23は、例えば、乱数表を使用して無作為的に作成したパラメータを推論モデルに入力する。なお、このとき、学習部23は、遺伝的アルゴリズムを使用してパラメータを作成してもよい(詳細後記)。その後、学習部23は、ステップS203に戻る。
なお、ステップS203〜S209のループの繰り返し回数が少ないうちは、推論結果情報33における判定結果及び把持可能位置座標と、正解ラベル情報32における判定結果及び把持可能位置座標との誤差は大きい。但し、この段階では、ロボットが推論モデルを使用して実際に検査を行っているわけではないので、実害はない。
ステップS210において、学習装置1の誤差算出部25は、複数の推論結果情報33の誤差を算出する。ステップS210の段階で、補助記憶装置15は、推論結果情報33を50個記憶し、それらのそれぞれに対応する正解ラベル情報32を50個記憶していることになる。そこで、誤差算出部25は、“(s,P,e1,e2)”というデータの組合せを50個作成する。“s”は、i番目の推論結果情報を意味する(i=1、2、3、・・・、50)。“P”は、i番目の推論モデルのパラメータを示す。“P”は、例えば、ノード数×各ノードのパラメータ数の行列型式を有する。
“e1”は、i番目の推論結果情報の判定結果をi番目の正解ラベル情報の判定結果と比較した場合の、両者が相違する度数(製品の数)である。なお、0≦e1≦100が成立する。“e2”は、i番目の推論結果情報の把持可能位置座標をi番目の正解ラベル情報の把持可能位置座標と比較した場合の、両者が相違する度数である。なお、0≦e2≦100が成立する。把持可能位置座標は複数存在する場合もある。そこで、誤差算出部25は、推論結果情報の把持可能位置座標のすべてが、正解ラベル情報の把持可能位置座標のいずれからも所定の閾値以上離れている場合、両者が相違すると看做す。当然のことながら、50個の組合せのうち、e1及びe2が最小となるような“P”が、推論モデルのパラメータとして相応しい。“e1”及び“e2”を誤差と呼ぶ。
ステップS211において、誤差算出部25は、誤差が最小である推論モデルのパラメータを特定する。具体的には、誤差算出部25は、“P”(i=1、2、3、・・・、50)のうちから、“E=w×e1+w×e2”が最小となるものを特定する。“w”及び“w”は、誤差評価用の重みである。なお、“0≦w≦1,0≦w≦1,w+w=1”が成立する。
ステップS212において、学習装置1の学習継続判定部26は、誤差が閾値以下であるか否かを判断する。具体的には、学習継続判定部26は、ステップS211において特定した推論モデルのパラメータの誤差Eが所定の閾値以下である場合(ステップS212“Yes”)、ステップS213に進む。学習継続判定部26は、それ以外の場合(ステップS212“No”)、ステップS209に戻る。
ステップS213において、学習装置1の推論モデル出力部27は、推論モデルをロボットに送信する。具体的には、推論モデル出力部27は、ロボットに対して、推論モデル及びステップS211において特定した推論モデルのパラメータを送信する。ロボットが直ちに検査を行う必要がない場合もある。その場合、推論モデル出力部27は、ステップS211において特定した推論モデルのパラメータを補助記憶装置15に格納してもよいし、任意の外部の装置に送信してもよい。
ステップS214において、推論モデル出力部27は、ロボットに検査指示を送信する。具体的には、推論モデル出力部27は、ロボットに対して、ステップS213において送信した推論モデル及び推論モデルのパラメータを使用して検査を行う旨の指示を送信する。
ステップS215において、学習装置1の正解ラベル情報作成部22は、作業員に休止指示を送信する。その後、全体処理手順を終了する。
(遺伝的アルゴリズム等)
ステップS212“No”を経由してステップS209に戻る場合、組合せ“(s,P,e1,e2)”が複数取得されていることになる。そこで、学習装置1の学習部23は、これらの組合せのうち、“E”の値が最小であるもののパラメータP、及び、2番目に小さいもののパラメータP(両親)を選択し、この両親を掛けあわせて新たなパラメータP(子)を作成してもよい。
(製品ID作成処理手順)
図7に沿って、製品ID作成処理手順を説明する。製品ID作成処理手順は、ステップS204の詳細である。
ステップS301において、学習装置1の製品検出部24は、画像に製品が存在するか否かを判断する。具体的には、第1に、製品検出部24は、撮像装置2から製品の画像を取得する。
第2に、製品検出部24は、撮像装置2が取得した画像中に少なくとも1つの製品が存在する場合(ステップS301“Yes”)、ステップS302に進み、それ以外の場合(ステップS301“No”)、製品ID作成処理手順を終了する。
ステップS302において、製品検出部24は、検出した製品が直前の画像に存在するか否かを判断する。具体的には、製品検出部24は、製品が直前の(1フレーム前の)画像に存在する場合(ステップS302“Yes”)、ステップS303に進み、それ以外の場合(ステップS302“No”)、ステップS304に進む。なお、製品検出部24は、製品の同一性を判断するに際して、テンプレートマッチング、Mean-shift法等の領域ベースの追跡手法を使用してもよいし、SURF Tracking等の特徴点ベースの追跡手法を使用してもよい。
ステップS303において、製品検出部24は、同一の製品IDを付与する。具体的には、製品検出部24は、その製品に対して既に付されている製品IDを当該製品に付与する。
ステップS304において、製品検出部24は、新たな製品IDを付与する。具体的には、製品検出部24は、新たな製品IDを採番したうえで、その製品に対して新たな製品IDを付与する。
ステップS305において、製品検出部24は、製品ID等を送信する。具体的には、第1に、製品検出部24は、ステップS301の“第1”において取得した画像から個々の製品の画像を切り出し、切り出した画像の製品位置座標(対角線の両端点の座標値)を求める。
第2に、製品検出部24は、正解ラベル情報32(図3)の新たなレコードを作成し、新たなレコードに、撮像時点、画像保存位置、製品ID及び製品位置座標を記憶する。製品検出部24は、新たなレコードの判定結果欄105及び把持可能位置座標欄106を空白のままとする。
第3に、製品検出部24は、推論結果情報33(図5)の新たなレコードを作成し、新たなレコードに、撮像時点、画像保存位置、製品ID及び製品位置座標を記憶する。製品検出部24は、新たなレコードの判定結果欄115及び把持可能位置座標欄116を空白のままとする。その後、製品ID作成処理手順を終了する。
製品検出部24は、製品ID作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、製品検出部24は、製品ID作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
(正解ラベル情報作成処理手順)
図8に沿って、正解ラベル情報作成処理手順を説明する。正解ラベル情報作成処理手順は、ステップS205の詳細である。
ステップS401において、学習装置1の正解ラベル情報作成部22は、関節を抽出する。具体的には、正解ラベル情報作成部22は、作業員の指関節の位置座標を取得する。
ステップS402において、正解ラベル情報作成部22は、製品に関節が接触しているか否かを判断する。具体的には、正解ラベル情報作成部22は、関節の少なくとも1つが製品に接触している場合(ステップS402“Yes”)、ステップS403に進み、それ以外の場合(ステップS402“No”)、ステップS404に進む。
ステップS403において、正解ラベル情報作成部22は、把持可能位置座標を記憶する。具体的には、正解ラベル情報作成部22は、ステップS305の“第2”において作成した正解ラベル情報32(図3)の新たなレコードの把持可能位置座標欄106に、製品と接触している関節の位置情報を記憶する。
ステップS404において、正解ラベル情報作成部22は、直前の画像内で検出されたすべての製品が現在の画像内に存在するか否かを判断する。具体的には、正解ラベル情報作成部22は、直前の画像内で検出されたすべての製品が現在の画像内に存在する場合(ステップS404“Yes”)、正解ラベル情報作成処理手順を終了する。正解ラベル情報作成部22は、それ以外の場合(ステップS404“No”)、ステップS405に進む。
ステップS405において、正解ラベル情報作成部22は、存在しなくなった製品を特定する。具体的には、正解ラベル情報作成部22は、直前の画像において存在していた製品のうち、現在の画像において存在しなくなった製品を特定する。ここで特定された製品を“消滅製品”と呼ぶ。
ステップS406において、正解ラベル情報作成部22は、製品がフレームアウトしたか否かを判断する。具体的には、第1に、正解ラベル情報作成部22は、消滅製品がフレームアウトしたものであるか否かを判断する。“フレームアウト”とは、消滅製品が直前の画像において画像フレームの右辺(ベルトコンベアの下流側)に掛っていること、又は、掛らないまでも右辺から所定の距離内にあることを意味する(図4の符号42参照)。製品がフレームアウトすることは、作業員がその製品は良品であると判定し、ベルトコンベア4上を右に流れて行くのを見送ったことを意味する。製品がフレームアウトしないことは、作業員がその製品を不良品であると判定し、ベルトコンベア4上から排除したことを意味する。
第2に、正解ラベル情報作成部22は、消滅製品がフレームアウトした場合(ステップS406“Yes”)、ステップS407に進み、それ以外の場合(ステップS406“No”)、ステップS408に進む。
ステップS407において、正解ラベル情報作成部22は、製品は良品であると判定する。具体的には、正解ラベル情報作成部22は、ステップS305の“第2”において作成した正解ラベル情報32の新たなレコードの判定結果欄105に、“1”を記憶する。その後、正解ラベル情報作成処理手順を終了する。
ステップS408において、正解ラベル情報作成部22は、製品は不良品であると判定する。具体的には、正解ラベル情報作成部22は、ステップS305の“第2”において作成した正解ラベル情報32の新たなレコードの判定結果欄105に、“0”を記憶する。その後、正解ラベル情報作成処理手順を終了する。
正解ラベル情報作成部22は、正解ラベル情報作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、正解ラベル情報作成部22は、正解ラベル情報作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
(推論結果情報作成処理手順)
図9に沿って、推論結果情報作成処理手順を説明する。推論結果情報作成処理手順は、ステップS206の詳細である。
ステップS501において、学習装置1の推論部21は、判定結果を推定する。具体的には、推論部21は、製品の画像を推論モデル31に入力する。すると、推論モデルは、判定結果として“1”又は“0”を出力する。推論部21は、判定結果を受け付ける。
ステップS502において、推論部21は、把持可能位置座標を推定する。具体的には、推論部21は、製品の画像を推論モデル31に入力する。すると、推論モデルは、把持可能位置座標を出力する。推論部21は、把持可能位置座標を受け付ける。
ステップS503において、推論部21は、判定結果及び把持可能位置座標を記憶する。具体的には、第1に、推論部21は、ステップS305の“第3”において作成した推論結果情報33(図5)の新たなレコードの判定結果欄115に、ステップS501において受け付けた判定結果を記憶する。
第2に、推論部21は、新たなレコードの把持可能位置座標欄116に、ステップS502において受け付けた把持可能位置座標を記憶する。
その後、推論結果情報作成処理手順を終了する。
推論部21は、推論結果情報作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、推論部21は、推論結果情報作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
(本実施形態の効果)
本実施形態の学習装置の効果は以下の通りである。
(1)学習装置は、学習データに対するラベル付けを自動化することができる。
(2)学習装置は、製品の良/不良を判定することができる。
(3)学習装置は、製品を把持する位置を決定することができる。
(4)学習装置は、誤差が小さい推論モデルを作成することができる。
(5)学習装置は、推論モデルをロボット等に出力することができる。
なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、前記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
1 学習装置
2 撮像装置
3 作業員
4 ベルトコンベア
5 製品
6 検査ライン
11 中央制御装置
12 入力装置
13 出力装置
14 主記憶装置
15 補助記憶装置
16 画像取得装置
21 推論部
22 正解ラベル情報作成部
23 学習部
24 製品検出部
25 誤差算出部
26 学習継続判定部
27 推論モデル出力部
31 推論モデル
32 正解ラベル情報
33 推論結果情報

Claims (7)

  1. 製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得する推論部と、
    前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得する正解ラベル情報作成部と、
    前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習する学習部と、
    を備えることを特徴とする学習装置。
  2. 前記推論モデルによる認識結果及び前記人による認識結果は、
    前記製品に対する検査の合否を含むこと、
    を特徴とする請求項1に記載の学習装置。
  3. 前記推論モデルによる認識結果及び前記人による認識結果は、
    前記製品に対する検査に際し、前記人が把持する前記製品上の位置を含むこと、
    を特徴とする請求項2に記載の学習装置。
  4. 前記推論モデルによる認識結果と前記人による認識結果との間の誤差を算出する誤差算出部と、
    前記算出した誤差に基づいて、前記推論モデルの学習を継続するか否かを決定する学習継続判定部と、
    を備えることを特徴とする請求項3に記載の学習装置。
  5. 前記学習した推論モデルを外部の装置に対して出力する推論モデル出力部を備えること、
    を特徴とする請求項4に記載の学習装置。
  6. 学習装置の推論部は、
    製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得し、
    前記学習装置の正解ラベル情報作成部は、
    前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得し、
    前記学習装置の学習部は、
    前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習すること、
    を特徴とする学習装置の学習方法。
  7. 学習装置の推論部に対し、
    製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得する処理を実行させ、
    前記学習装置の正解ラベル情報作成部に対し、
    前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得する処理を実行させ、
    前記学習装置の学習部に対し、
    前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習する処理を実行させること、
    を特徴とする学習装置を機能させるための学習プログラム。
JP2018091841A 2018-05-11 2018-05-11 学習装置、学習方法及び学習プログラム Active JP7025989B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018091841A JP7025989B2 (ja) 2018-05-11 2018-05-11 学習装置、学習方法及び学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018091841A JP7025989B2 (ja) 2018-05-11 2018-05-11 学習装置、学習方法及び学習プログラム

Publications (2)

Publication Number Publication Date
JP2019197441A true JP2019197441A (ja) 2019-11-14
JP7025989B2 JP7025989B2 (ja) 2022-02-25

Family

ID=68538671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018091841A Active JP7025989B2 (ja) 2018-05-11 2018-05-11 学習装置、学習方法及び学習プログラム

Country Status (1)

Country Link
JP (1) JP7025989B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021152691A (ja) * 2020-03-24 2021-09-30 株式会社 日立産業制御ソリューションズ 学習画像判定装置、プログラムおよび学習画像判定方法
JP7097642B1 (ja) 2021-04-07 2022-07-08 吉泉産業株式会社 食品検査システム、食品検査学習装置および食品検査方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073373A1 (ja) * 2015-10-30 2017-05-04 株式会社モルフォ 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置
JP2017107509A (ja) * 2015-12-11 2017-06-15 キヤノン株式会社 情報提示方法及び装置
WO2017203572A1 (ja) * 2016-05-23 2017-11-30 株式会社日立ハイテクノロジーズ 欠陥画像分類装置および欠陥画像分類方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073373A1 (ja) * 2015-10-30 2017-05-04 株式会社モルフォ 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置
JP2017107509A (ja) * 2015-12-11 2017-06-15 キヤノン株式会社 情報提示方法及び装置
WO2017203572A1 (ja) * 2016-05-23 2017-11-30 株式会社日立ハイテクノロジーズ 欠陥画像分類装置および欠陥画像分類方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川上拓也,外3名: "3−Dシーン観察に基づく手と物体の関係性の学習と把持パタンの想起", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2016−CVIM−20, JPN6021037061, 5 May 2016 (2016-05-05), pages 1 - 4, ISSN: 0004600777 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021152691A (ja) * 2020-03-24 2021-09-30 株式会社 日立産業制御ソリューションズ 学習画像判定装置、プログラムおよび学習画像判定方法
JP7266008B2 (ja) 2020-03-24 2023-04-27 株式会社 日立産業制御ソリューションズ 学習画像判定装置、プログラムおよび学習画像判定方法
JP7097642B1 (ja) 2021-04-07 2022-07-08 吉泉産業株式会社 食品検査システム、食品検査学習装置および食品検査方法
JP2022160796A (ja) * 2021-04-07 2022-10-20 吉泉産業株式会社 食品検査システム、食品検査学習装置および食品検査方法

Also Published As

Publication number Publication date
JP7025989B2 (ja) 2022-02-25

Similar Documents

Publication Publication Date Title
JP7045139B2 (ja) 機械学習装置、機械学習方法、および機械学習プログラム
JP6921151B2 (ja) ロボットの把持のための深層機械学習方法および装置
Hoque et al. Visuospatial foresight for multi-step, multi-task fabric manipulation
JP6810087B2 (ja) 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP6671694B1 (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
US20170087722A1 (en) Method and a Data Processing System for Simulating and Handling of Anti-Collision Management for an Area of a Production Plant
JP7458741B2 (ja) ロボット制御装置及びその制御方法及びプログラム
CN114599488B (zh) 机器学习数据生成装置、机器学习装置、作业系统、计算机程序、机器学习数据生成方法及作业机的制造方法
Bottarel et al. GRASPA 1.0: GRASPA is a robot arm grasping performance benchmark
WO2019230399A1 (ja) ロボット制御装置、システム、情報処理方法及びプログラム
US11908337B2 (en) Information processing device, intermediation device, simulation system, and information processing method
Tuli et al. Knowledge-based digital twin for predicting interactions in human-robot collaboration
CN108229678B (zh) 网络训练方法、操作控制方法、装置、存储介质和设备
JP7025989B2 (ja) 学習装置、学習方法及び学習プログラム
WO2020071174A1 (ja) 学習装置、制御装置、学習方法、及び学習プログラム
JP2019206041A5 (ja) 情報処理装置、ロボット制御装置、情報処理方法及びプログラム
CN112775967A (zh) 基于机器视觉的机械臂抓取方法、装置及设备
CN115461199A (zh) 用于自主机器人操作的面向任务的3d重构
Siddiqui et al. Grasp stability prediction for a dexterous robotic hand combining depth vision and haptic bayesian exploration
Kim et al. Digital twin for autonomous collaborative robot by using synthetic data and reinforcement learning
WO2022091366A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び、記録媒体
CN109754665A (zh) 一种机械制造模具虚拟装配培训信息处理系统及培训方法
CN214896671U (zh) 一种基于机器人的智能软件测试平台
US20230330854A1 (en) Movement planning device, movement planning method, and non-transitory computer readable medium
JPWO2020178913A1 (ja) 検査システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7025989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150