JP2019197441A - 学習装置、学習方法及び学習プログラム - Google Patents
学習装置、学習方法及び学習プログラム Download PDFInfo
- Publication number
- JP2019197441A JP2019197441A JP2018091841A JP2018091841A JP2019197441A JP 2019197441 A JP2019197441 A JP 2019197441A JP 2018091841 A JP2018091841 A JP 2018091841A JP 2018091841 A JP2018091841 A JP 2018091841A JP 2019197441 A JP2019197441 A JP 2019197441A
- Authority
- JP
- Japan
- Prior art keywords
- product
- learning
- recognition result
- inference model
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
そこで、本発明は、ラベル付け作業を自動化することを目的とする。
その他の手段については、発明を実施するための形態のなかで説明する。
図1に沿って、本実施形態の学習装置が稼働する環境を説明する。図1は、ある工場の検査ライン6の図である。図1の左右方向にベルトコンベア4が敷設されている。ベルトコンベア4は、図1の左から右の方向へ複数の製品5を搬送している。製品5は、出荷直前の完成品であってもよいし、次の工程に行く直前の中間製品であってもよい。製品5の形状等は一様ではなく、製品5ごとに異なっている。作業員3がベルトコンベア4の前に立っている。
本実施形態の推論モデル31(図2)は、例えば、入力層、出力層及び複数の中間層を有するニューラルネットワーク(図示せず)である。入力層は、製品の画像を受け付ける。出力層は、良/不良の判定結果、及び、製品の把持可能位置座標を出力する。公知のように、入力層、中間層及び出力層は、複数のノード(人間の神経細胞に相当)を有している。あるノードがある情報量を受け取ると、その情報量のうちある部分を次の層のあるノードに伝搬する。どれだけの情報量をどのノードに伝搬するかという情報(重みベクトル)を、それぞれのノードが保有している。推論モデル31を学習することは、それぞれのノードについて重みベクトルの成分を最適化することに相当する。以降、本実施形態では、それぞれのノードの重みベクトルを総称して“パラメータ”と呼ぶ。
図2に沿って、学習装置1の構成を説明する。学習装置1は、一般的なコンピュータであり、中央制御装置11、キーボード、タッチパネル等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び画像取得装置16を備える。これらは、バスで相互に接続されている。補助記憶装置15は、推論モデル31、正解ラベル情報32及び推論結果情報33(いずれも詳細後記)を格納している。
図3に沿って、正解ラベル情報32を説明する。正解ラベル情報32は、撮像時点欄101に記憶された撮像時点に関連付けて、画像保存位置欄102には画像保存位置が、製品ID(Identifier)欄103には製品IDが、製品位置座標欄104には製品位置座標が、判定結果欄105には判定結果が、把持可能位置座標欄106には把持可能位置座標が記憶されている。なお、機械学習の分野において、手本とすべきデータ(教師データ)を特定することを、一般に、“データに正解ラベルを付す”のように表現することが多い。このことが、ここでの“正解ラベル情報”の命名根拠である。
画像保存位置欄102の画像保存位置は、製品の画像が記憶されている位置を示す情報である。製品の画像は、学習装置1の補助記憶装置15に記憶されてもよいし、他の外部装置に記憶されてもよい。
製品ID欄103の製品IDは、製品を一意に特定する識別子である。
判定結果欄105の判定結果は、“0”又は“1”のいずれかである。“0”は、不良品を示し、“1”は良品を示す。ここでの判定結果は、作業員による判定の結果である。作業員が製品を排除した場合、判定結果は“0”となり、排除せずに見送った場合、判定結果は“1”となる(詳細後記)。なお、請求項の“検査の合否”には、ここでの判定結果が相当する。
なお、請求項における“人による認識結果”には、図3における判定結果及び把持可能位置座標が相当する。
・撮像装置2は、12時00分00秒、12時00分01秒、12時00分02秒及び12時00分03秒において1枚ずつ、計4枚の画像を取得した。
・12時00分00秒の画像には、製品は写っていなかった。
・12時00分01秒の画像には、製品P001が写っていた。作業員は、2つの位置“(X3,Y3)”及び“(X4,Y4)”で製品P001に接触し始めた。なお、“接触”は、“把持”の初期段階である。
・12時00分02秒において、作業員は、前記した2つの位置に加えてさらに4つの位置“(X7,Y7)”、“(X8,Y8)”、“(X9,Y9)”及び“(X10,Y10)”で製品P001に接触した(握った)。作業員は、製品P001を不良品回収ヤードに排除した。
・12時00分02秒において、作業員は、2つの位置“(X13,Y13)”及び“(X14,Y14)”で製品P002に接触した(摘まんだ)。作業員は、製品P002は良品であると判定した。
・12時00分02秒において、作業員は、2つの位置“(X17,Y17)”及び“(X18,Y18)”で製品P003に接触した(摘まんだ)。作業員は、製品P003は良品であると判定した。
図4に沿って、把持可能位置座標及びフレームアウトを説明する。作業員が、自身の手を製品5に接触させている(図4の上図)。この図では、作業員は製品5に触れているだけであるが、作業員は、製品5を握りしめ、持ち上げることもある。このとき、関節41が製品5に接触する位置が把持可能位置である。製品5が良品であると作業員が判定すると、作業員は製品5から手を離す。すると、図5の下図のように、製品5は、画面の右側42に消えて行く(フレームアウト)。
図5に沿って、推論結果情報33を説明する。推論結果情報33の構成は、正解ラベル情報32(図3)と同じである。しかしながら、推論結果情報33の各欄のデータは、正解ラベル情報32の同じ欄のデータと、以下の点で異なる。
・図3の把持可能位置座標(欄106)は、前記したように作業員による動作に基づく。他方、図5の把持可能位置座標(欄116)は、推論部21が推論モデルに製品の画像を入力したことを受け推論モデルが出力した出力値に基づく。
なお、請求項における“推論モデルによる認識結果”には、図5における判定結果及び把持可能位置座標が相当する。
図6に沿って、全体処理手順を説明する。
ステップS201において、学習装置1の推論部21は、未学習の推論モデル31を準備する。具体的には、推論部21は、パラメータが未だ学習されていない推論モデル31を準備する。
ステップS203が終了した段階で、撮像装置2は製品を撮像した画像を、1フレームずつ学習装置1に送信する。学習装置1の画像取得装置16は、画像を1フレームずつ受信する。
ステップS212“No”を経由してステップS209に戻る場合、組合せ“(si,Pi,e1i,e2i)”が複数取得されていることになる。そこで、学習装置1の学習部23は、これらの組合せのうち、“Ei”の値が最小であるもののパラメータPi、及び、2番目に小さいもののパラメータPi(両親)を選択し、この両親を掛けあわせて新たなパラメータPi(子)を作成してもよい。
図7に沿って、製品ID作成処理手順を説明する。製品ID作成処理手順は、ステップS204の詳細である。
ステップS301において、学習装置1の製品検出部24は、画像に製品が存在するか否かを判断する。具体的には、第1に、製品検出部24は、撮像装置2から製品の画像を取得する。
第2に、製品検出部24は、撮像装置2が取得した画像中に少なくとも1つの製品が存在する場合(ステップS301“Yes”)、ステップS302に進み、それ以外の場合(ステップS301“No”)、製品ID作成処理手順を終了する。
第2に、製品検出部24は、正解ラベル情報32(図3)の新たなレコードを作成し、新たなレコードに、撮像時点、画像保存位置、製品ID及び製品位置座標を記憶する。製品検出部24は、新たなレコードの判定結果欄105及び把持可能位置座標欄106を空白のままとする。
図8に沿って、正解ラベル情報作成処理手順を説明する。正解ラベル情報作成処理手順は、ステップS205の詳細である。
ステップS401において、学習装置1の正解ラベル情報作成部22は、関節を抽出する。具体的には、正解ラベル情報作成部22は、作業員の指関節の位置座標を取得する。
正解ラベル情報作成部22は、正解ラベル情報作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、正解ラベル情報作成部22は、正解ラベル情報作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
図9に沿って、推論結果情報作成処理手順を説明する。推論結果情報作成処理手順は、ステップS206の詳細である。
ステップS501において、学習装置1の推論部21は、判定結果を推定する。具体的には、推論部21は、製品の画像を推論モデル31に入力する。すると、推論モデルは、判定結果として“1”又は“0”を出力する。推論部21は、判定結果を受け付ける。
第2に、推論部21は、新たなレコードの把持可能位置座標欄116に、ステップS502において受け付けた把持可能位置座標を記憶する。
その後、推論結果情報作成処理手順を終了する。
推論部21は、推論結果情報作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、推論部21は、推論結果情報作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
本実施形態の学習装置の効果は以下の通りである。
(1)学習装置は、学習データに対するラベル付けを自動化することができる。
(2)学習装置は、製品の良/不良を判定することができる。
(3)学習装置は、製品を把持する位置を決定することができる。
(4)学習装置は、誤差が小さい推論モデルを作成することができる。
(5)学習装置は、推論モデルをロボット等に出力することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
2 撮像装置
3 作業員
4 ベルトコンベア
5 製品
6 検査ライン
11 中央制御装置
12 入力装置
13 出力装置
14 主記憶装置
15 補助記憶装置
16 画像取得装置
21 推論部
22 正解ラベル情報作成部
23 学習部
24 製品検出部
25 誤差算出部
26 学習継続判定部
27 推論モデル出力部
31 推論モデル
32 正解ラベル情報
33 推論結果情報
Claims (7)
- 製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得する推論部と、
前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得する正解ラベル情報作成部と、
前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習する学習部と、
を備えることを特徴とする学習装置。 - 前記推論モデルによる認識結果及び前記人による認識結果は、
前記製品に対する検査の合否を含むこと、
を特徴とする請求項1に記載の学習装置。 - 前記推論モデルによる認識結果及び前記人による認識結果は、
前記製品に対する検査に際し、前記人が把持する前記製品上の位置を含むこと、
を特徴とする請求項2に記載の学習装置。 - 前記推論モデルによる認識結果と前記人による認識結果との間の誤差を算出する誤差算出部と、
前記算出した誤差に基づいて、前記推論モデルの学習を継続するか否かを決定する学習継続判定部と、
を備えることを特徴とする請求項3に記載の学習装置。 - 前記学習した推論モデルを外部の装置に対して出力する推論モデル出力部を備えること、
を特徴とする請求項4に記載の学習装置。 - 学習装置の推論部は、
製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得し、
前記学習装置の正解ラベル情報作成部は、
前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得し、
前記学習装置の学習部は、
前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習すること、
を特徴とする学習装置の学習方法。 - 学習装置の推論部に対し、
製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得する処理を実行させ、
前記学習装置の正解ラベル情報作成部に対し、
前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得する処理を実行させ、
前記学習装置の学習部に対し、
前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習する処理を実行させること、
を特徴とする学習装置を機能させるための学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018091841A JP7025989B2 (ja) | 2018-05-11 | 2018-05-11 | 学習装置、学習方法及び学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018091841A JP7025989B2 (ja) | 2018-05-11 | 2018-05-11 | 学習装置、学習方法及び学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019197441A true JP2019197441A (ja) | 2019-11-14 |
JP7025989B2 JP7025989B2 (ja) | 2022-02-25 |
Family
ID=68538671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018091841A Active JP7025989B2 (ja) | 2018-05-11 | 2018-05-11 | 学習装置、学習方法及び学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7025989B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021152691A (ja) * | 2020-03-24 | 2021-09-30 | 株式会社 日立産業制御ソリューションズ | 学習画像判定装置、プログラムおよび学習画像判定方法 |
JP7097642B1 (ja) | 2021-04-07 | 2022-07-08 | 吉泉産業株式会社 | 食品検査システム、食品検査学習装置および食品検査方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017073373A1 (ja) * | 2015-10-30 | 2017-05-04 | 株式会社モルフォ | 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置 |
JP2017107509A (ja) * | 2015-12-11 | 2017-06-15 | キヤノン株式会社 | 情報提示方法及び装置 |
WO2017203572A1 (ja) * | 2016-05-23 | 2017-11-30 | 株式会社日立ハイテクノロジーズ | 欠陥画像分類装置および欠陥画像分類方法 |
-
2018
- 2018-05-11 JP JP2018091841A patent/JP7025989B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017073373A1 (ja) * | 2015-10-30 | 2017-05-04 | 株式会社モルフォ | 学習システム、学習装置、学習方法、学習プログラム、教師データ作成装置、教師データ作成方法、教師データ作成プログラム、端末装置及び閾値変更装置 |
JP2017107509A (ja) * | 2015-12-11 | 2017-06-15 | キヤノン株式会社 | 情報提示方法及び装置 |
WO2017203572A1 (ja) * | 2016-05-23 | 2017-11-30 | 株式会社日立ハイテクノロジーズ | 欠陥画像分類装置および欠陥画像分類方法 |
Non-Patent Citations (1)
Title |
---|
川上拓也,外3名: "3−Dシーン観察に基づく手と物体の関係性の学習と把持パタンの想起", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2016−CVIM−20, JPN6021037061, 5 May 2016 (2016-05-05), pages 1 - 4, ISSN: 0004600777 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021152691A (ja) * | 2020-03-24 | 2021-09-30 | 株式会社 日立産業制御ソリューションズ | 学習画像判定装置、プログラムおよび学習画像判定方法 |
JP7266008B2 (ja) | 2020-03-24 | 2023-04-27 | 株式会社 日立産業制御ソリューションズ | 学習画像判定装置、プログラムおよび学習画像判定方法 |
JP7097642B1 (ja) | 2021-04-07 | 2022-07-08 | 吉泉産業株式会社 | 食品検査システム、食品検査学習装置および食品検査方法 |
JP2022160796A (ja) * | 2021-04-07 | 2022-10-20 | 吉泉産業株式会社 | 食品検査システム、食品検査学習装置および食品検査方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7025989B2 (ja) | 2022-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7045139B2 (ja) | 機械学習装置、機械学習方法、および機械学習プログラム | |
JP6921151B2 (ja) | ロボットの把持のための深層機械学習方法および装置 | |
Hoque et al. | Visuospatial foresight for multi-step, multi-task fabric manipulation | |
JP6810087B2 (ja) | 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法 | |
JP6671694B1 (ja) | 機械学習装置、機械学習システム、データ処理システム及び機械学習方法 | |
US20170087722A1 (en) | Method and a Data Processing System for Simulating and Handling of Anti-Collision Management for an Area of a Production Plant | |
JP7458741B2 (ja) | ロボット制御装置及びその制御方法及びプログラム | |
CN114599488B (zh) | 机器学习数据生成装置、机器学习装置、作业系统、计算机程序、机器学习数据生成方法及作业机的制造方法 | |
Bottarel et al. | GRASPA 1.0: GRASPA is a robot arm grasping performance benchmark | |
WO2019230399A1 (ja) | ロボット制御装置、システム、情報処理方法及びプログラム | |
US11908337B2 (en) | Information processing device, intermediation device, simulation system, and information processing method | |
Tuli et al. | Knowledge-based digital twin for predicting interactions in human-robot collaboration | |
CN108229678B (zh) | 网络训练方法、操作控制方法、装置、存储介质和设备 | |
JP7025989B2 (ja) | 学習装置、学習方法及び学習プログラム | |
WO2020071174A1 (ja) | 学習装置、制御装置、学習方法、及び学習プログラム | |
JP2019206041A5 (ja) | 情報処理装置、ロボット制御装置、情報処理方法及びプログラム | |
CN112775967A (zh) | 基于机器视觉的机械臂抓取方法、装置及设备 | |
CN115461199A (zh) | 用于自主机器人操作的面向任务的3d重构 | |
Siddiqui et al. | Grasp stability prediction for a dexterous robotic hand combining depth vision and haptic bayesian exploration | |
Kim et al. | Digital twin for autonomous collaborative robot by using synthetic data and reinforcement learning | |
WO2022091366A1 (ja) | 情報処理システム、情報処理装置、情報処理方法、及び、記録媒体 | |
CN109754665A (zh) | 一种机械制造模具虚拟装配培训信息处理系统及培训方法 | |
CN214896671U (zh) | 一种基于机器人的智能软件测试平台 | |
US20230330854A1 (en) | Movement planning device, movement planning method, and non-transitory computer readable medium | |
JPWO2020178913A1 (ja) | 検査システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7025989 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |