JP7025989B2 - Learning equipment, learning methods and learning programs - Google Patents

Learning equipment, learning methods and learning programs Download PDF

Info

Publication number
JP7025989B2
JP7025989B2 JP2018091841A JP2018091841A JP7025989B2 JP 7025989 B2 JP7025989 B2 JP 7025989B2 JP 2018091841 A JP2018091841 A JP 2018091841A JP 2018091841 A JP2018091841 A JP 2018091841A JP 7025989 B2 JP7025989 B2 JP 7025989B2
Authority
JP
Japan
Prior art keywords
product
image
learning
inference model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018091841A
Other languages
Japanese (ja)
Other versions
JP2019197441A (en
Inventor
博章 三沢
博基 古川
一則 和久井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2018091841A priority Critical patent/JP7025989B2/en
Publication of JP2019197441A publication Critical patent/JP2019197441A/en
Application granted granted Critical
Publication of JP7025989B2 publication Critical patent/JP7025989B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a learning device, a learning method and a learning program.

近年、少子高齢化に伴う労働人口の減少に伴い、工場、倉庫等では、人工知能及びロボットが活躍する機会が増加している。例えば、製品の検査作業(良品、不良品の判定)に従事していた作業員は、ロボットに代替されつつある。ロボットは、製品を視認し製品を把持したうえで製品が不良品であるか否かを認識し、製品が不良品である場合、製品を検査ライン等から排除する。ロボットにこのような作業をさせるためには、ロボットを制御するソフトウエア(人工知能)を、予め膨大な学習データで学習しておく必要がある。 In recent years, with the decrease in the working population due to the declining birthrate and aging population, opportunities for artificial intelligence and robots to play an active role in factories, warehouses, etc. are increasing. For example, workers engaged in product inspection work (determination of non-defective products and defective products) are being replaced by robots. The robot visually recognizes the product, grasps the product, recognizes whether or not the product is defective, and if the product is defective, removes the product from the inspection line or the like. In order to make the robot perform such work, it is necessary to learn the software (artificial intelligence) that controls the robot in advance with a huge amount of learning data.

人工知能が多層構造のニューラルネットワークである場合、いわゆるディープラーニング(Deep Learning)が行われる。教師データを使用するディープラーニングにおいては、膨大な数の学習データを準備する工数に加え、それらの学習データに正解ラベルを付す工数も必要となる。例えば、検査ラインにおいて数万規模の画像が取得され、次に、その画像の製品が良品であったかそれとも不良品であったか等を示すラベルが画像に付される。特許文献1のデータ処理装置は、人の動きを時系列の画像として取得する。当該装置は、第1の時点の画像とその後の第2の時点の画像との間の変化の程度に基づいて、両画像間の画像を新たに抽出する。当該装置は、変化の程度が所定の閾値より小さい場合、新たに抽出した画像に対して、第1の時点の画像に付したラベルと同じラベル、又は、第2の時点の画像に付したラベルと同じラベルを付す。 When artificial intelligence is a multi-layered neural network, so-called deep learning is performed. In deep learning using teacher data, in addition to the man-hours for preparing a huge number of learning data, the man-hours for attaching a correct answer label to the learning data are also required. For example, an image of tens of thousands of scales is acquired on the inspection line, and then a label indicating whether the product of the image is a good product or a defective product is attached to the image. The data processing device of Patent Document 1 acquires the movement of a person as a time-series image. The device newly extracts an image between the two images based on the degree of change between the image at the first time point and the image at the second time point thereafter. When the degree of change is smaller than a predetermined threshold value, the apparatus has the same label as the label attached to the image at the first time point or the label attached to the image at the second time point on the newly extracted image. With the same label as.

特開2016-76073号公報Japanese Unexamined Patent Publication No. 2016-76073

しかしながら、特許文献1のデータ処理装置は、ラベルを付すべき候補となっている画像に対して、どのラベルを付すかの判定をユーザの手動入力によっている(特許文献1の段落0068、図3)。つまり、特許文献1では、教師データの有効な候補となる画像を取得することについては効果が認められるものの、ラベル付けの工数を削減するためには、別途方策が必要であった。
そこで、本発明は、ラベル付け作業を自動化することを目的とする。
However, the data processing apparatus of Patent Document 1 manually inputs a user to determine which label should be attached to the image that is a candidate to be labeled (paragraph 0068 of Patent Document 1, FIG. 3). .. That is, in Patent Document 1, although the effect of acquiring an image that is a valid candidate for teacher data is recognized, a separate measure is required in order to reduce the man-hours for labeling.
Therefore, an object of the present invention is to automate the labeling work.

本発明の学習装置は、製品の画像を入力とし製品に対する認識結果を出力とする推論モデルから、推論モデルによる認識結果を取得する推論部と、製品の画像及び製品に対する人の行動の画像から、人による認識結果を取得する正解ラベル情報作成部と、推論モデルによる認識結果及び人による認識結果に基づいて、推論モデルを学習する学習部と、を備え、正解ラベル情報作成部は、製品の画像及び製品に対する人の行動の画像において、製品を搬送する検査ライン上で人が製品に触れた後に当該製品から手を離した結果、当該製品が検査ライン上を所定の方向に流れて画面から消えたことを検知した場合、当該製品は良品であると判定すること、を特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
The learning device of the present invention has an inference unit that acquires a recognition result by an inference model from an inference model that inputs an image of a product and outputs a recognition result for the product, and an image of the product and an image of human behavior toward the product. It is equipped with a correct answer label information creation unit that acquires the recognition result by a person and a learning unit that learns an inference model based on the recognition result by the inference model and the recognition result by the person. The correct answer label information creation unit is an image of the product. And in the image of human behavior toward the product, as a result of the person touching the product on the inspection line that transports the product and then releasing the product, the product flows on the inspection line in a predetermined direction and disappears from the screen. When it is detected, the product is determined to be a non-defective product .
Other means will be described in the form for carrying out the invention.

本発明によれば、ラベル付け作業を自動化することができる。 According to the present invention, the labeling work can be automated.

学習装置が稼働する環境を説明する図である。It is a figure explaining the environment in which a learning device operates. 学習装置の構成を説明する図である。It is a figure explaining the structure of a learning device. 正解ラベル情報を説明する図である。It is a figure explaining the correct answer label information. 把持可能位置座標及びフレームアウトを説明する図である。It is a figure explaining the gripping position coordinates and flameout. 推論結果情報を説明する図である。It is a figure explaining the inference result information. 全体処理手順のフローチャートである。It is a flowchart of the whole processing procedure. 製品ID作成処理手順のフローチャートである。It is a flowchart of the product ID creation processing procedure. 正解ラベル情報作成処理手順のフローチャートである。It is a flowchart of a correct answer label information creation processing procedure. 推論結果情報作成処理手順のフローチャートである。It is a flowchart of the inference result information creation processing procedure.

以降、本発明を実施するための形態(“本実施形態”という)を、図等を参照しながら詳細に説明する。本実施形態は、製品の検査工程において、ロボットが製品の良/不良を判定し不良品を排除する例である。しかしながら、本発明は、ロボットが物の外観を視認し物を把持した結果に基づき、物に対して動作を行う例に一般的に適用可能である。 Hereinafter, a mode for carrying out the present invention (referred to as “the present embodiment”) will be described in detail with reference to figures and the like. This embodiment is an example in which the robot determines whether the product is good or bad and eliminates the defective product in the product inspection process. However, the present invention is generally applicable to an example in which a robot operates on an object based on the result of visually recognizing the appearance of the object and grasping the object.

(環境)
図1に沿って、本実施形態の学習装置が稼働する環境を説明する。図1は、ある工場の検査ライン6の図である。図1の左右方向にベルトコンベア4が敷設されている。ベルトコンベア4は、図1の左から右の方向へ複数の製品5を搬送している。製品5は、出荷直前の完成品であってもよいし、次の工程に行く直前の中間製品であってもよい。製品5の形状等は一様ではなく、製品5ごとに異なっている。作業員3がベルトコンベア4の前に立っている。
(environment)
An environment in which the learning device of the present embodiment operates will be described with reference to FIG. FIG. 1 is a diagram of an inspection line 6 of a factory. Belt conveyors 4 are laid in the left-right direction of FIG. The belt conveyor 4 conveys a plurality of products 5 from the left to the right in FIG. The product 5 may be a finished product immediately before shipment or an intermediate product immediately before going to the next process. The shape and the like of the product 5 are not uniform and are different for each product 5. Worker 3 is standing in front of the belt conveyor 4.

作業員3は、左側から搬送されて来る製品5を目視し、製品の形状、色等を認識する。同時に作業員3は、製品5のある箇所を手で把持し、重量、重心位置、内部構造の固定状態等を認識する。認識の結果、製品5の形状等が所定の基準を満たさないと作業員3が判定した場合、作業員3は、その製品5は不良品であると判定し、不良品をベルトコンベア4の外側の不良品回収ヤード(図示せず)に排除する。製品5の形状等が所定の基準を満たす場合、作業員3は、その製品5は良品であると判定し、製品5がそのままベルトコンベア4上で搬送されて行くのを見送る。 The worker 3 visually observes the product 5 conveyed from the left side and recognizes the shape, color, and the like of the product. At the same time, the worker 3 grasps a certain part of the product 5 by hand and recognizes the weight, the position of the center of gravity, the fixed state of the internal structure, and the like. As a result of the recognition, when the worker 3 determines that the shape or the like of the product 5 does not meet the predetermined criteria, the worker 3 determines that the product 5 is a defective product, and determines that the defective product is a defective product outside the belt conveyor 4. Eliminate to the defective collection yard (not shown). When the shape of the product 5 or the like satisfies a predetermined criterion, the worker 3 determines that the product 5 is a non-defective product and forgoes the product 5 to be conveyed as it is on the belt conveyor 4.

このような作業員3の判定及び動作を、まったく同じようにロボット(図示せず)が行う。ロボットは、人間の全身形状を有するヒューマノイドロボットであってもよいし、人間の腕及び手の部分のみを有するアームロボットであってもよい。製品5及び作業員3の画像を撮像装置2が取得している。撮像装置2は、例えば、3次元RGB(Red Green Blue)カメラである。3次元RGBカメラは、撮像した製品5及び作業員3の手等を、3次元仮想空間内でカラー画像として時系列で再現することができる。 A robot (not shown) performs such determination and operation of the worker 3 in exactly the same manner. The robot may be a humanoid robot having a human whole body shape, or may be an arm robot having only human arms and hands. The image pickup device 2 has acquired the images of the product 5 and the worker 3. The image pickup apparatus 2 is, for example, a three-dimensional RGB (Red Green Blue) camera. The 3D RGB camera can reproduce the captured product 5 and the hands of the worker 3 as a color image in a 3D virtual space in chronological order.

本実施形態の学習装置は、撮像装置2が取得した画像から正解ラベル情報(詳細後記)を作成し、正解ラベル情報を学習データとして使用して推論モデル(詳細後記)を学習する。さらに、学習装置は、学習済みの推論モデルを使用してロボットを制御する。つまり、ロボットが製品の良/不良を判定する基準、及び、ロボットが把持する製品の位置は、推論モデルによって決定される。 The learning device of the present embodiment creates correct answer label information (detailed later) from the image acquired by the image pickup device 2, and learns an inference model (detailed later) using the correct label information as learning data. In addition, the learning device uses the trained inference model to control the robot. That is, the criteria for determining the quality / defect of the product by the robot and the position of the product held by the robot are determined by the inference model.

(推論モデル)
本実施形態の推論モデル31(図2)は、例えば、入力層、出力層及び複数の中間層を有するニューラルネットワーク(図示せず)である。入力層は、製品の画像を受け付ける。出力層は、良/不良の判定結果、及び、製品の把持可能位置座標を出力する。公知のように、入力層、中間層及び出力層は、複数のノード(人間の神経細胞に相当)を有している。あるノードがある情報量を受け取ると、その情報量のうちある部分を次の層のあるノードに伝搬する。どれだけの情報量をどのノードに伝搬するかという情報(重みベクトル)を、それぞれのノードが保有している。推論モデル31を学習することは、それぞれのノードについて重みベクトルの成分を最適化することに相当する。以降、本実施形態では、それぞれのノードの重みベクトルを総称して“パラメータ”と呼ぶ。
(Inference model)
The inference model 31 (FIG. 2) of the present embodiment is, for example, a neural network (not shown) having an input layer, an output layer, and a plurality of intermediate layers. The input layer receives the image of the product. The output layer outputs the good / bad determination result and the grippable position coordinates of the product. As is known, the input layer, the intermediate layer and the output layer have a plurality of nodes (corresponding to human nerve cells). When a node receives a certain amount of information, a part of the amount of information is propagated to a node in the next layer. Each node has information (weight vector) as to how much information is propagated to which node. Learning the inference model 31 corresponds to optimizing the components of the weight vector for each node. Hereinafter, in the present embodiment, the weight vectors of the respective nodes are collectively referred to as “parameters”.

(学習装置の構成)
図2に沿って、学習装置1の構成を説明する。学習装置1は、一般的なコンピュータであり、中央制御装置11、キーボード、タッチパネル等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び画像取得装置16を備える。これらは、バスで相互に接続されている。補助記憶装置15は、推論モデル31、正解ラベル情報32及び推論結果情報33(いずれも詳細後記)を格納している。
(Configuration of learning device)
The configuration of the learning device 1 will be described with reference to FIG. The learning device 1 is a general computer and includes a central control device 11, an input device 12 such as a keyboard and a touch panel, an output device 13 such as a display, a main storage device 14, an auxiliary storage device 15, and an image acquisition device 16. These are interconnected by a bus. The auxiliary storage device 15 stores the inference model 31, the correct label information 32, and the inference result information 33 (all of which are described in detail later).

主記憶装置14における、推論部21、正解ラベル情報作成部22、学習部23、製品検出部24、誤差算出部25、学習継続判定部26及び推論モデル出力部27は、プログラムである。以降において、“○○部は”と動作主体を記した場合、それは、中央制御部11が補助記憶装置15から“○○部”を読み出して主記憶装置14にロードしたうえで、後記する処理を実行することを意味する。撮像装置2は、検査ライン6のベルトコンベア4上の製品5及び作業員3(図2には図示せず)を撮像する。撮像装置2は、有線又は無線のネットワーク7を介して、撮像した画像を学習装置1に送信する。学習装置1の画像取得装置16は、画像を受信する。 The inference unit 21, the correct label information creation unit 22, the learning unit 23, the product detection unit 24, the error calculation unit 25, the learning continuation determination unit 26, and the inference model output unit 27 in the main storage device 14 are programs. In the following, when the operation subject is described as "○○ part is", it is the process described later after the central control unit 11 reads "○○ part" from the auxiliary storage device 15 and loads it into the main storage device 14. Means to execute. The image pickup apparatus 2 takes an image of the product 5 and the worker 3 (not shown in FIG. 2) on the belt conveyor 4 of the inspection line 6. The image pickup device 2 transmits the captured image to the learning device 1 via the wired or wireless network 7. The image acquisition device 16 of the learning device 1 receives an image.

(正解ラベル情報)
図3に沿って、正解ラベル情報32を説明する。正解ラベル情報32は、撮像時点欄101に記憶された撮像時点に関連付けて、画像保存位置欄102には画像保存位置が、製品ID(Identifier)欄103には製品IDが、製品位置座標欄104には製品位置座標が、判定結果欄105には判定結果が、把持可能位置座標欄106には把持可能位置座標が記憶されている。なお、機械学習の分野において、手本とすべきデータ(教師データ)を特定することを、一般に、“データに正解ラベルを付す”のように表現することが多い。このことが、ここでの“正解ラベル情報”の命名根拠である。
(Correct label information)
The correct label information 32 will be described with reference to FIG. The correct label information 32 is associated with the imaging time point stored in the imaging time point column 101, the image storage position is in the image storage position column 102, the product ID is in the product ID (Identifier) column 103, and the product position coordinate column 104. The product position coordinates are stored in, the determination result is stored in the determination result column 105, and the grippable position coordinates are stored in the grippable position coordinate column 106. In the field of machine learning, specifying data (teacher data) that should be used as a model is generally expressed as "attaching a correct answer label to the data". This is the basis for naming the "correct label information" here.

撮像時点欄101の撮像時点は、撮像装置2が製品の画像を取得した時点の時分秒である。撮像時点は、製品の画像を取得した時点の年月日を含んでもよい。
画像保存位置欄102の画像保存位置は、製品の画像が記憶されている位置を示す情報である。製品の画像は、学習装置1の補助記憶装置15に記憶されてもよいし、他の外部装置に記憶されてもよい。
製品ID欄103の製品IDは、製品を一意に特定する識別子である。
The imaging time point in the imaging time point column 101 is the hour, minute, and second at the time when the image pickup apparatus 2 acquires the image of the product. The time of imaging may include the date of time when the image of the product was acquired.
The image storage position in the image storage position column 102 is information indicating a position where the image of the product is stored. The image of the product may be stored in the auxiliary storage device 15 of the learning device 1 or may be stored in another external device.
The product ID in the product ID column 103 is an identifier that uniquely identifies the product.

製品位置座標欄104の製品位置座標は、撮像装置2の画面における製品の位置を示す座標値である。例えば“(X1,Y1,X2,Y2)”は、点(X1,Y1)及び点(X2,Y2)を結ぶ線分を対角線として有する長方形を意味する。ここで製品位置座標を2次元としたのは、説明の単純化のためであり、製品位置座標は、3次元であってもよい。
判定結果欄105の判定結果は、“0”又は“1”のいずれかである。“0”は、不良品を示し、“1”は良品を示す。ここでの判定結果は、作業員による判定の結果である。作業員が製品を排除した場合、判定結果は“0”となり、排除せずに見送った場合、判定結果は“1”となる(詳細後記)。なお、請求項の“検査の合否”には、ここでの判定結果が相当する。
The product position coordinates in the product position coordinate column 104 are coordinate values indicating the positions of the products on the screen of the image pickup apparatus 2. For example, "(X1, Y1, X2, Y2)" means a rectangle having a line segment connecting the points (X1, Y1) and the points (X2, Y2) as diagonal lines. Here, the product position coordinates are made two-dimensional for the sake of simplification of the explanation, and the product position coordinates may be three-dimensional.
The determination result in the determination result column 105 is either "0" or "1". “0” indicates a defective product, and “1” indicates a non-defective product. The determination result here is the result of the determination by the worker. If the worker excludes the product, the determination result will be "0", and if the worker does not exclude the product, the determination result will be "1" (details will be described later). The determination result here corresponds to the "pass / fail of inspection" in the claim.

把持可能位置座標欄106の把持可能位置座標は、撮像装置2の画面のうちその製品を切り出した部分画面における製品の把持可能位置を示す座標値である。つまり、製品位置座標をグローバル座標とした場合、把持可能位置座標は、ローカル座標であるといえる。もちろん、この例以外に、把持可能位置座標が、製品位置座標と同じグローバル座標であってもよい。把持可能位置とは、作業員が製品を検査する目的でその製品を手で掴む位置である。把持可能位置は、1つの製品について通常2つ以上存在する。これらの把持可能位置は、手の関節位置に対応する(図4の符号41参照)。ここでの把持可能位置座標を2次元としたのは、説明の単純化のためであり、把持可能位置座標は、3次元であってもよい。ここでの把持可能位置座標は、作業員の動作の結果である。
なお、請求項における“人による認識結果”には、図3における判定結果及び把持可能位置座標が相当する。
The grippable position coordinates in the grippable position coordinate column 106 are coordinate values indicating the grippable position of the product on the partial screen from which the product is cut out from the screen of the image pickup apparatus 2. That is, when the product position coordinates are global coordinates, it can be said that the grippable position coordinates are local coordinates. Of course, other than this example, the grippable position coordinates may be the same global coordinates as the product position coordinates. The grippable position is the position where the worker grips the product by hand for the purpose of inspecting the product. There are usually two or more grippable positions for a product. These grippable positions correspond to the joint positions of the hands (see reference numeral 41 in FIG. 4). The grippable position coordinates here are two-dimensional for the sake of simplification of the explanation, and the grippable position coordinates may be three-dimensional. The grippable position coordinates here are the result of the worker's movement.
The "recognition result by a person" in the claim corresponds to the determination result and the grippable position coordinates in FIG.

製品は相当の重量を有する。したがって、作業員は、落下させにくい位置で製品を把持しなければならない。また、不完全な把持によって製品の不良箇所がさらに増える場合もある。したがって、作業員は、構造上頑強な位置で製品を把持しなければならない。さらに、作業員は、製品の必要箇所を短時間かつ1度の動作で検査することを要求されている。したがって、作業員は、持ち替える必要のない位置で製品を把持しなければならない。熟練した作業員は、経験的にこれらの位置を知っている。 The product has a considerable weight. Therefore, the worker must grip the product in a position where it is difficult to drop it. Incomplete gripping may also increase the number of defective parts of the product. Therefore, the worker must grip the product in a structurally robust position. Further, the worker is required to inspect the required part of the product in a short time and in one operation. Therefore, the worker must hold the product in a position where it does not need to be changed. Skilled workers know these positions empirically.

図3から、例えば以下のことがわかる。
・撮像装置2は、12時00分00秒、12時00分01秒、12時00分02秒及び12時00分03秒において1枚ずつ、計4枚の画像を取得した。
・12時00分00秒の画像には、製品は写っていなかった。
・12時00分01秒の画像には、製品P001が写っていた。作業員は、2つの位置“(X3,Y3)”及び“(X4,Y4)”で製品P001に接触し始めた。なお、“接触”は、“把持”の初期段階である。
From FIG. 3, for example, the following can be seen.
-The image pickup apparatus 2 acquired a total of four images, one at 12:00:00, 12:00:01, 12:00:02, and 12:00:03.
-The product was not shown in the image at 12:00:00.
-Product P001 was shown in the image at 12:00:01. Workers began to contact product P001 at two positions "(X3, Y3)" and "(X4, Y4)". "Contact" is the initial stage of "grasping".

・12時00分02秒の画像には、製品P001、P002及びP003が写っていた。
・12時00分02秒において、作業員は、前記した2つの位置に加えてさらに4つの位置“(X7,Y7)”、“(X8,Y8)”、“(X9,Y9)”及び“(X10,Y10)”で製品P001に接触した(握った)。作業員は、製品P001を不良品回収ヤードに排除した。
・12時00分02秒において、作業員は、2つの位置“(X13,Y13)”及び“(X14,Y14)”で製品P002に接触した(摘まんだ)。作業員は、製品P002は良品であると判定した。
・12時00分02秒において、作業員は、2つの位置“(X17,Y17)”及び“(X18,Y18)”で製品P003に接触した(摘まんだ)。作業員は、製品P003は良品であると判定した。
-Products P001, P002 and P003 were shown in the image at 12:00:02.
-At 12:00:02, the worker in addition to the above-mentioned two positions, four more positions "(X7, Y7)", "(X8, Y8)", "(X9, Y9)" and " (X10, Y10) ”contacted (grasped) the product P001. The worker eliminated the product P001 in the defective collection yard.
At 12:00:02, the worker touched (picked) product P002 at two positions "(X13, Y13)" and "(X14, Y14)". The worker determined that the product P002 was a non-defective product.
At 12:00:02, the worker touched (picked) product P003 at two positions "(X17, Y17)" and "(X18, Y18)". The worker determined that the product P003 was a non-defective product.

・撮像装置2は、その光軸及び画角を固定することによって撮像画面を固定している。そして、その撮像画面上を時系列で製品が移動している。例えば、12時00分01秒から12時00分02秒までの間に、製品P001は“(X1,Y1,X2,Y2)”から“(X5,Y5,X6,Y6)”に移動している。12時00分02秒から12時00分03秒までの間に、製品P003は“(X15,Y15,X16,Y16)”から“(X19,Y19,X20,Y20)”に移動している。この間、作業員は、製品P003を同じ位置“(X17,Y17)”及び“(X18,Y18)”で把持し続けている(欄106のローカル座標は変化していない)。 -The image pickup device 2 fixes the image pickup screen by fixing its optical axis and angle of view. Then, the products are moving in chronological order on the image pickup screen. For example, between 12:00:01 and 12:00:02, the product P001 moves from "(X1, Y1, X2, Y2)" to "(X5, Y5, X6, Y6)". There is. From 12:00:02 to 12:00:03, the product P003 has moved from "(X15, Y15, X16, Y16)" to "(X19, Y19, X20, Y20)". During this time, the worker continues to hold the product P003 at the same positions "(X17, Y17)" and "(X18, Y18)" (local coordinates in column 106 have not changed).

(把持可能位置座標)
図4に沿って、把持可能位置座標及びフレームアウトを説明する。作業員が、自身の手を製品5に接触させている(図4の上図)。この図では、作業員は製品5に触れているだけであるが、作業員は、製品5を握りしめ、持ち上げることもある。このとき、関節41が製品5に接触する位置が把持可能位置である。製品5が良品であると作業員が判定すると、作業員は製品5から手を離す。すると、図5の下図のように、製品5は、画面の右側42に消えて行く(フレームアウト)。
(Gripable position coordinates)
The grippable position coordinates and the frameout will be described with reference to FIG. A worker puts his or her hand in contact with the product 5 (upper figure of FIG. 4). In this figure, the worker only touches the product 5, but the worker may grasp and lift the product 5. At this time, the position where the joint 41 comes into contact with the product 5 is the grippable position. When the worker determines that the product 5 is a non-defective product, the worker releases the product 5. Then, as shown in the lower figure of FIG. 5, the product 5 disappears to the right side 42 of the screen (frame out).

(推論結果情報)
図5に沿って、推論結果情報33を説明する。推論結果情報33の構成は、正解ラベル情報32(図3)と同じである。しかしながら、推論結果情報33の各欄のデータは、正解ラベル情報32の同じ欄のデータと、以下の点で異なる。
(Inference result information)
The inference result information 33 will be described with reference to FIG. The structure of the inference result information 33 is the same as that of the correct label information 32 (FIG. 3). However, the data in each column of the inference result information 33 differs from the data in the same column of the correct answer label information 32 in the following points.

・図3の判定結果(欄105)は、前記したように作業員による判定に基づく。他方、図5の判定結果(欄115)は、推論部21が推論モデル31に製品の画像を入力したことを受け推論モデルが出力した出力値に基づく。
・図3の把持可能位置座標(欄106)は、前記したように作業員による動作に基づく。他方、図5の把持可能位置座標(欄116)は、推論部21が推論モデルに製品の画像を入力したことを受け推論モデルが出力した出力値に基づく。
なお、請求項における“推論モデルによる認識結果”には、図5における判定結果及び把持可能位置座標が相当する。
The determination result (column 105) in FIG. 3 is based on the determination by the worker as described above. On the other hand, the determination result (column 115) in FIG. 5 is based on the output value output by the inference model in response to the inference unit 21 inputting the image of the product into the inference model 31.
The grippable position coordinates (column 106) in FIG. 3 are based on the operation by the operator as described above. On the other hand, the grippable position coordinates (column 116) in FIG. 5 are based on the output value output by the inference model in response to the inference unit 21 inputting the image of the product into the inference model.
The "recognition result by the inference model" in the claim corresponds to the determination result and the grippable position coordinates in FIG.

(全体処理手順)
図6に沿って、全体処理手順を説明する。
ステップS201において、学習装置1の推論部21は、未学習の推論モデル31を準備する。具体的には、推論部21は、パラメータが未だ学習されていない推論モデル31を準備する。
(Overall processing procedure)
The whole processing procedure will be described with reference to FIG.
In step S201, the inference unit 21 of the learning device 1 prepares an unlearned inference model 31. Specifically, the inference unit 21 prepares an inference model 31 whose parameters have not been learned yet.

ステップS202において、学習装置1の正解ラベル情報作成部22は、作業員に検査指示を送信する。具体的には、正解ラベル情報作成部22は、作業員が携帯している端末装置等に、検査作業を開始する旨の指示を送信する。 In step S202, the correct answer label information creating unit 22 of the learning device 1 transmits an inspection instruction to the worker. Specifically, the correct answer label information creation unit 22 transmits an instruction to start the inspection work to the terminal device or the like carried by the worker.

ステップS203において、学習装置1の学習部23は、推論モデル31に初期パラメータを入力する。具体的には、学習部23は、例えば、乱数表を使用して無作為的に作成したパラメータを推論モデル31に入力する。
ステップS203が終了した段階で、撮像装置2は製品を撮像した画像を、1フレームずつ学習装置1に送信する。学習装置1の画像取得装置16は、画像を1フレームずつ受信する。
In step S203, the learning unit 23 of the learning device 1 inputs the initial parameters to the inference model 31. Specifically, the learning unit 23 inputs, for example, a parameter randomly created using a random number table into the inference model 31.
At the stage when step S203 is completed, the image pickup apparatus 2 transmits the image captured by the product to the learning apparatus 1 frame by frame. The image acquisition device 16 of the learning device 1 receives images frame by frame.

ステップS204において、学習装置1の製品検出部24は、製品ID等を作成する。ステップS204の詳細は、製品ID作成処理手順(図7)として後記する。ここでは結果的に、製品検出部24は、ベルトコンベア4上を流れる製品に対して付与した製品ID、画像保存位置、撮像時点及び製品位置座標を取得したものとする。ステップS204の段階では、図3の正解ラベル情報32の1本のレコード(欄105及び欄106は空欄である)が新たに作成され、図5の推論結果情報33の1本のレコード(欄115及び欄116は空欄である)が新たに作成されていることになる。 In step S204, the product detection unit 24 of the learning device 1 creates a product ID and the like. Details of step S204 will be described later as a product ID creation processing procedure (FIG. 7). Here, as a result, it is assumed that the product detection unit 24 has acquired the product ID, the image storage position, the imaging time point, and the product position coordinates given to the product flowing on the belt conveyor 4. At the stage of step S204, one record of the correct label information 32 in FIG. 3 (columns 105 and 106 are blank) is newly created, and one record of the inference result information 33 in FIG. 5 (column 115). And column 116 is blank) is newly created.

ステップS205において、学習装置1の正解ラベル情報作成部22は、正解ラベル情報32を作成する。ステップS205の詳細は、正解ラベル情報作成処理手順(図8)として後記する。ここでは結果的に、正解ラベル情報作成部22は、図3の正解ラベル情報32の1本のレコード(すべての欄が埋まったもの)を完成したことになる。 In step S205, the correct answer label information creating unit 22 of the learning device 1 creates the correct answer label information 32. Details of step S205 will be described later as a procedure for creating correct label information (FIG. 8). Here, as a result, the correct answer label information creating unit 22 has completed one record (all columns are filled) of the correct answer label information 32 in FIG.

ステップS206において、学習装置1の推論部21は、推論結果情報33を作成する。ステップS206の詳細は、推論結果情報作成処理手順(図9)として後記する。ここでは結果的に、推論部21は、図5の推論結果情報33の1本のレコード(すべての欄が埋まったもの)を完成したことになる。 In step S206, the inference unit 21 of the learning device 1 creates the inference result information 33. Details of step S206 will be described later as an inference result information creation processing procedure (FIG. 9). Here, as a result, the inference unit 21 has completed one record (all columns are filled) of the inference result information 33 in FIG.

ステップS207において、学習装置1の学習部23は、搬送された製品の数が第1の基準値を超えたか否かを判断する。第1の基準値とは、推論モデルのパラメータを固定した状態で推論モデルに判定結果及び把持可能位置座標を推定させる学習データの数である。例えて言えば、第1の基準値は、教師が生徒に課する1回のテストの問題数に相当する。 In step S207, the learning unit 23 of the learning device 1 determines whether or not the number of conveyed products exceeds the first reference value. The first reference value is the number of learning data that causes the inference model to estimate the determination result and the grippable position coordinates in a state where the parameters of the inference model are fixed. For example, the first reference value corresponds to the number of questions in one test that the teacher imposes on the students.

学習部23は、ステップS204において作成した製品IDの個数(第1のカウンタ値)をカウントしておく。学習部23は、第1のカウンタ値が第1の基準値に達した場合(ステップS207“Yes”)、この時点までに蓄積された推論結果情報33及び正解ラベル情報32を補助記憶装置15に記憶し、第1のカウンタ値を“0”に戻したうえでステップS208に進む。推論結果情報33及び正解ラベル情報32は、それぞれ、テストの答案及び解答に相当する。学習部23は、それ以外の場合(ステップS207“No”)、ステップS204に戻る。 The learning unit 23 counts the number of product IDs (first counter value) created in step S204. When the first counter value reaches the first reference value (step S207 “Yes”), the learning unit 23 stores the inference result information 33 and the correct answer label information 32 accumulated up to this point in the auxiliary storage device 15. After storing and returning the first counter value to "0", the process proceeds to step S208. The inference result information 33 and the correct answer label information 32 correspond to the test answer and the answer, respectively. In other cases, the learning unit 23 returns to step S204 (step S207 “No”).

いま、第1の基準値が“100”であるとする。すると、搬送された製品の累積個数が100個を超えた場合、学習部23は、ステップS208に進む。その後しばらく学習部23は、ステップS204に戻り続ける。次に学習部23がステップS208に進むのは、搬送された製品の累積個数が200個を超えた場合である。 Now, it is assumed that the first reference value is "100". Then, when the cumulative number of transported products exceeds 100, the learning unit 23 proceeds to step S208. After that, the learning unit 23 continues to return to step S204 for a while. Next, the learning unit 23 proceeds to step S208 when the cumulative number of transported products exceeds 200.

ステップS208において、学習部23は、パラメータが変化した回数が第2の基準値に達したか否かを判断する。学習部23は、ステップS203又はS209を経由する回数(第2のカウンタ値)をカウントしておく。学習部23は、第2のカウンタ値が第2の基準値に達した場合(ステップS208“Yes”)、第2のカウンタ値を“0”に戻したうえでステップS210に進む。学習部23は、それ以外の場合(ステップS208“No”)、ステップS209に進む。例えて言えば、第2の基準値は、教師が生徒に課するテストの回数に相当する。いま、第2の基準値が“50”であるとする。すると、搬送された製品の累積個数が5000個を超えるまでは、学習部23は、ステップS209に進む。その間にパラメータは初期値も含め50の異なる値を取る。 In step S208, the learning unit 23 determines whether or not the number of times the parameter has changed reaches the second reference value. The learning unit 23 counts the number of times (second counter value) that has passed through steps S203 or S209. When the second counter value reaches the second reference value (step S208 “Yes”), the learning unit 23 returns the second counter value to “0” and proceeds to step S210. In other cases (step S208 “No”), the learning unit 23 proceeds to step S209. For example, the second reference value corresponds to the number of tests the teacher imposes on the student. Now, it is assumed that the second reference value is "50". Then, the learning unit 23 proceeds to step S209 until the cumulative number of the transported products exceeds 5,000. In the meantime, the parameters take 50 different values, including the initial values.

ステップS209において、学習部23は、新たなパラメータを作成する。具体的には、学習部23は、例えば、乱数表を使用して無作為的に作成したパラメータを推論モデルに入力する。なお、このとき、学習部23は、遺伝的アルゴリズムを使用してパラメータを作成してもよい(詳細後記)。その後、学習部23は、ステップS203に戻る。 In step S209, the learning unit 23 creates a new parameter. Specifically, the learning unit 23 inputs, for example, a parameter randomly created using a random number table into the inference model. At this time, the learning unit 23 may create a parameter by using a genetic algorithm (details will be described later). After that, the learning unit 23 returns to step S203.

なお、ステップS203~S209のループの繰り返し回数が少ないうちは、推論結果情報33における判定結果及び把持可能位置座標と、正解ラベル情報32における判定結果及び把持可能位置座標との誤差は大きい。但し、この段階では、ロボットが推論モデルを使用して実際に検査を行っているわけではないので、実害はない。 While the number of repetitions of the loop in steps S203 to S209 is small, the error between the determination result and the grippable position coordinates in the inference result information 33 and the determination result and the grippable position coordinates in the correct label information 32 is large. However, at this stage, the robot is not actually inspecting using the inference model, so there is no actual harm.

ステップS210において、学習装置1の誤差算出部25は、複数の推論結果情報33の誤差を算出する。ステップS210の段階で、補助記憶装置15は、推論結果情報33を50個記憶し、それらのそれぞれに対応する正解ラベル情報32を50個記憶していることになる。そこで、誤差算出部25は、“(s,P,e1,e2)”というデータの組合せを50個作成する。“s”は、i番目の推論結果情報を意味する(i=1、2、3、・・・、50)。“P”は、i番目の推論モデルのパラメータを示す。“P”は、例えば、ノード数×各ノードのパラメータ数の行列型式を有する。 In step S210, the error calculation unit 25 of the learning device 1 calculates the error of the plurality of inference result information 33. At the stage of step S210, the auxiliary storage device 15 stores 50 inference result information 33 and 50 correct label information 32 corresponding to each of them. Therefore, the error calculation unit 25 creates 50 combinations of data "(s i , Pi, e1 i, e2 i ) " . “S i ” means the i-th inference result information (i = 1, 2, 3, ..., 50). “P i ” indicates the parameter of the i-th inference model. “ Pi ” has, for example, a matrix type of the number of nodes × the number of parameters of each node.

“e1”は、i番目の推論結果情報の判定結果をi番目の正解ラベル情報の判定結果と比較した場合の、両者が相違する度数(製品の数)である。なお、0≦e1≦100が成立する。“e2”は、i番目の推論結果情報の把持可能位置座標をi番目の正解ラベル情報の把持可能位置座標と比較した場合の、両者が相違する度数である。なお、0≦e2≦100が成立する。把持可能位置座標は複数存在する場合もある。そこで、誤差算出部25は、推論結果情報の把持可能位置座標のすべてが、正解ラベル情報の把持可能位置座標のいずれからも所定の閾値以上離れている場合、両者が相違すると看做す。当然のことながら、50個の組合せのうち、e1及びe2が最小となるような“P”が、推論モデルのパラメータとして相応しい。“e1”及び“e2”を誤差と呼ぶ。 “E1 i ” is a frequency (number of products) different from each other when the determination result of the i-th inference result information is compared with the determination result of the i-th correct answer label information. It should be noted that 0 ≦ e1 i ≦ 100 is established. “E2 i ” is a frequency different from each other when the grippable position coordinates of the i-th inference result information are compared with the grippable position coordinates of the i-th correct answer label information. It should be noted that 0 ≦ e2 i ≦ 100 is established. There may be multiple grippable position coordinates. Therefore, the error calculation unit 25 considers that all of the grippable position coordinates of the inference result information are different from each other when they are separated from any of the grippable position coordinates of the correct label information by a predetermined threshold value or more. As a matter of course, out of the 50 combinations, " Pi " that minimizes e1 i and e2 i is suitable as a parameter of the inference model. “E1 i ” and “e2 i ” are called errors.

ステップS211において、誤差算出部25は、誤差が最小である推論モデルのパラメータを特定する。具体的には、誤差算出部25は、“P”(i=1、2、3、・・・、50)のうちから、“E=w×e1+w×e2”が最小となるものを特定する。“w”及び“w”は、誤差評価用の重みである。なお、“0≦w≦1,0≦w≦1,w+w=1”が成立する。 In step S211 the error calculation unit 25 specifies the parameter of the inference model having the minimum error. Specifically, the error calculation unit 25 has "E i = w 1 x e1 i + w 2 x e2 i " from "P i " (i = 1, 2, 3, ..., 50). Identify the smallest one. “W 1 ” and “w 2 ” are weights for error evaluation. It should be noted that "0 ≤ w 1 ≤ 1, 0 ≤ w 2 ≤ 1, w 1 + w 2 = 1" is established.

ステップS212において、学習装置1の学習継続判定部26は、誤差が閾値以下であるか否かを判断する。具体的には、学習継続判定部26は、ステップS211において特定した推論モデルのパラメータの誤差Eが所定の閾値以下である場合(ステップS212“Yes”)、ステップS213に進む。学習継続判定部26は、それ以外の場合(ステップS212“No”)、ステップS209に戻る。 In step S212, the learning continuation determination unit 26 of the learning device 1 determines whether or not the error is equal to or less than the threshold value. Specifically, the learning continuation determination unit 26 proceeds to step S213 when the error Ei of the parameter of the inference model specified in step S211 is equal to or less than a predetermined threshold value (step S212 “Yes”). In other cases, the learning continuation determination unit 26 returns to step S209 (step S212 “No”).

ステップS213において、学習装置1の推論モデル出力部27は、推論モデルをロボットに送信する。具体的には、推論モデル出力部27は、ロボットに対して、推論モデル及びステップS211において特定した推論モデルのパラメータを送信する。ロボットが直ちに検査を行う必要がない場合もある。その場合、推論モデル出力部27は、ステップS211において特定した推論モデルのパラメータを補助記憶装置15に格納してもよいし、任意の外部の装置に送信してもよい。 In step S213, the inference model output unit 27 of the learning device 1 transmits the inference model to the robot. Specifically, the inference model output unit 27 transmits the inference model and the parameters of the inference model specified in step S211 to the robot. In some cases, the robot does not need to perform an immediate inspection. In that case, the inference model output unit 27 may store the parameters of the inference model specified in step S211 in the auxiliary storage device 15, or may transmit the parameters to any external device.

ステップS214において、推論モデル出力部27は、ロボットに検査指示を送信する。具体的には、推論モデル出力部27は、ロボットに対して、ステップS213において送信した推論モデル及び推論モデルのパラメータを使用して検査を行う旨の指示を送信する。 In step S214, the inference model output unit 27 transmits an inspection instruction to the robot. Specifically, the inference model output unit 27 transmits an instruction to the robot to perform the inspection using the inference model and the parameters of the inference model transmitted in step S213.

ステップS215において、学習装置1の正解ラベル情報作成部22は、作業員に休止指示を送信する。その後、全体処理手順を終了する。 In step S215, the correct answer label information creation unit 22 of the learning device 1 transmits a pause instruction to the worker. After that, the whole processing procedure is terminated.

(遺伝的アルゴリズム等)
ステップS212“No”を経由してステップS209に戻る場合、組合せ“(s,P,e1,e2)”が複数取得されていることになる。そこで、学習装置1の学習部23は、これらの組合せのうち、“E”の値が最小であるもののパラメータP、及び、2番目に小さいもののパラメータP(両親)を選択し、この両親を掛けあわせて新たなパラメータP(子)を作成してもよい。
(Genetic algorithm, etc.)
When returning to step S209 via step S212 “No”, it means that a plurality of combinations “( si, Pi, e1 i , e2 i ) have been acquired. Therefore, the learning unit 23 of the learning device 1 selects the parameter P i (parents) of the combination having the smallest value of “E i ” and the parameter P i (parents) of the second smallest combination. Parents may be multiplied to create a new parameter Pi (child).

(製品ID作成処理手順)
図7に沿って、製品ID作成処理手順を説明する。製品ID作成処理手順は、ステップS204の詳細である。
ステップS301において、学習装置1の製品検出部24は、画像に製品が存在するか否かを判断する。具体的には、第1に、製品検出部24は、撮像装置2から製品の画像を取得する。
第2に、製品検出部24は、撮像装置2が取得した画像中に少なくとも1つの製品が存在する場合(ステップS301“Yes”)、ステップS302に進み、それ以外の場合(ステップS301“No”)、製品ID作成処理手順を終了する。
(Product ID creation processing procedure)
The product ID creation processing procedure will be described with reference to FIG. 7. The product ID creation processing procedure is the details of step S204.
In step S301, the product detection unit 24 of the learning device 1 determines whether or not the product is present in the image. Specifically, first, the product detection unit 24 acquires an image of the product from the image pickup device 2.
Second, the product detection unit 24 proceeds to step S302 when at least one product is present in the image acquired by the image pickup device 2 (step S301 “Yes”), and proceeds to the other case (step S301 “No”). ), End the product ID creation processing procedure.

ステップS302において、製品検出部24は、検出した製品が直前の画像に存在するか否かを判断する。具体的には、製品検出部24は、製品が直前の(1フレーム前の)画像に存在する場合(ステップS302“Yes”)、ステップS303に進み、それ以外の場合(ステップS302“No”)、ステップS304に進む。なお、製品検出部24は、製品の同一性を判断するに際して、テンプレートマッチング、Mean-shift法等の領域ベースの追跡手法を使用してもよいし、SURF Tracking等の特徴点ベースの追跡手法を使用してもよい。 In step S302, the product detection unit 24 determines whether or not the detected product exists in the immediately preceding image. Specifically, the product detection unit 24 proceeds to step S303 when the product is present in the immediately preceding (one frame before) image (step S302 “Yes”), and proceeds to other cases (step S302 “No”). , Step S304. The product detection unit 24 may use an area-based tracking method such as template matching or a Mean-shift method when determining product identity, or may use a feature point-based tracking method such as SURF Tracking. You may use it.

ステップS303において、製品検出部24は、同一の製品IDを付与する。具体的には、製品検出部24は、その製品に対して既に付されている製品IDを当該製品に付与する。 In step S303, the product detection unit 24 assigns the same product ID. Specifically, the product detection unit 24 assigns the product ID already attached to the product to the product.

ステップS304において、製品検出部24は、新たな製品IDを付与する。具体的には、製品検出部24は、新たな製品IDを採番したうえで、その製品に対して新たな製品IDを付与する。 In step S304, the product detection unit 24 assigns a new product ID. Specifically, the product detection unit 24 assigns a new product ID to the product after assigning a new product ID.

ステップS305において、製品検出部24は、製品ID等を送信する。具体的には、第1に、製品検出部24は、ステップS301の“第1”において取得した画像から個々の製品の画像を切り出し、切り出した画像の製品位置座標(対角線の両端点の座標値)を求める。
第2に、製品検出部24は、正解ラベル情報32(図3)の新たなレコードを作成し、新たなレコードに、撮像時点、画像保存位置、製品ID及び製品位置座標を記憶する。製品検出部24は、新たなレコードの判定結果欄105及び把持可能位置座標欄106を空白のままとする。
In step S305, the product detection unit 24 transmits the product ID and the like. Specifically, first, the product detection unit 24 cuts out an image of each product from the image acquired in "first" of step S301, and the product position coordinates (coordinate values of both ends of the diagonal line) of the cut out image. ).
Second, the product detection unit 24 creates a new record of the correct label information 32 (FIG. 3), and stores the time of imaging, the image storage position, the product ID, and the product position coordinates in the new record. The product detection unit 24 leaves the determination result column 105 and the grippable position coordinate column 106 of the new record blank.

第3に、製品検出部24は、推論結果情報33(図5)の新たなレコードを作成し、新たなレコードに、撮像時点、画像保存位置、製品ID及び製品位置座標を記憶する。製品検出部24は、新たなレコードの判定結果欄115及び把持可能位置座標欄116を空白のままとする。その後、製品ID作成処理手順を終了する。 Third, the product detection unit 24 creates a new record of the inference result information 33 (FIG. 5), and stores the time of imaging, the image storage position, the product ID, and the product position coordinates in the new record. The product detection unit 24 leaves the determination result column 115 and the grippable position coordinate column 116 of the new record blank. After that, the product ID creation processing procedure is terminated.

製品検出部24は、製品ID作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、製品検出部24は、製品ID作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。 The product detection unit 24 repeats the product ID creation processing procedure for all the products in the image of a certain frame. Further, the product detection unit 24 repeats the product ID creation processing procedure for each frame received from the image pickup apparatus 2.

(正解ラベル情報作成処理手順)
図8に沿って、正解ラベル情報作成処理手順を説明する。正解ラベル情報作成処理手順は、ステップS205の詳細である。
ステップS401において、学習装置1の正解ラベル情報作成部22は、関節を抽出する。具体的には、正解ラベル情報作成部22は、作業員の指関節の位置座標を取得する。
(Procedure for creating correct label information)
The procedure for creating correct label information will be described with reference to FIG. The procedure for creating correct label information is the details of step S205.
In step S401, the correct label information creating unit 22 of the learning device 1 extracts the joint. Specifically, the correct answer label information creation unit 22 acquires the position coordinates of the knuckle of the worker.

ステップS402において、正解ラベル情報作成部22は、製品に関節が接触しているか否かを判断する。具体的には、正解ラベル情報作成部22は、関節の少なくとも1つが製品に接触している場合(ステップS402“Yes”)、ステップS403に進み、それ以外の場合(ステップS402“No”)、ステップS404に進む。 In step S402, the correct label information creating unit 22 determines whether or not the joint is in contact with the product. Specifically, the correct label information creation unit 22 proceeds to step S403 when at least one of the joints is in contact with the product (step S402 “Yes”), and proceeds to step S403 in other cases (step S402 “No”). The process proceeds to step S404.

ステップS403において、正解ラベル情報作成部22は、把持可能位置座標を記憶する。具体的には、正解ラベル情報作成部22は、ステップS305の“第2”において作成した正解ラベル情報32(図3)の新たなレコードの把持可能位置座標欄106に、製品と接触している関節の位置情報を記憶する。 In step S403, the correct answer label information creating unit 22 stores the grippable position coordinates. Specifically, the correct answer label information creating unit 22 is in contact with the product in the grippable position coordinate column 106 of the new record of the correct answer label information 32 (FIG. 3) created in “second” of step S305. Memorize joint position information.

ステップS404において、正解ラベル情報作成部22は、直前の画像内で検出されたすべての製品が現在の画像内に存在するか否かを判断する。具体的には、正解ラベル情報作成部22は、直前の画像内で検出されたすべての製品が現在の画像内に存在する場合(ステップS404“Yes”)、正解ラベル情報作成処理手順を終了する。正解ラベル情報作成部22は、それ以外の場合(ステップS404“No”)、ステップS405に進む。 In step S404, the correct label information creation unit 22 determines whether or not all the products detected in the immediately preceding image are present in the current image. Specifically, the correct label information creation unit 22 ends the correct label information creation processing procedure when all the products detected in the immediately preceding image are present in the current image (step S404 “Yes”). .. In other cases (step S404 “No”), the correct answer label information creating unit 22 proceeds to step S405.

ステップS405において、正解ラベル情報作成部22は、存在しなくなった製品を特定する。具体的には、正解ラベル情報作成部22は、直前の画像において存在していた製品のうち、現在の画像において存在しなくなった製品を特定する。ここで特定された製品を“消滅製品”と呼ぶ。 In step S405, the correct label information creation unit 22 identifies a product that no longer exists. Specifically, the correct label information creation unit 22 identifies a product that no longer exists in the current image among the products that existed in the immediately preceding image. The product specified here is called an "disappearing product".

ステップS406において、正解ラベル情報作成部22は、製品がフレームアウトしたか否かを判断する。具体的には、第1に、正解ラベル情報作成部22は、消滅製品がフレームアウトしたものであるか否かを判断する。“フレームアウト”とは、消滅製品が直前の画像において画像フレームの右辺(ベルトコンベアの下流側)に掛っていること、又は、掛らないまでも右辺から所定の距離内にあることを意味する(図4の符号42参照)。製品がフレームアウトすることは、作業員がその製品は良品であると判定し、ベルトコンベア4上を右に流れて行くのを見送ったことを意味する。製品がフレームアウトしないことは、作業員がその製品を不良品であると判定し、ベルトコンベア4上から排除したことを意味する。 In step S406, the correct label information creating unit 22 determines whether or not the product has been framed out. Specifically, first, the correct label information creation unit 22 determines whether or not the extinguished product is a frame-out product. "Flameout" means that the extinguished product hangs on the right side of the image frame (downstream side of the conveyor belt) in the previous image, or is within a predetermined distance from the right side even if it does not hang. (See reference numeral 42 in FIG. 4). When a product is framed out, it means that the worker has determined that the product is non-defective and has forgotten to flow to the right on the conveyor belt 4. The fact that the product does not frame out means that the worker has determined that the product is defective and has removed it from the belt conveyor 4.

第2に、正解ラベル情報作成部22は、消滅製品がフレームアウトした場合(ステップS406“Yes”)、ステップS407に進み、それ以外の場合(ステップS406“No”)、ステップS408に進む。 Second, the correct label information creating unit 22 proceeds to step S407 when the extinguished product is out of frame (step S406 “Yes”), and proceeds to step S408 in other cases (step S406 “No”).

ステップS407において、正解ラベル情報作成部22は、製品は良品であると判定する。具体的には、正解ラベル情報作成部22は、ステップS305の“第2”において作成した正解ラベル情報32の新たなレコードの判定結果欄105に、“1”を記憶する。その後、正解ラベル情報作成処理手順を終了する。 In step S407, the correct label information creating unit 22 determines that the product is a non-defective product. Specifically, the correct answer label information creating unit 22 stores “1” in the determination result column 105 of the new record of the correct answer label information 32 created in the “second” of step S305. After that, the procedure for creating correct label information is terminated.

ステップS408において、正解ラベル情報作成部22は、製品は不良品であると判定する。具体的には、正解ラベル情報作成部22は、ステップS305の“第2”において作成した正解ラベル情報32の新たなレコードの判定結果欄105に、“0”を記憶する。その後、正解ラベル情報作成処理手順を終了する。
正解ラベル情報作成部22は、正解ラベル情報作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、正解ラベル情報作成部22は、正解ラベル情報作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
In step S408, the correct label information creating unit 22 determines that the product is defective. Specifically, the correct answer label information creating unit 22 stores “0” in the determination result column 105 of the new record of the correct answer label information 32 created in the “second” of step S305. After that, the procedure for creating correct label information is terminated.
The correct label information creation unit 22 repeats the correct label information creation processing procedure for all the products in the image of a certain frame. Further, the correct answer label information creating unit 22 repeats the correct answer label information creating processing procedure for each frame received from the image pickup apparatus 2.

(推論結果情報作成処理手順)
図9に沿って、推論結果情報作成処理手順を説明する。推論結果情報作成処理手順は、ステップS206の詳細である。
ステップS501において、学習装置1の推論部21は、判定結果を推定する。具体的には、推論部21は、製品の画像を推論モデル31に入力する。すると、推論モデルは、判定結果として“1”又は“0”を出力する。推論部21は、判定結果を受け付ける。
(Procedure for creating inference result information)
The procedure for creating inference result information will be described with reference to FIG. 9. The inference result information creation processing procedure is the details of step S206.
In step S501, the inference unit 21 of the learning device 1 estimates the determination result. Specifically, the inference unit 21 inputs an image of the product into the inference model 31. Then, the inference model outputs "1" or "0" as the determination result. The inference unit 21 receives the determination result.

ステップS502において、推論部21は、把持可能位置座標を推定する。具体的には、推論部21は、製品の画像を推論モデル31に入力する。すると、推論モデルは、把持可能位置座標を出力する。推論部21は、把持可能位置座標を受け付ける。 In step S502, the inference unit 21 estimates the grippable position coordinates. Specifically, the inference unit 21 inputs an image of the product into the inference model 31. Then, the inference model outputs the grippable position coordinates. The inference unit 21 receives the grippable position coordinates.

ステップS503において、推論部21は、判定結果及び把持可能位置座標を記憶する。具体的には、第1に、推論部21は、ステップS305の“第3”において作成した推論結果情報33(図5)の新たなレコードの判定結果欄115に、ステップS501において受け付けた判定結果を記憶する。
第2に、推論部21は、新たなレコードの把持可能位置座標欄116に、ステップS502において受け付けた把持可能位置座標を記憶する。
その後、推論結果情報作成処理手順を終了する。
推論部21は、推論結果情報作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、推論部21は、推論結果情報作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
In step S503, the inference unit 21 stores the determination result and the grippable position coordinates. Specifically, first, the inference unit 21 receives the determination result in step S501 in the determination result column 115 of the new record of the inference result information 33 (FIG. 5) created in the “third” of step S305. Remember.
Second, the inference unit 21 stores the grippable position coordinates received in step S502 in the grippable position coordinate column 116 of the new record.
After that, the inference result information creation processing procedure is terminated.
The inference unit 21 repeats the inference result information creation processing procedure for all the products in the image of a certain frame. Further, the inference unit 21 repeats the inference result information creation processing procedure for each frame received from the image pickup apparatus 2.

(本実施形態の効果)
本実施形態の学習装置の効果は以下の通りである。
(1)学習装置は、学習データに対するラベル付けを自動化することができる。
(2)学習装置は、製品の良/不良を判定することができる。
(3)学習装置は、製品を把持する位置を決定することができる。
(4)学習装置は、誤差が小さい推論モデルを作成することができる。
(5)学習装置は、推論モデルをロボット等に出力することができる。
(Effect of this embodiment)
The effects of the learning device of this embodiment are as follows.
(1) The learning device can automate the labeling of the learning data.
(2) The learning device can determine whether the product is good or bad.
(3) The learning device can determine the position where the product is gripped.
(4) The learning device can create an inference model with a small error.
(5) The learning device can output the inference model to the robot or the like.

なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the configurations described. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

また、前記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
Further, each of the above-mentioned configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a recording device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
In addition, the control lines and information lines indicate what is considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.

1 学習装置
2 撮像装置
3 作業員
4 ベルトコンベア
5 製品
6 検査ライン
11 中央制御装置
12 入力装置
13 出力装置
14 主記憶装置
15 補助記憶装置
16 画像取得装置
21 推論部
22 正解ラベル情報作成部
23 学習部
24 製品検出部
25 誤差算出部
26 学習継続判定部
27 推論モデル出力部
31 推論モデル
32 正解ラベル情報
33 推論結果情報
1 Learning device 2 Imaging device 3 Worker 4 Belt conveyor 5 Product 6 Inspection line 11 Central control device 12 Input device 13 Output device 14 Main memory device 15 Auxiliary storage device 16 Image acquisition device 21 Reasoning unit 22 Correct label information creation unit 23 Learning Part 24 Product detection part 25 Error calculation part 26 Learning continuation judgment part 27 Inference model output part 31 Inference model 32 Correct label information 33 Inference result information

Claims (5)

製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得する推論部と、
前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得する正解ラベル情報作成部と、
前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習する学習部と、
を備え
前記正解ラベル情報作成部は、
前記製品の画像及び前記製品に対する人の行動の画像において、前記製品を搬送する検査ライン上で前記人が前記製品に触れた後に当該製品から手を離した結果、当該製品が前記検査ライン上を所定の方向に流れて画面から消えたことを検知した場合、当該製品は良品であると判定すること、
を特徴とする学習装置。
An inference unit that acquires the recognition result by the inference model from the inference model that inputs the image of the product and outputs the recognition result for the product.
A correct label information creation unit that acquires a recognition result by the person from the image of the product and the image of the person's behavior with respect to the product.
A learning unit that learns the inference model based on the recognition result by the inference model and the recognition result by the person.
Equipped with
The correct label information creation unit
In the image of the product and the image of the behavior of a person with respect to the product, as a result of the person touching the product and then releasing the product on the inspection line for transporting the product, the product is on the inspection line. When it is detected that the product has flowed in a predetermined direction and disappeared from the screen, it is judged that the product is a good product.
A learning device featuring.
前記推論モデルによる認識結果と前記人による認識結果との間の誤差を算出する誤差算出部と、
前記算出した誤差に基づいて、前記推論モデルの学習を継続するか否かを決定する学習継続判定部と、
を備えることを特徴とする請求項に記載の学習装置。
An error calculation unit that calculates an error between the recognition result by the inference model and the recognition result by the person,
Based on the calculated error, a learning continuation determination unit that determines whether or not to continue learning the inference model, and a learning continuation determination unit.
The learning device according to claim 1 , further comprising.
前記学習した推論モデルを外部の装置に対して出力する推論モデル出力部を備えること、
を特徴とする請求項に記載の学習装置。
Provided with an inference model output unit that outputs the learned inference model to an external device.
2. The learning device according to claim 2 .
学習装置の推論部は、
製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得し、
前記学習装置の正解ラベル情報作成部は、
前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得し、
前記学習装置の学習部は、
前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習
前記正解ラベル情報作成部は、
前記製品の画像及び前記製品に対する人の行動の画像において、前記製品を搬送する検査ライン上で前記人が前記製品に触れた後に当該製品から手を離した結果、当該製品が前記検査ライン上を所定の方向に流れて画面から消えたことを検知した場合、当該製品は良品であると判定すること、
を特徴とする学習装置の学習方法。
The reasoning part of the learning device is
The recognition result by the inference model is acquired from the inference model that inputs the image of the product and outputs the recognition result for the product.
The correct label information creation unit of the learning device
The recognition result by the person is acquired from the image of the product and the image of the behavior of the person with respect to the product.
The learning unit of the learning device is
The inference model is learned based on the recognition result by the inference model and the recognition result by the person.
The correct label information creation unit
In the image of the product and the image of the behavior of a person with respect to the product, as a result of the person touching the product and then releasing the product on the inspection line for transporting the product, the product is on the inspection line. When it is detected that the product has flowed in a predetermined direction and disappeared from the screen, it is judged that the product is a good product.
A learning method of a learning device characterized by.
学習装置の推論部に対し、
製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得する処理を実行させ、
前記学習装置の正解ラベル情報作成部に対し、
前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得する処理を実行させ、
前記学習装置の学習部に対し、
前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習する処理を実行さ
前記正解ラベル情報作成部に対し、
前記製品の画像及び前記製品に対する人の行動の画像において、前記製品を搬送する検査ライン上で前記人が前記製品に触れた後に当該製品から手を離した結果、当該製品が前記検査ライン上を所定の方向に流れて画面から消えたことを検知した場合、当該製品は良品であると判定する処理を実行させること、
を特徴とする学習装置を機能させるための学習プログラム。
For the inference part of the learning device
From the inference model that inputs the image of the product and outputs the recognition result for the product, the process of acquiring the recognition result by the inference model is executed.
For the correct label information creation unit of the learning device
A process of acquiring a recognition result by the person from the image of the product and the image of the person's behavior with respect to the product is executed.
For the learning unit of the learning device
Based on the recognition result by the inference model and the recognition result by the person, the process of learning the inference model is executed.
For the correct label information creation unit
In the image of the product and the image of the behavior of a person with respect to the product, as a result of the person touching the product and then releasing the product on the inspection line for transporting the product, the product is on the inspection line. When it is detected that the product has flowed in a predetermined direction and disappeared from the screen, the process of determining that the product is non-defective is executed.
A learning program for operating a learning device characterized by.
JP2018091841A 2018-05-11 2018-05-11 Learning equipment, learning methods and learning programs Active JP7025989B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018091841A JP7025989B2 (en) 2018-05-11 2018-05-11 Learning equipment, learning methods and learning programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018091841A JP7025989B2 (en) 2018-05-11 2018-05-11 Learning equipment, learning methods and learning programs

Publications (2)

Publication Number Publication Date
JP2019197441A JP2019197441A (en) 2019-11-14
JP7025989B2 true JP7025989B2 (en) 2022-02-25

Family

ID=68538671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018091841A Active JP7025989B2 (en) 2018-05-11 2018-05-11 Learning equipment, learning methods and learning programs

Country Status (1)

Country Link
JP (1) JP7025989B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7266008B2 (en) * 2020-03-24 2023-04-27 株式会社 日立産業制御ソリューションズ LEARNING IMAGE JUDGMENT DEVICE, PROGRAM AND LEARNING IMAGE JUDGMENT METHOD
JP7097642B1 (en) 2021-04-07 2022-07-08 吉泉産業株式会社 Food inspection system, food inspection learning device and food inspection method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073373A1 (en) 2015-10-30 2017-05-04 株式会社モルフォ Learning system, learning device, learning method, learning program, teacher data creation device, teacher data creation method, teacher data creation program, terminal device, and threshold value changing device
JP2017107509A (en) 2015-12-11 2017-06-15 キヤノン株式会社 Information presentation method and system
WO2017203572A1 (en) 2016-05-23 2017-11-30 株式会社日立ハイテクノロジーズ Defective image classification apparatus and defective image classification method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017073373A1 (en) 2015-10-30 2017-05-04 株式会社モルフォ Learning system, learning device, learning method, learning program, teacher data creation device, teacher data creation method, teacher data creation program, terminal device, and threshold value changing device
JP2017107509A (en) 2015-12-11 2017-06-15 キヤノン株式会社 Information presentation method and system
WO2017203572A1 (en) 2016-05-23 2017-11-30 株式会社日立ハイテクノロジーズ Defective image classification apparatus and defective image classification method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川上拓也,外3名,3-Dシーン観察に基づく手と物体の関係性の学習と把持パタンの想起,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2016-CVIM-202,情報処理学会,2016年05月05日,pp.1-4,[2021年09月16日検索],インターネット<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=159165&file_id=1&file_no=1>

Also Published As

Publication number Publication date
JP2019197441A (en) 2019-11-14

Similar Documents

Publication Publication Date Title
JP7045139B2 (en) Machine learning equipment, machine learning methods, and machine learning programs
US11338435B2 (en) Gripping system with machine learning
Hoque et al. Visuospatial foresight for multi-step, multi-task fabric manipulation
JP6810087B2 (en) Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
CN110167722A (en) Execute the robot and electronic equipment of hand and eye calibrating
JP6540472B2 (en) Simulation apparatus, simulation method, and simulation program
JP6671694B1 (en) Machine learning device, machine learning system, data processing system, and machine learning method
JP7025989B2 (en) Learning equipment, learning methods and learning programs
JP7458741B2 (en) Robot control device and its control method and program
Bottarel et al. GRASPA 1.0: GRASPA is a robot arm grasping performance benchmark
US11052541B1 (en) Autonomous robot telerobotic interface
CN108229678B (en) Network training method, operation control method, device, storage medium and equipment
WO2019230399A1 (en) Robot control device, system, information processing method, and program
US11908337B2 (en) Information processing device, intermediation device, simulation system, and information processing method
Tuli et al. Knowledge-based digital twin for predicting interactions in human-robot collaboration
Bertovic et al. NDE 4.0: new paradigm for the NDE inspection personnel
Siddiqui et al. Grasp stability prediction for a dexterous robotic hand combining depth vision and haptic bayesian exploration
JP2020077231A (en) Position detection program, position detection method and position detection device
Tee et al. A framework for tool cognition in robots without prior tool learning or observation
US20240253216A1 (en) Robot systems, methods, control modules, and computer program products that leverage large language models
WO2022091366A1 (en) Information processing system, information processing device, information processing method, and recording medium
WO2021195916A1 (en) Dynamic hand simulation method, apparatus and system
Iriondo Pascual et al. Implementation of ergonomics evaluation methods in a multi-objective optimization framework
Kasaei et al. Object learning and grasping capabilities for robotic home assistants
CN117062695A (en) Robot system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7025989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150