JP7025989B2 - Learning equipment, learning methods and learning programs - Google Patents
Learning equipment, learning methods and learning programs Download PDFInfo
- Publication number
- JP7025989B2 JP7025989B2 JP2018091841A JP2018091841A JP7025989B2 JP 7025989 B2 JP7025989 B2 JP 7025989B2 JP 2018091841 A JP2018091841 A JP 2018091841A JP 2018091841 A JP2018091841 A JP 2018091841A JP 7025989 B2 JP7025989 B2 JP 7025989B2
- Authority
- JP
- Japan
- Prior art keywords
- product
- image
- learning
- inference model
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a learning device, a learning method and a learning program.
近年、少子高齢化に伴う労働人口の減少に伴い、工場、倉庫等では、人工知能及びロボットが活躍する機会が増加している。例えば、製品の検査作業(良品、不良品の判定)に従事していた作業員は、ロボットに代替されつつある。ロボットは、製品を視認し製品を把持したうえで製品が不良品であるか否かを認識し、製品が不良品である場合、製品を検査ライン等から排除する。ロボットにこのような作業をさせるためには、ロボットを制御するソフトウエア(人工知能)を、予め膨大な学習データで学習しておく必要がある。 In recent years, with the decrease in the working population due to the declining birthrate and aging population, opportunities for artificial intelligence and robots to play an active role in factories, warehouses, etc. are increasing. For example, workers engaged in product inspection work (determination of non-defective products and defective products) are being replaced by robots. The robot visually recognizes the product, grasps the product, recognizes whether or not the product is defective, and if the product is defective, removes the product from the inspection line or the like. In order to make the robot perform such work, it is necessary to learn the software (artificial intelligence) that controls the robot in advance with a huge amount of learning data.
人工知能が多層構造のニューラルネットワークである場合、いわゆるディープラーニング(Deep Learning)が行われる。教師データを使用するディープラーニングにおいては、膨大な数の学習データを準備する工数に加え、それらの学習データに正解ラベルを付す工数も必要となる。例えば、検査ラインにおいて数万規模の画像が取得され、次に、その画像の製品が良品であったかそれとも不良品であったか等を示すラベルが画像に付される。特許文献1のデータ処理装置は、人の動きを時系列の画像として取得する。当該装置は、第1の時点の画像とその後の第2の時点の画像との間の変化の程度に基づいて、両画像間の画像を新たに抽出する。当該装置は、変化の程度が所定の閾値より小さい場合、新たに抽出した画像に対して、第1の時点の画像に付したラベルと同じラベル、又は、第2の時点の画像に付したラベルと同じラベルを付す。
When artificial intelligence is a multi-layered neural network, so-called deep learning is performed. In deep learning using teacher data, in addition to the man-hours for preparing a huge number of learning data, the man-hours for attaching a correct answer label to the learning data are also required. For example, an image of tens of thousands of scales is acquired on the inspection line, and then a label indicating whether the product of the image is a good product or a defective product is attached to the image. The data processing device of
しかしながら、特許文献1のデータ処理装置は、ラベルを付すべき候補となっている画像に対して、どのラベルを付すかの判定をユーザの手動入力によっている(特許文献1の段落0068、図3)。つまり、特許文献1では、教師データの有効な候補となる画像を取得することについては効果が認められるものの、ラベル付けの工数を削減するためには、別途方策が必要であった。
そこで、本発明は、ラベル付け作業を自動化することを目的とする。
However, the data processing apparatus of
Therefore, an object of the present invention is to automate the labeling work.
本発明の学習装置は、製品の画像を入力とし製品に対する認識結果を出力とする推論モデルから、推論モデルによる認識結果を取得する推論部と、製品の画像及び製品に対する人の行動の画像から、人による認識結果を取得する正解ラベル情報作成部と、推論モデルによる認識結果及び人による認識結果に基づいて、推論モデルを学習する学習部と、を備え、正解ラベル情報作成部は、製品の画像及び製品に対する人の行動の画像において、製品を搬送する検査ライン上で人が製品に触れた後に当該製品から手を離した結果、当該製品が検査ライン上を所定の方向に流れて画面から消えたことを検知した場合、当該製品は良品であると判定すること、を特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。
The learning device of the present invention has an inference unit that acquires a recognition result by an inference model from an inference model that inputs an image of a product and outputs a recognition result for the product, and an image of the product and an image of human behavior toward the product. It is equipped with a correct answer label information creation unit that acquires the recognition result by a person and a learning unit that learns an inference model based on the recognition result by the inference model and the recognition result by the person. The correct answer label information creation unit is an image of the product. And in the image of human behavior toward the product, as a result of the person touching the product on the inspection line that transports the product and then releasing the product, the product flows on the inspection line in a predetermined direction and disappears from the screen. When it is detected, the product is determined to be a non-defective product .
Other means will be described in the form for carrying out the invention.
本発明によれば、ラベル付け作業を自動化することができる。 According to the present invention, the labeling work can be automated.
以降、本発明を実施するための形態(“本実施形態”という)を、図等を参照しながら詳細に説明する。本実施形態は、製品の検査工程において、ロボットが製品の良/不良を判定し不良品を排除する例である。しかしながら、本発明は、ロボットが物の外観を視認し物を把持した結果に基づき、物に対して動作を行う例に一般的に適用可能である。 Hereinafter, a mode for carrying out the present invention (referred to as “the present embodiment”) will be described in detail with reference to figures and the like. This embodiment is an example in which the robot determines whether the product is good or bad and eliminates the defective product in the product inspection process. However, the present invention is generally applicable to an example in which a robot operates on an object based on the result of visually recognizing the appearance of the object and grasping the object.
(環境)
図1に沿って、本実施形態の学習装置が稼働する環境を説明する。図1は、ある工場の検査ライン6の図である。図1の左右方向にベルトコンベア4が敷設されている。ベルトコンベア4は、図1の左から右の方向へ複数の製品5を搬送している。製品5は、出荷直前の完成品であってもよいし、次の工程に行く直前の中間製品であってもよい。製品5の形状等は一様ではなく、製品5ごとに異なっている。作業員3がベルトコンベア4の前に立っている。
(environment)
An environment in which the learning device of the present embodiment operates will be described with reference to FIG. FIG. 1 is a diagram of an
作業員3は、左側から搬送されて来る製品5を目視し、製品の形状、色等を認識する。同時に作業員3は、製品5のある箇所を手で把持し、重量、重心位置、内部構造の固定状態等を認識する。認識の結果、製品5の形状等が所定の基準を満たさないと作業員3が判定した場合、作業員3は、その製品5は不良品であると判定し、不良品をベルトコンベア4の外側の不良品回収ヤード(図示せず)に排除する。製品5の形状等が所定の基準を満たす場合、作業員3は、その製品5は良品であると判定し、製品5がそのままベルトコンベア4上で搬送されて行くのを見送る。
The
このような作業員3の判定及び動作を、まったく同じようにロボット(図示せず)が行う。ロボットは、人間の全身形状を有するヒューマノイドロボットであってもよいし、人間の腕及び手の部分のみを有するアームロボットであってもよい。製品5及び作業員3の画像を撮像装置2が取得している。撮像装置2は、例えば、3次元RGB(Red Green Blue)カメラである。3次元RGBカメラは、撮像した製品5及び作業員3の手等を、3次元仮想空間内でカラー画像として時系列で再現することができる。
A robot (not shown) performs such determination and operation of the
本実施形態の学習装置は、撮像装置2が取得した画像から正解ラベル情報(詳細後記)を作成し、正解ラベル情報を学習データとして使用して推論モデル(詳細後記)を学習する。さらに、学習装置は、学習済みの推論モデルを使用してロボットを制御する。つまり、ロボットが製品の良/不良を判定する基準、及び、ロボットが把持する製品の位置は、推論モデルによって決定される。
The learning device of the present embodiment creates correct answer label information (detailed later) from the image acquired by the
(推論モデル)
本実施形態の推論モデル31(図2)は、例えば、入力層、出力層及び複数の中間層を有するニューラルネットワーク(図示せず)である。入力層は、製品の画像を受け付ける。出力層は、良/不良の判定結果、及び、製品の把持可能位置座標を出力する。公知のように、入力層、中間層及び出力層は、複数のノード(人間の神経細胞に相当)を有している。あるノードがある情報量を受け取ると、その情報量のうちある部分を次の層のあるノードに伝搬する。どれだけの情報量をどのノードに伝搬するかという情報(重みベクトル)を、それぞれのノードが保有している。推論モデル31を学習することは、それぞれのノードについて重みベクトルの成分を最適化することに相当する。以降、本実施形態では、それぞれのノードの重みベクトルを総称して“パラメータ”と呼ぶ。
(Inference model)
The inference model 31 (FIG. 2) of the present embodiment is, for example, a neural network (not shown) having an input layer, an output layer, and a plurality of intermediate layers. The input layer receives the image of the product. The output layer outputs the good / bad determination result and the grippable position coordinates of the product. As is known, the input layer, the intermediate layer and the output layer have a plurality of nodes (corresponding to human nerve cells). When a node receives a certain amount of information, a part of the amount of information is propagated to a node in the next layer. Each node has information (weight vector) as to how much information is propagated to which node. Learning the
(学習装置の構成)
図2に沿って、学習装置1の構成を説明する。学習装置1は、一般的なコンピュータであり、中央制御装置11、キーボード、タッチパネル等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び画像取得装置16を備える。これらは、バスで相互に接続されている。補助記憶装置15は、推論モデル31、正解ラベル情報32及び推論結果情報33(いずれも詳細後記)を格納している。
(Configuration of learning device)
The configuration of the
主記憶装置14における、推論部21、正解ラベル情報作成部22、学習部23、製品検出部24、誤差算出部25、学習継続判定部26及び推論モデル出力部27は、プログラムである。以降において、“○○部は”と動作主体を記した場合、それは、中央制御部11が補助記憶装置15から“○○部”を読み出して主記憶装置14にロードしたうえで、後記する処理を実行することを意味する。撮像装置2は、検査ライン6のベルトコンベア4上の製品5及び作業員3(図2には図示せず)を撮像する。撮像装置2は、有線又は無線のネットワーク7を介して、撮像した画像を学習装置1に送信する。学習装置1の画像取得装置16は、画像を受信する。
The
(正解ラベル情報)
図3に沿って、正解ラベル情報32を説明する。正解ラベル情報32は、撮像時点欄101に記憶された撮像時点に関連付けて、画像保存位置欄102には画像保存位置が、製品ID(Identifier)欄103には製品IDが、製品位置座標欄104には製品位置座標が、判定結果欄105には判定結果が、把持可能位置座標欄106には把持可能位置座標が記憶されている。なお、機械学習の分野において、手本とすべきデータ(教師データ)を特定することを、一般に、“データに正解ラベルを付す”のように表現することが多い。このことが、ここでの“正解ラベル情報”の命名根拠である。
(Correct label information)
The
撮像時点欄101の撮像時点は、撮像装置2が製品の画像を取得した時点の時分秒である。撮像時点は、製品の画像を取得した時点の年月日を含んでもよい。
画像保存位置欄102の画像保存位置は、製品の画像が記憶されている位置を示す情報である。製品の画像は、学習装置1の補助記憶装置15に記憶されてもよいし、他の外部装置に記憶されてもよい。
製品ID欄103の製品IDは、製品を一意に特定する識別子である。
The imaging time point in the imaging
The image storage position in the image
The product ID in the
製品位置座標欄104の製品位置座標は、撮像装置2の画面における製品の位置を示す座標値である。例えば“(X1,Y1,X2,Y2)”は、点(X1,Y1)及び点(X2,Y2)を結ぶ線分を対角線として有する長方形を意味する。ここで製品位置座標を2次元としたのは、説明の単純化のためであり、製品位置座標は、3次元であってもよい。
判定結果欄105の判定結果は、“0”又は“1”のいずれかである。“0”は、不良品を示し、“1”は良品を示す。ここでの判定結果は、作業員による判定の結果である。作業員が製品を排除した場合、判定結果は“0”となり、排除せずに見送った場合、判定結果は“1”となる(詳細後記)。なお、請求項の“検査の合否”には、ここでの判定結果が相当する。
The product position coordinates in the product position coordinate
The determination result in the
把持可能位置座標欄106の把持可能位置座標は、撮像装置2の画面のうちその製品を切り出した部分画面における製品の把持可能位置を示す座標値である。つまり、製品位置座標をグローバル座標とした場合、把持可能位置座標は、ローカル座標であるといえる。もちろん、この例以外に、把持可能位置座標が、製品位置座標と同じグローバル座標であってもよい。把持可能位置とは、作業員が製品を検査する目的でその製品を手で掴む位置である。把持可能位置は、1つの製品について通常2つ以上存在する。これらの把持可能位置は、手の関節位置に対応する(図4の符号41参照)。ここでの把持可能位置座標を2次元としたのは、説明の単純化のためであり、把持可能位置座標は、3次元であってもよい。ここでの把持可能位置座標は、作業員の動作の結果である。
なお、請求項における“人による認識結果”には、図3における判定結果及び把持可能位置座標が相当する。
The grippable position coordinates in the grippable position coordinate
The "recognition result by a person" in the claim corresponds to the determination result and the grippable position coordinates in FIG.
製品は相当の重量を有する。したがって、作業員は、落下させにくい位置で製品を把持しなければならない。また、不完全な把持によって製品の不良箇所がさらに増える場合もある。したがって、作業員は、構造上頑強な位置で製品を把持しなければならない。さらに、作業員は、製品の必要箇所を短時間かつ1度の動作で検査することを要求されている。したがって、作業員は、持ち替える必要のない位置で製品を把持しなければならない。熟練した作業員は、経験的にこれらの位置を知っている。 The product has a considerable weight. Therefore, the worker must grip the product in a position where it is difficult to drop it. Incomplete gripping may also increase the number of defective parts of the product. Therefore, the worker must grip the product in a structurally robust position. Further, the worker is required to inspect the required part of the product in a short time and in one operation. Therefore, the worker must hold the product in a position where it does not need to be changed. Skilled workers know these positions empirically.
図3から、例えば以下のことがわかる。
・撮像装置2は、12時00分00秒、12時00分01秒、12時00分02秒及び12時00分03秒において1枚ずつ、計4枚の画像を取得した。
・12時00分00秒の画像には、製品は写っていなかった。
・12時00分01秒の画像には、製品P001が写っていた。作業員は、2つの位置“(X3,Y3)”及び“(X4,Y4)”で製品P001に接触し始めた。なお、“接触”は、“把持”の初期段階である。
From FIG. 3, for example, the following can be seen.
-The
-The product was not shown in the image at 12:00:00.
-Product P001 was shown in the image at 12:00:01. Workers began to contact product P001 at two positions "(X3, Y3)" and "(X4, Y4)". "Contact" is the initial stage of "grasping".
・12時00分02秒の画像には、製品P001、P002及びP003が写っていた。
・12時00分02秒において、作業員は、前記した2つの位置に加えてさらに4つの位置“(X7,Y7)”、“(X8,Y8)”、“(X9,Y9)”及び“(X10,Y10)”で製品P001に接触した(握った)。作業員は、製品P001を不良品回収ヤードに排除した。
・12時00分02秒において、作業員は、2つの位置“(X13,Y13)”及び“(X14,Y14)”で製品P002に接触した(摘まんだ)。作業員は、製品P002は良品であると判定した。
・12時00分02秒において、作業員は、2つの位置“(X17,Y17)”及び“(X18,Y18)”で製品P003に接触した(摘まんだ)。作業員は、製品P003は良品であると判定した。
-Products P001, P002 and P003 were shown in the image at 12:00:02.
-At 12:00:02, the worker in addition to the above-mentioned two positions, four more positions "(X7, Y7)", "(X8, Y8)", "(X9, Y9)" and " (X10, Y10) ”contacted (grasped) the product P001. The worker eliminated the product P001 in the defective collection yard.
At 12:00:02, the worker touched (picked) product P002 at two positions "(X13, Y13)" and "(X14, Y14)". The worker determined that the product P002 was a non-defective product.
At 12:00:02, the worker touched (picked) product P003 at two positions "(X17, Y17)" and "(X18, Y18)". The worker determined that the product P003 was a non-defective product.
・撮像装置2は、その光軸及び画角を固定することによって撮像画面を固定している。そして、その撮像画面上を時系列で製品が移動している。例えば、12時00分01秒から12時00分02秒までの間に、製品P001は“(X1,Y1,X2,Y2)”から“(X5,Y5,X6,Y6)”に移動している。12時00分02秒から12時00分03秒までの間に、製品P003は“(X15,Y15,X16,Y16)”から“(X19,Y19,X20,Y20)”に移動している。この間、作業員は、製品P003を同じ位置“(X17,Y17)”及び“(X18,Y18)”で把持し続けている(欄106のローカル座標は変化していない)。
-The
(把持可能位置座標)
図4に沿って、把持可能位置座標及びフレームアウトを説明する。作業員が、自身の手を製品5に接触させている(図4の上図)。この図では、作業員は製品5に触れているだけであるが、作業員は、製品5を握りしめ、持ち上げることもある。このとき、関節41が製品5に接触する位置が把持可能位置である。製品5が良品であると作業員が判定すると、作業員は製品5から手を離す。すると、図5の下図のように、製品5は、画面の右側42に消えて行く(フレームアウト)。
(Gripable position coordinates)
The grippable position coordinates and the frameout will be described with reference to FIG. A worker puts his or her hand in contact with the product 5 (upper figure of FIG. 4). In this figure, the worker only touches the
(推論結果情報)
図5に沿って、推論結果情報33を説明する。推論結果情報33の構成は、正解ラベル情報32(図3)と同じである。しかしながら、推論結果情報33の各欄のデータは、正解ラベル情報32の同じ欄のデータと、以下の点で異なる。
(Inference result information)
The inference result
・図3の判定結果(欄105)は、前記したように作業員による判定に基づく。他方、図5の判定結果(欄115)は、推論部21が推論モデル31に製品の画像を入力したことを受け推論モデルが出力した出力値に基づく。
・図3の把持可能位置座標(欄106)は、前記したように作業員による動作に基づく。他方、図5の把持可能位置座標(欄116)は、推論部21が推論モデルに製品の画像を入力したことを受け推論モデルが出力した出力値に基づく。
なお、請求項における“推論モデルによる認識結果”には、図5における判定結果及び把持可能位置座標が相当する。
The determination result (column 105) in FIG. 3 is based on the determination by the worker as described above. On the other hand, the determination result (column 115) in FIG. 5 is based on the output value output by the inference model in response to the
The grippable position coordinates (column 106) in FIG. 3 are based on the operation by the operator as described above. On the other hand, the grippable position coordinates (column 116) in FIG. 5 are based on the output value output by the inference model in response to the
The "recognition result by the inference model" in the claim corresponds to the determination result and the grippable position coordinates in FIG.
(全体処理手順)
図6に沿って、全体処理手順を説明する。
ステップS201において、学習装置1の推論部21は、未学習の推論モデル31を準備する。具体的には、推論部21は、パラメータが未だ学習されていない推論モデル31を準備する。
(Overall processing procedure)
The whole processing procedure will be described with reference to FIG.
In step S201, the
ステップS202において、学習装置1の正解ラベル情報作成部22は、作業員に検査指示を送信する。具体的には、正解ラベル情報作成部22は、作業員が携帯している端末装置等に、検査作業を開始する旨の指示を送信する。
In step S202, the correct answer label
ステップS203において、学習装置1の学習部23は、推論モデル31に初期パラメータを入力する。具体的には、学習部23は、例えば、乱数表を使用して無作為的に作成したパラメータを推論モデル31に入力する。
ステップS203が終了した段階で、撮像装置2は製品を撮像した画像を、1フレームずつ学習装置1に送信する。学習装置1の画像取得装置16は、画像を1フレームずつ受信する。
In step S203, the
At the stage when step S203 is completed, the
ステップS204において、学習装置1の製品検出部24は、製品ID等を作成する。ステップS204の詳細は、製品ID作成処理手順(図7)として後記する。ここでは結果的に、製品検出部24は、ベルトコンベア4上を流れる製品に対して付与した製品ID、画像保存位置、撮像時点及び製品位置座標を取得したものとする。ステップS204の段階では、図3の正解ラベル情報32の1本のレコード(欄105及び欄106は空欄である)が新たに作成され、図5の推論結果情報33の1本のレコード(欄115及び欄116は空欄である)が新たに作成されていることになる。
In step S204, the
ステップS205において、学習装置1の正解ラベル情報作成部22は、正解ラベル情報32を作成する。ステップS205の詳細は、正解ラベル情報作成処理手順(図8)として後記する。ここでは結果的に、正解ラベル情報作成部22は、図3の正解ラベル情報32の1本のレコード(すべての欄が埋まったもの)を完成したことになる。
In step S205, the correct answer label
ステップS206において、学習装置1の推論部21は、推論結果情報33を作成する。ステップS206の詳細は、推論結果情報作成処理手順(図9)として後記する。ここでは結果的に、推論部21は、図5の推論結果情報33の1本のレコード(すべての欄が埋まったもの)を完成したことになる。
In step S206, the
ステップS207において、学習装置1の学習部23は、搬送された製品の数が第1の基準値を超えたか否かを判断する。第1の基準値とは、推論モデルのパラメータを固定した状態で推論モデルに判定結果及び把持可能位置座標を推定させる学習データの数である。例えて言えば、第1の基準値は、教師が生徒に課する1回のテストの問題数に相当する。
In step S207, the
学習部23は、ステップS204において作成した製品IDの個数(第1のカウンタ値)をカウントしておく。学習部23は、第1のカウンタ値が第1の基準値に達した場合(ステップS207“Yes”)、この時点までに蓄積された推論結果情報33及び正解ラベル情報32を補助記憶装置15に記憶し、第1のカウンタ値を“0”に戻したうえでステップS208に進む。推論結果情報33及び正解ラベル情報32は、それぞれ、テストの答案及び解答に相当する。学習部23は、それ以外の場合(ステップS207“No”)、ステップS204に戻る。
The
いま、第1の基準値が“100”であるとする。すると、搬送された製品の累積個数が100個を超えた場合、学習部23は、ステップS208に進む。その後しばらく学習部23は、ステップS204に戻り続ける。次に学習部23がステップS208に進むのは、搬送された製品の累積個数が200個を超えた場合である。
Now, it is assumed that the first reference value is "100". Then, when the cumulative number of transported products exceeds 100, the
ステップS208において、学習部23は、パラメータが変化した回数が第2の基準値に達したか否かを判断する。学習部23は、ステップS203又はS209を経由する回数(第2のカウンタ値)をカウントしておく。学習部23は、第2のカウンタ値が第2の基準値に達した場合(ステップS208“Yes”)、第2のカウンタ値を“0”に戻したうえでステップS210に進む。学習部23は、それ以外の場合(ステップS208“No”)、ステップS209に進む。例えて言えば、第2の基準値は、教師が生徒に課するテストの回数に相当する。いま、第2の基準値が“50”であるとする。すると、搬送された製品の累積個数が5000個を超えるまでは、学習部23は、ステップS209に進む。その間にパラメータは初期値も含め50の異なる値を取る。
In step S208, the
ステップS209において、学習部23は、新たなパラメータを作成する。具体的には、学習部23は、例えば、乱数表を使用して無作為的に作成したパラメータを推論モデルに入力する。なお、このとき、学習部23は、遺伝的アルゴリズムを使用してパラメータを作成してもよい(詳細後記)。その後、学習部23は、ステップS203に戻る。
In step S209, the
なお、ステップS203~S209のループの繰り返し回数が少ないうちは、推論結果情報33における判定結果及び把持可能位置座標と、正解ラベル情報32における判定結果及び把持可能位置座標との誤差は大きい。但し、この段階では、ロボットが推論モデルを使用して実際に検査を行っているわけではないので、実害はない。
While the number of repetitions of the loop in steps S203 to S209 is small, the error between the determination result and the grippable position coordinates in the inference result
ステップS210において、学習装置1の誤差算出部25は、複数の推論結果情報33の誤差を算出する。ステップS210の段階で、補助記憶装置15は、推論結果情報33を50個記憶し、それらのそれぞれに対応する正解ラベル情報32を50個記憶していることになる。そこで、誤差算出部25は、“(si,Pi,e1i,e2i)”というデータの組合せを50個作成する。“si”は、i番目の推論結果情報を意味する(i=1、2、3、・・・、50)。“Pi”は、i番目の推論モデルのパラメータを示す。“Pi”は、例えば、ノード数×各ノードのパラメータ数の行列型式を有する。
In step S210, the
“e1i”は、i番目の推論結果情報の判定結果をi番目の正解ラベル情報の判定結果と比較した場合の、両者が相違する度数(製品の数)である。なお、0≦e1i≦100が成立する。“e2i”は、i番目の推論結果情報の把持可能位置座標をi番目の正解ラベル情報の把持可能位置座標と比較した場合の、両者が相違する度数である。なお、0≦e2i≦100が成立する。把持可能位置座標は複数存在する場合もある。そこで、誤差算出部25は、推論結果情報の把持可能位置座標のすべてが、正解ラベル情報の把持可能位置座標のいずれからも所定の閾値以上離れている場合、両者が相違すると看做す。当然のことながら、50個の組合せのうち、e1i及びe2iが最小となるような“Pi”が、推論モデルのパラメータとして相応しい。“e1i”及び“e2i”を誤差と呼ぶ。
“E1 i ” is a frequency (number of products) different from each other when the determination result of the i-th inference result information is compared with the determination result of the i-th correct answer label information. It should be noted that 0 ≦ e1 i ≦ 100 is established. “E2 i ” is a frequency different from each other when the grippable position coordinates of the i-th inference result information are compared with the grippable position coordinates of the i-th correct answer label information. It should be noted that 0 ≦ e2 i ≦ 100 is established. There may be multiple grippable position coordinates. Therefore, the
ステップS211において、誤差算出部25は、誤差が最小である推論モデルのパラメータを特定する。具体的には、誤差算出部25は、“Pi”(i=1、2、3、・・・、50)のうちから、“Ei=w1×e1i+w2×e2i”が最小となるものを特定する。“w1”及び“w2”は、誤差評価用の重みである。なお、“0≦w1≦1,0≦w2≦1,w1+w2=1”が成立する。
In step S211 the
ステップS212において、学習装置1の学習継続判定部26は、誤差が閾値以下であるか否かを判断する。具体的には、学習継続判定部26は、ステップS211において特定した推論モデルのパラメータの誤差Eiが所定の閾値以下である場合(ステップS212“Yes”)、ステップS213に進む。学習継続判定部26は、それ以外の場合(ステップS212“No”)、ステップS209に戻る。
In step S212, the learning
ステップS213において、学習装置1の推論モデル出力部27は、推論モデルをロボットに送信する。具体的には、推論モデル出力部27は、ロボットに対して、推論モデル及びステップS211において特定した推論モデルのパラメータを送信する。ロボットが直ちに検査を行う必要がない場合もある。その場合、推論モデル出力部27は、ステップS211において特定した推論モデルのパラメータを補助記憶装置15に格納してもよいし、任意の外部の装置に送信してもよい。
In step S213, the inference
ステップS214において、推論モデル出力部27は、ロボットに検査指示を送信する。具体的には、推論モデル出力部27は、ロボットに対して、ステップS213において送信した推論モデル及び推論モデルのパラメータを使用して検査を行う旨の指示を送信する。
In step S214, the inference
ステップS215において、学習装置1の正解ラベル情報作成部22は、作業員に休止指示を送信する。その後、全体処理手順を終了する。
In step S215, the correct answer label
(遺伝的アルゴリズム等)
ステップS212“No”を経由してステップS209に戻る場合、組合せ“(si,Pi,e1i,e2i)”が複数取得されていることになる。そこで、学習装置1の学習部23は、これらの組合せのうち、“Ei”の値が最小であるもののパラメータPi、及び、2番目に小さいもののパラメータPi(両親)を選択し、この両親を掛けあわせて新たなパラメータPi(子)を作成してもよい。
(Genetic algorithm, etc.)
When returning to step S209 via step S212 “No”, it means that a plurality of combinations “( si, Pi, e1 i , e2 i ) ” have been acquired. Therefore, the
(製品ID作成処理手順)
図7に沿って、製品ID作成処理手順を説明する。製品ID作成処理手順は、ステップS204の詳細である。
ステップS301において、学習装置1の製品検出部24は、画像に製品が存在するか否かを判断する。具体的には、第1に、製品検出部24は、撮像装置2から製品の画像を取得する。
第2に、製品検出部24は、撮像装置2が取得した画像中に少なくとも1つの製品が存在する場合(ステップS301“Yes”)、ステップS302に進み、それ以外の場合(ステップS301“No”)、製品ID作成処理手順を終了する。
(Product ID creation processing procedure)
The product ID creation processing procedure will be described with reference to FIG. 7. The product ID creation processing procedure is the details of step S204.
In step S301, the
Second, the
ステップS302において、製品検出部24は、検出した製品が直前の画像に存在するか否かを判断する。具体的には、製品検出部24は、製品が直前の(1フレーム前の)画像に存在する場合(ステップS302“Yes”)、ステップS303に進み、それ以外の場合(ステップS302“No”)、ステップS304に進む。なお、製品検出部24は、製品の同一性を判断するに際して、テンプレートマッチング、Mean-shift法等の領域ベースの追跡手法を使用してもよいし、SURF Tracking等の特徴点ベースの追跡手法を使用してもよい。
In step S302, the
ステップS303において、製品検出部24は、同一の製品IDを付与する。具体的には、製品検出部24は、その製品に対して既に付されている製品IDを当該製品に付与する。
In step S303, the
ステップS304において、製品検出部24は、新たな製品IDを付与する。具体的には、製品検出部24は、新たな製品IDを採番したうえで、その製品に対して新たな製品IDを付与する。
In step S304, the
ステップS305において、製品検出部24は、製品ID等を送信する。具体的には、第1に、製品検出部24は、ステップS301の“第1”において取得した画像から個々の製品の画像を切り出し、切り出した画像の製品位置座標(対角線の両端点の座標値)を求める。
第2に、製品検出部24は、正解ラベル情報32(図3)の新たなレコードを作成し、新たなレコードに、撮像時点、画像保存位置、製品ID及び製品位置座標を記憶する。製品検出部24は、新たなレコードの判定結果欄105及び把持可能位置座標欄106を空白のままとする。
In step S305, the
Second, the
第3に、製品検出部24は、推論結果情報33(図5)の新たなレコードを作成し、新たなレコードに、撮像時点、画像保存位置、製品ID及び製品位置座標を記憶する。製品検出部24は、新たなレコードの判定結果欄115及び把持可能位置座標欄116を空白のままとする。その後、製品ID作成処理手順を終了する。
Third, the
製品検出部24は、製品ID作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、製品検出部24は、製品ID作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
The
(正解ラベル情報作成処理手順)
図8に沿って、正解ラベル情報作成処理手順を説明する。正解ラベル情報作成処理手順は、ステップS205の詳細である。
ステップS401において、学習装置1の正解ラベル情報作成部22は、関節を抽出する。具体的には、正解ラベル情報作成部22は、作業員の指関節の位置座標を取得する。
(Procedure for creating correct label information)
The procedure for creating correct label information will be described with reference to FIG. The procedure for creating correct label information is the details of step S205.
In step S401, the correct label
ステップS402において、正解ラベル情報作成部22は、製品に関節が接触しているか否かを判断する。具体的には、正解ラベル情報作成部22は、関節の少なくとも1つが製品に接触している場合(ステップS402“Yes”)、ステップS403に進み、それ以外の場合(ステップS402“No”)、ステップS404に進む。
In step S402, the correct label
ステップS403において、正解ラベル情報作成部22は、把持可能位置座標を記憶する。具体的には、正解ラベル情報作成部22は、ステップS305の“第2”において作成した正解ラベル情報32(図3)の新たなレコードの把持可能位置座標欄106に、製品と接触している関節の位置情報を記憶する。
In step S403, the correct answer label
ステップS404において、正解ラベル情報作成部22は、直前の画像内で検出されたすべての製品が現在の画像内に存在するか否かを判断する。具体的には、正解ラベル情報作成部22は、直前の画像内で検出されたすべての製品が現在の画像内に存在する場合(ステップS404“Yes”)、正解ラベル情報作成処理手順を終了する。正解ラベル情報作成部22は、それ以外の場合(ステップS404“No”)、ステップS405に進む。
In step S404, the correct label
ステップS405において、正解ラベル情報作成部22は、存在しなくなった製品を特定する。具体的には、正解ラベル情報作成部22は、直前の画像において存在していた製品のうち、現在の画像において存在しなくなった製品を特定する。ここで特定された製品を“消滅製品”と呼ぶ。
In step S405, the correct label
ステップS406において、正解ラベル情報作成部22は、製品がフレームアウトしたか否かを判断する。具体的には、第1に、正解ラベル情報作成部22は、消滅製品がフレームアウトしたものであるか否かを判断する。“フレームアウト”とは、消滅製品が直前の画像において画像フレームの右辺(ベルトコンベアの下流側)に掛っていること、又は、掛らないまでも右辺から所定の距離内にあることを意味する(図4の符号42参照)。製品がフレームアウトすることは、作業員がその製品は良品であると判定し、ベルトコンベア4上を右に流れて行くのを見送ったことを意味する。製品がフレームアウトしないことは、作業員がその製品を不良品であると判定し、ベルトコンベア4上から排除したことを意味する。
In step S406, the correct label
第2に、正解ラベル情報作成部22は、消滅製品がフレームアウトした場合(ステップS406“Yes”)、ステップS407に進み、それ以外の場合(ステップS406“No”)、ステップS408に進む。
Second, the correct label
ステップS407において、正解ラベル情報作成部22は、製品は良品であると判定する。具体的には、正解ラベル情報作成部22は、ステップS305の“第2”において作成した正解ラベル情報32の新たなレコードの判定結果欄105に、“1”を記憶する。その後、正解ラベル情報作成処理手順を終了する。
In step S407, the correct label
ステップS408において、正解ラベル情報作成部22は、製品は不良品であると判定する。具体的には、正解ラベル情報作成部22は、ステップS305の“第2”において作成した正解ラベル情報32の新たなレコードの判定結果欄105に、“0”を記憶する。その後、正解ラベル情報作成処理手順を終了する。
正解ラベル情報作成部22は、正解ラベル情報作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、正解ラベル情報作成部22は、正解ラベル情報作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
In step S408, the correct label
The correct label
(推論結果情報作成処理手順)
図9に沿って、推論結果情報作成処理手順を説明する。推論結果情報作成処理手順は、ステップS206の詳細である。
ステップS501において、学習装置1の推論部21は、判定結果を推定する。具体的には、推論部21は、製品の画像を推論モデル31に入力する。すると、推論モデルは、判定結果として“1”又は“0”を出力する。推論部21は、判定結果を受け付ける。
(Procedure for creating inference result information)
The procedure for creating inference result information will be described with reference to FIG. 9. The inference result information creation processing procedure is the details of step S206.
In step S501, the
ステップS502において、推論部21は、把持可能位置座標を推定する。具体的には、推論部21は、製品の画像を推論モデル31に入力する。すると、推論モデルは、把持可能位置座標を出力する。推論部21は、把持可能位置座標を受け付ける。
In step S502, the
ステップS503において、推論部21は、判定結果及び把持可能位置座標を記憶する。具体的には、第1に、推論部21は、ステップS305の“第3”において作成した推論結果情報33(図5)の新たなレコードの判定結果欄115に、ステップS501において受け付けた判定結果を記憶する。
第2に、推論部21は、新たなレコードの把持可能位置座標欄116に、ステップS502において受け付けた把持可能位置座標を記憶する。
その後、推論結果情報作成処理手順を終了する。
推論部21は、推論結果情報作成処理手順を、あるフレームの画像内のすべての製品について繰り返す。さらに、推論部21は、推論結果情報作成処理手順を、撮像装置2から受信したフレームごとに繰り返す。
In step S503, the
Second, the
After that, the inference result information creation processing procedure is terminated.
The
(本実施形態の効果)
本実施形態の学習装置の効果は以下の通りである。
(1)学習装置は、学習データに対するラベル付けを自動化することができる。
(2)学習装置は、製品の良/不良を判定することができる。
(3)学習装置は、製品を把持する位置を決定することができる。
(4)学習装置は、誤差が小さい推論モデルを作成することができる。
(5)学習装置は、推論モデルをロボット等に出力することができる。
(Effect of this embodiment)
The effects of the learning device of this embodiment are as follows.
(1) The learning device can automate the labeling of the learning data.
(2) The learning device can determine whether the product is good or bad.
(3) The learning device can determine the position where the product is gripped.
(4) The learning device can create an inference model with a small error.
(5) The learning device can output the inference model to the robot or the like.
なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-described embodiment, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the configurations described. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
また、前記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。
Further, each of the above-mentioned configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a recording device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
In addition, the control lines and information lines indicate what is considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.
1 学習装置
2 撮像装置
3 作業員
4 ベルトコンベア
5 製品
6 検査ライン
11 中央制御装置
12 入力装置
13 出力装置
14 主記憶装置
15 補助記憶装置
16 画像取得装置
21 推論部
22 正解ラベル情報作成部
23 学習部
24 製品検出部
25 誤差算出部
26 学習継続判定部
27 推論モデル出力部
31 推論モデル
32 正解ラベル情報
33 推論結果情報
1
Claims (5)
前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得する正解ラベル情報作成部と、
前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習する学習部と、
を備え、
前記正解ラベル情報作成部は、
前記製品の画像及び前記製品に対する人の行動の画像において、前記製品を搬送する検査ライン上で前記人が前記製品に触れた後に当該製品から手を離した結果、当該製品が前記検査ライン上を所定の方向に流れて画面から消えたことを検知した場合、当該製品は良品であると判定すること、
を特徴とする学習装置。 An inference unit that acquires the recognition result by the inference model from the inference model that inputs the image of the product and outputs the recognition result for the product.
A correct label information creation unit that acquires a recognition result by the person from the image of the product and the image of the person's behavior with respect to the product.
A learning unit that learns the inference model based on the recognition result by the inference model and the recognition result by the person.
Equipped with
The correct label information creation unit
In the image of the product and the image of the behavior of a person with respect to the product, as a result of the person touching the product and then releasing the product on the inspection line for transporting the product, the product is on the inspection line. When it is detected that the product has flowed in a predetermined direction and disappeared from the screen, it is judged that the product is a good product.
A learning device featuring.
前記算出した誤差に基づいて、前記推論モデルの学習を継続するか否かを決定する学習継続判定部と、
を備えることを特徴とする請求項1に記載の学習装置。 An error calculation unit that calculates an error between the recognition result by the inference model and the recognition result by the person,
Based on the calculated error, a learning continuation determination unit that determines whether or not to continue learning the inference model, and a learning continuation determination unit.
The learning device according to claim 1 , further comprising.
を特徴とする請求項2に記載の学習装置。 Provided with an inference model output unit that outputs the learned inference model to an external device.
2. The learning device according to claim 2 .
製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得し、
前記学習装置の正解ラベル情報作成部は、
前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得し、
前記学習装置の学習部は、
前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習し
前記正解ラベル情報作成部は、
前記製品の画像及び前記製品に対する人の行動の画像において、前記製品を搬送する検査ライン上で前記人が前記製品に触れた後に当該製品から手を離した結果、当該製品が前記検査ライン上を所定の方向に流れて画面から消えたことを検知した場合、当該製品は良品であると判定すること、
を特徴とする学習装置の学習方法。 The reasoning part of the learning device is
The recognition result by the inference model is acquired from the inference model that inputs the image of the product and outputs the recognition result for the product.
The correct label information creation unit of the learning device
The recognition result by the person is acquired from the image of the product and the image of the behavior of the person with respect to the product.
The learning unit of the learning device is
The inference model is learned based on the recognition result by the inference model and the recognition result by the person.
The correct label information creation unit
In the image of the product and the image of the behavior of a person with respect to the product, as a result of the person touching the product and then releasing the product on the inspection line for transporting the product, the product is on the inspection line. When it is detected that the product has flowed in a predetermined direction and disappeared from the screen, it is judged that the product is a good product.
A learning method of a learning device characterized by.
製品の画像を入力とし前記製品に対する認識結果を出力とする推論モデルから、前記推論モデルによる認識結果を取得する処理を実行させ、
前記学習装置の正解ラベル情報作成部に対し、
前記製品の画像及び前記製品に対する人の行動の画像から、前記人による認識結果を取得する処理を実行させ、
前記学習装置の学習部に対し、
前記推論モデルによる認識結果及び前記人による認識結果に基づいて、前記推論モデルを学習する処理を実行させ、
前記正解ラベル情報作成部に対し、
前記製品の画像及び前記製品に対する人の行動の画像において、前記製品を搬送する検査ライン上で前記人が前記製品に触れた後に当該製品から手を離した結果、当該製品が前記検査ライン上を所定の方向に流れて画面から消えたことを検知した場合、当該製品は良品であると判定する処理を実行させること、
を特徴とする学習装置を機能させるための学習プログラム。 For the inference part of the learning device
From the inference model that inputs the image of the product and outputs the recognition result for the product, the process of acquiring the recognition result by the inference model is executed.
For the correct label information creation unit of the learning device
A process of acquiring a recognition result by the person from the image of the product and the image of the person's behavior with respect to the product is executed.
For the learning unit of the learning device
Based on the recognition result by the inference model and the recognition result by the person, the process of learning the inference model is executed.
For the correct label information creation unit
In the image of the product and the image of the behavior of a person with respect to the product, as a result of the person touching the product and then releasing the product on the inspection line for transporting the product, the product is on the inspection line. When it is detected that the product has flowed in a predetermined direction and disappeared from the screen, the process of determining that the product is non-defective is executed.
A learning program for operating a learning device characterized by.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018091841A JP7025989B2 (en) | 2018-05-11 | 2018-05-11 | Learning equipment, learning methods and learning programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018091841A JP7025989B2 (en) | 2018-05-11 | 2018-05-11 | Learning equipment, learning methods and learning programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019197441A JP2019197441A (en) | 2019-11-14 |
JP7025989B2 true JP7025989B2 (en) | 2022-02-25 |
Family
ID=68538671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018091841A Active JP7025989B2 (en) | 2018-05-11 | 2018-05-11 | Learning equipment, learning methods and learning programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7025989B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7266008B2 (en) * | 2020-03-24 | 2023-04-27 | 株式会社 日立産業制御ソリューションズ | LEARNING IMAGE JUDGMENT DEVICE, PROGRAM AND LEARNING IMAGE JUDGMENT METHOD |
JP7097642B1 (en) | 2021-04-07 | 2022-07-08 | 吉泉産業株式会社 | Food inspection system, food inspection learning device and food inspection method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017073373A1 (en) | 2015-10-30 | 2017-05-04 | 株式会社モルフォ | Learning system, learning device, learning method, learning program, teacher data creation device, teacher data creation method, teacher data creation program, terminal device, and threshold value changing device |
JP2017107509A (en) | 2015-12-11 | 2017-06-15 | キヤノン株式会社 | Information presentation method and system |
WO2017203572A1 (en) | 2016-05-23 | 2017-11-30 | 株式会社日立ハイテクノロジーズ | Defective image classification apparatus and defective image classification method |
-
2018
- 2018-05-11 JP JP2018091841A patent/JP7025989B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017073373A1 (en) | 2015-10-30 | 2017-05-04 | 株式会社モルフォ | Learning system, learning device, learning method, learning program, teacher data creation device, teacher data creation method, teacher data creation program, terminal device, and threshold value changing device |
JP2017107509A (en) | 2015-12-11 | 2017-06-15 | キヤノン株式会社 | Information presentation method and system |
WO2017203572A1 (en) | 2016-05-23 | 2017-11-30 | 株式会社日立ハイテクノロジーズ | Defective image classification apparatus and defective image classification method |
Non-Patent Citations (1)
Title |
---|
川上拓也,外3名,3-Dシーン観察に基づく手と物体の関係性の学習と把持パタンの想起,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2016-CVIM-202,情報処理学会,2016年05月05日,pp.1-4,[2021年09月16日検索],インターネット<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=159165&file_id=1&file_no=1> |
Also Published As
Publication number | Publication date |
---|---|
JP2019197441A (en) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7045139B2 (en) | Machine learning equipment, machine learning methods, and machine learning programs | |
US11338435B2 (en) | Gripping system with machine learning | |
Hoque et al. | Visuospatial foresight for multi-step, multi-task fabric manipulation | |
JP6810087B2 (en) | Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method | |
CN110167722A (en) | Execute the robot and electronic equipment of hand and eye calibrating | |
JP6540472B2 (en) | Simulation apparatus, simulation method, and simulation program | |
JP6671694B1 (en) | Machine learning device, machine learning system, data processing system, and machine learning method | |
JP7025989B2 (en) | Learning equipment, learning methods and learning programs | |
JP7458741B2 (en) | Robot control device and its control method and program | |
Bottarel et al. | GRASPA 1.0: GRASPA is a robot arm grasping performance benchmark | |
US11052541B1 (en) | Autonomous robot telerobotic interface | |
CN108229678B (en) | Network training method, operation control method, device, storage medium and equipment | |
WO2019230399A1 (en) | Robot control device, system, information processing method, and program | |
US11908337B2 (en) | Information processing device, intermediation device, simulation system, and information processing method | |
Tuli et al. | Knowledge-based digital twin for predicting interactions in human-robot collaboration | |
Bertovic et al. | NDE 4.0: new paradigm for the NDE inspection personnel | |
Siddiqui et al. | Grasp stability prediction for a dexterous robotic hand combining depth vision and haptic bayesian exploration | |
JP2020077231A (en) | Position detection program, position detection method and position detection device | |
Tee et al. | A framework for tool cognition in robots without prior tool learning or observation | |
US20240253216A1 (en) | Robot systems, methods, control modules, and computer program products that leverage large language models | |
WO2022091366A1 (en) | Information processing system, information processing device, information processing method, and recording medium | |
WO2021195916A1 (en) | Dynamic hand simulation method, apparatus and system | |
Iriondo Pascual et al. | Implementation of ergonomics evaluation methods in a multi-objective optimization framework | |
Kasaei et al. | Object learning and grasping capabilities for robotic home assistants | |
CN117062695A (en) | Robot system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7025989 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |