JP2021047839A - 機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボット - Google Patents
機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボット Download PDFInfo
- Publication number
- JP2021047839A JP2021047839A JP2020039132A JP2020039132A JP2021047839A JP 2021047839 A JP2021047839 A JP 2021047839A JP 2020039132 A JP2020039132 A JP 2020039132A JP 2020039132 A JP2020039132 A JP 2020039132A JP 2021047839 A JP2021047839 A JP 2021047839A
- Authority
- JP
- Japan
- Prior art keywords
- light
- unit
- image
- robot
- under
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000010801 machine learning Methods 0.000 title claims abstract description 35
- 239000003550 marker Substances 0.000 claims abstract description 105
- 238000012549 training Methods 0.000 claims description 56
- 238000003384 imaging method Methods 0.000 claims description 55
- 230000033001 locomotion Effects 0.000 claims description 54
- 239000000463 material Substances 0.000 claims description 46
- 238000005286 illumination Methods 0.000 claims description 40
- 238000001514 detection method Methods 0.000 claims description 23
- 230000009471 action Effects 0.000 claims description 15
- 238000002372 labelling Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 15
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000006399 behavior Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 241000282412 Homo Species 0.000 description 6
- 230000001678 irradiating effect Effects 0.000 description 6
- 239000007788 liquid Substances 0.000 description 6
- 230000004044 response Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 239000000843 powder Substances 0.000 description 3
- 230000010391 action planning Effects 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 239000008187 granular material Substances 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
Description
図1〜図6を参照して、第1実施形態を説明する。図1は、第1実施形態に係るロボットの動作制御装置1の機能ブロック図である。
図7、図8を参照して第2実施形態を説明する。図7は、第2実施形態に係るロボットの動作制御装置1Aの機能ブロック図である。図7に示すように、第2実施形態のロボットの動作制御装置1Aは、学習データ作成部13、学習部14を備えない点で第1実施形態と異なる。
図9〜図12を参照して第3実施形態を説明する。図9は、第3実施形態に係るロボットの動作制御装置1Bの機能ブロック図である。図9に示すように、第3実施形態のロボットの動作制御装置1Bは、対象物21が液体、粉粒体等の不定形な物体や気体などであり、発光部(蛍光マーカ)が、対象物21に混入、または対象物21の表面に塗布される蛍光材7であり、学習系が可視光画像31と、紫外光画像32中の蛍光材7の発光による対象物21の外形との関係を学習し、学習済みモデルが可視光画像31から対象物21の種類や形状、位置等を推定する。
図13、図14を参照して第4実施形態を説明する。図13は、第4実施形態に係るロボットの動作制御装置1Cの機能ブロック図である。図13に示すように、第4実施形態のロボットの動作制御装置1Cは、学習系(学習データ作成部13、学習部14)を備えず、発光部として、紫外光の照射によって発光し、対象物22に係る各種情報を含む蛍光情報部8を備える。
図15を参照して、上記実施形態の変形例を説明する。図15は、変形例に係るロボットの動作制御装置1Dの要部構成図である。図15では、カメラ4や光源24など、動作制御装置1Dの撮像系を図示し、上記実施形態と同様の要素の図示を省略している。変形例に係るロボットの動作制御装置1Dは、上記の各実施形態の制御装置10、10A、10B、10Cと同様の制御装置10Dを備え、上記の各実施形態と同様のロボットの行動学習や行動計画を行うことができる。
(1) 対象物23のマーカ9を付けたい位置に再帰性反射塗料を塗布する。
(2)通常の環境光(日光や可視光など)の下で対象物23をカメラ4から見ると、対象物23の元の素材の乱反射によって、普通の見え方をする(つまりマーカ9の発光は視認できない)。
(3) 一方、カメラ4の近傍から、光源24によってカメラ4が見ている方向と同じ方向に光を照射すると、マーカ部分は再帰反射によってカメラ4に向かって光を反射するので、他の(乱反射している)部分より強く反射した光が見える。
(4)この再帰反射で帰ってきた光をカメラ4で観測し、例えば輝度による閾値でマーカ部分を抽出することができる。
(付記1)
第1の照明条件下において認識可能な標識部が設けられた対象物を撮像し、
前記標識部を認識可能な第1画像と、前記対象物を第2の照明条件下で撮像した第2画像と、を取得する、
機械学習用データセットの作成方法。
(付記2)
対象物に設けられる標識部が第1の照明条件下で認識可能な状態である第1画像と、前記対象物を第2の照明条件下で撮像した第2画像と、を用いて、前記第2画像を入力として前記標識部の情報を推定する学習モデルの生成方法。
(付記3)
第1の照明条件下において認識可能となる標識部が設けられた対象物を撮像する撮像部と、
前記対象物に第2の照明条件光を照射する第2の照明条件光照射部と、
前記対象物に第1の照明条件光を照射する第1の照明条件光照射部と、
前記第2の照明条件光照射部による前記対象物への第2の照明条件光の照射と、前記第1の照明条件光照射部による前記対象物への第1の照明条件光の照射とを所定タイミングで切り替える照射制御部と、
前記対象物に前記第2の照明条件光が照射されている状態の第2画像と、前記対象物に前記第1の照明条件光が照射され、前記標識部が認識可能となっている状態の第1画像とを取得する学習データ作成部と、を含む、学習用データ作成装置。
(付記4)
訓練対象物が第2の照明条件下で撮像された訓練用第2画像と、前記訓練対象物が第1の照明条件下で照射され、前記訓練対象物に設けられた標識部が第1の照明条件下において認識可能な状態である訓練用第1画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、撮像部により撮像される第2画像から標識部の情報を推定する推定部と、
を備える推論装置。
(付記5)
付記4に記載の推論装置と、
前記推定部により推定された前記標識部の情報に応じて、ロボットの行動計画を作成し、前記行動計画に基づき前記ロボットの動作を制御するロボット制御部と、
を備えるロボットの動作制御装置。
(付記6)
第1の照明条件下において認識可能となる標識部が設けられた対象物を撮像する撮像部と、
前記対象物に第1の照明条件光を照射する第1の照明条件光照射部と、
前記対象物に前記第1の照明条件光が照射されている状態の第1画像に基づき、前記標識部を検出する検出部と、
前記検出部により検出された前記標識部の情報に基づき、ロボットの行動計画を作成するロボット制御部と、
を備えるロボットの動作制御装置。
(付記7)
対象物を第2の照明条件下で撮像した第2画像と、前記対象物に設けられ、第1の照明条件下で標識部が認識可能の状態となる第1の照明条件下で撮像した第1画像とを一組の学習データとした学習データにより訓練された、訓練済みモデル。
(付記8)
ロボットであって、
付記7に記載の訓練済みモデルと、
操作対象物に第2の照明条件光が照射されている状態の第2画像に基づいて、当該ロボットの動作を制御する制御部と、
を備えるロボット。
(付記9)
前記識別部が不可視光下において認識可能な発光部であり、
前記第2の照明条件が可視光下であり、前記第1の照明条件が前記発光部が発光する不可視下である、付記1に記載の機械学習用データセットの作成方法。
(付記10)
前記標識部が再帰性反射素材を含む反射部であり、前記第2の照明条件が環境光であり、前記第1の照明条件が撮像部により前記反射部による反射光が撮像可能な条件である、付記1に記載の機械学習用データセットの作成方法。
(付記11)
不可視光下において認識可能な発光部が設けられた対象物を撮像し、
前記対象物を可視光下で撮像した可視光画像と、前記発光部が発光した状態の不可視光画像と、を取得する、
付記1に記載の機械学習用データセットの作成方法。
(付記12)
前記可視光画像を取得するための可視光照射部による前記対象物への可視光の照射と、前記不可視光画像を取得するための不可視光照射部による前記対象物への不可視光の照射とを所定タイミングで切り替え、前記可視光画像及び前記不可視光画像を1つの撮像部により取得する、付記11に記載の機械学習用データセットの作成方法。
(付記13)
対象物を可視光下で撮像した可視光画像と、前記対象物に設けられ不可視光下で発光する発光部が可視の状態である不可視光画像と、を用いて、前記可視光画像を入力として前記発光部の情報を推定する
付記2に記載の学習モデルの生成方法。
(付記14)
不可視光下において認識可能となる発光部が設けられた対象物を撮像する撮像部と、
前記対象物に可視光を照射する可視光照射部と、
前記対象物に不可視光を照射する不可視光照射部と、
前記可視光照射部による前記対象物への可視光の照射と、前記不可視光照射部による前記対象物への不可視光の照射とを所定タイミングで切り替える照射制御部と、
前記対象物に前記可視光が照射されている状態の可視光画像と、前記対象物に前記不可視光が照射され、前記発光部が発光している状態の不可視光画像とを取得する学習データ作成部と、を含む、
付記3に記載の学習用データ作成装置。
(付記15)
訓練対象物が可視光下で撮像された訓練用可視光画像と、前記訓練対象物が不可視光下で照射され、前記訓練対象物に設けられた不可視光下において認識可能な発光部が発光している状態の訓練用不可視光画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、撮像部により撮像される可視光画像から発光部の情報を推定する推定部と、
を備える
付記4に記載の推論装置。
(付記16)
訓練対象物が可視光下で撮像された訓練用可視光画像と、前記訓練対象物が不可視光下で照射され、前記訓練対象物に設けられた不可視光下において認識可能な発光部が発光している状態の訓練用不可視光画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、撮像部により撮像される可視光画像から発光部の情報を推定する推定部と、
を有する推論装置と、
前記推定部により推定された前記発光部の情報に応じて、ロボットの行動計画を作成し、前記行動計画に基づき前記ロボットの動作を制御するロボット制御部と、
を備える
付記5に記載のロボットの動作制御装置。
(付記17)
前記発光部は、前記訓練対象物の把持位置に設置される蛍光マーカであり、
前記推定部は、前記訓練済みモデルを用いて、前記撮像部により撮像される可視光画像から前記蛍光マーカの位置を推定して操作対象物の把持位置を推定する把持位置推定部であり、
前記ロボット制御部は、前記把持位置推定部により推定された前記操作対象物の前記把持位置を把持するように前記ロボットの動作を制御する、
付記16に記載のロボットの動作制御装置。
(付記18)
前記操作対象物は衣服であり、
前記ロボット制御部は、前記把持位置推定部により推定された前記衣服の前記把持位置を把持し、衣服を折り畳むタスクを実行するよう前記ロボットを制御する、
付記17に記載のロボットの動作制御装置。
(付記19)
前記蛍光マーカは、異なる色で発光する複数種が前記衣服に設けられ、
前記把持位置推定部は、前記蛍光マーカの位置情報と発光色情報とを推定し、
前記ロボット制御部は、前記発光色情報により設定される順番で、前記把持位置を変更して折り畳み動作を実行する、
付記18に記載のロボットの動作制御装置。
(付記20)
前記発光部は、前記訓練対象物に混入、または前記訓練対象物の表面に塗布される蛍光材であり、
前記推定部は、可視光画像から前記訓練済みモデルを用いて操作対象物の種類を推定する物体認識部を有し、
前記ロボット制御部は、前記物体認識部により推定された前記操作対象物の種類に応じて前記ロボットの動作を制御する、
付記16〜19のいずれか1項に記載のロボットの動作制御装置。
(付記21)
前記訓練対象物は、液体、粉粒体、または気体であり、
前記蛍光材は、前記学習データの取得時に前記訓練対象物に混入される、
付記20に記載のロボットの動作制御装置。
(付記22)
不可視光下において認識可能となる発光部が設けられた対象物を撮像する撮像部と、
前記対象物に不可視光を照射する不可視光照射部と、
前記対象物に前記不可視光が照射されている状態の不可視光画像に基づき、前記発光部を検出する検出部と、
前記検出部により検出された前記発光部の情報に基づき、ロボットの行動計画を作成するロボット制御部と、
を備える
付記6に記載のロボットの動作制御装置。
(付記23)
前記ロボットはロボットアームにより前記対象物を把持操作し、
前記発光部は、前記対象物の把持位置を示す蛍光マーカであり、
前記検出部は、前記不可視光画像の中の前記蛍光マーカの位置に基づき前記対象物の把持位置を算出する把持位置推定部を有し、
前記ロボット制御部は、前記把持位置推定部により算出された前記対象物の前記把持位置を把持するように前記ロボットアームの動作を制御する、
付記22に記載のロボットの動作制御装置。
(付記24)
前記発光部は、不可視光の照射によって発光し、前記対象物に係る各種情報を含む蛍光情報部であり、
前記検出部は、前記不可視光画像の中の前記蛍光情報部に基づき前記対象物に関する各種情報を読取る情報読取部を有し、
前記ロボット制御部は、前記情報読取部により読取られた前記対象物に関する各種情報に応じた前記ロボットの動作を制御する、
付記22または23に記載のロボットの動作制御装置。
(付記25)
前記蛍光情報部は、不可視光の照射によって発光する二次元バーコードである、
付記24に記載のロボットの動作制御装置。
(付記26)
対象物を可視光下で撮像した可視光画像と、前記対象物に設けられ、不可視光下で発光する発光部が可視の状態となる不可視光下で撮像した不可視光画像とを一組の学習データとした学習データにより訓練された、
付記7に記載の訓練済みモデル。
(付記27)
操作対象物の可視光画像の入力に基づいて、前記発光部の情報を推定可能である、付記26に記載の訓練済みモデル。
(付記28)
ロボットであって、
対象物を可視光下で撮像した可視光画像と、前記対象物に設けられ、不可視光下で発光する発光部が可視の状態となる不可視光下で撮像した不可視光画像とを一組の学習データとした学習データにより訓練された訓練済みモデルと、
操作対象物に可視光が照射されている状態の可視光画像に基づいて、当該ロボットの動作を制御する制御部と、
を備える
付記8に記載のロボット。
(付記29)
撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部が設けられた対象物を撮像し、
前記対象物を環境光下で撮像した環境光画像と、前記反射部からの前記反射光を含む反射光画像と、を取得する、
付記1に記載の機械学習用データセットの作成方法。
(付記30)
前記反射光画像を取得するために前記対象物へ光を照射するための光源の点灯と、前記環境光画像を取得するための前記光源の消灯とを所定タイミングで切り替え、前記反射光画像及び前記環境光画像を1つの撮像部により取得する、付記29に記載の機械学習用データセットの作成方法。
(付記31)
対象物を環境光下で撮像した環境光画像と、前記対象物に設けられ、撮像部の視野と同方向に光が照射される環境下で前記撮像部に反射光を返す再帰性反射素材を含む反射部が可視の状態である反射光画像と、を用いて、前記環境光画像を入力として前記反射部の情報を推定する
付記2に記載の学習モデルの生成方法。
(付記32)
対象物を撮像する撮像部と、
前記対象物に設けられ、前記撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部と、
前記対象物に前記光を照射する光源と、
前記光源の点灯と消灯とを所定タイミングで切り替える照射制御部と、
前記光源が点灯されて前記対象物に前記光源により前記撮像部の視野と同方向の光が照射され、前記反射部が発光している状態の反射光画像と、前記光源が消灯されて前記対象物に環境光が照射されている状態の環境光画像と、を取得する学習データ作成部と、を含む、
付記3に記載の学習用データ作成装置。
(付記33)
訓練対象物が環境光下で撮像された訓練用環境光画像と、前記訓練対象物に設けられ、撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部が発光している状態の訓練用反射光画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、前記撮像部により撮像される環境光画像から前記反射部の情報を推定する推定部と、
を備える
付記4に記載の推論装置。
(付記34)
訓練対象物が環境光下で撮像された訓練用環境光画像と、前記訓練対象物に設けられ、撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部が発光している状態の訓練用反射光画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、前記撮像部により撮像される環境光画像から前記反射部の情報を推定する推定部と、を有する推論装置と、
前記推定部により推定された前記反射部の情報に応じて、ロボットの行動計画を作成し、前記行動計画に基づき前記ロボットの動作を制御するロボット制御部と、
を備える
付記5に記載のロボットの動作制御装置。
(付記35)
対象物を撮像する撮像部と、
前記対象物に設けられ、前記撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部と、
前記対象物に前記光が照射されている状態の反射光画像に基づき、前記反射部を検出する検出部と、
前記検出部により検出された前記反射部の情報に基づき、ロボットの行動計画を作成するロボット制御部と、
を備える
付記6に記載のロボットの動作制御装置。
(付記36)
対象物を環境光下で撮像した環境光画像と、前記対象物に設けられ、撮像部の視野と同方向に光が照射される環境下で前記撮像部に反射光を返す再帰性反射素材を含む反射部が可視の状態となる環境下で撮像した反射光画像とを一組の学習データとした学習データにより訓練された、
付記7に記載の訓練済みモデル。
(付記37)
ロボットであって、
対象物を環境光下で撮像した環境光画像と、前記対象物に設けられ、撮像部の視野と同方向に光が照射される環境下で前記撮像部に反射光を返す再帰性反射素材を含む反射部が可視の状態となる環境下で撮像した反射光画像とを一組の学習データとした学習データにより訓練された訓練済みモデルと、
操作対象物を環境光下で撮像した環境光画像に基づいて、当該ロボットの動作を制御する制御部と、
を備える
付記8に記載のロボット。
2 可視光ライト(可視光照射部、第2の照明条件光照射部)
3 紫外光ライト(不可視光照射部、第1の照明条件光照射部)
4 カメラ(撮像部)
5 ロボットアーム
6 蛍光マーカ(発光部、標識部)
7 蛍光材(発光部、標識部)
8 蛍光情報部(発光部、標識部)
9 マーカ(反射部、標識部)
10、10A、10B、10C、10D 制御装置
11 照射制御部
12 画像取得部
13 学習データ作成部(検出部)
14 学習部(検出部)
15、15A 把持位置推定部(推定部、検出部)
16 ロボット制御部
17 物体認識部(推定部、検出部)
18 情報読取部(推定部、検出部)
20、21、22、23 対象物
31 可視光画像(第2画像)
32 紫外光画像(不可視光画像、第1画像)
24 光源(第1の照明条件光照射部)
Claims (10)
- 第1の照明条件下において認識可能な標識部が設けられた対象物を撮像し、
前記標識部を認識可能な第1画像と、前記対象物を第2の照明条件下で撮像した第2画像と、を取得する、
機械学習用データセットの作成方法。 - 対象物に設けられる標識部が第1の照明条件下で認識可能な状態である第1画像と、前記対象物を第2の照明条件下で撮像した第2画像と、を用いて、前記第2画像を入力として前記標識部の情報を推定する学習モデルの生成方法。
- 第1の照明条件下において認識可能となる標識部が設けられた対象物を撮像する撮像部と、
前記対象物に第2の照明条件光を照射する第2の照明条件光照射部と、
前記対象物に第1の照明条件光を照射する第1の照明条件光照射部と、
前記第2の照明条件光照射部による前記対象物への第2の照明条件光の照射と、前記第1の照明条件光照射部による前記対象物への第1の照明条件光の照射とを所定タイミングで切り替える照射制御部と、
前記対象物に前記第2の照明条件光が照射されている状態の第2画像と、前記対象物に前記第1の照明条件光が照射され、前記標識部が認識可能となっている状態の第1画像とを取得する学習データ作成部と、を含む、学習用データ作成装置。 - 訓練対象物が第2の照明条件下で撮像された訓練用第2画像と、前記訓練対象物が第1の照明条件下で照射され、前記訓練対象物に設けられた標識部が第1の照明条件下において認識可能な状態である訓練用第1画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、撮像部により撮像される第2画像から標識部の情報を推定する推定部と、
を備える推論装置。 - 請求項4に記載の推論装置と、
前記推定部により推定された前記標識部の情報に応じて、ロボットの行動計画を作成し、前記行動計画に基づき前記ロボットの動作を制御するロボット制御部と、
を備えるロボットの動作制御装置。 - 第1の照明条件下において認識可能となる標識部が設けられた対象物を撮像する撮像部と、
前記対象物に第1の照明条件光を照射する第1の照明条件光照射部と、
前記対象物に前記第1の照明条件光が照射されている状態の第1画像に基づき、前記標識部を検出する検出部と、
前記検出部により検出された前記標識部の情報に基づき、ロボットの行動計画を作成するロボット制御部と、
を備えるロボットの動作制御装置。 - 対象物を第2の照明条件下で撮像した第2画像と、前記対象物に設けられ、第1の照明条件下で標識部が認識可能の状態となる第1の照明条件下で撮像した第1画像とを一組の学習データとした学習データにより訓練された、訓練済みモデル。
- ロボットであって、
請求項7に記載の訓練済みモデルと、
操作対象物に第2の照明条件光が照射されている状態の第2画像に基づいて、当該ロボットの動作を制御する制御部と、
を備えるロボット。 - 前記標識部が不可視光下において認識可能な発光部であり、
前記第2の照明条件が可視光下であり、前記第1の照明条件が前記発光部が発光する不可視下である、請求項1に記載の機械学習用データセットの作成方法。 - 前記標識部が再帰性反射素材を含む反射部であり、前記第2の照明条件が環境光であり、前記第1の照明条件が撮像部により前記反射部による反射光が撮像可能な条件である、請求項1に記載の機械学習用データセットの作成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/895,233 US11590650B2 (en) | 2019-06-10 | 2020-06-08 | Generation method for training dataset, model generation method, training data generation apparatus, inference apparatus, robotic controller, model training method and robot |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019108219 | 2019-06-10 | ||
JP2019108219 | 2019-06-10 | ||
JP2019164343 | 2019-09-10 | ||
JP2019164343 | 2019-09-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021047839A true JP2021047839A (ja) | 2021-03-25 |
JP2021047839A5 JP2021047839A5 (ja) | 2023-11-06 |
Family
ID=74878576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020039132A Pending JP2021047839A (ja) | 2019-06-10 | 2020-03-06 | 機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021047839A (ja) |
-
2020
- 2020-03-06 JP JP2020039132A patent/JP2021047839A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3824370B1 (en) | Selectively alerting users of real objects in a virtual environment | |
US20220155873A1 (en) | Determining a primary control mode of controlling an electronic device using 3d gestures or using control manipulations from a user manipulable hand-held input device | |
Mazhar et al. | A real-time human-robot interaction framework with robust background invariant hand gesture detection | |
US20220083880A1 (en) | Interactions with virtual objects for machine control | |
US10807230B2 (en) | Bistatic object detection apparatus and methods | |
US10810456B2 (en) | Apparatus and methods for saliency detection based on color occurrence analysis | |
US9767613B1 (en) | Systems and method of interacting with a virtual object | |
US20200066047A1 (en) | Gestures for Facilitating Interaction with Pages in a Mixed Reality Environment | |
Hamer et al. | An object-dependent hand pose prior from sparse training data | |
US20200004403A1 (en) | Interaction strength using virtual objects for machine control | |
CN107422949A (zh) | 投影触控的图像选取方法 | |
Jiang et al. | Modeling High-Dimensional Humans for Activity Anticipation using Gaussian Process Latent CRFs. | |
US11590650B2 (en) | Generation method for training dataset, model generation method, training data generation apparatus, inference apparatus, robotic controller, model training method and robot | |
Haji Fathaliyan et al. | Exploiting three-dimensional gaze tracking for action recognition during bimanual manipulation to enhance human–robot collaboration | |
CN110103241A (zh) | 照明机器人、照明机器人控制方法及控制装置 | |
JP2021047839A (ja) | 機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボット | |
US20230342024A1 (en) | Systems and Methods of Interacting with a Virtual Grid in a Three-dimensional (3D) Sensory Space | |
Özgur et al. | Natural user interface for Roombots | |
Planche et al. | Physics-based differentiable depth sensor simulation | |
US11656759B2 (en) | Semitransparent tactile surface sensor and a method of sensing an interaction with an object using the semitransparent tactile surface sensor | |
Sharma et al. | Gaze Controlled Safe HRI for Users with SSMI | |
Czuszynski et al. | Towards Contactless, Hand Gestures-Based Control of Devices | |
KR102431386B1 (ko) | 손 제스처 인식에 기초한 인터랙션 홀로그램 디스플레이 방법 및 시스템 | |
Lazewatsky et al. | Wearable computing to enable robot microinteractions | |
Melo | Gesture recognition for human-robot collaborative assembly |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200402 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231025 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231205 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240403 |