JP2021047839A - 機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボット - Google Patents

機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボット Download PDF

Info

Publication number
JP2021047839A
JP2021047839A JP2020039132A JP2020039132A JP2021047839A JP 2021047839 A JP2021047839 A JP 2021047839A JP 2020039132 A JP2020039132 A JP 2020039132A JP 2020039132 A JP2020039132 A JP 2020039132A JP 2021047839 A JP2021047839 A JP 2021047839A
Authority
JP
Japan
Prior art keywords
light
unit
image
robot
under
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020039132A
Other languages
English (en)
Other versions
JP2021047839A5 (ja
Inventor
健太 米倉
Kenta Yonekura
健太 米倉
城志 高橋
Kuniyuki Takahashi
城志 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Priority to US16/895,233 priority Critical patent/US11590650B2/en
Publication of JP2021047839A publication Critical patent/JP2021047839A/ja
Publication of JP2021047839A5 publication Critical patent/JP2021047839A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像情報に基づく、新規な高精度な物体認識技術を提供する。【解決手段】ロボットの動作制御装置1が実行する機械学習用データセットの作成方法は、紫外光光下において認識可能な発光部としての蛍光マーカ6が設けられた対象物20を撮像し、対象物20の可視光下で取得した可視光画像31と(S103)、蛍光マーカ6が発光した状態の紫外光画像32と(S105)、を取得する。【選択図】図3

Description

本開示は、機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボットに関する。
画像情報に基づいてロボットに状況認識や行動選択を行わせる研究が行われている。
例えば、双腕アームを備えるロボットが、乱雑に置かれた衣服の一点を持ち上げ、その3次元形状を推定し、二本の腕で衣服の持ち替えを繰り返すことによって折りたたみに適した把持点を把持できる技術が提案されている。(非特許文献1)
Y. Kita, F. Kanehiro, T. Ueshiba, N. Kita: "Strategy for Folding Clothing on the Basis of Deformable Models", ICIAR 2014, p. 442-452, 2014.
しかしながら、従来手法では、衣服といった柔軟物体の3次元形状を画像情報から推定することが難しい。このため、画像情報に基づく、新規な物体認識技術が求められている。
本発明の実施形態の一観点に係る機械学習用データセットの作成方法は、不可視光下において認識可能な発光部が設けられた対象物を撮像し、前記対象物の可視光下で取得した可視光画像と、前記発光部が発光した状態の不可視光画像と、を取得する。
第1実施形態に係るロボットの動作制御装置の機能ブロック図である。 制御装置のハードウェア構成図である。 第1実施形態における学習データ取得処理のフローチャートである。 第1実施形態における対象物の撮像画像の第1の例を示す図である。 第1実施形態における対象物の撮像画像の第2の例を示す図である。 第1実施形態におけるロボット把持制御のフローチャートである。 第2実施形態に係るロボットの動作制御装置の機能ブロック図である。 第2実施形態におけるロボット把持制御のフローチャートである。 第3実施形態に係るロボットの動作制御装置の機能ブロック図である。 第3実施形態における学習データ取得処理のフローチャートである。 第3実施形態における対象物の撮像画像の例を示す図である。 第3実施形態におけるロボット把持制御のフローチャートである。 第4実施形態に係るロボットの動作制御装置の機能ブロック図である。 第4実施形態におけるロボット動作制御のフローチャートである。 変形例に係るロボットの動作制御装置の要部構成図である。
以下、添付図面を参照しながら実施形態について説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する。
[第1実施形態]
図1〜図6を参照して、第1実施形態を説明する。図1は、第1実施形態に係るロボットの動作制御装置1の機能ブロック図である。
図1に示すロボットの動作制御装置1は、ロボットの対象物20に係る動作を制御する装置である。ロボットの動作を決める指標としては、対象物20に設けられ、紫外光(不可視光の一例)の照射によって発光する発光部の情報が用いられる。なお、この「発光」とは、ロボットの視覚系が発光を認識できればよく、ロボットの周囲の人間にとっては必ずしも可視でなくてもよい。
特に第1実施形態では、ロボットの動作は、衣服やマグカップなどの対象物20を双腕の多自由度ロボットアーム5で把持する把持動作である。また、第1実施形態では、発光部として、対象物20の把持位置に設けられた、または把持位置の情報を示す蛍光マーカ6が用いられる。本実施形態の蛍光マーカ6は、可視光域の波長に対しては不可視であり、例えば不可視光、例えば紫外光を受光した際に可視光域の波長で発光する材料で形成される。このため、蛍光マーカ6は、可視光による観測時には透明、もしくは透明に近い白色など、対象物20のテクスチャの判別を阻害しにくい、またユーザが気にならない外観とできる。
なお、蛍光マーカ6は、作成される訓練用データセットの条件等、利用される条件によっては、可視光域の波長に対して不可視(透明、白色等)でなくてもよい。また、不可視光も不可視であることに限られず、蛍光マーカ6の見え方を変えることができるものであればよい。この場合、本開示中の可視光は第1の波長の光、不可視光または紫外光を第2の波長の光と読み替えることができる。
つまり、蛍光マーカとしては、第1の光を照射した際と第2の光を照射した際とで視覚的に変化するものを用いることができる。視覚的な変化とは、例えば色の変化、蛍光マーカ以外の部分とのコントラストの変化を含む。具体的には、蛍光マーカに含有される蛍光物質として、青色光を吸収して黄色光を発光する蛍光体を用いた場合、第1の波長の可視光下では、蛍光マーカは薄い黄色に見え、青色光である第2の波長の発光下では白色等に見え、蛍光マーカは視覚的に変化している。
また、本開示の「蛍光」とは、蛍光および燐光を含むものとする。
さらに、図1に示すように対象物20が衣服である場合には、把持動作によって衣服を把持した状態から所定の手順で衣服を折り畳むタスクも、ロボットが実行する動作に含むことができる。この場合、例えば蛍光マーカ6は異なる色で発光する複数種が衣服20に設けられ、発光色情報により設定される順番で、ロボットアームによる衣服20の把持位置を変更し、動作させることで、所定の手順で折り畳み動作を実行することができる。
ロボットの動作制御装置1は、カメラ4が撮影する対象物20の画像情報に基づきロボットの行動を決定できる。この行動決定には機械学習を用いることができる。なお、図1に示すように、学習時に用いる対象物20には、ロボットにより把持されるべき位置に(把持位置)に蛍光マーカ6が添付され、これを撮影した画像を用いて機械学習が行われるが、学習完了後に実際にロボットの動作制御を行う際には、対象物20には蛍光マーカ6が無くてもよい。学習済みモデルを用いることにより、対象物20のみの画像情報から蛍光マーカ6で教示された把持位置を推定できるためである。
図1に示すように、ロボットの動作制御装置1は、可視光ライト2と、紫外光ライト3と、カメラ4と、ロボットアーム5と、制御装置10とを備える。
可視光ライト2(可視光照射部の一例)は、対象物20に可視光を照射する。紫外光ライト3(不可視光照射部の一例)は、対象物20に不可視光を照射する。対象物20に設けられている蛍光マーカ6は、紫外光ライト3による紫外光の照射によって発光させることができる。なお、紫外光ライト3は、不可視光であって蛍光マーカ6を発光させることができるものであれば、紫外光以外の波長の光を照射する構成でもよい。また、紫外光ライトが発する光は完全に人間またはカメラにとって不可視であることに限られず、一部可視光領域の波長を含んでもよい。
カメラ4(撮像部の一例)は、対象物20を撮像する。
ロボットアーム5は、本実施形態においては、対象物20の把持操作を行う。ロボットアーム5は、例えば7自由度などの多自由度のロボットアームであり、手先位置を任意の位置、方向に移動させることができる。また、ロボットアーム5の先端には、例えばエンドエフェクタとして対象物20を把持可能なロボットハンドが設けられる。ロボットアーム5は制御装置10から出力される動作指令に応じて各部を動作させることができる。なお、ロボットアーム5は、双腕でも単腕でもよいが、本実施形態のように対象物20が柔軟物であり、その操作を行う場合には双腕が好ましい。
制御装置10は、ロボット動作全般を制御する。本実施形態の制御装置10は、ロボット動作制御に関して、照射制御部11と、画像取得部12と、学習データ作成部13と、学習部14と、把持位置推定部15と、ロボット制御部16とを有する。
照射制御部11は、可視光ライト2と紫外光ライト3の照射タイミングを制御する。具体的には、照射制御部11は、可視光ライト2による対象物20への可視光の照射と、紫外光ライト3による対象物20への紫外光の照射とを所定タイミングで切り替えることができる。
画像取得部12は、カメラ4により撮像された対象物20の画像を取得する。本実施形態の画像取得部12は、照射制御部11から可視光ライト2と紫外光ライト3の切り替えタイミングの情報を受け取る。画像取得部12は、この切り替えタイミングに基づき、照射制御部11による照射の切り替え中にカメラ4により撮像される、対象物20に可視光が照射されている状態の可視光画像31(図5、図6参照)と、対象物20に紫外光が照射され、蛍光マーカ6が発光している状態の紫外光画像(不可視光画像)(図5、図6参照)とを交互に取得する。
学習データ作成部13は、画像取得部12により取得された可視光画像31と紫外光画像32とを一組の学習データとして取得する。学習データ作成部13は、所定組数の学習データを作成して学習部14に出力する。
学習部14は、特定の入出力関係をもつモデルを有し、機械学習によってモデルの入出力関係を変更する。モデルとしては、例えば多層ニューラルネットワーク、遺伝的アルゴリズムなどの教師あり学習モデルや、強化学習モデルなどを実装できる。また、モデルの機械学習手法としては、ディープラーニング、ランダムフォレスト回帰やカーネルリッジ回帰などを用いることができる。学習部14は、例えばモデルが教師あり学習モデルの場合には、学習データ作成部13により作成された学習データを用いて、モデルの入出力関係が学習データの入出力関係に近づくようにモデルの機械学習を実行する。学習部14は、機械学習が完了し、学習データに基づく入出力関係を得た学習済みモデルを把持位置推定部15に出力する。なお、「学習」や「学習済みモデル」との文言は、「訓練」、「生成」や「訓練済みモデル」、「生成モデル」とも表記する場合がある。
把持位置推定部15(推定部)は、学習部14により機械学習が行われた学習済みモデルを用いて、カメラ4により撮像される可視光画像31から発光部の情報を推定する。具体的には、把持位置推定部15は、可視光画像31から対象物20中に蛍光マーカ6があるべき位置を推定して、対象物20の把持位置を推定する。
ロボット制御部16は、把持位置推定部15により推定された発光部の情報に応じて、ロボットアーム5による対象物20に係る動作を制御する。具体的には、対象物20が衣服の場合、ロボット制御部16は、把持位置推定部15により推定された衣服20の把持位置を把持し、衣服20を折り畳むタスクを実行するようロボットアーム5の動作を制御する。
第1実施形態では、制御装置10の各要素の動作時期を、学習データ作成部13及び学習部14がモデルの機械学習を行う「学習時」と、把持位置推定部15及びロボット制御部16が学習済みモデルを利用して衣服20の把持位置を推定してロボットアーム5による把持動作、折り畳み動作を行う「推定時」の2段階に分けることができる。図1に示すように、学習時には、把持位置の学習データ取得のために、把持位置に蛍光マーカ6が付加されている対象物20が用いられ、一方推定時には、蛍光マーカ6が付加されていない対象物20を用いることができる。
なお、図1などに示す、制御装置10の各機能ブロックは、あくまで制御装置10の複数の機能を説明するために便宜上区分したものであり、複数の機能ブロックが単一の構成であってもよいし、単一の機能ブロックをさらに複数に区分する構成でもよい。例えば、学習済みモデルの出力を把持位置ではなくロボットアーム5の制御量とした場合には、把持位置の推定を明示的に行う必要がないので、把持位置推定部15はロボット制御部16に包含できる。
第1実施形態では、学習データ作成部13、学習部14、把持位置推定部15が、「照射制御部11による照射の切り替え中にカメラ4により撮像される紫外光画像32に基づき、発光部を検出する検出部」を構成する。
図2は、制御装置10のハードウェア構成図である。図2に示すように、制御装置10は、物理的には、CPU(Central Processing Unit)101、主記憶装置であるRAM(Random Access Memory)102およびROM(Read Only Memory)103、入力デバイスであるキーボード及びマウス等の入力装置104、ディスプレイ等の出力装置105、ネットワークカード等のデータ送受信デバイスである通信モジュール106、補助記憶装置107、などを含むコンピュータシステムとして構成することができる。
図1に示す制御装置10の各機能は、CPU101、RAM102等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール106、入力装置104、出力装置105を動作させるとともに、RAM102や補助記憶装置107におけるデータの読み出し及び書き込みを行うことで実現される。すなわち、本実施形態のプログラムをコンピュータ上で実行させることで、制御装置10は、図1の照射制御部11、画像取得部12、学習データ作成部13、学習部14(学習済みモデル)、把持位置推定部15、ロボット制御部16として機能する。
また、制御装置10の各機能は、アナログ回路、デジタル回路又はアナログ・デジタル混合回路で構成された回路であってもよい。また、各機能の制御を行う制御回路を備えていてもよい。各回路の実装は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等によるものであってもよい。
制御装置10の各機能の少なくとも一部はハードウェアで構成されていてもよいし、ソフトウェアで構成され、ソフトウェアの情報処理によりCPU等が実施をしてもよい。ソフトウェアで構成される場合には、制御装置10及びその少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記憶媒体に収納し、コンピュータに読み込ませて実行させるものであってもよい。記憶媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記憶媒体であってもよい。すなわち、ソフトウェアによる情報処理がハードウェア資源を用いて具体的に実装されるものであってもよい。さらに、ソフトウェアによる処理は、FPGA等の回路に実装され、プロセッサ等のハードウェアが実行するものであってもよい。ジョブの実行は、例えば、GPU(Graphics Processing Unit)等のアクセラレータを使用して行ってもよい。
例えば、コンピュータが読み取り可能な記憶媒体に記憶された専用のソフトウェアをコンピュータが読み出すことにより、コンピュータを上記の実施形態の装置とすることができる。記憶媒体の種類は特に限定されるものではない。また、通信ネットワークを介してダウンロードされた専用のソフトウェアをコンピュータがインストールすることにより、コンピュータを上記の実施形態の装置とすることができる。こうして、ソフトウェアによる情報処理が、ハードウェア資源を用いて、具体的に実装される。なお、メモリ、プロセッサ、コンピュータ等のハードウェアは、それぞれ1つ、または1つ以上備えられてもよい。
制御装置10や、可視光ライト2、紫外光ライト3、カメラ4は、ロボットアーム5を備えるロボットの躯体に設けることができる。または、制御装置10や、可視光ライト2、紫外光ライト3、カメラ4は、ロボットアーム5を備えるロボットと物理的に離れた場所に設置され、ロボットと通信可能に接続される構成でもよい。または、制御装置10のうち、学習時に用いられる学習データ作成部13及び学習部14がロボットと別体として設けられ、推定時に用いられる把持位置推定部15及びロボット制御部16がロボット内に設けられる構成でもよい。
また、制御装置10が単体ではなく、制御装置10の各機能の一部が別体として物理的に離れた場所に設置される構成でもよい。例えば、制御装置10の照射制御部11を可視光ライト2や紫外光ライト3の内部またはその近傍に設けてもよい。
図3は、第1実施形態における学習データ取得処理のフローチャートである。図3のフローチャートの処理は、学習部14によるモデルの機械学習の前に実行される。なお、ここではモデルの学習手法として教師あり学習を例示して説明する。
ステップS101では、カメラ4の撮像範囲に、蛍光マーカ6を付けた対象物20(訓練対象物)が設置される。
ステップS102では、照射制御部11により、可視光ライト2が点灯制御され、かつ、紫外光ライト3が消灯され、可視光が対象物20に照射される。
ステップS103では、画像取得部12により、対象物20に可視光が照射されている状態の可視光画像31(訓練用可視光画像)が取得される。
ステップS104では、照射制御部11により、可視光ライト2が消灯制御され、かつ、紫外光ライト3が点灯制御され、紫外光が対象物20に照射される。
ステップS105では、画像取得部12により、対象物20に紫外光が照射されている状態の紫外光画像32(訓練用不可視光画像)が取得される。
ステップS106では、学習データ作成部13により、ステップS103で取得された可視光画像31と、ステップS105で取得された紫外光画像32とが一組の学習データとして保存される。
ステップS107では、学習データ作成部13により、学習データのデータ数が所定量以上保存されているか否かが判断される。学習データが所定数未満の場合(ステップS107のNo)、ステップS108に進み、カメラ4の視点や対象物20の形状を変更する作業が行われ、ステップS102に戻り引き続き学習データの取得が継続される。なお、カメラ4の視点変更は、例えばカメラ4が載置台の周囲を自動的に移動できる機構を設け、載置台に置かれた対象物20の周囲をカメラ4が撮像しながら回動する構成が考えられる。また、対象物20の形状変更は、例えば、対象物20がカップなどの剛体の場合には、カップの上下を入れ替えるなど、載置台に置かれた対象物20の接地部分を変える構成が考えられる。また、対象物20が衣服など柔軟物の場合には、衣類を丸めたり、折りたたむなど、対象物20上での蛍光マーカ6の位置を変える構成が考えられる。
図4は、第1実施形態における対象物20の撮像画像の第1の例を示す図である。図5は、第1実施形態における対象物20の撮像画像の第2の例を示す図である。図4、図5では、(A)が可視光画像31の画像例であり、(B)が紫外光画像32の画像例であり、(A)と(B)は一対の学習データとして纏められている。
図4の例では、対象物20のTシャツがきれいに広げられて置かれている。図4(A)に示すように、蛍光マーカ6は可視光では発光しないため、可視光画像31には蛍光マーカ6は写っていない。一方、図4(B)に示すように、紫外光画像32では、蛍光マーカ6が発光しており、Tシャツの両肩の位置で発光しているのが明確に写っている。
一方、図5の例では、対象物20のTシャツがくしゃくしゃに丸めて置かれている。ステップS108では、例えば図4に示す状態から図5に示す状態へと対象物20の形状を変更すればよい。この例でも、図4の例と同様に、図5(A)に示すように可視光画像31には蛍光マーカ6は写っておらず、図5(B)に示すように紫外光画像32では蛍光マーカ6が発光している。これにより、把持位置の目標である両肩の位置が特定できるようになっている。このように対象物20のTシャツが様々な形状のときの蛍光マーカ6の位置、すなわち両肩位置の情報を学習データとして用いることによって、蛍光マーカ6が付与されていない対象物に対しても、対象物の特定の部位であってロボットによる操作に適切な特定の位置を、適切に判別可能な学習済みモデルを作成することができる。これにより学習済みモデルの推定能力を向上でき、ロボットの把持動作の精度を向上できる。
また、このように、マーカとして可視光下で不可視の蛍光マーカ6を利用することで、1つの物体を用いて、マーカが表示された画像と、マーカが表示されていない画像、つまり画像データ上物体にマーカが付与されていないものと同等とみなせる画像とのセットを容易に作成することができる。これにより、学習用データセットを容易に作成することができる。
一方、学習データが所定数以上保存されている場合(ステップS107のYes)には、本制御フローを終了する。その後、学習部14が保存された学習データを利用してモデルの機械学習を行う。
図6は、第1実施形態におけるロボット把持制御のフローチャートである。図6のフローチャートの処理は、学習部14によるモデルの機械学習の後に実行される。
ステップS201では、カメラ4の撮像範囲に、蛍光マーカ6の無い対象物20(操作対象物)が設置される。
ステップS202では、照射制御部11により、可視光ライト2が点灯制御され、かつ、紫外光ライト3が消灯され、可視光が対象物20に照射される。
ステップS203では、画像取得部12により、対象物20に可視光が照射されている状態の可視光画像31が取得される。なお、本ステップにて取得される可視光画像31を撮像するカメラ4は、図3の学習データ取得処理のステップS103、S105の各画像を撮像したカメラ4と別の物でもよい。
ステップS204では、把持位置推定部15により、学習済みモデルに可視光画像が入力されて、対象物20の把持位置が推定される。図5、図6を参照して説明したように、学習済みモデルでは蛍光マーカ6が表示されていない可視光画像31の入力に対して、紫外光画像32に表示されているマーカ位置を出力するようにモデルの入出力関係が学習されるので、学習済みモデルでは蛍光マーカ6が表示されていない可視光画像31を入力すれば、この可視光画像31での蛍光マーカ6の位置、すなわち対象物20の把持位置が出力される。
ステップS205では、ロボット制御部16により、ステップS204にて推定された把持位置をロボットアーム5で把持するよう制御が行われる。
ステップS206では、ロボット制御部16により、対象物20を把持した後のロボットアーム動作が実行される。このような動作としては、例えば対象物20が衣服の場合には衣服の折り畳みタスクが考えられる。対象物20がマグカップなどの食器類の場合には、把持した食器を所定位置へ片づけるタスクが考えられる。
なお、対象物20に添付する蛍光マーカ6として複数種類を利用してもよい。例えば、折り畳みタスクを行わせる場合には、図3のフローチャートのステップS101において異なる色で発光する複数種の蛍光マーカ6が衣服20に設けられ、発光色によって折り畳みの順番を教示してもよい。この場合、図6のフローチャートのステップS206では、蛍光マーカ6の発光色で教示された順番で、ロボットアームによる衣服20の把持位置を順次変更して、所定の手順で折り畳み動作を実行することができる。この構成により、蛍光マーカ6を対象物20に付加するという簡単な作業によって、より複雑な動作の教示が可能となる。また、複数種類の蛍光マーカ6は、マーカの形状や付与の方法が異なるものであってもよい。例えば、第1の蛍光マーカを実線、第2の蛍光マーカを破線とすることができる。
第1実施形態のロボットの動作制御装置1では、衣服などの対象物20の把持位置に蛍光マーカ6を付けて、この蛍光マーカ6を発光させた紫外光画像32を機械学習の学習データとして用いることにより、把持位置の推定を容易に行うことができる。
また、第1実施形態のロボットの動作制御装置1は、蛍光マーカ6を付した対象物20の可視光画像31と紫外光画像32とを切り替えて撮像することで、学習データを容易に生成できる。これにより、機械学習のための準備作業を容易にできる。また、学習済みモデルの推定精度を向上できる。また、学習済みモデルを用いてロボットの動作を制御する際には、蛍光マーカ6の無い対象物20の可視光画像31のみから対象物20の把持位置を推定できるので、ロボットアーム5による対象物20の把持操作を容易かつ適切にできる。この結果、第1実施形態のロボットの動作制御装置1は、画像情報に基づく、より簡易かつより高精度な、新規の物体認識技術を提供できる。
また、学習部14によるモデルの機械学習を済ませてしまえば、実際にロボットに把持操作をさせる場面(上述の「推定時」)では、蛍光マーカ6を対象物20に付加しなくても把持位置の推定が可能なので、ロボットの動作のために特別な対象物20を準備する必要がない。このため、例えば人間の住環境下などに低コストでロボットを導入することができ、ロボットの汎用性を向上できる。これらの利点は、人間の住環境下で家事等のさまざまなサポートを行う用途などに用いられるパーソナルロボットの普及に特に有用である。
[第2実施形態]
図7、図8を参照して第2実施形態を説明する。図7は、第2実施形態に係るロボットの動作制御装置1Aの機能ブロック図である。図7に示すように、第2実施形態のロボットの動作制御装置1Aは、学習データ作成部13、学習部14を備えない点で第1実施形態と異なる。
また、第2実施形態のロボットの動作制御装置1Aでは、ロボット5に蛍光マーカ6が付与された対象物20を、蛍光マーカ6を認識した上で把持する。つまり、把持位置推定部15Aは、紫外光画像32を参照して、紫外光画像32に写っている蛍光マーカ6の位置から対象物20の把持位置を特定する。
第2実施形態では、把持位置推定部15Aが、「カメラ4により撮像される紫外光画像32に基づき、発光部を検出する検出部」を構成する。
図8は、第2実施形態におけるロボット把持制御のフローチャートである。
ステップS301では、カメラ4の撮像範囲に、蛍光マーカ6を付けた対象物20が設置される。
ステップS302では、照射制御部11により、紫外光ライト3が消灯され、可視光が対象物20に照射される。
ステップS303では、画像取得部12により、対象物20に可視光が照射されている状態の可視光画像31が取得される。
ステップS304では、照射制御部11により、紫外光ライト3が点灯制御され、紫外光が対象物20に照射される。
ステップS305では、画像取得部12により、対象物20に紫外光が照射されている状態の紫外光画像32が取得される。
ステップS306では、把持位置推定部15Aにより、紫外光画像32が加工される。把持位置推定部15Aは、例えば、紫外光画像32(図4、図5(B)参照)のうち蛍光マーカ6の光が写っている部分を強調できるよう、画像を二階調化してマーカ部分が白色、他の部分が黒色で表示されるように紫外光画像32を加工する。
ステップS307では、把持位置推定部15Aにより、加工済み紫外光画像からマーカ位置が検出され、この検出されたマーカ位置が対象物20の把持位置として推定される。
ステップS308では、ロボット制御部16により、ステップS307にて推定された把持位置をロボットアーム5で把持するよう制御が行われる。
ステップS309では、ロボット制御部16により、対象物20を把持した後のロボットアーム動作(衣服の折り畳みタスク、マグカップの片づけタスクなど)が実行される。
第2実施形態のロボットの動作制御装置1Aは、予め機械学習を行わなくても、蛍光マーカ6を付した対象物20の紫外光画像32のみから対象物20中の蛍光マーカ6の位置を直接検出できるので、対象物20の把持位置を簡易かつ高精度に検出できる。
また、蛍光マーカ6は可視光下では透明となるため、例えば人間の住環境下などに蛍光マーカ6を付けた対象物20を置いても、人間による対象物20の視認の際に邪魔にならず、また、対象物20のデザインや美観を損ねることもない。さらに、紫外光ライト3の点灯を、人間が視認できない程度の高い周波数(例えば30Hz以上)で行なえば、把持位置検出用の紫外光画像32を人間に認識させることなく取得できる。したがって、例えば住宅内などロボットと人間との距離が近く接触し得る環境下でも、人間の行動に影響を与えることなく、ロボットの行動を精度良く制御でき、人間とロボットとの親和性を向上できる。
なお、本実施形態においては、紫外光ライト3の点灯時に可視光ライト2を消灯してもよい。これにより、蛍光マーカ6が明瞭に認識可能な紫外光画像32を取得できる。一方、蛍光マーカ6が適切に認識可能であれば、紫外光画像32の取得時において、可視光ライト2は点灯されていてもよい。また、太陽光や部屋の照明等、動作制御装置1Aが制御しにくい、または制御できない可視光源が存在し、紫外光のみでの撮影ができない環境下においても、同様に紫外光画像32を取得してもよい。この場合の紫外光画像32は、可視光下で得られる画像に紫外光下で得られる蛍光マーカ6が表示されたものであってもよい。
[第3実施形態]
図9〜図12を参照して第3実施形態を説明する。図9は、第3実施形態に係るロボットの動作制御装置1Bの機能ブロック図である。図9に示すように、第3実施形態のロボットの動作制御装置1Bは、対象物21が液体、粉粒体等の不定形な物体や気体などであり、発光部(蛍光マーカ)が、対象物21に混入、または対象物21の表面に塗布される蛍光材7であり、学習系が可視光画像31と、紫外光画像32中の蛍光材7の発光による対象物21の外形との関係を学習し、学習済みモデルが可視光画像31から対象物21の種類や形状、位置等を推定する。
制御装置10Bは、物体認識部17を有する。
物体認識部17(推定部)は、学習済みモデルを用いて、カメラ4により撮像される可視光画像31から発光部の情報を推定する。具体的には、物体認識部17は、学習部14により機械学習が行われた学習済みモデルを用いて、カメラ4により撮像される可視光画像31から対象物21の外形を推定する。さらに、対象物21の種類を推定してもよい。例えば、対象物21の外形が、上方から下方に移動して所定領域に蓄積されるものであれば、物体認識部17は、対象物21が不定形の物体、例えば液体や粉粒体等であると認識できる。
第3実施形態では、学習データ作成部13及び学習部14がモデルの機械学習を行う「学習時」と、物体認識部17及びロボット制御部16が学習済みモデルを利用して対象物21の物体認識と物体認識に応じたロボットアーム動作を行う「推定時」の2段階に分けることができる。図9に示すように、学習時には、対象物21の外形の学習データ取得のために、例えば粉末状や液体状の蛍光材7が混入されている対象物21が用いられ、一方推定時には、蛍光材7が混入されていない対象物21を用いることができる。
第3実施形態では、学習データ作成部13、学習部14、物体認識部17が、「照射制御部11による照射の切り替え中にカメラ4により撮像される紫外光画像32に基づき、発光部を検出する検出部」を構成する。
図10は、第3実施形態における学習データ取得処理のフローチャートである。図10のフローチャートの処理は、学習部14によるモデルの機械学習の前に実行される。
ステップS401では、カメラ4の撮像範囲に、蛍光材7を混入した対象物21(訓練対象物)が設置される。
ステップS402では、照射制御部11により、可視光ライト2が点灯制御され、かつ、紫外光ライト3が消灯され、可視光が対象物21に照射される。
ステップS403では、画像取得部12により、対象物21に可視光が照射されている状態の可視光画像31が取得される。
ステップS404では、照射制御部11により、可視光ライト2が消灯制御され、かつ、紫外光ライト3が点灯制御され、紫外光が対象物21に照射される。
ステップS405では、画像取得部12により、対象物21に紫外光が照射されている状態の紫外光画像32が取得される。
ステップS406では、学習データ作成部13により、ステップS403で取得された可視光画像31と、ステップS405で取得された紫外光画像32とが一組の学習データとして保存される。
ステップS407では、学習データ作成部13により、学習データのデータ数が所定量以上保存されているか否かが判断される。学習データが所定数未満の場合(ステップS407のNo)、ステップS408に進み、カメラ4の視点や対象物21の形状を変更する作業が行われ、ステップS402に戻り引き続き学習データの取得が継続される。なお、カメラ4の視点変更は、例えばカメラ4が載置台の周囲を自動的に移動できる機構を設け、載置台に置かれた対象物21の周囲をカメラ4が撮像しながら回動する構成が考えられる。また、対象物21の形状変更は、例えば、対象物21が水の場合には、ペットボトルに入っている水の量を増減させたり、ペットボトルからコップへ注ぐスピードを速くして水が流れ落ちる形状を変えたり、などの構成が考えられる。
図11は、第3実施形態における対象物21の撮像画像の例を示す図である。図11では、(A)が可視光画像31の画像例であり、(B)が紫外光画像32の画像例であり、(A)と(B)は一対の学習データとして纏められている。図11の例では、図11(A)に示すように、蛍光材7は可視光では発光しないため、可視光画像31には蛍光材7は写っておらず対象物21の透明な水のみが写っている。一方、図11(B)に示すように、紫外光画像32では、蛍光材7が対象物21の水の形状に沿って発光しているのが明確に写っている。
学習データが所定数以上保存されている場合(ステップS407のYes)には、本制御フローを終了する。その後、学習部14が保存された学習データを利用してモデルの機械学習を行う。
図12は、第3実施形態におけるロボット把持制御のフローチャートである。図12のフローチャートの処理は、学習部14によるモデルの機械学習の後に実行される。
ステップS501では、カメラ4の撮像範囲に、蛍光材7を混入しない対象物21(操作対象物)が設置される。
ステップS502では、照射制御部11により、可視光ライト2が点灯制御され、かつ、紫外光ライト3が消灯され、可視光が対象物21に照射される。
ステップS503では、画像取得部12により、対象物21に可視光が照射されている状態の可視光画像31が取得される。
ステップS504では、物体認識部17により、学習済みモデルに可視光画像が入力されて、対象物21の物体形状が推定される。図11を参照して説明したように、学習済みモデルでは蛍光材7が表示されていない可視光画像31の入力に対して、紫外光画像32に表示されている蛍光材7の形状を出力するようにモデルの入出力関係が学習されるので、学習済みモデルでは蛍光材7が表示されていない可視光画像31を入力すれば、この可視光画像31での蛍光材7の形状、すなわち対象物21の外形が出力される。
ステップS505では、物体認識部17により、ステップS504にて推定された物体形状に基づく物体認識が行われる。図11に示した例では、物体認識部17は、ペットボトルに残っている水の残量や流出量を認識できる。
ステップS506では、ロボット制御部16により、ステップS505の物体認識結果に応じたロボットアーム動作が実行される。例えば、ペットボトルの水の残量が所定量以上の場合には、対象物21の水が入っているペットボトルを冷蔵庫に移動する動作を実行することができるし、残量が所定量以下の場合にはペットボトルをゴミ箱へ捨てる動作を実行できる。
従来の物体認識技術では水やガラスなどの透明物体は画像による認識が困難であった。特に液体の場合、セグメンテーションを行うとすると形が逐次変化するため、セグメンテーションの教師データを作成すること自体にコストがかかっていた。しかし第3実施形態の手法により、例えば可視光と紫外光とを高速に切り替えて撮影した可視光画像31と紫外光画像32とを利用することで、透明物体の位置を容易に把握することとができ、セグメンテーションのアノテーションデータを作成することができる。これらのデータに基づいて学習した学習モデルを利用することで、透明物体の認識精度の向上が期待される。
同様に、透明ではない物体にも、物体の一部にマーカ(蛍光材7)を塗付等により付与すること、特に認識したい部分別に複数の種類のマーカで付与することにより、セマンティックセグメンテーション用のデータを容易に作成できる。
言い換えると、第3実施形態のロボットの動作制御装置1Bでは、対象物21として、液体、粉粒体、気体など、主に透明である、または安定的な形状をとらず一般的な画像認識では識別が難しい物体を対象としている。このような対象物21でも、蛍光材7を混入させた対象物21の可視光画像31と紫外光画像32とを切り替えて撮像することで、学習データを容易に生成でき、機械学習のための準備作業を容易にできるし、学習済みモデルの推定精度を向上できる。また、例えば、食材などの形状が可変であったり複数の部分に分離可能な対象物21にマーカ(蛍光材7)を付与しておくことで、対象物に切断等の加工を施した後でも、マーカに基づいて同じ1つの対象物として認識することが可能になる。
第3実施形態の対象物21の具体例としては、上述の容器内の水の他にも、水はねや油はね、細かく刻まれた食べ物、匙に載せられた粉薬、湯気、などが挙げられる。なお、対象物21と同様に、一般的な画像認識では識別が難しい他の物体としては、例えばガラスや透明樹脂製の容器などの透明物体や、フェンス、金網など、背景が透けて見えてエッジ検出しにくいものや、スライムなど形状が不規則に変化するもの、窓ガラス、鏡等の鏡面加工が施されているもの、水面、廊下等の光を反射するものが挙げられる。蛍光材7の対象物21への付与方法は、例えば、対象物21の表面に塗布することや、対象物21への表面塗布が困難な場合には対象物21に混入することがあげられる。
[第4実施形態]
図13、図14を参照して第4実施形態を説明する。図13は、第4実施形態に係るロボットの動作制御装置1Cの機能ブロック図である。図13に示すように、第4実施形態のロボットの動作制御装置1Cは、学習系(学習データ作成部13、学習部14)を備えず、発光部として、紫外光の照射によって発光し、対象物22に係る各種情報を含む蛍光情報部8を備える。
制御装置10Cは、第1実施形態の把持位置推定部15と置き換わる要素として情報読取部18を有する。
情報読取部18は、紫外光画像32の中の蛍光情報部8に基づき対象物22に関する各種情報を読取る。蛍光情報部8は、例えば図13に示すような、不可視光の照射によって発光する二次元バーコードである。
ロボット制御部16は、情報読取部18により読取られた対象物22に関する各種情報に応じたロボットアーム5の動作を制御する。例えば図13の例では、対象物22がドアノブであり、蛍光情報部8にはこのドアノブが付くドアが押し開きタイプである情報が含まれており、ロボット制御部16は、この蛍光情報部8の情報に応じて、ロボットアーム5にドアノブ22を把持してドアを押し開く動作を実行させる。
第4実施形態では、情報読取部18が、「照射制御部11による照射の切り替え中にカメラ4により撮像される紫外光画像32に基づき、発光部を検出する検出部」を構成する。
図14は、第4実施形態におけるロボット動作制御のフローチャートである。
ステップS601では、カメラ4の撮像範囲に、蛍光情報部8(蛍光二次元バーコード)を付けた対象物22が設置される。
ステップS602では、照射制御部11により、可視光ライト2が点灯制御され、かつ、紫外光ライト3が消灯され、可視光が対象物22に照射される。
ステップS603では、画像取得部12により、対象物22に可視光が照射されている状態の可視光画像31が取得される。
ステップS604では、照射制御部11により、紫外光ライト3が点灯制御され、紫外光が対象物22に照射される。
ステップS605では、画像取得部12により、対象物22に紫外光が照射されている状態の紫外光画像32が取得される。
ステップS606では、情報読取部18により、紫外光画像32が加工される。情報読取部18は、例えば、紫外光画像32のうち蛍光情報部8の光が写っている部分を強調できるよう、画像を二階調化して蛍光情報部8の部分が白色、他の部分が黒色で表示されるように紫外光画像32を加工する。
ステップS607では、情報読取部18により、加工済み紫外光画像から、蛍光情報部8の二次元バーコードが検出される。
ステップS608では、情報読取部18により、検出した二次元バーコードから対象物22の情報が読み取られる。
ステップS609では、ロボット制御部16により、ステップS608にて読取られた対象物22の情報に応じたロボットアーム動作が実行される。例えば、対象物22がドアノブであり、蛍光情報部8から読み取った情報が、このドアノブが付くドアが押し開きタイプであるとの情報の場合には、ロボット制御部16は、ロボットアーム5がドアノブ22を把持してドアを押し開くタスクをロボットアーム5に実行させる。
第4実施形態のロボットの動作制御装置1Cでは、蛍光情報部8を付した対象物22の紫外光画像32のみから対象物22中の蛍光情報部8の情報を直接読取るので、ロボットの動作決定に必要な情報をロボットに簡易に取得させることができる。
また、蛍光情報部8は可視光下では透明となるため、例えば人間の住環境下などに蛍光情報部8を付けた対象物22を置いても、人間による対象物22の視認の際に邪魔にならず、また、対象物20のデザインや美観を損ねることもない。さらに、可視光ライト2と紫外光ライト3との切り替えを、人間が視認できない程度の高い周波数(例えば30Hz以上)で行なえば、蛍光情報部8の情報を得るための紫外光画像32を人間に認識させることなく取得できる。したがって、例えば住宅内などロボットと人間との距離が近く接触し得る環境下でも、人間の行動に影響を与えることなく、ロボットの行動を精度良く制御でき、人間とロボットとの親和性を向上できる。
[変形例]
図15を参照して、上記実施形態の変形例を説明する。図15は、変形例に係るロボットの動作制御装置1Dの要部構成図である。図15では、カメラ4や光源24など、動作制御装置1Dの撮像系を図示し、上記実施形態と同様の要素の図示を省略している。変形例に係るロボットの動作制御装置1Dは、上記の各実施形態の制御装置10、10A、10B、10Cと同様の制御装置10Dを備え、上記の各実施形態と同様のロボットの行動学習や行動計画を行うことができる。
変形例では、上記実施形態で用いた「不可視光下で認識可能な発光部(蛍光マーカ6など)」の代わりに「再帰性反射素材を含む反射部」が置き換えて用いられる。
再帰性反射素材とは、光が入射された方向と同じ方向に光が反射される、再帰反射という現象を生じさせる素材のことをいう。一般に、「反射」には、乱反射、鏡面反射(正反射)、再帰性反射の3つの種類がある。乱反射は最も一般的な反射で、表面がでこぼこの素材に光が当たって反射光が様々な方向に拡散する現象である。鏡面反射は、鏡などの表面が滑らかな素材に光が当たって、反射光が入射角=反射角の原理に従い一方向に反射される現象である。それらに対して再帰反射は、特殊な材料によって、入射した光と同じ方向に光が反射される現象である。
変形例では、この再帰性反射素材による再帰反射を利用して、カメラ4から見た光源24の位置によって消えたり現れたりするマーカ9(反射部)が作成される。
再帰性反射素材を含むマーカ9を利用して、ロボットの行動学習や行動計画を行う手順は例えば以下のとおりである。
(1) 対象物23のマーカ9を付けたい位置に再帰性反射塗料を塗布する。
(2)通常の環境光(日光や可視光など)の下で対象物23をカメラ4から見ると、対象物23の元の素材の乱反射によって、普通の見え方をする(つまりマーカ9の発光は視認できない)。
(3) 一方、カメラ4の近傍から、光源24によってカメラ4が見ている方向と同じ方向に光を照射すると、マーカ部分は再帰反射によってカメラ4に向かって光を反射するので、他の(乱反射している)部分より強く反射した光が見える。
(4)この再帰反射で帰ってきた光をカメラ4で観測し、例えば輝度による閾値でマーカ部分を抽出することができる。
変形例では、図15に示すように、カメラ4の視野と同方向に光を照射する光源24が設けられる。カメラ4は、光源24の点灯時のみ、マーカ9からの反射光を含む画像を撮像することができる。そして、変形例の動作制御装置1Dでも、制御装置10Dが、この光源24点灯時のマーカ9からの反射光を含む画像(反射光画像)を用いて、上記実施形態と同様にモデル学習を行なったり、把持点を特定したりすることによって、ロボットの行動学習や行動計画を行うことができる。なお、カメラ4の視野と同方向に光を照射するとは、その光の反射光がカメラによって撮像可能な程度に同じ方向に光を照射することをいう。
つまり、変形例の「再帰性反射素材を含むマーカ9(反射部)」は、実施形態の「発光部」と対応し、両者の上位概念を「標識部」とも表記する。変形例の「カメラ4の視野と同方向に光が照射される環境下」は、実施形態の「不可視光下」と対応し、両者の上位概念を「第1の照明条件」とも表記する。変形例の「環境光下」は、実施形態の「可視光下」と対応し、両者の上位概念を「第2の照明条件」とも表記する。変形例の「カメラ4の視野と同方向に照射する光」は、実施形態の「不可視光」と対応し、両者の上位概念を「第1の照明条件光」とも表記する。変形例の光源24は実施形態の紫外光ライト3と対応し、両者の上位概念を「第1の照明条件光照射部」とも表記する。変形例の「光源点灯時のマーカ9からの反射光を含む画像(反射光画像)」は、実施形態の「不可視光画像」と対応し、両者の上位概念を「第1画像」とも表記する。また、変形例の「光源24消灯時の通常の環境光」は、実施形態の「可視光」と対応し、両者の上位概念を「第2の照明条件光」とも表記する。変形例の「光源24消灯時のマーカ9からの反射光を含まない画像(環境光画像)」は、実施形態の「可視光画像」と対応し、両者の上位概念を「第2画像」とも表記する。
変形例のように再帰性反射素材を発光部に用いる手法は、上記実施形態のように蛍光材料を発光部に用いる手法に比べて、通常の環境光を制限する(例えば暗くする、特定の波長の光をフィルタする、など)必要がないので、より簡易に、モデル学習などに利用する「光源24点灯時のマーカ9からの反射光を含む画像」を取得することができる。このため、環境光のコントロールが難しい屋外での実装の場合に特に有用であり、本実施形態を実施可能な環境を拡張でき、汎用性を向上できる。
以上、具体例を参照しつつ本実施形態について説明した。しかし、本開示はこれらの具体例に限定されるものではない。これら具体例に、当業者が適宜設計変更を加えたものも、本開示の特徴を備えている限り、本開示の範囲に包含される。前述した各具体例が備える各要素およびその配置、条件、形状などは、例示したものに限定されるわけではなく適宜変更することができる。前述した各具体例が備える各要素は、技術的な矛盾が生じない限り、適宜組み合わせを変えることができる。さらに、本開示は、上記の複数の実施形態の特徴の任意の組合せを包含する。
上記実施形態では、発光部が発光した画像を取得するために紫外光を照射する構成を例示したが、可視光を照射した場合より発光部の発光を強くできれば紫外光以外の不可視光を照射する構成でもよい。なお不可視光とは、可視光外の波長の光線をいう。また、例えば、可視光下または可視光を連続的に照射した状態で、可視光下より発光部の発光を強くできる不可視光の点灯と消灯とを切り替え、第1の照明条件と第2の照明条件とする構成でもよい。そして、不可視光の消灯時と点灯時とに取得した画像の差分をとることで、発光部に関するデータを作成することができる。
また、標識部は、上記の再帰性反射素材または蛍光材料を用いるものに限られない。また、第1の照明条件および第2の照明条件も適宜変更できる。
上記実施形態では、第1画像と第2画像の取得中にカメラ4などの撮像部が固定されている構成を例示したが、第1画像と第2画像の取得中に撮像部が移動する場合が考えられる。この場合、第1の照明条件下で取得した第1画像と第2の照明条件下で取得した第2画像とが想定よりもずれてしまい、そのままで学習データを作成すると、実際に標識部が設けられていない部分以外も標識部であると処理されるおそれがある。このような場合には、2枚の画像の発光部との位置が適切に重なるように、例えば同様の位置から撮影したとみなせるように、画像の処理を行うことが好ましい。画像の処理としては、例えば、平行移動、回転、画像の形の変更などがあげられる。この処理は、例えば学習済みの機械学習モデルや、機械学習を用いない画像特徴からのマッチングによる変換を用いて行うことができる。
上記実施形態では、ロボットの動作制御装置1、1A、1B、1Cが制御するロボット動作の一例として、対象物20、21、22を双腕ロボットアーム5で把持する把持動作を例示したが、把持動作以外の動作を適用してもよい。例えば、把持動作以外の方法、例えば吸着等による物体の操作、または発光部の位置をゴールとして設定し、ロボットが検知したゴール地点に向かう移動など、ロボットアーム5以外の要素を用いたロボットの行動も含む。
上記実施形態では、ロボットを一例として説明したが、これに限られない。本開示は、システムとして実現されてもよい。上記実施形態のロボットは、システムの一例である。
上記実施形態では、学習用データセットの作成と、これを用いた学習モデルの学習を連続して行うものとしたが、これに限られない。
本明細書において、透明とは、完全に透明であることに限られず、人間またはカメラなどの撮像部にとって、認識が困難となるものも含む。
以上の説明に関し、更に以下の項を開示する。
(付記1)
第1の照明条件下において認識可能な標識部が設けられた対象物を撮像し、
前記標識部を認識可能な第1画像と、前記対象物を第2の照明条件下で撮像した第2画像と、を取得する、
機械学習用データセットの作成方法。
(付記2)
対象物に設けられる標識部が第1の照明条件下で認識可能な状態である第1画像と、前記対象物を第2の照明条件下で撮像した第2画像と、を用いて、前記第2画像を入力として前記標識部の情報を推定する学習モデルの生成方法。
(付記3)
第1の照明条件下において認識可能となる標識部が設けられた対象物を撮像する撮像部と、
前記対象物に第2の照明条件光を照射する第2の照明条件光照射部と、
前記対象物に第1の照明条件光を照射する第1の照明条件光照射部と、
前記第2の照明条件光照射部による前記対象物への第2の照明条件光の照射と、前記第1の照明条件光照射部による前記対象物への第1の照明条件光の照射とを所定タイミングで切り替える照射制御部と、
前記対象物に前記第2の照明条件光が照射されている状態の第2画像と、前記対象物に前記第1の照明条件光が照射され、前記標識部が認識可能となっている状態の第1画像とを取得する学習データ作成部と、を含む、学習用データ作成装置。
(付記4)
訓練対象物が第2の照明条件下で撮像された訓練用第2画像と、前記訓練対象物が第1の照明条件下で照射され、前記訓練対象物に設けられた標識部が第1の照明条件下において認識可能な状態である訓練用第1画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、撮像部により撮像される第2画像から標識部の情報を推定する推定部と、
を備える推論装置。
(付記5)
付記4に記載の推論装置と、
前記推定部により推定された前記標識部の情報に応じて、ロボットの行動計画を作成し、前記行動計画に基づき前記ロボットの動作を制御するロボット制御部と、
を備えるロボットの動作制御装置。
(付記6)
第1の照明条件下において認識可能となる標識部が設けられた対象物を撮像する撮像部と、
前記対象物に第1の照明条件光を照射する第1の照明条件光照射部と、
前記対象物に前記第1の照明条件光が照射されている状態の第1画像に基づき、前記標識部を検出する検出部と、
前記検出部により検出された前記標識部の情報に基づき、ロボットの行動計画を作成するロボット制御部と、
を備えるロボットの動作制御装置。
(付記7)
対象物を第2の照明条件下で撮像した第2画像と、前記対象物に設けられ、第1の照明条件下で標識部が認識可能の状態となる第1の照明条件下で撮像した第1画像とを一組の学習データとした学習データにより訓練された、訓練済みモデル。
(付記8)
ロボットであって、
付記7に記載の訓練済みモデルと、
操作対象物に第2の照明条件光が照射されている状態の第2画像に基づいて、当該ロボットの動作を制御する制御部と、
を備えるロボット。
(付記9)
前記識別部が不可視光下において認識可能な発光部であり、
前記第2の照明条件が可視光下であり、前記第1の照明条件が前記発光部が発光する不可視下である、付記1に記載の機械学習用データセットの作成方法。
(付記10)
前記標識部が再帰性反射素材を含む反射部であり、前記第2の照明条件が環境光であり、前記第1の照明条件が撮像部により前記反射部による反射光が撮像可能な条件である、付記1に記載の機械学習用データセットの作成方法。
(付記11)
不可視光下において認識可能な発光部が設けられた対象物を撮像し、
前記対象物を可視光下で撮像した可視光画像と、前記発光部が発光した状態の不可視光画像と、を取得する、
付記1に記載の機械学習用データセットの作成方法。
(付記12)
前記可視光画像を取得するための可視光照射部による前記対象物への可視光の照射と、前記不可視光画像を取得するための不可視光照射部による前記対象物への不可視光の照射とを所定タイミングで切り替え、前記可視光画像及び前記不可視光画像を1つの撮像部により取得する、付記11に記載の機械学習用データセットの作成方法。
(付記13)
対象物を可視光下で撮像した可視光画像と、前記対象物に設けられ不可視光下で発光する発光部が可視の状態である不可視光画像と、を用いて、前記可視光画像を入力として前記発光部の情報を推定する
付記2に記載の学習モデルの生成方法。
(付記14)
不可視光下において認識可能となる発光部が設けられた対象物を撮像する撮像部と、
前記対象物に可視光を照射する可視光照射部と、
前記対象物に不可視光を照射する不可視光照射部と、
前記可視光照射部による前記対象物への可視光の照射と、前記不可視光照射部による前記対象物への不可視光の照射とを所定タイミングで切り替える照射制御部と、
前記対象物に前記可視光が照射されている状態の可視光画像と、前記対象物に前記不可視光が照射され、前記発光部が発光している状態の不可視光画像とを取得する学習データ作成部と、を含む、
付記3に記載の学習用データ作成装置。
(付記15)
訓練対象物が可視光下で撮像された訓練用可視光画像と、前記訓練対象物が不可視光下で照射され、前記訓練対象物に設けられた不可視光下において認識可能な発光部が発光している状態の訓練用不可視光画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、撮像部により撮像される可視光画像から発光部の情報を推定する推定部と、
を備える
付記4に記載の推論装置。
(付記16)
訓練対象物が可視光下で撮像された訓練用可視光画像と、前記訓練対象物が不可視光下で照射され、前記訓練対象物に設けられた不可視光下において認識可能な発光部が発光している状態の訓練用不可視光画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、撮像部により撮像される可視光画像から発光部の情報を推定する推定部と、
を有する推論装置と、
前記推定部により推定された前記発光部の情報に応じて、ロボットの行動計画を作成し、前記行動計画に基づき前記ロボットの動作を制御するロボット制御部と、
を備える
付記5に記載のロボットの動作制御装置。
(付記17)
前記発光部は、前記訓練対象物の把持位置に設置される蛍光マーカであり、
前記推定部は、前記訓練済みモデルを用いて、前記撮像部により撮像される可視光画像から前記蛍光マーカの位置を推定して操作対象物の把持位置を推定する把持位置推定部であり、
前記ロボット制御部は、前記把持位置推定部により推定された前記操作対象物の前記把持位置を把持するように前記ロボットの動作を制御する、
付記16に記載のロボットの動作制御装置。
(付記18)
前記操作対象物は衣服であり、
前記ロボット制御部は、前記把持位置推定部により推定された前記衣服の前記把持位置を把持し、衣服を折り畳むタスクを実行するよう前記ロボットを制御する、
付記17に記載のロボットの動作制御装置。
(付記19)
前記蛍光マーカは、異なる色で発光する複数種が前記衣服に設けられ、
前記把持位置推定部は、前記蛍光マーカの位置情報と発光色情報とを推定し、
前記ロボット制御部は、前記発光色情報により設定される順番で、前記把持位置を変更して折り畳み動作を実行する、
付記18に記載のロボットの動作制御装置。
(付記20)
前記発光部は、前記訓練対象物に混入、または前記訓練対象物の表面に塗布される蛍光材であり、
前記推定部は、可視光画像から前記訓練済みモデルを用いて操作対象物の種類を推定する物体認識部を有し、
前記ロボット制御部は、前記物体認識部により推定された前記操作対象物の種類に応じて前記ロボットの動作を制御する、
付記16〜19のいずれか1項に記載のロボットの動作制御装置。
(付記21)
前記訓練対象物は、液体、粉粒体、または気体であり、
前記蛍光材は、前記学習データの取得時に前記訓練対象物に混入される、
付記20に記載のロボットの動作制御装置。
(付記22)
不可視光下において認識可能となる発光部が設けられた対象物を撮像する撮像部と、
前記対象物に不可視光を照射する不可視光照射部と、
前記対象物に前記不可視光が照射されている状態の不可視光画像に基づき、前記発光部を検出する検出部と、
前記検出部により検出された前記発光部の情報に基づき、ロボットの行動計画を作成するロボット制御部と、
を備える
付記6に記載のロボットの動作制御装置。
(付記23)
前記ロボットはロボットアームにより前記対象物を把持操作し、
前記発光部は、前記対象物の把持位置を示す蛍光マーカであり、
前記検出部は、前記不可視光画像の中の前記蛍光マーカの位置に基づき前記対象物の把持位置を算出する把持位置推定部を有し、
前記ロボット制御部は、前記把持位置推定部により算出された前記対象物の前記把持位置を把持するように前記ロボットアームの動作を制御する、
付記22に記載のロボットの動作制御装置。
(付記24)
前記発光部は、不可視光の照射によって発光し、前記対象物に係る各種情報を含む蛍光情報部であり、
前記検出部は、前記不可視光画像の中の前記蛍光情報部に基づき前記対象物に関する各種情報を読取る情報読取部を有し、
前記ロボット制御部は、前記情報読取部により読取られた前記対象物に関する各種情報に応じた前記ロボットの動作を制御する、
付記22または23に記載のロボットの動作制御装置。
(付記25)
前記蛍光情報部は、不可視光の照射によって発光する二次元バーコードである、
付記24に記載のロボットの動作制御装置。
(付記26)
対象物を可視光下で撮像した可視光画像と、前記対象物に設けられ、不可視光下で発光する発光部が可視の状態となる不可視光下で撮像した不可視光画像とを一組の学習データとした学習データにより訓練された、
付記7に記載の訓練済みモデル。
(付記27)
操作対象物の可視光画像の入力に基づいて、前記発光部の情報を推定可能である、付記26に記載の訓練済みモデル。
(付記28)
ロボットであって、
対象物を可視光下で撮像した可視光画像と、前記対象物に設けられ、不可視光下で発光する発光部が可視の状態となる不可視光下で撮像した不可視光画像とを一組の学習データとした学習データにより訓練された訓練済みモデルと、
操作対象物に可視光が照射されている状態の可視光画像に基づいて、当該ロボットの動作を制御する制御部と、
を備える
付記8に記載のロボット。
(付記29)
撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部が設けられた対象物を撮像し、
前記対象物を環境光下で撮像した環境光画像と、前記反射部からの前記反射光を含む反射光画像と、を取得する、
付記1に記載の機械学習用データセットの作成方法。
(付記30)
前記反射光画像を取得するために前記対象物へ光を照射するための光源の点灯と、前記環境光画像を取得するための前記光源の消灯とを所定タイミングで切り替え、前記反射光画像及び前記環境光画像を1つの撮像部により取得する、付記29に記載の機械学習用データセットの作成方法。
(付記31)
対象物を環境光下で撮像した環境光画像と、前記対象物に設けられ、撮像部の視野と同方向に光が照射される環境下で前記撮像部に反射光を返す再帰性反射素材を含む反射部が可視の状態である反射光画像と、を用いて、前記環境光画像を入力として前記反射部の情報を推定する
付記2に記載の学習モデルの生成方法。
(付記32)
対象物を撮像する撮像部と、
前記対象物に設けられ、前記撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部と、
前記対象物に前記光を照射する光源と、
前記光源の点灯と消灯とを所定タイミングで切り替える照射制御部と、
前記光源が点灯されて前記対象物に前記光源により前記撮像部の視野と同方向の光が照射され、前記反射部が発光している状態の反射光画像と、前記光源が消灯されて前記対象物に環境光が照射されている状態の環境光画像と、を取得する学習データ作成部と、を含む、
付記3に記載の学習用データ作成装置。
(付記33)
訓練対象物が環境光下で撮像された訓練用環境光画像と、前記訓練対象物に設けられ、撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部が発光している状態の訓練用反射光画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、前記撮像部により撮像される環境光画像から前記反射部の情報を推定する推定部と、
を備える
付記4に記載の推論装置。
(付記34)
訓練対象物が環境光下で撮像された訓練用環境光画像と、前記訓練対象物に設けられ、撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部が発光している状態の訓練用反射光画像とを学習データとして訓練された訓練済みモデルと、
前記訓練済みモデルを用いて、前記撮像部により撮像される環境光画像から前記反射部の情報を推定する推定部と、を有する推論装置と、
前記推定部により推定された前記反射部の情報に応じて、ロボットの行動計画を作成し、前記行動計画に基づき前記ロボットの動作を制御するロボット制御部と、
を備える
付記5に記載のロボットの動作制御装置。
(付記35)
対象物を撮像する撮像部と、
前記対象物に設けられ、前記撮像部の視野と同方向に光が照射される環境下において前記撮像部に反射光を返す再帰性反射素材を含む反射部と、
前記対象物に前記光が照射されている状態の反射光画像に基づき、前記反射部を検出する検出部と、
前記検出部により検出された前記反射部の情報に基づき、ロボットの行動計画を作成するロボット制御部と、
を備える
付記6に記載のロボットの動作制御装置。
(付記36)
対象物を環境光下で撮像した環境光画像と、前記対象物に設けられ、撮像部の視野と同方向に光が照射される環境下で前記撮像部に反射光を返す再帰性反射素材を含む反射部が可視の状態となる環境下で撮像した反射光画像とを一組の学習データとした学習データにより訓練された、
付記7に記載の訓練済みモデル。
(付記37)
ロボットであって、
対象物を環境光下で撮像した環境光画像と、前記対象物に設けられ、撮像部の視野と同方向に光が照射される環境下で前記撮像部に反射光を返す再帰性反射素材を含む反射部が可視の状態となる環境下で撮像した反射光画像とを一組の学習データとした学習データにより訓練された訓練済みモデルと、
操作対象物を環境光下で撮像した環境光画像に基づいて、当該ロボットの動作を制御する制御部と、
を備える
付記8に記載のロボット。
1、1A、1B、1C、1D ロボットの動作制御装置
2 可視光ライト(可視光照射部、第2の照明条件光照射部)
3 紫外光ライト(不可視光照射部、第1の照明条件光照射部)
4 カメラ(撮像部)
5 ロボットアーム
6 蛍光マーカ(発光部、標識部)
7 蛍光材(発光部、標識部)
8 蛍光情報部(発光部、標識部)
9 マーカ(反射部、標識部)
10、10A、10B、10C、10D 制御装置
11 照射制御部
12 画像取得部
13 学習データ作成部(検出部)
14 学習部(検出部)
15、15A 把持位置推定部(推定部、検出部)
16 ロボット制御部
17 物体認識部(推定部、検出部)
18 情報読取部(推定部、検出部)
20、21、22、23 対象物
31 可視光画像(第2画像)
32 紫外光画像(不可視光画像、第1画像)
24 光源(第1の照明条件光照射部)

Claims (10)

  1. 第1の照明条件下において認識可能な標識部が設けられた対象物を撮像し、
    前記標識部を認識可能な第1画像と、前記対象物を第2の照明条件下で撮像した第2画像と、を取得する、
    機械学習用データセットの作成方法。
  2. 対象物に設けられる標識部が第1の照明条件下で認識可能な状態である第1画像と、前記対象物を第2の照明条件下で撮像した第2画像と、を用いて、前記第2画像を入力として前記標識部の情報を推定する学習モデルの生成方法。
  3. 第1の照明条件下において認識可能となる標識部が設けられた対象物を撮像する撮像部と、
    前記対象物に第2の照明条件光を照射する第2の照明条件光照射部と、
    前記対象物に第1の照明条件光を照射する第1の照明条件光照射部と、
    前記第2の照明条件光照射部による前記対象物への第2の照明条件光の照射と、前記第1の照明条件光照射部による前記対象物への第1の照明条件光の照射とを所定タイミングで切り替える照射制御部と、
    前記対象物に前記第2の照明条件光が照射されている状態の第2画像と、前記対象物に前記第1の照明条件光が照射され、前記標識部が認識可能となっている状態の第1画像とを取得する学習データ作成部と、を含む、学習用データ作成装置。
  4. 訓練対象物が第2の照明条件下で撮像された訓練用第2画像と、前記訓練対象物が第1の照明条件下で照射され、前記訓練対象物に設けられた標識部が第1の照明条件下において認識可能な状態である訓練用第1画像とを学習データとして訓練された訓練済みモデルと、
    前記訓練済みモデルを用いて、撮像部により撮像される第2画像から標識部の情報を推定する推定部と、
    を備える推論装置。
  5. 請求項4に記載の推論装置と、
    前記推定部により推定された前記標識部の情報に応じて、ロボットの行動計画を作成し、前記行動計画に基づき前記ロボットの動作を制御するロボット制御部と、
    を備えるロボットの動作制御装置。
  6. 第1の照明条件下において認識可能となる標識部が設けられた対象物を撮像する撮像部と、
    前記対象物に第1の照明条件光を照射する第1の照明条件光照射部と、
    前記対象物に前記第1の照明条件光が照射されている状態の第1画像に基づき、前記標識部を検出する検出部と、
    前記検出部により検出された前記標識部の情報に基づき、ロボットの行動計画を作成するロボット制御部と、
    を備えるロボットの動作制御装置。
  7. 対象物を第2の照明条件下で撮像した第2画像と、前記対象物に設けられ、第1の照明条件下で標識部が認識可能の状態となる第1の照明条件下で撮像した第1画像とを一組の学習データとした学習データにより訓練された、訓練済みモデル。
  8. ロボットであって、
    請求項7に記載の訓練済みモデルと、
    操作対象物に第2の照明条件光が照射されている状態の第2画像に基づいて、当該ロボットの動作を制御する制御部と、
    を備えるロボット。
  9. 前記標識部が不可視光下において認識可能な発光部であり、
    前記第2の照明条件が可視光下であり、前記第1の照明条件が前記発光部が発光する不可視下である、請求項1に記載の機械学習用データセットの作成方法。
  10. 前記標識部が再帰性反射素材を含む反射部であり、前記第2の照明条件が環境光であり、前記第1の照明条件が撮像部により前記反射部による反射光が撮像可能な条件である、請求項1に記載の機械学習用データセットの作成方法。
JP2020039132A 2019-06-10 2020-03-06 機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボット Pending JP2021047839A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/895,233 US11590650B2 (en) 2019-06-10 2020-06-08 Generation method for training dataset, model generation method, training data generation apparatus, inference apparatus, robotic controller, model training method and robot

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019108219 2019-06-10
JP2019108219 2019-06-10
JP2019164343 2019-09-10
JP2019164343 2019-09-10

Publications (2)

Publication Number Publication Date
JP2021047839A true JP2021047839A (ja) 2021-03-25
JP2021047839A5 JP2021047839A5 (ja) 2023-11-06

Family

ID=74878576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020039132A Pending JP2021047839A (ja) 2019-06-10 2020-03-06 機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボット

Country Status (1)

Country Link
JP (1) JP2021047839A (ja)

Similar Documents

Publication Publication Date Title
EP3824370B1 (en) Selectively alerting users of real objects in a virtual environment
US20220155873A1 (en) Determining a primary control mode of controlling an electronic device using 3d gestures or using control manipulations from a user manipulable hand-held input device
Mazhar et al. A real-time human-robot interaction framework with robust background invariant hand gesture detection
US20220083880A1 (en) Interactions with virtual objects for machine control
US10807230B2 (en) Bistatic object detection apparatus and methods
US10810456B2 (en) Apparatus and methods for saliency detection based on color occurrence analysis
US9767613B1 (en) Systems and method of interacting with a virtual object
US20200066047A1 (en) Gestures for Facilitating Interaction with Pages in a Mixed Reality Environment
Hamer et al. An object-dependent hand pose prior from sparse training data
US20200004403A1 (en) Interaction strength using virtual objects for machine control
CN107422949A (zh) 投影触控的图像选取方法
Jiang et al. Modeling High-Dimensional Humans for Activity Anticipation using Gaussian Process Latent CRFs.
US11590650B2 (en) Generation method for training dataset, model generation method, training data generation apparatus, inference apparatus, robotic controller, model training method and robot
Haji Fathaliyan et al. Exploiting three-dimensional gaze tracking for action recognition during bimanual manipulation to enhance human–robot collaboration
CN110103241A (zh) 照明机器人、照明机器人控制方法及控制装置
JP2021047839A (ja) 機械学習用データセットの作成方法、学習モデルの生成方法、学習用データ作成装置、推論装置、ロボットの動作制御装置、訓練済みモデル、及び、ロボット
US20230342024A1 (en) Systems and Methods of Interacting with a Virtual Grid in a Three-dimensional (3D) Sensory Space
Özgur et al. Natural user interface for Roombots
Planche et al. Physics-based differentiable depth sensor simulation
US11656759B2 (en) Semitransparent tactile surface sensor and a method of sensing an interaction with an object using the semitransparent tactile surface sensor
Sharma et al. Gaze Controlled Safe HRI for Users with SSMI
Czuszynski et al. Towards Contactless, Hand Gestures-Based Control of Devices
KR102431386B1 (ko) 손 제스처 인식에 기초한 인터랙션 홀로그램 디스플레이 방법 및 시스템
Lazewatsky et al. Wearable computing to enable robot microinteractions
Melo Gesture recognition for human-robot collaborative assembly

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240403