JP2019010724A - 物品配置システム及び食品盛り付けシステム - Google Patents

物品配置システム及び食品盛り付けシステム Download PDF

Info

Publication number
JP2019010724A
JP2019010724A JP2018097448A JP2018097448A JP2019010724A JP 2019010724 A JP2019010724 A JP 2019010724A JP 2018097448 A JP2018097448 A JP 2018097448A JP 2018097448 A JP2018097448 A JP 2018097448A JP 2019010724 A JP2019010724 A JP 2019010724A
Authority
JP
Japan
Prior art keywords
food
recommended
unit
robot arm
article
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018097448A
Other languages
English (en)
Other versions
JP7050573B2 (ja
Inventor
亮 大手山
Ryo Oteyama
亮 大手山
亮一 津田
Ryoichi Tsuda
亮一 津田
環 小倉
Tamaki Ogura
環 小倉
明俊 谷川
Akitoshi Tanigawa
明俊 谷川
貴司 天野
Takashi Amano
貴司 天野
広昭 一原
Hiroaki Ichihara
広昭 一原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taisei Corp
Original Assignee
Taisei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taisei Corp filed Critical Taisei Corp
Publication of JP2019010724A publication Critical patent/JP2019010724A/ja
Application granted granted Critical
Publication of JP7050573B2 publication Critical patent/JP7050573B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】マスタ−スレーブシステムを用いた物品の配置を好適に支援することが可能な物品配置システムを提供する。【解決手段】物品配置システムの一例である食品盛り付けシステム1Dにおいて、制御部40,240は、食品3の種類に対応する推奨把持位置及びロボットアーム210の推奨把持直前位置姿勢を表示部20に表示させるとともに、ロボットアーム210が推奨把持直前位置姿勢である場合に、推奨把持力に基づいてロボットアーム210に食品3を把持させる。推奨把持位置及び推奨把持直前位置姿勢は、機械学習によって食品3の種類ごとに決定されており、推奨把持力は、ロボットアーム210が食品3を把持した際に当該食品3から当該ロボットアーム210に作用するとともにマスタシステム5Dにおいて発生される反力を機械学習することによって食品3の種類ごとに算出されている。【選択図】図8

Description

本発明は、マスタ−スレーブシステムを用いて物品を配置する(例えば、食品を盛り付ける)技術に関する。
特許文献1,2には、食品工場において、ロボットが自動的に食品を盛り付けることが記載されている。また、特許文献3〜5には、マスタ−スレーブシステムを用いてロボットを制御(遠隔制御)することが記載されている。
特開平9−65838号公報 特許第3602817号公報 特許第2823302号公報 特開平8−257948号公報 特開2009−34813号公報
食品は、同種類のものであっても、大きさ、形状、硬さ等の個体差が大きいため、ロボットによる自動的な盛り付けは難しい。また、食品の盛り付けにマスタ−スレーブシステムを採用する場合にも、食品を把持する際の力の入れ具合が難しく、オペレータの熟練した技能が必要である。このように、食品の盛り付け等といった物品の配置においてマスタ−スレーブシステムを用いるに際して、マスタシステム側のオペレータを好適に支援することが望まれている。
本発明は、前記した事情に鑑みて創案されたものであり、マスタ−スレーブシステムを用いた物品の配置を好適に支援することが可能な物品配置システム及び食品盛り付けシステムを提供することを課題とする。
前記課題を解決するため、本発明の物品配置システムは、オペレータの指の動作を検出する手指検出部と、表示部と、を有するマスタシステムと、前記手指検出部の検出結果に基づいて動作するロボットアームと、物品及び当該物品を把持する前記ロボットアームを撮影する撮影部と、を有するスレーブシステムと、前記撮影部の撮影結果を前記表示部に表示させる制御部と、を備え、前記制御部は、前記物品の種類に対応する前記ロボットアームの推奨把持直前位置姿勢を前記表示部に表示させるとともに、前記ロボットアームが前記推奨把持直前位置姿勢である場合に、推奨把持力に基づいて前記ロボットアームに前記物品の推奨把持位置を把持させ、前記推奨把持位置及び前記推奨把持直前位置姿勢は、前記物品の種類ごとに前記撮影部によって撮影された、前記ロボットアームによって把持された当該物品の画像を機械学習することによって前記物品の種類ごとに決定されており、前記推奨把持力は、前記ロボットアームが前記物品を把持した際に当該物品から当該ロボットアームに作用するとともにマスタシステムにおいて発生される反力を機械学習することによって前記物品の種類ごとに算出されていることを特徴とする。
かかる構成によると、オペレータによるマスタシステムの把持操作によらずに、予め設定された推奨把持力に基づいて、ハンド部に物品を把持させる。したがって、オペレータの熟練度によらずに、物品を好適に把持することができる。
また、オペレータが反力を感じながらマスタシステムを操作した結果に基づいて推奨把持力を算出するので、推奨把持力を好適に設定することができる。
また、本発明の物品配置システムは、オペレータの指の動作を検出する手指検出部と、表示部と、を有するマスタシステムと、前記手指検出部の検出結果に基づいて動作するロボットアームと、物品及び当該物品を把持する前記ロボットアームを撮影する撮影部と、を有するスレーブシステムと、前記撮影部の撮影結果を前記表示部に表示させる制御部と、を備え、前記制御部は、前記物品の種類に対応する前記ロボットアームの推奨配置直前位置姿勢を前記表示部に表示させるとともに、前記ロボットアームが前記推奨配置直前位置姿勢である場合に、推奨配置動作に基づいて前記ロボットアームを制御することによって、前記物品を推奨配置位置に配置させ、前記推奨配置位置及び前記推奨配置直前位置姿勢は、前記物品の種類ごとに前記撮影部によって撮影された、前記ロボットアームによって把持された当該物品の画像を機械学習することによって前記物品の種類ごとに決定されており、前記推奨配置動作は、当該ロボットアームに作用する反力を発生可能なマスタシステムの操作に伴うロボットアームによる前記物品の配置動作を機械学習することによって前記物品の種類ごとに決定されていることを特徴とする。
かかる構成によると、オペレータによるマスタシステムの配置操作によらずに、予め設定された推奨配置動作に基づいて、ハンド部に物品を配置させる。したがって、オペレータの熟練度によらずに、物品を好適に配置することができる。
また、物品の特性に応じた好適な配置を行うことができる。
また、本発明の食品盛り付けシステムは、オペレータの指の動作を検出する手指検出部と、表示部と、を有するマスタシステムと、前記手指検出部の検出結果に基づいて動作するロボットアームと、食品及び当該食品を把持する前記ロボットアームを撮影する撮影部と、を有するスレーブシステムと、前記撮影部の撮影結果を前記表示部に表示させる制御部と、を備え、前記制御部は、前記食品の種類に対応する前記ロボットアームの推奨把持直前位置姿勢を前記表示部に表示させるとともに、前記ロボットアームが前記推奨把持直前位置姿勢である場合に、推奨把持力に基づいて前記ロボットアームの2本の指部に前記食品の推奨把持位置を把持させるとともに、前記ロボットアームの他の指部に前記食品の推奨支持位置を支持させ、前記推奨把持位置、前記推奨支持位置及び前記推奨把持直前位置姿勢は、前記食品の種類ごとに前記撮影部によって撮影された、前記ロボットアームによって把持及び支持された当該食品の画像を機械学習することによって前記食品の種類ごとに決定されており、前記推奨把持力は、前記ロボットアームが前記食品を把持した際に当該食品から当該ロボットアームに作用するとともにマスタシステムにおいて発生される反力を機械学習することによって前記食品の種類ごとに算出されていることを特徴とする。
かかる構成によると、工業製品とは異なり把持動作に工夫が必要な食品を好適に把持することができる。
前記制御部は、2本の前記指部によって把持された前記食品の変形量が許容変形量以下である場合に、把持成功と判定する構成であってもよい。
かかる構成によると、把持による食品の潰れを好適に防止することができる。
なお、機械学習段階において、スレーブシステムは、把持された物品によってロボットアームに作用する反力検出部を備え、マスタシステムは、反力検出部によって検出された反力を発生してオペレータに伝達する反力発生部を備える構成であってもよい。かかる反力検出部及び反力発生部は、推奨把持位置等に基づく把持動作の制御段階及び推奨配置動作に基づく制御段階においては、省略可能である。
本発明によると、マスタ−スレーブシステムを用いた物品の配置を好適に支援することができる。
本発明の第一の参考形態に係る食品盛り付けシステムを示す模式図である。 本発明の第一の参考形態に係る食品盛り付けシステムを示す機能ブロック図である。 表示部の表示例を示す図であり、ハンド部によって把持された食品の撮影画像の例を示す図である。 本発明の第二及び第三の参考形態に係る食品盛り付けシステムを示す機能ブロック図である。 表示部の表示例を示す図であり、食品載置部に用意された食品の撮影画像を示す図である。 表示部の表示例を示す図であり、ハンド部によって把持された食品の撮影画像を示す図である。 表示部の表示例を示す図であり、容器に盛り付けられた食品の撮影画像を示す図である。 本発明の第一の実施形態に係る食品盛り付けシステムを示す模式図である。 本発明の第一の実施形態に係る食品盛り付けシステムを示す機能ブロック図である。 本発明の第一の実施形態に係る食品盛り付けシステムのうち、特に手指検出部及びハンド部を示す機能ブロック図である。 本発明の第一の実施形態に係る食品盛り付けシステムの動作例を説明するためのフローチャートである。 表示部の表示例を示す図であり、食品載置部に用意された食品の撮影画像に推奨把持位置及び推奨把持直前位置姿勢を合成した画像を示す図である。 表示部の表示例を示す図であり、ハンド部によって把持された食品の撮影画像に推奨配置直前位置姿勢を合成した画像を示す図である。 ハンド部によって食品が把持及び支持された状態の一例を示す模式図である。 本発明の第二の実施形態に係る食品盛り付けシステムのうち、特に手指検出部、ハンド部及び追加機能部を示す機能ブロック図である。
本発明の参考形態及び実施形態について、本発明の物品配置システムを食品を盛り付けるための食品盛り付けシステムに適用した場合を例にとり、適宜図面を参照しながら説明する。以下の説明において、同一の構成には同一の符号を付し、重複する説明を省略する。
<第一の参考形態>
図1及び図2に示すように、本発明の第一の参考形態に係る食品盛り付けシステム1Aは、マスタ−スレーブシステムを用いてオペレータ2が遠隔地から食品3を容器4(弁当箱等)に盛り付けるシステムである。食品盛り付けシステム1は、複数のマスタシステム5と、工場側システム6と、複数のスレーブシステム7と、サーバ8と、を備える。複数のマスタシステム5、複数のスレーブシステム7及びサーバ8は、互いに通信可能に接続されている。
<マスタシステム>
マスタシステム5は、一つのスレーブシステム7を操作するためにオペレータ2の自宅等に設けられるシステムである。マスタシステム5は、手指検出部10と、表示部20と、操作部30と、制御部40と、を備える。
≪手指検出部≫
手指検出部10は、オペレータ2の一方の手指(例えば、右手)に装着され、手の位置及び指(少なくとも、親指及び人差し指)の動作(及び/又は位置)を検出するセンサである。手指検出部10の検出結果は、制御部40へ出力される。手指検出部10は、手の位置を検出する位置センサ、指の関節の角度を検出する角度センサ、指の動作を検出する加速度センサ等によって具現化可能である。
≪表示部≫
表示部20は、後記する撮影部220の撮影結果をオペレータ2に対して表示するための装置である。表示部20は、オペレータ2の頭部に装着可能なモニタ等によって具現化可能である。
≪操作部≫
操作部30は、オペレータ2によって操作される装置である。操作部30の操作結果は、制御部40へ出力される。操作部30は、キーボード、マウス等によって具現化可能である。また、操作部30は、マイクを用いた音声認識、アイトラッキング(視線計測)システム等によっても具現化可能である。例えば、後記する制御部40は、音声認識による画面切替等によって表示部20に操作画面を表示させ、アイトラッキングシステムによって計測された視点をマウス代わりとすることができる。
≪制御部≫
制御部40は、CPU(Central Processing Unit)、ROM(Read-Only Memory)、RAM(Random Access Memory)、入出力回路等によって構成されており、手指検出部10、表示部20及び操作部30を制御する。制御部40は、手指検出部10の検出結果をスレーブシステム7の制御部240へ送信する。また、制御部40は、スレーブシステム7の撮影部220の撮影結果を受信し、受信した撮影結果を表示部20に表示させる。また、制御部40は、操作部30の操作結果をサーバ8へ送信する。
<工場側システム>
工場側システム6は、食品工場等に設けられており、食品3が用意されるとともに食品3が盛り付けられる容器4を搬送するシステムである。本参考形態において、工場側システム6は、ベルトコンベア110と、複数の食品載置部120と、を備える。
≪ベルトコンベア≫
ベルトコンベア110は、ベルト本体111と、モータ112と、制御部113と、を備える。ベルト本体111は、その長手方向(図1における白抜き矢印参照)に移動可能である。モータ112は、ベルト本体111を長手方向に移動させる駆動源である。制御部113は、CPU、ROM、RAM、入出力回路等によって構成されており、モータ112を制御する。
<食品載置部>
食品載置部120は、ベルト本体111の脇に設けられており、食品3が載置されている。本参考形態では、1つの食品載置部120に1種類の食品3が用意されている。食品載置部120は、テーブル、トレー等によって具現化可能である。
<スレーブシステム>
スレーブシステム7は、食品工場等に設けられており、オペレータ2によるマスタシステム5の操作結果に基づいて、食品載置部120に用意された食品3をベルト本体111上の容器4に盛り付けるシステムである。スレーブシステム7は、ロボットアーム210と、撮影部220と、反力検出部230と、制御部240と、を備える。
≪ロボットアーム≫
ロボットアーム210は、食品載置部120に対応してベルト本体111の脇に設けられている。ロボットアーム210は、複数の関節部を有するアーム部211と、アーム部211の先端部に設けられており食品3を把持可能なハンド部212と、を備える。
≪撮影部≫
撮影部220は、食品3を撮影するカメラである。撮影部220は、ハンド部212によって食品3が把持された状態を撮影したり、食品3が容器4に盛り付けられた状態を撮影したりする。本参考形態において、撮影部220は、第一の撮影部220Xと、第二の撮影部220Yと、を備える。第一の撮影部220Xは、アーム部211とは別置きで設けられている。第一の撮影部220Xの向きは、ベルト本体111上の容器4、食品載置部120及びロボットアーム210が第一の撮影部220Xの撮影領域に入るように設定されている。第二の撮影部220Yは、アーム部211に取り付けられている。第二の撮影部220Yの向きは、ハンド部212が第二の撮影部220Yの撮影領域に入るように設定されている。すなわち、第一の撮影部220Xは、容器4、食品載置部120及びロボットアーム210を定点から全体的に撮影する。第一の撮影部220Xの撮影結果は、ロボットアーム210(特にハンド部212)の動きを見たり、第二の参考形態において食品3の盛り付け結果の評価規則を機械学習によって生成したりするのに好適である。第二の撮影部220Yは、ロボットアーム210による食品3の把持動作及び把持された食品3を撮影する。第二の撮影部220Yの撮影結果は、第二の参考形態において食品3の推奨把持力及び推奨把持位置を機械学習によって決定するのに好適である。
≪反力検出部≫
反力検出部230は、ロボットアーム210のハンド部212が食品3を把持した際に当該食品3からハンド部212に作用する反力の大きさを検出するセンサである。反力検出部230は、圧力センサ等によって具現化可能である。
≪制御部≫
制御部240は、CPU、ROM、RAM、入出力回路等によって構成されており、ロボットアーム210、撮影部220(220X,220Y)及び反力検出部230を制御する。制御部240は、撮影部220(220X,220Y)の撮影結果をマスタシステム5の制御部40へ送信する。また、制御部240は、反力検出部230の検出結果をマスタシステム5の制御部40へ送信する。また、制御部240は、マスタシステム5の手指検出部10の検出結果を受信し、受信した手指検出部10の検出結果に基づいてロボットアーム210のアーム部211及びハンド部212を制御する。
<サーバ>
サーバ8は、CPU、ROM、RAM、入出力回路等によって構成されており、複数のマスタシステム5及び複数のスレーブシステム7を統括的に管理する装置である。本参考形態において、サーバ8は、食品3ごとに予め決められた推奨把持力及び/又は把持力最大値を記憶している。ここで、把持力最大値は、推奨把持力よりも大きい値であって、それよりも大きい把持力で食品3を把持すると食品3が破損するおそれがあるという値である。また、サーバ8は、後記する第二の参考形態において機械学習に使用する学習用データを保存する。学習用データとしては、撮影部220(220X,220Y)の撮影結果及び反力検出部230の検出結果であって、食品3ごとの把持及び配置の成功時及び失敗時の把持位置、把持力及び配置位置に関するデータが挙げられる。把持の成功及び失敗、並びに、盛り付け(配置)の成功及び失敗に関しては、オペレータ2又は画像を見た評価者による評価結果が利用可能である。例えば、サーバ8は、当該サーバ8に記憶された、ロボットアーム210による食品3の把持画像を表示装置に表示させる。評価者は、表示装置に表示された画像を見て、把持失敗であると評価した場合には、その旨を入力装置に入力する。サーバ8は、入力結果に基づいて、失敗フラグを表示中の画像に紐付けて記憶する。かかる場合において、サーバ8及び後記するAIサーバ9(図4参照)は、失敗フラグが紐付けられていない画像を把持成功画像と認識するとともに、失敗フラグが紐付けられている画像を把持失敗画像と認識することが可能となる。これは、食品3の盛り付け(配置)に関しても同様である。すなわち、食品3の盛り付け結果を見た評価者による評価結果(成功/失敗)が、盛り付け結果の撮影画像に紐付けられる。
<動作例>
続いて、本発明の第一の参考形態に係る食品盛り付けシステム1Aの動作例について説明する。
≪基本動作例≫
まず、準備作業として、スレーブシステム7側の作業者が、食品載置部120に食品3をセットし、食品載置部120ごとにセットされた食品3の種類をサーバ8に登録する。続いて、オペレータ2が操作部30をログイン操作すると、サーバ8は、ログイン操作に基づいて当該マスタシステム5と一のスレーブシステム7とを関連付ける。これにより、互いに関連付けられたマスタシステム5の制御部40とスレーブシステム7の制御部240とが通信可能な状態となる。また、制御部240は、サーバ8から当該制御部240に対応する食品3の推奨把持力及び/又は把持力最大値を取得する。続いて、オペレータ2が、マスタシステム5の手指検出部10及び表示部20を装着する。
スレーブシステム7の制御部240は、撮影部220(220X,220Y)の撮影結果を送信し、マスタシステム5の制御部40は、撮影部220の撮影結果(撮影部220X,220Yの撮影結果の一方)を表示部20に表示させる。オペレータ2は、表示部20の表示結果を見ながら、手指検出部10が装着された手指を動かし、遠隔盛り付け作業を行う。ここで、制御部40は、オペレータ2による操作部30の操作結果に基づいて、撮影部220X,220Yの一方の撮影結果を表示部20に表示させる。
続いて、マスタシステム5の制御部40は、手指検出部10の検出結果を送信し、スレーブシステム7の制御部240は、手指検出部10の検出結果に基づいてロボットアーム210のアーム部211及びハンド部212を制御する。すなわち、ロボットアーム210は、手指検出部10が装着されたオペレータ2の手指の動作に従って、食品載置部120に用意された食品3を把持し、把持された食品3をベルト本体111上の容器4に盛り付ける。
ここで、スレーブシステム7の制御部240は、反力検出部230の検出結果を送信し、マスタシステム5の制御部40は、反力検出部230の検出結果である食品3の把持力3a並びに推奨把持力3b及び/又は把持力最大値を、撮影部220(220X,220Y)の撮影結果に合成して表示部20に表示させる(図3参照。図3では、把持力3a及び推奨把持力3bを表示。)。すなわち、オペレータ2は、撮影部220(220X,220Y)の撮影結果及び反力検出部230の検出結果である食品3の把持力3aを見ながら遠隔盛り付け作業を行う。
なお、スレーブシステム7の制御部240は、食品3の種類と把持力の最大値との関係性を予め記憶している構成であってもよい。この場合には、制御部240は、撮影部220の撮影結果に基づいて食品3の種類を判定するとともに、食品3の種類の判定結果を用いて前記関係性を参照することによって把持力の最大値を読み出し、ハンド部212による食品3の把持力(反力検出部230の検出結果)が当該把持力の最大値を超えないようにハンド部212を制御することができる。
≪反力発生部≫
マスタシステム5は、反力発生部50をさらに備える。反力発生部50は、オペレータ2の手指に装着される。反力発生部50は、スレーブシステム7の反力検出部230の検出結果に基づいて、スレーブシステム7のハンド部212が食品3を把持した際に当該ハンド部212に生じる食品3からの反力を模擬的に発生する。すなわち、反力発生部50は、食品3からの反力をオペレータ2に模擬的に体感させるための装置である。反力発生部50は、アクチュエータ等によって具現化可能である。
制御部40は、スレーブシステム7の反力検出部230の検出結果を受信し、受信した反力検出部230の検出結果に基づいて反力発生部50を制御する。詳細には、スレーブシステム7の制御部240は、反力検出部230の検出結果を送信し、マスタシステム5の制御部40は、反力検出部230の検出結果に基づいて反力発生部50を制御する。すなわち、オペレータ2は、撮影部220(220X,220Y)の撮影結果を見るのに加えて、反力発生部50によって模擬的に発生された食品3からの反力を感じながら遠隔盛り付け作業を行う。
このように、本発明の第一の参考形態に係る食品盛り付けシステム1Aは、反力検出部230の検出結果が表示部20に表示されるので、マスタ−スレーブシステムを用いたオペレータ2による食品3の把持動作を好適に支援することができる。
また、食品盛り付けシステム1Aは、反力検出部230の検出結果が反力発生部50によって模擬的な反力として再現されるので、マスタ−スレーブシステムを用いたオペレータ2による食品3の把持動作を好適に支援することができる。
また、食品盛り付けシステム1Aは、オペレータ2の食品工場への出勤を不要とし、食品工場の立地によらない広い地域からの勤務や時差を利用した24時間稼働を可能とする。
また、食品盛り付けシステム1Aは、オペレータ2による盛り付け作業の履歴を大量に収集して解析することによって、将来的なロボットによる完全自動化のためのデータを好適に生成することができる。
<第二の参考形態>
続いて、本発明の第二の参考形態に係る食品盛り付けシステムについて、第一の参考形態に係る食品盛り付けシステム1Aとの相違点を中心に説明する。図4に示すように、本発明の第二の参考形態に係る食品盛り付けシステム1Bは、AI(Artificial Intelligence)サーバ9と、をさらに備える。AIサーバ9は、サーバ8と通信可能に接続されている。
<AIサーバ>
AIサーバ9は、CPU、ROM、RAM、入出力回路等によって構成されており、サーバ8から送信されたデータをビッグデータとして解析する装置である。本参考形態において、マスタシステム5の制御部40は、手指検出部10の検出結果及び操作部30の操作結果をサーバ8へ送信する。また、スレーブシステム7の制御部240は、撮影部220(220X,220Y)の撮影結果及び反力検出部230の検出結果を、サーバ8を介してAIサーバ9へ送信する。AIサーバ9は、撮影部220(220X,220Y)の撮影結果及び反力検出部230の検出結果を記憶し、これらを用いて機械学習を行う。
AIサーバ9は、撮影部220(220X,220Y)の撮影結果に基づいて機械学習を行うことによって、食品3の種類の判別規則を生成し、生成された判別規則を、サーバ8を介して制御部40へ送信する。実際の盛り付け作業時には、制御部40は、撮影部220(220X,220Y)の撮影結果に対して判別規則を適用することによって、撮影された食品3の種類を判別する。
また、AIサーバ9は、撮影部220の撮影結果に基づいて機械学習を行うことによって、食品3の種類ごとに推奨把持位置を決定し、決定された推奨把持位置を、サーバ8を介して制御部40へ送信する。
また、AIサーバ9は、撮影部220(220X,220Y)の撮影結果及び反力検出部230の検出結果に基づいて機械学習を行うことによって、食品3の種類ごとに推奨把持力を算出し、算出された推奨把持力を、サーバ8を介して制御部40へ送信する。
また、AIサーバ9は、撮影部220(220X,220Y)の撮影結果に基づいて機械学習を行うことによって、食品3の盛り付け結果の評価規則を生成し、生成された評価規則を、サーバ8を介して制御部40へ送信する。
≪事前に行われる機械学習の例≫
食品盛り付けシステム1Bは、食品盛り付け学習システム(物品配置学習システム)として、食品3の種類の判別規則、推奨把持位置、推奨把持力及び盛り付け結果の評価規則を盛り付け作業に先立って事前に機械学習する。すなわち、食品盛り付け学習システムのマスタシステム5及びスレーブシステム7は、オペレータ2によって、前記した基本動作例を複数回(例えば、数千回以上)繰り返す。スレーブシステム7の制御部240は、撮影部220(220X,220Y)によるハンド部212が食品3を把持した状態の撮影結果と、反力検出部230によるハンド部212が食品3を把持した状態の反力の検出結果と、をサーバ8を介してAIサーバ9へ送信する。
AIサーバ9は、食品の食品名及び画像を組み合わせたデータに基づいて機械学習を行うことによって、食品3の種類の判別規則を生成する。また、AIサーバ9は、食品3の把持の成功時及び失敗時を示す画像(撮影部220(220X,220Y)の撮影結果)の把持位置の位置データに基づいて機械学習を行うことによって、食品3の推奨把持位置を決定する。また、AIサーバ9は、食品3の推奨把持位置での把持の成功時及び失敗時における反力検出部230の検出結果に基づいて機械学習を行うことによって、食品3の推奨把持位置における推奨把持力及び把持力最大値を算出する。また、AIサーバ9は、食品3の盛り付けの成功時及び失敗時を示す画像(撮影部220(220X,220Y)の撮影結果に仮評価結果(成功/失敗)を関連付けたもの)の各食品3の位置データに基づいて機械学習を行うことによって、食品3の盛り付け結果の評価規則を生成する。
AIサーバ9による機械学習によって得られた食品3の種類の判別手法、推奨把持力、推奨把持位置及び食品3の盛り付け結果の評価規則は、サーバ8を介してマスタシステム5の制御部40へ送信される。
このように、本発明の第二の参考形態に係る食品盛り付けシステム1Bは、マスタ−スレーブシステムを用いたオペレータ2による実際の盛り付け動作に基づいた機械学習によって、食品3の種類の判別規則、推奨把持位置及び推奨把持力を好適に得ることができる。
≪表示動作例≫
本参考形態において、制御部40は、食品3の種類の判別規則41a及び盛り付け結果の評価規則41cを記憶部41に記憶しているとともに、食品3の種類と、推奨把持位置と、推奨把持力と、を関連付けたデータベース41bを記憶部41に記憶している。制御部40は、食品載置部120に用意された食品3が撮影された撮影画像を表示部20に表示させる際に、前記した機械学習結果すなわち判別規則41aに基づいて、食品3の種類を判別する。
≪表示画面例:食品載置部に用意された食品≫
図5に示すように、制御部40は、食品3の種類の判別結果に基づいて、推奨把持位置3c及び推奨把持位置3cにおける推奨把持力3bを撮影部220の撮影画像に合成して表示部20に表示させる。ここで、制御部40は、食品3の種類の判別結果を用いて前記データベース41bを参照し、食品3の種類と関連付けられた推奨把持位置3c及び推奨把持力3bを読み出す。本参考形態において、推奨把持位置3cは、食品3の把持すべき位置を示すマーカとして表示される。また、推奨把持力3bは、推奨把持位置3cのマーカの色としても表示される(例えば、濃色:推奨把持力大、淡色:推奨把持力小)。なお、制御部40は、データベース41bを参照することによって、食品3の種類と関連付けられた把持力最大値を読み出し、読み出された把持力最大値を撮影画像に合成する構成であってもよい。
このように、本発明の第二の参考形態に係る食品盛り付けシステム1Bは、機械学習によって得られた判別規則41aに基づいて食品3の種類を判別することができるので、高精度な判別を実現することができる。また、食品盛り付けシステム1Bは、食品3の種類の判別結果を用いてデータベース41bを参照することによって、推奨把持位置3c及び推奨把持力3bを好適に設定することができる。
また、本発明の第二の参考形態に係る食品盛り付けシステム1Bは、食品3の推奨把持位置3c及び推奨把持力3bをオペレータ2に知らせるので、マスタ−スレーブシステムを用いたオペレータ2による食品3の把持動作を好適に支援することができる。
≪表示画面例:ハンド部によって把持された食品≫
また、図6に示すように、制御部40は、ハンド部212が食品3を把持した状態において、推奨把持位置3c及び推奨把持力3bに加えて、反力検出部230によって検出された食品3からの反力すなわち把持力3aを、撮影画像に合成して表示部に表示させる。
このように、本発明の第二の参考形態に係る食品盛り付けシステム1Bは、食品3の把持力3a及び推奨把持力3bをオペレータ2に知らせるので、オペレータ2による食品3の把持動作を好適に支援することができる。
なお、スレーブシステム7の制御部240が、AIサーバ9の機械学習結果を受信し、食品3の種類の判別規則と、食品の種類と推奨把持力とを関連付けたデータベースと、を記憶している構成であってもよい。この場合には、制御部240は、撮影部220の撮影結果及び判別規則に基づいて食品3の種類を判別し、食品3の種類の判別結果を用いて前記データベースを参照することによって食品3の種類に対応する推奨把持力を読み出す。そして、制御部240は、手指検出部10の検出結果に基づいてロボットアーム210に食品3を把持させる際に、手指検出部10の検出結果に基づく力ではなく読み出された推奨把持力に基づいて食品3を把持させることができる。かかる把持制御は、反力検出部230の検出結果を用いたフィードバック制御とすることも可能である。
≪表示画面例:容器に盛り付けられた食品≫
また、図7に示すように、制御部40は、食品3が容器4に盛り付けられた状態において、盛り付け結果を評価し、評価結果3dを撮影画像に合成して表示部20に表示させる。制御部40は、食品3の盛り付け結果の評価規則41cを予め記憶しており、かかる評価規則41cを用いて実際の盛り付け結果を評価する。本参考形態において、評価結果3dは、〇(合格、例えば、100点満点で80点以上)×(不合格、例えば、100点満点で80点未満)として表示される。また、制御部40は、評価結果3dが不合格である場合に、食品3の推奨状態3eを撮影画像に合成して表示部20に表示させ、オペレータ2に対して盛り付けの是正作業を指示する。
このように、本発明の第二の参考形態に係る食品盛り付けシステム1Bは、食品3の盛り付け結果を評価し、評価結果3dをオペレータ2に知らせるので、オペレータ2による食品3の盛り付け作業を好適に支援することができる。
また、食品盛り付けシステム1Bは、評価結果3dが不合格である場合には、是正作業をオペレータ2に指示するので、オペレータ2による食品3の盛り付け作業を好適に支援することができる。
<第三の参考形態>
続いて、本発明の第三の実施形態に係る食品盛り付けシステムについて、第二の参考形態に係る食品盛り付けシステム1Bとの相違点を中心に説明する。
≪報酬算出及び作業適性判定≫
図4に示すように、本発明の第三の参考形態に係る食品盛り付けシステム1Cにおいて、サーバ8は、マスタシステム5の手指検出部10の検出結果、並びに、スレーブシステム7のロボットアーム210の動作結果、撮影部220の撮影結果及び反力検出部230の検出結果の少なくとも一つ(本参考形態では、全部)を受信し、受信したデータをオペレータ2の作業履歴として記憶する。
サーバ8は、かかる作業履歴(盛り付け作業の質、回数等)及び予め記憶された報酬基準に基づいて、オペレータ2の報酬(月給等)を算出する。また、サーバ8は、かかる作業履歴(盛り付け作業の質、単位時間当たりの回数等)に基づいて、オペレータ2の作業適性、すなわち、食品3の種類ごとの作業能力を判定する。ここで、盛り付け作業の質は、推奨盛り付け状態を示す画像と、実際の食品3の盛り付け結果の画像とを比較(例えば、画像マッチング)することによって、複数段階(100点満点等)で算出可能である。また、オペレータ2の報酬は、盛り付け作業の質が高い程、作業回数が多い程、高くなるように算出される。
サーバ8は、スレーブシステム7と盛り付け対象の食品3の種類との関係を予め記憶している。サーバ8は、マスタシステム5の操作部30のログイン操作があった場合に、当該マスタシステム5のオペレータ2の作業適性に基づいてオペレータ2にスレーブシステム7を割り当てる。本参考形態では、サーバ8は、ログイン操作時に空いているスレーブシステム7の中から、オペレータ2の作業能力に適合する食品3に対応するスレーブシステム7を、ログイン操作したオペレータ2(マスタシステム5)に割り当てる。
このように、本発明の第三の参考形態に係る食品盛り付けシステム1Cは、オペレータ2の盛り付け作業の作業履歴に基づいて報酬を算出するので、オペレータ2の実力等に応じた好適な報酬を算出することができる。
また、食品盛り付けシステム1Cは、オペレータ2の作業適性を判定し、判定結果に基づいてオペレータ2(マスタシステム5)をスレーブシステム7に割り当てるので、複数のオペレータ2の作業の分担を好適に行うことができる。
<第一の実施形態>
続いて、本発明の第一の実施形態に係る食品盛り付けシステムについて、第三の参考形態に係る食品盛り付けシステム1Cとの相違点を中心に説明する。
図8、図9及び図10に示すように、本発明の第一の実施形態に係る食品盛り付けシステム1Dのスレーブシステム7Dにおいて、ロボットアーム210のハンド部212Dは、人の手を模している。すなわち、ハンド部212Dは、アーム部211の先端部に取り付けられる掌部212aと、掌部に取り付けられる五本の指部212bと、を備える(図8及び図10参照)。
また、食品盛り付けシステム1Dのマスタシステム5Dにおいて、手指検出部10Dは、オペレータ2の掌の位置を検出する掌位置検出部11と、オペレータ2の掌の姿勢(向き)を検出する掌姿勢検出部12と、を備える(図10参照)。また、手指検出部10Dは、オペレータ2の五指のそれぞれに関して、関節の角度を検出する関節角検出部13を備える(図10参照)。
≪事前に行われる機械学習の例≫
食品盛り付けシステム1Dは、食品盛り付け学習システム(物品配置学習システム)として、食品3の種類の判別規則、推奨把持位置、推奨把持力及び盛り付け結果の評価規則を盛り付け作業に先立って事前に機械学習する。すなわち、食品盛り付けシステム1Dのマスタシステム5D及びスレーブシステム7Dは、食品盛り付けの熟練者であるオペレータ2によって、前記した基本動作例を複数回(例えば、数千回以上)繰り返す。オペレータ2は反力発生部50によって発生される反力を感じながら、スレーブシステム7Dを操作することによって食品3の盛り付けを行う。スレーブシステム7Dの制御部240は、撮影部220(220X,220Y)によるハンド部212Dが食品3を把持した状態の撮影結果と、反力検出部230によるハンド部212Dが食品3を把持した状態の反力の検出結果と、をサーバ8を介してAIサーバ9へ送信する。
AIサーバ9は、食品の食品名及び画像を組み合わせたデータに基づいて機械学習を行うことによって、食品3の種類の判別規則を生成する。また、AIサーバ9は、食品3の把持の成功時(及び失敗時)を示す画像又は映像(撮影部220(220X,220Y)の撮影結果)の把持位置の位置データに基づいて機械学習を行うことによって、食品3の推奨把持位置を決定する。また、AIサーバ9は、食品3の推奨把持位置での把持の成功時(及び失敗時)における反力検出部230の検出結果に基づいて機械学習を行うことによって、食品3の推奨把持位置における推奨把持力及び把持力最大値を算出する。また、AIサーバ9は、食品3の盛り付けの成功時及び失敗時を示す画像(撮影部220(220X,220Y)の撮影結果に仮評価結果(成功/失敗)を関連付けたもの)の各食品3の位置データに基づいて機械学習を行うことによって、食品3の盛り付け結果の評価規則を生成する。
さらに、食品盛り付けシステム1Dは、食品3の種類ごとに、ロボットアーム210の推奨把持直前位置姿勢、推奨配置直前位置姿勢及び推奨配置動作を盛り付け作業に先立って事前に機械学習する。ここで、推奨把持直前位置姿勢とは、ロボットアーム210が食品3を把持する直前にとることが推奨されるハンド部212Dの位置及び姿勢である。また、推奨配置直前位置姿勢とは、ロボットアーム210が食品3を配置する直前にとることが推奨されるハンド部212Dの位置及び姿勢である。かかる推奨配置直前位置姿勢は、既に配置された他の食品3にハンド部212Dが干渉しない位置に決定される。
また、推奨配置動作は、ロボットアーム210が食品3を配置する際に推奨される動作である。かかる推奨配置動作は、各指部212bの開く動作の速度、タイミング、掌部212aの動作の速度、タイミング等を組み合わせたものである。物品として特に食品3を配置する食品盛り付けシステム1Dでは、食品3の種類(形状、固さ、表面のくっつきやすさ等)によって、推奨される配置動作が異なる。例えば、食品3がパスタである場合には、ふんわりとした盛り付けを実現するために、ハンド部212Dの掌部212aを小刻みに揺らしながら指部212bを開くことが考えられる。
例えば、AIサーバ9は、熟練のオペレータ2がマスタシステム5Dを操作した際のスレーブシステム7Dにおける食品3の把持及び配置動作を含む一連の映像を表示部に表示させる。評価者は、かかる映像を見て、食品3の種類と成功/失敗のタグ付けを行うことができる。また、評価者は、かかる映像を見て、推奨把持位置を指定することができる。なお、AIサーバ9は、食品3の種類の判別、成功/失敗の判定、推奨把持位置の決定を自動的に行う構成であってもよい。
AIサーバ9は、スレーブシステム7Dの制御部240によって送信された、掌部212aの位置検出部、掌部212aの姿勢検出部及び各指部212bの関節角検出部の検出結果に基づいて、推奨把持直前位置姿勢、推奨配置直前位置姿勢及び推奨配置動作を機械学習することができる。また、AIサーバ9は、スレーブシステム7Dの制御部240によって送信された撮影部220の撮影結果に基づいて、推奨把持直前位置姿勢、推奨配置直前位置姿勢及び推奨配置動作を機械学習することができる。
AIサーバ9による機械学習によって得られた食品3の種類の判別手法、推奨把持力、推奨把持位置、食品3の盛り付け結果の評価規則、推奨把持直前位置姿勢、推奨配置直前位置姿勢及び推奨配置動作は、サーバ8を介してマスタシステム5Dの制御部40へ送信される。また、推奨把持力及び推奨配置動作は、サーバ8を介してスレーブシステム7Dの制御部240へ送信される。すなわち、マスタシステム5Dの制御部40及びスレーブシステム7Dの制御部240は、機械学習によって得られた学習済みモデルを保持しており、保持された学習済みモデルに基づいて各種処理を実行することができる。
<動作例>
続いて、本発明の第一の実施形態に係る食品盛り付けシステム1Dの動作例について、図11のフローチャート並びに図12及び図13の画面例を参照して説明する(適宜図10参照)。
≪表示動作例≫
本実施形態において、制御部40は、食品3の種類の判別規則41a及び盛り付け結果の評価規則41cを記憶部41に記憶しているとともに、食品3の種類と、推奨把持位置と、推奨把持力と、推奨把持直前位置姿勢と、推奨配置直前位置姿勢と、推奨配置動作と、を関連付けたデータベース41bを記憶部41に記憶している。制御部40は、食品載置部120に用意された食品3が撮影された撮影画像を表示部20に表示させる際に、前記した機械学習結果すなわち判別規則41aに基づいて、食品3の種類を判別する。
≪表示画面例:食品載置部に用意された食品≫
図12に示すように、制御部40は、食品3の種類の判別結果に基づいて、推奨把持位置3f及びハンド部212Dの推奨把持直前位置姿勢3gを撮影部220の撮影画像に合成して表示部20に表示させる。ここで、制御部40は、食品3の種類の判別結果を用いて前記データベース41bを参照し、食品3の種類と関連付けられた推奨把持位置3f及び推奨把持直前位置姿勢3gを読み出す。本実施形態において、推奨把持位置3fは、ハンド部212Dの指部ごとに、食品3の把持すべき位置を示すマーカとして表示される。また、推奨把持直前位置姿勢3gは、仮想線として表示される。オペレータ2は、かかる合成画像を見ながらマスタシステム5を操作し、ハンド部212Dを推奨把持直前位置姿勢3gに合わせようとする。制御部240は、マスタシステム5の操作結果(手指検出部10の検出結果)に基づいて、ロボットアーム210を制御する(ステップS1でNo→ステップS2)。制御部240は、ハンド部212Dが推奨把持直前位置姿勢3gであると判定した場合(ステップS1でYes)に、マスタシステム5の操作結果によらずに、予め設定された推奨把持力に基づいて、ハンド部212Dに食品3を把持させる(ステップS3)。
なお、制御部240は、ハンド部212Dが推奨把持直前位置姿勢3gである場合において、手指検出部10によってオペレータ2の把持動作が検出された場合に、かかる把持動作によらずに、予め設定された推奨把持力に基づいてハンド部212Dに食品3を把持させる構成であってもよい。
また、図13に示すように、制御部40は、食品3の種類の判別結果に基づいて、ハンド部212Dの推奨配置直前位置姿勢3h及び食品3の推奨配置位置3iを撮影部220の撮影画像に合成して表示部20に表示させる。食品3の把持後、オペレータ2は、かかる合成画像を見ながらマスタシステム5を操作し、ハンド部212Dを推奨配置直前位置姿勢3hに合わせようとする。制御部240は、マスタシステム5の操作結果(手指検出部10の検出結果)に基づいて、ロボットアーム210を制御する(ステップS4でNo→ステップS5)。制御部240は、ハンド部212が推奨配置直前位置姿勢3hであると判定した場合(ステップS4でYes)に、マスタシステム5の操作結果によらずに、予め設定された推奨配置動作に基づいて、ハンド部212Dに食品3を配置させる(ステップS6)。
なお、制御部240は、ハンド部212Dが推奨配置直前位置姿勢3hである場合において、手指検出部10によってオペレータ2の配置動作が検出された場合に、かかる配置動作によらずに、予め設定された推奨配置動作に基づいてハンド部212Dに食品3を配置させる構成であってもよい。
また、制御部240は、ステップS5の実行中において、オペレータ2によるマスタシステム5の操作によらずに、推奨把持力で食品3を把持し続ける構成であってもよい。
本実施形態における配置対象である食品3は、工業製品(ボルト等)と比較して、形状、柔らかさ等にバラツキがあったり、ハンド部212Dにくっつきやすかったりする。食品盛り付けシステム1Dは、熟練したオペレータ2の把持動作及び配置動作を機械学習することによって食品3の種類ごとに好適な推奨把持動作(推奨把持位置及び推奨把持力)及び推奨配置動作を設定し、機械学習後にはオペレータ2の熟練度によらずに好適な把持動作及び配置動作を実行することができる。
本発明の第一の実施形態に係る食品盛り付けシステム1Dは、オペレータ2によるマスタシステム5Dの把持操作によらずに、予め設定された推奨把持力に基づいて、ハンド部212Dに食品3を把持させる。したがって、食品盛り付けシステム1Dは、オペレータ2の熟練度によらずに、食品3を好適に把持することができる。
また、食品盛り付けシステム1Dは、オペレータ2が反力を感じながらマスタシステム5Dを操作した結果に基づいて推奨把持力を算出するので、推奨把持力を好適に設定することができる。
また、食品盛り付けシステム1Dは、実際の配置作業段階においては、反力検出部230及び反力発生部50を省略することができる。
また、食品盛り付けシステム1Dは、オペレータ2によるマスタシステム5Dの配置操作によらずに、予め設定された推奨配置動作に基づいて、ハンド部212Dに食品3を配置させる。したがって、食品盛り付けシステム1Dは、オペレータ2の熟練度によらずに、食品3を好適に配置することができる。
また、食品盛り付けシステム1Dは、食品3の特性に応じた好適な配置を行うことができる。
<他の動作例>
続いて、本発明の第一の実施形態に係る食品盛り付けシステム1Dの他の動作例について、図14を参照して説明する(適宜図10等参照)。
図14に示すように、制御部240は、3本の指部212b(親指部212b1、人差し指部21b2及び中指部212b3)に食品3の推奨把持位置3fを把持させるとともに、2本の指部212b(薬指部212b4及び小指部212b5)に食品3の推奨支持位置3jを支持させる。
ここで、推奨支持位置3jは、食品3を下から支持するのに推奨される位置であり、推奨把持位置3f等と同様に機械学習によって食品3の種類ごとに決定されている。
この場合、前記したステップS3(図11参照)において、始めに、制御部240は、3本の指部212b(親指部212b1、人差し指部21b2及び中指部212b3)に食品3の推奨把持位置3fを把持させる。
続いて、制御部240は、アーム部211を制御することによって食品3を所定高さまで持ち上げた後、2本の指部212b(薬指部212b4及び小指部212b5)に食品3の推奨支持位置3jを支持させる。
また、前記したステップS5(図11参照)において、始めに、制御部240は、2本の指部212b(薬指部212b4及び小指部212b5)に食品3の支持を解除させる。
続いて、制御部240は、アーム部211を制御することによって食品3を所定高さまで下げた後、中指部212b3に食品3の把持を解除させる。
続いて、制御部240は、アーム部211を制御することによって食品3を推奨配置位置の高さまで下げた後、親指部212b1及び人差し指部212b2に食品3の把持を解除させる。
かかる動作例によると、食品3を下から支持した状態で運ぶことが可能となり、動作の途中で食品3を落とすことを防止することができる。なお、食品3の把持は、2本の指部212b(親指部212b1及び人差し指部212b2)によっても可能であり、食品3の支持は、1本の指部212b(薬指部212b4又は小指部212b5)によっても可能である。
なお、制御部240は、把持動作及び配置動作において、食品3が指部212b(薬指部212b4及び小指部212b5)によって支持された状態では、支持されていない状態よりも把持力を弱める構成であってもよい。これにより、把持による食品3の変形をより好適に防止することができる。
ここで、推奨把持力は、弱める前の把持力であってもよく、弱めた後の把持力であってもよく、両方にそれぞれ設定されていてもよい。
<変形量に基づく把持成功の判定>
また、制御部240は、撮影部220の撮影結果等に基づいて、食品3の把持前と把持後との変形量を算出する。
制御部240は、指部212b(親指部212b1、人差し指部212b2及び中指部212b3)によって把持された食品3の変形量が許容変形量以下である場合に、把持成功と判定する。また、制御部240は、食品3の変形量が許容変形量よりも大きい場合に、把持失敗と判定し、把持動作をやり直す。
ここで、許容変形量は、食品3の種類ごとに推奨把持位置に対応付けられており、推奨把持位置3f等と同様に機械学習によって決定されている。
かかる判定手法によると、強く把持し過ぎることによる食品3の潰れ等を好適に防止することができる。
<第二の実施形態>
続いて、本発明の第二の実施形態に係る食品盛り付けシステムについて、第一の実施形態に係る食品盛り付けシステム1Dとの相違点を中心に説明する。
図15に示すように、本発明の第二の実施形態に係る食品盛り付けシステム1Eにおいて、スレーブシステム7Eは、温度検出部251と、湿度検出部252と、冷却部253と、を備える。
温度検出部251は、ハンド部212Dによって把持された食品3の温度(表面温度)を検出し、検出結果を制御部240へ出力する。湿度検出部252は、ハンド部212Dによって把持された食品3の湿度(表面湿度)を検出し、検出結果を制御部240へ出力する。冷却部253は、ハンド部212Dによって把持された食品3を冷ますためのものであり、例えば、食品3に空気を吹き付けるファン等によって実現される。
なお、湿度検出部252は、食品3の湿度に相関するパラメータとして、食品3の表面の電気抵抗値を検出するセンサであってもよい。
制御部240は、温度検出部251によって検出された食品3の温度が所定温度(例えば、20℃)以上である場合には、例えば前記したステップS5の実行中に、冷却部253を駆動制御することによって食品3を冷却する。また、制御部240は、温度検出部251によって検出された食品3の温度が所定温度未満である場合には、食品3の推奨配置動作(ステップS6)を実行可能とする。
また、制御部240は、湿度検出部252によって検出された食品3の湿度が所定湿度以上である場合には、例えば前記したステップS5の実行中に、アーム部211及びハンド部212Dを駆動制御する(例えば、ハンド部212Dを振動させる)ことによって、食品3の水気を切る。かかるアーム部211及びハンド部212の動作内容に関しては、制御部240に予め設定されている。また、制御部240は、湿度検出部252によって検出された食品3の湿度が所定湿度未満である場合には、食品3の推奨配置動作(ステップS6)を実行可能とする。
本発明の第二の実施形態に係る食品盛り付けシステム1Eは、食品3の温度及び湿度に応じた動作を実行してから推奨配置動作を実行するので、食中毒を好適に予防することができる。
以上、本発明の参考形態及び実施形態について説明したが、本発明は前記実施形態に限定されず、本発明の要旨を逸脱しない範囲で適宜変更可能である。例えば、制御部40は、前記した評価規則に基づいて、全ての食品3が容器4に盛り付けられた完成品の状態において総合的な盛り付け結果を評価し、評価結果を表示部20に表示させる構成であってもよい。また、スレーブシステム7は、ハンド部212に設けられた加熱部を備える構成であってもよい。この場合には、制御部240は、操作部30の操作結果、又は、制御部40による食品3の種類の判定結果に基づいて加熱部を制御し、食品3の表面に焼き色を付けることができる。
また、スレーブシステム7の制御部240又はサーバ8は、当該スレーブシステム7が盛り付ける食品3の種類を予め記憶しており、当該食品3の種類を対応するマスタシステム5の制御部40へ送信する構成であってもよい。この場合には、マスタシステム5の制御部40は、画像に基づく食品3の種類の判定を行わず、制御部240又はサーバ8によって送信された食品3の種類を用いてデータベースを参照することによって、食品3の種類に応じた推奨把持位置及び推奨把持力を表示部20に表示させることができる。また、制御部240は、機械学習によって食品3の種類ごとに得られた、推奨把持位置及び推奨把持力を含む推奨配置動作に基づいてロボットアーム210を制御することによって、ロボットアーム210に食品3の推奨配置位置を推奨把持力で把持させる構成であってもよい。また、参考形態として、制御部40は、機械学習によって得られた、食品3の種類ではなく色、形状、大きさ等と推奨把持位置等との関係に基づいて、推奨把持位置等を決定する構成であってもよい。
また、マスタシステム5は、オペレータ2の腕の関節角度を検出する腕関節角度検出部を備え、スレーブシステム7の制御部240は、かかる腕関節角度検出部の検出結果に基づいて、ロボットアーム210のアーム部211を制御する構成であってもよい。
また、本発明の物品配置システムは、前記した食品盛り付けシステム1A〜1E以外の、マスタ−スレーブシステムを用いて物品を配置するシステムに適用可能である。
1A,1B,1C,1D,1E 食品盛り付けシステム(物品配置システム)
2 オペレータ
3 食品(物品)
4 容器
5,5D マスタシステム
7,7D,7E スレーブシステム
8 サーバ(制御部)
9 AIサーバ(制御部)
10,10D 手指検出部
20 表示部
40 制御部
210 ロボットアーム
220 撮影部
230 反力検出部

Claims (4)

  1. オペレータの指の動作を検出する手指検出部と、
    表示部と、
    を有するマスタシステムと、
    前記手指検出部の検出結果に基づいて動作するロボットアームと、
    物品及び当該物品を把持する前記ロボットアームを撮影する撮影部と、
    を有するスレーブシステムと、
    前記撮影部の撮影結果を前記表示部に表示させる制御部と、
    を備え、
    前記制御部は、
    前記物品の種類に対応する前記ロボットアームの推奨把持直前位置姿勢を前記表示部に表示させるとともに、
    前記ロボットアームが前記推奨把持直前位置姿勢である場合に、推奨把持力に基づいて前記ロボットアームに前記物品の推奨把持位置を把持させ、
    前記推奨把持位置及び前記推奨把持直前位置姿勢は、前記物品の種類ごとに前記撮影部によって撮影された、前記ロボットアームによって把持された当該物品の画像を機械学習することによって前記物品の種類ごとに決定されており、
    前記推奨把持力は、前記ロボットアームが前記物品を把持した際に当該物品から当該ロボットアームに作用するとともにマスタシステムにおいて発生される反力を機械学習することによって前記物品の種類ごとに算出されている
    ことを特徴とする物品配置システム。
  2. オペレータの指の動作を検出する手指検出部と、
    表示部と、
    を有するマスタシステムと、
    前記手指検出部の検出結果に基づいて動作するロボットアームと、
    物品及び当該物品を把持する前記ロボットアームを撮影する撮影部と、
    を有するスレーブシステムと、
    前記撮影部の撮影結果を前記表示部に表示させる制御部と、
    を備え、
    前記制御部は、
    前記物品の種類に対応する前記ロボットアームの推奨配置直前位置姿勢を前記表示部に表示させるとともに、
    前記ロボットアームが前記推奨配置直前位置姿勢である場合に、推奨配置動作に基づいて前記ロボットアームを制御することによって、前記物品を推奨配置位置に配置させ、
    前記推奨配置位置及び前記推奨配置直前位置姿勢は、前記物品の種類ごとに前記撮影部によって撮影された、前記ロボットアームによって把持された当該物品の画像を機械学習することによって前記物品の種類ごとに決定されており、
    前記推奨配置動作は、当該ロボットアームに作用する反力を発生可能なマスタシステムの操作に伴う前記ロボットアームによる前記物品の配置動作を機械学習することによって前記物品の種類ごとに決定されている
    ことを特徴とする物品配置システム。
  3. オペレータの指の動作を検出する手指検出部と、
    表示部と、
    を有するマスタシステムと、
    前記手指検出部の検出結果に基づいて動作するロボットアームと、
    食品及び当該食品を把持する前記ロボットアームを撮影する撮影部と、
    を有するスレーブシステムと、
    前記撮影部の撮影結果を前記表示部に表示させる制御部と、
    を備え、
    前記制御部は、
    前記食品の種類に対応する前記ロボットアームの推奨把持直前位置姿勢を前記表示部に表示させるとともに、
    前記ロボットアームが前記推奨把持直前位置姿勢である場合に、推奨把持力に基づいて前記ロボットアームの2本の指部に前記食品の推奨把持位置を把持させるとともに、前記ロボットアームの他の指部に前記食品の推奨支持位置を支持させ、
    前記推奨把持位置、前記推奨支持位置及び前記推奨把持直前位置姿勢は、前記食品の種類ごとに前記撮影部によって撮影された、前記ロボットアームによって把持及び支持された当該食品の画像を機械学習することによって前記食品の種類ごとに決定されており、
    前記推奨把持力は、前記ロボットアームが前記食品を把持した際に当該食品から当該ロボットアームに作用するとともにマスタシステムにおいて発生される反力を機械学習することによって前記食品の種類ごとに算出されている
    ことを特徴とする食品盛り付けシステム。
  4. 前記制御部は、2本の前記指部によって把持された前記食品の変形量が許容変形量以下である場合に、把持成功と判定する
    ことを特徴とする請求項3に記載の食品盛り付けシステム。
JP2018097448A 2017-06-30 2018-05-21 物品配置システム及び食品盛り付けシステム Active JP7050573B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017129989 2017-06-30
JP2017129989 2017-06-30

Publications (2)

Publication Number Publication Date
JP2019010724A true JP2019010724A (ja) 2019-01-24
JP7050573B2 JP7050573B2 (ja) 2022-04-08

Family

ID=65226163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018097448A Active JP7050573B2 (ja) 2017-06-30 2018-05-21 物品配置システム及び食品盛り付けシステム

Country Status (1)

Country Link
JP (1) JP7050573B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020194883A1 (ja) * 2019-03-26 2020-10-01 コベルコ建機株式会社 遠隔操作システム
JPWO2020261881A1 (ja) * 2019-06-27 2020-12-30
JP2021016908A (ja) * 2019-07-18 2021-02-15 京セラドキュメントソリューションズ株式会社 学習装置、ロボット制御システム及び学習制御方法
WO2021065311A1 (ja) * 2019-09-30 2021-04-08 テルモ株式会社 アクチュエータ及びロボットカテーテルシステム
WO2022230280A1 (ja) * 2021-04-27 2022-11-03 株式会社日立製作所 ロボット制御システム、ロボット制御方法及びプログラム
WO2023022237A1 (ja) * 2021-08-19 2023-02-23 京セラ株式会社 ロボットの保持態様決定装置、保持態様決定方法、及びロボット制御システム
KR20230122443A (ko) * 2022-02-14 2023-08-22 경희대학교 산학협력단 사람형 로봇 손의 처리 시스템
US11993922B2 (en) 2019-03-26 2024-05-28 Kobelco Construction Machinery Co., Ltd. Remote operation system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060083513A (ko) * 2005-01-17 2006-07-21 엘에스전선 주식회사 전자파 차폐 특성이 우수한 시스 재료 조성물 및 이로부터형성된 시스체를 구비하는 통신 케이블

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09109069A (ja) * 1995-10-13 1997-04-28 Gen Sugano パワード・インテリジェント方法及びユニット
JP2015116660A (ja) * 2013-11-13 2015-06-25 パナソニックIpマネジメント株式会社 マスタースレーブ装置用マスター装置及びその制御方法、及び、マスタースレーブ装置
WO2016132399A1 (ja) * 2015-02-19 2016-08-25 日揮株式会社 細胞培養加工設備

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09109069A (ja) * 1995-10-13 1997-04-28 Gen Sugano パワード・インテリジェント方法及びユニット
JP2015116660A (ja) * 2013-11-13 2015-06-25 パナソニックIpマネジメント株式会社 マスタースレーブ装置用マスター装置及びその制御方法、及び、マスタースレーブ装置
WO2016132399A1 (ja) * 2015-02-19 2016-08-25 日揮株式会社 細胞培養加工設備

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7287045B2 (ja) 2019-03-26 2023-06-06 コベルコ建機株式会社 遠隔操作システム
JP2020161934A (ja) * 2019-03-26 2020-10-01 コベルコ建機株式会社 遠隔操作システム
US11993922B2 (en) 2019-03-26 2024-05-28 Kobelco Construction Machinery Co., Ltd. Remote operation system
WO2020194883A1 (ja) * 2019-03-26 2020-10-01 コベルコ建機株式会社 遠隔操作システム
WO2020261881A1 (ja) * 2019-06-27 2020-12-30 パナソニックIpマネジメント株式会社 エンドエフェクタの制御システムおよびエンドエフェクタの制御方法
JP7186349B2 (ja) 2019-06-27 2022-12-09 パナソニックIpマネジメント株式会社 エンドエフェクタの制御システムおよびエンドエフェクタの制御方法
JPWO2020261881A1 (ja) * 2019-06-27 2020-12-30
JP2021016908A (ja) * 2019-07-18 2021-02-15 京セラドキュメントソリューションズ株式会社 学習装置、ロボット制御システム及び学習制御方法
WO2021065311A1 (ja) * 2019-09-30 2021-04-08 テルモ株式会社 アクチュエータ及びロボットカテーテルシステム
WO2022230280A1 (ja) * 2021-04-27 2022-11-03 株式会社日立製作所 ロボット制御システム、ロボット制御方法及びプログラム
WO2023022237A1 (ja) * 2021-08-19 2023-02-23 京セラ株式会社 ロボットの保持態様決定装置、保持態様決定方法、及びロボット制御システム
KR20230122443A (ko) * 2022-02-14 2023-08-22 경희대학교 산학협력단 사람형 로봇 손의 처리 시스템
KR102631984B1 (ko) 2022-02-14 2024-01-30 경희대학교 산학협력단 사람형 로봇 손의 처리 시스템

Also Published As

Publication number Publication date
JP7050573B2 (ja) 2022-04-08

Similar Documents

Publication Publication Date Title
JP7050573B2 (ja) 物品配置システム及び食品盛り付けシステム
CN109483573B (zh) 机器学习装置、机器人系统以及机器学习方法
US10959795B2 (en) Remote-control manipulator system and method of operating the same
JP6540472B2 (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
CN110784708B (zh) 感测系统、作业系统、扩展现实图像的显示方法、扩展现实图像的存储方法以及程序
US20120053728A1 (en) Object-learning robot and method
JP6671694B1 (ja) 機械学習装置、機械学習システム、データ処理システム及び機械学習方法
CN110958425A (zh) 信息处理装置、信息处理方法和系统
US20220212340A1 (en) Control device, control system, mechanical apparatus system, and controlling method
JP2021030407A (ja) 情報処理装置、情報処理方法及びプログラム
US11584016B2 (en) Robot controller and system
JP6869060B2 (ja) マニピュレータの制御装置、制御方法およびプログラム、ならびに作業システム
CN110871441A (zh) 感测系统、作业系统、增强现实图像的显示方法、以及存储有程序的存储介质
CN112276936A (zh) 三维数据生成装置以及机器人控制系统
US10722992B2 (en) Workpiece placement system for placing workpiece in containment area or on jig
JP2020121352A (ja) 物体把持システム
KR20210041040A (ko) 로봇 시스템
JP2008207262A (ja) マニピュレータシステム
JP2015044257A (ja) ロボット、ロボット制御方法、及びロボット制御プログラム
CN114269522A (zh) 用于处理产品的自动化系统和方法
KR102518766B1 (ko) 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템
CN112135719B (zh) 机器学习装置以及具备该机器学习装置的机器人系统
JP2020082314A (ja) 学習装置、ロボット制御装置、及びロボット制御システム
JP2019063951A (ja) 作業システム、作業システムの制御方法及びプログラム
JP2020091126A (ja) 計測装置、システム、表示方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7050573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150