JP2019010724A - 物品配置システム及び食品盛り付けシステム - Google Patents
物品配置システム及び食品盛り付けシステム Download PDFInfo
- Publication number
- JP2019010724A JP2019010724A JP2018097448A JP2018097448A JP2019010724A JP 2019010724 A JP2019010724 A JP 2019010724A JP 2018097448 A JP2018097448 A JP 2018097448A JP 2018097448 A JP2018097448 A JP 2018097448A JP 2019010724 A JP2019010724 A JP 2019010724A
- Authority
- JP
- Japan
- Prior art keywords
- food
- recommended
- unit
- robot arm
- article
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
また、オペレータが反力を感じながらマスタシステムを操作した結果に基づいて推奨把持力を算出するので、推奨把持力を好適に設定することができる。
また、物品の特性に応じた好適な配置を行うことができる。
図1及び図2に示すように、本発明の第一の参考形態に係る食品盛り付けシステム1Aは、マスタ−スレーブシステムを用いてオペレータ2が遠隔地から食品3を容器4(弁当箱等)に盛り付けるシステムである。食品盛り付けシステム1は、複数のマスタシステム5と、工場側システム6と、複数のスレーブシステム7と、サーバ8と、を備える。複数のマスタシステム5、複数のスレーブシステム7及びサーバ8は、互いに通信可能に接続されている。
マスタシステム5は、一つのスレーブシステム7を操作するためにオペレータ2の自宅等に設けられるシステムである。マスタシステム5は、手指検出部10と、表示部20と、操作部30と、制御部40と、を備える。
手指検出部10は、オペレータ2の一方の手指(例えば、右手)に装着され、手の位置及び指(少なくとも、親指及び人差し指)の動作(及び/又は位置)を検出するセンサである。手指検出部10の検出結果は、制御部40へ出力される。手指検出部10は、手の位置を検出する位置センサ、指の関節の角度を検出する角度センサ、指の動作を検出する加速度センサ等によって具現化可能である。
表示部20は、後記する撮影部220の撮影結果をオペレータ2に対して表示するための装置である。表示部20は、オペレータ2の頭部に装着可能なモニタ等によって具現化可能である。
操作部30は、オペレータ2によって操作される装置である。操作部30の操作結果は、制御部40へ出力される。操作部30は、キーボード、マウス等によって具現化可能である。また、操作部30は、マイクを用いた音声認識、アイトラッキング(視線計測)システム等によっても具現化可能である。例えば、後記する制御部40は、音声認識による画面切替等によって表示部20に操作画面を表示させ、アイトラッキングシステムによって計測された視点をマウス代わりとすることができる。
制御部40は、CPU(Central Processing Unit)、ROM(Read-Only Memory)、RAM(Random Access Memory)、入出力回路等によって構成されており、手指検出部10、表示部20及び操作部30を制御する。制御部40は、手指検出部10の検出結果をスレーブシステム7の制御部240へ送信する。また、制御部40は、スレーブシステム7の撮影部220の撮影結果を受信し、受信した撮影結果を表示部20に表示させる。また、制御部40は、操作部30の操作結果をサーバ8へ送信する。
工場側システム6は、食品工場等に設けられており、食品3が用意されるとともに食品3が盛り付けられる容器4を搬送するシステムである。本参考形態において、工場側システム6は、ベルトコンベア110と、複数の食品載置部120と、を備える。
ベルトコンベア110は、ベルト本体111と、モータ112と、制御部113と、を備える。ベルト本体111は、その長手方向(図1における白抜き矢印参照)に移動可能である。モータ112は、ベルト本体111を長手方向に移動させる駆動源である。制御部113は、CPU、ROM、RAM、入出力回路等によって構成されており、モータ112を制御する。
食品載置部120は、ベルト本体111の脇に設けられており、食品3が載置されている。本参考形態では、1つの食品載置部120に1種類の食品3が用意されている。食品載置部120は、テーブル、トレー等によって具現化可能である。
スレーブシステム7は、食品工場等に設けられており、オペレータ2によるマスタシステム5の操作結果に基づいて、食品載置部120に用意された食品3をベルト本体111上の容器4に盛り付けるシステムである。スレーブシステム7は、ロボットアーム210と、撮影部220と、反力検出部230と、制御部240と、を備える。
ロボットアーム210は、食品載置部120に対応してベルト本体111の脇に設けられている。ロボットアーム210は、複数の関節部を有するアーム部211と、アーム部211の先端部に設けられており食品3を把持可能なハンド部212と、を備える。
撮影部220は、食品3を撮影するカメラである。撮影部220は、ハンド部212によって食品3が把持された状態を撮影したり、食品3が容器4に盛り付けられた状態を撮影したりする。本参考形態において、撮影部220は、第一の撮影部220Xと、第二の撮影部220Yと、を備える。第一の撮影部220Xは、アーム部211とは別置きで設けられている。第一の撮影部220Xの向きは、ベルト本体111上の容器4、食品載置部120及びロボットアーム210が第一の撮影部220Xの撮影領域に入るように設定されている。第二の撮影部220Yは、アーム部211に取り付けられている。第二の撮影部220Yの向きは、ハンド部212が第二の撮影部220Yの撮影領域に入るように設定されている。すなわち、第一の撮影部220Xは、容器4、食品載置部120及びロボットアーム210を定点から全体的に撮影する。第一の撮影部220Xの撮影結果は、ロボットアーム210(特にハンド部212)の動きを見たり、第二の参考形態において食品3の盛り付け結果の評価規則を機械学習によって生成したりするのに好適である。第二の撮影部220Yは、ロボットアーム210による食品3の把持動作及び把持された食品3を撮影する。第二の撮影部220Yの撮影結果は、第二の参考形態において食品3の推奨把持力及び推奨把持位置を機械学習によって決定するのに好適である。
反力検出部230は、ロボットアーム210のハンド部212が食品3を把持した際に当該食品3からハンド部212に作用する反力の大きさを検出するセンサである。反力検出部230は、圧力センサ等によって具現化可能である。
制御部240は、CPU、ROM、RAM、入出力回路等によって構成されており、ロボットアーム210、撮影部220(220X,220Y)及び反力検出部230を制御する。制御部240は、撮影部220(220X,220Y)の撮影結果をマスタシステム5の制御部40へ送信する。また、制御部240は、反力検出部230の検出結果をマスタシステム5の制御部40へ送信する。また、制御部240は、マスタシステム5の手指検出部10の検出結果を受信し、受信した手指検出部10の検出結果に基づいてロボットアーム210のアーム部211及びハンド部212を制御する。
サーバ8は、CPU、ROM、RAM、入出力回路等によって構成されており、複数のマスタシステム5及び複数のスレーブシステム7を統括的に管理する装置である。本参考形態において、サーバ8は、食品3ごとに予め決められた推奨把持力及び/又は把持力最大値を記憶している。ここで、把持力最大値は、推奨把持力よりも大きい値であって、それよりも大きい把持力で食品3を把持すると食品3が破損するおそれがあるという値である。また、サーバ8は、後記する第二の参考形態において機械学習に使用する学習用データを保存する。学習用データとしては、撮影部220(220X,220Y)の撮影結果及び反力検出部230の検出結果であって、食品3ごとの把持及び配置の成功時及び失敗時の把持位置、把持力及び配置位置に関するデータが挙げられる。把持の成功及び失敗、並びに、盛り付け(配置)の成功及び失敗に関しては、オペレータ2又は画像を見た評価者による評価結果が利用可能である。例えば、サーバ8は、当該サーバ8に記憶された、ロボットアーム210による食品3の把持画像を表示装置に表示させる。評価者は、表示装置に表示された画像を見て、把持失敗であると評価した場合には、その旨を入力装置に入力する。サーバ8は、入力結果に基づいて、失敗フラグを表示中の画像に紐付けて記憶する。かかる場合において、サーバ8及び後記するAIサーバ9(図4参照)は、失敗フラグが紐付けられていない画像を把持成功画像と認識するとともに、失敗フラグが紐付けられている画像を把持失敗画像と認識することが可能となる。これは、食品3の盛り付け(配置)に関しても同様である。すなわち、食品3の盛り付け結果を見た評価者による評価結果(成功/失敗)が、盛り付け結果の撮影画像に紐付けられる。
続いて、本発明の第一の参考形態に係る食品盛り付けシステム1Aの動作例について説明する。
まず、準備作業として、スレーブシステム7側の作業者が、食品載置部120に食品3をセットし、食品載置部120ごとにセットされた食品3の種類をサーバ8に登録する。続いて、オペレータ2が操作部30をログイン操作すると、サーバ8は、ログイン操作に基づいて当該マスタシステム5と一のスレーブシステム7とを関連付ける。これにより、互いに関連付けられたマスタシステム5の制御部40とスレーブシステム7の制御部240とが通信可能な状態となる。また、制御部240は、サーバ8から当該制御部240に対応する食品3の推奨把持力及び/又は把持力最大値を取得する。続いて、オペレータ2が、マスタシステム5の手指検出部10及び表示部20を装着する。
マスタシステム5は、反力発生部50をさらに備える。反力発生部50は、オペレータ2の手指に装着される。反力発生部50は、スレーブシステム7の反力検出部230の検出結果に基づいて、スレーブシステム7のハンド部212が食品3を把持した際に当該ハンド部212に生じる食品3からの反力を模擬的に発生する。すなわち、反力発生部50は、食品3からの反力をオペレータ2に模擬的に体感させるための装置である。反力発生部50は、アクチュエータ等によって具現化可能である。
また、食品盛り付けシステム1Aは、反力検出部230の検出結果が反力発生部50によって模擬的な反力として再現されるので、マスタ−スレーブシステムを用いたオペレータ2による食品3の把持動作を好適に支援することができる。
また、食品盛り付けシステム1Aは、オペレータ2の食品工場への出勤を不要とし、食品工場の立地によらない広い地域からの勤務や時差を利用した24時間稼働を可能とする。
また、食品盛り付けシステム1Aは、オペレータ2による盛り付け作業の履歴を大量に収集して解析することによって、将来的なロボットによる完全自動化のためのデータを好適に生成することができる。
続いて、本発明の第二の参考形態に係る食品盛り付けシステムについて、第一の参考形態に係る食品盛り付けシステム1Aとの相違点を中心に説明する。図4に示すように、本発明の第二の参考形態に係る食品盛り付けシステム1Bは、AI(Artificial Intelligence)サーバ9と、をさらに備える。AIサーバ9は、サーバ8と通信可能に接続されている。
AIサーバ9は、CPU、ROM、RAM、入出力回路等によって構成されており、サーバ8から送信されたデータをビッグデータとして解析する装置である。本参考形態において、マスタシステム5の制御部40は、手指検出部10の検出結果及び操作部30の操作結果をサーバ8へ送信する。また、スレーブシステム7の制御部240は、撮影部220(220X,220Y)の撮影結果及び反力検出部230の検出結果を、サーバ8を介してAIサーバ9へ送信する。AIサーバ9は、撮影部220(220X,220Y)の撮影結果及び反力検出部230の検出結果を記憶し、これらを用いて機械学習を行う。
食品盛り付けシステム1Bは、食品盛り付け学習システム(物品配置学習システム)として、食品3の種類の判別規則、推奨把持位置、推奨把持力及び盛り付け結果の評価規則を盛り付け作業に先立って事前に機械学習する。すなわち、食品盛り付け学習システムのマスタシステム5及びスレーブシステム7は、オペレータ2によって、前記した基本動作例を複数回(例えば、数千回以上)繰り返す。スレーブシステム7の制御部240は、撮影部220(220X,220Y)によるハンド部212が食品3を把持した状態の撮影結果と、反力検出部230によるハンド部212が食品3を把持した状態の反力の検出結果と、をサーバ8を介してAIサーバ9へ送信する。
本参考形態において、制御部40は、食品3の種類の判別規則41a及び盛り付け結果の評価規則41cを記憶部41に記憶しているとともに、食品3の種類と、推奨把持位置と、推奨把持力と、を関連付けたデータベース41bを記憶部41に記憶している。制御部40は、食品載置部120に用意された食品3が撮影された撮影画像を表示部20に表示させる際に、前記した機械学習結果すなわち判別規則41aに基づいて、食品3の種類を判別する。
図5に示すように、制御部40は、食品3の種類の判別結果に基づいて、推奨把持位置3c及び推奨把持位置3cにおける推奨把持力3bを撮影部220の撮影画像に合成して表示部20に表示させる。ここで、制御部40は、食品3の種類の判別結果を用いて前記データベース41bを参照し、食品3の種類と関連付けられた推奨把持位置3c及び推奨把持力3bを読み出す。本参考形態において、推奨把持位置3cは、食品3の把持すべき位置を示すマーカとして表示される。また、推奨把持力3bは、推奨把持位置3cのマーカの色としても表示される(例えば、濃色:推奨把持力大、淡色:推奨把持力小)。なお、制御部40は、データベース41bを参照することによって、食品3の種類と関連付けられた把持力最大値を読み出し、読み出された把持力最大値を撮影画像に合成する構成であってもよい。
また、図6に示すように、制御部40は、ハンド部212が食品3を把持した状態において、推奨把持位置3c及び推奨把持力3bに加えて、反力検出部230によって検出された食品3からの反力すなわち把持力3aを、撮影画像に合成して表示部に表示させる。
また、図7に示すように、制御部40は、食品3が容器4に盛り付けられた状態において、盛り付け結果を評価し、評価結果3dを撮影画像に合成して表示部20に表示させる。制御部40は、食品3の盛り付け結果の評価規則41cを予め記憶しており、かかる評価規則41cを用いて実際の盛り付け結果を評価する。本参考形態において、評価結果3dは、〇(合格、例えば、100点満点で80点以上)×(不合格、例えば、100点満点で80点未満)として表示される。また、制御部40は、評価結果3dが不合格である場合に、食品3の推奨状態3eを撮影画像に合成して表示部20に表示させ、オペレータ2に対して盛り付けの是正作業を指示する。
また、食品盛り付けシステム1Bは、評価結果3dが不合格である場合には、是正作業をオペレータ2に指示するので、オペレータ2による食品3の盛り付け作業を好適に支援することができる。
続いて、本発明の第三の実施形態に係る食品盛り付けシステムについて、第二の参考形態に係る食品盛り付けシステム1Bとの相違点を中心に説明する。
図4に示すように、本発明の第三の参考形態に係る食品盛り付けシステム1Cにおいて、サーバ8は、マスタシステム5の手指検出部10の検出結果、並びに、スレーブシステム7のロボットアーム210の動作結果、撮影部220の撮影結果及び反力検出部230の検出結果の少なくとも一つ(本参考形態では、全部)を受信し、受信したデータをオペレータ2の作業履歴として記憶する。
また、食品盛り付けシステム1Cは、オペレータ2の作業適性を判定し、判定結果に基づいてオペレータ2(マスタシステム5)をスレーブシステム7に割り当てるので、複数のオペレータ2の作業の分担を好適に行うことができる。
続いて、本発明の第一の実施形態に係る食品盛り付けシステムについて、第三の参考形態に係る食品盛り付けシステム1Cとの相違点を中心に説明する。
食品盛り付けシステム1Dは、食品盛り付け学習システム(物品配置学習システム)として、食品3の種類の判別規則、推奨把持位置、推奨把持力及び盛り付け結果の評価規則を盛り付け作業に先立って事前に機械学習する。すなわち、食品盛り付けシステム1Dのマスタシステム5D及びスレーブシステム7Dは、食品盛り付けの熟練者であるオペレータ2によって、前記した基本動作例を複数回(例えば、数千回以上)繰り返す。オペレータ2は反力発生部50によって発生される反力を感じながら、スレーブシステム7Dを操作することによって食品3の盛り付けを行う。スレーブシステム7Dの制御部240は、撮影部220(220X,220Y)によるハンド部212Dが食品3を把持した状態の撮影結果と、反力検出部230によるハンド部212Dが食品3を把持した状態の反力の検出結果と、をサーバ8を介してAIサーバ9へ送信する。
続いて、本発明の第一の実施形態に係る食品盛り付けシステム1Dの動作例について、図11のフローチャート並びに図12及び図13の画面例を参照して説明する(適宜図10参照)。
本実施形態において、制御部40は、食品3の種類の判別規則41a及び盛り付け結果の評価規則41cを記憶部41に記憶しているとともに、食品3の種類と、推奨把持位置と、推奨把持力と、推奨把持直前位置姿勢と、推奨配置直前位置姿勢と、推奨配置動作と、を関連付けたデータベース41bを記憶部41に記憶している。制御部40は、食品載置部120に用意された食品3が撮影された撮影画像を表示部20に表示させる際に、前記した機械学習結果すなわち判別規則41aに基づいて、食品3の種類を判別する。
図12に示すように、制御部40は、食品3の種類の判別結果に基づいて、推奨把持位置3f及びハンド部212Dの推奨把持直前位置姿勢3gを撮影部220の撮影画像に合成して表示部20に表示させる。ここで、制御部40は、食品3の種類の判別結果を用いて前記データベース41bを参照し、食品3の種類と関連付けられた推奨把持位置3f及び推奨把持直前位置姿勢3gを読み出す。本実施形態において、推奨把持位置3fは、ハンド部212Dの指部ごとに、食品3の把持すべき位置を示すマーカとして表示される。また、推奨把持直前位置姿勢3gは、仮想線として表示される。オペレータ2は、かかる合成画像を見ながらマスタシステム5を操作し、ハンド部212Dを推奨把持直前位置姿勢3gに合わせようとする。制御部240は、マスタシステム5の操作結果(手指検出部10の検出結果)に基づいて、ロボットアーム210を制御する(ステップS1でNo→ステップS2)。制御部240は、ハンド部212Dが推奨把持直前位置姿勢3gであると判定した場合(ステップS1でYes)に、マスタシステム5の操作結果によらずに、予め設定された推奨把持力に基づいて、ハンド部212Dに食品3を把持させる(ステップS3)。
また、食品盛り付けシステム1Dは、オペレータ2が反力を感じながらマスタシステム5Dを操作した結果に基づいて推奨把持力を算出するので、推奨把持力を好適に設定することができる。
また、食品盛り付けシステム1Dは、実際の配置作業段階においては、反力検出部230及び反力発生部50を省略することができる。
また、食品盛り付けシステム1Dは、食品3の特性に応じた好適な配置を行うことができる。
続いて、本発明の第一の実施形態に係る食品盛り付けシステム1Dの他の動作例について、図14を参照して説明する(適宜図10等参照)。
図14に示すように、制御部240は、3本の指部212b(親指部212b1、人差し指部21b2及び中指部212b3)に食品3の推奨把持位置3fを把持させるとともに、2本の指部212b(薬指部212b4及び小指部212b5)に食品3の推奨支持位置3jを支持させる。
続いて、制御部240は、アーム部211を制御することによって食品3を所定高さまで持ち上げた後、2本の指部212b(薬指部212b4及び小指部212b5)に食品3の推奨支持位置3jを支持させる。
続いて、制御部240は、アーム部211を制御することによって食品3を所定高さまで下げた後、中指部212b3に食品3の把持を解除させる。
続いて、制御部240は、アーム部211を制御することによって食品3を推奨配置位置の高さまで下げた後、親指部212b1及び人差し指部212b2に食品3の把持を解除させる。
ここで、推奨把持力は、弱める前の把持力であってもよく、弱めた後の把持力であってもよく、両方にそれぞれ設定されていてもよい。
また、制御部240は、撮影部220の撮影結果等に基づいて、食品3の把持前と把持後との変形量を算出する。
制御部240は、指部212b(親指部212b1、人差し指部212b2及び中指部212b3)によって把持された食品3の変形量が許容変形量以下である場合に、把持成功と判定する。また、制御部240は、食品3の変形量が許容変形量よりも大きい場合に、把持失敗と判定し、把持動作をやり直す。
続いて、本発明の第二の実施形態に係る食品盛り付けシステムについて、第一の実施形態に係る食品盛り付けシステム1Dとの相違点を中心に説明する。
2 オペレータ
3 食品(物品)
4 容器
5,5D マスタシステム
7,7D,7E スレーブシステム
8 サーバ(制御部)
9 AIサーバ(制御部)
10,10D 手指検出部
20 表示部
40 制御部
210 ロボットアーム
220 撮影部
230 反力検出部
Claims (4)
- オペレータの指の動作を検出する手指検出部と、
表示部と、
を有するマスタシステムと、
前記手指検出部の検出結果に基づいて動作するロボットアームと、
物品及び当該物品を把持する前記ロボットアームを撮影する撮影部と、
を有するスレーブシステムと、
前記撮影部の撮影結果を前記表示部に表示させる制御部と、
を備え、
前記制御部は、
前記物品の種類に対応する前記ロボットアームの推奨把持直前位置姿勢を前記表示部に表示させるとともに、
前記ロボットアームが前記推奨把持直前位置姿勢である場合に、推奨把持力に基づいて前記ロボットアームに前記物品の推奨把持位置を把持させ、
前記推奨把持位置及び前記推奨把持直前位置姿勢は、前記物品の種類ごとに前記撮影部によって撮影された、前記ロボットアームによって把持された当該物品の画像を機械学習することによって前記物品の種類ごとに決定されており、
前記推奨把持力は、前記ロボットアームが前記物品を把持した際に当該物品から当該ロボットアームに作用するとともにマスタシステムにおいて発生される反力を機械学習することによって前記物品の種類ごとに算出されている
ことを特徴とする物品配置システム。 - オペレータの指の動作を検出する手指検出部と、
表示部と、
を有するマスタシステムと、
前記手指検出部の検出結果に基づいて動作するロボットアームと、
物品及び当該物品を把持する前記ロボットアームを撮影する撮影部と、
を有するスレーブシステムと、
前記撮影部の撮影結果を前記表示部に表示させる制御部と、
を備え、
前記制御部は、
前記物品の種類に対応する前記ロボットアームの推奨配置直前位置姿勢を前記表示部に表示させるとともに、
前記ロボットアームが前記推奨配置直前位置姿勢である場合に、推奨配置動作に基づいて前記ロボットアームを制御することによって、前記物品を推奨配置位置に配置させ、
前記推奨配置位置及び前記推奨配置直前位置姿勢は、前記物品の種類ごとに前記撮影部によって撮影された、前記ロボットアームによって把持された当該物品の画像を機械学習することによって前記物品の種類ごとに決定されており、
前記推奨配置動作は、当該ロボットアームに作用する反力を発生可能なマスタシステムの操作に伴う前記ロボットアームによる前記物品の配置動作を機械学習することによって前記物品の種類ごとに決定されている
ことを特徴とする物品配置システム。 - オペレータの指の動作を検出する手指検出部と、
表示部と、
を有するマスタシステムと、
前記手指検出部の検出結果に基づいて動作するロボットアームと、
食品及び当該食品を把持する前記ロボットアームを撮影する撮影部と、
を有するスレーブシステムと、
前記撮影部の撮影結果を前記表示部に表示させる制御部と、
を備え、
前記制御部は、
前記食品の種類に対応する前記ロボットアームの推奨把持直前位置姿勢を前記表示部に表示させるとともに、
前記ロボットアームが前記推奨把持直前位置姿勢である場合に、推奨把持力に基づいて前記ロボットアームの2本の指部に前記食品の推奨把持位置を把持させるとともに、前記ロボットアームの他の指部に前記食品の推奨支持位置を支持させ、
前記推奨把持位置、前記推奨支持位置及び前記推奨把持直前位置姿勢は、前記食品の種類ごとに前記撮影部によって撮影された、前記ロボットアームによって把持及び支持された当該食品の画像を機械学習することによって前記食品の種類ごとに決定されており、
前記推奨把持力は、前記ロボットアームが前記食品を把持した際に当該食品から当該ロボットアームに作用するとともにマスタシステムにおいて発生される反力を機械学習することによって前記食品の種類ごとに算出されている
ことを特徴とする食品盛り付けシステム。 - 前記制御部は、2本の前記指部によって把持された前記食品の変形量が許容変形量以下である場合に、把持成功と判定する
ことを特徴とする請求項3に記載の食品盛り付けシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017129989 | 2017-06-30 | ||
JP2017129989 | 2017-06-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019010724A true JP2019010724A (ja) | 2019-01-24 |
JP7050573B2 JP7050573B2 (ja) | 2022-04-08 |
Family
ID=65226163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018097448A Active JP7050573B2 (ja) | 2017-06-30 | 2018-05-21 | 物品配置システム及び食品盛り付けシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7050573B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020194883A1 (ja) * | 2019-03-26 | 2020-10-01 | コベルコ建機株式会社 | 遠隔操作システム |
JPWO2020261881A1 (ja) * | 2019-06-27 | 2020-12-30 | ||
JP2021016908A (ja) * | 2019-07-18 | 2021-02-15 | 京セラドキュメントソリューションズ株式会社 | 学習装置、ロボット制御システム及び学習制御方法 |
WO2021065311A1 (ja) * | 2019-09-30 | 2021-04-08 | テルモ株式会社 | アクチュエータ及びロボットカテーテルシステム |
WO2022230280A1 (ja) * | 2021-04-27 | 2022-11-03 | 株式会社日立製作所 | ロボット制御システム、ロボット制御方法及びプログラム |
WO2023022237A1 (ja) * | 2021-08-19 | 2023-02-23 | 京セラ株式会社 | ロボットの保持態様決定装置、保持態様決定方法、及びロボット制御システム |
KR20230122443A (ko) * | 2022-02-14 | 2023-08-22 | 경희대학교 산학협력단 | 사람형 로봇 손의 처리 시스템 |
US11993922B2 (en) | 2019-03-26 | 2024-05-28 | Kobelco Construction Machinery Co., Ltd. | Remote operation system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060083513A (ko) * | 2005-01-17 | 2006-07-21 | 엘에스전선 주식회사 | 전자파 차폐 특성이 우수한 시스 재료 조성물 및 이로부터형성된 시스체를 구비하는 통신 케이블 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09109069A (ja) * | 1995-10-13 | 1997-04-28 | Gen Sugano | パワード・インテリジェント方法及びユニット |
JP2015116660A (ja) * | 2013-11-13 | 2015-06-25 | パナソニックIpマネジメント株式会社 | マスタースレーブ装置用マスター装置及びその制御方法、及び、マスタースレーブ装置 |
WO2016132399A1 (ja) * | 2015-02-19 | 2016-08-25 | 日揮株式会社 | 細胞培養加工設備 |
-
2018
- 2018-05-21 JP JP2018097448A patent/JP7050573B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09109069A (ja) * | 1995-10-13 | 1997-04-28 | Gen Sugano | パワード・インテリジェント方法及びユニット |
JP2015116660A (ja) * | 2013-11-13 | 2015-06-25 | パナソニックIpマネジメント株式会社 | マスタースレーブ装置用マスター装置及びその制御方法、及び、マスタースレーブ装置 |
WO2016132399A1 (ja) * | 2015-02-19 | 2016-08-25 | 日揮株式会社 | 細胞培養加工設備 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7287045B2 (ja) | 2019-03-26 | 2023-06-06 | コベルコ建機株式会社 | 遠隔操作システム |
JP2020161934A (ja) * | 2019-03-26 | 2020-10-01 | コベルコ建機株式会社 | 遠隔操作システム |
US11993922B2 (en) | 2019-03-26 | 2024-05-28 | Kobelco Construction Machinery Co., Ltd. | Remote operation system |
WO2020194883A1 (ja) * | 2019-03-26 | 2020-10-01 | コベルコ建機株式会社 | 遠隔操作システム |
WO2020261881A1 (ja) * | 2019-06-27 | 2020-12-30 | パナソニックIpマネジメント株式会社 | エンドエフェクタの制御システムおよびエンドエフェクタの制御方法 |
JP7186349B2 (ja) | 2019-06-27 | 2022-12-09 | パナソニックIpマネジメント株式会社 | エンドエフェクタの制御システムおよびエンドエフェクタの制御方法 |
JPWO2020261881A1 (ja) * | 2019-06-27 | 2020-12-30 | ||
JP2021016908A (ja) * | 2019-07-18 | 2021-02-15 | 京セラドキュメントソリューションズ株式会社 | 学習装置、ロボット制御システム及び学習制御方法 |
WO2021065311A1 (ja) * | 2019-09-30 | 2021-04-08 | テルモ株式会社 | アクチュエータ及びロボットカテーテルシステム |
WO2022230280A1 (ja) * | 2021-04-27 | 2022-11-03 | 株式会社日立製作所 | ロボット制御システム、ロボット制御方法及びプログラム |
WO2023022237A1 (ja) * | 2021-08-19 | 2023-02-23 | 京セラ株式会社 | ロボットの保持態様決定装置、保持態様決定方法、及びロボット制御システム |
KR20230122443A (ko) * | 2022-02-14 | 2023-08-22 | 경희대학교 산학협력단 | 사람형 로봇 손의 처리 시스템 |
KR102631984B1 (ko) | 2022-02-14 | 2024-01-30 | 경희대학교 산학협력단 | 사람형 로봇 손의 처리 시스템 |
Also Published As
Publication number | Publication date |
---|---|
JP7050573B2 (ja) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7050573B2 (ja) | 物品配置システム及び食品盛り付けシステム | |
CN109483573B (zh) | 机器学习装置、机器人系统以及机器学习方法 | |
US10959795B2 (en) | Remote-control manipulator system and method of operating the same | |
JP6540472B2 (ja) | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム | |
CN110784708B (zh) | 感测系统、作业系统、扩展现实图像的显示方法、扩展现实图像的存储方法以及程序 | |
US20120053728A1 (en) | Object-learning robot and method | |
JP6671694B1 (ja) | 機械学習装置、機械学習システム、データ処理システム及び機械学習方法 | |
CN110958425A (zh) | 信息处理装置、信息处理方法和系统 | |
US20220212340A1 (en) | Control device, control system, mechanical apparatus system, and controlling method | |
JP2021030407A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11584016B2 (en) | Robot controller and system | |
JP6869060B2 (ja) | マニピュレータの制御装置、制御方法およびプログラム、ならびに作業システム | |
CN110871441A (zh) | 感测系统、作业系统、增强现实图像的显示方法、以及存储有程序的存储介质 | |
CN112276936A (zh) | 三维数据生成装置以及机器人控制系统 | |
US10722992B2 (en) | Workpiece placement system for placing workpiece in containment area or on jig | |
JP2020121352A (ja) | 物体把持システム | |
KR20210041040A (ko) | 로봇 시스템 | |
JP2008207262A (ja) | マニピュレータシステム | |
JP2015044257A (ja) | ロボット、ロボット制御方法、及びロボット制御プログラム | |
CN114269522A (zh) | 用于处理产品的自动化系统和方法 | |
KR102518766B1 (ko) | 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템 | |
CN112135719B (zh) | 机器学习装置以及具备该机器学习装置的机器人系统 | |
JP2020082314A (ja) | 学習装置、ロボット制御装置、及びロボット制御システム | |
JP2019063951A (ja) | 作業システム、作業システムの制御方法及びプログラム | |
JP2020091126A (ja) | 計測装置、システム、表示方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7050573 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |