JP7471541B1 - 把持力推定装置及び把持力推定方法 - Google Patents

把持力推定装置及び把持力推定方法 Download PDF

Info

Publication number
JP7471541B1
JP7471541B1 JP2023574318A JP2023574318A JP7471541B1 JP 7471541 B1 JP7471541 B1 JP 7471541B1 JP 2023574318 A JP2023574318 A JP 2023574318A JP 2023574318 A JP2023574318 A JP 2023574318A JP 7471541 B1 JP7471541 B1 JP 7471541B1
Authority
JP
Japan
Prior art keywords
gripping
sensing data
tool
force estimation
gripping force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023574318A
Other languages
English (en)
Inventor
凜 伊藤
ミナス リアロカピス
ジョアオ ペドロ サンサオ ブッザット
ジュンバン リィァン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP7471541B1 publication Critical patent/JP7471541B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

引っ張り器具が取り付けられる取付部(12)と、物体(2)を把持する部位である2つの物体把持部(13)とを備え、引っ張り器具によって取付部(12)が引っ張り上げられることによって、2つの物体把持部(13)が互いに近づくように変形する、キリガミ構造を有する把持具(1)の把持力を推定するものであって、把持具(1)の変形を観測するセンサのセンシングデータを取得するセンシングデータ取得部(31)と、センシングデータ取得部(31)により取得されたセンシングデータに基づいて、物体(2)に対する把持具(1)の把持力を推定する把持力推定部(32)とを備えるように、把持力推定装置(3)を構成した。

Description

本開示は、把持力推定装置及び把持力推定方法に関するものである。
物体を把持している把持具の把持力を推定する把持力推定装置がある。
このような把持力推定装置として、例えば、特許文献1には、把持装置を駆動するモータの駆動電流と、当該モータの回転速度とに基づいて、把持装置の把持力を推定する推定オブザーバが開示されている。
特開2002-178281号公報
モータによって駆動されるとは限らない把持具として、キリガミ構造を有する把持具がある。当該把持具は、引っ張り器具が取り付けられる取付部を備えている。引っ張り器具としては、例えば、手動のマジックハンド、トング、又は、ロボットのハンドがある。引っ張り器具によって取付部が引っ張り上げられることによって、把持具が変形する。把持具が変形することによって、把持具の一部である2つの物体把持部が互いに近づくようになり、その結果として、2つの物体把持部が物体を把持できるようになる。
上記のように、当該把持具は、既存の把持機構とは異なる、キリガミ構造という新たな構造の把持機構を有するものである。当該把持具は、モータによって駆動されることを必須としないこともあり、把持力の検出技術が存在していないという課題があった。
なお、特許文献1に開示されている、把持力を推定する技術は、把持装置がモータによって駆動されることを必須とするものであるため、キリガミ構造の把持機構による把持力の検出には適していない。
本開示は、上記のような課題を解決するためになされたもので、モータによって駆動されるとは限らない、キリガミ構造を有する把持具の把持力を推定することができる把持力推定装置を得ることを目的とする。
本開示に係る把持力推定装置は、引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、引っ張り器具によって取付部が引っ張り上げられることによって、2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定するものである。当該把持力推定装置は、把持具の変形によって変化する、物体把持部に取り付けられた中空体の内部圧力を検出するセンサにより検出された、内部圧力の情報を含むセンシングデータを取得するセンシングデータ取得部と、センシングデータ取得部により取得されたセンシングデータに含まれる内部圧力の情報に基づいて、物体に対する把持具の把持力を推定する把持力推定部とを備えている。
本開示によれば、モータによって駆動されるとは限らない、キリガミ構造を有する把持具の把持力を推定することができる。
実施の形態1に係る把持力推定装置3が適用される把持具1を示す構成図である。 把持具1が物体2を把持している様子を示す説明図である。 実施の形態1に係る把持力推定装置3を示す構成図である。 実施の形態1に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。 把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。 把持力推定装置3の処理手順である把持力推定方法を示すフローチャートである。 実施の形態2に係る把持力推定装置3を示す構成図である。 実施の形態2に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。 実施の形態3に係る把持力推定装置3を示す構成図である。 実施の形態3に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。 図11Aは、把持具1が物体2を把持する前の状態を示す説明図、図11Bは、物体把持部13が物体2に軽く触れた状態を示す説明図、図11Cは、把持具1が物体2を把持した状態を示す説明図である。 実施の形態4に係る把持力推定装置3を示す構成図である。 実施の形態4に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。 図14Aは、把持具1が物体2を把持する前の状態のときのマーカ4の位置を示す説明図、図14Bは、物体把持部13が物体2に軽く触れた状態のときのマーカ4の位置を示す説明図、図14Cは、把持具1が物体2を把持した状態のときのマーカ4の位置を示す説明図である。 実施の形態5に係る把持力推定装置3を示す構成図である。 実施の形態5に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。
以下、本開示をより詳細に説明するために、本開示を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る把持力推定装置3が適用される把持具1を示す構成図である。
図2は、把持具1が物体2を把持している様子を示す説明図である。
図1に示す把持具1は、切り欠き部11、2つの取付部12及び2つの物体把持部13を備えている。図1に示す把持具1は、2つの取付部12を備えている。しかし、これは一例に過ぎず、把持具1は、1つの取付部12を備えているものであってもよいし、3つ以上の取付部12を備えているものであってもよい。
把持具1は、例えば、弾性体によって実現される。弾性体としては、例えば、ゴム、又は、シリコンがある。
把持具1は、キリガミ構造を有している。
切り欠き部11は、キリガミ構造を形成するために、把持具1の概ね中心部に施されている切り欠きである。
2つの取付部12は、引っ張り器具が取り付けられる部位である。引っ張り器具は、モータによって駆動されるものには限られず、引っ張り器具としては、例えば、手動のマジックハンド、又は、トングがある。また、引っ張り器具としては、モータによって駆動される、ロボットのハンド等であってもよい。
2つの物体把持部13は、物体2を把持する部位である。
概ね中心部に切り欠きが施されることによって、引っ張り器具が、2つの取付部12のそれぞれに取り付けられて、引っ張り器具が、それぞれの取付部12を引っ張り上げると、2つの物体把持部13が互いに近づくようになる。その結果、2つの物体把持部13は、図2に示すように、物体2を把持することができるようになる。物体2は、どのような物体でもよいが、物体2としては、例えば、唐揚げ、くだもの、電子部品、又は、医療器具がある。図2では、物体2が、唐揚げである例を示している。また、図2では、引っ張り器具が、ロボットのハンドである例を示している。
図3は、実施の形態1に係る把持力推定装置3を示す構成図である。
図4は、実施の形態1に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。
図3において、中空体21は、例えば、エアパウチ、又は、ゴム等の弾性部材によって実現される。
中空体21は、把持具1における複数の部位のうち、物体2を把持する部位である物体把持部13に取り付けられる。
中空体21の内部圧力は、把持具1の変形に伴って変化する。
具体的には、引っ張り器具が取付部12を引っ張り上げているときの中空体21の内部圧力は、引っ張り器具が取付部12を引っ張り上げる前の中空体21の内部圧力よりも高くなる。
また、引っ張り器具が、2つの取付部12を互いに近づけるほど、中空体21の内部圧力が高くなる。
中空体21の一端は、塞がれており、中空体21の他端は、チューブ22の一端と接続されている。
図3の例では、中空体21が、物体把持部13の概ね全体を覆うように取り付けられている。中空体21が、物体把持部13のごく一部のみを覆うように取り付けられている場合、把持具1が変形しても、中空体21の内部圧力があまり変化しないためである。
チューブ22は、例えば、ゴム配管によって実現される。
チューブ22の一端は、中空体21の他端と接続されている。
チューブ22の他端は、圧力センサ23と接続されている。
チューブ22の内部には、中空体21の内部圧力が高くなることによって、中空体21の内部に存在していた空気が入り込み、チューブ22の内部圧力が高くなる。
圧力センサ23は、把持具1による物体2の把持に伴う、把持具1の変形を観測するセンサである。
具体的には、圧力センサ23は、把持具1の変形に伴って変化する、中空体21の内部圧力を観測するセンサである。
圧力センサ23は、中空体21の内部圧力を示すセンシングデータを把持力推定装置3に出力する。
図3に示す把持力推定装置3は、センシングデータ取得部31及び把持力推定部32を備えている。
センシングデータ取得部31は、例えば、図4に示すセンシングデータ取得回路41によって実現される。
センシングデータ取得部31は、圧力センサ23のセンシングデータを取得する。
センシングデータ取得部31は、圧力センサ23のセンシングデータを把持力推定部32に出力する。
把持力推定部32は、例えば、図4に示す把持力推定回路42によって実現される。
把持力推定部32は、センシングデータ取得部31から、圧力センサ23のセンシングデータを取得する。
把持力推定部32は、圧力センサ23のセンシングデータに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部32の内部メモリには、中空体21の内部圧力と物体2に対する把持具1の把持力との対応関係を示すテーブルが格納されている。
把持力推定部32は、テーブルから、センシングデータが示す内部圧力に対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部32は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
図3に示す把持力推定装置3では、テーブルが把持力推定部32の内部メモリに格納されている。しかし、これは一例に過ぎず、テーブルは、把持力推定部32の外部メモリに格納されていてもよい。
図3では、把持力推定装置3の構成要素であるセンシングデータ取得部31及び把持力推定部32のそれぞれが、図4に示すような専用のハードウェアによって実現されるものを想定している。即ち、把持力推定装置3が、センシングデータ取得回路41及び把持力推定回路42によって実現されるものを想定している。
センシングデータ取得回路41及び把持力推定回路42のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
把持力推定装置3の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、把持力推定装置3が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
図5は、把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合のコンピュータのハードウェア構成図である。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部31及び把持力推定部32におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムがメモリ51に格納される。そして、コンピュータのプロセッサ52がメモリ51に格納されているプログラムを実行する。
また、図4では、把持力推定装置3の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図5では、把持力推定装置3がソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、把持力推定装置3における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
次に、図3に示す把持力推定装置3の動作について説明する。
図6は、把持力推定装置3の処理手順である把持力推定方法を示すフローチャートである。
引っ張り器具が、把持具1における2つの取付部12を引っ張り上げると、2つの物体把持部13が互いに近づくようになる。その結果、2つの物体把持部13が、図2に示すように、物体2を把持することができるようになる。
中空体21は、引っ張り器具が取付部12を引っ張り上げることによって、変形する。
中空体21が変形することによって、中空体21の内部圧力は、上昇する。つまり、引っ張り器具が取付部12を引っ張り上げることによって、中空体21の内部圧力は、上昇する。引っ張り器具が、2つの取付部12を互いに近づけるほど、中空体21の内部圧力が高くなる。
チューブ22の内部には、中空体21の内部圧力が高くなることによって、中空体21の内部に存在していた空気が入り込み、チューブ22の内部圧力が高くなる。
圧力センサ23は、中空体21の内部圧力として、チューブ22の内部圧力を観測する。
圧力センサ23は、中空体21の内部圧力を示すセンシングデータを把持力推定装置3に出力する。
把持力推定装置3のセンシングデータ取得部31は、圧力センサ23のセンシングデータを取得する(図6のステップST1)。
センシングデータ取得部31は、圧力センサ23のセンシングデータを把持力推定部32に出力する。
把持力推定部32は、センシングデータ取得部31から、圧力センサ23のセンシングデータを取得する。
把持力推定部32は、内部メモリに格納しているテーブルから、センシングデータが示す中空体21の内部圧力に対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する(図6のステップST2)。
把持力推定部32は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
以上の実施の形態1では、引っ張り器具が取り付けられる取付部12と、物体2を把持する部位である2つの物体把持部13とを備え、引っ張り器具によって取付部12が引っ張り上げられることによって、2つの物体把持部13が互いに近づくように変形する、キリガミ構造を有する把持具1の把持力を推定するように、把持力推定装置3を構成した。把持力推定装置3は、把持具1の変形を観測するセンサのセンシングデータを取得するセンシングデータ取得部31と、センシングデータ取得部31により取得されたセンシングデータに基づいて、物体2に対する把持具1の把持力を推定する把持力推定部32とを備えている。したがって、把持力推定装置3は、モータによって駆動されるとは限らない、キリガミ構造を有する把持具1の把持力を推定することができる。
図3に示す把持力推定装置3は、引っ張り器具を制御する制御装置とは別個の装置であることを想定している。しかし、これは一例に過ぎず、図3に示す把持力推定装置3が当該制御装置に実装されているものであってもよい。
図2に示す把持具1では、中空体21が、把持具1における複数の部位のうち、物体2を把持する部位である物体把持部13に取り付けられている。中空体21が取り付けられる部位は、把持具1の変形に伴って変化する部位であればよく、例えば、切り欠き部11、又は、取付部12に取り付けられるものであってもよい。
図2に示す把持具1では、中空体21が物体把持部13に取り付けられ、把持具1の変形を観測するセンサとして、中空体21の内部圧力を観測する圧力センサ23が設けられている。しかし、把持具1の変形を観測するセンサは、中空体21の内部圧力を観測する圧力センサ23に限るものではなく、例えば、物体把持部13の変形を観測するひずみセンサであってもよい。ひずみセンサは、物体把持部13が変形すると、変形に伴うひずみを電気信号として検出するものである。把持具1の変形を観測するセンサとして、ひずみセンサが用いられる場合、把持力推定部32の内部メモリには、変形に伴うひずみに対応する電気信号と物体2に対する把持具1の把持力との対応関係を示すテーブルが格納される。
把持力推定部32は、内部メモリに格納しているテーブルから、センシングデータが示す電気信号に対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する。
実施の形態2.
実施の形態2では、把持力推定部33が、センシングデータ取得部31により取得されたセンシングデータを第1の学習モデル24に与えて、第1の学習モデル24から、センシングデータが示す内部圧力に対応する把持力を示す情報を取得する把持力推定装置3について説明する。
図7は、実施の形態2に係る把持力推定装置3を示す構成図である。図7において、図3と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
図8は、実施の形態2に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。図8において、図4と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
第1の学習モデル24は、例えば、ニューラルネットワークによって実現される。
第1の学習モデル24は、学習時において、中空体21の内部圧力を示す圧力データと、物体2に対する把持具1の把持力を示す教師データとが与えられると、圧力データが示す内部圧力に対応する把持具1の把持力を学習する。
第1の学習モデル24は、推論時において、センシングデータが与えられると、センシングデータが示す内部圧力に対応する把持力を示す情報を出力する。
図7に示す把持力推定装置3では、第1の学習モデル24が、把持力推定装置3の外部に設けられている。しかし、これは一例に過ぎず、第1の学習モデル24は、把持力推定装置3の内部に設けられていてもよい。
把持力推定部33は、例えば、図8に示す把持力推定回路43によって実現される。
把持力推定部33は、センシングデータ取得部31から、圧力センサ23のセンシングデータを取得する。
把持力推定部33は、圧力センサ23のセンシングデータに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部33は、センシングデータを第1の学習モデル24に与えて、第1の学習モデル24から、センシングデータが示す内部圧力に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部33は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
図7では、把持力推定装置3の構成要素であるセンシングデータ取得部31及び把持力推定部33のそれぞれが、図8に示すような専用のハードウェアによって実現されるものを想定している。即ち、把持力推定装置3が、センシングデータ取得回路41及び把持力推定回路43によって実現されるものを想定している。
センシングデータ取得回路41及び把持力推定回路43のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
把持力推定装置3の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、把持力推定装置3が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部31及び把持力推定部33におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図5に示すメモリ51に格納される。そして、図5に示すプロセッサ52がメモリ51に格納されているプログラムを実行する。
また、図8では、把持力推定装置3の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図5では、把持力推定装置3がソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、把持力推定装置3における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
次に、図7に示す把持力推定装置3の動作について説明する。把持力推定部33以外は、図3に示す把持力推定装置3と同様である。このため、ここでは、把持力推定部33の動作のみを説明する。
把持力推定部33は、センシングデータ取得部31から、圧力センサ23のセンシングデータを取得する。
把持力推定部33は、センシングデータを第1の学習モデル24に与える。
そして、把持力推定部33は、第1の学習モデル24から、センシングデータが示す内部圧力に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部33は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
以上の実施の形態2では、中空体21の内部圧力を示す圧力データと物体2に対する把持具1の把持力を示す教師データとが与えられて、中空体21の内部圧力に対応する把持力の学習が済んでいる第1の学習モデル24がある。把持力推定部33が、センシングデータ取得部31により取得されたセンシングデータを第1の学習モデル24に与えて、第1の学習モデル24から、センシングデータに対応する把持力を示す情報を取得するように、把持力推定装置3を構成した。したがって、把持力推定装置3は、モータによって駆動されるとは限らない、キリガミ構造を有する把持具1の把持力を推定することができる。
実施の形態3.
実施の形態3では、把持具1を撮影する視覚センサ25の撮像結果である撮影画像に基づいて、物体2に対する把持具1の把持力を推定する把持力推定部35を備える把持力推定装置3について説明する。
図9は、実施の形態3に係る把持力推定装置3を示す構成図である。図9において、図3及び図7と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
図10は、実施の形態3に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。図10において、図4及び図8と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
図9において、視覚センサ25は、把持具1の変形を観測するセンサである。
具体的には、視覚センサ25は、物体2を把持することによって変形する把持具1を撮影するセンサである。
視覚センサ25は、把持具1の撮影画像を示すセンシングデータを把持力推定装置3に出力する。
把持具1の撮影画像は、1枚以上の静止画であってもよいし、動画であってもよい。
第2の学習モデル26は、例えば、ニューラルネットワークによって実現される。
第2の学習モデル26は、学習時において、把持具1の撮影画像と物体2に対する把持具1の把持力を示す教師データとが与えられると、把持具1の撮影画像に対応する把持具1の把持力を学習する。
学習時に用いられる撮影画像は、1枚以上の静止画であってもよいし、動画であってもよい。
第2の学習モデル26は、推論時において、センシングデータが与えられると、センシングデータが示す撮影画像に対応する把持力を示す情報を出力する。
図9に示す把持力推定装置3では、第2の学習モデル26が、把持力推定装置3の外部に設けられている。しかし、これは一例に過ぎず、第2の学習モデル26は、把持力推定装置3の内部に設けられていてもよい。
図9に示す把持力推定装置3は、センシングデータ取得部34及び把持力推定部35を備えている。
センシングデータ取得部34は、例えば、図10に示すセンシングデータ取得回路44によって実現される。
センシングデータ取得部34は、視覚センサ25のセンシングデータを取得する。
センシングデータ取得部34は、視覚センサ25のセンシングデータを把持力推定部35に出力する。
把持力推定部35は、例えば、図10に示す把持力推定回路45によって実現される。
把持力推定部35は、センシングデータ取得部34から、視覚センサ25のセンシングデータを取得する。
把持力推定部35は、視覚センサ25のセンシングデータに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部35は、センシングデータを第2の学習モデル26に与えて、第2の学習モデル26から、センシングデータが示す撮影画像に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部35は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
図9に示す把持力推定装置3では、把持力推定部35が、センシングデータを第2の学習モデル26に与えて、第2の学習モデル26から、センシングデータが示す撮影画像に対応する把持力を示す情報を取得している。しかし、これは一例に過ぎず、把持力推定部35は、ルールベースに基づいて、センシングデータが示す撮影画像に対応する把持力を推定するようにしてもよい。
図9では、把持力推定装置3の構成要素であるセンシングデータ取得部34及び把持力推定部35のそれぞれが、図10に示すような専用のハードウェアによって実現されるものを想定している。即ち、把持力推定装置3が、センシングデータ取得回路44及び把持力推定回路45によって実現されるものを想定している。
センシングデータ取得回路44及び把持力推定回路45のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
把持力推定装置3の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、把持力推定装置3が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部34及び把持力推定部35におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図5に示すメモリ51に格納される。そして、図5に示すプロセッサ52がメモリ51に格納されているプログラムを実行する。
また、図10では、把持力推定装置3の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図5では、把持力推定装置3がソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、把持力推定装置3における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
次に、図9に示す把持力推定装置3の動作について説明する。
引っ張り器具が、把持具1における2つの取付部12を引っ張り上げると、2つの物体把持部13が互いに近づくようになる。その結果、2つの物体把持部13は、図2に示すように、物体2を把持することができるようになる。
引っ張り器具が、2つの取付部12を互いに近づけるほど、図11に示すように、切り欠き部11の開き具合が小さくなり、把持具1の把持力が大きくなる。
図11は、切り欠き部11における開き具合の違いを示す説明図である。図11では、物体2がミカンである例を示している。
図11Aは、把持具1が物体2を把持する前の状態を示す説明図であり、切り欠き部11が大きく開いている。
図11Bは、物体把持部13が物体2に軽く触れた状態を示す説明図であり、切り欠き部11は、物体2を把持する前よりも狭くなっている。
図11Cは、把持具1が物体2を把持した状態を示す説明図であり、切り欠き部11は、物体把持部13が物体2に軽く触れた状態よりも狭くなっている。
視覚センサ25は、引っ張り器具が取付部12を引っ張り上げることによって変形する把持具1を撮影する。
視覚センサ25は、把持具1の撮影画像を示すセンシングデータを把持力推定装置3に出力する。
把持力推定装置3のセンシングデータ取得部34は、視覚センサ25のセンシングデータを取得する。
センシングデータ取得部34は、視覚センサ25のセンシングデータを把持力推定部35に出力する。
把持力推定部35は、センシングデータ取得部34から、視覚センサ25のセンシングデータを取得する。
把持力推定部35は、センシングデータを第2の学習モデル26に与える。
そして、把持力推定部35は、第2の学習モデル26から、センシングデータが示す撮影画像に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部35は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
以上の実施の形態3では、センサが、把持具1を撮影する視覚センサ25である。センシングデータ取得部34が、視覚センサ25の撮像結果である撮影画像を示すセンシングデータを取得し、把持力推定部35が、センシングデータが示す撮影画像に基づいて、物体2に対する把持具1の把持力を推定するように、把持力推定装置3を構成した。したがって、把持力推定装置3は、モータによって駆動されるとは限らない、キリガミ構造を有する把持具1の把持力を推定することができる。
実施の形態4.
実施の形態4では、把持具1における複数の箇所のそれぞれにマーカ4が付されている。そして、視覚センサ25の撮像結果である撮影画像を第3の学習モデル27に与えて、第3の学習モデル27から、撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を取得する把持力推定部36を備える把持力推定装置3について説明する。
図12は、実施の形態4に係る把持力推定装置3を示す構成図である。図12において、図3、図7及び図9と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
図13は、実施の形態4に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。図13において、図4、図8及び図10と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
実施の形態4では、後述する図14に示すように、把持具1における複数の箇所のそれぞれにマーカ4が付されている。
第3の学習モデル27は、例えば、ニューラルネットワークによって実現される。
第3の学習モデル27は、学習時において、撮影画像に映っている複数のマーカ4の位置を示す位置データと物体2に対する把持具1の把持力を示す教師データとが与えられると、複数のマーカ4の位置に対応する把持具1の把持力を学習する。
第3の学習モデル27は、推論時において、センシングデータが与えられると、センシングデータが示す撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を出力する。
図12に示す把持力推定装置3では、第3の学習モデル27が、把持力推定装置3の外部に設けられている。しかし、これは一例に過ぎず、第3の学習モデル27は、把持力推定装置3の内部に設けられていてもよい。
図12に示す把持力推定装置3は、センシングデータ取得部34及び把持力推定部36を備えている。
把持力推定部36は、例えば、図13に示す把持力推定回路46によって実現される。
把持力推定部36は、センシングデータ取得部34から、視覚センサ25のセンシングデータを取得する。
把持力推定部36は、視覚センサ25のセンシングデータに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部36は、センシングデータが示す撮影画像を第3の学習モデル27に与えて、第3の学習モデル27から、撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部36は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
図12に示す把持力推定装置3では、把持力推定部36が、センシングデータが示す撮影画像を第3の学習モデル27に与えて、第3の学習モデル27から、撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を取得している。しかし、これは一例に過ぎず、把持力推定部36は、ルールベースに基づいて、撮影画像に映っている複数のマーカ4の位置に対応する把持力を推定するようにしてもよい。
図12では、把持力推定装置3の構成要素であるセンシングデータ取得部34及び把持力推定部36のそれぞれが、図13に示すような専用のハードウェアによって実現されるものを想定している。即ち、把持力推定装置3が、センシングデータ取得回路44及び把持力推定回路46によって実現されるものを想定している。
センシングデータ取得回路44及び把持力推定回路46のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
把持力推定装置3の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、把持力推定装置3が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部34及び把持力推定部36におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図5に示すメモリ51に格納される。そして、図5に示すプロセッサ52がメモリ51に格納されているプログラムを実行する。
また、図13では、把持力推定装置3の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図5では、把持力推定装置3がソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、把持力推定装置3における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
次に、図12に示す把持力推定装置3の動作について説明する。
引っ張り器具が、把持具1における2つの取付部12を引っ張り上げると、2つの物体把持部13が互いに近づくようになる。その結果、2つの物体把持部13は、図2に示すように、物体2を把持することができるようになる。
2つの取付部12の間の距離が変化すると、図14に示すように、把持具1のそれぞれの箇所に付されているマーカ4の位置が変化する。また、2つの取付部12の間の距離が変化すると、把持具1の把持力が変化する。
図14は、把持具1のそれぞれの箇所に付されているマーカ4の位置の違いを示す説明図である。
図14Aは、把持具1が物体2を把持する前の状態のときのマーカ4の位置を示す説明図であり、図14Bは、物体把持部13が物体2に軽く触れた状態のときのマーカ4の位置を示す説明図であり、図14Cは、把持具1が物体2を把持した状態のときのマーカ4の位置を示す説明図である。
状態の違いによって、マーカ4の位置が相違している。
視覚センサ25は、引っ張り器具が取付部12を引っ張り上げることによって変形する把持具1を撮影する。
視覚センサ25は、把持具1の撮影画像を示すセンシングデータを把持力推定装置3に出力する。
把持力推定装置3のセンシングデータ取得部34は、視覚センサ25のセンシングデータを取得する。
センシングデータ取得部34は、視覚センサ25のセンシングデータを把持力推定部36に出力する。
把持力推定部36は、センシングデータ取得部34から、視覚センサ25のセンシングデータを取得する。
把持力推定部36は、センシングデータが示す撮影画像を第3の学習モデル27に与える。
そして、把持力推定部36は、第3の学習モデル27から、撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部36は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
以上の実施の形態4では、撮影画像に映っている複数のマーカ4の位置を示す位置データと物体2に対する把持具1の把持力を示す教師データとが与えられて、複数のマーカ4の位置に対応する把持力の学習が済んでいる第3の学習モデル27がある。把持力推定部36が、視覚センサ25の撮像結果である撮影画像を第3の学習モデル27に与えて、第3の学習モデル27から、撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を取得するように、把持力推定装置3を構成した。したがって、把持力推定装置3は、モータによって駆動されるとは限らない、キリガミ構造を有する把持具1の把持力を推定することができる。
実施の形態5.
実施の形態5では、把持力推定部38が、圧力センサ23により観測された内部圧力と視覚センサ25の撮像結果である撮影画像とに基づいて、物体2に対する把持具1の把持力を推定する把持力推定装置3について説明する。
図15は、実施の形態5に係る把持力推定装置3を示す構成図である。図15において、図3、図7、図9及び図12と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
図16は、実施の形態5に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。図16において、図4、図8、図10及び図13と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
第4の学習モデル28は、例えば、ニューラルネットワークによって実現される。
第4の学習モデル28は、学習時において、中空体21の内部圧力を示す圧力データと、把持具1の撮影画像と、物体2に対する把持具1の把持力を示す教師データとが与えられると、圧力データが示す内部圧力と把持具1の撮影画像とに対応する把持具1の把持力を学習する。
第4の学習モデル28は、推論時において、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとが与えられると、センシングデータが示す内部圧力とセンシングデータが示す撮影画像とに対応する把持力を示す情報を出力する。
図15に示す把持力推定装置3では、第4の学習モデル28が、把持力推定装置3の外部に設けられている。しかし、これは一例に過ぎず、第4の学習モデル28は、把持力推定装置3の内部に設けられていてもよい。
図15に示す把持力推定装置3は、センシングデータ取得部37及び把持力推定部38を備えている。
センシングデータ取得部37は、例えば、図16に示すセンシングデータ取得回路47によって実現される。
センシングデータ取得部37は、圧力センサ23のセンシングデータと、視覚センサ25のセンシングデータとを取得する。
センシングデータ取得部31は、圧力センサ23のセンシングデータ及び視覚センサ25のセンシングデータのそれぞれを把持力推定部38に出力する。
把持力推定部38は、例えば、図16に示す把持力推定回路48によって実現される。
把持力推定部38は、センシングデータ取得部31から、圧力センサ23のセンシングデータ及び視覚センサ25のセンシングデータのそれぞれを取得する。
把持力推定部38は、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部38は、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとを第4の学習モデル28に与えて、第4の学習モデル28から、中空体21の内部圧力と把持具1の撮影画像とに対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部38は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
図15に示す把持力推定装置3では、把持力推定部38が、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとを第4の学習モデル28に与えて、第4の学習モデル28から、中空体21の内部圧力と把持具1の撮影画像とに対応する把持具1の把持力を示す情報を取得している。しかし、これは一例に過ぎず、把持力推定部38は、ルールベースに基づいて、中空体21の内部圧力と把持具1の撮影画像とに対応する把持力を推定するようにしてもよい。
図15では、把持力推定装置3の構成要素であるセンシングデータ取得部37及び把持力推定部38のそれぞれが、図16に示すような専用のハードウェアによって実現されるものを想定している。即ち、把持力推定装置3が、センシングデータ取得回路47及び把持力推定回路48によって実現されるものを想定している。
センシングデータ取得回路47及び把持力推定回路48のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
把持力推定装置3の構成要素は、専用のハードウェアによって実現されるものに限るものではなく、把持力推定装置3が、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現されるものであってもよい。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部37及び把持力推定部38におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図5に示すメモリ51に格納される。そして、図5に示すプロセッサ52がメモリ51に格納されているプログラムを実行する。
また、図16では、把持力推定装置3の構成要素のそれぞれが専用のハードウェアによって実現される例を示し、図5では、把持力推定装置3がソフトウェア又はファームウェア等によって実現される例を示している。しかし、これは一例に過ぎず、把持力推定装置3における一部の構成要素が専用のハードウェアによって実現され、残りの構成要素がソフトウェア又はファームウェア等によって実現されるものであってもよい。
次に、図15に示す把持力推定装置3の動作について説明する。
圧力センサ23は、中空体21の内部圧力として、チューブ22の内部圧力を観測する。
圧力センサ23は、中空体21の内部圧力を示すセンシングデータを把持力推定装置3に出力する。
視覚センサ25は、引っ張り器具が取付部12を引っ張り上げることによって変形する把持具1を撮影する。
視覚センサ25は、把持具1の撮影画像を示すセンシングデータを把持力推定装置3に出力する。
把持力推定装置3のセンシングデータ取得部37は、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとを取得する。
センシングデータ取得部37は、圧力センサ23のセンシングデータ及び視覚センサ25のセンシングデータのそれぞれを把持力推定部38に出力する。
把持力推定部38は、センシングデータ取得部37から、圧力センサ23のセンシングデータ及び視覚センサ25のセンシングデータのそれぞれを取得する。
把持力推定部38は、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとを第4の学習モデル28に与える。
そして、把持力推定部38は、第4の学習モデル28から、圧力センサ23のセンシングデータが示す中空体21の内部圧力と視覚センサ25のセンシングデータが示す撮影画像とに対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部38は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
以上の実施の形態5では、センシングデータ取得部37が、圧力センサ23により観測された内部圧力を示すセンシングデータと、視覚センサ25の撮像結果である撮影画像を示すセンシングデータとを取得し、把持力推定部38が、圧力センサ23により観測された内部圧力と撮影画像とに基づいて、物体2に対する把持具1の把持力を推定するように、図15に示す把持力推定装置3を構成した。したがって、図15に示す把持力推定装置3は、モータによって駆動されるとは限らない、キリガミ構造を有する把持具1の把持力を推定することができる。また、図15に示す把持力推定装置3は、図7に示す把持力推定装置3、又は、図9に示す把持力推定装置3よりも、把持力の推定精度を高めることができる。
なお、本開示は、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
本開示は、把持力推定装置及び把持力推定方法に適している。
1 把持具、2 物体、3 把持力推定装置、4 マーカ、11 切り欠き部、12 取付部、13 物体把持部、21 中空体、22 チューブ、23 圧力センサ、24 第1の学習モデル、25 視覚センサ、26 第2の学習モデル、27 第3の学習モデル、28 第4の学習モデル、31 センシングデータ取得部、32,33 把持力推定部、34 センシングデータ取得部、35,36 把持力推定部、37 センシングデータ取得部、38 把持力推定部、41 センシングデータ取得回路、42,43 把持力推定回路、44 センシングデータ取得回路、45,46 把持力推定回路、47 センシングデータ取得回路、48 把持力推定回路、51 メモリ、52 プロセッサ。

Claims (11)

  1. 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置であって、
    前記把持具の変形によって変化する、前記物体把持部に取り付けられた中空体の内部圧力を検出するセンサにより検出された、前記内部圧力の情報を含むセンシングデータを取得するセンシングデータ取得部と、
    前記センシングデータ取得部により取得された前記センシングデータに含まれる前記内部圧力の情報に基づいて、前記物体に対する前記把持具の前記把持力を推定する把持力推定部とを備えた
    ことを特徴とする。
  2. 前記把持力推定部は、前記中空体の前記内部圧力と前記物体に対する前記把持具の前記把持力との対応関係を示すテーブルから、前記センシングデータに含まれる前記内部圧力の情報に対応する前記把持具の前記把持力を示す情報を取得する
    ことを特徴とする請求項1記載の把持力推定装置。
  3. 前記把持力推定部は、前記中空体の前記内部圧力を示す圧力データと、前記物体に対する前記把持具の前記把持力を示すデータとが与えられて、前記中空体の前記内部圧力に対応する前記把持力の学習が行われた第1の学習モデルに前記センシングデータを与え、前記センシングデータに含まれる前記内部圧力の情報に対応する前記把持力の情報を、前記第1の学習モデルから取得する
    ことを特徴とする請求項1記載の把持力推定装置。
  4. 前記センサは、圧力センサと、前記把持具を撮影する視覚センサとを含み、
    前記センシングデータ取得部は、前記圧力センサにより検出された前記内部圧力の情報と、前記視覚センサにより撮像された撮影画像とを含む前記センシングデータを取得し、
    前記把持力推定部は、前記内部圧力の情報と、前記撮影画像とに基づいて、前記物体に対する前記把持具の把持力を推定する
    ことを特徴とする請求項1記載の把持力推定装置。
  5. 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置であって、
    前記把持具を撮影する視覚センサにより撮影された撮影画像を含むセンシングデータを取得するセンシングデータ取得部と、
    前記センシングデータ取得部により取得された前記センシングデータに含まれる前記撮影画像に基づいて、前記物体に対する前記把持具の前記把持力を推定する把持力推定部とを備えた
    ことを特徴とする。
  6. 前記把持力推定部は、前記視覚センサにより撮影された前記撮影画像と、前記物体に対する前記把持具の前記把持力を示すデータとが与えられて、前記撮影画像に対応する前記把持力の学習が行われた第2の学習モデルに前記センシングデータを与え、前記センシングデータに含まれる前記撮影画像に対応する前記把持力の情報を、前記第2の学習モデルから取得する
    ことを特徴とする請求項4記載の把持力推定装置。
  7. 前記把持力推定部は、前記撮影画像に含まれる、前記把持具に付けられた複数マーカの位置を示す位置データと、前記物体に対する前記把持具の前記把持力を示すデータとが与えられて、前記複数マーカの位置に対応する前記把持力の学習が行われた第3の学習モデルに前記センシングデータを与え、前記撮影画像に含まれた前記複数マーカの位置に対応する前記把持力の情報を、前記第3の学習モデルから取得する
    ことを特徴とする請求項4記載の把持力推定装置。
  8. 引っ張り器具が取り付けられた取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置による方法であって、
    前記把持具の変形によって変化する、前記物体把持部に取り付けられた中空体の内部圧力を検出するセンサにより検出された、前記内部圧力の情報を含むセンシングデータをセンシングデータ取得部によって取得するステップと、
    記センシングデータ取得部により取得された前記センシングデータに含まれる前記内部圧力の情報に基づいて、前記物体に対する前記把持具の前記把持力を把持力推定部によって推定するステップとを備える
    ことを特徴とする。
  9. 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置のコンピュータに実行されるプログラムであって、
    前記コンピュータに、
    前記把持具の変形によって変化する、前記物体把持部に取り付けられた中空体の内部圧力を検出するセンサにより検出された、前記内部圧力の情報を含むセンシングデータを取得する処理と、
    前記センシングデータに含まれる前記内部圧力の情報に基づいて、前記物体に対する前記把持具の把持力を推定する処理とを実行させる
    ことを特徴とする。
  10. 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置の方法であって、
    前記把持具を撮影する視覚センサにより撮影された撮影画像を含むセンシングデータをセンシングデータ取得部によって取得するステップと、
    前記センシングデータ取得部により取得された前記センシングデータに含まれる前記撮影画像に基づいて、前記物体に対する前記把持具の把持力を把持力推定部によって推定するステップとを備えた
    ことを特徴とする。
  11. 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置のコンピュータに実行させるためのプログラムであって、
    前記把持具を撮影する視覚センサにより撮影された撮影画像を含むセンシングデータを取得する処理と、
    前記センシングデータに含まれる前記撮影画像に基づいて、前記物体に対する前記把持具の把持力を推定する処理とを実行させる
    ことを特徴とする。
JP2023574318A 2023-09-14 2023-09-14 把持力推定装置及び把持力推定方法 Active JP7471541B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023033472 2023-09-14

Publications (1)

Publication Number Publication Date
JP7471541B1 true JP7471541B1 (ja) 2024-04-19

Family

ID=90716063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023574318A Active JP7471541B1 (ja) 2023-09-14 2023-09-14 把持力推定装置及び把持力推定方法

Country Status (1)

Country Link
JP (1) JP7471541B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012148380A (ja) 2011-01-20 2012-08-09 Motoji Yamamoto ロボットハンド装置
US20200368922A1 (en) 2019-05-21 2020-11-26 Trustees Of Boston University Gripping devices and methods for making the same
WO2020246263A1 (ja) 2019-06-05 2020-12-10 ソニー株式会社 制御装置および方法、並びに、プログラム
WO2023074209A1 (ja) 2021-10-27 2023-05-04 ソニーグループ株式会社 把持力推定装置、把持力推定方法及び把持力推定プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012148380A (ja) 2011-01-20 2012-08-09 Motoji Yamamoto ロボットハンド装置
US20200368922A1 (en) 2019-05-21 2020-11-26 Trustees Of Boston University Gripping devices and methods for making the same
WO2020246263A1 (ja) 2019-06-05 2020-12-10 ソニー株式会社 制御装置および方法、並びに、プログラム
WO2023074209A1 (ja) 2021-10-27 2023-05-04 ソニーグループ株式会社 把持力推定装置、把持力推定方法及び把持力推定プログラム

Similar Documents

Publication Publication Date Title
US9902059B2 (en) Robot teaching apparatus, method, and robot system
US10857675B2 (en) Control device, robot, and robot system
US6744420B2 (en) Operation input apparatus using sensor attachable to operator's hand
JP4998364B2 (ja) 視線検出装置および方法、並びに、プログラム
JP6164970B2 (ja) ロボット制御方法、ロボットシステム、プログラム、記録媒体及び部品の製造方法
JP6331517B2 (ja) 画像処理装置、システム、画像処理方法、および画像処理プログラム
JP6680750B2 (ja) 制御装置及び機械学習装置
JP2018513711A (ja) 非常に器用なシステムのユーザインタフェース
JP5145606B2 (ja) 変形性薄物展開装置
WO2019146201A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP5145605B2 (ja) 変形性薄物展開装置
Pestell et al. Dual-modal tactile perception and exploration
JP6441581B2 (ja) フレキシブルディスプレイの曲げモーションに対する光検出
JP7471541B1 (ja) 把持力推定装置及び把持力推定方法
JP2015071207A (ja) ロボットハンドおよびその制御方法
WO2020059377A1 (ja) 位置推定装置、位置推定方法、及びコンピュータ読み取り可能な記録媒体
WO2019240330A1 (ko) 영상 기반 힘 예측 시스템 및 그 방법
JP6706777B2 (ja) 制御装置、ロボット、及びロボットシステム
US20220374083A1 (en) Control device, force sense presentation apparatus, and control method
JP2010000560A (ja) 残留変形性薄物把持装置
JP6168849B2 (ja) 内視鏡装置及び内視鏡画像の撮影方法
CN114505839B (zh) 一种面向核酸采样的主从式机器人系统
CN110722591A (zh) 柔性体的力感知方法、夹爪及机械手
JP6679446B2 (ja) 作業ロボットの遠隔操作システム
CN115773837A (zh) 一种基于机器视觉的柔性机械手抓力测量方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231201

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240409

R150 Certificate of patent or registration of utility model

Ref document number: 7471541

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150