JP7471541B1 - 把持力推定装置及び把持力推定方法 - Google Patents
把持力推定装置及び把持力推定方法 Download PDFInfo
- Publication number
- JP7471541B1 JP7471541B1 JP2023574318A JP2023574318A JP7471541B1 JP 7471541 B1 JP7471541 B1 JP 7471541B1 JP 2023574318 A JP2023574318 A JP 2023574318A JP 2023574318 A JP2023574318 A JP 2023574318A JP 7471541 B1 JP7471541 B1 JP 7471541B1
- Authority
- JP
- Japan
- Prior art keywords
- gripping
- sensing data
- tool
- force estimation
- gripping force
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 18
- 230000000007 visual effect Effects 0.000 claims description 47
- 238000010586 diagram Methods 0.000 description 40
- 239000003550 marker Substances 0.000 description 8
- 239000002131 composite material Substances 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 235000013194 Lyophyllum decastes Nutrition 0.000 description 2
- 240000005856 Lyophyllum decastes Species 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
このような把持力推定装置として、例えば、特許文献1には、把持装置を駆動するモータの駆動電流と、当該モータの回転速度とに基づいて、把持装置の把持力を推定する推定オブザーバが開示されている。
上記のように、当該把持具は、既存の把持機構とは異なる、キリガミ構造という新たな構造の把持機構を有するものである。当該把持具は、モータによって駆動されることを必須としないこともあり、把持力の検出技術が存在していないという課題があった。
なお、特許文献1に開示されている、把持力を推定する技術は、把持装置がモータによって駆動されることを必須とするものであるため、キリガミ構造の把持機構による把持力の検出には適していない。
図1は、実施の形態1に係る把持力推定装置3が適用される把持具1を示す構成図である。
図2は、把持具1が物体2を把持している様子を示す説明図である。
図1に示す把持具1は、切り欠き部11、2つの取付部12及び2つの物体把持部13を備えている。図1に示す把持具1は、2つの取付部12を備えている。しかし、これは一例に過ぎず、把持具1は、1つの取付部12を備えているものであってもよいし、3つ以上の取付部12を備えているものであってもよい。
把持具1は、例えば、弾性体によって実現される。弾性体としては、例えば、ゴム、又は、シリコンがある。
把持具1は、キリガミ構造を有している。
2つの取付部12は、引っ張り器具が取り付けられる部位である。引っ張り器具は、モータによって駆動されるものには限られず、引っ張り器具としては、例えば、手動のマジックハンド、又は、トングがある。また、引っ張り器具としては、モータによって駆動される、ロボットのハンド等であってもよい。
2つの物体把持部13は、物体2を把持する部位である。
概ね中心部に切り欠きが施されることによって、引っ張り器具が、2つの取付部12のそれぞれに取り付けられて、引っ張り器具が、それぞれの取付部12を引っ張り上げると、2つの物体把持部13が互いに近づくようになる。その結果、2つの物体把持部13は、図2に示すように、物体2を把持することができるようになる。物体2は、どのような物体でもよいが、物体2としては、例えば、唐揚げ、くだもの、電子部品、又は、医療器具がある。図2では、物体2が、唐揚げである例を示している。また、図2では、引っ張り器具が、ロボットのハンドである例を示している。
図4は、実施の形態1に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。
図3において、中空体21は、例えば、エアパウチ、又は、ゴム等の弾性部材によって実現される。
中空体21は、把持具1における複数の部位のうち、物体2を把持する部位である物体把持部13に取り付けられる。
中空体21の内部圧力は、把持具1の変形に伴って変化する。
具体的には、引っ張り器具が取付部12を引っ張り上げているときの中空体21の内部圧力は、引っ張り器具が取付部12を引っ張り上げる前の中空体21の内部圧力よりも高くなる。
また、引っ張り器具が、2つの取付部12を互いに近づけるほど、中空体21の内部圧力が高くなる。
中空体21の一端は、塞がれており、中空体21の他端は、チューブ22の一端と接続されている。
図3の例では、中空体21が、物体把持部13の概ね全体を覆うように取り付けられている。中空体21が、物体把持部13のごく一部のみを覆うように取り付けられている場合、把持具1が変形しても、中空体21の内部圧力があまり変化しないためである。
チューブ22の一端は、中空体21の他端と接続されている。
チューブ22の他端は、圧力センサ23と接続されている。
チューブ22の内部には、中空体21の内部圧力が高くなることによって、中空体21の内部に存在していた空気が入り込み、チューブ22の内部圧力が高くなる。
具体的には、圧力センサ23は、把持具1の変形に伴って変化する、中空体21の内部圧力を観測するセンサである。
圧力センサ23は、中空体21の内部圧力を示すセンシングデータを把持力推定装置3に出力する。
センシングデータ取得部31は、例えば、図4に示すセンシングデータ取得回路41によって実現される。
センシングデータ取得部31は、圧力センサ23のセンシングデータを取得する。
センシングデータ取得部31は、圧力センサ23のセンシングデータを把持力推定部32に出力する。
把持力推定部32は、センシングデータ取得部31から、圧力センサ23のセンシングデータを取得する。
把持力推定部32は、圧力センサ23のセンシングデータに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部32の内部メモリには、中空体21の内部圧力と物体2に対する把持具1の把持力との対応関係を示すテーブルが格納されている。
把持力推定部32は、テーブルから、センシングデータが示す内部圧力に対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部32は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
図3に示す把持力推定装置3では、テーブルが把持力推定部32の内部メモリに格納されている。しかし、これは一例に過ぎず、テーブルは、把持力推定部32の外部メモリに格納されていてもよい。
センシングデータ取得回路41及び把持力推定回路42のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
ソフトウェア又はファームウェアは、プログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、あるいは、DSP(Digital Signal Processor)が該当する。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部31及び把持力推定部32におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムがメモリ51に格納される。そして、コンピュータのプロセッサ52がメモリ51に格納されているプログラムを実行する。
図6は、把持力推定装置3の処理手順である把持力推定方法を示すフローチャートである。
引っ張り器具が、把持具1における2つの取付部12を引っ張り上げると、2つの物体把持部13が互いに近づくようになる。その結果、2つの物体把持部13が、図2に示すように、物体2を把持することができるようになる。
中空体21が変形することによって、中空体21の内部圧力は、上昇する。つまり、引っ張り器具が取付部12を引っ張り上げることによって、中空体21の内部圧力は、上昇する。引っ張り器具が、2つの取付部12を互いに近づけるほど、中空体21の内部圧力が高くなる。
チューブ22の内部には、中空体21の内部圧力が高くなることによって、中空体21の内部に存在していた空気が入り込み、チューブ22の内部圧力が高くなる。
圧力センサ23は、中空体21の内部圧力を示すセンシングデータを把持力推定装置3に出力する。
センシングデータ取得部31は、圧力センサ23のセンシングデータを把持力推定部32に出力する。
把持力推定部32は、内部メモリに格納しているテーブルから、センシングデータが示す中空体21の内部圧力に対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する(図6のステップST2)。
把持力推定部32は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
把持力推定部32は、内部メモリに格納しているテーブルから、センシングデータが示す電気信号に対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する。
実施の形態2では、把持力推定部33が、センシングデータ取得部31により取得されたセンシングデータを第1の学習モデル24に与えて、第1の学習モデル24から、センシングデータが示す内部圧力に対応する把持力を示す情報を取得する把持力推定装置3について説明する。
図8は、実施の形態2に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。図8において、図4と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
第1の学習モデル24は、例えば、ニューラルネットワークによって実現される。
第1の学習モデル24は、学習時において、中空体21の内部圧力を示す圧力データと、物体2に対する把持具1の把持力を示す教師データとが与えられると、圧力データが示す内部圧力に対応する把持具1の把持力を学習する。
第1の学習モデル24は、推論時において、センシングデータが与えられると、センシングデータが示す内部圧力に対応する把持力を示す情報を出力する。
図7に示す把持力推定装置3では、第1の学習モデル24が、把持力推定装置3の外部に設けられている。しかし、これは一例に過ぎず、第1の学習モデル24は、把持力推定装置3の内部に設けられていてもよい。
把持力推定部33は、センシングデータ取得部31から、圧力センサ23のセンシングデータを取得する。
把持力推定部33は、圧力センサ23のセンシングデータに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部33は、センシングデータを第1の学習モデル24に与えて、第1の学習モデル24から、センシングデータが示す内部圧力に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部33は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
センシングデータ取得回路41及び把持力推定回路43のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部31及び把持力推定部33におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図5に示すメモリ51に格納される。そして、図5に示すプロセッサ52がメモリ51に格納されているプログラムを実行する。
把持力推定部33は、センシングデータ取得部31から、圧力センサ23のセンシングデータを取得する。
把持力推定部33は、センシングデータを第1の学習モデル24に与える。
そして、把持力推定部33は、第1の学習モデル24から、センシングデータが示す内部圧力に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部33は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
実施の形態3では、把持具1を撮影する視覚センサ25の撮像結果である撮影画像に基づいて、物体2に対する把持具1の把持力を推定する把持力推定部35を備える把持力推定装置3について説明する。
図10は、実施の形態3に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。図10において、図4及び図8と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
図9において、視覚センサ25は、把持具1の変形を観測するセンサである。
具体的には、視覚センサ25は、物体2を把持することによって変形する把持具1を撮影するセンサである。
視覚センサ25は、把持具1の撮影画像を示すセンシングデータを把持力推定装置3に出力する。
把持具1の撮影画像は、1枚以上の静止画であってもよいし、動画であってもよい。
第2の学習モデル26は、学習時において、把持具1の撮影画像と物体2に対する把持具1の把持力を示す教師データとが与えられると、把持具1の撮影画像に対応する把持具1の把持力を学習する。
学習時に用いられる撮影画像は、1枚以上の静止画であってもよいし、動画であってもよい。
第2の学習モデル26は、推論時において、センシングデータが与えられると、センシングデータが示す撮影画像に対応する把持力を示す情報を出力する。
図9に示す把持力推定装置3では、第2の学習モデル26が、把持力推定装置3の外部に設けられている。しかし、これは一例に過ぎず、第2の学習モデル26は、把持力推定装置3の内部に設けられていてもよい。
センシングデータ取得部34は、例えば、図10に示すセンシングデータ取得回路44によって実現される。
センシングデータ取得部34は、視覚センサ25のセンシングデータを取得する。
センシングデータ取得部34は、視覚センサ25のセンシングデータを把持力推定部35に出力する。
把持力推定部35は、センシングデータ取得部34から、視覚センサ25のセンシングデータを取得する。
把持力推定部35は、視覚センサ25のセンシングデータに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部35は、センシングデータを第2の学習モデル26に与えて、第2の学習モデル26から、センシングデータが示す撮影画像に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部35は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
センシングデータ取得回路44及び把持力推定回路45のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部34及び把持力推定部35におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図5に示すメモリ51に格納される。そして、図5に示すプロセッサ52がメモリ51に格納されているプログラムを実行する。
引っ張り器具が、把持具1における2つの取付部12を引っ張り上げると、2つの物体把持部13が互いに近づくようになる。その結果、2つの物体把持部13は、図2に示すように、物体2を把持することができるようになる。
引っ張り器具が、2つの取付部12を互いに近づけるほど、図11に示すように、切り欠き部11の開き具合が小さくなり、把持具1の把持力が大きくなる。
図11は、切り欠き部11における開き具合の違いを示す説明図である。図11では、物体2がミカンである例を示している。
図11Aは、把持具1が物体2を把持する前の状態を示す説明図であり、切り欠き部11が大きく開いている。
図11Bは、物体把持部13が物体2に軽く触れた状態を示す説明図であり、切り欠き部11は、物体2を把持する前よりも狭くなっている。
図11Cは、把持具1が物体2を把持した状態を示す説明図であり、切り欠き部11は、物体把持部13が物体2に軽く触れた状態よりも狭くなっている。
視覚センサ25は、把持具1の撮影画像を示すセンシングデータを把持力推定装置3に出力する。
把持力推定装置3のセンシングデータ取得部34は、視覚センサ25のセンシングデータを取得する。
センシングデータ取得部34は、視覚センサ25のセンシングデータを把持力推定部35に出力する。
把持力推定部35は、センシングデータを第2の学習モデル26に与える。
そして、把持力推定部35は、第2の学習モデル26から、センシングデータが示す撮影画像に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部35は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
実施の形態4では、把持具1における複数の箇所のそれぞれにマーカ4が付されている。そして、視覚センサ25の撮像結果である撮影画像を第3の学習モデル27に与えて、第3の学習モデル27から、撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を取得する把持力推定部36を備える把持力推定装置3について説明する。
図13は、実施の形態4に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。図13において、図4、図8及び図10と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
実施の形態4では、後述する図14に示すように、把持具1における複数の箇所のそれぞれにマーカ4が付されている。
第3の学習モデル27は、学習時において、撮影画像に映っている複数のマーカ4の位置を示す位置データと物体2に対する把持具1の把持力を示す教師データとが与えられると、複数のマーカ4の位置に対応する把持具1の把持力を学習する。
第3の学習モデル27は、推論時において、センシングデータが与えられると、センシングデータが示す撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を出力する。
図12に示す把持力推定装置3では、第3の学習モデル27が、把持力推定装置3の外部に設けられている。しかし、これは一例に過ぎず、第3の学習モデル27は、把持力推定装置3の内部に設けられていてもよい。
把持力推定部36は、例えば、図13に示す把持力推定回路46によって実現される。
把持力推定部36は、センシングデータ取得部34から、視覚センサ25のセンシングデータを取得する。
把持力推定部36は、視覚センサ25のセンシングデータに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部36は、センシングデータが示す撮影画像を第3の学習モデル27に与えて、第3の学習モデル27から、撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部36は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
センシングデータ取得回路44及び把持力推定回路46のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部34及び把持力推定部36におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図5に示すメモリ51に格納される。そして、図5に示すプロセッサ52がメモリ51に格納されているプログラムを実行する。
引っ張り器具が、把持具1における2つの取付部12を引っ張り上げると、2つの物体把持部13が互いに近づくようになる。その結果、2つの物体把持部13は、図2に示すように、物体2を把持することができるようになる。
2つの取付部12の間の距離が変化すると、図14に示すように、把持具1のそれぞれの箇所に付されているマーカ4の位置が変化する。また、2つの取付部12の間の距離が変化すると、把持具1の把持力が変化する。
図14は、把持具1のそれぞれの箇所に付されているマーカ4の位置の違いを示す説明図である。
図14Aは、把持具1が物体2を把持する前の状態のときのマーカ4の位置を示す説明図であり、図14Bは、物体把持部13が物体2に軽く触れた状態のときのマーカ4の位置を示す説明図であり、図14Cは、把持具1が物体2を把持した状態のときのマーカ4の位置を示す説明図である。
状態の違いによって、マーカ4の位置が相違している。
視覚センサ25は、把持具1の撮影画像を示すセンシングデータを把持力推定装置3に出力する。
把持力推定装置3のセンシングデータ取得部34は、視覚センサ25のセンシングデータを取得する。
センシングデータ取得部34は、視覚センサ25のセンシングデータを把持力推定部36に出力する。
把持力推定部36は、センシングデータが示す撮影画像を第3の学習モデル27に与える。
そして、把持力推定部36は、第3の学習モデル27から、撮影画像に映っている複数のマーカ4の位置に対応する把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部36は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
実施の形態5では、把持力推定部38が、圧力センサ23により観測された内部圧力と視覚センサ25の撮像結果である撮影画像とに基づいて、物体2に対する把持具1の把持力を推定する把持力推定装置3について説明する。
図16は、実施の形態5に係る把持力推定装置3のハードウェアを示すハードウェア構成図である。図16において、図4、図8、図10及び図13と同一符号は、同一又は相当部分を示すので、詳細な説明を省略する。
第4の学習モデル28は、学習時において、中空体21の内部圧力を示す圧力データと、把持具1の撮影画像と、物体2に対する把持具1の把持力を示す教師データとが与えられると、圧力データが示す内部圧力と把持具1の撮影画像とに対応する把持具1の把持力を学習する。
第4の学習モデル28は、推論時において、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとが与えられると、センシングデータが示す内部圧力とセンシングデータが示す撮影画像とに対応する把持力を示す情報を出力する。
図15に示す把持力推定装置3では、第4の学習モデル28が、把持力推定装置3の外部に設けられている。しかし、これは一例に過ぎず、第4の学習モデル28は、把持力推定装置3の内部に設けられていてもよい。
センシングデータ取得部37は、例えば、図16に示すセンシングデータ取得回路47によって実現される。
センシングデータ取得部37は、圧力センサ23のセンシングデータと、視覚センサ25のセンシングデータとを取得する。
センシングデータ取得部31は、圧力センサ23のセンシングデータ及び視覚センサ25のセンシングデータのそれぞれを把持力推定部38に出力する。
把持力推定部38は、センシングデータ取得部31から、圧力センサ23のセンシングデータ及び視覚センサ25のセンシングデータのそれぞれを取得する。
把持力推定部38は、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとに基づいて、物体2に対する把持具1の把持力を推定する。
具体的には、把持力推定部38は、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとを第4の学習モデル28に与えて、第4の学習モデル28から、中空体21の内部圧力と把持具1の撮影画像とに対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部38は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
センシングデータ取得回路47及び把持力推定回路48のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又は、これらを組み合わせたものが該当する。
把持力推定装置3が、ソフトウェア又はファームウェア等によって実現される場合、センシングデータ取得部37及び把持力推定部38におけるそれぞれの処理手順をコンピュータに実行させるためのプログラムが図5に示すメモリ51に格納される。そして、図5に示すプロセッサ52がメモリ51に格納されているプログラムを実行する。
圧力センサ23は、中空体21の内部圧力として、チューブ22の内部圧力を観測する。
圧力センサ23は、中空体21の内部圧力を示すセンシングデータを把持力推定装置3に出力する。
視覚センサ25は、引っ張り器具が取付部12を引っ張り上げることによって変形する把持具1を撮影する。
視覚センサ25は、把持具1の撮影画像を示すセンシングデータを把持力推定装置3に出力する。
センシングデータ取得部37は、圧力センサ23のセンシングデータ及び視覚センサ25のセンシングデータのそれぞれを把持力推定部38に出力する。
把持力推定部38は、圧力センサ23のセンシングデータと視覚センサ25のセンシングデータとを第4の学習モデル28に与える。
そして、把持力推定部38は、第4の学習モデル28から、圧力センサ23のセンシングデータが示す中空体21の内部圧力と視覚センサ25のセンシングデータが示す撮影画像とに対応する把持具1の把持力を示す情報を取得することによって、把持具1の把持力を推定する。
把持力推定部38は、把持具1の把持力を示す情報を、例えば、ロボットの図示せぬ制御装置に出力する。
Claims (11)
- 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置であって、
前記把持具の変形によって変化する、前記物体把持部に取り付けられた中空体の内部圧力を検出するセンサにより検出された、前記内部圧力の情報を含むセンシングデータを取得するセンシングデータ取得部と、
前記センシングデータ取得部により取得された前記センシングデータに含まれる前記内部圧力の情報に基づいて、前記物体に対する前記把持具の前記把持力を推定する把持力推定部とを備えた
ことを特徴とする。 - 前記把持力推定部は、前記中空体の前記内部圧力と前記物体に対する前記把持具の前記把持力との対応関係を示すテーブルから、前記センシングデータに含まれる前記内部圧力の情報に対応する前記把持具の前記把持力を示す情報を取得する
ことを特徴とする請求項1記載の把持力推定装置。 - 前記把持力推定部は、前記中空体の前記内部圧力を示す圧力データと、前記物体に対する前記把持具の前記把持力を示すデータとが与えられて、前記中空体の前記内部圧力に対応する前記把持力の学習が行われた第1の学習モデルに前記センシングデータを与え、前記センシングデータに含まれる前記内部圧力の情報に対応する前記把持力の情報を、前記第1の学習モデルから取得する
ことを特徴とする請求項1記載の把持力推定装置。 - 前記センサは、圧力センサと、前記把持具を撮影する視覚センサとを含み、
前記センシングデータ取得部は、前記圧力センサにより検出された前記内部圧力の情報と、前記視覚センサにより撮像された撮影画像とを含む前記センシングデータを取得し、
前記把持力推定部は、前記内部圧力の情報と、前記撮影画像とに基づいて、前記物体に対する前記把持具の把持力を推定する
ことを特徴とする請求項1記載の把持力推定装置。 - 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置であって、
前記把持具を撮影する視覚センサにより撮影された撮影画像を含むセンシングデータを取得するセンシングデータ取得部と、
前記センシングデータ取得部により取得された前記センシングデータに含まれる前記撮影画像に基づいて、前記物体に対する前記把持具の前記把持力を推定する把持力推定部とを備えた
ことを特徴とする。 - 前記把持力推定部は、前記視覚センサにより撮影された前記撮影画像と、前記物体に対する前記把持具の前記把持力を示すデータとが与えられて、前記撮影画像に対応する前記把持力の学習が行われた第2の学習モデルに前記センシングデータを与え、前記センシングデータに含まれる前記撮影画像に対応する前記把持力の情報を、前記第2の学習モデルから取得する
ことを特徴とする請求項4記載の把持力推定装置。 - 前記把持力推定部は、前記撮影画像に含まれる、前記把持具に付けられた複数マーカの位置を示す位置データと、前記物体に対する前記把持具の前記把持力を示すデータとが与えられて、前記複数マーカの位置に対応する前記把持力の学習が行われた第3の学習モデルに前記センシングデータを与え、前記撮影画像に含まれた前記複数マーカの位置に対応する前記把持力の情報を、前記第3の学習モデルから取得する
ことを特徴とする請求項4記載の把持力推定装置。 - 引っ張り器具が取り付けられた取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置による方法であって、
前記把持具の変形によって変化する、前記物体把持部に取り付けられた中空体の内部圧力を検出するセンサにより検出された、前記内部圧力の情報を含むセンシングデータをセンシングデータ取得部によって取得するステップと、
前記センシングデータ取得部により取得された前記センシングデータに含まれる前記内部圧力の情報に基づいて、前記物体に対する前記把持具の前記把持力を把持力推定部によって推定するステップとを備える
ことを特徴とする。 - 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置のコンピュータに実行されるプログラムであって、
前記コンピュータに、
前記把持具の変形によって変化する、前記物体把持部に取り付けられた中空体の内部圧力を検出するセンサにより検出された、前記内部圧力の情報を含むセンシングデータを取得する処理と、
前記センシングデータに含まれる前記内部圧力の情報に基づいて、前記物体に対する前記把持具の把持力を推定する処理とを実行させる
ことを特徴とする。 - 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置の方法であって、
前記把持具を撮影する視覚センサにより撮影された撮影画像を含むセンシングデータをセンシングデータ取得部によって取得するステップと、
前記センシングデータ取得部により取得された前記センシングデータに含まれる前記撮影画像に基づいて、前記物体に対する前記把持具の把持力を把持力推定部によって推定するステップとを備えた
ことを特徴とする。 - 引っ張り器具が取り付けられる取付部と、物体を把持する部位である2つの物体把持部とを備え、前記引っ張り器具によって前記取付部が引っ張り上げられることによって、前記2つの物体把持部が互いに近づくように変形する、キリガミ構造を有する把持具の把持力を推定する把持力推定装置のコンピュータに実行させるためのプログラムであって、
前記把持具を撮影する視覚センサにより撮影された撮影画像を含むセンシングデータを取得する処理と、
前記センシングデータに含まれる前記撮影画像に基づいて、前記物体に対する前記把持具の把持力を推定する処理とを実行させる
ことを特徴とする。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023033472 | 2023-09-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7471541B1 true JP7471541B1 (ja) | 2024-04-19 |
Family
ID=90716063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023574318A Active JP7471541B1 (ja) | 2023-09-14 | 2023-09-14 | 把持力推定装置及び把持力推定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7471541B1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012148380A (ja) | 2011-01-20 | 2012-08-09 | Motoji Yamamoto | ロボットハンド装置 |
US20200368922A1 (en) | 2019-05-21 | 2020-11-26 | Trustees Of Boston University | Gripping devices and methods for making the same |
WO2020246263A1 (ja) | 2019-06-05 | 2020-12-10 | ソニー株式会社 | 制御装置および方法、並びに、プログラム |
WO2023074209A1 (ja) | 2021-10-27 | 2023-05-04 | ソニーグループ株式会社 | 把持力推定装置、把持力推定方法及び把持力推定プログラム |
-
2023
- 2023-09-14 JP JP2023574318A patent/JP7471541B1/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012148380A (ja) | 2011-01-20 | 2012-08-09 | Motoji Yamamoto | ロボットハンド装置 |
US20200368922A1 (en) | 2019-05-21 | 2020-11-26 | Trustees Of Boston University | Gripping devices and methods for making the same |
WO2020246263A1 (ja) | 2019-06-05 | 2020-12-10 | ソニー株式会社 | 制御装置および方法、並びに、プログラム |
WO2023074209A1 (ja) | 2021-10-27 | 2023-05-04 | ソニーグループ株式会社 | 把持力推定装置、把持力推定方法及び把持力推定プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9902059B2 (en) | Robot teaching apparatus, method, and robot system | |
US10857675B2 (en) | Control device, robot, and robot system | |
US6744420B2 (en) | Operation input apparatus using sensor attachable to operator's hand | |
JP4998364B2 (ja) | 視線検出装置および方法、並びに、プログラム | |
JP6164970B2 (ja) | ロボット制御方法、ロボットシステム、プログラム、記録媒体及び部品の製造方法 | |
JP6331517B2 (ja) | 画像処理装置、システム、画像処理方法、および画像処理プログラム | |
JP6680750B2 (ja) | 制御装置及び機械学習装置 | |
JP2018513711A (ja) | 非常に器用なシステムのユーザインタフェース | |
JP5145606B2 (ja) | 変形性薄物展開装置 | |
WO2019146201A1 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
JP5145605B2 (ja) | 変形性薄物展開装置 | |
Pestell et al. | Dual-modal tactile perception and exploration | |
JP6441581B2 (ja) | フレキシブルディスプレイの曲げモーションに対する光検出 | |
JP7471541B1 (ja) | 把持力推定装置及び把持力推定方法 | |
JP2015071207A (ja) | ロボットハンドおよびその制御方法 | |
WO2020059377A1 (ja) | 位置推定装置、位置推定方法、及びコンピュータ読み取り可能な記録媒体 | |
WO2019240330A1 (ko) | 영상 기반 힘 예측 시스템 및 그 방법 | |
JP6706777B2 (ja) | 制御装置、ロボット、及びロボットシステム | |
US20220374083A1 (en) | Control device, force sense presentation apparatus, and control method | |
JP2010000560A (ja) | 残留変形性薄物把持装置 | |
JP6168849B2 (ja) | 内視鏡装置及び内視鏡画像の撮影方法 | |
CN114505839B (zh) | 一种面向核酸采样的主从式机器人系统 | |
CN110722591A (zh) | 柔性体的力感知方法、夹爪及机械手 | |
JP6679446B2 (ja) | 作業ロボットの遠隔操作システム | |
CN115773837A (zh) | 一种基于机器视觉的柔性机械手抓力测量方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231201 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471541 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |