JP2005177977A - ロボットハンドの制御装置 - Google Patents
ロボットハンドの制御装置 Download PDFInfo
- Publication number
- JP2005177977A JP2005177977A JP2004341133A JP2004341133A JP2005177977A JP 2005177977 A JP2005177977 A JP 2005177977A JP 2004341133 A JP2004341133 A JP 2004341133A JP 2004341133 A JP2004341133 A JP 2004341133A JP 2005177977 A JP2005177977 A JP 2005177977A
- Authority
- JP
- Japan
- Prior art keywords
- robot hand
- control device
- finger
- sensor
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Manipulator (AREA)
Abstract
【課題】
ロボットハンドで把持された物体がすべり落ちるのを防ぐ。
【解決手段】
ロボットハンド50の指部52のうちの1本には、その先端側の部位にすべりセンサ1が設けてある。すべりセンサ1は指部52に対する物体Xのすべり量に応じたパルス数の検出信号を出力する。制御部4は、検出信号のパルス数をカウントすることで物体Xのすべり量を判断し、角度センサ2並びにトルクセンサ3の各センサ出力を参照しながら、すべり量がゼロとなるように駆動部54を制御してロボットハンド50の把持力を調整するから、ロボットハンド50で把持された物体Xがすべり落ちるのを防ぐことができる。
【選択図】図1
ロボットハンドで把持された物体がすべり落ちるのを防ぐ。
【解決手段】
ロボットハンド50の指部52のうちの1本には、その先端側の部位にすべりセンサ1が設けてある。すべりセンサ1は指部52に対する物体Xのすべり量に応じたパルス数の検出信号を出力する。制御部4は、検出信号のパルス数をカウントすることで物体Xのすべり量を判断し、角度センサ2並びにトルクセンサ3の各センサ出力を参照しながら、すべり量がゼロとなるように駆動部54を制御してロボットハンド50の把持力を調整するから、ロボットハンド50で把持された物体Xがすべり落ちるのを防ぐことができる。
【選択図】図1
Description
本発明は、物体を把持するロボットハンドを制御する制御装置に関するものである。
一般にロボットハンドは、手掌部と、手掌部に設けられた複数の指部と、指部を屈曲自在とする関節機構と、関節機構を駆動する駆動部とを備え、制御装置により駆動部を制御することで指部を屈曲させて物体を把持するものである。ここで、大きさや形状などが不定の多種の物体を把持可能とするために、手掌部や指部に複数の圧力センサを設け、圧力センサの検出結果から手掌部や指部が物体に接触したか否かを判断し、その判断に応じて駆動部を制御する制御装置が提案されている(特許文献1参照)。
特開2001−287182号公報
ところで、ロボットハンドで物体を把持する場合、物体の形状や表面の状態などによって把持された物体がすべり落ちてしまうことがある。しかしながら、上記従来装置では圧力センサによって手掌部や指部と物体との接触状態を検出しているが、圧力センサでは手掌部や指部に対する物体のすべりを検出することが困難であった。
本発明は上記事情に鑑みて為されたものであり、その目的とするところは、ロボットハンドで把持された物体がすべり落ちるのを防ぐことができるロボットハンドの制御装置を提供することにある。
請求項1の発明は、上記目的を達成するために、手掌部と、手掌部に設けられた複数の指部と、指部を屈曲自在とする関節機構と、関節機構を駆動する駆動部とを備え、指部を屈曲させることで物体を把持するロボットハンドを制御する制御装置であって、手掌部又は指部に設けられて物体との接触状態を検出する検出手段と、検出手段の検出結果に応じて駆動部を制御する制御手段とを備え、検出手段は、物体に光を照射する光源、物体の光が照射された部位の画像情報を取り込むイメージセンサ、イメージセンサで取り込んだ画像情報の差分に基づいてロボットハンドに対する物体の相対的な移動量を演算する演算手段を具備することを特徴とする。
この発明によれば、ロボットハンドに対する物体の相対的な移動量、すなわち、手掌部や指部に対する物体のすべりを検出手段で検出しているから、検出手段の検出結果に応じて制御手段が駆動部を制御することにより、ロボットハンドで把持された物体がすべり落ちるのを防ぐことができる。
請求項2の発明は、請求項1の発明において、検出手段は、イメージセンサに光を集光するレンズを具備し、演算手段は、画像情報の差分の時間的変化からレンズの焦点と物体の位置との一致・不一致を判断して手掌部又は指部と物体との接触を検出することを特徴とする。
この発明によれば、物体のすべりを検出する検出手段で手掌部又は指部と物体との接触を検出するため、すべりと接触の検出を同じ検出手段で兼用できるために構成の簡略化が図れるとともに手掌部又は指部への取付スペースの確保が容易である。
請求項3の発明は、請求項1又は2の発明において、光源、イメージセンサ並びにレンズを保持する保持部材と、保持部材の物体と対向する面に設けられて光源、イメージセンサ並びにレンズを保護する保護部材とを具備し、保護部材の表面に光触媒層を形成したことを特徴とする。
この発明によれば、保護部材の表面に形成した光触媒層で汚れを分解して除去することができ、保護部材の汚れによって検出手段が誤検出したり検出不能となるのを防止できる。
請求項4の発明は、請求項1乃至3のいずれか1項の発明において、画像情報のコントラストが高くなるように、光源から照射する光の輝度を調整する調整手段を備えていることを特徴とする。
この発明によれば、調整手段により画像情報のコントラストが高い状態に保たれるので、画像情報が明確となり、物体のすべり検出の精度の向上を図れる。
請求項5の発明は、請求項1乃至4のいずれか1項の発明において、光源は、物体にレーザー光を照射するレーザー光源であり、イメージセンサは、物体によって反射されたレーザー光の干渉パターンを画像情報として取り込み、演算手段は、干渉パターン間の自己相関に基づいてロボットハンドに対する物体の相対的な移動量を演算することを特徴とする。
この発明によれば、非接触で、ロボットハンドに対する物体の相対的な移動量、すなわち、手掌部や指部に対する物体のすべりを検出することができるから、例えばローラー等を設けてすべりを回転量により検出する接触式のものに比べて、センサ自体のすべりの影響による誤差等が生じなくなり、これにより、すべり検出の精度を向上することができる。加えて、干渉パターン間の自己相関から移動量を検出することによって、物体のすべり検出の精度を向上することができる。
請求項6の発明は、請求項1乃至5のいずれか1項の発明において、ロボットハンドが物体に及ぼす力と検出手段から得られる物体の移動量とに基づいて、ロボットハンドと物体との間の最大静止摩擦力を算出する算出手段を備えていることを特徴とする。
この発明によれば、算出手段によってロボットハンドと物体との間の最大静止摩擦力を算出することができ、例えば、算出した最大静止摩擦力に応じて制御手段が駆動部を制御すれば、ロボットハンドで把持された物体がすべり落ちるのを防ぐことができ、しかも、ロボットハンドで物体を把持する際に、物体に必要以上の力がかからないようにすることができる。
請求項7の発明は、請求項1乃至6のいずれか1項の発明において、ロボットハンドが物体に及ぼす力とロボットハンドの物体への押し込み量とに基づいて、物体の剛性を算出する算出手段を備えていることを特徴とする。
この発明によれば、算出手段によって物体の剛性を算出することができるから、例えば、算出した剛性に合わせてロボットハンドの把持力を調整すれば、物体の剛性に適した把持力で物体を把持することができる。
本発明によれば、ロボットハンドに対する物体の相対的な移動量、すなわち、手掌部や指部に対する物体のすべりを検出手段で検出しているから、検出手段の検出結果に応じて制御手段が駆動部を制御することにより、ロボットハンドで把持された物体がすべり落ちるのを防ぐことができるという効果がある。
以下、図面を参照して本発明の実施形態を詳細に説明する。
(実施形態1)
図2は本実施形態の制御装置によって制御されるロボットハンド50の斜視図、図1は制御装置のブロック図をそれぞれ示している。
図2は本実施形態の制御装置によって制御されるロボットハンド50の斜視図、図1は制御装置のブロック図をそれぞれ示している。
ロボットハンド50は、図2に示すように手掌部51と、手掌部51に設けられた複数(本実施形態では3本)の指部52と、指部52を屈曲自在とする関節機構53と、関節機構53を駆動する駆動部54とを備える。各指部52は関節機構53を介して順次連結された2つの部位からなり、駆動部54を構成するアクチュエータ(図示せず)により関節機構53を駆動して上記各部位が屈曲および回動するものである。但し、関節機構53や駆動部54は従来周知の技術を用いて実現可能であるから、詳細な構造の図示並びに説明は省略する。
3本の指部52のうちの1本には、その先端側の部位にすべりセンサ1が設けられている。このすべりセンサ1は、図3に示すように物体Xに向けて光を照射する発光素子11と、物体Xの光が照射された部位の画像情報を取り込む2次元のイメージセンサ12と、イメージセンサ12に光を集光するレンズ13と、発光素子11、イメージセンサ12およびレンズ13を保持する保持部材14とを具備する。保持部材14は、アクリル樹脂などの透光性を有する合成樹脂材料により、一面の中央に凹所14aを有する直方体状に形成され、凹所14aの底面にレンズ13が埋設されるとともに、発光面を凹所14aに臨ませる形で発光ダイオードからなる発光素子11がインサートされている。また、CCD(電荷結合素子)からなるイメージセンサ12は、後述するようにイメージセンサ12で取り込んだ画像情報の差分に基づいてロボットハンド50に対する物体Xの相対的な移動量を演算する演算回路(図示せず)とともにプリント配線板15に実装されており、凹所14aの底面に対向する外側面(図3における上面)に、イメージセンサ12の受光面を凹所14aに臨ませるようにしてイメージセンサ12と演算回路が実装されたプリント配線板15が取り付けられている。
本実施形態の制御装置は、上述のすべりセンサ1と、駆動部54と、関節機構53の角度を検出する角度センサ2と、関節機構53のトルクを検出するトルクセンサ3と、マイコンを主構成要素とし、すべりセンサ1、角度センサ2並びにトルクセンサ3の各センサ出力に応じて駆動部54を制御する制御部4とを備える。
次に、図4を参照してすべりセンサ1の検出動作を説明する。イメージセンサ12はm×n個の画素を有しており、各画素に入射する光の強度に応じた画素値からなる2次元の画像情報を所定のサンプリング周期で演算回路に順次出力している。演算回路では、イメージセンサ12から取り込んだ画像情報を二値化し、前回の画像情報(図4(a)参照)と今回の画像情報(図4(b)参照)の差分、例えば、同一画素における前回の画素値と今回の画素値との排他的論理和を演算して画素値に変化があった場合に1、変化がなかった場合に0となる差分値を求め、さらに、このようにして求めた差分値の、マトリクス状に配置された画素の横方向(X軸方向)並びに縦方向(Y軸方向)における算術和を求めるとともに、その算術和に応じたパルス数の矩形波パルスからなる検出信号を制御部4に出力する(図4(c)(d)参照)。すなわち、イメージセンサ12から取り込まれる画像情報には、図4(a)(b)に示すようにコントラスト(光強度)の高い部分イと低い部分ロとがあり、すべりセンサ1に対して物体Xが移動する(すべる)ことによりコントラストの高い部分イの位置が変化した場合、その変化量(移動量)に応じたパルス数の検出信号が出力されることになり、すべりセンサ1に対して物体Xが静止していればパルス数がゼロ、つまり検出信号が出力されないことになる。
一方、制御部4では、すべりセンサ1のセンサ出力(検出信号)のパルス数をカウントすることで物体Xのすべり量を判断し、角度センサ2並びにトルクセンサ3の各センサ出力を参照しながら、すべり量がゼロとなるように駆動部54を制御してロボットハンド50の把持力を調整することにより、ロボットハンド50で把持された物体Xがすべり落ちるのを防いでいる。
ところで本実施形態においては、すべりセンサ1によって指部52が物体Xと接触しているか否かを検出しており、以下、その検出方法について説明する。
すべりセンサ1のレンズ13の焦点距離が、指部52に物体Xが接触した状態におけるレンズ13の中心から物体Xまでの距離に一致させてあり、指部52が物体Xに接触していない状態では物体Xに焦点が合わないために物体Xの画像がぼやけた状態となり、コントラストの高い部分イと低い部分ロの区別ができず、画像情報の差分がゼロとなる。次に、指部52が物体Xに接触すると物体Xに焦点があってコントラストの高い部分イと低い部分ロの区別が可能になるとともに、若干のすべりが生じてすべり量に応じた差分が得られる。すなわち、すべりセンサ1の演算回路では、指部52と物体Xが非接触状態から接触状態に移行する際に生じる画像情報の差分の時間的変化に基づいてレンズ13の焦点と物体の位置との一致・不一致、つまり、物体Xと指部52の接触・非接触を判断している。
而して、本実施形態ではすべりセンサ1を用いて指部52と物体Xの接触を検出しているため、すべりと接触の検出を同じ検出手段(すべりセンサ1)で兼用することで構成の簡略化が図れるとともに手掌部51又は指部52へのすべりセンサ1の取付スペースの確保が容易になるという利点がある。
なお、すべりセンサ1のレンズ13や凹所14aの内壁に埃などの異物が付着すると検出精度が低下してしまうので、図5に示すように、保持部材14と同様の透光性を有する合成樹脂材料からなる平板状の保護カバー16で凹所14aを閉塞することが望ましい。さらに、保護カバー16の表面に光触媒を含むコーティング材(例えば、松下電工株式会社製のフレッセラ−Pなど)をコーティングして光触媒層17を形成すれば、光触媒層17で汚れを分解して除去することができ、保護カバー16の汚れによってすべりセンサ1が誤検出したり検出不能となるのを防止できる。
(実施形態2)
本実施形態の制御装置は、すべりセンサに特徴があり、その他の構成は上記実施形態1と同様であるので、同様の構成については同じ符号を付して説明を省略する。
本実施形態の制御装置は、すべりセンサに特徴があり、その他の構成は上記実施形態1と同様であるので、同様の構成については同じ符号を付して説明を省略する。
本実施形態のすべりセンサ1’は、図6(a)に示すように、上記実施形態1と同様に指部52の先端側の部位に設けられている。このすべりセンサ1’は、図6(b)に示すように、物体Xに向けてレーザー光を照射するレーザーダイオードからなるレーザー光源18と、物体Xによって反射、散乱されたレーザー光の干渉パターンを取り込む2次元のイメージセンサ12と、イメージセンサ12から得られた干渉パターン間の自己相関に基づいて、ロボットハンド50に対する物体Xの相対的な移動量を演算する演算回路(図示せず)とを備える。
次に、すべりセンサ1’の検出動作を説明する。レーザー光源18から照射されたレーザー光は、物体Xの表面によって散乱され、図6(c)に示すような干渉パターンが生じる。イメージセンサ12はm×n個の画素を有しており、各画素に入射する光の強度に応じた画素値からなる2次元の画像情報、すなわち図6(c)に示すような干渉パターンを所定のサンプリング周期で演算回路に順次出力している。演算回路では、イメージセンサ12から取り込んだ画像情報、つまり前回の干渉パターンと今回の干渉パターンとの自己相関によって物体Xの移動量を求める。ここで、干渉パターン間の自己相関の演算は次のようにして行われる。まず、前回の干渉パターンのm×n個の画素の一部分、例えば画素Pを中心にm’(<m)×n’(<n)個の画素を参照画像情報として取り出し、この参照画像情報と今回の干渉パターンの一部分との相関関数を順次演算していく。そして、この演算の結果、一致度が最も高い(つまり、干渉パターン間の相関関数がピークを示す)部分に移動したと推定する。例えば、今回の干渉パターンにおいて一致度が最も高いものが画素Qを中心とするm’×n’個の画素であるなら、画素Qと画素P間の距離から物体Xの移動量を求める。そして、演算回路はこの移動量に応じた検出信号を制御部4に出力する。
このように、すべりセンサ1’は、レーザー光の干渉パターンの自己相関によって物体Xの移動量を検出することができる。つまり、非接触で、ロボットハンド50に対する物体Xの相対的な移動量、すなわち、手掌部51や指部52に対する物体Xのすべりを検出することができるから、例えばローラー等を設けてすべりを回転量により検出する接触式のものに比べて、例えば、センサ自体のすべりの影響による誤差等を考慮する必要がなくなり、これにより、すべり検出の精度を向上することができる。また、干渉パターン間の自己相関から移動量を検出するから、上記実施形態1の光強度の高い部分の位置変化から移動量を検出するすべりセンサ1に比べて、物体のすべりの検出精度の向上を図ることができる。
ところで、本実施形態のすべりセンサ1’は、画像情報のコントラストが高くなるように、レーザー光源18から照射されるレーザー光の輝度を自動的に調整する調整回路(図示せず)を備えている。この調整回路は、イメージセンサ12から取り込んだm×n個の画素からなる画像情報から、輝度が最も高い(最も明るい)画素と輝度が最も低い(最も暗い)画素との輝度の差分をコントラストとして求め、例えば、このように求めたコントラストが所定の閾値以下であれば、レーザー光源18に制御信号を出力してレーザー光の輝度を上げるように調整し、このような調整を繰り返すことで、コントラストが所定の閾値を越えるように調整を行うものである。
このような調整回路を設けることで、画像情報のコントラストが高い状態に保たれるので、画像情報が明瞭になり、すべりセンサ1’による物体Xのすべりの検出精度の向上を図ることができる。尚、この調整回路は上記実施形態1のすべりセンサ1に設けても構わない。
(実施形態3)
本実施形態の制御装置は、上記の実施形態1に加えて、図7に示すように算出部6を設けたことに特徴があり、その他の構成は実施形態1と同様なので、同様の構成については同一の符号を付し、説明を省略する。
本実施形態の制御装置は、上記の実施形態1に加えて、図7に示すように算出部6を設けたことに特徴があり、その他の構成は実施形態1と同様なので、同様の構成については同一の符号を付し、説明を省略する。
つまり、本実施形態の制御装置は、すべりセンサ1と、駆動部54と、関節機構53の角度を検出する角度センサ2と、関節機構53のトルクを検出するトルクセンサ3と、すべりセンサ1、角度センサ2並びにトルクセンサ3の各センサの出力に基づいてロボットハンド50と物体Xとの間の最大静止摩擦力及び物体Xの剛性を算出する算出部6と、マイコンを主構成要素とし、すべりセンサ1、角度センサ2並びにトルクセンサ3の各センサ出力に応じて駆動部54を制御する制御部4とを備える。
算出部6は、上述したようにロボットハンド50と物体Xとの間の最大静止摩擦力を算出する機能を備え、最大静止摩擦力の算出は次のようにして行われる。まず、図8(a)に示すように、指部52の先端側の部位に設けたすべりセンサ1を物体Xに接触させ、このとき指部52が物体Xを押す力Mをトルクセンサ3で検出しておく。次に、制御部4により駆動部54を制御して、指部52が物体Xを押す力Mはそのままで、指部52に物体Xの表面をなぞる向きの力F’ (力F’は指部52のトルクセンサ3および角度センサ2から指部52の姿勢を考慮して計算する)をかけていき、図8(b)に示すように、すべりセンサ1のすべり量δが微少量dとなったときの力F’と、指部52のすべり方向とを検出し、この力F’の指部52のすべり方向における力成分を指部52が物体Xを押す力Mに対する最大静止摩擦力として検出する。つまり、物体Xに力F’をかけていくと、図8(b)に示すように、力F’に応じて摩擦力Fが増え、やがて力F’が最大静止摩擦力を越えたときには、指部52が物体Xに対してdだけ移動することになるから、すべりセンサ1のすべり量δが微小量dとなったときの力F’と、物体Xの移動方向とを検出すれば、最大静止摩擦力を検出できるのである。そして、算出部6は、このように検出した最大静止摩擦力と、押す力Mとに基づいて、指部52と物体Xとの間の静止摩擦係数を算出し、上記の測定を押す力Mを代えて複数回繰り返し、これらの平均から指部52と物体Xとの間の静止摩擦係数の平均値を算出する。
また、算出部6は、上述したように物体Xの剛性を算出する機能を備え、物体Xの剛性の算出は次のようにして行う。まず、指部52の先端側を物体Xに接触させる。次に、この状態から、指部52で物体を押圧するように駆動部54を制御部4で制御し、このときの指部52が物体Xを押す力をトルクセンサ3で検出するとともに、角度センサ2によって検出した指部52の回転角度から指部52の物体Xへの押し込み量を算出し、指部52が物体Xを押す力と押し込み量とから、物体Xの剛性の算出を行う。
このように本実施形態の制御装置によれば、ロボットハンド50と物体Xとの間の最大静止摩擦力を算出する算出機能と、物体Xの剛性を算出する算出機能とを備えた算出部6によって、ロボットハンド50と物体Xとの間の最大静止摩擦力(さらには静止摩擦係数)と物体Xの剛性とを算出することができるので、算出部6の算出結果に応じて制御部4が駆動部54を制御することにより、ロボットハンド50で把持された物体Xがすべり落ちるのを防ぐとともに、ロボットハンド50で物体Xを把持する際に、物体Xに必要以上の力がかからないようにすることができるからロボットハンド50の制御を安定して行え、しかも、ロボットハンド50で把持する物体Xの剛性に合わせてロボットハンド50の把持力を調整することで、物体Xの剛性に適した把持力で物体Xを把持することができる。尚、この算出部6を上記実施形態2の制御装置に設けることとしてもよい。
1 すべりセンサ
2 角度センサ
3 トルクセンサ
4 制御部
50 ロボットハンド
52 指部
53 関節機構
54 駆動部
2 角度センサ
3 トルクセンサ
4 制御部
50 ロボットハンド
52 指部
53 関節機構
54 駆動部
Claims (7)
- 手掌部と、手掌部に設けられた複数の指部と、指部を屈曲自在とする関節機構と、関節機構を駆動する駆動部とを備え、指部を屈曲させることで物体を把持するロボットハンドを制御する制御装置であって、手掌部又は指部に設けられて物体との接触状態を検出する検出手段と、検出手段の検出結果に応じて駆動部を制御する制御手段とを備え、検出手段は、物体に光を照射する光源、物体の光が照射された部位の画像情報を取り込むイメージセンサ、イメージセンサで取り込んだ画像情報の差分に基づいてロボットハンドに対する物体の相対的な移動量を演算する演算手段を具備することを特徴とするロボットハンドの制御装置。
- 検出手段は、イメージセンサに光を集光するレンズを具備し、演算手段は、画像情報の差分の時間的変化からレンズの焦点と物体の位置との一致・不一致を判断して手掌部又は指部と物体との接触を検出することを特徴とする請求項1記載のロボットハンドの制御装置。
- 光源、イメージセンサ並びにレンズを保持する保持部材と、保持部材の物体と対向する面に設けられて光源、イメージセンサ並びにレンズを保護する保護部材とを具備し、保護部材の表面に光触媒層を形成したことを特徴とする請求項1又は2記載のロボットハンドの制御装置。
- 画像情報のコントラストが高くなるように、光源から照射する光の輝度を調整する調整手段を備えていることを特徴とする請求項1乃至3のいずれか1項に記載のロボットハンドの制御装置。
- 光源は、物体にレーザー光を照射するレーザー光源であり、イメージセンサは、物体によって反射されたレーザー光の干渉パターンを画像情報として取り込み、演算手段は、干渉パターン間の自己相関に基づいてロボットハンドに対する物体の相対的な移動量を演算することを特徴とする請求項1乃至4のいずれか1項に記載のロボットハンドの制御装置。
- ロボットハンドが物体に及ぼす力と検出手段から得られる物体の移動量とに基づいて、ロボットハンドと物体との間の最大静止摩擦力を算出する算出手段を備えていることを特徴とする請求項1乃至5のいずれか1項に記載のロボットハンドの制御装置。
- ロボットハンドが物体に及ぼす力とロボットハンドの物体への押し込み量とに基づいて、物体の剛性を算出する算出手段を備えていることを特徴とする請求項1乃至6のいずれか1項に記載のロボットハンドの制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004341133A JP2005177977A (ja) | 2003-11-25 | 2004-11-25 | ロボットハンドの制御装置 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003394644 | 2003-11-25 | ||
JP2004341133A JP2005177977A (ja) | 2003-11-25 | 2004-11-25 | ロボットハンドの制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005177977A true JP2005177977A (ja) | 2005-07-07 |
Family
ID=34797186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004341133A Withdrawn JP2005177977A (ja) | 2003-11-25 | 2004-11-25 | ロボットハンドの制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005177977A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008089522A (ja) * | 2006-10-05 | 2008-04-17 | Matsushita Electric Ind Co Ltd | ロボットおよびその表面計測方法 |
JP2009291853A (ja) * | 2008-06-03 | 2009-12-17 | Yaskawa Electric Corp | ロボット用ハンド |
JP2010201538A (ja) * | 2009-03-02 | 2010-09-16 | Yaskawa Electric Corp | 多指ハンドおよびロボット並びに多指ハンドの把持方法 |
JP2010221358A (ja) * | 2009-03-24 | 2010-10-07 | Toyota Industries Corp | ロボットハンド用撮像装置内蔵フィンガ |
JP2010236893A (ja) * | 2009-03-30 | 2010-10-21 | Toyota Industries Corp | 複数の物体間の相対移動を検出する方法 |
WO2020094225A1 (en) * | 2018-11-07 | 2020-05-14 | Abb Schweiz Ag | A self-disinfecting robot and method for disinfecting a robot |
JP2020097073A (ja) * | 2018-12-17 | 2020-06-25 | 京セラドキュメントソリューションズ株式会社 | 制御装置 |
CN111923074A (zh) * | 2020-07-15 | 2020-11-13 | 重庆城市职业学院 | 一种人工智能机器手及其使用方法 |
JPWO2021001992A1 (ja) * | 2019-07-04 | 2021-01-07 | ||
CN113377016A (zh) * | 2021-07-16 | 2021-09-10 | 黄山学院 | 考虑打滑的多移动机器人协同编队无抖振滑模控制方法 |
WO2021182702A1 (en) * | 2020-03-10 | 2021-09-16 | Samsung Electronics Co., Ltd. | Method and apparatus for manipulating a tool to control in-grasp sliding of an object held by the tool |
US11325248B2 (en) | 2019-05-24 | 2022-05-10 | Kyocera Document Solutions Inc. | Robotic device and gripping method |
WO2024024377A1 (en) * | 2022-07-25 | 2024-02-01 | Sony Group Corporation | Sensing system for grip control, gripping apparatus, robot apparatus and control method for same |
-
2004
- 2004-11-25 JP JP2004341133A patent/JP2005177977A/ja not_active Withdrawn
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008089522A (ja) * | 2006-10-05 | 2008-04-17 | Matsushita Electric Ind Co Ltd | ロボットおよびその表面計測方法 |
JP2009291853A (ja) * | 2008-06-03 | 2009-12-17 | Yaskawa Electric Corp | ロボット用ハンド |
JP2010201538A (ja) * | 2009-03-02 | 2010-09-16 | Yaskawa Electric Corp | 多指ハンドおよびロボット並びに多指ハンドの把持方法 |
JP2010221358A (ja) * | 2009-03-24 | 2010-10-07 | Toyota Industries Corp | ロボットハンド用撮像装置内蔵フィンガ |
JP2010236893A (ja) * | 2009-03-30 | 2010-10-21 | Toyota Industries Corp | 複数の物体間の相対移動を検出する方法 |
WO2020094225A1 (en) * | 2018-11-07 | 2020-05-14 | Abb Schweiz Ag | A self-disinfecting robot and method for disinfecting a robot |
US11123872B2 (en) | 2018-12-17 | 2021-09-21 | Kyocera Document Solutions Inc. | Control apparatus that controls arm for gripping object |
JP2020097073A (ja) * | 2018-12-17 | 2020-06-25 | 京セラドキュメントソリューションズ株式会社 | 制御装置 |
JP7247572B2 (ja) | 2018-12-17 | 2023-03-29 | 京セラドキュメントソリューションズ株式会社 | 制御装置 |
US11325248B2 (en) | 2019-05-24 | 2022-05-10 | Kyocera Document Solutions Inc. | Robotic device and gripping method |
JPWO2021001992A1 (ja) * | 2019-07-04 | 2021-01-07 | ||
JP7345902B2 (ja) | 2019-07-04 | 2023-09-19 | 株式会社FingerVision | 触覚センサ、触覚センサシステム及びプログラム |
WO2021182702A1 (en) * | 2020-03-10 | 2021-09-16 | Samsung Electronics Co., Ltd. | Method and apparatus for manipulating a tool to control in-grasp sliding of an object held by the tool |
US11396103B2 (en) | 2020-03-10 | 2022-07-26 | Samsung Electronics Co., Ltd. | Method and apparatus for manipulating a tool to control in-grasp sliding of an object held by the tool |
CN111923074A (zh) * | 2020-07-15 | 2020-11-13 | 重庆城市职业学院 | 一种人工智能机器手及其使用方法 |
CN113377016A (zh) * | 2021-07-16 | 2021-09-10 | 黄山学院 | 考虑打滑的多移动机器人协同编队无抖振滑模控制方法 |
WO2024024377A1 (en) * | 2022-07-25 | 2024-02-01 | Sony Group Corporation | Sensing system for grip control, gripping apparatus, robot apparatus and control method for same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5267213B2 (ja) | 多指ハンドおよびロボット | |
JP2005177977A (ja) | ロボットハンドの制御装置 | |
CN1203438C (zh) | 使用线性传感器扫描指纹的方法和设备 | |
US9144908B2 (en) | Manipulator device | |
EP0899584B1 (en) | Position determining system | |
US6770863B2 (en) | Apparatus and method for three-dimensional relative movement sensing | |
JP5549204B2 (ja) | 光学式位置検出装置、ハンド装置およびタッチパネル | |
US7965278B2 (en) | Optical navigation device adapted for navigation on a transparent plate | |
JP5765483B2 (ja) | 光センサ | |
TW201013469A (en) | User input device with planar light guide illumination plate | |
JP2009080714A (ja) | 指離れ検出装置、指離れ検出方法及びこれを用いた指紋読取装置、指紋読取方法 | |
CN109551504B (zh) | 机器人夹持器指状件 | |
US9921310B2 (en) | Proximity sensor and proximity sensing method using event-based vision sensor | |
TWI529569B (zh) | 光學導航裝置及其相關自動倍率調整方法 | |
CA2303469C (en) | Touch sensor | |
US20030184520A1 (en) | Mouse with optical buttons | |
JP2016161351A (ja) | 計測装置 | |
JP2006021300A (ja) | 推定装置および把持装置 | |
JP5943882B2 (ja) | トナー量検知センサー | |
TWI505141B (zh) | 光學導航裝置及其製造方法,以及追蹤光學導航裝置與導航表面之間之相對移動的方法 | |
Nakashima et al. | Combined tactile and proximity sensor employing compound-eye camera | |
JP2011083858A (ja) | ロボットハンド | |
JP2005202694A (ja) | 検出装置 | |
JPWO2016063911A1 (ja) | 物体検出装置および情報処理装置 | |
TWI294960B (en) | Direction judgment system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080205 |