JP2010221358A - Finger with incorporated photographing device for robot hand - Google Patents
Finger with incorporated photographing device for robot hand Download PDFInfo
- Publication number
- JP2010221358A JP2010221358A JP2009072314A JP2009072314A JP2010221358A JP 2010221358 A JP2010221358 A JP 2010221358A JP 2009072314 A JP2009072314 A JP 2009072314A JP 2009072314 A JP2009072314 A JP 2009072314A JP 2010221358 A JP2010221358 A JP 2010221358A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- imaging device
- robot hand
- elastic
- built
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
この発明はロボットハンド用フィンガに関し、特に撮像装置を内蔵するものに関する。 The present invention relates to a finger for a robot hand, and more particularly to a built-in imaging device.
ロボットハンドにより対象物を把持する際、ロボットハンドによる適切な把持を行うためには、ロボットハンドの指部であるフィンガと対象物との接触の有無の検出、及びフィンガにおける接触位置の検出等のフィンガと対象物との接触状態を検出することが必要である。そして、従来から、対象物との接触状態を検出するための検出装置が提案されている。 When grasping an object with a robot hand, in order to perform an appropriate grasp with the robot hand, detection of the presence or absence of contact between a finger, which is a finger part of the robot hand, and detection of a contact position on the finger, etc. It is necessary to detect the contact state between the finger and the object. And the detection apparatus for detecting the contact state with a target object conventionally is proposed.
例えば、特許文献1には、検出装置として触覚センサが記載されている。この触覚センサは、対象物との接触部位に弾性体を有し、さらに、触覚センサの内部に、対象物と弾性体との接触面の状態を画像情報として取得するCCDカメラ等の画像取得部と、接触面を照明するためのLED等の発光手段とを有している。そして、この触覚センサは、対象物との接触時における接触面の形状を解析して、対象物と接触面との間における接触状態(摩擦力)を算出している。
また、特許文献2には、検出装置として光学式触覚センサが記載されている。この光学式触覚センサは、そのケーシングの先端に光透過性をもつ弾性体からなる半球状をなすタッチパッドを有している。なお、タッチパッドは、対象物と接触するようになっており、その表面にグリッドパターンが設けられている。さらに、ケーシングの内部には、タッチパッドの背面からグリッドパターンを撮像するCCDカメラ及びグリッドパターンを照らすリング状の照明が設けられている。そして、この光学式触覚センサは、CCDカメラが撮像するグリッドパターンの挙動から、対象物とタッチパッドとの間における接触状態(摩擦力)を算出している。
For example, Patent Document 1 describes a tactile sensor as a detection device. This tactile sensor has an elastic body at a contact portion with an object, and further, an image acquisition unit such as a CCD camera that acquires the state of the contact surface between the object and the elastic body as image information inside the tactile sensor. And a light emitting means such as an LED for illuminating the contact surface. The tactile sensor calculates the contact state (frictional force) between the object and the contact surface by analyzing the shape of the contact surface at the time of contact with the object.
しかしながら、特許文献1に記載された触覚センサ及び特許文献2に記載された光学式触覚センサでは、いずれも、触覚センサの内部に発光手段が設けられている。そして、弾性体及びタッチパッドにおける対象物との接触部位の鮮明な画像を撮像するために、発光手段により接触部位を照明するようになっている。このため、これらの触覚センサをロボットハンドのフィンガに用いる場合、その内部に発光手段を設けることによるコストの上昇が発生するという問題がある。
However, in both the tactile sensor described in Patent Document 1 and the optical tactile sensor described in
この発明は、このような問題点を解決するためになされたもので、発光手段を用いなくとも対象物との接触部位を撮像することのできるロボットハンド用撮像装置内蔵フィンガを提供することにより、コストの低減を図ることを目的とする。 The present invention was made to solve such problems, and by providing a finger with a built-in imaging device for a robot hand that can image a contact portion with an object without using a light emitting means. The purpose is to reduce the cost.
この発明に係るロボットハンド用撮像装置内蔵フィンガは、対象物を把持することで変形する弾性体と、弾性体を支持する支持部材と、支持部材の内部に設けられて弾性体の変形状態を撮像する撮像装置とを有するロボットハンド用撮像装置内蔵フィンガにおいて、支持部材は、外部から撮像装置の撮像範囲に光を導入する光透過部を備えることを特徴とするものである。 A finger with a built-in imaging device for a robot hand according to the present invention images an elastic body that deforms by grasping an object, a support member that supports the elastic body, and a deformation state of the elastic body that is provided inside the support member. In the finger having a built-in image pickup device for a robot hand having the image pickup device to perform, the support member includes a light transmission portion that introduces light into the image pickup range of the image pickup device from the outside.
これにより、支持部材における光透過部を介して支持部材の外部から内部に採光した光を、支持部材における撮像装置の撮像範囲に相当する部位に照射することによって、支持部材さらには弾性体における撮像装置の撮像範囲に相当する部位の鮮明な画像が撮像装置により撮像される。よって、対象物を把持する際にフィンガが対象物に接触して弾性体が変形すると、この弾性体の変形は、発光手段を使用することなく撮像装置により撮像された画像からでも認識されることができる。すなわち、発光手段を設けることなく、ロボットハンド用撮像装置内蔵フィンガの対象物への接触状況を認識することが可能になる。 As a result, the light collected from the outside to the inside of the support member through the light transmitting portion in the support member is irradiated to a portion corresponding to the imaging range of the imaging device in the support member, thereby imaging the support member and further the elastic body. A clear image of a part corresponding to the imaging range of the apparatus is captured by the imaging apparatus. Therefore, when the finger touches the object and the elastic body is deformed when the object is gripped, the deformation of the elastic body is recognized even from the image captured by the image pickup apparatus without using the light emitting means. Can do. That is, it is possible to recognize the contact state of the finger with the built-in imaging device for the robot hand with the object without providing the light emitting means.
弾性体における、少なくとも撮像装置の撮像範囲に相当する部位が、光透過性を有してもよい。これにより、弾性体が変形すると、変形部位はその他の部位との光の屈折率が異なる。このため、撮像装置の画像において、弾性体の変形が輝度の差異によって認識することができる。
支持部材及び弾性体が、透明な部材からなってもよい。これにより、外部の光は周囲の構造物等に反射する光も含むため多方向から支持部材を照射するが、支持部材が透明であるため、支持部材は多方向から入射する光をその内部から弾性体における撮像装置の撮像範囲に相当する部位に照射することができる。また、弾性体が透明であることによって、外部から弾性体を透過する光によっても弾性体における撮像装置の撮像範囲に相当する部位が照射され、撮像装置により鮮明な画像を撮像することができる。
A portion of the elastic body corresponding to at least the imaging range of the imaging device may have light transparency. Thereby, when an elastic body deform | transforms, the refractive index of the deformation | transformation site | part differs from another site | part. For this reason, in the image of the imaging device, the deformation of the elastic body can be recognized by the difference in luminance.
The support member and the elastic body may be made of a transparent member. As a result, external light includes light reflected from surrounding structures and the like so that the support member is irradiated from multiple directions. However, since the support member is transparent, the support member transmits light incident from multiple directions from the inside. It is possible to irradiate a portion corresponding to the imaging range of the imaging device in the elastic body. In addition, since the elastic body is transparent, a portion of the elastic body corresponding to the imaging range of the imaging device is irradiated by light that passes through the elastic body, and a clear image can be captured by the imaging device.
弾性体における撮像装置の撮像範囲に相当する部位が、格子状の模様を有してもよい。これにより、撮像装置により撮像される弾性体の格子状のパターンの変形を認識することによって、弾性体の変形を認識でき、さらに、ロボットハンド用撮像装置内蔵フィンガの対象物への接触状況を認識することが可能になる。
支持部材は、中実な構造を有してもよい。これにより、支持部材は、中実な構造を有するため剛性を確保することが容易である。
The part corresponding to the imaging range of the imaging device in the elastic body may have a lattice pattern. As a result, the deformation of the elastic body can be recognized by recognizing the deformation of the lattice pattern of the elastic body imaged by the imaging device, and the contact state of the fingers with the built-in imaging device for the robot hand is recognized. It becomes possible to do.
The support member may have a solid structure. Thereby, since a support member has a solid structure, it is easy to ensure rigidity.
この発明によれば、ロボットハンド用撮像装置内蔵フィンガは、発光手段を用いなくとも対象物との接触部位を撮像することができることにより、コストの低減を図ることが可能になる。 According to this invention, the finger with a built-in imaging device for a robot hand can image a contact part with an object without using a light emitting means, thereby reducing costs.
以下に、この発明の実施の形態について、添付図に基づいて説明する。
実施の形態1.
図1及び2を用いて、この発明の実施の形態1に係るロボットハンド用撮像装置内蔵フィンガ101の構成を示す。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
Embodiment 1 FIG.
1 and 2 show the configuration of a
まず、図1を参照すると、ロボットハンド1は、ハンド本体2に複数の指部3が設けられている。各指部3は、その先端側から第一指節3a及び第二指節3bによって構成されている。さらに、第一指節3a及び第二指節3b間、並びに、第二指節3b及びハンド本体2間はそれぞれ、超音波アクチュエータ4a及び4bを介して連結されている。また、超音波アクチュエータ4a及び4bはそれぞれ、制御部20に電気的に接続されており、制御部20の制御により駆動する。
そして、制御部20の制御による超音波アクチュエータ4a及び4bの駆動によって、第二指節3bに対して第一指節3a、及び、ハンド本体2に対して第二指節3bがそれぞれ多自由度に屈折することができる。これにより、ロボットハンド1は、図示しない対象物を把持する。
また、各第一指節3aには、図示しない撮像装置が内蔵されており、第一指節3aは、ロボットハンド用撮像装置内蔵フィンガ(以下、「フィンガ」と称す)101を構成している。
First, referring to FIG. 1, a robot hand 1 is provided with a plurality of fingers 3 on a
Then, by driving the
Each
次に、図2を参照すると、フィンガ101は、支持部材であるフィンガ本体11を有している。フィンガ本体11は、円筒状をした筒部11bと筒部11bの一方の端部に形成された半球面状をした先端部11aとを有し、その内部は中空になっている。そして、先端部11a及び筒部11bはいずれも、その全体が、透明な樹脂などによる、高い光透過性及び剛性を有する材料により形成されている。
また、ロボットハンド1(図1参照)は、対象物10を把持する際に、第一指節3a(図1参照)すなわちフィンガ101を対象物10に接触させるが、このとき、フィンガ101が対象物10に接触し得る領域は、把持部A1で示される。そして、フィンガ本体11の外表面11dにおいて、把持部A1を少なくとも覆うようにして、シート状の弾性外皮12が設けられている。弾性外皮12は、弾性体を構成し、透明なシリコンゴムなどによる、高い光透過性を有し且つ弾性を有する材料により形成されている。なお、把持部A1における弾性外皮12は、厚さt1で形成されている。
Next, referring to FIG. 2, the
Further, when the robot hand 1 (see FIG. 1) grips the
また、フィンガ本体11の筒部11bの内部には、撮像装置13が設けられており、撮像装置13は、筒部11bと同一の材料によって筒部11bの内表面に一体に形成されたブラケット11cに取付・支持されている。さらに、撮像装置13は、二次元CCDイメージセンサ13a、及び二次元CCDイメージセンサ13aに視野角を広げた像を提供するための広角レンズユニット13bを有している。二次元CCDイメージセンサ13aは、フィンガ本体11の把持部A1に向けて取り付けられており、広角レンズユニット13bを介して、フィンガ本体11及び弾性外皮12の把持部A1の二次元画像をフィンガ本体11の内側より取得する。そして、広角レンズユニット13bを介して弾性外皮12の把持部A1全体の画像を取得できるように、二次元CCDイメージセンサ13a及び広角レンズユニット13bは配置されている。また、二次元CCDイメージセンサ13aは、制御部20に電気的に接続されており、制御部20に取得した二次元画像を送る。
また、本実施の形態1では、弾性外皮12における撮像装置13の撮像範囲F1に相当する部位が、弾性外皮12の把持部A1と同一になっている。なお、弾性外皮12に対する撮像装置13の撮像範囲F1は、少なくとも弾性外皮12の把持部A1を含んでおればよく、把持部A1より広くなっていてもよい。
In addition, an
In the first embodiment, the part corresponding to the imaging range F1 of the
次に、図1〜3を用いて、この発明の実施の形態1に係るロボットハンド用撮像装置内蔵フィンガ101の動作を示す。
図1を参照すると、ロボットハンド1が対象物10(図2参照)を把持する際、制御部20は、各指部3の超音波アクチュエータ4a及び4bを作動させ、各指部3の第一指節3a及び第二指節3bを動作させる。また、同時に、制御部20は、第一指節3aすなわちフィンガ101内の撮像装置13(図2参照)を作動させる。そして、図2に示すように、把持するためにフィンガ101が対象物10に接触すると、フィンガ101の弾性外皮12が、対象物10に対して接触部B1において接触し、フィンガ本体11によって対象物10に押しつけられて圧縮される。このため、弾性外皮12は、対象物10との接触部B1においてその厚さが厚さt1から厚さt2に減少する。
Next, the operation of the
Referring to FIG. 1, when the robot hand 1 grips the object 10 (see FIG. 2), the
また、フィンガ本体11及び弾性外皮12は光透過性を有するため、フィンガ101の外部となる方向Pからフィンガ101に照射される外部の光の一部は、フィンガ本体11の上部側を透過して、フィンガ本体11の内側を通過し、フィンガ本体11及び弾性外皮12における撮像装置13の撮像範囲F1を照射する。さらに、この光は、フィンガ本体11及び弾性外皮12を透過し、対象物10において反射して弾性外皮12の把持部A1を照射し、さらに、弾性外皮12を透過して、フィンガ本体11及び弾性外皮12における撮像範囲F1を照射する。また、方向Pからフィンガ101に照射される外部の光の他の一部は、フィンガ本体11の先端部11aにおける弾性外皮12及びフィンガ本体11を透過し、フィンガ本体11及び弾性外皮12における撮像範囲F1を照射する。よって、フィンガ本体11及び弾性外皮12における撮像範囲F1全体に相当する部位は、フィンガ本体11及び弾性外皮12を透過した透過光及び対象物10において反射した反射光により、照射される。
ここで、フィンガ本体11及び弾性外皮12は、フィンガ本体11及び弾性外皮12における撮像装置13の撮像範囲F1にフィンガ101の外部からの光を導入する光透過部を構成している。
なお、本実施形態において、説明を容易にするため、外部からの光の入射方向を一方向としているが、実際は、周囲の構造物における反射光が存在するため、フィンガ101への入射光は多方向となる。
Further, since the
Here, the finger
In this embodiment, for ease of explanation, the incident direction of light from the outside is set as one direction. However, in reality, there is a large amount of incident light on the
このとき、撮像装置13は、透過光及び反射光により照射されて鮮明になったフィンガ本体11及び弾性外皮12の撮像範囲F1すなわち把持部A1の画像を取得する。また、弾性外皮12は、この把持部A1の接触部B1における厚さt2が、対象物10と接触していないその他の領域の厚さt1より薄くなっているため、光の屈折率が接触部B1とその他の領域との間で異なる。このため、撮像装置13によって取得される画像は、接触部B1と接触部B1以外の領域との間に明暗(濃淡)を有しており、例えば、図3に示すようになる。すなわち、図3の把持部A1の画像において、その輝度は、接触部B1において他の領域より大きくなっている。そして、輝度は、特に接触部B1の中心である重心において最大であり、この重心から接触部B1の周縁に向かってわずかに減衰しており、さらに、接触部B1の周辺部C1において急激に減衰して対象物10(図2参照)と接触していない領域D1の輝度に収束している。なお、接触部B1は、対象物10と固着する領域を示し、周辺部C1は、接触部B1の周囲に位置すると共に接触により弾性外皮12に変形が生じる領域を示し、領域D1は、接触により弾性外皮12に影響の生じない領域を示す。また、フィンガ101が対象物10(図2参照)に接触していない場合、把持部A1の画像は、局所的な明暗(濃淡)を有さず一様な明暗(濃淡)を有している。
At this time, the
さらに、図2に戻り、撮像装置13は、取得した把持部A1の画像情報を制御部20に送る。
制御部20は、送られた把持部A1の画像情報を解析し、フィンガ101の対象物10への接触の有無の検出、接触位置の算出等を行う。また、制御部20は、算出した接触位置と接触部B1の大きさ等から、フィンガ101の対象物10への押圧力、すなわちフィンガ101の対象物10に対する把持力を算出する。そして、制御部20は、算出された把持力に基づき、超音波アクチュエータ4a及び4b(図1参照)の動作を制御し、対象物10を潰さないように把持力を調整する。
よって、ロボットハンド1は、撮像装置13によって取得された画像情報に基づく制御部20の制御によって把持力が調整されつつ、対象物10の把持を行う。
Further, returning to FIG. 2, the
The
Therefore, the robot hand 1 grips the
このように、実施の形態1に係るロボットハンド用撮像装置内蔵フィンガ101は、対象物10を把持することで変形する弾性外皮12と、弾性外皮12を支持するフィンガ本体11と、フィンガ本体11の内部に設けられて弾性外皮12の変形状態を撮像する撮像装置13とを有する。さらに、ロボットハンド用撮像装置内蔵フィンガ101において、フィンガ本体11は、外部から撮像装置13の撮像範囲F1に光を導入する光透過部11及び12を備える。
これによって、フィンガ本体11における光透過部であるフィンガ本体11及び弾性外皮12を介してフィンガ本体11の外部から内部に採光した光を、フィンガ本体11における撮像装置13の撮像範囲F1に相当する部位に照射することによって、フィンガ本体11さらには弾性外皮12における撮像装置13の撮像範囲F1に相当する部位の鮮明な画像が撮像装置13により撮像される。従って、対象物10を把持する際にフィンガ101が対象物10に接触して弾性外皮12が変形すると、この弾性外皮12の変形は、発光手段を使用することなく撮像装置13により撮像された画像からでも認識されることができる。すなわち、発光手段を設けることなく、ロボットハンド用撮像装置内蔵フィンガ101の対象物10への接触状況を認識することが可能になる。
As described above, the
As a result, the portion of the
また、弾性外皮12における、少なくとも撮像装置13の撮像範囲F1に相当する部位が、光透過性を有することによって、弾性外皮12が変形すると、変形部位はその他の部位との光の屈折率が異なる。このため、撮像装置13の画像において、弾性外皮12の変形が輝度の差異によって認識することができる。
フィンガ本体11の全てが透明部材であり、弾性外皮12の全てが透明部材であることによって、外部の光は周囲の構造物等に反射する光も含むため多方向からフィンガ本体11を照射するが、フィンガ本体11は多方向から入射する光をその内部から弾性外皮12における撮像範囲F1に相当する部位に照射することができる。また、弾性外皮12が透明であることによって、外部から弾性外皮12を透過する光によっても弾性外皮12における撮像範囲F1に相当する部位が照射され、撮像装置13により鮮明な画像を撮像することができる。
Further, at least a portion corresponding to the imaging range F1 of the
Since all of the finger
実施の形態2.
この発明の実施の形態2に係るロボットハンド用撮像装置内蔵フィンガ102の構成は、実施の形態1におけるロボットハンド用撮像装置内蔵フィンガ101の弾性外皮12に、その表面に沿った格子状のパターン(模様)を設けたものである。
なお、以下の実施の形態において、前出した図における参照符号と同一の符号は、同一または同様な構成要素であるので、その詳細な説明は省略する。
The configuration of the
In the following embodiments, the same reference numerals as those in the previous drawings are the same or similar components, and thus detailed description thereof is omitted.
図4を参照すると、フィンガ102は、実施の形態1のフィンガ101と同様にして、フィンガ本体11及び撮像装置13を有する。さらに、フィンガ本体11の外表面11dにおいて、その把持部A2を少なくとも覆うようにして、透明な弾性外皮22が設けられている。また、弾性外皮22の外表面22aには、少なくとも把持部A2全体にわたって格子状のパターン(模様)22bが印刷されている。なお、パターン22bは、弾性外皮22の外表面22aに格子状の溝を形成したものであってもよく、また、弾性外皮22の内部、或いは内表面に形成されてもよい。
また、フィンガ102においても、弾性外皮22における撮像装置13の撮像範囲F2に相当する部位は、弾性外皮22における把持部A2と同一になっている。このため、撮像装置13は、弾性外皮22の格子状のパターン22bを撮像することができる。
また、この発明の実施の形態2に係るロボットハンド用撮像装置内蔵フィンガ102のその他の構成は、実施の形態1と同様であるため、説明を省略する。
Referring to FIG. 4, the
Also in the
The other configuration of the
次に、この発明の実施の形態2に係るロボットハンド用撮像装置内蔵フィンガ102は、実施の形態1のフィンガ101と同様に動作するが、ロボットハンド1が対象物10を把持した際、撮像装置13が取得する把持部A2の画像が異なっており、図5のように示される。
そこで、図5の状態(a)は、ロボットハンド1が対象物10を把持していない状態を示し、状態(b)は、ロボットハンド1が対象物10を把持している状態を示す。
Next, the
Therefore, the state (a) in FIG. 5 shows a state in which the robot hand 1 is not holding the
状態(b)において、把持部A2の画像における輝度の分布は、実施の形態1のフィンガ101における輝度の分布と同様に表示される。また、把持部A2の画像には、格子状の模様が表示されるが、フィンガ101が対象物10に接触すると弾性外皮22及び格子状のパターン22bが変形するため、格子状の模様の変形によっても、弾性外皮22と対象物10との接触状態が確認できる。さらに、把持部A2の画像では、格子状の模様の濃淡によってその輝度の強弱がより明確に描写される。このため、把持部A2の画像は、輝度の分布形状及び格子状の模様の状態の双方により、弾性外皮22と対象物10との接触に関する情報をより鮮明に示すことができる。(図4参照)
In the state (b), the luminance distribution in the image of the grip portion A2 is displayed in the same manner as the luminance distribution in the
なお、ロボットハンド1により対象物10を把持する際、把持力が不足気味であると対象物10がその自重により弾性外皮22に対して方向Qへ滑りそうな状態になる場合がある。このとき、周辺部C2の格子状の模様には、接触部B2が方向Qに向かって引きつけられるような変形が発生する。そして、制御部20は、周辺部C2の格子状の模様の形状から、対象物10が方向Qへ滑りそうな状態であるかどうかを算出する。(図4参照)
よって、図4を参照すると、制御部20は、撮像装置13から送られた把持部A2の画像情報から、実施の形態1と同様にして、フィンガ102の対象物10に対する把持力を算出する。さらに、制御部20は、弾性外皮22すなわちフィンガ102に対して対象物10が滑りそうになった状態であるかを周辺部C2(図5参照)の格子状の模様の画像情報から検出する。そして、制御部20は、算出された情報に基づき、超音波アクチュエータ4a及び4b(図1参照)の動作を制御し、対象物10を滑らさないように、且つ潰さないように把持力を調整する。
また、この発明の実施の形態2に係るロボットハンド用撮像装置内蔵フィンガ102のその他の動作は、実施の形態1と同様であるため、説明を省略する。
When the
Therefore, referring to FIG. 4, the
Other operations of the
このように、実施の形態2におけるロボットハンド用撮像装置内蔵フィンガ102において、上記実施の形態1のロボットハンド用撮像装置内蔵フィンガ101と同様な効果が得られる。
また、弾性外皮22における撮像装置13の撮像範囲F2に相当する部位に、格子状のパターン22bを設けることによって、撮像装置13によって取得される画像では、対象物10との接触による弾性外皮22の変形状態が、輝度の強弱だけでなく、格子状のパターン22bの濃淡及び変形によっても示される。このため、実施の形態1のロボットハンド用撮像装置内蔵フィンガ101に対して、ロボットハンド用撮像装置内蔵フィンガ102は、対象物10と弾性外皮22とのより詳細な接触状態を認識することができ、制御部20によるフィンガ102のより緻密な制御が可能になる。
また、弾性外皮22に設けられるパターンは、格子状のパターン22bに限定されるものではなく、異なる形状の点を規則的に並べるようなものであってもよい。
As described above, in the robot hand imaging device built-in
In addition, by providing the lattice-
Further, the pattern provided on the
実施の形態3.
この発明の実施の形態3に係るロボットハンド用撮像装置内蔵フィンガ103の構成は、実施の形態1のロボットハンド用撮像装置内蔵フィンガ101において中空であったフィンガ本体11を中実としたものである。
図6を参照すると、ロボットハンド用撮像装置内蔵フィンガ103のフィンガ本体31は、円柱状をした柱部31bと柱部31bの一方の端部に形成された半球状をした先端部31aとを有し、先端部31a及び柱部31bの内部は中実になっている。なお、フィンガ本体31の先端部31a及び柱部31bは、透明な樹脂などの、高い光透過性を有する材料により形成されている。さらに、柱部31bの内部には撮像装置13が柱部31bの把持部A3へ方向付けられて埋め込まれており、撮像装置13は制御部20と電気的に接続されている。
また、この発明の実施の形態3に係るロボットハンド用撮像装置内蔵フィンガ103のその他の構成及び動作は、実施の形態1と同様であるため、説明を省略する。
Embodiment 3 FIG.
The configuration of the
Referring to FIG. 6, the finger
The other configuration and operation of the
このように、実施の形態3におけるロボットハンド用撮像装置内蔵フィンガ103において、上記実施の形態1のロボットハンド用撮像装置内蔵フィンガ101と同様な効果が得られる。
また、フィンガ103のフィンガ本体31は、その内部が中実であるため剛性を確保することが容易である。よって、フィンガ本体31は、実施の形態1におけるフィンガ本体11より剛性の低い材料、可撓性を有する材料、又は弾性を有する材料により形成することができる。さらに、弾性を有する材料によってフィンガ本体31を形成することにより、フィンガ本体31が弾性外皮12を兼ねてもよい。これにより、弾性外皮12が不要となり、コストを低減することができる。
As described above, the robot hand imaging device built-in
Further, the finger
実施の形態4.
この発明の実施の形態4に係るロボットハンド用撮像装置内蔵フィンガ104の構成は、実施の形態1のロボットハンド用撮像装置内蔵フィンガ101において、フィンガ本体11の把持部A1を覆うように設けられていた弾性外皮12を、フィンガ本体11全体を覆うように設けたものである。
図7を参照すると、フィンガ104は、実施の形態1のフィンガ101と同様にして、フィンガ本体11及び撮像装置13を有する。さらに、フィンガ本体11の外表面11dの全体を覆うようにして、シート状の弾性外皮42が設けられている。弾性外皮42は、透明なシリコンゴムなどによる、高い光透過性を有し且つ弾性を有する材料により形成されている。
ここで、フィンガ本体11及び弾性外皮42は、フィンガ本体11及び弾性外皮42における撮像装置13の撮像範囲F4に相当する部位にフィンガ104の外部からの光を導入する光透過部を構成している。
また、この発明の実施の形態4に係るロボットハンド用撮像装置内蔵フィンガ104のその他の構成及び動作は、実施の形態1と同様であるため、説明を省略する。
Embodiment 4 FIG.
The configuration of the
Referring to FIG. 7, the
Here, the finger
Further, since the other configuration and operation of the
このように、実施の形態4におけるロボットハンド用撮像装置内蔵フィンガ104において、上記実施の形態1のロボットハンド用撮像装置内蔵フィンガ101と同様な効果が得られる。
また、フィンガ104のフィンガ本体11全体を弾性材で覆ったため、フィンガ104が対象物10或いは周囲の物体に接触した場合、これらに損傷を与えることを防止することができる。さらに、フィンガ104が人体と接触するような状況で使用される場合、人体との接触時に柔らかい感触を実現することができる。
As described above, in the robot hand imaging device built-in
Further, since the
実施の形態5.
この発明の実施の形態5に係るロボットハンド用撮像装置内蔵フィンガ105の構成は、実施の形態1においてロボットハンド用撮像装置内蔵フィンガ101をロボットハンド1の指部3の第一指節3aに設けていたものを、第二指節3bに設けたものである。
まず、図1を参照すると、ロボットハンド1の各指部3の第二指節3bには、図示しない撮像装置が内蔵されており、第二指節3bは、ロボットハンド用撮像装置内蔵フィンガ105を構成している。
Embodiment 5 FIG.
The configuration of the
First, referring to FIG. 1, an imaging device (not shown) is built in the
次に、図8を参照すると、フィンガ105は、円筒状をした中空のフィンガ本体51を有している。フィンガ本体51は、その全体が、透明な樹脂などによる、高い光透過性を有し且つ剛性を有する材料により形成されている。
また、フィンガ本体51の外表面51dの把持部A5には、厚さt1で形成されたシート状の弾性外皮52が設けられている。弾性外皮52は、透明なシリコンゴムなどによる、高い光透過性を有し且つ弾性を有する材料により形成されている。
また、フィンガ本体51の内部には、撮像装置13が設けられており、撮像装置13は、フィンガ本体51と同一の材料によって一体に形成されたブラケット51cに取付・支持されている。そして、撮像装置13は、把持部A5全体の画像を取得できるように取り付けられている。さらに、撮像装置13は、制御部20に電気的に接続されており、制御部20に取得した二次元画像を送る。なお、フィンガ105においても、弾性外皮52における撮像装置13の撮像範囲F5に相当する部位は、弾性外皮52における把持部A5と同一になっている。
また、この発明の実施の形態5に係るロボットハンド用撮像装置内蔵フィンガ105のその他の構成及び動作は、実施の形態1と同様であるため、説明を省略する。
このように、実施の形態5におけるロボットハンド用撮像装置内蔵フィンガ105において、上記実施の形態1のロボットハンド用撮像装置内蔵フィンガ101と同様な効果が得られる。
Next, referring to FIG. 8, the
Further, a sheet-like
In addition, the
Further, since the other configuration and operation of the
As described above, the robot hand imaging device built-in
また、実施の形態1〜5において、フィンガ本体11、31及び51、並びに弾性外皮12、22、42及び52は、高い光透過性を有する材料により形成されていたが、これに限定されるものではない。これらは、撮像装置13により取得した画像が制御部20により解析できる程度の光透過性を有していればよい。
また、実施の形態1〜5において、フィンガ本体11、31及び51は、その全体が光透過性を有する材料により形成されていたが、これに限定されるものではない。フィンガ本体11、31及び51は、把持部A1〜A5に対応する部分に加え一部分が光透過性を有する材料により形成され、その一部分から採光した光により内部から弾性外皮12、22、42及び52における撮像装置13の撮像範囲F1〜F5に相当する部位を照射する構成であってもよい。さらに、フィンガ本体11、31及び51を光透過性を有していない材料から形成するとともに、把持部A1〜A5(接触部)に対応する部分とその部分にフィンガ本体11、31及び51の外部から光を導入する部分(撮像装置の撮像範囲)のみに窓(開口)を形成して、撮像装置13の撮像範囲F1〜F5に光を導入する光透過部を構成してもよい。
In the first to fifth embodiments, the
In the first to fifth embodiments, the
また、実施の形態1〜3及び5において、弾性外皮12、22及び52は、光透過性を有する材料により形成されていたが、これに限定されるものではない。弾性外皮12、22及び52の内部に格子状のパターン22b等のマーキングを設け、対象物10との接触時に、マーキングの変形形状から弾性外皮12、22及び52と対象物10との接触状態を認識するようにしてもよい。
また、実施の形態1〜5において、フィンガ本体11、31及び51の外表面11d、31d及び51dに弾性外皮12、22、42及び52が直接設けられていたが、これに限定されるものではない。フィンガ本体11、31及び51と弾性外皮12、22、42及び52との間に空気層を有するように構成されていてもよい。これにより、対象物10との接触時に弾性外皮12、22、42及び52がより変形しやすくなり、また変形量も増大するため、撮像装置13によって取得される画像には、対象物10との接触による弾性外皮12、22、42及び52の変形状態がより明確に示される。
In Embodiments 1 to 3 and 5, the
In the first to fifth embodiments, the
10 対象物、11,31,51 フィンガ本体(支持部材、光透過部)、12,22,42,52 弾性外皮(弾性体、光透過部)、13 撮像装置、22b 格子状のパターン(格子状の模様)、101,102,103,104,105 ロボットハンド用撮像装置内蔵フィンガ、F1,F2,F3,F4,F5 撮像範囲。
DESCRIPTION OF
Claims (5)
前記支持部材は、外部から前記撮像装置の撮像範囲に光を導入する光透過部を備えるロボットハンド用撮像装置内蔵フィンガ。 Imaging for a robot hand having an elastic body that deforms by gripping an object, a support member that supports the elastic body, and an imaging device that is provided inside the support member and images the deformation state of the elastic body In the built-in finger,
The support member is a finger having a built-in imaging device for a robot hand that includes a light transmission portion that introduces light into the imaging range of the imaging device from the outside.
請求項1に記載のロボットハンド用撮像装置内蔵フィンガ。 The finger with a built-in imaging device for a robot hand according to claim 1, wherein at least a portion of the elastic body corresponding to an imaging range of the imaging device has light transmittance.
請求項2に記載のロボットハンド用撮像装置内蔵フィンガ。 The finger with a built-in imaging device for a robot hand according to claim 2, wherein the support member and the elastic body are made of a transparent member.
請求項1〜3のいずれか一項に記載のロボットハンド用撮像装置内蔵フィンガ。 The finger | toe with a built-in imaging device for robot hands as described in any one of Claims 1-3 in which the site | part corresponded to the imaging range of the said imaging device in the said elastic body has a grid | lattice pattern.
請求項1〜4のいずれか一項に記載のロボットハンド用撮像装置内蔵フィンガ。 The said support member is a finger | toe with a built-in imaging device for robot hands as described in any one of Claims 1-4 which has a solid structure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009072314A JP5239987B2 (en) | 2009-03-24 | 2009-03-24 | Finger with built-in imaging device for robot hand |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009072314A JP5239987B2 (en) | 2009-03-24 | 2009-03-24 | Finger with built-in imaging device for robot hand |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010221358A true JP2010221358A (en) | 2010-10-07 |
JP5239987B2 JP5239987B2 (en) | 2013-07-17 |
Family
ID=43039092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009072314A Expired - Fee Related JP5239987B2 (en) | 2009-03-24 | 2009-03-24 | Finger with built-in imaging device for robot hand |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5239987B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105666509A (en) * | 2016-03-17 | 2016-06-15 | 清华大学 | Three-degree-of-freedom surface-movable robot finger unit device |
WO2018235214A1 (en) * | 2017-06-21 | 2018-12-27 | 株式会社齋藤創造研究所 | Manipulator and robot |
CN109460159A (en) * | 2017-08-20 | 2019-03-12 | 原相科技股份有限公司 | Rocking bar control method associated therewith |
JP2019059015A (en) * | 2017-09-26 | 2019-04-18 | トヨタ リサーチ インスティテュート,インコーポレイティド | Robot corresponded to contact and geometry sensors having variable touch sensitivity, and method for providing robot |
WO2021001992A1 (en) * | 2019-07-04 | 2021-01-07 | 国立大学法人東北大学 | Tactile sensor, tactile sensor system, and program |
JP2021102267A (en) * | 2019-07-18 | 2021-07-15 | 株式会社齋藤創造研究所 | Manipulator and robot |
JP2021137956A (en) * | 2020-02-17 | 2021-09-16 | トヨタ リサーチ インスティテュート,インコーポレイティド | Robot arm assemblies including fingers having deformable sensors |
CN115194798A (en) * | 2022-07-12 | 2022-10-18 | 深圳金博仕机器人有限公司 | Mechanical finger with elastic structure |
US11628576B2 (en) | 2017-09-26 | 2023-04-18 | Toyota Research Institute, Inc. | Deformable sensors and methods for detecting pose and force against an object |
EP4079469A4 (en) * | 2019-12-16 | 2023-09-13 | FingerVision Co., Ltd. | Grasping device, control method, and program |
WO2024048174A1 (en) * | 2022-08-31 | 2024-03-07 | 国立大学法人大阪大学 | End effector, end effector control device, and method for controlling gripper |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05154787A (en) * | 1991-12-02 | 1993-06-22 | Fuji Electric Co Ltd | Assembling robot |
JPH07128163A (en) * | 1993-11-08 | 1995-05-19 | Fuji Electric Co Ltd | Touch sensor |
JPH0915072A (en) * | 1995-06-28 | 1997-01-17 | Casio Comput Co Ltd | Pushing force detector |
JP3047021B1 (en) * | 1999-04-05 | 2000-05-29 | 工業技術院長 | Tactile sensor |
JP2005177977A (en) * | 2003-11-25 | 2005-07-07 | Matsushita Electric Works Ltd | Robot hand control device |
JP2005257343A (en) * | 2004-03-09 | 2005-09-22 | Nagoya Industrial Science Research Inst | Optical tactile sensor, and sensing method and system, object operation force control method and device, object gripping force control device, and robot hand using optical tactile sensor |
WO2006030570A1 (en) * | 2004-09-14 | 2006-03-23 | National University Corporation Nara Institute Ofscience And Technology | Tactile sensor and use of the same |
JP2007518966A (en) * | 2003-09-16 | 2007-07-12 | 株式会社東京大学Tlo | Optical tactile sensor and force vector distribution reconstruction method using the sensor |
JP2008221345A (en) * | 2007-03-08 | 2008-09-25 | Toyota Industries Corp | Robot hand |
-
2009
- 2009-03-24 JP JP2009072314A patent/JP5239987B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05154787A (en) * | 1991-12-02 | 1993-06-22 | Fuji Electric Co Ltd | Assembling robot |
JPH07128163A (en) * | 1993-11-08 | 1995-05-19 | Fuji Electric Co Ltd | Touch sensor |
JPH0915072A (en) * | 1995-06-28 | 1997-01-17 | Casio Comput Co Ltd | Pushing force detector |
JP3047021B1 (en) * | 1999-04-05 | 2000-05-29 | 工業技術院長 | Tactile sensor |
JP2007518966A (en) * | 2003-09-16 | 2007-07-12 | 株式会社東京大学Tlo | Optical tactile sensor and force vector distribution reconstruction method using the sensor |
JP2005177977A (en) * | 2003-11-25 | 2005-07-07 | Matsushita Electric Works Ltd | Robot hand control device |
JP2005257343A (en) * | 2004-03-09 | 2005-09-22 | Nagoya Industrial Science Research Inst | Optical tactile sensor, and sensing method and system, object operation force control method and device, object gripping force control device, and robot hand using optical tactile sensor |
WO2006030570A1 (en) * | 2004-09-14 | 2006-03-23 | National University Corporation Nara Institute Ofscience And Technology | Tactile sensor and use of the same |
JP2008221345A (en) * | 2007-03-08 | 2008-09-25 | Toyota Industries Corp | Robot hand |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105666509A (en) * | 2016-03-17 | 2016-06-15 | 清华大学 | Three-degree-of-freedom surface-movable robot finger unit device |
WO2018235214A1 (en) * | 2017-06-21 | 2018-12-27 | 株式会社齋藤創造研究所 | Manipulator and robot |
JPWO2018235214A1 (en) * | 2017-06-21 | 2019-07-04 | 株式会社齋藤創造研究所 | Manipulator and robot |
CN110799313A (en) * | 2017-06-21 | 2020-02-14 | 斋藤创造研究所株式会社 | Manipulator and robot |
CN109460159A (en) * | 2017-08-20 | 2019-03-12 | 原相科技股份有限公司 | Rocking bar control method associated therewith |
CN109460159B (en) * | 2017-08-20 | 2023-01-13 | 原相科技股份有限公司 | Rocker and related control method thereof |
US11465296B2 (en) | 2017-09-26 | 2022-10-11 | Toyota Research Institute, Inc. | Deformable sensors and methods for detecting pose and force against an object |
JP2019059015A (en) * | 2017-09-26 | 2019-04-18 | トヨタ リサーチ インスティテュート,インコーポレイティド | Robot corresponded to contact and geometry sensors having variable touch sensitivity, and method for providing robot |
US11628576B2 (en) | 2017-09-26 | 2023-04-18 | Toyota Research Institute, Inc. | Deformable sensors and methods for detecting pose and force against an object |
JP7210204B2 (en) | 2017-09-26 | 2023-01-23 | トヨタ リサーチ インスティテュート,インコーポレイティド | Robots and methods for providing touch and shape sensors with varying contact sensitivities |
WO2021001992A1 (en) * | 2019-07-04 | 2021-01-07 | 国立大学法人東北大学 | Tactile sensor, tactile sensor system, and program |
JP7345902B2 (en) | 2019-07-04 | 2023-09-19 | 株式会社FingerVision | Tactile sensors, tactile sensor systems and programs |
KR102702506B1 (en) * | 2019-07-04 | 2024-09-04 | 가부시키가이샤 핑거비전 | Tactile sensors, tactile sensor systems and programs |
CN114072260A (en) * | 2019-07-04 | 2022-02-18 | 国立大学法人东北大学 | Tactile sensor, tactile sensor system, and program |
US11836823B2 (en) | 2019-07-04 | 2023-12-05 | Fingervision Co., Ltd. | Tactile sensor, tactile sensor system, and program |
KR20220027142A (en) * | 2019-07-04 | 2022-03-07 | 고쿠리츠다이가쿠호진 도호쿠다이가쿠 | Tactile Sensors, Tactile Sensor Systems and Programs |
JPWO2021001992A1 (en) * | 2019-07-04 | 2021-01-07 | ||
EP3995268A4 (en) * | 2019-07-04 | 2023-04-12 | FingerVision Co., Ltd. | Tactile sensor, tactile sensor system, and program |
JP2021102267A (en) * | 2019-07-18 | 2021-07-15 | 株式会社齋藤創造研究所 | Manipulator and robot |
JP7138294B2 (en) | 2019-07-18 | 2022-09-16 | 株式会社齋藤創造研究所 | manipulators and robots |
EP4079469A4 (en) * | 2019-12-16 | 2023-09-13 | FingerVision Co., Ltd. | Grasping device, control method, and program |
JP2021137956A (en) * | 2020-02-17 | 2021-09-16 | トヨタ リサーチ インスティテュート,インコーポレイティド | Robot arm assemblies including fingers having deformable sensors |
JP7429664B2 (en) | 2020-02-17 | 2024-02-08 | トヨタ リサーチ インスティテュート,インコーポレイティド | Robotic arm assembly including fingers with deformable sensors |
CN115194798A (en) * | 2022-07-12 | 2022-10-18 | 深圳金博仕机器人有限公司 | Mechanical finger with elastic structure |
WO2024048174A1 (en) * | 2022-08-31 | 2024-03-07 | 国立大学法人大阪大学 | End effector, end effector control device, and method for controlling gripper |
Also Published As
Publication number | Publication date |
---|---|
JP5239987B2 (en) | 2013-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5239987B2 (en) | Finger with built-in imaging device for robot hand | |
JP5261786B2 (en) | 3D tactile sensor and 3D tactile sensing method | |
JP6293221B2 (en) | Microscope module and microscope apparatus | |
JP2003260024A5 (en) | ||
EP1752864A3 (en) | Methods and systems for detecting selections on a touch screen display | |
JP2012073830A (en) | Interface device | |
WO1986003618A1 (en) | Tactile sensor devices | |
WO2012054351A3 (en) | Microscopy method and system incorporating nanofeatures | |
WO2005085785A1 (en) | Optical tactile sensor, sensing method, sensing system, object operation force controlling method, object operation force controlling device, object holding force controlling method, and robot hand | |
JP2006511871A (en) | Cursor control device | |
JP2008250774A (en) | Information equipment operation device | |
JP2009181423A (en) | Operation input device | |
JP5825604B2 (en) | 6-axis force measuring device and 6-axis force measuring method | |
JP2011028402A (en) | Optical position detecting device | |
JP2012029179A (en) | Peripheral image display device and display method thereof | |
JP2011043876A (en) | Image display device | |
CA2303469C (en) | Touch sensor | |
JP2009087329A (en) | Image input device and personal authentication device | |
JP2005182423A (en) | Coordinate input device | |
JP4916994B2 (en) | Hollow switch device and electronic device equipped with the same | |
JP2009285737A (en) | Input interface | |
CN107438532A (en) | It is assemblied in the movable or deformable touch panel system that man-machine interface is formed on steering wheel for vehicle | |
WO2015194319A1 (en) | Medical observation device and medical observation system | |
WO2009006190A3 (en) | Light guide and electronic device using light guide | |
JP2012029180A (en) | Peripheral image display device and display method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121016 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130318 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160412 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |