JP2010162638A - Robot hand - Google Patents
Robot hand Download PDFInfo
- Publication number
- JP2010162638A JP2010162638A JP2009006121A JP2009006121A JP2010162638A JP 2010162638 A JP2010162638 A JP 2010162638A JP 2009006121 A JP2009006121 A JP 2009006121A JP 2009006121 A JP2009006121 A JP 2009006121A JP 2010162638 A JP2010162638 A JP 2010162638A
- Authority
- JP
- Japan
- Prior art keywords
- light
- image
- robot hand
- imaging device
- gripping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、ロボットハンドに係り、特に散積みの中から精度良く物体を選別し、物体を把持することができるロボットハンドに関する。 The present invention relates to a robot hand, and more particularly to a robot hand that can accurately select an object from scattered objects and can grip the object.
オートメーション化が進展した現在、産業用ロボットを用いた合理的な作業が必要不可欠となっている。その中でも、散積みにされた、例えば箱状の物体をロボットハンドによって把持する技術が、盛んに研究されるようになってきた。 With the progress of automation, rational work using industrial robots is indispensable. Among them, techniques for gripping, for example, box-shaped objects with a robot hand have been actively studied.
従来のロボットハンドでは、指部に光学式の摺動検出器を設けて、その摺動検出器によって指部の把持力を自動的に決定する制御方法及び装置が発明されている(例えば、特許文献1参照)。 In a conventional robot hand, a control method and apparatus have been invented in which an optical sliding detector is provided on a finger and the gripping force of the finger is automatically determined by the sliding detector (for example, a patent) Reference 1).
しかしながら、上記特許文献1に記載のロボットハンドでは物体を把持することは可能であっても、散積みの中から適切に物体を選別することが困難であるという問題があった。
However, the robot hand described in
本発明は上記問題点を解決するためになされたもので、精度よく物体を選別し、物体を把持することができるロボットハンドを提供することを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a robot hand that can accurately select an object and can grip the object.
上記目的を達成するために、本発明のロボットハンドは支持部と、前記支持部に設けられ、物体を把持するための対向する第1及び第2の把持部と、前記第1及び前記第2の把持部にそれぞれ設けられ、前記物体に光を照射するための対向する第1及び第2の光源と、
前記支持部に設けられ、且つ、前記第1及び前記第2の把持部を含む平面によって挟まれた領域に設けられ、且つ、前記光によって照射された前記物体を撮像して前記物体の画像を取得する撮像装置と、前記撮像装置に接続され、且つ、前記撮像装置で取得した前記画像を処理する画像処理装置とを備えたロボットハンドであることを特徴とする。
In order to achieve the above object, a robot hand according to the present invention is provided with a support portion, first and second gripping portions that are provided on the support portion and are opposed to grip an object, and the first and second First and second light sources facing each other for irradiating the object with light,
An image of the object is obtained by imaging the object that is provided in the support and provided in an area sandwiched between planes including the first and second gripping parts and irradiated with the light. The robot hand includes an imaging device to be acquired and an image processing device that is connected to the imaging device and processes the image acquired by the imaging device.
本発明によれば、散積みの中から精度良く物体を選別し、物体を把持することができる。 According to the present invention, it is possible to accurately select an object from among the scattered objects and hold the object.
以下、図面を参照しつつ本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
また、以下説明する図面において、符号が一致するものは、同じものを示しており、重複した説明は省略する。 In the drawings to be described below, the same reference numerals indicate the same parts, and duplicate descriptions are omitted.
(第1の実施形態)
図1(a)は、本発明に係わるロボットハンドの第1の実施形態を示す図である。
(First embodiment)
FIG. 1A is a diagram showing a first embodiment of a robot hand according to the present invention.
本実施形態で示すロボットハンドは、関節部20を介してアーム部10と手首部30が接続されており、手首部30に棒状の支持部40が設けられている。
In the robot hand shown in this embodiment, the
支持部40には、2つの把持部110が設けられており、2つの把持部110はそれぞれが対向した位置関係に設けられている。また、支持部40には、物体100を検出するための撮像装置50が設けられている。アーム部10と手首部30は、関節部20によって把持部110をあらゆる方向に位置決めすることが可能なように、柔軟な動きをすることができる。
The
更に、把持部110は、スライドガイド60、バネ70、棒状の指部80から構成されており、その先端部に物体100を照射するための光源90が設けられている。
Further, the gripping part 110 includes a
また、把持部110は複数であってもよく、例えば、図1(b)のように把持部110を4つの構成にしても良い。図1(b)は、ロボットハンドを上方向から眺めた図を示しており、簡単のために、支持部40、光源90、把持部110以外は省略している。つまり、一方の把持部110に設けられた光源90の反対側に、他方の把持部110に設けられた光源90が設けられており、それぞれの光源90から物体100に向けて光を照射することができれば良い。
Also, there may be a plurality of gripping portions 110. For example, the gripping portion 110 may have four configurations as shown in FIG. FIG. 1B shows a view of the robot hand as viewed from above. For the sake of simplicity, components other than the
図2は、関節部20の駆動機構の一例を示す図である。図2に示すように、アーム部10に設けられたモータ11の駆動力を減速機12により減速し、その駆動力を関節部20に設けられた傘歯歯車21に伝えて回転させることにより、手首部30を動かすことができる。
FIG. 2 is a diagram illustrating an example of a drive mechanism of the
図1(a)の支持部40は、手首部30に固定されており、物体100を把持するための2つの把持部110を備えている。把持部110を開閉する機構(水平方向に移動する機構)は、例えば、支持部40中に横送りボールネジとステッピングモータを備えて、ステッピングモータの駆動により開閉操作を行えばよい。
The
更に、支持部40には、2つの対向する把持部110を含む平面によって挟まれた領域に、撮像装置50が取り付けられている。撮像装置50は、例えば、2つの把持部110の間であって、支持部40の中央に設けられることが望ましいが、物体100を撮像することが可能であれば支持部40のどこに設けて良い。また、各把持部110は、物体100を把持するために、スライドガイド60、バネ70、指部80等から構成されている。スライドガイド60は、支持部40に取り付けられており、内部にバネ70、指部80の一部を収納する。そして、指部80を摺動するときの移動方向(垂直方向)の案内ガイドの働きをする。また、物体100を把持する際には、指部80を用いて物体100を把持する動作を行う。
Further, the
バネ70は、スライドガイド60内の支持部40と指部80の間に設けられている。そして、指部80が物体100に接触したときの衝撃を吸収する働きをする。
The
また、指部80の変位量を把握するために、このバネ70と並列に変位センサを備え付けて指部80の位置を制御してもよい。他にも、ON/OFFスイッチによってアーム部10の関節部20の角度から、手首部30の高さを求めるようにして、このON/OFFスイッチをモニタリングすることにより、指部80を制御してもよい。
Further, in order to grasp the amount of displacement of the
更に、各指部80の先端部には、物体100を照らすための光源90を備えている。なお、光源90は物体100を照らすことが可能であれば、支持部40が自由に動き、様々な方向から物体100を照射することができるために、各指部80に少なくとも1つ設けられていればよい。光源90としては、例えば、発光ダイオードなどが挙げられる。
Furthermore, a
次に、ロボットハンドの動作原理について説明する。 Next, the operation principle of the robot hand will be described.
本実施形態のロボットハンドは図1(a)に示すように、物体100を認識するために、各指部80に設けられた光源90によって物体100を照らし、ロボットハンドの支持部40に設けられた撮像装置50によって物体100を撮像して画像を記憶するものである。
As shown in FIG. 1A, the robot hand according to the present embodiment illuminates the
このとき、一般的に物体100に光を当てる構造としては、図3に示すように、物体100の上方から例えばリング照明120を用いて、全体的に影を作らないように物体100を照らすものであった。
At this time, as shown in FIG. 3, for example, as shown in FIG. 3, the structure that illuminates the
しかしながら、この手法では、図3の右側の図に示すように、撮像装置50によって得られた画像には、物体100の輪郭エッジは鮮明な画像であるが、均等に上から物体100に対して光が照射されているために、内部エッジは不鮮明な画像となり、物体100の識別することができなくなることがあった。つまり、この手法では、全体的に影を作らないようにしているため、物体100の内部エッジ部の全てを抽出するには不向きである。
However, in this method, as shown in the right diagram of FIG. 3, the image obtained by the
本実施形態では、2つのステップから物体を照射する方式とした。即ち、第1のステップでは、図4に示すように、物体100の例えば左側に設置した光源90から物体100に光を照射し、物体100の上方に設置した撮像装置50によって物体100を撮像する。これにより得られた画像は、図4の右側の図に示すように、光源90に近い側の内部エッジ100aは不鮮明な画像になり、光源90から離れた側の内部エッジ100bは鮮明な画像になる。これは、物体100の右側(光源90から遠い側)には光が当たりにくく、物体100の上面部と右側面部との明暗差がつくからである。一般的に画像処理において、エッジ抽出は輝度の微分によって行われ、明暗差が鮮明な場所のエッジは抽出し易い。
In the present embodiment, the object is irradiated from two steps. That is, in the first step, as shown in FIG. 4, the
次に第2のステップでは、物体100の右側に設置した光源90から物体100に光を照射し、物体100の上方に設置した撮像装置50によって物体100を撮像する。この場合には、図5の右側の図に示すように、左側の内部エッジ100cは鮮明な画像が得られるが、右側の内部エッジ100dは不鮮明な画像が得られることになる。
Next, in the second step, the
そして、図6(a)に示すように、図4の第1のステップで得られた画像と、図5の第2のステップで得られた画像とを重畳することによって、内部エッジや輪郭エッジが鮮明な画像を得ることができることになる。 Then, as shown in FIG. 6 (a), by superimposing the image obtained in the first step of FIG. 4 and the image obtained in the second step of FIG. Therefore, a clear image can be obtained.
つまり、物体100に対して出射した光源90からの光の出射方向に対して上方から撮像装置50を用いて、物体100の画像を複数枚撮像して、それらの画像のエッジ画を抽出し、エッジ画像を合成する処理を実行すればよい。なお、撮像装置50は物体100に対して出射した光源90からの光の出射方向に対して上方から物体100を撮像すれば、鮮明な画像を得ることが可能である。しかしながら、この場合、より鮮明な画像を得るには、物体100に対して出射した光源90からの光の出射方向に対してその光の出射方向から、仰角及び俯角が45°程度以上の位置に撮像装置を設ければ、鮮明な画像を抽出することが可能である。この様子を図6(b)に示す。図6(b)は、光源90からの光の出射方向111(図6(b)で示した矢印)に対して鮮明な画像を抽出できる領域112(
出射方向111に対する仰角及び俯角が45°以上の領域)を示している。この領域112に撮像装置50を設ければ鮮明な画像を抽出することができる。
In other words, a plurality of images of the
(A region where the elevation angle and depression angle with respect to the emission direction 111 are 45 ° or more). If the
(第2の実施形態)
図7〜図9には、アーム部10の支持部40を回転しながら、支持部40に設けられた2つの把持部110の各光源90から出射した光を物体100に照射し、上方の支持部40に設けられた撮像装置50により、各光源90から出射した光の方向に対して上方から画像を撮像する様子を示す。簡単のため、アーム部10から手首部30まで及び把持部110の細部については省略してある。
(Second Embodiment)
7 to 9, the
また、図8は図7の位置から支持部40を45°回転させた図を示し、図9は図7の位置から支持部40を90°回転させた図を示している。なお、図7〜図9の右側の図に上方向から眺めた図を示している。
8 shows a view in which the
図10は、本実施形態による物体100の撮像工程と、画像を取得するフローチャートを示す。
FIG. 10 shows an imaging process of the
まず、図7に示すように、撮像装置50を用いて画像を取得する際には、ロボットハンドのアーム部10が対象物体100に接近する(図10のステップS100)。次に、アーム部10の把持部110に設けられた光源90により物体100の第1の横方向から光を照射し、物体100の撮像画像を撮像装置50により取得する。その取得した画像に対して画像処理装置(図示せず)により、画像の微分処理を行うことによって、エッジを抽出する(図10のステップS110)。このエッジ画像をAとする。
First, as shown in FIG. 7, when an image is acquired using the
なお、画像処理装置は撮像装置50内に内蔵してもよいし、ロボットハンドに外部接続するものであってもよい。また、撮像装置50は、支持部40における2つの把持部110の対向する面内であって、中央付近に備えられていれば、撮像した画像の座標変換処理を行う工程を省くことができるので好ましい。しかしながら、それ以外の位置、例えば、2つの把持部110を含む平面に対向した面内領域、若しくはそれ以外の位置に備えられていても、撮像装置50を座標変換処理によって軸合わせをすればよい。
The image processing apparatus may be built in the
画像の微分処理は、例えば、図11に示すように、灰色背景200の中央に白ウィンドウ300が表示されている場合、線分I―I’上の輝度をz軸(紙面に対して垂直方向)とし、画面横方向の座標をxとして、グラフを書くと図12のようになる。これをz=f(x)という関数とみなす。関数fは絵柄によって任意に変化する。
For example, as shown in FIG. 11, when the
そして、この関数z=f(x)をxに関して微分を行ったz’=f’(x)を描くと図13のようになり、画面としては図14のような映像が得られる。この微分処理により、画像のエッジ部を抽出することができる。 Then, when z ′ = f ′ (x) obtained by differentiating the function z = f (x) with respect to x is drawn as shown in FIG. 13, an image as shown in FIG. 14 is obtained as a screen. By this differentiation processing, the edge portion of the image can be extracted.
画像を微分してエッジを抽出する方法以外にも、フォトメトリック法を用いて物体の形状を把握することも可能である。 In addition to the method of extracting an edge by differentiating an image, it is possible to grasp the shape of an object using a photometric method.
例えば、図15のような球体120を認識する場合、固定された光源、固定された撮像装置だけでは、球体120の形状が不鮮明になる。そこで、図15の光源90の位置状態から、図16の位置に光源90を移動させることにより、球体120のテカリ位置(反射光の強い位置)が変化し、球体であることを容易に認識することができる。この手法は球体だけには限られず、楕円体、ひょうたん型等、任意の形状にも適用することができる。即ち、この方法は、暗闇の状態で物体に光を様々な方向から当てることにより、物体の形状を認識できるという技術に基づいている。
For example, when a sphere 120 as shown in FIG. 15 is recognized, the shape of the sphere 120 becomes unclear only with a fixed light source and a fixed imaging device. Accordingly, by moving the
次に、図8に示すように、把持部110を図7の状態から45°回転させて、上記した方法と同様に第2の横方向から光を照射して、上方の撮像装置50から物体100の画像を取得する(図10のステップS120)。このエッジ画像をBとする。 Next, as shown in FIG. 8, the grip 110 is rotated 45 ° from the state of FIG. 7, and light is irradiated from the second lateral direction in the same manner as described above. 100 images are acquired (step S120 in FIG. 10). Let this edge image be B.
さらに、図9に示すように、把持部110を図7の状態から90°回転させて、上記した方法と同様に第3の横方向から光を照射して、上方の撮像装置50から物体100の画像を取得する(図10のステップS130)。この画像をCとする。更に、第4の角度に把持部110を回転したときの画像も上記した方法と同様の方法で取得して(図10のステップS140)、その画像をDとする。
Further, as shown in FIG. 9, the gripping part 110 is rotated 90 ° from the state of FIG. 7, and light is irradiated from the third lateral direction in the same manner as described above, and the
そして、これらの4つの画像A、B、C、Dを重畳させて、可能な限り多くの物体100のエッジを捉えた画像を形成する(図10のステップS150)。撮像する画像の枚数としては、撮像する物体の形状によるが、例えば、90°刻みで最低2枚あればよい。
Then, these four images A, B, C, and D are superimposed to form an image that captures as many edges of the
次に、あらかじめ撮像した物体100のモデル画像と実際に取得した画像とをマッチングさせ(図10のステップS160)、物体100を認識させることにより、物体100の位置・形状を算出する(図10のステップS170)。
Next, the model image of the
マッチングの具体的方法は、例えば、図17のように、物体のある頂点の画面への投影角α、β、γがわかれば、物体とカメラの距離に依存せずに物体の三次元形状を算出することができる。これは、角度が距離に対して不変であるからである。形状が求まれば、物体の辺の長さを物体モデルと比較し、物体と撮像装置の距離を計算することができる。 For example, as shown in FIG. 17, if the projection angles α, β, γ on the screen of the object are known, the three-dimensional shape of the object can be determined without depending on the distance between the object and the camera. Can be calculated. This is because the angle is invariant with distance. Once the shape is obtained, the distance between the object and the imaging device can be calculated by comparing the length of the object side with the object model.
このようにして、様々な角度から物体100に光を照射し、光源90から出射した光の出射方向に対して上方から撮像装置50を用いて物体100を撮像することにより画像を取得し、それらの画像を重畳することにより、物体100の形状を精度よく認識することができる。
In this way, the
(第3の実施形態)
図18には、本発明の物体検出方法が適用されるロボットハンドの第3の実施形態を示す。
(Third embodiment)
FIG. 18 shows a third embodiment of a robot hand to which the object detection method of the present invention is applied.
第1の実施形態と異なる点は、第1の実施形態のロボットハンドで用いられていた指部80が導光部130になっている点が異なる。
The difference from the first embodiment is that the
導光部130は透明材料からなり、その先端は光源90から出射した光が導光部130の先端で全反射して、物体100に照射するように加工されている。透明材料としては、例えば、アクリル、ガラス等の材料を用いることができ、その材料に応じて導光部130の先端部を加工する必要がある。例えば、アクリルを用いた場合、その屈折率は1.49で、スネルの法則により全反射角は42.1°となり、導光部130の先端を最低42.1°以上でカットすればよい。また、上記の透明材料を用いた場合、加工が容易であるめ、導光部130を細長く加工することが可能である。導光部130を細長く加工することによって、手先が軽くなるので、ロボットアームのモータを小型化でき、機敏な動きと狭い空間での作業効率の向上が望める。
The light guide unit 130 is made of a transparent material, and the tip thereof is processed so that light emitted from the
図1(a)の指部80を導光部130とすることで、導光部130が透明なことにより、撮像装置50の視界を妨げないことにより、物体100をさらに精度よく選別することができるという特徴がある。なお、このとき、光源90は、導光部130が物体100を把持することによる衝撃が光源90に伝わらない位置に備え付けておけばよい。
By using the
また、本実施形態の第1の変形例として、図19に示すように導光部130の外周部を被覆部140によって覆った構成とするものである。これにより、導光部130を傷つけずに保護することができる。被覆部140としては、例えば、金属ケースや金属コートが挙げられる。このとき、導光部130の先端を覆っている被覆部140の光が出射する部分は開口しておく必要がある。
Further, as a first modification of the present embodiment, as shown in FIG. 19, the outer peripheral part of the light guide part 130 is covered with a covering
さらに、本実施形態の第3の変形例として、図20に示すように、導光部130の先端に透明の接触センサ150を設けてもよい。接触センサ150としては、例えば、抵抗型接触センサ、静電容量型接触センサ、又は圧電素子等を用いればよい。これにより、光の透過を遮らずに、物体100との接触を確認することができる。
Furthermore, as a third modification of the present embodiment, a
(第4の実施形態)
図21に本発明が適用されるロボットハンドの第4の実施形態を示す。
(Fourth embodiment)
FIG. 21 shows a fourth embodiment of a robot hand to which the present invention is applied.
本実施形態のロボットハンドは、支持部40に設置されている2つの把持部110を含む複数の平面によって挟まれた領域に、物体100を把持するためのハンド160を設けている。ハンド160は、支持部40に取り付けられている。
The robot hand of the present embodiment is provided with a hand 160 for gripping the
本実施形態も上記した方法で物体100を検出する。この場合、把持部110は支持部40に固定されており、物体100を精度よく選別する。例えば、物体100が複数個あるとき、把持部100により、物体を選別し、選別した物体100をハンド160によって物体100を把持する。
Also in this embodiment, the
また、把持部110は支持部40に固定される必要はなく、状況に応じて、把持部110又はハンド160で物体100を把持する。例えば、物体100が複数個あるときで、把持部110で把持することのできない小さな物体100がある場合、把持部110である程度物体100をかき集め、その中からハンド160を用いて複数ある物体100の中から所望の物体100を把持する。また、ハンド160は、複数備えてもよい。なお、このハンド160は本発明に用いられるロボットハンドであってもよい。
Further, the grip portion 110 does not need to be fixed to the
本発明は、上述した実施形態に限定されることなく、発明の要旨を逸脱しない範囲において、適宜設計変更することができ、また上述した第1の実施形態乃至第4の実施形態およびその変形例を適宜組み合わせても良い。 The present invention is not limited to the above-described embodiment, and can be appropriately changed in design without departing from the gist of the invention. Also, the above-described first to fourth embodiments and modifications thereof are possible. May be combined as appropriate.
10 … アーム部
11 … モータ
12 … 減速機
20 … 関節部
21 … 傘歯歯車
30 … 手首部
40 … 支持部
50 … 撮像装置
60 … スライドガイド
70 … バネ
80 … 指部
90 … 光源
100 … 物体
100a … 内部エッジ
100b … 内部エッジ
100c … 内部エッジ
100d … 内部エッジ
110 … 把持部
111 … 出射方向
112 … 領域
120 … 球体
130 … 導光部
140 … 被服部
150 … 接触センサ
160 … ハンド
DESCRIPTION OF
Claims (5)
前記支持部に設けられ、物体を把持するための対向する第1及び第2の把持部と、
前記第1及び前記第2の把持部にそれぞれ設けられ、前記物体に光を照射するための対向する第1及び第2の光源と、
前記支持部に設けられ、且つ、前記光によって照射された前記物体を撮像して前記物体の画像を取得する撮像装置と、
前記撮像装置に接続され、且つ、前記撮像装置で取得した前記画像を処理する画像処理装置とを備えたことを特徴とするロボットハンド。 A support part;
Opposing first and second gripping portions provided on the support portion for gripping an object;
First and second light sources provided on the first and second gripping units, respectively, for irradiating the object with light;
An imaging device that is provided in the support unit and captures the object irradiated with the light to obtain an image of the object;
A robot hand, comprising: an image processing device connected to the imaging device and processing the image acquired by the imaging device.
前記支持部に設けられ、物体を把持するための対向する第1及び第2の把持部と、
前記第1及び前記第2の把持部の対向する面内の少なくとも一方に設けられ、且つ、前記支持部が回転した複数の位置で、前記物体に光を照射するための光源と、
前記支持部に設けられ、且つ、前記光によって照射された前記物体を撮像して前記物体の画像を取得する撮像装置と、
前記撮像装置に接続され、且つ、前記撮像装置で取得した前記画像を処理する画像処理装置とを備えたことを特徴とするロボットハンド。 A rotatable support, and
Opposing first and second gripping portions provided on the support portion for gripping an object;
A light source for irradiating the object with light at a plurality of positions provided on at least one of the opposing surfaces of the first and second gripping units and rotated by the support unit;
An imaging device that is provided in the support unit and captures the object irradiated with the light to obtain an image of the object;
A robot hand, comprising: an image processing device connected to the imaging device and processing the image acquired by the imaging device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009006121A JP2010162638A (en) | 2009-01-14 | 2009-01-14 | Robot hand |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009006121A JP2010162638A (en) | 2009-01-14 | 2009-01-14 | Robot hand |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010162638A true JP2010162638A (en) | 2010-07-29 |
Family
ID=42579243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009006121A Pending JP2010162638A (en) | 2009-01-14 | 2009-01-14 | Robot hand |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010162638A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015160264A (en) * | 2014-02-26 | 2015-09-07 | 株式会社Ihi | gripping method and gripping device |
JP2016120545A (en) * | 2014-12-24 | 2016-07-07 | 株式会社ソフトサービス | Handling device |
JP2017104967A (en) * | 2015-11-26 | 2017-06-15 | グローリー株式会社 | Robot hand and industrial robot |
JP2018144152A (en) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device |
JP2018144219A (en) * | 2017-03-09 | 2018-09-20 | 本田技研工業株式会社 | End effector, hand device, and robot comprising the same |
US10744653B2 (en) | 2017-03-17 | 2020-08-18 | Kabushiki Kaisha Toshiba | Holding mechanism, transfer device, handling robot system, and robot handling method |
JP2020146823A (en) * | 2019-03-15 | 2020-09-17 | 株式会社デンソーウェーブ | Component picking system of robot |
JP2021015600A (en) * | 2019-07-15 | 2021-02-12 | 株式会社Mujin | System and method of object detection based on image data |
JP2021062457A (en) * | 2019-10-16 | 2021-04-22 | トヨタ紡織株式会社 | Picking device |
JP2021137910A (en) * | 2020-03-04 | 2021-09-16 | 国立研究開発法人農業・食品産業技術総合研究機構 | Crop transport device |
WO2022097409A1 (en) * | 2020-11-04 | 2022-05-12 | 川崎重工業株式会社 | Hand, robot, robot system, and control method for hand |
US20220219915A1 (en) * | 2021-01-14 | 2022-07-14 | Kabushiki Kaisha Toshiba | Holding device, transporting device, and method for controlling holding device |
JP2023017850A (en) * | 2018-08-01 | 2023-02-07 | 株式会社ミクロブ | gripper module |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58155192A (en) * | 1982-03-11 | 1983-09-14 | 三菱電機株式会社 | Robot hand |
JPH04322981A (en) * | 1991-04-17 | 1992-11-12 | Takagi Ind Co Ltd | Product conveyor |
JPH0970786A (en) * | 1995-09-06 | 1997-03-18 | Ricoh Co Ltd | Holding hand |
JPH0979990A (en) * | 1995-09-11 | 1997-03-28 | Toshiba Corp | Device and method for inspecting semiconductor device |
JP2000298726A (en) * | 1999-04-14 | 2000-10-24 | Shimadzu Corp | Appearance inspecting device |
JP2003175481A (en) * | 2001-12-11 | 2003-06-24 | Ricoh Co Ltd | Handling device |
JP2008064630A (en) * | 2006-09-07 | 2008-03-21 | Hitachi Ltd | Vehicle imager with deposit sensing function |
JP2010058243A (en) * | 2008-09-05 | 2010-03-18 | Yaskawa Electric Corp | Picking device |
-
2009
- 2009-01-14 JP JP2009006121A patent/JP2010162638A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58155192A (en) * | 1982-03-11 | 1983-09-14 | 三菱電機株式会社 | Robot hand |
JPH04322981A (en) * | 1991-04-17 | 1992-11-12 | Takagi Ind Co Ltd | Product conveyor |
JPH0970786A (en) * | 1995-09-06 | 1997-03-18 | Ricoh Co Ltd | Holding hand |
JPH0979990A (en) * | 1995-09-11 | 1997-03-28 | Toshiba Corp | Device and method for inspecting semiconductor device |
JP2000298726A (en) * | 1999-04-14 | 2000-10-24 | Shimadzu Corp | Appearance inspecting device |
JP2003175481A (en) * | 2001-12-11 | 2003-06-24 | Ricoh Co Ltd | Handling device |
JP2008064630A (en) * | 2006-09-07 | 2008-03-21 | Hitachi Ltd | Vehicle imager with deposit sensing function |
JP2010058243A (en) * | 2008-09-05 | 2010-03-18 | Yaskawa Electric Corp | Picking device |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015160264A (en) * | 2014-02-26 | 2015-09-07 | 株式会社Ihi | gripping method and gripping device |
JP2016120545A (en) * | 2014-12-24 | 2016-07-07 | 株式会社ソフトサービス | Handling device |
JP2017104967A (en) * | 2015-11-26 | 2017-06-15 | グローリー株式会社 | Robot hand and industrial robot |
JP2018144152A (en) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | Robot simulation device, robot simulation method, robot simulation program, computer-readable recording medium and recording device |
JP2018144219A (en) * | 2017-03-09 | 2018-09-20 | 本田技研工業株式会社 | End effector, hand device, and robot comprising the same |
US10933538B2 (en) | 2017-03-09 | 2021-03-02 | Honda Motor Co., Ltd. | End effector, hand device and robot equipped with the same |
US10744653B2 (en) | 2017-03-17 | 2020-08-18 | Kabushiki Kaisha Toshiba | Holding mechanism, transfer device, handling robot system, and robot handling method |
US11110613B2 (en) | 2017-03-17 | 2021-09-07 | Kabushiki Kaisha Toshiba | Holding mechanism, transfer device, handling robot system, and robot handling method |
JP7469823B2 (en) | 2018-08-01 | 2024-04-17 | 株式会社ミクロブ | Gripper Module |
JP2023017850A (en) * | 2018-08-01 | 2023-02-07 | 株式会社ミクロブ | gripper module |
JP2020146823A (en) * | 2019-03-15 | 2020-09-17 | 株式会社デンソーウェーブ | Component picking system of robot |
JP7275688B2 (en) | 2019-03-15 | 2023-05-18 | 株式会社デンソーウェーブ | Robot parts picking system |
US11288814B2 (en) | 2019-07-15 | 2022-03-29 | Mujin, Inc. | System and method of object detection based on image data |
CN114820772A (en) * | 2019-07-15 | 2022-07-29 | 牧今科技 | System and method for object detection based on image data |
JP2021015600A (en) * | 2019-07-15 | 2021-02-12 | 株式会社Mujin | System and method of object detection based on image data |
JP2021062457A (en) * | 2019-10-16 | 2021-04-22 | トヨタ紡織株式会社 | Picking device |
JP7289770B2 (en) | 2019-10-16 | 2023-06-12 | トヨタ紡織株式会社 | picking device |
JP2021137910A (en) * | 2020-03-04 | 2021-09-16 | 国立研究開発法人農業・食品産業技術総合研究機構 | Crop transport device |
JP7480460B2 (en) | 2020-03-04 | 2024-05-10 | 国立研究開発法人農業・食品産業技術総合研究機構 | Crop transport equipment |
WO2022097409A1 (en) * | 2020-11-04 | 2022-05-12 | 川崎重工業株式会社 | Hand, robot, robot system, and control method for hand |
EP4241933A4 (en) * | 2020-11-04 | 2024-06-05 | Kawasaki Jukogyo Kabushiki Kaisha | Hand, robot, robot system, and control method for hand |
JP7557342B2 (en) | 2020-11-04 | 2024-09-27 | 川崎重工業株式会社 | Hand, robot, robot system, and hand control method |
US20220219915A1 (en) * | 2021-01-14 | 2022-07-14 | Kabushiki Kaisha Toshiba | Holding device, transporting device, and method for controlling holding device |
JP7558819B2 (en) | 2021-01-14 | 2024-10-01 | 株式会社東芝 | Holding device, transport device, and method for controlling holding device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010162638A (en) | Robot hand | |
CN108290286A (en) | Method for instructing industrial robot to pick up part | |
JP6499273B2 (en) | Teaching apparatus and control information generation method | |
JP7481427B2 (en) | Removal system and method | |
JP5729219B2 (en) | Method for coupling camera coordinate system and robot coordinate system of robot control system, image processing apparatus, program, and storage medium | |
Maldonado et al. | Improving robot manipulation through fingertip perception | |
JPH0428518B2 (en) | ||
JP2021532340A (en) | Robot system for performing inspections based on pattern recognition of pharmaceutical containers | |
US8977378B2 (en) | Systems and methods of using a hieroglyphic machine interface language for communication with auxiliary robotics in rapid fabrication environments | |
EP1594040A3 (en) | Operation input device and method of operation input | |
SE529377C2 (en) | Method and arrangement for locating and picking up items from a carrier | |
US20100200753A1 (en) | Directable Light | |
JP6042291B2 (en) | Robot, robot control method, and robot control program | |
JP2010058243A (en) | Picking device | |
US10656097B2 (en) | Apparatus and method for generating operation program of inspection system | |
US20190197676A1 (en) | Object inspection system and object inspection method | |
JP6660962B2 (en) | Teaching device and control information generation method | |
RU2624288C1 (en) | Method of sorting of waste | |
US11090812B2 (en) | Inspection apparatus for optically inspecting an object, production facility equipped with the inspection apparatus, and method for optically inspecting the object using the inspection apparatus | |
CN117086873A (en) | Refractory brick grabbing detection method and grabbing device based on combined segmentation model | |
EP3156761B1 (en) | Image acquisition and processing | |
WO2016151667A1 (en) | Teaching device and method for generating control information | |
Hasan et al. | Model-free, vision-based object identification and contact force estimation with a hyper-adaptive robotic gripper | |
JP2015085434A (en) | Robot, image processing method and robot system | |
JP2008026149A (en) | Visual examination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110916 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20111125 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20111205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130412 |