JP2015136769A - End effector control method - Google Patents
End effector control method Download PDFInfo
- Publication number
- JP2015136769A JP2015136769A JP2014010346A JP2014010346A JP2015136769A JP 2015136769 A JP2015136769 A JP 2015136769A JP 2014010346 A JP2014010346 A JP 2014010346A JP 2014010346 A JP2014010346 A JP 2014010346A JP 2015136769 A JP2015136769 A JP 2015136769A
- Authority
- JP
- Japan
- Prior art keywords
- end effector
- suction
- finger
- control method
- plan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、エンドエフェクタが物体を吸着する点を判断する制御方法に関する。 The present invention relates to a control method for determining a point at which an end effector attracts an object.
近年人件費の上昇に伴い工場の自動化が進んでいる。ロボットにより実行される作業は製造ライン上に固定される部材のピックアンドプレイスや簡単な組立てのみならず、少量の多様な形状の部材の組立てや製造にも使用されるようになり、このためより高い自由度のエンドエフェクタ及び対応する制御方法の需要が日増しに高まっている。 In recent years, the automation of factories has been progressing along with the increase in labor costs. The work performed by the robot is not only used for picking and placing components fixed on the production line and simple assembly, but also for the assembly and production of small quantities of various shaped components. The demand for high degree of freedom end effectors and corresponding control methods is increasing day by day.
前述した従来の技術では、例えば、特許文献1には気圧によりロボットの指を駆動させ、物を挾持する動作と記載され、さらに、従来の技術には演算法により高い自由度のエンドエフェクタを演算制御させる方法が記載されている。しかしながら、物体の外観上特殊な曲線の造形が形成されると、データベースから適切な吸着方法が見つけられず、従来の技術では人間が教示しなければならなかった。しかし、この方法は時間と労力がかかり、多様な少量の製造ラインに応用させるには適さなかった。故に、高い自由度のエンドエフェクタに応用される人工知能による演算制御法を研究開発し、産業界の需要を満たす必要があった。 In the above-described conventional technique, for example, Patent Document 1 describes the operation of driving a finger of a robot by atmospheric pressure and holding an object, and the conventional technique calculates an end effector with a high degree of freedom by an arithmetic method. A method of controlling is described. However, if a special curve shape is formed on the appearance of the object, an appropriate adsorption method cannot be found from the database, and humans have to teach in the conventional technique. However, this method is time consuming and labor intensive and is not suitable for application to various small production lines. Therefore, it was necessary to research and develop an arithmetic control method using artificial intelligence applied to end effectors with a high degree of freedom to meet the demands of the industry.
そこで、本発明者は上記の欠点が改善可能と考え、鋭意検討を重ねた結果、合理的かつ効果的に課題を改善する本発明の提案に到った。 Therefore, the present inventor considered that the above-mentioned drawbacks can be improved, and as a result of intensive studies, the present inventor has arrived at the proposal of the present invention for improving the problem reasonably and effectively.
本発明は、このような従来の問題に鑑みてなされたものである。上記課題解決のため、本発明は、エンドエフェクタの制御方法を提供することを主目的とする。 The present invention has been made in view of such conventional problems. In order to solve the above problems, it is a main object of the present invention to provide a method for controlling an end effector.
上述した課題を解決し、目的を達成するために、本発明に係るエンドエフェクタの制御方法は、ソフトウェアによって実行され、少なくとも2軸の自由度をそれぞれ有する少なくとも2本の指を有し、各前記指の末端には吸着装置が設置されるエンドエフェクタに応用されるエンドエフェクタの制御方法であって、前記制御方法は、
物体の三次元物理データを取得するステップと、
ベクトル計画により吸着に適する位置を検出するステップと、
制御命令を出し、前記エンドエフェクタを制御して上述の位置で前記物体を吸着するステップを少なくとも含み、
ここでは、前記ベクトル計画のステップは、
バーチャルプラットフォームを開設し、取得した前記物体の三次元物理データの構造をバーチャルの物体としてバーチャルプラットフォーム上に表示するステップと、
前記バーチャルの物体上に一点の基準点を設定し、前記基準点から適切な距離離れる位置に前記エンドエフェクタの作業位置を設定するステップと、
前記基準点を通過し前記バーチャルプラットフォームの平面に垂直になり、前記平面の数量は前記エンドエフェクタの前記指の数量に対応し、各平面と隣接する平面の間の挟角は等しいステップと、
各平面と前記バーチャルの物体の表面の交錯する曲線を計算するステップと、
各曲線上に前記エンドエフェクタの前記指の届く範囲で吸着位置をそれぞれ検出し、前記エンドエフェクタの前記指は前記吸着位置の前記曲線上の法線ベクトル方向に沿い前記吸着位置に近接するステップをさらに含むことを特徴とする。
In order to solve the above-described problems and achieve the object, an end effector control method according to the present invention is executed by software and has at least two fingers each having at least two degrees of freedom, An end effector control method applied to an end effector in which a suction device is installed at the end of a finger, the control method comprising:
Obtaining three-dimensional physical data of the object;
Detecting a position suitable for adsorption by a vector plan;
Issuing at least a control command and controlling the end effector to attract the object at the position described above;
Here, the vector planning step is:
Opening a virtual platform and displaying the acquired three-dimensional physical data structure of the object on the virtual platform as a virtual object;
Setting one reference point on the virtual object, and setting the working position of the end effector at a position away from the reference point by an appropriate distance;
Passing through the reference point and perpendicular to the plane of the virtual platform, the number of planes corresponding to the number of fingers of the end effector, and the included angle between each plane and the adjacent plane is equal;
Calculating intersecting curves of each plane and the surface of the virtual object;
Detecting a sucking position on each curve within a range of the finger of the end effector, and the finger of the end effector approaching the sucking position along a normal vector direction on the curve of the sucking position; It is further characterized by including.
前記ベクトル計画中では、前記基準点を前記バーチャルの物体の重心或いは図心とすることを特徴とする。 During the vector planning, the reference point is the center of gravity or centroid of the virtual object.
前記ベクトル計画では、前記適切な距離は前記エンドエフェクタの前記指が届く範囲内であることを特徴とする。 In the vector plan, the appropriate distance is within a range that the finger of the end effector can reach.
前記ベクトル計画前記曲線上で適切な吸着位置を検出出来ない場合、前記曲線が対応する平面の付近で再度前記基準点を通過し前記バーチャルプラットフォームの第二平面に垂直になり、前記第二平面と前記バーチャルの物体の表面とが交錯する第二曲線を計算し、前記第二曲線で前述の方法により吸着位置を検出するステップを更に含むことを特徴とする。 If an appropriate suction position cannot be detected on the vector plan curve, the curve again passes the reference point near the corresponding plane and is perpendicular to the second plane of the virtual platform, The method further includes calculating a second curve intersecting with the surface of the virtual object, and detecting a suction position by the above-described method using the second curve.
前記制御方法は典型的な計画を更に含み、前記典型的な計画は、前記物体の三次元物理データを分析し、ソフトウェアに組込まれる簡単な幾何形状モデルと比較するステップ、前記物体の表面の形状がソフトウェアに組込まれる簡単な幾何形状モデルに相似するか確認するステップ、及びソフトウェアに組込まれる上述のモデルでの典型的な吸着位置を計算し、前記物体の三次元物理データから検出された前記物体の表面の吸着位置と対照するステップを含む。 The control method further includes an exemplary plan, wherein the exemplary plan analyzes the three-dimensional physical data of the object and compares it with a simple geometric model embedded in software, the shape of the surface of the object The object detected from the three-dimensional physical data of the object by calculating a typical adsorption position in the above-mentioned model incorporated in the software, and confirming whether it is similar to a simple geometric model incorporated in the software Contrasting with the adsorption position of the surface.
前記制御方法は教示式計画を更に備え、前記教示式計画は、操作技師が前記制御エンドエフェクタを手動で直接前記物体付近に移動させるステップ、操作技師が手動で直接前記エンドエフェクタの前記指を制御して前記物体の表面の適切な位置に接触させるステップ、前記エンドエフェクタの前記指が上述の適切な位置で前記物体を吸着しているか確認するステップ、及び前述の前記エンドエフェクタの移動経路及び前記指の吸着位置を記録させるステップを含むことを特徴とする。 The control method further comprises a teaching formula plan, wherein the operating technician manually moves the control end effector directly near the object, and the operating technician manually controls the finger of the end effector directly. Contacting the appropriate position on the surface of the object, confirming whether the finger of the end effector is adsorbing the object at the appropriate position, and the movement path of the end effector and The method includes a step of recording a finger suction position.
前記制御方法のステップは、
a.前記物体の三次元物理データを取得するステップ、
b.典型的な計画により吸着に適する位置を検出するステップ、
c.典型的な計画では吸着に適する位置を検出出来ない場合、ベクトル計画により吸着に適する位置を検出するステップ、
d.ベクトル計画では吸着に適する位置が検出出来ない場合、教示式により計画吸着に適する位置を検出するステップ、
e.制御命令を出し前記エンドエフェクタを制御し上述の位置で前記物体を吸着するステップとなることを特徴とする。
The steps of the control method include:
a. Obtaining three-dimensional physical data of the object;
b. Detecting a suitable position for adsorption according to a typical scheme;
c. If a typical plan cannot detect a position suitable for suction, a step for detecting a position suitable for suction by a vector plan;
d. If a position suitable for suction cannot be detected in the vector plan, a step of detecting a position suitable for the planned suction by the teaching formula,
e. The control command is issued, the end effector is controlled, and the object is adsorbed at the position described above.
上述のステップにより吸着に適する位置を検出後、ソフトウェアにより吸着位置の前記法線ベクトルを計算するステップ、吸着位置上の前記法線ベクトルから延伸される予備位置を計算するステップ、前記エンドエフェクタの作業位置及び前記エンドエフェクタの前記指の前記物体を吸着する動作姿勢を計算し制御命令を発信するステップ、及び制御命令を実行し前記エンドエフェクタに前記物体を吸着させるステップを更に含むことを特徴とする。 After detecting a position suitable for suction by the above-described steps, calculating the normal vector of the suction position by software, calculating a preliminary position extended from the normal vector on the suction position, work of the end effector A step of calculating a position and an operation posture of the end effector for sucking the object and sending a control command; and executing the control command to cause the end effector to suck the object. .
本発明によれば、物体を吸着する位置を判断する数種類の方法を用い最も好ましい吸着位置を検出し、物体をスムーズに吸着する。 According to the present invention, the most preferable suction position is detected by using several methods for determining the position where the object is sucked, and the object is sucked smoothly.
以下に図面を参照して、本発明を実施するための形態について、詳細に説明する。なお、本発明は、以下に説明する実施形態に限定されるものではない。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments described below.
<第1実施例>
以下、第1実施例を図1〜6に基づいて説明する。本発明の実施形態に係るエンドエフェクタの制御方法はソフトウェアにより実行され、少なくとも2軸の自由度をそれぞれ有する少なくとも2本の指を有し、各前記指の末端には吸着装置が設置されるエンドエフェクタに応用される。この好ましい実施形態では、図6に示すように、すなわち、各々が4軸の自由度をそれぞれ有する3本の指1を有し、各指1は3本の指の関節11をそれぞれ有し、各指の関節11は隣接する指の関節に対し枢動し、上部の指の関節11aは他の指の関節を連動させて一緒に自転させて枢動させ、これにより4軸の自由度を形成させ、末端の指の関節11bに設置される吸着装置12が物体2の表面の位置P上のN方向に沿い物体2を吸着させる。
<First embodiment>
The first embodiment will be described below with reference to FIGS. An end effector control method according to an embodiment of the present invention is executed by software, has at least two fingers each having at least two degrees of freedom, and an end on which an adsorption device is installed at the end of each finger Applied to effectors. In this preferred embodiment, as shown in FIG. 6, that is, each having three fingers 1 each having four degrees of freedom, each finger 1 having three finger joints 11, respectively. Each finger joint 11 pivots with respect to the adjacent finger joint, and the upper finger joint 11a pivots together with the other finger joints in conjunction with each other, thereby providing four-axis freedom. The suction device 12 that is formed and installed at the terminal finger joint 11b sucks the object 2 along the N direction on the position P on the surface of the object 2.
また、本発明の実施形態に係るエンドエフェクタの制御方法の工程は図1に示すように、
a.物体の三次元物理データを取得するステップ、
b.典型的な計画により吸着に適する位置を検出するステップ、
c.典型的な計画では吸着に適する位置を検出出来ない場合、ベクトル計画により吸着に適する位置を検出するステップ、
d.ベクトル計画では吸着に適する位置が検出出来ない場合、教示式により計画吸着に適する位置を検出するステップ、
e.制御命令を出しエンドエフェクタを制御し上述の位置で物体を吸着するステップ、
を含む。
In addition, as shown in FIG. 1, the steps of the end effector control method according to the embodiment of the present invention are as follows.
a. Obtaining three-dimensional physical data of the object;
b. Detecting a suitable position for adsorption according to a typical scheme;
c. If a typical plan cannot detect a position suitable for suction, a step for detecting a position suitable for suction by a vector plan;
d. If a position suitable for suction cannot be detected in the vector plan, a step of detecting a position suitable for the planned suction by the teaching formula,
e. Issuing a control command to control the end effector to attract the object at the above-mentioned position;
including.
上述の制御方法では、吸着する物体の図形或いはモデルのファイルをソフトウェアに入力し、或いは、三次元レーザースキャンや立体視覚等の他の方式により、物体の三次元物理データを取得する。次に、典型的な計画及びベクトル計画の順に実行し物体上の吸着に適する位置を検出するが、吸着に適する位置が検出出来ない場合、最後手段として教示式計画により吸着位置を決定する。以下には各種の計画を説明する。 In the above-described control method, a graphic or model file of an object to be attracted is input to software, or the three-dimensional physical data of the object is acquired by another method such as three-dimensional laser scanning or stereoscopic vision. Next, a typical plan and a vector plan are executed in this order to detect a position suitable for suction on the object. If a position suitable for suction cannot be detected, the suction position is determined by a teaching formula plan as the last means. Various plans are described below.
先ず、前記典型的な計画のステップは図2に示すように、
物体の三次元物理データを分析し、ソフトウェアに組込まれる簡単な幾何形状モデルと比較するステップ、
前記物体の表面形状が何れかのソフトウェアに組込まれる簡単な幾何形状モデルに相似するか確認するステップ、
及びソフトウェアに組込まれる上述のモデルでの典型的な吸着位置を計算し、前記物体の三次元物理データから検出された前記物体の表面の吸着位置と対照するステップを含む。
First, the typical planning steps are as shown in FIG.
Analyzing the 3D physical data of the object and comparing it with a simple geometric model embedded in the software;
Checking if the surface shape of the object resembles a simple geometric model incorporated in any software;
And calculating a typical suction position in the above-mentioned model incorporated in the software and comparing it with the suction position on the surface of the object detected from the three-dimensional physical data of the object.
上述の典型的な計画は、簡単に言えば、吸着する物体とソフトウェアに組込まれる各種の簡単な幾何形状、例えば球形体、平板、矩形体等のモデルとを比較し、判断手段により物体が簡単な幾何形状モデルの何れに近似するか分析し、ソフトウェアに組込まれる簡単な幾何形状モデルの演算法の公式を適用し、前記物体の三次元物理データと対照し、吸着位置を計算する。前記判断手段は、例えば各種の組込まれる簡単な幾何形状モデルの拡大縮小により、ターゲットの物体の外形が最も近似する内接及び外接の被覆体の体積を検出し、両者の体積の差分を計算し、閾値により上述の三組のデータを分析し、前記物体が組込まれる簡単な幾何形状モデルの何れに近似するか判断する。典型的な計画はソフトウェアには特定の幾何形状に対応する演算法が組込まれ、ターゲットの物体と特定の幾何形状とが近似するか確認するのみで、組込まれる公式を適用させて吸着位置を高速に計画する。 The above-mentioned typical plan can be simply described by comparing the object to be adsorbed with various simple geometric shapes incorporated in the software, such as a model of a sphere, flat plate, rectangle, etc. It is analyzed whether the approximate geometric model is approximated, a simple geometric model calculation formula incorporated in software is applied, and the adsorption position is calculated against the three-dimensional physical data of the object. The determination means detects, for example, the volume of the inscribed and circumscribed covering that approximates the outer shape of the target object by scaling various simple geometric models to be incorporated, and calculates the difference between the two volumes. The three sets of data described above are analyzed based on the threshold value, and it is determined which of the simple geometric models into which the object is to be approximated. A typical plan is that the software incorporates a calculation method that corresponds to a specific geometry, and simply checks whether the target object approximates the specific geometry. To plan.
吸着する物体がソフトウェアに組込まれる簡単な幾何形状モデルの何れにも近似しない場合、ベクトル計画により吸着位置を検出する。前記ベクトル計画のステップは図3のように、
バーチャルプラットフォームを開設し、物体の三次元物理データ構造をバーチャルの物体としてバーチャルプラットフォーム上に表示するステップ、
バーチャルの物体に一点の基準点を設定し、前記基準点から適切な距離離れる位置にエンドエフェクタの作業位置を設定するステップ、
前記基準点を通過し前記バーチャルプラットフォームの平面に垂直になるステップ、
各平面と前記バーチャルの物体の表面とが交錯する曲線を計算するステップ、
及び各曲線上でエンドエフェクタの指が届く範囲で吸着位置をそれぞれ検出するステップを含む。
If the object to be attracted does not approximate any of the simple geometric models incorporated in the software, the attracting position is detected by vector planning. The vector planning step is as shown in FIG.
Opening a virtual platform and displaying the 3D physical data structure of the object as a virtual object on the virtual platform;
Setting one reference point on the virtual object, and setting the working position of the end effector at a position away from the reference point by an appropriate distance;
Passing through the reference point and being perpendicular to the plane of the virtual platform;
Calculating a curve where each plane intersects the surface of the virtual object;
And a step of detecting the suction position within the range where the finger of the end effector reaches on each curve.
この計画では、前記基準点は前記バーチャルの物体の重心或いは図心であり、ソフトウェアにより計算し分析する。エンドエフェクタの作業位置は前記基準点から適切な距離をとり、前記適切な距離はエンドエフェクタの指が届く範囲である。これにより、前記エンドエフェクタは前記作業位置を計画により吸着する位置の基点とする。続いて、エンドエフェクタの指に対応する数量の前記基準点を通過し前記バーチャルプラットフォームの平面に垂直になり、各平面と隣接する平面との間の挟角は相等になり、これら平面と前記バーチャルの物体の表面とはそれぞれ交錯し曲線を形成させ、ソフトウェアにより計算し、各曲線上のエンドエフェクタの指が届く最も遠い位置から最も近い位置へ順に吸着位置を検出する。詳述すると、前記曲線は複数の点が接続されることで形成され、ソフトウェアにより各点の法線ベクトルを計算し、エンドエフェクタの指が何れか一点の法線ベクトルに沿い近接すると、前記の点が吸着に適合する位置となる。 In this plan, the reference point is the center of gravity or centroid of the virtual object and is calculated and analyzed by software. The working position of the end effector takes an appropriate distance from the reference point, and the appropriate distance is within a range where the finger of the end effector can reach. Thereby, the end effector sets the work position as a base point of the position where the work position is adsorbed by plan. Subsequently, the plane passes through the reference point in the quantity corresponding to the finger of the end effector and becomes perpendicular to the plane of the virtual platform, and the included angle between each plane and the adjacent plane is equal, and these planes and the virtual platform The surface of the object intersects with each other to form a curve, is calculated by software, and the adsorption position is detected in order from the farthest position where the finger of the end effector on each curve reaches to the closest position. More specifically, the curve is formed by connecting a plurality of points, the normal vector of each point is calculated by software, and when the end effector's finger is close to one of the normal vectors, The point is a position suitable for adsorption.
上述の曲線で適切な吸着位置を検出出来ない場合、前記曲線の対応する平面付近で前記基準点を通過し前記バーチャルプラットフォームの第二平面に垂直になり、前記第二平面とバーチャルの物体の表面とが交錯する第二曲線を計算し、前記第二曲線上で前述の方法により吸着位置を検出する。本実施例では、前記第二平面と前述の平面とは1度離れる。それでも検出できない場合はこのステップを再度行う。 If an appropriate suction position cannot be detected with the curve described above, the second plane and the surface of the virtual object pass through the reference point near the corresponding plane of the curve and are perpendicular to the second plane of the virtual platform. Is calculated, and the adsorption position is detected on the second curve by the method described above. In the present embodiment, the second plane and the plane described above are separated once. If it still cannot be detected, repeat this step.
前記ベクトル計画により完成する吸着位置の計画は吸着特性及びエンドエフェクタの指が届く範囲の限界の条件に符合し、各吸着位置は物体の基準点に対し物体に平均的に分布され、各吸着位置は皆物体の基準点から離れるという長所を更に有する。これにより、エンドエフェクタは本方法による計画の吸着位置で安定的に物体を吸着出来る。 The suction position plan to be completed by the vector plan matches the conditions of the suction characteristics and the range of the end effector's finger reach, and each suction position is distributed to the object on the average with respect to the object reference point. Have the further advantage of being far from the reference point of the object. As a result, the end effector can stably attract the object at the planned suction position according to the present method.
しかしながら、上述の典型的な計画及びベクトル計画でも吸着に適する位置を検出出来ない場合、最終的な手段として教示式計画により計画を行う。前記教示式計画は図4のように、操作技師が手動で直接エンドエフェクタを制御させ前記物体付近に移動させるステップと、操作技師が手動で直接エンドエフェクタの指を制御させて前記物体の表面の適切な位置に接触させるステップと、エンドエフェクタの指が上述の適切な位置で物体を吸着しているか確認するステップと、前述のエンドエフェクタの移動経路及び指の吸着位置を記録するステップを含む。 However, if a position suitable for adsorption cannot be detected even with the above-described typical plan and vector plan, the plan is performed by a teaching formula plan as a final means. As shown in FIG. 4, the teaching formula plan includes a step in which an operator engineer directly controls the end effector to move it to the vicinity of the object, and an operator engineer directly controls the finger of the end effector to directly control the surface of the object. A step of contacting an appropriate position; a step of confirming whether the finger of the end effector is adsorbing an object at the appropriate position; and a step of recording the movement path of the end effector and the adsorption position of the finger.
教示式計画は前述の2つのソフトウェアの自動演算を利用し実行される計画が失敗した場合、操作技師が手動方式でエンドエフェクタを直接制御し物体を掴み、掴んだ位置も操作技師の経験及び感覚に基づいた判断であり、手動による制御で掴んだ位置で物体の吸着の成功を確認後、ソフトウェアにエンドエフェクタの移動経路及び指の吸着位置を記録させ、後続のソフトウェアによるエンドエフェクタの自動制御を重複して実行する。 If the plan that is executed by using the automatic calculation of the above-mentioned two softwares fails in the teaching formula plan, the operator engineer directly controls the end effector by the manual method to grab the object, and the grasped position is also the experience and sense of the operator After confirming the successful suction of the object at the position gripped by manual control, the software records the end effector movement path and finger suction position, and the subsequent software automatically controls the end effector. Duplicate execution.
上述したように、本発明に係る制御方法は順に典型的な計画、ベクトル計画、及び教示式計画を実行し物体上で吸着に適する位置を検出し、ソフトウェアは制御エンドエフェクタの制御命令を発信する。より詳しくは、図5に示すように、吸着位置を検出後、先ずソフトウェアにより前記吸着位置の法線ベクトルを計算し、前記吸着位置の外へ前記法線ベクトルに沿い延伸される予備位置を更に計算し、同時にエンドエフェクタの作業位置を計算する。前記作業位置はエンドエフェクタの本体の置かれる位置であり、前記予備位置はエンドエフェクタの指が物体を吸着する前に置かれる位置である。次にエンドエフェクタの指が物体を吸着させるのに必要な動作姿勢を計算し、これに基き制御命令を発し、実行するとエンドエフェクタの指を制御して各指の関節が動作し物体を吸着させる。 As described above, the control method according to the present invention sequentially executes a typical plan, a vector plan, and a teaching formula plan to detect a position suitable for suction on the object, and the software issues a control command for the control end effector. . More specifically, as shown in FIG. 5, after the suction position is detected, the normal vector of the suction position is first calculated by software, and a preliminary position extended along the normal vector to the outside of the suction position is further added. Calculate the work position of the end effector at the same time. The working position is a position where the main body of the end effector is placed, and the preliminary position is a position where the finger of the end effector is placed before adsorbing an object. Next, calculate the motion posture necessary for the finger of the end effector to attract the object, issue a control command based on this, and when executed, control the finger of the end effector and move the joint of each finger to attract the object .
なお、本発明は前述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
1 指
11 指の関節
11a 上部の指の関節
11b 末端の指の関節
12 吸着装置
2 物
P 位置
N 方向
1 finger 11 finger joint 11a upper finger joint 11b end finger joint 12 adsorption device 2 object P position N direction
Claims (9)
物体の三次元物理データを取得するステップと、
ベクトル計画により吸着に適する位置を検出するステップと、
制御命令を出し、前記エンドエフェクタを制御して上述の位置で前記物体を吸着するステップを少なくとも含み、
ここでは、前記ベクトル計画のステップは、
バーチャルプラットフォームを開設し、取得した前記物体の三次元物理データの構造をバーチャルの物体としてバーチャルプラットフォーム上に表示するステップと、
前記バーチャルの物体上に一点の基準点を設定し、前記基準点から適切な距離離れる位置に前記エンドエフェクタの作業位置を設定するステップと、
前記基準点を通過し前記バーチャルプラットフォームの平面に垂直になり、前記平面の数量は前記エンドエフェクタの前記指の数量に対応し、各平面と隣接する平面の間の挟角は等しいステップと、
各平面と前記バーチャルの物体の表面の交錯する曲線を計算するステップと、
各曲線上に前記エンドエフェクタの前記指の届く範囲で吸着位置をそれぞれ検出し、前記エンドエフェクタの前記指は前記吸着位置の前記曲線上の法線ベクトル方向に沿って前記吸着位置に近接するステップをさらに含むことを特徴とするエンドエフェクタの制御方法。 An end effector control method applied to an end effector that is executed by software and has at least two fingers each having at least two degrees of freedom, and a suction device is installed at the end of each finger. The control method is:
Obtaining three-dimensional physical data of the object;
Detecting a position suitable for adsorption by a vector plan;
Issuing at least a control command and controlling the end effector to attract the object at the position described above;
Here, the vector planning step is:
Opening a virtual platform and displaying the acquired three-dimensional physical data structure of the object on the virtual platform as a virtual object;
Setting one reference point on the virtual object, and setting the working position of the end effector at a position away from the reference point by an appropriate distance;
Passing through the reference point and perpendicular to the plane of the virtual platform, the number of planes corresponding to the number of fingers of the end effector, and the included angle between each plane and the adjacent plane is equal;
Calculating intersecting curves of each plane and the surface of the virtual object;
Detecting a suction position on each curve within a range of the finger of the end effector, and the finger of the end effector being close to the suction position along a normal vector direction on the curve of the suction position An end effector control method, further comprising:
a.前記物体の三次元物理データを取得するステップ、
b.典型的な計画により吸着に適する位置を検出するステップ、
c.典型的な計画では吸着に適する位置を検出出来ない場合、ベクトル計画により吸着に適する位置を検出するステップ、
d.ベクトル計画では吸着に適する位置が検出出来ない場合、教示式により計画吸着に適する位置を検出するステップ、
e.制御命令を出し、前記エンドエフェクタを制御して上述の位置で前記物体を吸着するステップとなることを特徴とする、請求項6に記載のエンドエフェクタの制御方法。 The order of the steps of the control method is as follows:
a. Obtaining three-dimensional physical data of the object;
b. Detecting a suitable position for adsorption according to a typical scheme;
c. If a typical plan cannot detect a position suitable for suction, a step for detecting a position suitable for suction by a vector plan;
d. If a position suitable for suction cannot be detected in the vector plan, a step of detecting a position suitable for the planned suction by the teaching formula,
e. The method for controlling an end effector according to claim 6, wherein a control command is issued to control the end effector to attract the object at the position described above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014010346A JP2015136769A (en) | 2014-01-23 | 2014-01-23 | End effector control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014010346A JP2015136769A (en) | 2014-01-23 | 2014-01-23 | End effector control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015136769A true JP2015136769A (en) | 2015-07-30 |
Family
ID=53768138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014010346A Pending JP2015136769A (en) | 2014-01-23 | 2014-01-23 | End effector control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015136769A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016145115A (en) * | 2016-05-18 | 2016-08-12 | アマゾン テクノロジーズ インコーポレイテッド | System and method for automatic picking of product in material handling facility |
JP2018203480A (en) * | 2017-06-07 | 2018-12-27 | 株式会社東芝 | Sorting apparatus and sorting system |
JP2019081208A (en) * | 2017-10-30 | 2019-05-30 | 株式会社東芝 | Information processing device and robot arm control system |
US10589422B2 (en) | 2017-01-11 | 2020-03-17 | Fanuc Corporation | Article conveying apparatus |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6416388A (en) * | 1987-07-07 | 1989-01-19 | Oki Electric Ind Co Ltd | Robot-hand device |
JP2005007486A (en) * | 2003-06-16 | 2005-01-13 | Toyota Motor Corp | Gripping control device of robot hand |
JP2005335010A (en) * | 2004-05-26 | 2005-12-08 | Toyota Motor Corp | Gripping control device |
JP2006026875A (en) * | 2004-07-21 | 2006-02-02 | Toyota Motor Corp | Gripping control device for robot hand |
JP2006130580A (en) * | 2004-11-02 | 2006-05-25 | Toyota Motor Corp | Method for gripping arbitrarily-shaped object by robot |
US20100156125A1 (en) * | 2008-12-22 | 2010-06-24 | Samsung Electronics Co., Ltd. | Robot hand and humanoid robot having the same |
JP2013519532A (en) * | 2010-02-10 | 2013-05-30 | エスアールアイ インターナショナル | Electrostatic adhesion gripping |
JP2013111728A (en) * | 2011-11-30 | 2013-06-10 | Ihi Corp | Gripping operation setting method, device and program |
JP2014097555A (en) * | 2012-11-15 | 2014-05-29 | Precision Machinery Research Development Center | End effector |
JP2014144526A (en) * | 2013-01-30 | 2014-08-14 | Seiko Epson Corp | Robot control method, robot control device, robot, and robot system |
-
2014
- 2014-01-23 JP JP2014010346A patent/JP2015136769A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6416388A (en) * | 1987-07-07 | 1989-01-19 | Oki Electric Ind Co Ltd | Robot-hand device |
JP2005007486A (en) * | 2003-06-16 | 2005-01-13 | Toyota Motor Corp | Gripping control device of robot hand |
JP2005335010A (en) * | 2004-05-26 | 2005-12-08 | Toyota Motor Corp | Gripping control device |
JP2006026875A (en) * | 2004-07-21 | 2006-02-02 | Toyota Motor Corp | Gripping control device for robot hand |
JP2006130580A (en) * | 2004-11-02 | 2006-05-25 | Toyota Motor Corp | Method for gripping arbitrarily-shaped object by robot |
US20100156125A1 (en) * | 2008-12-22 | 2010-06-24 | Samsung Electronics Co., Ltd. | Robot hand and humanoid robot having the same |
JP2013519532A (en) * | 2010-02-10 | 2013-05-30 | エスアールアイ インターナショナル | Electrostatic adhesion gripping |
JP2013111728A (en) * | 2011-11-30 | 2013-06-10 | Ihi Corp | Gripping operation setting method, device and program |
JP2014097555A (en) * | 2012-11-15 | 2014-05-29 | Precision Machinery Research Development Center | End effector |
JP2014144526A (en) * | 2013-01-30 | 2014-08-14 | Seiko Epson Corp | Robot control method, robot control device, robot, and robot system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016145115A (en) * | 2016-05-18 | 2016-08-12 | アマゾン テクノロジーズ インコーポレイテッド | System and method for automatic picking of product in material handling facility |
US10589422B2 (en) | 2017-01-11 | 2020-03-17 | Fanuc Corporation | Article conveying apparatus |
JP2018203480A (en) * | 2017-06-07 | 2018-12-27 | 株式会社東芝 | Sorting apparatus and sorting system |
JP2019081208A (en) * | 2017-10-30 | 2019-05-30 | 株式会社東芝 | Information processing device and robot arm control system |
JP7062406B2 (en) | 2017-10-30 | 2022-05-16 | 株式会社東芝 | Information processing equipment and robot arm control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10857673B2 (en) | Device, method, program and recording medium, for simulation of article arraying operation performed by robot | |
JP7338034B2 (en) | Efficient robot control based on input from remote client devices | |
JP6807949B2 (en) | Interference avoidance device | |
Bagnell et al. | An integrated system for autonomous robotics manipulation | |
JP5850004B2 (en) | Robot control apparatus and robot control method | |
US9604360B2 (en) | Robot system for preventing accidental dropping of conveyed objects | |
JP5778311B1 (en) | Picking apparatus and picking method | |
US20220219318A1 (en) | System and method for robotic gripping utilizing dynamic collision modeling for vacuum suction and finger control | |
JP5939213B2 (en) | Robot control apparatus and robot control method | |
KR102159847B1 (en) | Determination of grip spaces related to object using a robot | |
JP2015136769A (en) | End effector control method | |
JP6653064B2 (en) | Simulation apparatus, robot, simulation method, and program therefor | |
Kaldestad et al. | Collision avoidance with potential fields based on parallel processing of 3D-point cloud data on the GPU | |
JP7481427B2 (en) | Removal system and method | |
US20180250827A1 (en) | Robot system, and control method | |
CN110076780A (en) | The robotic asssembly method and system that view-based access control model and force feedback pose are adjusted | |
Adjigble et al. | An assisted telemanipulation approach: combining autonomous grasp planning with haptic cues | |
US11157226B2 (en) | Control apparatus, head mounted display and robot system | |
TWI649169B (en) | Holding position and posture teaching device, holding position and posture teaching method, and robot system | |
Jiao et al. | Vision based cable assembly in constrained environment | |
Chang et al. | Model-based manipulation of linear flexible objects with visual curvature feedback | |
Lei et al. | Unknown object grasping using force balance exploration on a partial point cloud | |
Pedrosa et al. | A skill-based architecture for pick and place manipulation tasks | |
US20210090201A1 (en) | Visual interface and communications techniques for use with robots | |
Sylari et al. | Hand gesture-based on-line programming of industrial robot manipulators |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20151001 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20151112 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20151214 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160114 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160308 |