JP6036662B2 - Robot simulation apparatus, program, recording medium and method - Google Patents

Robot simulation apparatus, program, recording medium and method Download PDF

Info

Publication number
JP6036662B2
JP6036662B2 JP2013241725A JP2013241725A JP6036662B2 JP 6036662 B2 JP6036662 B2 JP 6036662B2 JP 2013241725 A JP2013241725 A JP 2013241725A JP 2013241725 A JP2013241725 A JP 2013241725A JP 6036662 B2 JP6036662 B2 JP 6036662B2
Authority
JP
Japan
Prior art keywords
hand
robot
model
area
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013241725A
Other languages
Japanese (ja)
Other versions
JP2015100866A (en
Inventor
幸康 堂前
幸康 堂前
亮輔 川西
亮輔 川西
隆史 平位
隆史 平位
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013241725A priority Critical patent/JP6036662B2/en
Publication of JP2015100866A publication Critical patent/JP2015100866A/en
Application granted granted Critical
Publication of JP6036662B2 publication Critical patent/JP6036662B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

ロボットアームがバラ積みされたワークを取り出す作業を仮想空間上でシミュレーションする技術に関する。   The present invention relates to a technique for simulating a work in which a robot arm picks up a workpiece stacked in a virtual space.

センサ、ロボット、ワークのモデルを配置し、さらにワークが乱雑に積まれた状態を作成した仮想空間上で実際のバラ積み取り出し作業を模擬し、作業時間を推定する従来のロボットシミュレーション装置が、例えば特許文献1に開示されている。このようなロボットシミュレーション装置を用いて作業時間を見積もることで、実際のセンサ、ロボット、ワークを含んだシステムの設計や立ち上げを容易にし、設計や立ち上げにかかる作業期間を短縮することが可能となる。また、把持対象以外のワークに対するロボットハンドの干渉が比較的軽度である場合に対しては、ロボットのハンドモデルの寸法を仮想空間上で変更して、最適な寸法のロボットハンドを検討することが、例えば特許文献2に開示されている。   A conventional robot simulation device that arranges sensors, robots, and workpiece models, simulates actual loading and unloading work in a virtual space that creates a state where workpieces are randomly stacked, and estimates the working time, for example, It is disclosed in Patent Document 1. By estimating the work time using such a robot simulation device, it is possible to easily design and start up a system that includes actual sensors, robots, and workpieces, and to shorten the work time required for design and start-up. It becomes. In addition, when the interference of the robot hand with a workpiece other than the object to be gripped is relatively light, it is possible to change the size of the robot hand model in the virtual space and examine the robot hand with the optimum size. For example, it is disclosed in Patent Document 2.

特開2007−241857JP2007-241857 特開2007−326160(段落0041)JP2007-326160 (paragraph 0041)

従来のロボットシミュレーション装置においては、仮想空間上で最適な寸法のロボットハンドを検討することは記載されているが、把持対象以外のワークに対するロボットハンドの干渉が比較的軽度であるという限定された場合に対してのみであった。また、ロボットハンドの形状が適切でなければ、寸法の変更による把持成功率を高める効果はさらに限定的となる。一方、ワークの形状に応じて把持に適したロボットハンドの形状を選択することが可能となれば、選択の自由度が広がり、より多くの場合で把持成功率を高めることが可能となる。ロボットによるワークのバラ積み取り出し作業において、ワークの把持成功率が上がれば、取り出しにかかるタクトタイムは飛躍的に向上する。しかし、把持成功率を高めるロボットハンドの形状を選択できるロボットシミュレーション装置はこれまでになかった。   In the conventional robot simulation device, it is described that the robot hand having the optimum size in the virtual space is examined, but in the limited case that the interference of the robot hand with the workpiece other than the gripping object is relatively light Was only against. In addition, if the shape of the robot hand is not appropriate, the effect of increasing the gripping success rate by changing the dimensions is further limited. On the other hand, if the shape of the robot hand suitable for gripping can be selected according to the shape of the workpiece, the degree of freedom of selection can be expanded, and the gripping success rate can be increased in many cases. In the work for unloading and unloading workpieces by the robot, if the success rate of gripping the workpiece is increased, the tact time required for removal is dramatically improved. However, there has never been a robot simulation device that can select the shape of a robot hand that increases the success rate of gripping.

この発明は、上記の課題を解決するためになされたものであり、把持成功率を高めるロボットハンドの形状を仮想空間上での計算により選択できるロボットシミュレーション装置を得ることを目的としている。   The present invention has been made to solve the above-described problems, and an object of the present invention is to obtain a robot simulation apparatus that can select the shape of a robot hand that increases the gripping success rate by calculation in a virtual space.

この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの前記形状を選択するハンド選択部とを備え、ハンド形状モデルは、ワークを把持する際にワークに接触すべき領域を奥行きデータの奥行き方向と垂直な面に投影した2次元の領域であるハンド接触領域と、ワークを把持する際にハンド接触領域がワークに接触するより先にワークに衝突する可能性のある領域がある場合には、衝突する可能性のある領域を垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、ハンド選択部は、奥行きデータにおける各点の集まりである計測領域のうちロボットハンドがワークを把持する際にハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、計測領域のうちワークモデル接触領域にハンド接触領域を接触させるより先にハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域とを奥行きデータに基づいて求め、ハンド接触領域及びハンド衝突領域並びにワークモデル接触領域及びワークモデル衝突領域に基づいて把持可能性を算出するものである。
また、この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの形状を選択するハンド選択部とを備え、ハンド選択部は、複数種類のワークモデルに対して求められた把持可能性の平均値が最も高いロボットハンドの形状を選択するものである。
また、この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの形状を選択するハンド選択部とを備え、バラ積み演算部は、ワークモデルが積み重ねられた状態を複数回再現し、ハンド選択部は、複数回再現されたワークモデルが積み重ねられた状態に対して求められた把持可能性の平均値が最も高いロボットハンドの形状を選択するものである。
The robot simulation apparatus according to the present invention includes a stacking calculation unit that reproduces in a virtual space a state in which workpiece models obtained by modeling a workpiece are stacked, and a sensor model that models a depth measurement sensor in the virtual space. Depth measurement simulation unit that generates depth data consisting of depth information at each point by simulating depth measurement at each point of the work model using the sensor model, and hand shape model and depth data modeling the shape of multiple robot hands based on the bets, it calculates the gripping potential of the work model in the robot hand relative to the shape of a plurality of robot hand, and a hand selector for selecting the shape of the robot hand on the basis of the gripping possibility, the hand shape The model is the depth of depth data that indicates the area that should be in contact with the workpiece when gripping the workpiece. When there is a hand contact area that is a two-dimensional area projected on a plane perpendicular to the direction and an area that may collide with the work before the hand contact area touches the work when gripping the work The hand collision area is defined by a hand collision area that is a two-dimensional area obtained by projecting an area that may collide onto a vertical plane. Possibility of collision between the work model contact area, which is a candidate area for contacting the hand contact area when gripping the work, and the hand collision area before contacting the hand contact area with the work model contact area in the measurement area The work model collision area, which is a certain area, is obtained based on the depth data, and the hand contact area, hand collision area, work model contact area, And it calculates a gripping possibility based on Kumoderu impact area.
The robot simulation apparatus according to the present invention also includes a stacking unit that reproduces in a virtual space a work model obtained by modeling a work, and a sensor model that models a depth measurement sensor in the virtual space. A depth measurement simulation unit that arranges and generates depth data composed of depth information at each point by simulating depth measurement of each point of the work model by a sensor model; and a hand shape model that models the shapes of a plurality of robot hands A hand selection unit that calculates the gripping possibility of the work model in the robot hand based on the depth data for the shapes of the plurality of robot hands and selects the shape of the robot hand based on the gripping possibility. The selection unit has the highest gripping ability average value obtained for multiple types of workpiece models. There is to select the shape of the robot hand.
The robot simulation apparatus according to the present invention also includes a stacking unit that reproduces in a virtual space a work model obtained by modeling a work, and a sensor model that models a depth measurement sensor in the virtual space. A depth measurement simulation unit that arranges and generates depth data composed of depth information at each point by simulating depth measurement of each point of the work model by a sensor model; and a hand shape model that models the shapes of a plurality of robot hands A hand selection unit that calculates the gripping possibility of the work model in the robot hand based on the depth data for the shapes of the plurality of robot hands and selects the shape of the robot hand based on the gripping possibility. The stacking operation unit reproduces the stacked work model multiple times, and the hand selection unit In which the average value of the gripping possibilities determined for state reproduced workpiece model more than once stacked to select the shape of the highest robot hand.

この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの前記形状を選択するハンド選択部とを備え、ハンド形状モデルは、ワークを把持する際にワークに接触すべき領域を奥行きデータの奥行き方向と垂直な面に投影した2次元の領域であるハンド接触領域と、ワークを把持する際にハンド接触領域がワークに接触するより先にワークに衝突する可能性のある領域がある場合には、衝突する可能性のある領域を垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、ハンド選択部は、奥行きデータにおける各点の集まりである計測領域のうちロボットハンドがワークを把持する際にハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、計測領域のうちワークモデル接触領域にハンド接触領域を接触させるより先にハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域とを奥行きデータに基づいて求め、ハンド接触領域及びハンド衝突領域並びにワークモデル接触領域及びワークモデル衝突領域に基づいて把持可能性を算出するので、把持成功率を高めるロボットハンドの形状を仮想空間上での計算により選択できる。把持成功率が高いロボットハンドが選択されるので、取り出しにかかるタクトタイムを短縮可能となる。
また、この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの形状を選択するハンド選択部とを備え、ハンド選択部は、複数種類のワークモデルに対して求められた把持可能性の平均値が最も高いロボットハンドの形状を選択するので、把持成功率を高めるロボットハンドの形状を仮想空間上での計算により選択できる。把持成功率が高いロボットハンドが選択されるので、取り出しにかかるタクトタイムを短縮可能となる。
また、この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの形状を選択するハンド選択部とを備え、バラ積み演算部は、ワークモデルが積み重ねられた状態を複数回再現し、ハンド選択部は、複数回再現されたワークモデルが積み重ねられた状態に対して求められた把持可能性の平均値が最も高いロボットハンドの形状を選択するので、把持成功率を高めるロボットハンドの形状を仮想空間上での計算により選択できる。把持成功率が高いロボットハンドが選択されるので、取り出しにかかるタクトタイムを短縮可能となる。
The robot simulation apparatus according to the present invention includes a stacking calculation unit that reproduces in a virtual space a state in which workpiece models obtained by modeling a workpiece are stacked, and a sensor model that models a depth measurement sensor in the virtual space. Depth measurement simulation unit that generates depth data consisting of depth information at each point by simulating depth measurement at each point of the work model using the sensor model, and hand shape model and depth data modeling the shape of multiple robot hands based on the bets, it calculates the gripping potential of the work model in the robot hand relative to the shape of a plurality of robot hand, and a hand selector for selecting the shape of the robot hand on the basis of the gripping possibility, the hand shape The model is the depth of depth data that indicates the area that should be in contact with the workpiece when gripping the workpiece. When there is a hand contact area that is a two-dimensional area projected on a plane perpendicular to the direction and an area that may collide with the work before the hand contact area touches the work when gripping the work The hand collision area is defined by a hand collision area that is a two-dimensional area obtained by projecting an area that may collide onto a vertical plane. Possibility of collision between the work model contact area, which is a candidate area for contacting the hand contact area when gripping the work, and the hand collision area before contacting the hand contact area with the work model contact area in the measurement area The work model collision area, which is a certain area, is obtained based on the depth data, and the hand contact area, hand collision area, work model contact area, Since calculating the gripping possibilities based on Kumoderu impact area, the shape of the robot hand to increase the gripping success rate can be selected by calculation on the virtual space. Since a robot hand having a high gripping success rate is selected, the tact time required for taking out can be shortened.
The robot simulation apparatus according to the present invention also includes a stacking unit that reproduces in a virtual space a work model obtained by modeling a work, and a sensor model that models a depth measurement sensor in the virtual space. A depth measurement simulation unit that arranges and generates depth data composed of depth information at each point by simulating depth measurement of each point of the work model by a sensor model; and a hand shape model that models the shapes of a plurality of robot hands A hand selection unit that calculates the gripping possibility of the work model in the robot hand based on the depth data for the shapes of the plurality of robot hands and selects the shape of the robot hand based on the gripping possibility. The selection unit has the highest gripping ability average value obtained for multiple types of workpiece models. Since selecting the shape of the robot hand it has the shape of a robot hand to increase the gripping success rate can be selected by calculation on the virtual space. Since a robot hand having a high gripping success rate is selected, the tact time required for taking out can be shortened.
The robot simulation apparatus according to the present invention also includes a stacking unit that reproduces in a virtual space a work model obtained by modeling a work, and a sensor model that models a depth measurement sensor in the virtual space. A depth measurement simulation unit that arranges and generates depth data composed of depth information at each point by simulating depth measurement of each point of the work model by a sensor model; and a hand shape model that models the shapes of a plurality of robot hands A hand selection unit that calculates the gripping possibility of the work model in the robot hand based on the depth data for the shapes of the plurality of robot hands and selects the shape of the robot hand based on the gripping possibility. The stacking operation unit reproduces the stacked work model multiple times, and the hand selection unit Since the shape of the robot hand that has the highest average gripping probability obtained for the state where the workpiece models reproduced multiple times are stacked is selected, the shape of the robot hand that increases the gripping success rate is selected in the virtual space. It can be selected by calculating Since a robot hand having a high gripping success rate is selected, the tact time required for taking out can be shortened.

本発明の実施の形態1によるロボットシミュレーション装置を示す機能ブロック図。1 is a functional block diagram showing a robot simulation apparatus according to Embodiment 1 of the present invention. 本発明の実施の形態1によるロボットシミュレーション装置における演算部の動作を説明するためのフロー図。The flowchart for demonstrating operation | movement of the calculating part in the robot simulation apparatus by Embodiment 1 of this invention. 本発明の実施の形態1によるロボットシミュレーション装置における表示部の表示の一例を示す図。The figure which shows an example of the display of the display part in the robot simulation apparatus by Embodiment 1 of this invention. 本発明の実施の形態1によるロボットシミュレーション装置におけるロボットハンドの把持可能状態を説明するための図。The figure for demonstrating the graspable state of the robot hand in the robot simulation apparatus by Embodiment 1 of this invention. 本発明の実施の形態1によるロボットシミュレーション装置における接触領域と衝突領域で定義したロボットハンドの形状モデルを説明するための図。The figure for demonstrating the shape model of the robot hand defined in the contact area | region and the collision area | region in the robot simulation apparatus by Embodiment 1 of this invention. 本発明の実施の形態1によるロボットシミュレーション装置における領域奥行きデータの一例を示す図。The figure which shows an example of the area | region depth data in the robot simulation apparatus by Embodiment 1 of this invention. 本発明の実施の形態1によるロボットシミュレーション装置におけるワークモデルの接触領域と衝突領域を説明するための図。The figure for demonstrating the contact area and collision area | region of a workpiece | work model in the robot simulation apparatus by Embodiment 1 of this invention. 本発明の実施の形態1によるロボットシミュレーション装置における把持可能領域および把持可能性マップを求める手法を説明するための図。The figure for demonstrating the method of calculating | requiring the grippable area | region and grippability map in the robot simulation apparatus by Embodiment 1 of this invention. 本発明の実施の形態2によるロボットシミュレーション装置を示す機能ブロック図。The functional block diagram which shows the robot simulation apparatus by Embodiment 2 of this invention. 本発明の実施の形態2によるロボットシミュレーション装置における演算部の動作を説明するためのフロー図。The flowchart for demonstrating operation | movement of the calculating part in the robot simulation apparatus by Embodiment 2 of this invention. 本発明の実施の形態3によるロボットシミュレーション装置を示す機能ブロック図。The functional block diagram which shows the robot simulation apparatus by Embodiment 3 of this invention. 本発明の実施の形態3によるロボットシミュレーション装置における演算部の動作を説明するためのフロー図。The flowchart for demonstrating operation | movement of the calculating part in the robot simulation apparatus by Embodiment 3 of this invention. 本発明の実施の形態4によるロボットシミュレーション装置を示す機能ブロック図。The functional block diagram which shows the robot simulation apparatus by Embodiment 4 of this invention. 本発明の実施の形態5によるロボットシミュレーション装置を示す機能ブロック図。The functional block diagram which shows the robot simulation apparatus by Embodiment 5 of this invention.

実施の形態1.
図1は本発明の実施の形態1によるロボットシミュレーション装置を示す機能ブロック図である。なお、ここでいうロボットとは、例えば産業用の6自由度のロボットアームを指すが、6自由度でなくてもどのような自由度のロボットアームでも良い。また、ロボットアームを構造として含む双腕ロボットやヒューマノイドなどもここでいうロボットに該当する。また、ここでいうロボットハンドとは、ワークを掴むための吸着や挟持手段であり、産業用ロボットアームの先端のフランジ部分に接続されるグリッパを指すが、ヒューマノイドのアームの先端に付随する爪(もしくは指)が多数あるようなハンドも該当する。
Embodiment 1 FIG.
FIG. 1 is a functional block diagram showing a robot simulation apparatus according to Embodiment 1 of the present invention. Note that the robot here refers to, for example, a robot arm with 6 degrees of freedom for industrial use, but may be a robot arm with any degree of freedom as long as it is not 6 degrees of freedom. Further, a double-arm robot or a humanoid including a robot arm as a structure also corresponds to the robot here. The robot hand here refers to a gripping or clamping means for gripping a workpiece, and refers to a gripper connected to a flange portion at the tip of an industrial robot arm. Or a hand with a large number of fingers).

以下、図1に基づいて、本実施の形態のロボットシミュレーション装置の構成について述べる。本実施の形態のロボットシミュレーション装置は、記憶部1、演算部2、表示部3、入力部4を備える。表示部3は省略しても良いが、シミュレーション状況や結果を確認するために備えた方が便利である。演算部2は、バラ積み演算部21、奥行き計測模擬部22、ハンド選択部23、制御部24を備える。制御部24は、演算部2の全体の動作を制御する。さらに、奥行き計測模擬部22は、センサモデル配置部221、奥行きデータ生成部222を備え、ハンド選択部23は、形状モデル変換部231、形状モデル回転部232、領域抽出部233、把持可能性演算部234、評価選択部235を備える。   Hereinafter, the configuration of the robot simulation apparatus according to the present embodiment will be described with reference to FIG. The robot simulation apparatus according to the present embodiment includes a storage unit 1, a calculation unit 2, a display unit 3, and an input unit 4. The display unit 3 may be omitted, but it is more convenient to prepare for confirming the simulation status and results. The calculation unit 2 includes a stacking calculation unit 21, a depth measurement simulation unit 22, a hand selection unit 23, and a control unit 24. The control unit 24 controls the overall operation of the calculation unit 2. Further, the depth measurement simulation unit 22 includes a sensor model placement unit 221 and a depth data generation unit 222, and the hand selection unit 23 includes a shape model conversion unit 231, a shape model rotation unit 232, a region extraction unit 233, and a graspability calculation. Unit 234 and evaluation selection unit 235.

記憶部1はデータの入出力が可能なもので、例えばランダムアクセスメモリー、ハードディスクドライブ、ソリッドステートドライブなど、いずれの記憶媒体を用いても良い。また、演算部2は、ハードウェアのみで実現しても良いし、CD−ROMなどの記録媒体に記録されたプログラムをコンピュータなど情報処理装置に導入し、実行することによって実現しても良い。さらに、入力部4は、キーボード、マウス、タッチペン、タッチパッド、ジェスチャー認識装置、あるいは、部品の形状を読み取る3D(3 Dimensional)スキャナ、カメラなど、いずれの手段を利用しても良いし、これらを複数組み合わせて利用しても良い。本実施の形態のロボットシミュレーション装置は以上のように構成される。   The storage unit 1 can input and output data. For example, any storage medium such as a random access memory, a hard disk drive, or a solid state drive may be used. The computing unit 2 may be realized only by hardware, or may be realized by introducing a program recorded in a recording medium such as a CD-ROM into an information processing apparatus such as a computer and executing the program. Furthermore, the input unit 4 may use any means such as a keyboard, a mouse, a touch pen, a touch pad, a gesture recognition device, a 3D (3 Dimensional) scanner that reads the shape of a component, or a camera. Multiple combinations may be used. The robot simulation apparatus of the present embodiment is configured as described above.

以下、図1を用いて本実施の形態のロボットシミュレーション装置の動作について述べる。記憶部1には入力部4より、設計情報が入力される。入力部4により入力される設計情報は、バラ積み取り出しの対象となるワークの形状モデルであるワーク形状モデル、奥行き計測センサの形状モデルであるセンサ形状モデル、奥行き計測センサにおける奥行き計測のためのパラメータであるセンサパラメータ、ロボットハンドの形状モデル群である第1のハンド形状モデル群、ロボットの形状モデルであるロボット形状モデル、周辺環境の形状モデルである周辺環境形状モデルを含む。なお、周辺環境の形状は、ワークを収める供給箱の形状を含み、ロボットが動作する作業空間に供給箱以外の制約がある場合にはその制約も含む。また、設計情報は後述する配置情報も含む。さらに、設計情報はロボットの動作モデルを含んでも良い。   Hereinafter, the operation of the robot simulation apparatus according to the present embodiment will be described with reference to FIG. Design information is input to the storage unit 1 from the input unit 4. The design information input by the input unit 4 includes a workpiece shape model that is a shape model of a workpiece to be picked up, a sensor shape model that is a shape model of a depth measurement sensor, and parameters for depth measurement in the depth measurement sensor. A first hand shape model group that is a shape model group of the robot hand, a robot shape model that is the shape model of the robot, and a surrounding environment shape model that is a shape model of the surrounding environment. Note that the shape of the surrounding environment includes the shape of the supply box that stores the workpiece, and also includes the restriction when the work space in which the robot operates has restrictions other than the supply box. The design information also includes arrangement information described later. Further, the design information may include a robot motion model.

設計情報について更に詳しく述べる。第1のハンド形状モデル群は、ロボットハンドの形状モデルである第1のハンド形状モデルの集合であり、それぞれの第1のハンド形状モデルは互いに異なる形状を有する。これらが最終的に選択されるロボットハンドの形状の候補となる。第1のハンド形状モデルには、その形状モデルが後述する挟持方式と吸着方式のいずれであるかを判別するための情報が関連付けられている。ワーク形状モデル、センサ形状モデル、第1のハンド形状モデル、周辺環境形状モデルは、それぞれの3次元形状が分かり、さらに、それぞれの形状モデル同士が衝突したことが分かるよう、モデルの内外判定も持つCAD(Computer Aided Designing)データである。   The design information will be described in more detail. The first hand shape model group is a set of first hand shape models that are shape models of the robot hand, and each first hand shape model has a different shape. These are candidates for the shape of the robot hand to be finally selected. The first hand shape model is associated with information for determining whether the shape model is a clamping method or a suction method, which will be described later. The workpiece shape model, sensor shape model, first hand shape model, and surrounding environment shape model have a three-dimensional shape, and also have a model inside / outside determination so that the shape models can collide with each other. It is CAD (Computer Aided Designing) data.

センサパラメータとは、奥行き計測模擬部22で3次元の奥行き計測を再現するために必要なパラメータである。例えば、奥行き計測模擬部22でカメラと投光手段を持つアクティブステレオ方式の3次元センサを模擬するとすれば、カメラの焦点距離、レンズの中心位置、画素数、カメラと投光手段との相対的な位置姿勢の情報を含む。なお、位置姿勢とは位置や姿勢を表す。奥行き計測模擬部22で模擬する奥行きセンサ方式は、ステレオ視でも、Time of Flight方式でも、視体積交差方式でも、Depth from Focus方式でも、Depth from Defocus方式でも、Shape from Shading方式でも良い。   The sensor parameter is a parameter necessary for reproducing the three-dimensional depth measurement by the depth measurement simulation unit 22. For example, if the depth measurement simulation unit 22 simulates an active stereo three-dimensional sensor having a camera and a light projecting unit, the focal length of the camera, the center position of the lens, the number of pixels, and the relative relationship between the camera and the light projecting unit. Includes information on various positions and postures. Note that the position and orientation represent a position and orientation. The depth sensor method simulated by the depth measurement simulation unit 22 may be a stereo view, a Time of Flight method, a view volume intersection method, a Depth from Focus method, a Depth from Defocus method, or a Shape from Shading method.

配置情報とは、ロボット、ロボットハンド、供給箱、奥行き計測センサのそれぞれの位置姿勢の関係を示すもので、例えば、ロボットのベース座標系、ロボットハンドの座標系、供給箱の座標系、奥行き計測センサの座標系と、それぞれの座標系間の関係を表す位置姿勢情報が入力される。また、配置情報としては、ワークの座標系も入力される。これらの座標系は、ロボット、ロボットハンド、供給箱、奥行き計測センサをモデル化して仮想空間上に配置する際に、各モデルの座標系として用いられる。また、座標系間の関係は、各モデルを仮想空間上に配置する際の位置姿勢を決めるために用いられる。以上が設計情報に関する補足である。なお、本実施の形態では、設計情報は入力部4から入力されるものとしたが、予め記憶部1に記憶させておいても良い。また、予め記憶部1に記憶させたものを必要に応じて修正するように構成しても良い。記憶部1に蓄えられた設計情報は演算部2で使用される。   Arrangement information indicates the relationship between the position and orientation of the robot, robot hand, supply box, and depth measurement sensor. For example, the base coordinate system of the robot, the coordinate system of the robot hand, the coordinate system of the supply box, and depth measurement Position and orientation information representing the coordinate system of the sensor and the relationship between each coordinate system is input. Further, the coordinate system of the workpiece is also input as the arrangement information. These coordinate systems are used as the coordinate system of each model when the robot, the robot hand, the supply box, and the depth measurement sensor are modeled and arranged in the virtual space. The relationship between coordinate systems is used to determine the position and orientation when each model is arranged in the virtual space. The above is a supplement regarding design information. In the present embodiment, the design information is input from the input unit 4, but may be stored in the storage unit 1 in advance. Moreover, you may comprise so that what was previously memorize | stored in the memory | storage part 1 may be corrected as needed. The design information stored in the storage unit 1 is used by the calculation unit 2.

図2は、演算部2の動作を説明するためのフロー図である。以下では、演算部2の動作について、図1に加えて図2も用いて述べる。演算部2の動作は、制御部24により制御される。まず、ステップS211a〜S211bにおいて、バラ積み演算部21は、記憶部1からワーク形状モデル、周辺環境形状モデル、配置情報を読み出し、これらを用いて、ワークが供給箱に積み重ねられた状態を仮想空間上に再現する。以下、ステップS211a〜S211bにおけるバラ積み演算部21の動作について述べる。   FIG. 2 is a flowchart for explaining the operation of the calculation unit 2. Hereinafter, the operation of the calculation unit 2 will be described with reference to FIG. 2 in addition to FIG. The operation of the calculation unit 2 is controlled by the control unit 24. First, in steps S211a to S211b, the stacking calculation unit 21 reads the workpiece shape model, the surrounding environment shape model, and the arrangement information from the storage unit 1, and uses these to indicate the state in which the workpieces are stacked in the supply box. Reproduce above. Hereinafter, an operation of the stacking calculation unit 21 in steps S211a to S211b will be described.

ステップS211aにおいて、バラ積み演算部21は、供給箱をモデル化した供給箱モデルを仮想空間上に配置する。次に、ステップS211bにおいて、バラ積み演算部21は、供給箱モデルの中に、ワークをモデル化したワークモデルを物理的に落下させる模擬を行う。バラ積み演算部21は、供給箱モデルの上空にワークモデルを位置姿勢がランダムになるように配置し、配置されたワークモデルを供給箱モデルに落下させる。これをN回(Nは自然数)繰り返すことで、供給箱モデルにN個のワークモデルがバラ積みになった状態を再現できる。このとき、表示部3では、ワークモデルのバラ積み状態の再現をグラフィックで表示し、再現が適切かを使用者が確認することもできる。さらに、再現が適切でなければ、使用者は設計情報を修正した上でシミュレーションをやり直すこともできる。   In step S211a, the bulk stacking unit 21 arranges a supply box model obtained by modeling a supply box in the virtual space. Next, in step S211b, the unloading calculation unit 21 performs a simulation of physically dropping the work model obtained by modeling the work in the supply box model. The unloading calculation unit 21 arranges the work model above the supply box model so that the position and orientation are random, and drops the arranged work model onto the supply box model. By repeating this N times (N is a natural number), it is possible to reproduce a state in which N work models are stacked in a supply box model. At this time, the display unit 3 displays the reproduction of the workpiece model in a stacked state in a graphic so that the user can check whether the reproduction is appropriate. Furthermore, if reproduction is not appropriate, the user can redo the simulation after correcting the design information.

なお、ワークモデルの形状は、ワーク形状モデルで規定されており、供給箱モデルの形状は、周辺環境形状モデルで規定されている。このとき、各ワークモデルには座標系が規定されており、再現されたバラ積みを構成する各ワークモデルの位置姿勢が分かる。さらに、設計情報にロボットの動作モデルが含まれており、ロボットが把持したワークを持ち上げる方向が分かっていれば、ワークの干渉判定により、持ち上げるときに干渉する周辺の干渉物数を判断することができる。以上より、バラ積み演算部21は、ワークモデルが積み重ねられた状態であるバラ積みシーンを仮想空間上に再現する。バラ積み演算部21は、バラ積みシーンにおける各ワークモデルの位置姿勢、さらには各ワークモデルにおける周辺の干渉物数を出力する。以上がステップS211a〜S211bにおける演算部2の動作である。   The shape of the work model is defined by the work shape model, and the shape of the supply box model is defined by the surrounding environment shape model. At this time, a coordinate system is defined for each work model, and the position and orientation of each work model constituting the reproduced stacking is known. Furthermore, if the design information includes the robot motion model and the lifting direction of the workpiece gripped by the robot is known, it is possible to determine the number of surrounding interference objects that interfere when lifting by the workpiece interference judgment. it can. As described above, the unloading calculation unit 21 reproduces the unloading scene in a state where the work models are stacked on the virtual space. The bulk stacking operation unit 21 outputs the position and orientation of each work model in the bulk stacking scene, and the number of surrounding interference objects in each work model. The above is the operation of the calculation unit 2 in steps S211a to S211b.

次に、ステップS221〜S222において、奥行き計測模擬部22は、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによって積み重ねられたワークモデルの奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する。奥行き計測模擬部22は、センサモデル配置部221及び奥行きデータ生成部222を備える。以下、ステップS221〜S222における奥行き計測模擬部22の動作について述べる。   Next, in steps S221 to S222, the depth measurement simulation unit 22 arranges a sensor model obtained by modeling the depth measurement sensor in the virtual space, and simulates the depth measurement of the workpiece model stacked by the sensor model to each point. Depth data consisting of depth information is generated. The depth measurement simulation unit 22 includes a sensor model placement unit 221 and a depth data generation unit 222. Hereinafter, the operation of the depth measurement simulation unit 22 in steps S221 to S222 will be described.

ステップS221において、センサモデル配置部221は、記憶部1から配置情報とセンサ形状モデルとを読み出し、センサモデルを仮想空間上に配置する。この結果、仮想空間上のセンサモデルの位置姿勢が決定される。センサモデルの形状は、センサ形状モデルで規定される。同時に、センサモデル配置部221は、記憶部1から第1のハンド形状モデルの中の1つ、ロボット形状モデルと配置情報を読み出し、ロボットをモデル化したロボットモデル、ロボットハンドをモデル化したハンドモデルも仮想空間上に配置する。ロボットモデルの形状は、ロボット形状モデルで規定される。また、ハンドモデルの形状は、第1のハンド形状モデルで規定される。   In step S221, the sensor model placement unit 221 reads the placement information and the sensor shape model from the storage unit 1, and places the sensor model in the virtual space. As a result, the position and orientation of the sensor model in the virtual space are determined. The shape of the sensor model is defined by the sensor shape model. At the same time, the sensor model placement unit 221 reads one of the first hand shape models, the robot shape model and the placement information from the storage unit 1, and a robot model that models the robot, and a hand model that models the robot hand. Is also placed in the virtual space. The shape of the robot model is defined by the robot shape model. The shape of the hand model is defined by the first hand shape model.

次に、ステップS222において、奥行きデータ生成部222は、記憶部1からセンサパラメータを読み出し、読み出したセンサパラメータに基づいて、バラ積みされたワークモデルのセンサモデルによる計測を模擬して、奥行きデータを取得する。奥行きデータは、センサパラメータにより設定された視野範囲、分解能で取得した、センサモデルから対象となるワークモデルの各点までの距離を明暗で表現した画像データである。奥行きデータは、センサモデルに近いほど明るく、遠いほど暗い画像として表現している。奥行き計測模擬部22は、以上のように動作する。   Next, in step S222, the depth data generation unit 222 reads the sensor parameters from the storage unit 1, and simulates the measurement by the sensor model of the stacked workpiece models based on the read sensor parameters to obtain the depth data. get. The depth data is image data that expresses the distance from the sensor model to each point of the target work model in light and dark, acquired with the field-of-view range and resolution set by the sensor parameters. The depth data is expressed as an image that is brighter as it is closer to the sensor model and darker as it is farther away. The depth measurement simulation unit 22 operates as described above.

このとき、表示部3では、ロボットモデル、ハンドモデル、センサモデルの配置や、奥行きデータをグラフィックで表示し、配置や奥行きデータが適切かを使用者が確認することができる。再現が適切でなければ、使用者は設計情報を修正した上でシミュレーションをやり直すことができる。図3は、本実施の形態のロボットシミュレーション装置の表示部3における表示の一例を示す図である。表示部3は、奥行きデータ表示部31、仮想空間表示部32、設計情報表示部33を備える。奥行きデータ表示部31には奥行きデータが表示される。仮想空間表示部32には、仮想空間に配置された供給箱モデル、ロボットモデル、センサモデル、ハンドモデルが表示される。また、設計情報表示部33には、設計情報が表示される。   At this time, the display unit 3 displays the arrangement of the robot model, the hand model, and the sensor model, and the depth data as a graphic, so that the user can check whether the arrangement and the depth data are appropriate. If the reproduction is not appropriate, the user can redo the simulation after correcting the design information. FIG. 3 is a diagram illustrating an example of display on the display unit 3 of the robot simulation apparatus according to the present embodiment. The display unit 3 includes a depth data display unit 31, a virtual space display unit 32, and a design information display unit 33. Depth data is displayed in the depth data display unit 31. The virtual space display unit 32 displays a supply box model, a robot model, a sensor model, and a hand model arranged in the virtual space. In addition, design information is displayed on the design information display unit 33.

次に、ステップS231a〜S235において、ハンド選択部23は、奥行きデータとハンド形状モデルに基づいて把持可能性を算出し、把持可能性に基づいてロボットハンドの形状を選択する。把持可能性は、ロボットハンドでワークを把持できる可能性を表す指標であり、詳細については後述する。ハンド選択部23は、形状モデル変換部231、形状モデル回転部232、領域抽出部233、把持可能性演算部234、評価選択部235を備える。ここで、ハンド選択部23の動作を説明する前に、本実施の形態のロボットシミュレーション装置で選択するロボットハンドの形状について説明する。   Next, in steps S231a to S235, the hand selection unit 23 calculates the gripping possibility based on the depth data and the hand shape model, and selects the shape of the robot hand based on the gripping possibility. The gripping possibility is an index indicating the possibility of gripping the workpiece with the robot hand, and details will be described later. The hand selection unit 23 includes a shape model conversion unit 231, a shape model rotation unit 232, a region extraction unit 233, a grip possibility calculation unit 234, and an evaluation selection unit 235. Here, before describing the operation of the hand selection unit 23, the shape of the robot hand selected by the robot simulation apparatus of the present embodiment will be described.

ロボットハンドには大きく分けて挟持方式と吸着方式の2つの方式があり、それぞれの方式で形状は異なる。したがって、本実施の形態のロボットシミュレーション装置において、この2つの方式のいずれかを選択することも形状を選択することとなる。また、挟持方式のロボットハンドの形状を決定する項目としては、ロボットハンドの物体を挟む部分(以降爪と呼ぶ)の数、各爪の位置、各爪の形状、各爪の大きさがあり、これらのうちの少なくとも1つの項目を決定することも、本実施の形態のロボットシミュレーション装置における形状の選択に含まれる。一方、吸着方式のロボットハンドの形状を決定する項目としては、吸着パッドの数、各吸着パッドの位置、各吸着パッドの形状、各吸着パッドの大きさがあり、これらのうちの少なくとも1つの項目を決定することも、本実施の形態のロボットシミュレーション装置における形状の選択に含まれる。   Robot hands can be broadly divided into two methods, a pinching method and a suction method, and the shape of each method is different. Therefore, in the robot simulation apparatus of the present embodiment, selecting either of these two methods also selects the shape. In addition, the items that determine the shape of the holding robot hand include the number of parts (hereinafter referred to as nails) that sandwich the object of the robot hand, the position of each nail, the shape of each nail, and the size of each nail. Determination of at least one of these items is also included in the shape selection in the robot simulation apparatus of the present embodiment. On the other hand, items for determining the shape of the suction type robot hand include the number of suction pads, the position of each suction pad, the shape of each suction pad, and the size of each suction pad, and at least one of these items. Is also included in the shape selection in the robot simulation apparatus of the present embodiment.

さらに、ハンド選択部23の動作を説明する前に、把持可能性の算出に用いる把持可能状態の定義を述べる。把持可能状態とは、ロボットハンドがワークを把持することが可能な状態である。図4は、ロボットハンドにおける把持可能状態を説明するための図である。挟把方式のロボットハンドにおける把持可能状態とは、ロボットハンドが対象物を挟み、ロボットハンドの衝突領域(爪部分)にぶつかるものがなく、さらに接触領域(爪の間の挟む隙間)が対象物と接触している状態である。一方、吸着方式のロボットハンドにおける把持可能状態とは、接触領域(吸着パッドの断面)が残らず対象物表面に接触している状態である。ここで、ロボットハンドの形状は、接触領域と衝突領域で定義することができる。   Furthermore, before describing the operation of the hand selection unit 23, the definition of the grippable state used for calculating the grippability is described. The grippable state is a state in which the robot hand can grip the workpiece. FIG. 4 is a diagram for explaining a grippable state in the robot hand. The gripping state in the pinch type robot hand means that the robot hand pinches the target object, there is nothing to hit the collision area (claw part) of the robot hand, and the contact area (gap between the claws) is the target object. Is in contact with. On the other hand, the grippable state in the suction type robot hand is a state in which no contact area (cross section of the suction pad) remains and is in contact with the surface of the object. Here, the shape of the robot hand can be defined by a contact area and a collision area.

ロボットハンドの接触領域は、対象物であるワークを把持する際にワークの表面に接触すべき領域を、ロボットハンドをワーク側から見た面に投影した2次元の領域である。ここで、ワークの表面に接触すべき領域とは、ワークを把持する際に接触させようとする領域である。ワークの形状や把持方式などによって、必ずしも接触領域の全てがワークに接触するわけではない。ワークが正常に把持された際には、ロボットハンドの接触領域の少なくとも一部は、ワークの表面に接触する。   The contact area of the robot hand is a two-dimensional area obtained by projecting an area that should be in contact with the surface of the workpiece when the workpiece, which is an object, is gripped, onto a plane viewed from the workpiece side. Here, the region to be in contact with the surface of the workpiece is a region to be brought into contact when gripping the workpiece. Depending on the shape and gripping method of the workpiece, the entire contact area does not necessarily contact the workpiece. When the work is normally gripped, at least a part of the contact area of the robot hand comes into contact with the surface of the work.

また、ロボットハンドの衝突領域は、ワークの把持の際にワークや供給箱に衝突し、接触領域がワークの表面に接触する障害となる可能性がある領域を、奥行きデータの奥行き方向と垂直な面に投影した2次元の領域である。ロボットハンドの爪など、接触領域と比較してワーク側に突き出している領域が衝突領域となる。別の表現では、ハンド衝突領域は、ワークを把持する際に、ハンド接触領域がワークに接触するより先にワークに衝突する可能性のある領域を前記垂直な面に投影した2次元の領域である。なお、ハンド衝突領域がないロボットハンドも存在する。   In addition, the collision area of the robot hand is an area perpendicular to the depth direction of the depth data, where the area that may collide with the workpiece or the supply box when gripping the workpiece and the contact area may interfere with the surface of the workpiece. This is a two-dimensional area projected onto a surface. An area that protrudes toward the workpiece as compared to the contact area, such as a claw of the robot hand, is a collision area. In another expression, the hand collision area is a two-dimensional area obtained by projecting, onto the vertical plane, an area where the hand contact area may collide with the work before the hand contact area touches the work. is there. Some robot hands have no hand collision area.

図5は、接触領域と衝突領域で定義したロボットハンドの形状モデルを説明するための図である。図5から、爪の本数が変わったり、ロボットハンドの方式が変わっても、接触領域Htと衝突領域Hcでハンドの形状を定義できることが分かる。第2のハンド形状モデルにおいて、接触領域や衝突領域は、円や矩形の組み合わせで表現することができる。例えば、図5に示す挟持方式の2本爪タイプのロボットハンドであれば、衝突領域の縦、横、接触領域の縦、横の4パラメータで形状を表現することができる。したがって、円や矩形の数、それぞれの円や矩形の位置、円の半径、矩形の各辺の長さが、ロボットハンドの形状を決定するための形状パラメータとなる。図5に示す吸着タイプであれば半径1パラメータで形状を表現することができる。   FIG. 5 is a diagram for explaining a shape model of the robot hand defined by the contact area and the collision area. FIG. 5 shows that the shape of the hand can be defined by the contact area Ht and the collision area Hc even if the number of nails changes or the robot hand system changes. In the second hand shape model, the contact area and the collision area can be expressed by a combination of a circle and a rectangle. For example, in the case of a two-claw type robot hand of the clamping system shown in FIG. 5, the shape can be expressed by four parameters of the vertical and horizontal of the collision area, and the vertical and horizontal of the contact area. Therefore, the number of circles and rectangles, the position of each circle and rectangle, the radius of the circle, and the length of each side of the rectangle are the shape parameters for determining the shape of the robot hand. In the case of the suction type shown in FIG. 5, the shape can be expressed by a radius 1 parameter.

以下、ステップS231a〜S235におけるハンド選択部23の動作を説明する。ステップS231aにおいて、形状モデル変換部231は、記憶部1からCADデータ形式の第1のハンド形状モデルの1つを読み出す。続いて、ステップS231bにおいて、形状モデル変換部231は、読み出した第1のハンド形状モデルを接触領域と衝突領域で定義された第2のハンド形状モデルに変換する。第2のハンド形状モデルは、2次元のデータとなる。第2のハンド形状モデルは、接触領域と衝突領域を別にした2つのデータで構成しても良いし、接触領域と衝突領域を合成した1つのデータとしても良い。ここで、第2のハンド形状モデルにおける接触領域をハンド接触領域と呼び、第2のハンド形状モデルにおける衝突領域をハンド衝突領域と呼ぶ。   Hereinafter, operation | movement of the hand selection part 23 in step S231a-S235 is demonstrated. In step S231a, the shape model conversion unit 231 reads one of the first hand shape models in the CAD data format from the storage unit 1. Subsequently, in step S231b, the shape model conversion unit 231 converts the read first hand shape model into a second hand shape model defined by the contact area and the collision area. The second hand shape model is two-dimensional data. The second hand shape model may be composed of two pieces of data in which the contact area and the collision area are separately provided, or may be one data obtained by combining the contact area and the collision area. Here, the contact area in the second hand shape model is referred to as a hand contact area, and the collision area in the second hand shape model is referred to as a hand collision area.

本実施例では、ハンド接触領域とハンド衝突領域を別のデータで表すものとし、第2のハンド形状モデルは、ハンド接触領域データとハンド衝突領域データで構成される。ハンド接触領域データは、ハンド接触領域に該当する画素の値を1、ハンド接触領域以外の画素の値を0とした画像データである。また、ハンド衝突領域データは、ハンド衝突領域に該当する画素の値を1、ハンド衝突領域以外の画素の値を0とした画像データである。画像データは、画素の位置に対する画素の値の関数と考えることもできるので、ハンド接触領域データ及びハンド衝突領域データも、画素の位置に対する画素の値の関数と考えることもできる。なお、互いに異なる形状の第2のハンド形状モデルの集合である第2のハンド形状モデル群を予め用意しておき、設計情報として記憶部1に記憶するように構成することもできる。この場合には、ステップS231bの処理は不要となり、形状モデル変換部231も不要となる。   In the present embodiment, the hand contact area and the hand collision area are represented by different data, and the second hand shape model is composed of hand contact area data and hand collision area data. The hand contact area data is image data in which the value of a pixel corresponding to the hand contact area is 1 and the value of a pixel other than the hand contact area is 0. The hand collision area data is image data in which the value of the pixel corresponding to the hand collision area is 1 and the value of the pixels other than the hand collision area is 0. Since the image data can be considered as a function of the pixel value with respect to the pixel position, the hand contact area data and the hand collision area data can also be considered as a function of the pixel value with respect to the pixel position. A second hand shape model group, which is a set of second hand shape models having different shapes, may be prepared in advance and stored in the storage unit 1 as design information. In this case, the process of step S231b is unnecessary, and the shape model conversion unit 231 is also unnecessary.

次に、ステップS232において、形状モデル回転部232は、第2のハンド形状モデルを制御部24から与えられる面内回転角だけ面内回転して第3のハンド形状モデルを生成する。ここで、面内回転とは、第2のハンド形状モデルにおいて、接触領域と衝突領域が定義される平面内での回転を言う。また、面内回転する角度である面内回転角は、初期値が0度であり、処理の度に予め設定される回転分割数で360度を分割した角度分だけ順次変化する。例えば、回転分割数を12と設定すると、最初の処理では面内回転角は0度(すなわち回転しない)となり、2回目の処理では面内回転角は30度、12回目の処理では面内回転角は330度となる。第3のハンド形状モデルを生成することで、同じ形状のロボットハンドに対して、ロボットハンドの姿勢を変化させた場合に、それぞれどれだけ把持可能性があるかを知ることができる。ここで、第3のハンド形状モデルも第2のハンド形状モデルと同様にハンド接触領域データ、ハンド衝突領域データで構成される。   Next, in step S232, the shape model rotation unit 232 rotates the second hand shape model in-plane by the in-plane rotation angle given from the control unit 24 to generate a third hand shape model. Here, in-plane rotation refers to rotation within a plane in which a contact area and a collision area are defined in the second hand shape model. Further, the in-plane rotation angle, which is an in-plane rotation angle, has an initial value of 0 degrees, and sequentially changes by an angle obtained by dividing 360 degrees by a preset rotation division number for each processing. For example, if the number of rotation divisions is set to 12, the in-plane rotation angle is 0 degree (that is, not rotated) in the first process, and the in-plane rotation angle is 30 degrees in the second process, and the in-plane rotation is performed in the 12th process. The angle is 330 degrees. By generating the third hand shape model, it is possible to know how much the robot hand having the same shape can be gripped when the posture of the robot hand is changed. Here, the third hand shape model is also composed of hand contact area data and hand collision area data, like the second hand shape model.

次に、ステップS233aにおいて、領域抽出部233は、画像処理で一般的におこなわれるセグメンテーションにより、奥行き計測模擬部22で得られた奥行きデータから奥行き方向のエッジで区切られた領域を抽出し、領域奥行きデータを生成する。領域奥行きデータは、抽出された領域に対応する奥行きデータである。一般に、領域抽出部233では、複数の領域が抽出されるので、複数の領域奥行きデータが生成されることになる。図6は、領域奥行きデータの一例を示す図である。図6の矢印の左側は奥行きデータの例であり、矢印の右側は当該奥行きデータから生成される7つの領域奥行きデータの例を示している。続いて、ステップS233bにおいて、領域抽出部233は、生成された領域奥行きデータの1つを選択して出力する。   Next, in step S233a, the region extraction unit 233 extracts regions separated by edges in the depth direction from the depth data obtained by the depth measurement simulation unit 22 by segmentation generally performed in image processing. Generate depth data. The area depth data is depth data corresponding to the extracted area. In general, the region extraction unit 233 extracts a plurality of regions, so that a plurality of region depth data are generated. FIG. 6 is a diagram illustrating an example of region depth data. The left side of the arrow in FIG. 6 is an example of depth data, and the right side of the arrow is an example of seven area depth data generated from the depth data. Subsequently, in step S233b, the region extraction unit 233 selects and outputs one of the generated region depth data.

次に、ステップS234において、把持可能性演算部234は、第3のハンド形状モデルと領域奥行きデータに基づいて処理条件毎の把持可能性を演算する。ここで、処理条件とは、バラ積み再現の回数、第1又は第2のハンド形状モデルで表されるロボットハンドの形状、面内回転角、選択された領域奥行きデータの組み合わせを指す。まず、把持可能性演算部234は、領域奥行きデータに基づいて、ロボットハンドと同様にワークモデルの接触領域と衝突領域を求める。ここで、ワークモデルの接触領域と衝突領域についての概念を説明する。ワークモデルの接触領域は、奥行きデータにおける各点の集まりである計測領域のうちロボットハンドがワークを把持する際にハンド接触領域を接触させる候補となる領域である。また、ワークモデルの衝突領域は、計測領域のうち、把持の際にワークモデル接触領域にハンド接触領域を接触させるより先にハンド衝突領域が衝突する可能性のある領域である。   Next, in step S234, the gripping possibility calculation unit 234 calculates the gripping possibility for each processing condition based on the third hand shape model and the area depth data. Here, the processing condition refers to a combination of the number of times of stacking reproduction, the shape of the robot hand represented by the first or second hand shape model, the in-plane rotation angle, and the selected area depth data. First, the gripping possibility calculation unit 234 obtains the contact area and the collision area of the work model, similarly to the robot hand, based on the area depth data. Here, the concept about the contact area | region and collision area | region of a workpiece | work model is demonstrated. The contact area of the work model is an area that is a candidate for contacting the hand contact area when the robot hand grips the work, in the measurement area that is a collection of points in the depth data. Further, the work model collision area is an area in which the hand collision area may collide before the hand contact area is brought into contact with the work model contact area during gripping in the measurement area.

ワークモデルの接触領域は、センサから把持対象となるワークの表面までの距離hで2値化した領域とする。領域奥行きデータの各位置に対して、その位置が接触領域である場合には1、接触領域でない場合には0となるような接触領域関数Wtを定義すると、領域奥行きデータの位置(x,y)におけるWtの値であるWt(x,y)は、式(1)で表すことができる。式(1)において、W(x,y)は位置(x,y)におけるセンサからの距離を表す。   The contact area of the workpiece model is an area binarized by the distance h from the sensor to the surface of the workpiece to be grasped. For each position of the area depth data, if a contact area function Wt is defined such that the position is 1 when the position is a contact area and 0 when the position is not a contact area, the position (x, y) of the area depth data is defined. Wt (x, y), which is the value of Wt in (), can be expressed by equation (1). In Expression (1), W (x, y) represents the distance from the sensor at the position (x, y).

一方、ワークモデルの衝突領域は、把持対象となるワークの表面から、ロボットハンドの衝突領域が把持のためにさらに進入する量dだけ深く進入した高さで2値化した領域となる。領域奥行きデータの各位置に対して、その位置が衝突領域である場合には1、衝突領域でない場合には0となるような衝突領域関数Wcを定義すると、領域奥行きデータの位置(x,y)におけるWcの値であるWc(x,y)は、式(2)で表すことができる。   On the other hand, the collision area of the workpiece model is an area binarized at a height where the collision area of the robot hand has entered deeper by an amount d for further grasping from the surface of the workpiece to be grasped. For each position of the area depth data, when a collision area function Wc is defined such that the position is 1 when the position is a collision area and 0 when the position is not a collision area, the position (x, y) of the area depth data is defined. Wc (x, y), which is the value of Wc in (), can be expressed by equation (2).

図7は、ワークモデルの接触領域と衝突領域を説明するための図である。図7の左側の図は、ワークモデルの接触領域と衝突領域を説明するために、奥行き計測センサ、ワーク、ロボットハンドの関係を側面から見た図である。図7の左側の図で、断面Aで2値化した領域が接触領域、断面Bで2値化した領域が衝突領域となる。図7の右側の図は、左側の図に対応する接触領域と衝突領域を例示したものである。   FIG. 7 is a diagram for explaining the contact area and the collision area of the work model. The diagram on the left side of FIG. 7 is a side view of the relationship between the depth measurement sensor, the workpiece, and the robot hand in order to explain the contact area and the collision area of the workpiece model. In the figure on the left side of FIG. 7, the binarized area in the cross section A is the contact area, and the binarized area in the cross section B is the collision area. The diagram on the right side of FIG. 7 illustrates the contact area and the collision area corresponding to the diagram on the left side.

本実施の形態のロボットシミュレーション装置においては、把持可能性演算部234は、領域奥行きデータで抽出された領域をワークの接触領域として使用する。領域奥行きデータは、奥行きデータから奥行きのエッジで区切られた領域を抽出しており、バラ積みされた各ワークの表面が抽出されることになるので、ワークの接触領域として使用可能となる。ワークの衝突領域は、領域奥行きデータで抽出された領域の奥行きから、dだけ深く進入した高さで奥行きデータを2値化することで求められる。なお、領域奥行きデータで抽出された領域の奥行きが領域内で一定でない場合には、もっともセンサから遠い位置の奥行きを用いる。   In the robot simulation apparatus according to the present embodiment, gripping possibility calculation unit 234 uses an area extracted by area depth data as a contact area of a workpiece. In the area depth data, an area divided by the edge of the depth is extracted from the depth data, and the surface of each work stacked is extracted, so that it can be used as a contact area of the work. The collision area of the workpiece is obtained by binarizing the depth data at a height that has entered deeper by d from the depth of the area extracted from the area depth data. When the depth of the region extracted from the region depth data is not constant within the region, the depth at the position farthest from the sensor is used.

把持可能性演算部234は、ワークモデルの接触領域を表すワークモデル接触領域データと、ワークモデルの衝突領域を表すワークモデル衝突領域データを生成する。ワークモデル接触領域データは、接触領域に該当する画素の値を1、接触領域以外の画素の値を0とした画像データである。また、ワークモデル衝突領域データは、衝突領域に該当する画素の値を1、衝突領域以外の画素の値を0とした画像データである。ワークモデル接触領域データ及びワークモデル衝突領域データは、画素の位置に対する画素の値の関数と考えることもできる。   The gripping possibility calculation unit 234 generates work model contact area data representing the contact area of the work model and work model collision area data representing the collision area of the work model. The work model contact area data is image data in which the value of a pixel corresponding to the contact area is 1 and the value of a pixel other than the contact area is 0. The work model collision area data is image data in which the value of a pixel corresponding to the collision area is 1 and the value of a pixel other than the collision area is 0. The work model contact area data and the work model collision area data can be considered as a function of the pixel value with respect to the pixel position.

次に、把持可能性演算部234は、第3のハンド形状モデルの接触領域、衝突領域と、ワークモデルの接触領域、衝突領域を用いて、把持可能領域を求める。把持可能領域は、ロボットハンドとワークが干渉せずに接触できる領域を表す。続いて、把持可能性演算部234は、把持可能領域を用いて把持可能性マップを求める。図8は、把持可能領域および把持可能性マップを求める手法を説明するための図である。なお、図8では一例として挟持方式のロボットハンドで説明しているが、吸着方式のロボットハンドでも同じく把持可能領域を計算できる。吸着方式の場合は、使われるハンドのモデルが異なり、衝突領域Hcが全て0になるということだけで、以下図8に示す計算が同様に行われる。   Next, the gripping possibility calculation unit 234 obtains a grippable area using the contact area and collision area of the third hand shape model and the contact area and collision area of the work model. The grippable area represents an area where the robot hand and the workpiece can contact without interfering with each other. Subsequently, the gripping possibility calculation unit 234 obtains a gripping possibility map using the grippable area. FIG. 8 is a diagram for explaining a method for obtaining a grippable region and a grippability map. In FIG. 8, the sandwiching type robot hand is described as an example, but the grippable region can be similarly calculated by the suction type robot hand. In the case of the suction method, the calculation shown in FIG. 8 is performed in the same manner, except that the hand model used is different and the collision area Hc is all zero.

把持可能性演算部234は、第3のハンド形状モデルのハンド接触領域データとワークモデル接触領域データとを用いたコンボリューション(畳み込み演算)によって、第1の領域を求める。挟持方式のロボットハンドに対しては、コンボリューションにより得られた値が1以上となった領域を第1の領域とする。一方、吸着方式のロボットハンドに対しては、コンボリューションにより得られた値がSt以上となった領域を第1の領域とする。ここで、Stは、第3のハンド形状モデルの接触領域の面積である。   The gripping possibility calculation unit 234 obtains the first area by convolution (convolution calculation) using the hand contact area data of the third hand shape model and the work model contact area data. For a sandwich-type robot hand, the area where the value obtained by convolution is 1 or more is set as the first area. On the other hand, for the suction-type robot hand, a region where the value obtained by convolution is equal to or greater than St is set as the first region. Here, St is the area of the contact area of the third hand shape model.

また、把持可能性演算部234は、第3のハンド形状モデルのハンド衝突領域データとワークモデル衝突領域データとを用いたコンボリューションによって、第2の領域を求める。挟持方式のロボットハンドに対しては、コンボリューションにより得られた値が1以上となった領域を第2の領域とする。一方、吸着方式のロボットハンドに対しては、図5の吸着方式のモデル例で示したように衝突領域は存在せず、ハンド衝突領域データは全ての位置で0となるので、コンボリューション結果も全ての位置で0となり、第2の領域も存在しない。次に、把持可能性演算部234は、第1の領域の各画素の値から対応する第2の領域の各画素の値を引き、その値が1となった部分を把持可能領域とすることで、把持可能領域データを生成する。把持可能領域データは、把持可能領域に該当する画素の値を1、把持可能領域以外の画素の値を0とした画像データである。把持可能領域データは、画素の位置に対する画素の値の関数と考えることもできる。   Further, the gripping possibility calculation unit 234 obtains the second area by convolution using the hand collision area data of the third hand shape model and the work model collision area data. For the holding type robot hand, the region where the value obtained by convolution is 1 or more is set as the second region. On the other hand, for the suction type robot hand, as shown in the suction type model example of FIG. 5, there is no collision area, and the hand collision area data is 0 at all positions. It becomes 0 at all positions, and there is no second area. Next, the gripping possibility calculation unit 234 subtracts the value of each pixel in the corresponding second region from the value of each pixel in the first region, and sets the portion where the value becomes 1 as the grippable region. Thus, grippable area data is generated. The grippable area data is image data in which the value of a pixel corresponding to the grippable area is 1 and the value of a pixel other than the grippable area is 0. The grippable area data can be considered as a function of the pixel value with respect to the pixel position.

続いて、把持可能性演算部234は、求められた把持可能領域データと、画像処理で一般的に用いられるガウシアン関数とを用いたコンボリューションによって、把持可能性マップを求める。把持可能性マップは、位置毎の把持可能性を表したものである。把持可能性マップは、把持可能領域の中心にいくほど値が大きくなる分布となる。把持可能性マップのピーク位置を求めることで、ロボットハンドが周辺に干渉せず、かつ物体が掴みやすい把持位置を高速に計算することができる。把持可能性演算部234は、把持可能性マップにおける位置毎の把持可能性の最大値を処理条件毎の把持可能性とする。この把持可能性マップの計算において、ガウシアン関数の大きさが小さすぎると分布が十分に平滑化されずに最大値が複数でてくるので、ガウシアン関数は把持可能領域と同じ程度の大きさを持たせることで、最大値を安定して計算することができる。以上がステップS234における把持可能性演算部234の動作である。   Subsequently, the graspability calculation unit 234 obtains a graspability map by convolution using the obtained graspable region data and a Gaussian function generally used in image processing. The grip possibility map represents the grip possibility for each position. The gripping possibility map has a distribution in which the value increases toward the center of the grippable area. By obtaining the peak position of the gripping possibility map, the gripping position where the robot hand does not interfere with the surroundings and the object can be easily gripped can be calculated at high speed. The gripping possibility calculation unit 234 sets the maximum gripping possibility value for each position in the gripping possibility map as the gripping possibility for each processing condition. In the calculation of the graspability map, if the Gaussian function is too small, the distribution is not sufficiently smoothed and multiple maximum values are obtained, so the Gaussian function has the same size as the graspable area. By doing so, the maximum value can be calculated stably. The above is the operation of the gripping possibility calculation unit 234 in step S234.

次にステップS901において、制御部24は、領域抽出部233で生成された領域奥行きデータが全て選択済みであるかを判定する。まだ選択されていない領域奥行きデータがあれば、制御部24はステップS233bに処理を戻す。ステップS233bにおいて、領域抽出部233は、まだ選択されていない領域奥行きデータを1つ選択する。一方、全ての領域奥行きデータが選択済みであれば、制御部24はステップS902に処理を進める。   In step S <b> 901, the control unit 24 determines whether all the region depth data generated by the region extraction unit 233 has been selected. If there is area depth data that has not yet been selected, the control unit 24 returns the process to step S233b. In step S233b, the region extraction unit 233 selects one region depth data that has not yet been selected. On the other hand, if all the area depth data have been selected, the control unit 24 advances the processing to step S902.

ステップS902において、制御部24は、本ステップの処理回数と予め設定された回転分割数を比較する。本ステップの処理回数が回転分割数に到達していなければ、制御部24は、処理回数を1回加算し、面内回転角を変更して、ステップS232に処理を戻す。一方、本ステップの処理回数が回転分割数に到達していれば、制御部24は、処理回数及び面内回転角をリセットし、ステップS903に処理を進める。   In step S902, the control unit 24 compares the number of processings in this step with a preset number of rotation divisions. If the number of processes in this step has not reached the number of rotation divisions, the control unit 24 adds the number of processes once, changes the in-plane rotation angle, and returns the process to step S232. On the other hand, if the number of processes in this step has reached the number of rotation divisions, the control unit 24 resets the number of processes and the in-plane rotation angle, and proceeds to step S903.

ステップS903において、制御部24は、記憶部1に記憶された第1のハンド形状モデルを全て読み出したかを判定する。まだ読み出されていない第1のハンド形状モデルがあれば、制御部24はステップS231aに処理を戻す。ステップS231aにおいて、形状モデル変換部231は、まだ読み出されていない第1のハンド形状モデルの1つを記憶部1から読み出す。一方、全ての第1のハンド形状モデルが読み出されていれば、制御部24はステップS904に処理を進める。   In step S903, the control unit 24 determines whether all the first hand shape models stored in the storage unit 1 have been read out. If there is a first hand shape model that has not yet been read, the control unit 24 returns the process to step S231a. In step S231a, the shape model conversion unit 231 reads from the storage unit 1 one of the first hand shape models that has not been read yet. On the other hand, if all the first hand shape models have been read, the control unit 24 advances the processing to step S904.

ステップS904において、制御部24は、本ステップの処理回数と予め設定されるバラ積み回数を比較する。本ステップの処理回数がバラ積み回数に到達していなければ、制御部24は、処理回数を1回加算し、ステップS211bに処理を戻す。一方、本ステップの処理回数がバラ積み回数に到達していれば、制御部24は、処理回数をリセットし、ステップS235に処理を進める。なお、バラ積み回数は1回以上であれば良いが、一般には複数回とする方がロボットハンドの形状選択の精度が向上する。また、複数回のバラ積みに対して、ワークの種類を変更することも可能である。複数種類のワークに対してバラ積み再現を行い、これらに対して把持可能性を算出してロボットハンドの形状を求めることにより、複数種類のワークを扱う際に最適なロボットハンドの形状を選択することができる。本実施の形態では、バラ積み回数を複数回とする。   In step S904, the control unit 24 compares the number of processes in this step with a preset number of loose stacks. If the number of times of processing in this step has not reached the number of times of stacking, the control unit 24 adds the number of times of processing once, and returns the processing to step S211b. On the other hand, if the number of times of processing in this step has reached the number of times of stacking, the control unit 24 resets the number of times of processing and advances the process to step S235. The number of times of stacking may be one or more, but in general, the accuracy of selecting the shape of the robot hand is improved by setting the number of times of stacking multiple times. Moreover, it is also possible to change the kind of a workpiece | work with respect to multiple times of bulk loading. Select the optimal robot hand shape when handling multiple types of workpieces by reproducing the stacking of multiple types of workpieces and calculating the gripping possibility for these workpieces to determine the shape of the robot hand be able to. In the present embodiment, the number of loose stacks is a plurality of times.

ステップS235に処理が進んだ時点で、複数回のバラ積み再現、さまざまな第1のハンド形状モデル、面内回転角、領域奥行きデータに対して、処理条件毎の把持可能性が求められている。ステップS235において、評価選択部235は、まず、同一のバラ積み再現かつ同一の第1のハンド形状モデルについて、さまざまな面内回転角、領域奥行きデータに対する処理条件毎の把持可能性のうち最大のものを選択する。この結果、それぞれの第1のハンド形状モデルに対して、バラ積み再現毎の把持可能性が求められる。続いて、評価選択部235は、それぞれの第1のハンド形状モデルに対して、バラ積み再現毎の把持可能性の平均値を算出する。この結果、それぞれの第1のハンド形状モデルに対するハンド形状毎の把持可能性が求められる。   When the process proceeds to step S235, gripping possibility for each processing condition is required for the multiple stacking reproduction, various first hand shape models, in-plane rotation angle, and area depth data. . In step S235, the evaluation selecting unit 235 first determines the maximum possibility of gripping for each processing condition with respect to various in-plane rotation angles and region depth data for the same first stack shape reproduction and the same first hand shape model. Choose one. As a result, for each first hand shape model, the gripping possibility for each stacking reproduction is required. Subsequently, the evaluation selection unit 235 calculates an average value of the gripping possibility for each stacking reproduction for each first hand shape model. As a result, the gripping possibility for each hand shape with respect to each first hand shape model is required.

次に、評価選択部235は、ハンド形状毎の把持可能性を比較し、最も把持可能性が高い第1のハンド形状モデルを選択し、対応するハンド形状毎の把持可能性とともに出力する。出力先は、表示部3としても良いし、記憶部1としても良い。また、他の出力手段を備えても良い。出力結果から、作業者は所望のハンド設計を得ることができる。出力先を記憶部1とすれば、バラ積み取り出しシステムを設計するためのソフトウェアなど、他のツールや装置で選択された形状を呼び出すことができ、設計時間を短縮することができる。   Next, the evaluation selection unit 235 compares the gripping possibility for each hand shape, selects the first hand shape model having the highest gripping possibility, and outputs it together with the gripping possibility for each corresponding hand shape. The output destination may be the display unit 3 or the storage unit 1. Moreover, you may provide another output means. From the output result, the operator can obtain a desired hand design. If the output destination is the storage unit 1, a shape selected by another tool or apparatus such as software for designing a bulk pickup system can be called, and design time can be shortened.

以上で述べたロボットハンドの形状を選択する処理は、式(3)で表すことができる。式(3)において、Gは位置毎の把持可能性を表す関数であり、iは何回目のバラ積み再現かを表すインデックスである。Nはバラ積み再現を行う回数を表す。また、x、y、dはハンドの位置を表すパラメータである。x、yは領域奥行きデータ内の位置に対応し、dはどの領域奥行きデータかに対応する。θはハンドの姿勢を表すパラメータであり、面内回転角に対応する。また、Mは第1のハンド形状モデルを識別するためのインデックスである。式(3)は、バラ積み再現ごとの把持可能性を平均してハンド形状毎の把持可能性を求め、ハンド形状毎の把持可能性が最大となる第1のハンド形状モデルを求めることを意味する。なお、式(3)では、位置毎の把持可能性から処理条件毎の把持可能性を求める処理と、処理条件毎の把持可能性からバラ積み再現毎の把持可能性を求める処理とを1つの関数で表している。 The process for selecting the shape of the robot hand described above can be expressed by Expression (3). In Equation (3), G i is a function that represents the gripping possibility for each position, and i is an index that represents how many times the stacking is reproduced. N represents the number of times of performing stacking reproduction. X, y, and d are parameters representing the position of the hand. x and y correspond to positions in the area depth data, and d corresponds to which area depth data. θ is a parameter representing the posture of the hand and corresponds to the in-plane rotation angle. M is an index for identifying the first hand shape model. Equation (3) means that the gripping possibility for each hand shape is obtained by averaging the gripping possibilities for each reproduction of bulk stacks, and the first hand shape model that maximizes the gripping possibility for each hand shape is obtained. To do. In Expression (3), the processing for obtaining the gripping possibility for each processing condition from the gripping possibility for each position and the processing for obtaining the gripping possibility for each stacking reproduction from the gripping possibility for each processing condition are one. It is expressed as a function.

なお、本実施の形態のロボットシミュレーション装置では、ステップS234において、把持可能性演算部234は、把持可能性マップにおける位置毎の把持可能性の最大値を処理条件毎の把持可能性とするように構成したが、他の構成とすることも可能である。例えば、位置毎の把持可能性の最大値の代わりに、位置毎の把持可能性の積分値を処理条件毎の把持可能性とすることも可能である。また、最大値と積分値を併用することも可能である。この場合、例えば最大値と積分値を重み付け加算することが考えられる。複数の処理条件に対して、位置毎の把持可能性の最大値が近い値となる場合には、位置毎の把持可能性の最大値と積分値を併用することが有効となる。   In the robot simulation apparatus according to the present embodiment, in step S234, the gripping possibility calculation unit 234 sets the maximum gripping possibility value for each position in the gripping possibility map as the gripping possibility for each processing condition. Although configured, other configurations are possible. For example, instead of the maximum value of the gripping possibility for each position, an integrated value of the gripping possibility for each position can be set as the gripping possibility for each processing condition. It is also possible to use the maximum value and the integral value together. In this case, for example, the maximum value and the integral value may be weighted and added. When the maximum value of the gripping possibility for each position is close to a plurality of processing conditions, it is effective to use the maximum value of the gripping possibility for each position and the integral value together.

また、把持可能性演算部234は、更に別の構成とすることができる。例えば、把持可能性演算部234において、把持したときの安定性も考慮することで、より正確な把持可能性の算出が可能になる。ワークモデルが重心の位置情報を有していれば、バラ積み演算部21により得られるワークモデルの位置姿勢から、バラ積みされた状態でのワークモデルの重心位置を計算することができる。把持位置がワークモデルの重心位置から離れれば離れるほど把持後にモーメントが発生し弾き飛ばしたり落下させたりといった把持失敗のリスクも高まる。   In addition, the gripping possibility calculation unit 234 can have another configuration. For example, the gripping possibility calculation unit 234 can more accurately calculate the gripping possibility by considering the stability when gripping. If the work model has the position information of the center of gravity, the position of the center of gravity of the work model in the state of being stacked can be calculated from the position and orientation of the work model obtained by the stacking calculation unit 21. The further the gripping position is away from the center of gravity position of the work model, the higher the risk of gripping failure, such as a moment being generated after gripping, causing it to fly or drop.

そこで、ワークモデルの重心からの距離を把持可能性の演算に加えることで、より安定した設計とすることができる。把持可能性マップにおける位置毎の把持可能性に対して、各位置のワークモデルの重心からの距離を考慮した演算を行って処理条件毎の把持可能性を求めることで、より正確な把持可能性が求められる。例えば、位置毎の把持可能性をワークモデルの重心からの距離で除算し、除算結果の最大値を処理条件毎の把持可能性とすることができる。このとき、ロボットハンドの形状を選択する処理は、式(4)で表すことができる。式(4)において、Lはワークモデル重心からの距離を表す関数であり、他は式(3)と同様である。 Therefore, a more stable design can be achieved by adding the distance from the center of gravity of the work model to the calculation of the gripping possibility. By calculating the gripping possibility for each position in the gripping possibility map for each processing condition by calculating the distance from the center of gravity of the workpiece model at each position, the gripping possibility is more accurate. Is required. For example, the gripping possibility for each position can be divided by the distance from the center of gravity of the work model, and the maximum value of the division result can be made the gripping possibility for each processing condition. At this time, the process of selecting the shape of the robot hand can be expressed by Expression (4). In Expression (4), L i is a function representing the distance from the center of gravity of the work model, and the others are the same as in Expression (3).

また、把持可能性演算手段234は、更に別の構成とすることができる。例えば、把持可能性演算手段234において、周辺のワークモデルとの干渉状態も考慮することで、より正確な把持可能性の算出が可能になる。持ち上げるときに周辺のワークと干渉する場合、把持後に持ち上げることが難しくなる。そこで、バラ積み演算部21で求めた周辺の干渉物の数を把持可能性の演算に加えることで、より安定した設計とすることができる。把持可能性マップにおける位置毎の把持可能性に対して、周辺の干渉物数を考慮した演算を行って処理条件毎の把持可能性を求めることで、より正確な把持可能性が求められる。例えば、位置毎の把持可能性を周辺の干渉物数で除算し、除算結果の最大値を処理条件毎の把持可能性とすることができる。このとき、ロボットハンドの形状を選択する処理は、式(5)で表すことができる。式(5)において、Cは周辺の干渉物数を表す関数であり、他は式(3)と同様である。 Further, the gripping possibility calculation means 234 can be further configured. For example, the gripping possibility calculation means 234 can more accurately calculate the gripping possibility by taking into account the interference state with the surrounding workpiece model. If it interferes with surrounding workpieces when lifting, it becomes difficult to lift after gripping. Therefore, a more stable design can be achieved by adding the number of peripheral interferences obtained by the bulk stacking calculation unit 21 to the calculation of the gripping possibility. By calculating the gripping possibility for each position in the gripping possibility map for each processing condition by performing calculation in consideration of the number of surrounding interference objects, more accurate gripping possibility is obtained. For example, the gripping possibility for each position can be divided by the number of surrounding interference objects, and the maximum value of the division result can be made the gripping possibility for each processing condition. At this time, the process of selecting the shape of the robot hand can be expressed by Expression (5). In Equation (5), C i is a function representing the number of surrounding interferers, and the others are the same as in Equation (3).

以上のように、把持可能性演算部234は、さまざまな構成とすることができ、これらを組み合わせた構成とすることも可能である。演算量や算出される把持可能性の特性などを考慮し、使用条件に最適な構成を選択すれば良い。さらに、本実施の形態で述べた把持可能性の算出方法は、実際のピッキング作業においてロボットハンドの把持位置を求める際にも活用可能である。この場合には、把持可能性が最も高い位置及び面内回転角を把持位置及び把持姿勢としてロボットハンドを制御すれば良い。   As described above, the gripping possibility calculation unit 234 can have various configurations, and can also be configured by combining them. A configuration that is optimal for the use conditions may be selected in consideration of the amount of calculation and the calculated graspability characteristics. Furthermore, the gripping possibility calculation method described in the present embodiment can also be used when obtaining the gripping position of the robot hand in an actual picking operation. In this case, the robot hand may be controlled using the position and in-plane rotation angle with the highest gripping possibility as the gripping position and gripping posture.

本実施の形態のロボットシミュレーション装置は以上のように動作する。したがって、把持ができる可能性が高く、さらに把持失敗もおこりにくい、ロボットハンドの形状を選択することができる。すなわち把持成功率の高いロボットハンドの形状を選択することができる。バラ積み取り出しのシステムは生産現場の生産効率を高めるために用いられることから、いかに作業時間を短縮できるかが重要である。これまでのロボットシミュレーション装置は、与えられたロボット、センサ、ワークから作業時間を見積もるのみであり、作業時間短縮のために配置や構成、システムの構成物の形状などを能動的に変更することができなかった。   The robot simulation apparatus according to the present embodiment operates as described above. Therefore, it is possible to select the shape of the robot hand that is highly likely to be gripped and that is unlikely to cause gripping failure. That is, it is possible to select the shape of the robot hand having a high gripping success rate. Since the bulk loading and unloading system is used to increase the production efficiency at the production site, it is important how the working time can be shortened. Conventional robot simulation devices only estimate work time from given robots, sensors, and workpieces, and can actively change the layout, configuration, shape of system components, etc. to reduce work time. could not.

システムの構成物において、特に作業時間に関わるものとして、ワークを持つためのロボットハンドがある。ワークの形状に応じて掴みやすいロボットハンドを選択し、ワークの把持成功率が上がれば、取り出しにかかるタクトタイムは飛躍的に向上する。しかし、これまでのロボットシミュレーション装置では、ロボットハンドは事前に決められた形状のものを扱うのみであり、把持成功率を高めるロボットハンドを選択するロボットシミュレーション装置はなかった。   Among the components of the system, there is a robot hand for holding a workpiece, particularly related to work time. If a robot hand that is easy to grasp is selected according to the shape of the workpiece and the success rate of grasping the workpiece is increased, the tact time required for taking out is dramatically improved. However, in the conventional robot simulation apparatus, the robot hand only handles a predetermined shape, and there is no robot simulation apparatus that selects a robot hand that increases the success rate of gripping.

さらには、実物を用いてロボットハンドを決定しようにも、システムを設計する立場にあるシステムインテグレーターには、バラ積み取り出しにおけるロボットハンドとワークの関係に対する知見がないことが多く、現場にある装置だけを使ってのすり合わせの調整、もしくは、既にあるロボットハンドを使うにとどまっていた。本実施の形態のロボットシミュレーション装置によれば、ロボットハンドの設計をシステム構築前に決定できるので、バラ積みワークの取り出しシステム設計が効率化する。さらに、実際のシステム動作において、作業成功率が高いロボットハンドが選択されるので、実際の作業時間を短縮する効果がある。   Furthermore, system integrators who are in the position of designing systems to determine the robot hand using the actual product often have no knowledge of the relationship between the robot hand and the workpiece during unloading, and only the devices on the site. The adjustment of the arrangement using the or the robot hand already used. According to the robot simulation apparatus of the present embodiment, the design of the robot hand can be determined before the system construction, so that the design of the system for picking up bulk workpieces becomes efficient. Further, in the actual system operation, a robot hand having a high work success rate is selected, which has the effect of shortening the actual work time.

以上に述べたように、本実施の形態のロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの前記形状を選択するハンド選択部とを備えるので、把持可能性を高めるロボットハンドの形状を仮想空間上での計算により選択できる。把持可能性が高いロボットハンドが選択されるので、取り出しにかかるタクトタイムを短縮可能となる。   As described above, the robot simulation apparatus according to the present embodiment is a sensor that models a stacking calculation unit that reproduces in a virtual space a work model obtained by modeling a work, and a depth measurement sensor. The model is placed in a virtual space, the depth measurement simulation unit that generates depth data consisting of depth information at each point by simulating the depth measurement of each point of the work model with the sensor model, and the shape of multiple robot hands A hand that calculates the gripping possibility of a work model in a robot hand based on the converted hand shape model and depth data for the shapes of a plurality of robot hands, and selects the shape of the robot hand based on the gripping possibility Since the selection part is provided, the shape of the robot hand that increases the gripping possibility is measured in the virtual space. It can be selected by. Since a robot hand having a high gripping possibility is selected, the tact time required for taking out can be shortened.

実施の形態2.
実施の形態1では、設計情報に含まれるロボットハンドの形状モデルからロボットハンドの形状を選択するように構成していた。一方、ロボットハンドの形状モデルに対して、変更可能な形状パラメータを関連付け、ロボットシミュレーション装置が形状パラメータを調整するように構成することもできる。この結果、設計情報に含まれるロボットハンドの形状を削減しながらも、さまざまな形状から把持可能性を高めるロボットハンドの形状を選択可能となる。
Embodiment 2. FIG.
In the first embodiment, the shape of the robot hand is selected from the shape model of the robot hand included in the design information. On the other hand, a shape parameter that can be changed may be associated with the shape model of the robot hand so that the robot simulation apparatus adjusts the shape parameter. As a result, while reducing the shape of the robot hand included in the design information, it is possible to select the shape of the robot hand that increases the gripping possibility from various shapes.

図9は、本発明の実施の形態2によるロボットシミュレーション装置を示す機能ブロック図である。本実施の形態のロボットシミュレーション装置は、形状モデル調整部236をハンド選択部23に備えた点が、実施の形態1の図1におけるものと異なる。以下、図9を用いて本実施の形態のロボットシミュレーション装置の動作について述べる。実施の形態1におけるものと同様に、記憶部1には入力部4より設計情報が入力される。ただし、設計情報に含まれる第1のハンド形状モデルには、その形状モデルに対して変更可能な形状パラメータ、変更可能範囲及び変更可能な刻み幅が関連付けられる。記憶部1、表示部3、入力部4の動作は、実施の形態1におけるものと同様であり、説明は省略する。   FIG. 9 is a functional block diagram showing a robot simulation apparatus according to the second embodiment of the present invention. The robot simulation apparatus according to the present embodiment is different from that shown in FIG. 1 of the first embodiment in that the shape model adjustment unit 236 is provided in the hand selection unit 23. Hereinafter, the operation of the robot simulation apparatus according to the present embodiment will be described with reference to FIG. As in the first embodiment, design information is input to the storage unit 1 from the input unit 4. However, the first hand shape model included in the design information is associated with a shape parameter that can be changed, a changeable range, and a changeable step size for the shape model. The operations of the storage unit 1, the display unit 3, and the input unit 4 are the same as those in the first embodiment, and a description thereof will be omitted.

図10は、本実施の形態のロボットシミュレーション装置における演算部2の動作を説明するためのフロー図である。本フロー図は、ステップS231bとステップS232との間にステップ236を備え、ステップS902とステップS903との間にステップS905を備える点が実施の形態1の図2におけるものと異なる。以下、図9及び図10を用いて演算部2の動作について述べる。なお、図9及び図10において、図1及び図2におけるものと同一の番号を付したものは同等のものであり、説明を省略する。   FIG. 10 is a flowchart for explaining the operation of the calculation unit 2 in the robot simulation apparatus of the present embodiment. This flowchart is different from that in FIG. 2 of Embodiment 1 in that step 236 is provided between step S231b and step S232, and step S905 is provided between step S902 and step S903. Hereinafter, the operation of the calculation unit 2 will be described with reference to FIGS. 9 and 10. 9 and 10, the same reference numerals as those in FIGS. 1 and 2 are the same, and the description thereof is omitted.

ステップS236において、形状モデル調整部236は、第1のハンドモデルに関連付けられた変更可能な形状パラメータを用いて、第2のハンド形状モデルの形状を調整して、第4のハンド形状モデルを生成する。実施の形態1にて述べたように、第2のハンド形状モデルでは、爪の本数が変わったり、ロボットハンドの方式が変わっても、接触領域と衝突領域でハンドの形状を定義できる。第2のハンド形状モデルにおいて、接触領域や衝突領域は、円や矩形の組み合わせで表現することができ、例えば、挟持方式の2本爪タイプのロボットハンドであれば、衝突領域の縦、横、接触領域の縦、横の4パラメータで形状を表現することができる。また、吸着タイプのロボットハンドであれば、半径1パラメータで形状を表現することができる。したがって、円や矩形の数、それぞれの円や矩形の位置、円の半径、矩形の各辺の長さが、ロボットハンドの形状を決定するための形状パラメータとなる。   In step S236, the shape model adjustment unit 236 uses the changeable shape parameter associated with the first hand model to adjust the shape of the second hand shape model to generate a fourth hand shape model. To do. As described in the first embodiment, in the second hand shape model, the shape of the hand can be defined in the contact area and the collision area even if the number of claws changes or the robot hand system changes. In the second hand shape model, the contact area and the collision area can be expressed by a combination of a circle and a rectangle. For example, in the case of a two-claw type robot hand of a pinching method, the vertical, horizontal, The shape can be expressed by the vertical and horizontal parameters of the contact area. In the case of a suction-type robot hand, the shape can be expressed with a radius 1 parameter. Therefore, the number of circles and rectangles, the position of each circle and rectangle, the radius of the circle, and the length of each side of the rectangle are the shape parameters for determining the shape of the robot hand.

ステップS236において、形状モデル調整部236は、これらの形状パラメータのうち、変更可能な形状パラメータを変更可能範囲内で調整することで第2のハンド形状モデルの形状を調整して、第4のハンド形状モデルを生成する。例えば、第1のハンド形状モデルが挟持方式の2本爪タイプであり、変更可能な形状パラメータが衝突領域の縦、横、接触領域の縦、横の4つのパラメータであれば、形状モデル調整部236は、この4つのパラメータを調整する。次に、ステップS232において、形状モデル回転部232は、第4のハンド形状モデルを面内回転して第3のハンド形状モデルを生成する。以降、ステップS902までの動作は、実施の形態1におけるものと同様である。   In step S236, the shape model adjusting unit 236 adjusts the shape of the second hand shape model by adjusting the shape parameters that can be changed within the changeable range among these shape parameters, and the fourth hand. Generate a shape model. For example, if the first hand shape model is a pinching two-claw type and the shape parameters that can be changed are four parameters of the vertical and horizontal of the collision area, the vertical and horizontal of the contact area, the shape model adjustment unit 236 adjusts these four parameters. Next, in step S232, the shape model rotation unit 232 generates the third hand shape model by rotating the fourth hand shape model in-plane. Thereafter, the operations up to step S902 are the same as those in the first embodiment.

ステップS905において、制御部24は、変更可能な形状パラメータの全ての組み合わせに対して、処理条件毎の把持可能性を算出したかを判定する。まだ処理条件毎の把持可能性が算出されていない組み合わせがあれば、制御部24はステップS236に処理を戻す。ステップS236において、形状モデル調整部236は、まだ処理条件毎の把持可能性が算出されていない組み合わせの1つに形状パラメータを調整して、第4のハンド形状モデルを生成する。一方、変更可能な形状パラメータの全ての組み合わせに対して、処理条件毎の把持可能性を算出されていれば、制御部24はステップS903に処理を進める。以降の動作は実施の形態1におけるものと同様である。本実施の形態のロボットシミュレーション装置は以上のように動作する。なお、本実施の形態における処理条件には、実施の形態1で述べたものの他、形状パラメータの組み合わせも加わることになる。   In step S905, the control unit 24 determines whether the gripping possibility for each processing condition has been calculated for all combinations of shape parameters that can be changed. If there is a combination for which the gripping possibility for each processing condition has not yet been calculated, the control unit 24 returns the process to step S236. In step S236, the shape model adjustment unit 236 adjusts the shape parameter to one of the combinations for which the gripping possibility for each processing condition has not yet been calculated, and generates a fourth hand shape model. On the other hand, if the gripping possibility for each processing condition is calculated for all combinations of changeable shape parameters, the control unit 24 advances the process to step S903. Subsequent operations are the same as those in the first embodiment. The robot simulation apparatus according to the present embodiment operates as described above. In addition to the processing conditions described in the first embodiment, a combination of shape parameters is added to the processing conditions in the present embodiment.

本実施の形態のロボットシミュレーション装置によれば、設計情報に含まれる第1のハンド形状モデルの数を削減可能となる。この結果、事前に準備する第1のハンド形状モデルの数を削減可能となり、準備作業が軽減される。一方で、1つの第1のハンド形状モデルに対して、さまざまな形状の把持可能性をシミュレーション可能となり、最適な形状のロボットハンドを選択できる可能性が高くなる。例えば、挟持方式の2本爪タイプのロボットハンドに対して、設計情報としては代表的な形状の1つの第1のハンド形状モデルを用意すれば良く、形状モデル調整部236が衝突領域の縦、横、接触領域の縦、横の4つの形状パラメータをさまざまに変化させることで、挟持方式の2本爪タイプのさまざまな形状に対しての把持可能性を算出することができる。また、本実施の形態のロボットシミュレーション装置は、実施の形態1におけるものと同様の効果も有する。   According to the robot simulation apparatus of the present embodiment, the number of first hand shape models included in the design information can be reduced. As a result, the number of first hand shape models prepared in advance can be reduced, and preparation work is reduced. On the other hand, the possibility of gripping various shapes can be simulated for one first hand shape model, and the possibility of selecting an optimally shaped robot hand increases. For example, for a two-claw type robot hand of a clamping method, it is only necessary to prepare one first hand shape model having a representative shape as design information. The gripping possibility for various shapes of the two-claw type of the clamping method can be calculated by variously changing the four shape parameters of the width, the length of the contact area, and the width. Further, the robot simulation apparatus according to the present embodiment also has the same effect as that in the first embodiment.

実施の形態3.
実施の形態1では、設計情報に含まれるロボットハンドの形状モデルからロボットハンドの形状を選択するように構成していた。一方、ロボットシミュレーション装置が、形状パラメータに基づいてロボットハンドの形状を生成するように構成することもできる。この結果、設計情報には形状パラメータの情報を含めば良く、ロボットハンドの形状モデルを含む必要がなくなる。
Embodiment 3 FIG.
In the first embodiment, the shape of the robot hand is selected from the shape model of the robot hand included in the design information. On the other hand, the robot simulation apparatus can be configured to generate the shape of the robot hand based on the shape parameter. As a result, the shape information only needs to be included in the design information, and it is not necessary to include the shape model of the robot hand.

図11は、本発明の実施の形態3によるロボットシミュレーション装置を示す機能ブロック図である。本実施の形態のロボットシミュレーション装置は、形状モデル変換部231の代わりに形状モデル生成部237をハンド選択部23に備えた点が、実施の形態1の図1におけるものと異なる。以下、図11を用いて本実施の形態のロボットシミュレーション装置の動作について述べる。実施の形態1におけるものと同様に、記憶部1には入力部4より設計情報が入力される。ただし、設計情報には、第1のハンド形状モデルは含まれず、形状パラメータ、各パラメータの変更可能範囲及び変更可能な刻み幅が含まれる。記憶部1、表示部3、入力部4の動作は、実施の形態1におけるものと同様であり、説明は省略する。   FIG. 11 is a functional block diagram showing a robot simulation apparatus according to the third embodiment of the present invention. The robot simulation apparatus according to the present embodiment differs from that shown in FIG. 1 according to the first embodiment in that a shape model generation unit 237 is provided in the hand selection unit 23 instead of the shape model conversion unit 231. Hereinafter, the operation of the robot simulation apparatus according to the present embodiment will be described with reference to FIG. As in the first embodiment, design information is input to the storage unit 1 from the input unit 4. However, the design information does not include the first hand shape model, but includes a shape parameter, a changeable range of each parameter, and a changeable step size. The operations of the storage unit 1, the display unit 3, and the input unit 4 are the same as those in the first embodiment, and a description thereof will be omitted.

図12は、本実施の形態のロボットシミュレーション装置における演算部2の動作を説明するためのフロー図である。本フロー図は、ステップS231a及びS231bの代わりにステップS237を備え、ステップS903の代わりにステップS906を備える点が実施の形態1の図2におけるものと異なる。以下、図11及び図12を用いて演算部2の動作について述べる。なお、図11及び図12において、図1及び図2におけるものと同一の番号を付したものは同等のものであり、説明を省略する。   FIG. 12 is a flowchart for explaining the operation of the calculation unit 2 in the robot simulation apparatus of the present embodiment. This flowchart is different from that in FIG. 2 of the first embodiment in that step S237 is provided instead of steps S231a and S231b, and step S906 is provided instead of step S903. Hereinafter, the operation of the calculation unit 2 will be described with reference to FIGS. 11 and 12. 11 and 12, the same reference numerals as those in FIGS. 1 and 2 are the same, and the description thereof is omitted.

ステップS237において、形状モデル生成部237は、設計モデルに含まれる形状パラメータを設定して、さまざまな形状の第2のハンド形状モデルを生成する。実施の形態1及び実施の形態2にて述べたように、第2のハンド形状モデルでは、形状パラメータを用いてロボットハンドの形状を表現することができる。ステップS237において、形状モデル生成部237は、形状パラメータを変更可能範囲内で調整することで、さまざまな形状の第2のハンド形状モデルを生成する。次に、ステップS232において、形状モデル回転部232は、第2のハンド形状モデルを面内回転して第3のハンド形状モデルを生成する。以降、ステップS902までの動作は、実施の形態1におけるものと同様である。   In step S237, the shape model generation unit 237 sets shape parameters included in the design model, and generates second hand shape models having various shapes. As described in the first embodiment and the second embodiment, in the second hand shape model, the shape of the robot hand can be expressed using the shape parameter. In step S237, the shape model generation unit 237 generates second hand shape models of various shapes by adjusting the shape parameters within a changeable range. Next, in step S232, the shape model rotation unit 232 generates a third hand shape model by rotating the second hand shape model in-plane. Thereafter, the operations up to step S902 are the same as those in the first embodiment.

ステップS906において、制御部24は、形状パラメータの全ての組み合わせに対して、処理条件毎の把持可能性を算出したかを判定する。まだ処理条件毎の把持可能性が算出されていない組み合わせがあれば、制御部24はステップS237に処理を戻す。ステップS237において、形状モデル生成部237は、まだ処理条件毎の把持可能性が算出されていない組み合わせの1つに形状パラメータを調整して、第2のハンド形状モデルを生成する。一方、形状パラメータの全ての組み合わせに対して、処理条件毎の把持可能性を算出されていれば、制御部24はステップS904に処理を進める。以降の動作は実施の形態1におけるものと同様である。本実施の形態のロボットシミュレーション装置は以上のように動作する。このとき、ロボットハンドの形状を選択する処理は、式(6)で表すことができる。式(6)において、P1、・・・、Phは形状パラメータを表し、hは形状パラメータの最大数を表す。他は式(3)と同様である。   In step S906, the control unit 24 determines whether the gripping possibility for each processing condition has been calculated for all combinations of shape parameters. If there is a combination for which the gripping possibility for each processing condition has not yet been calculated, the control unit 24 returns the process to step S237. In step S237, the shape model generation unit 237 adjusts the shape parameter to one of the combinations for which the gripping possibility for each processing condition has not yet been calculated, and generates the second hand shape model. On the other hand, if the gripping possibility for each processing condition is calculated for all combinations of the shape parameters, the control unit 24 advances the processing to step S904. Subsequent operations are the same as those in the first embodiment. The robot simulation apparatus according to the present embodiment operates as described above. At this time, the process of selecting the shape of the robot hand can be expressed by Expression (6). In Expression (6), P1,..., Ph represent shape parameters, and h represents the maximum number of shape parameters. Others are the same as Formula (3).

なお、入手が困難な形状があるなどの理由でロボットハンドの形状に制約があり、変更したくない形状パラメータがある場合も考慮すると、変更可能な形状パラメータと、変更不可能な形状パラメータとを設定できるように構成することが望ましい。また、本実施の形態のロボットシミュレーション装置において、把持可能性が高くなる形状パラメータの組み合わせを求める手法として、全ての組み合わせに対して把持可能性を求めるという最も単純な手法を例示しているが、これに限定されるものではない。これは他の実施の形態についても同様である。   If there are restrictions on the shape of the robot hand because there are shapes that are difficult to obtain, and there are some shape parameters that you do not want to change, changeable shape parameters and non-changeable shape parameters. It is desirable to configure so that it can be set. Further, in the robot simulation apparatus of the present embodiment, as a technique for obtaining a combination of shape parameters that increase the gripping possibility, the simplest technique for obtaining the gripping possibility for all combinations is illustrated. It is not limited to this. The same applies to the other embodiments.

本実施の形態のロボットシミュレーション装置によれば、設計情報に第1のハンド形状モデルを含む必要がなくなる。この結果、事前に第1のハンド形状モデルを準備する必要がなくなり、準備作業が軽減される。一方で、さまざまな形状のロボットハンドの把持可能性をシミュレーション可能となり、最適な形状のロボットハンドを選択できる可能性がさらに高くなる。また、本実施の形態のロボットシミュレーション装置は、実施の形態1におけるものと同様の効果も有する。   According to the robot simulation apparatus of the present embodiment, it is not necessary to include the first hand shape model in the design information. As a result, it is not necessary to prepare the first hand shape model in advance, and preparation work is reduced. On the other hand, it becomes possible to simulate the gripping possibility of various shapes of robot hands, and the possibility of selecting an optimally shaped robot hand is further increased. Further, the robot simulation apparatus according to the present embodiment also has the same effect as that in the first embodiment.

実施の形態4.
実施の形態1におけるロボットシミュレーション装置に対して、選択されたロボットハンドの形状に対応する把持可能性が、事前に設定した閾値より小さい場合、ロボットハンドの制御パラメータを変更するような構成を追加することも可能である。これにより、実際のシステム動作における把持成功率を高めた設計を実現することが可能となる。
Embodiment 4 FIG.
The robot simulation apparatus according to the first embodiment is configured to change the control parameter of the robot hand when the gripping possibility corresponding to the shape of the selected robot hand is smaller than a preset threshold value. It is also possible. As a result, it is possible to realize a design with an increased gripping success rate in actual system operation.

図13は、本発明の実施の形態4によるロボットシミュレーション装置を示す機能ブロック図である。本実施の形態のロボットシミュレーション装置は、演算部2に制御パラメータ変更部25を備えた点が、実施の形態1の図1におけるものと異なる。図13において、図1におけるものと同一の番号を付したものは同等のものであり、説明を省略する。以下、図13を用いて演算部2の動作について述べる。なお、演算部2の動作の流れは、実施の形態1におけるものの最後に、制御パラメータ変更部25の動作が追加されるのみであるので、フロー図については省略する。   FIG. 13 is a functional block diagram showing a robot simulation apparatus according to the fourth embodiment of the present invention. The robot simulation apparatus according to the present embodiment is different from that shown in FIG. 1 according to the first embodiment in that the calculation unit 2 includes a control parameter changing unit 25. In FIG. 13, the same reference numerals as those in FIG. 1 are the same, and the description thereof is omitted. Hereinafter, the operation of the calculation unit 2 will be described with reference to FIG. Since the operation flow of the calculation unit 2 is only the operation of the control parameter changing unit 25 added to the end of the first embodiment, the flow diagram is omitted.

演算部2において、ハンド選択部23でハンド形状毎の把持可能性を演算し、これに基づいてロボットハンドの形状を選択するまでの処理は、上記実施の形態1におけるものと同様である。すなわち、図2におけるステップS235までの動作は、本実施の形態のロボットシミュレーション装置においても同様である。本実施の形態のロボットシミュレーション装置においては、図2のステップS235の動作の後に、以下に述べる制御パラメータ変更部25の動作が追加されたものとなる。制御パラメータ変更部25は、選択されたハンド形状に対する把持可能性を予め設定される閾値と比較する。把持可能性が閾値以上であれば、制御パラメータ変更部25は、制御パラメータを変更することなく動作を終了する。一方、把持可能性が閾値未満であれば、制御パラメータ変更部25は、制御パラメータを変更する。   In the calculation unit 2, the processing until the hand selection unit 23 calculates the gripping possibility for each hand shape and selects the shape of the robot hand based on this is the same as that in the first embodiment. That is, the operations up to step S235 in FIG. 2 are the same in the robot simulation apparatus of the present embodiment. In the robot simulation apparatus of the present embodiment, the operation of the control parameter changing unit 25 described below is added after the operation of step S235 in FIG. The control parameter changing unit 25 compares the gripping possibility for the selected hand shape with a preset threshold value. If the gripping possibility is equal to or higher than the threshold value, the control parameter changing unit 25 ends the operation without changing the control parameter. On the other hand, if the gripping possibility is less than the threshold value, the control parameter changing unit 25 changes the control parameter.

ここで、制御パラメータは、ロボットハンドの動作速度や停止時間など、ワークの把持に際するロボットハンドの動作に関するパラメータであり、設計情報に含まれている。把持可能性が閾値未満の場合、制御パラメータ変更部25は、把持の際のロボットハンドの進入速度や把持後のロボット動作速度を落としたり、把持の際の停止時間を長くするように制御パラメータを変更する。本実施の形態のロボットシミュレーション装置によれば、選択されたロボットハンドの把持可能性に応じて制御パラメータを変更することで、把持成功率をさらに高めた設計を実現することができる。また、本実施の形態のロボットシミュレーション装置は、実施の形態1におけるものと同様の効果も有する。   Here, the control parameter is a parameter related to the operation of the robot hand when gripping the workpiece, such as the operation speed or stop time of the robot hand, and is included in the design information. When the gripping possibility is less than the threshold, the control parameter changing unit 25 sets the control parameter so as to decrease the approach speed of the robot hand during gripping or the robot operation speed after gripping, or lengthen the stop time during gripping. change. According to the robot simulation apparatus of the present embodiment, it is possible to realize a design that further increases the gripping success rate by changing the control parameter according to the gripping possibility of the selected robot hand. Further, the robot simulation apparatus according to the present embodiment also has the same effect as that in the first embodiment.

実施の形態5.
実施の形態1におけるロボットシミュレーション装置では、ハンド形状毎の把持可能性に基づいてロボットハンドの形状を選択するように構成していた。ハンド形状毎の把持可能性に加えて、ロボットハンドによるワークのバラ積み取り出し作業をシミュレートし、見積もられたタクトタイムも考慮してロボットハンドの形状を選択するように構成することも可能である。これにより、タクトタイムを短縮可能なロボットハンドの形状が選択される可能性をさらに高めることができる。
Embodiment 5. FIG.
The robot simulation apparatus according to the first embodiment is configured to select the shape of the robot hand based on the gripping possibility for each hand shape. In addition to the possibility of gripping each hand shape, it is also possible to simulate the work of unloading workpieces by the robot hand and select the shape of the robot hand taking into account the estimated tact time is there. Thereby, the possibility that the shape of the robot hand that can shorten the tact time is selected can be further increased.

図14は、本発明の実施の形態5によるロボットシミュレーション装置を示す機能ブロック図である。本実施の形態のロボットシミュレーション装置は、演算部2にタクトタイム算出部26を備えた点が、実施の形態1の図1におけるものと異なる。図14において、図1におけるものと同一の番号を付したものは同等のものであり、説明を省略する。以下、図14を用いて演算部2の動作について述べる。   FIG. 14 is a functional block diagram showing a robot simulation apparatus according to the fifth embodiment of the present invention. The robot simulation apparatus according to the present embodiment differs from that in FIG. 1 according to the first embodiment in that the arithmetic unit 2 includes a tact time calculation unit 26. In FIG. 14, the same reference numerals as those in FIG. 1 are the same, and the description thereof is omitted. Hereinafter, the operation of the calculation unit 2 will be described with reference to FIG.

演算部2において、ハンド選択部23bでハンド形状毎の把持可能性を演算し、これに基づいてロボットハンドの形状を選択するまでの処理は、上記実施の形態1におけるものと同様である。ただし、実施の形態1におけるものと異なり、ハンド選択部23bが備える評価選択部235bはハンド形状毎の把持可能性が高い順に複数のハンド形状を選択する。すなわち、図2に示したフロー図と比較すると、本実施の形態のロボットシミュレーション装置の動作は、ステップS235において複数のハンド形状が選択される点と、ステップS235の動作の後に、タクトタイム算出部26の動作が追加された点とが異なる。   In the calculation unit 2, the processing until the hand selection unit 23b calculates the gripping possibility for each hand shape and selects the shape of the robot hand based on this is the same as that in the first embodiment. However, unlike in the first embodiment, the evaluation selection unit 235b included in the hand selection unit 23b selects a plurality of hand shapes in descending order of the gripping possibility for each hand shape. That is, as compared with the flowchart shown in FIG. 2, the operation of the robot simulation apparatus according to the present embodiment is based on the fact that a plurality of hand shapes are selected in step S235 and the tact time calculation unit after the operation in step S235. The difference is that 26 operations have been added.

タクトタイム算出部26は、ハンド選択部23bで選択された複数のロボットハンドの形状を用いて、ワークのバラ積み取り出し作業をシミュレートし、それぞれのロボットハンドに対するタクトタイムを見積もる。続いて、タクトタイム算出部26は、見積もられたタクトタイムをスコアに換算する。このスコアは、タクトタイムが短いほど高い値となる。さらに、タクトタイム算出部26は、ハンド形状毎の把持可能性と対応するハンド形状に対するスコアを重み付け加算して、最も高い値となるハンド形状を選択する。本実施の形態のロボットシミュレーション装置は、以上のように動作する。本実施の形態のロボットシミュレーション装置によれば、タクトタイムを短縮可能なロボットハンドの形状が選択される可能性をさらに高めることができる。また、本実施の形態のロボットシミュレーション装置は、実施の形態1におけるものと同様の効果も有する。   The tact time calculation unit 26 simulates the work of unloading workpieces using the shapes of the plurality of robot hands selected by the hand selection unit 23b, and estimates the tact time for each robot hand. Subsequently, the tact time calculation unit 26 converts the estimated tact time into a score. This score becomes higher as the tact time is shorter. Furthermore, the tact time calculation unit 26 weights and adds the gripping possibility for each hand shape and the score for the corresponding hand shape, and selects the hand shape having the highest value. The robot simulation apparatus according to the present embodiment operates as described above. According to the robot simulation apparatus of the present embodiment, it is possible to further increase the possibility of selecting the shape of the robot hand that can shorten the tact time. Further, the robot simulation apparatus according to the present embodiment also has the same effect as that in the first embodiment.

1 記憶部、2 演算部、3 表示部、4 入力部、21 バラ積み演算部、22 奥行き計測模擬部、23、23b ハンド選択部、24 制御部、25 制御パラメータ変更部、26 タクトタイム算出部、221 センサモデル配置部、222 奥行きデータ生成部、231 形状モデル変換部、232 形状モデル回転部、233 領域抽出部、234 把持可能性演算部、235、235b 評価選択部、236 形状モデル調整部、237 形状モデル生成部、31 奥行きデータ表示部、32 仮想空間表示部、33 設計情報表示部。   DESCRIPTION OF SYMBOLS 1 Memory | storage part, 2 calculating part, 3 Display part, 4 Input part, 21 Stacking calculating part, 22 Depth measurement simulation part, 23, 23b Hand selection part, 24 Control part, 25 Control parameter change part, 26 Tact time calculation part 221 sensor model placement unit, 222 depth data generation unit, 231 shape model conversion unit, 232 shape model rotation unit, 233 region extraction unit, 234 graspability calculation unit, 235, 235b evaluation selection unit, 236 shape model adjustment unit, 237 Shape model generation part, 31 Depth data display part, 32 Virtual space display part, 33 Design information display part.

Claims (12)

ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、
奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、
複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するハンド選択部とを備え
前記ハンド形状モデルは、
前記ワークを把持する際に前記ワークに接触すべき領域を奥行きデータの奥行き方向と垂直な面に投影した2次元の領域であるハンド接触領域と、
前記ワークを把持する際に前記ハンド接触領域が前記ワークに接触するより先に前記ワークに衝突する可能性のある領域がある場合には、前記衝突する可能性のある領域を前記垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、
前記ハンド選択部は、
前記奥行きデータにおける各点の集まりである計測領域のうち前記ロボットハンドが前記ワークを把持する際に前記ハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、
前記計測領域のうち前記ワークモデル接触領域に前記ハンド接触領域を接触させるより先に前記ハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域と
を前記奥行きデータに基づいて求め、
前記ハンド接触領域及び前記ハンド衝突領域並びに前記ワークモデル接触領域及び前記ワークモデル衝突領域に基づいて把持可能性を算出する
ことを特徴とするロボットシミュレーション装置。
A bulk calculation unit that reproduces in a virtual space a state in which work models obtained by modeling a work are stacked;
Depth measurement in which a sensor model obtained by modeling a depth measurement sensor is arranged in the virtual space, and depth data including depth information at each point is generated by simulating depth measurement at each point of the work model using the sensor model. A simulation section,
Based on the hand shape model obtained by modeling the shapes of a plurality of robot hands and the depth data, the gripping possibility of the work model in the robot hands is calculated for the shapes of the plurality of robot hands, and the grip A hand selection unit that selects the shape of the robot hand based on the possibility ,
The hand shape model is
A hand contact area that is a two-dimensional area obtained by projecting an area to be in contact with the work when gripping the work onto a plane perpendicular to the depth direction of the depth data;
When there is a region that may collide with the workpiece before the hand contact region contacts the workpiece when gripping the workpiece, the region that may collide with the vertical surface. It is defined by a hand collision area that is a projected two-dimensional area,
The hand selection unit
A work model contact area that is a candidate area for contacting the hand contact area when the robot hand grips the work out of a measurement area that is a collection of points in the depth data;
A workpiece model collision area that is a region where the hand collision area may collide before the hand contact area is brought into contact with the workpiece model contact area of the measurement area;
Is obtained based on the depth data,
The robot simulation apparatus characterized by calculating a gripping possibility based on the hand contact area, the hand collision area, the work model contact area, and the work model collision area .
前記ワークモデルは、前記ワークの重心の位置情報を有し、
前記ハンド選択部は、前記重心の位置情報を用いて前記把持可能性を算出する
ことを特徴とする請求項に記載のロボットシミュレーション装置。
The workpiece model has position information of the center of gravity of the workpiece,
The hand selection unit, the robot simulation apparatus according to claim 1, characterized in that calculating said gripping possibilities by using the position information of the center of gravity.
前記ハンド選択部は、
前記ロボットハンドが前記ワークモデルを把持して持ち上げる際の周辺の干渉物の数を用いて前記把持可能性を算出する
ことを特徴とする請求項に記載のロボットシミュレーション装置。
The hand selection unit
Robot simulation apparatus according to claim 1, characterized in that calculating said gripping possibilities by using the interference the number of the peripheral when the robot hand is lifted by gripping the workpiece model.
前記ハンド選択部は、
前記把持可能性が最も高い前記ロボットハンドの前記形状を選択する
ことを特徴とする請求項1から請求項のいずれか1項に記載のロボットシミュレーション装置。
The hand selection unit
Robot simulation apparatus according to any one of claims 1 to 3, characterized in that the gripping possibility to select the shape of the highest the robot hand.
ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、
奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、
複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するハンド選択部とを備え
前記ハンド選択部は、
複数種類の前記ワークモデルに対して求められた前記把持可能性の平均値が最も高い前記ロボットハンドの前記形状を選択する
ことを特徴とするロボットシミュレーション装置。
A bulk calculation unit that reproduces in a virtual space a state in which work models obtained by modeling a work are stacked;
Depth measurement in which a sensor model obtained by modeling a depth measurement sensor is arranged in the virtual space, and depth data including depth information at each point is generated by simulating depth measurement at each point of the work model using the sensor model. A simulation section,
Based on the hand shape model obtained by modeling the shapes of a plurality of robot hands and the depth data, the gripping possibility of the work model in the robot hands is calculated for the shapes of the plurality of robot hands, and the grip A hand selection unit that selects the shape of the robot hand based on the possibility ,
The hand selection unit
The robot simulation apparatus , wherein the shape of the robot hand having the highest average value of the gripping possibilities obtained for a plurality of types of the work models is selected .
ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、
奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、
複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するハンド選択部とを備え
前記バラ積み演算部は、前記ワークモデルが積み重ねられた状態を複数回再現し、
前記ハンド選択部は、複数回再現された前記ワークモデルが積み重ねられた状態に対して求められた前記把持可能性の平均値が最も高い前記ロボットハンドの前記形状を選択する
ことを特徴とするロボットシミュレーション装置。
A bulk calculation unit that reproduces in a virtual space a state in which work models obtained by modeling a work are stacked;
Depth measurement in which a sensor model obtained by modeling a depth measurement sensor is arranged in the virtual space, and depth data including depth information at each point is generated by simulating depth measurement at each point of the work model using the sensor model. A simulation section,
Based on the hand shape model obtained by modeling the shapes of a plurality of robot hands and the depth data, the gripping possibility of the work model in the robot hands is calculated for the shapes of the plurality of robot hands, and the grip A hand selection unit that selects the shape of the robot hand based on the possibility ,
The unloading unit reproduces a state in which the work models are stacked a plurality of times,
The hand selection unit selects the shape of the robot hand having the highest average value of the gripping possibility obtained for a state where the work models reproduced a plurality of times are stacked. A robot simulation device.
複数の前記ロボットハンドの前記形状には、把持方式の異なる前記形状が含まれる
ことを特徴とする請求項1から請求項6のいずれか1項に記載のロボットシミュレーション装置。
The said form of a plurality of the robot hand, the robot simulation apparatus according to any one of claims 6 to include different the shapes of the gripping system from claim 1, wherein.
前記把持方式には、挟把方式と吸着方式とが含まれる
ことを特徴とする請求項に記載のロボットシミュレーション装置。
The robot simulation apparatus according to claim 7 , wherein the gripping method includes a pinching method and a suction method.
前記ハンド選択部で選択された前記形状に対応する前記把持可能性に基づいて、前記ロボットハンドの動作を制御する制御パラメータを変更する制御パラメータ変更部を備える
ことを特徴とする請求項1から請求項のいずれか1項に記載のロボットシミュレーション装置。
Based on the grip may correspond to the shape selected by the hand selection unit, according claim 1, characterized in that it comprises the control parameter changing unit for changing a control parameter for controlling the operation of the robot hand Item 9. The robot simulation apparatus according to any one of items 8 to 9 .
情報処理装置を
ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、
奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、
複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するハンド選択部と
して機能させ
前記ハンド形状モデルは、
前記ワークを把持する際に前記ワークに接触すべき領域を奥行きデータの奥行き方向と垂直な面に投影した2次元の領域であるハンド接触領域と、
前記ワークを把持する際に前記ハンド接触領域が前記ワークに接触するより先に前記ワークに衝突する可能性のある領域がある場合には、前記衝突する可能性のある領域を前記垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、
前記ハンド選択部は、
前記奥行きデータにおける各点の集まりである計測領域のうち前記ロボットハンドが前記ワークを把持する際に前記ハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、
前記計測領域のうち前記ワークモデル接触領域に前記ハンド接触領域を接触させるより先に前記ハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域と
を前記奥行きデータに基づいて求め、
前記ハンド接触領域及び前記ハンド衝突領域並びに前記ワークモデル接触領域及び前記ワークモデル衝突領域に基づいて把持可能性を算出する
ことを特徴とするロボットシミュレーションプログラム。
A bulk stacking unit that reproduces in a virtual space a state in which work models obtained by modeling information processing devices are stacked;
Depth measurement in which a sensor model obtained by modeling a depth measurement sensor is arranged in the virtual space, and depth data including depth information at each point is generated by simulating depth measurement at each point of the work model using the sensor model. A simulation section,
Based on the hand shape model obtained by modeling the shapes of a plurality of robot hands and the depth data, the gripping possibility of the work model in the robot hands is calculated for the shapes of the plurality of robot hands, and the grip Function as a hand selection unit that selects the shape of the robot hand based on the possibility ,
The hand shape model is
A hand contact area that is a two-dimensional area obtained by projecting an area to be in contact with the work when gripping the work onto a plane perpendicular to the depth direction of the depth data;
When there is a region that may collide with the workpiece before the hand contact region contacts the workpiece when gripping the workpiece, the region that may collide with the vertical surface. It is defined by a hand collision area that is a projected two-dimensional area,
The hand selection unit
A work model contact area that is a candidate area for contacting the hand contact area when the robot hand grips the work out of a measurement area that is a collection of points in the depth data;
A workpiece model collision area that is a region where the hand collision area may collide before the hand contact area is brought into contact with the workpiece model contact area of the measurement area;
Is obtained based on the depth data,
Grasping possibility is calculated based on the hand contact area, the hand collision area, the work model contact area, and the work model collision area.
A robot simulation program characterized by this .
請求項10に記載のロボットシミュレーションプログラムを記録した記録媒体。 A recording medium on which the robot simulation program according to claim 10 is recorded. バラ積み演算部が、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するステップと、
奥行き計測模擬部が、奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成するステップと、
ハンド選択部が、複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するステップと
を備え
前記ハンド形状モデルは、
前記ワークを把持する際に前記ワークに接触すべき領域を奥行きデータの奥行き方向と垂直な面に投影した2次元の領域であるハンド接触領域と、
前記ワークを把持する際に前記ハンド接触領域が前記ワークに接触するより先に前記ワークに衝突する可能性のある領域がある場合には、前記衝突する可能性のある領域を前記垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、
前記ロボットハンドの前記形状を選択するステップは、
前記奥行きデータにおける各点の集まりである計測領域のうち前記ロボットハンドが前記ワークを把持する際に前記ハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、
前記計測領域のうち前記ワークモデル接触領域に前記ハンド接触領域を接触させるより先に前記ハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域と
を前記奥行きデータに基づいて求めるステップと、
前記ハンド接触領域及び前記ハンド衝突領域並びに前記ワークモデル接触領域及び前記ワークモデル衝突領域に基づいて把持可能性を算出するステップとを備える
ことを特徴とするロボットシミュレーション方法。
A step in which the bulk calculation unit reproduces in a virtual space a state in which workpiece models obtained by modeling workpieces are stacked;
A depth measurement simulation unit arranges a sensor model obtained by modeling a depth measurement sensor in the virtual space, simulates depth measurement of each point of the work model by the sensor model, and includes depth information at each point. Generating data; and
Based on the hand shape model obtained by modeling the shape of a plurality of robot hands and the depth data, the hand selection unit determines the gripping possibility of the work model in the robot hand with respect to the shapes of the plurality of robot hands. Calculating and selecting the shape of the robot hand based on the gripping possibility , and
The hand shape model is
A hand contact area that is a two-dimensional area obtained by projecting an area to be in contact with the work when gripping the work onto a plane perpendicular to the depth direction of the depth data;
When there is a region that may collide with the workpiece before the hand contact region contacts the workpiece when gripping the workpiece, the region that may collide with the vertical surface. It is defined by a hand collision area that is a projected two-dimensional area,
The step of selecting the shape of the robot hand includes
A work model contact area that is a candidate area for contacting the hand contact area when the robot hand grips the work out of a measurement area that is a collection of points in the depth data;
A workpiece model collision area that is a region where the hand collision area may collide before the hand contact area is brought into contact with the workpiece model contact area of the measurement area;
Obtaining based on the depth data;
A robot simulation method comprising: calculating a gripping possibility based on the hand contact area, the hand collision area, the work model contact area, and the work model collision area .
JP2013241725A 2013-11-22 2013-11-22 Robot simulation apparatus, program, recording medium and method Active JP6036662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013241725A JP6036662B2 (en) 2013-11-22 2013-11-22 Robot simulation apparatus, program, recording medium and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013241725A JP6036662B2 (en) 2013-11-22 2013-11-22 Robot simulation apparatus, program, recording medium and method

Publications (2)

Publication Number Publication Date
JP2015100866A JP2015100866A (en) 2015-06-04
JP6036662B2 true JP6036662B2 (en) 2016-11-30

Family

ID=53377034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013241725A Active JP6036662B2 (en) 2013-11-22 2013-11-22 Robot simulation apparatus, program, recording medium and method

Country Status (1)

Country Link
JP (1) JP6036662B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210390218A1 (en) * 2018-10-12 2021-12-16 Abb Schweiz Ag Method For Generating A Tool Interacting With An Object
US11691275B2 (en) 2020-09-16 2023-07-04 Kabushiki Kalsha Toshiba Handling device and computer program product

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5877857B2 (en) 2014-03-10 2016-03-08 ファナック株式会社 Robot simulation device for simulating workpiece removal process
JP6571616B2 (en) 2016-09-05 2019-09-04 ファナック株式会社 Robot simulation device
WO2018092860A1 (en) * 2016-11-16 2018-05-24 三菱電機株式会社 Interference avoidance device
JP6646894B2 (en) 2016-12-28 2020-02-14 オムロン株式会社 Holdability result output device
JP6653064B2 (en) * 2016-12-28 2020-02-26 オムロン株式会社 Simulation apparatus, robot, simulation method, and program therefor
WO2018147940A1 (en) * 2017-02-09 2018-08-16 Invensas Bonding Technologies, Inc. Bonded structures
JP6785687B2 (en) * 2017-03-03 2020-11-18 株式会社キーエンス Robot simulation equipment, robot simulation methods, robot simulation programs, computer-readable recording media, and recording equipment
JP6877192B2 (en) * 2017-03-03 2021-05-26 株式会社キーエンス Image processing equipment, image processing methods, image processing programs, computer-readable recording media, and recording equipment
WO2018163242A1 (en) * 2017-03-06 2018-09-13 株式会社Fuji Data structure for creating image-processing data and method for creating image-processing data
JP6707485B2 (en) 2017-03-22 2020-06-10 株式会社東芝 Object handling device and calibration method thereof
JP6598814B2 (en) * 2017-04-05 2019-10-30 キヤノン株式会社 Information processing apparatus, information processing method, program, system, and article manufacturing method
JP6608890B2 (en) * 2017-09-12 2019-11-20 ファナック株式会社 Machine learning apparatus, robot system, and machine learning method
JP6880457B2 (en) 2017-11-14 2021-06-02 オムロン株式会社 Gripping method, gripping system and program
WO2019130543A1 (en) * 2017-12-28 2019-07-04 株式会社Fuji Information providing device, information providing method and program
EP3733356A4 (en) 2017-12-28 2020-12-16 Fuji Corporation Information providing device, information providing method and program
JP2018158439A (en) * 2018-03-15 2018-10-11 株式会社東芝 Object handling device, control device, and calibration method
JP7160923B2 (en) * 2018-08-09 2022-10-25 株式会社Fuji Simulation method, simulation system
JP7258611B2 (en) * 2019-03-15 2023-04-17 株式会社東芝 Control device, program and control method
JP7264247B2 (en) * 2019-07-01 2023-04-25 オムロン株式会社 Information processing device and information processing method
DE102020120027A1 (en) * 2020-07-29 2022-02-03 Liebherr-Verzahntechnik Gmbh Process for the automatic determination of design parameters of a gripper
EP4094906A1 (en) * 2021-05-26 2022-11-30 AyTec Automation GmbH Gripping arrangement
KR102617418B1 (en) * 2021-09-29 2023-12-27 네이버랩스 주식회사 Method, computer system, and computer program for reinforcement learning-based navigation adaptable to sensor configuration and robot shape

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2555822B2 (en) * 1991-10-30 1996-11-20 日本電装株式会社 High-speed picking device for piled parts
JP2001277167A (en) * 2000-03-31 2001-10-09 Okayama Pref Gov Shin Gijutsu Shinko Zaidan Three-dimensional attitude recognizing method
JP4655309B2 (en) * 2005-11-09 2011-03-23 株式会社Ihi Picking order determination method, apparatus and program thereof, and picking system
JP4153528B2 (en) * 2006-03-10 2008-09-24 ファナック株式会社 Apparatus, program, recording medium and method for robot simulation
JP2007334678A (en) * 2006-06-15 2007-12-27 Fanuc Ltd Robot simulation device
US9089966B2 (en) * 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
FI20106387A (en) * 2010-12-30 2012-07-01 Zenrobotics Oy Method, computer program and device for determining the site of infection
JP5623358B2 (en) * 2011-09-06 2014-11-12 三菱電機株式会社 Work picking device
JP5936108B2 (en) * 2011-12-06 2016-06-15 株式会社Ihi Object extraction apparatus and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210390218A1 (en) * 2018-10-12 2021-12-16 Abb Schweiz Ag Method For Generating A Tool Interacting With An Object
US11954406B2 (en) * 2018-10-12 2024-04-09 Abb Schweiz Ag Method for generating a tool interacting with an object
US11691275B2 (en) 2020-09-16 2023-07-04 Kabushiki Kalsha Toshiba Handling device and computer program product

Also Published As

Publication number Publication date
JP2015100866A (en) 2015-06-04

Similar Documents

Publication Publication Date Title
JP6036662B2 (en) Robot simulation apparatus, program, recording medium and method
CN104249371B (en) Information processor and information processing method
JP6807949B2 (en) Interference avoidance device
JP5073065B2 (en) Collision determination device and collision determination program
Rao et al. Grasping novel objects with depth segmentation
JP4677536B1 (en) 3D object recognition apparatus and 3D object recognition method
KR101453234B1 (en) Workpiece pick-up apparatus
JP5458885B2 (en) Object detection method, object detection apparatus, and robot system
CN109015640B (en) Grabbing method, grabbing system, computer device and readable storage medium
JP2021051721A (en) Method and computing system for object identification
JP6988573B2 (en) Simulation equipment, simulation method and simulation program
JP2016196077A (en) Information processor, information processing method, and program
JP5544464B2 (en) 3D position / posture recognition apparatus and method for an object
CN109508707A (en) The crawl point acquisition methods of robot stabilized crawl object based on monocular vision
JP5762099B2 (en) Posture recognition apparatus, work robot, posture recognition method, program, and recording medium
JP6237122B2 (en) Robot, image processing method and robot system
JP4649554B1 (en) Robot controller
JP7454132B2 (en) Robot system control device, robot system control method, computer control program, and robot system
JP7373700B2 (en) Image processing device, bin picking system, image processing method, image processing program, control method and control program
JP7264247B2 (en) Information processing device and information processing method
US20220080590A1 (en) Handling device and computer program product
JP7066671B2 (en) Interference determination device, interference determination method, program and system
JP7161857B2 (en) Information processing device, information processing method, and program
JP7162760B2 (en) Model generator and picking robot
JP6955733B1 (en) Information processing equipment, information processing methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R151 Written notification of patent or utility model registration

Ref document number: 6036662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250