JP6036662B2 - Robot simulation apparatus, a program, a recording medium and methods - Google Patents

Robot simulation apparatus, a program, a recording medium and methods Download PDF

Info

Publication number
JP6036662B2
JP6036662B2 JP2013241725A JP2013241725A JP6036662B2 JP 6036662 B2 JP6036662 B2 JP 6036662B2 JP 2013241725 A JP2013241725 A JP 2013241725A JP 2013241725 A JP2013241725 A JP 2013241725A JP 6036662 B2 JP6036662 B2 JP 6036662B2
Authority
JP
Grant status
Grant
Patent type
Prior art keywords
hand
shape
model
robot
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013241725A
Other languages
Japanese (ja)
Other versions
JP2015100866A (en )
Inventor
幸康 堂前
幸康 堂前
亮輔 川西
亮輔 川西
隆史 平位
隆史 平位
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Grant date

Links

Images

Description

ロボットアームがバラ積みされたワークを取り出す作業を仮想空間上でシミュレーションする技術に関する。 About simulation technique the work robot arm takes out a rose stacked to the workpiece in a virtual space.

センサ、ロボット、ワークのモデルを配置し、さらにワークが乱雑に積まれた状態を作成した仮想空間上で実際のバラ積み取り出し作業を模擬し、作業時間を推定する従来のロボットシミュレーション装置が、例えば特許文献1に開示されている。 Sensor, the robot places the model of the workpiece, further work simulates actual roses pile extraction operations in a virtual space that created the state of being stacked in messy, the conventional robot simulation apparatus for estimating the working time, e.g. It disclosed in Patent Document 1. このようなロボットシミュレーション装置を用いて作業時間を見積もることで、実際のセンサ、ロボット、ワークを含んだシステムの設計や立ち上げを容易にし、設計や立ち上げにかかる作業期間を短縮することが可能となる。 By estimating such a robot simulation apparatus work time with the actual sensor, the robot, the design and launch of including work systems to facilitate, possible to shorten the work period according to the design and launch to become. また、把持対象以外のワークに対するロボットハンドの干渉が比較的軽度である場合に対しては、ロボットのハンドモデルの寸法を仮想空間上で変更して、最適な寸法のロボットハンドを検討することが、例えば特許文献2に開示されている。 Further, for the case the interference of the robot hand relative to other gripping target workpiece is relatively mild, that by changing the dimensions of the hand model of the robot in a virtual space, consider robot hand optimum dimensions , for example, disclosed in Patent Document 2.

特開2007−241857 Patent 2007-241857 特開2007−326160(段落0041) JP 2007-326160 (paragraph 0041)

従来のロボットシミュレーション装置においては、仮想空間上で最適な寸法のロボットハンドを検討することは記載されているが、把持対象以外のワークに対するロボットハンドの干渉が比較的軽度であるという限定された場合に対してのみであった。 If the conventional robot simulation apparatus, it is described to study the robot hand optimum dimensions in a virtual space, the interference of the robot hand relative to other gripping target work is limited in that it is relatively mild It was only for. また、ロボットハンドの形状が適切でなければ、寸法の変更による把持成功率を高める効果はさらに限定的となる。 Further, if the appropriate shape of the robot hand, the effect of increasing the gripping success rate by changing the size becomes more restrictive. 一方、ワークの形状に応じて把持に適したロボットハンドの形状を選択することが可能となれば、選択の自由度が広がり、より多くの場合で把持成功率を高めることが可能となる。 On the other hand, if it is possible to select the shape of the robot hand grippable in accordance with the shape of the workpiece, spread freedom of selection, it is possible to enhance the gripping success rate more often. ロボットによるワークのバラ積み取り出し作業において、ワークの把持成功率が上がれば、取り出しにかかるタクトタイムは飛躍的に向上する。 In roses pile extraction work of the workpiece by the robot, if the gripping success rate of the workpiece rises, tact time according to the extraction is remarkably increased. しかし、把持成功率を高めるロボットハンドの形状を選択できるロボットシミュレーション装置はこれまでになかった。 However, the robot simulation apparatus can select the shape of the robot hand to increase the gripping success rate never before.

この発明は、上記の課題を解決するためになされたものであり、把持成功率を高めるロボットハンドの形状を仮想空間上での計算により選択できるロボットシミュレーション装置を得ることを目的としている。 The present invention has been made to solve the above problems, and aims at obtaining a robot simulation apparatus that can be selected by calculation of the shape of the robot hand to increase the gripping success rate in a virtual space.

この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの前記形状を選択するハンド選択部とを備え、ハンド形状モデルは、ワークを把持する際にワークに接触すべき領域を奥行きデータの奥行 Robot simulation apparatus according to the invention, arranged a bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in the virtual space, a sensor model that models the depth measuring sensor in a virtual space , and the depth measurement simulating unit for generating a depth data consisting of depth information at each point by simulating the depth measurement of each point of the work model by the sensor model, the hand shape model and depth data obtained by modeling the shape of a plurality of robot hand based on the bets, it calculates the gripping potential of the work model in the robot hand relative to the shape of a plurality of robot hand, and a hand selector for selecting the shape of the robot hand on the basis of the gripping possibility, the hand shape model, the depth data of the area to be in contact with the workpiece when holding the workpiece depth 方向と垂直な面に投影した2次元の領域であるハンド接触領域と、ワークを把持する際にハンド接触領域がワークに接触するより先にワークに衝突する可能性のある領域がある場合には、衝突する可能性のある領域を垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、ハンド選択部は、奥行きデータにおける各点の集まりである計測領域のうちロボットハンドがワークを把持する際にハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、計測領域のうちワークモデル接触領域にハンド接触領域を接触させるより先にハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域とを奥行きデータに基づいて求め、ハンド接触領域及びハンド衝突領域並びにワークモデル接触領域及びワ And hand contact area is a two-dimensional region are projected in a direction perpendicular plane, if there is a region where the hand contact area is likely to collide with the workpiece prior to contact with the workpiece when gripping the workpiece is defined in a two-dimensional hand impact region is a region obtained by projecting the area that might collide with the vertical surface, the hand selecting unit, the robot hand of the measurement area is a collection of points in the depth data a workpiece model contact area is an area to be a candidate for contacting the hand contact area when gripping the workpiece, the possibility that the hand impact area ahead contacting the hand contact area in the work model the contact area of the measurement region collide determined based on the depth data and the workpiece model impingement region is an area of the hand contact area and hand impact region and the work model the contact region and the word クモデル衝突領域に基づいて把持可能性を算出するものである。 And it calculates a gripping possibility based on Kumoderu impact area.
また、この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの形状を選択するハンド選択部とを備え、ハンド選択部は、複数種類のワークモデルに対して求められた把持可能性の平均値が最も The robot simulation apparatus according to the present invention includes a bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in the virtual space, the depth measuring sensor modeled sensor model in a virtual space placement, and the depth measurement simulating unit for generating a depth data consisting of depth information at each point by simulating the depth measurement of each point of the work model by the sensor model, a hand shape model that models a shape of a plurality of robot hand based on the depth data, it calculates the gripping possibility of the work model in the robot hand relative to the shape of a plurality of robot hand, and a hand selector for selecting the shape of the robot hand on the basis of the gripping possibility, hand selection unit, the average value of the gripping possibilities determined for a plurality of types of workpiece models are most いロボットハンドの形状を選択するものである。 There is to select the shape of the robot hand.
また、この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの形状を選択するハンド選択部とを備え、バラ積み演算部は、ワークモデルが積み重ねられた状態を複数回再現し、ハンド選択部は The robot simulation apparatus according to the present invention includes a bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in the virtual space, the depth measuring sensor modeled sensor model in a virtual space placement, and the depth measurement simulating unit for generating a depth data consisting of depth information at each point by simulating the depth measurement of each point of the work model by the sensor model, a hand shape model that models a shape of a plurality of robot hand based on the depth data, it calculates the gripping possibility of the work model in the robot hand relative to the shape of a plurality of robot hand, and a hand selector for selecting the shape of the robot hand on the basis of the gripping possibility, rose the loading operation section, a state where the work model are stacked reproduced multiple times, the hand selecting unit 複数回再現されたワークモデルが積み重ねられた状態に対して求められた把持可能性の平均値が最も高いロボットハンドの形状を選択するものである。 In which the average value of the gripping possibilities determined for state reproduced workpiece model more than once stacked to select the shape of the highest robot hand.

この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの前記形状を選択するハンド選択部とを備え、ハンド形状モデルは、ワークを把持する際にワークに接触すべき領域を奥行きデータの奥行 Robot simulation apparatus according to the invention, arranged a bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in the virtual space, a sensor model that models the depth measuring sensor in a virtual space , and the depth measurement simulating unit for generating a depth data consisting of depth information at each point by simulating the depth measurement of each point of the work model by the sensor model, the hand shape model and depth data obtained by modeling the shape of a plurality of robot hand based on the bets, it calculates the gripping potential of the work model in the robot hand relative to the shape of a plurality of robot hand, and a hand selector for selecting the shape of the robot hand on the basis of the gripping possibility, the hand shape model, the depth data of the area to be in contact with the workpiece when holding the workpiece depth 方向と垂直な面に投影した2次元の領域であるハンド接触領域と、ワークを把持する際にハンド接触領域がワークに接触するより先にワークに衝突する可能性のある領域がある場合には、衝突する可能性のある領域を垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、ハンド選択部は、奥行きデータにおける各点の集まりである計測領域のうちロボットハンドがワークを把持する際にハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、計測領域のうちワークモデル接触領域にハンド接触領域を接触させるより先にハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域とを奥行きデータに基づいて求め、ハンド接触領域及びハンド衝突領域並びにワークモデル接触領域及びワ And hand contact area is a two-dimensional region are projected in a direction perpendicular plane, if there is a region where the hand contact area is likely to collide with the workpiece prior to contact with the workpiece when gripping the workpiece is defined in a two-dimensional hand impact region is a region obtained by projecting the area that might collide with the vertical surface, the hand selecting unit, the robot hand of the measurement area is a collection of points in the depth data a workpiece model contact area is an area to be a candidate for contacting the hand contact area when gripping the workpiece, the possibility that the hand impact area ahead contacting the hand contact area in the work model the contact area of the measurement region collide determined based on the depth data and the workpiece model impingement region is an area of the hand contact area and hand impact region and the work model the contact region and the word クモデル衝突領域に基づいて把持可能性を算出するので、把持成功率を高めるロボットハンドの形状を仮想空間上での計算により選択できる。 Since calculating the gripping possibilities based on Kumoderu impact area, the shape of the robot hand to increase the gripping success rate can be selected by calculation on the virtual space. 把持成功率が高いロボットハンドが選択されるので、取り出しにかかるタクトタイムを短縮可能となる。 Since the gripping success rate is high robot hand is selected, it is possible shorten a tact time in accordance with the extraction.
また、この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの形状を選択するハンド選択部とを備え、ハンド選択部は、複数種類のワークモデルに対して求められた把持可能性の平均値が最も The robot simulation apparatus according to the present invention includes a bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in the virtual space, the depth measuring sensor modeled sensor model in a virtual space placement, and the depth measurement simulating unit for generating a depth data consisting of depth information at each point by simulating the depth measurement of each point of the work model by the sensor model, a hand shape model that models a shape of a plurality of robot hand based on the depth data, it calculates the gripping possibility of the work model in the robot hand relative to the shape of a plurality of robot hand, and a hand selector for selecting the shape of the robot hand on the basis of the gripping possibility, hand selection unit, the average value of the gripping possibilities determined for a plurality of types of workpiece models are most いロボットハンドの形状を選択するので、把持成功率を高めるロボットハンドの形状を仮想空間上での計算により選択できる。 Since selecting the shape of the robot hand it has the shape of a robot hand to increase the gripping success rate can be selected by calculation on the virtual space. 把持成功率が高いロボットハンドが選択されるので、取り出しにかかるタクトタイムを短縮可能となる。 Since the gripping success rate is high robot hand is selected, it is possible shorten a tact time in accordance with the extraction.
また、この発明に係るロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの形状を選択するハンド選択部とを備え、バラ積み演算部は、ワークモデルが積み重ねられた状態を複数回再現し、ハンド選択部は The robot simulation apparatus according to the present invention includes a bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in the virtual space, the depth measuring sensor modeled sensor model in a virtual space placement, and the depth measurement simulating unit for generating a depth data consisting of depth information at each point by simulating the depth measurement of each point of the work model by the sensor model, a hand shape model that models a shape of a plurality of robot hand based on the depth data, it calculates the gripping possibility of the work model in the robot hand relative to the shape of a plurality of robot hand, and a hand selector for selecting the shape of the robot hand on the basis of the gripping possibility, rose the loading operation section, a state where the work model are stacked reproduced multiple times, the hand selecting unit 複数回再現されたワークモデルが積み重ねられた状態に対して求められた把持可能性の平均値が最も高いロボットハンドの形状を選択するので、把持成功率を高めるロボットハンドの形状を仮想空間上での計算により選択できる。 The average value of the gripping possibilities determined for state reproduced workpiece model more than once stacked to select the shape of the highest robot hand, the shape of the robot hand to increase the gripping success rate in a virtual space calculated by the possible selection of. 把持成功率が高いロボットハンドが選択されるので、取り出しにかかるタクトタイムを短縮可能となる。 Since the gripping success rate is high robot hand is selected, it is possible shorten a tact time in accordance with the extraction.

本発明の実施の形態1によるロボットシミュレーション装置を示す機能ブロック図。 Functional block diagram showing a robot simulation apparatus according to a first embodiment of the present invention. 本発明の実施の形態1によるロボットシミュレーション装置における演算部の動作を説明するためのフロー図。 Flow diagram illustrating the operation of the arithmetic unit in the robot simulation apparatus according to a first embodiment of the present invention. 本発明の実施の形態1によるロボットシミュレーション装置における表示部の表示の一例を示す図。 It illustrates an example of a display of the display unit in the robot simulation apparatus according to a first embodiment of the present invention. 本発明の実施の形態1によるロボットシミュレーション装置におけるロボットハンドの把持可能状態を説明するための図。 Diagram for explaining the gripping state of the robot hand in the robot simulation apparatus according to a first embodiment of the present invention. 本発明の実施の形態1によるロボットシミュレーション装置における接触領域と衝突領域で定義したロボットハンドの形状モデルを説明するための図。 Diagram for explaining the shape model of the robot hand which is defined at the contact region with the impact region in the robot simulation apparatus according to a first embodiment of the present invention. 本発明の実施の形態1によるロボットシミュレーション装置における領域奥行きデータの一例を示す図。 It illustrates an example of a region depth data in the robot simulation apparatus according to a first embodiment of the present invention. 本発明の実施の形態1によるロボットシミュレーション装置におけるワークモデルの接触領域と衝突領域を説明するための図。 Diagram for explaining a contact area with the impact region of the workpiece models in the robot simulation apparatus according to a first embodiment of the present invention. 本発明の実施の形態1によるロボットシミュレーション装置における把持可能領域および把持可能性マップを求める手法を説明するための図。 Diagram for explaining a method of obtaining the gripping area and the gripping potential map in the robot simulation apparatus according to a first embodiment of the present invention. 本発明の実施の形態2によるロボットシミュレーション装置を示す機能ブロック図。 Functional block diagram showing a robot simulation apparatus according to a second embodiment of the present invention. 本発明の実施の形態2によるロボットシミュレーション装置における演算部の動作を説明するためのフロー図。 Flow diagram illustrating the operation of the arithmetic unit in the robot simulation apparatus according to a second embodiment of the present invention. 本発明の実施の形態3によるロボットシミュレーション装置を示す機能ブロック図。 Functional block diagram showing a robot simulation apparatus according to a third embodiment of the present invention. 本発明の実施の形態3によるロボットシミュレーション装置における演算部の動作を説明するためのフロー図。 Flow diagram illustrating the operation of the arithmetic unit in the robot simulation apparatus according to a third embodiment of the present invention. 本発明の実施の形態4によるロボットシミュレーション装置を示す機能ブロック図。 Functional block diagram showing a robot simulation apparatus according to a fourth embodiment of the present invention. 本発明の実施の形態5によるロボットシミュレーション装置を示す機能ブロック図。 Functional block diagram showing a robot simulation apparatus according to a fifth embodiment of the present invention.

実施の形態1. The first embodiment.
図1は本発明の実施の形態1によるロボットシミュレーション装置を示す機能ブロック図である。 Figure 1 is a functional block diagram showing a robot simulation apparatus according to a first embodiment of the present invention. なお、ここでいうロボットとは、例えば産業用の6自由度のロボットアームを指すが、6自由度でなくてもどのような自由度のロボットアームでも良い。 Herein, the term robot and is, for example, refers to the six degrees of freedom of the robot arm for industrial, may be any degree of freedom of the robot arm without the six degrees of freedom. また、ロボットアームを構造として含む双腕ロボットやヒューマノイドなどもここでいうロボットに該当する。 Further, corresponding to the robot here also including a double-arm robot or humanoid including the robot arm as structural. また、ここでいうロボットハンドとは、ワークを掴むための吸着や挟持手段であり、産業用ロボットアームの先端のフランジ部分に接続されるグリッパを指すが、ヒューマノイドのアームの先端に付随する爪(もしくは指)が多数あるようなハンドも該当する。 Further, where the term robot hand and is adsorbed or pinching means for gripping the workpiece, refers to gripper which is connected to the distal end flange portion of the industrial robot arm, attached to the tip of the humanoid arm pawl ( or finger) is also applicable to hand, such as a number.

以下、図1に基づいて、本実施の形態のロボットシミュレーション装置の構成について述べる。 Hereinafter, with reference to FIG. 1, it will be described a configuration of a robot simulation device of the present embodiment. 本実施の形態のロボットシミュレーション装置は、記憶部1、演算部2、表示部3、入力部4を備える。 Robot simulation apparatus of the present embodiment includes the storage unit 1, arithmetic unit 2, a display unit 3, an input unit 4. 表示部3は省略しても良いが、シミュレーション状況や結果を確認するために備えた方が便利である。 It may be omitted display unit 3, but it is convenient to include in order to verify the simulation situation and results. 演算部2は、バラ積み演算部21、奥行き計測模擬部22、ハンド選択部23、制御部24を備える。 Calculating section 2 includes bulk calculation unit 21, the depth measurement simulating section 22, the hand selecting unit 23, the control unit 24. 制御部24は、演算部2の全体の動作を制御する。 Control unit 24 controls the overall operation of the arithmetic unit 2. さらに、奥行き計測模擬部22は、センサモデル配置部221、奥行きデータ生成部222を備え、ハンド選択部23は、形状モデル変換部231、形状モデル回転部232、領域抽出部233、把持可能性演算部234、評価選択部235を備える。 Further, the depth measurement simulating section 22, the sensor model placement unit 221 includes a depth data generation unit 222, a hand selector 23, the shape model conversion unit 231, the shape model rotation unit 232, the region extraction unit 233, the grip potential calculation part 234 comprises an evaluation selection section 235.

記憶部1はデータの入出力が可能なもので、例えばランダムアクセスメモリー、ハードディスクドライブ、ソリッドステートドライブなど、いずれの記憶媒体を用いても良い。 Storage unit 1 as it can input and output data, such as a random access memory, hard disk drive, such as solid state drives may be used any of the storage medium. また、演算部2は、ハードウェアのみで実現しても良いし、CD−ROMなどの記録媒体に記録されたプログラムをコンピュータなど情報処理装置に導入し、実行することによって実現しても良い。 The arithmetic unit 2 may be realized only by hardware, introduced CD-ROM a program recorded in a recording medium such as an information processing apparatus such as a computer, may be realized by executing. さらに、入力部4は、キーボード、マウス、タッチペン、タッチパッド、ジェスチャー認識装置、あるいは、部品の形状を読み取る3D(3 Dimensional)スキャナ、カメラなど、いずれの手段を利用しても良いし、これらを複数組み合わせて利用しても良い。 Further, the input unit 4, a keyboard, a mouse, a touch pen, a touch pad, a gesture recognition apparatus, or read a part of the shape 3D (3 Dimensional) scanner, such as a camera, may be used any means, these it may be used in combination of two or more. 本実施の形態のロボットシミュレーション装置は以上のように構成される。 Robot simulation apparatus of the present embodiment is configured as described above.

以下、図1を用いて本実施の形態のロボットシミュレーション装置の動作について述べる。 Hereinafter will be described the operation of the robot simulation device of the present embodiment with reference to FIG. 記憶部1には入力部4より、設計情報が入力される。 The storage unit 1 from the input unit 4, the design information is input. 入力部4により入力される設計情報は、バラ積み取り出しの対象となるワークの形状モデルであるワーク形状モデル、奥行き計測センサの形状モデルであるセンサ形状モデル、奥行き計測センサにおける奥行き計測のためのパラメータであるセンサパラメータ、ロボットハンドの形状モデル群である第1のハンド形状モデル群、ロボットの形状モデルであるロボット形状モデル、周辺環境の形状モデルである周辺環境形状モデルを含む。 Design information inputted by the input unit 4, the workpiece shape model which is a work shape model to be roses pile extraction, the sensor shape model is a shape model of depth measurement sensors, parameters for the depth measurement in the depth measuring sensor sensor parameters are, including the first hand shape model group in the shape model group of the robot hand, the robot geometric model is a shape model of the robot, the environment shape model is a shape model of the surrounding environment. なお、周辺環境の形状は、ワークを収める供給箱の形状を含み、ロボットが動作する作業空間に供給箱以外の制約がある場合にはその制約も含む。 The shape of the surrounding environment, including the shape of the supply box accommodating the workpiece, if there is a restriction other than the feedbox into the work space of the robot to work including its limitations. また、設計情報は後述する配置情報も含む。 Moreover, the design information also includes layout information, which will be described later. さらに、設計情報はロボットの動作モデルを含んでも良い。 Further, design information may include operation model of the robot.

設計情報について更に詳しく述べる。 Described in more detail about the design information. 第1のハンド形状モデル群は、ロボットハンドの形状モデルである第1のハンド形状モデルの集合であり、それぞれの第1のハンド形状モデルは互いに異なる形状を有する。 First hand shape model group is a collection of first hand shape model is a shape model of a robot hand, each of the first hand shape model have different shapes. これらが最終的に選択されるロボットハンドの形状の候補となる。 These are candidates for the shape of the robot hand to be finally selected. 第1のハンド形状モデルには、その形状モデルが後述する挟持方式と吸着方式のいずれであるかを判別するための情報が関連付けられている。 The first hand shape model, information for determining which of sandwiching manner as adsorption method the shape model will be described later is associated. ワーク形状モデル、センサ形状モデル、第1のハンド形状モデル、周辺環境形状モデルは、それぞれの3次元形状が分かり、さらに、それぞれの形状モデル同士が衝突したことが分かるよう、モデルの内外判定も持つCAD(Computer Aided Designing)データである。 Work shape model, sensor shape model, the first hand shape model, environment shape model, see each of the three-dimensional shape, further, so that between each shape model it can be seen that a collision has also outside judgment model CAD is a (Computer Aided Designing) data.

センサパラメータとは、奥行き計測模擬部22で3次元の奥行き計測を再現するために必要なパラメータである。 The sensor parameters are parameters necessary for reproducing the 3D depth measurement at depth measurement simulating section 22. 例えば、奥行き計測模擬部22でカメラと投光手段を持つアクティブステレオ方式の3次元センサを模擬するとすれば、カメラの焦点距離、レンズの中心位置、画素数、カメラと投光手段との相対的な位置姿勢の情報を含む。 For example, if simulating a three-dimensional sensor of an active stereo system with camera and light projecting means the depth measurement simulating section 22, the focal length of the camera, the center position of the lens, the number of pixels, relative to the camera and projecting means including the information of Do not position and orientation. なお、位置姿勢とは位置や姿勢を表す。 It should be noted, represents the position and posture and the position and orientation. 奥行き計測模擬部22で模擬する奥行きセンサ方式は、ステレオ視でも、Time of Flight方式でも、視体積交差方式でも、Depth from Focus方式でも、Depth from Defocus方式でも、Shape from Shading方式でも良い。 Depth sensor method simulates the depth measurement simulating section 22, in stereo vision, even in Time of Flight method, even the volume intersection method, in Depth from Focus method, even in Depth from Defocus method may be a Shape from Shading method.

配置情報とは、ロボット、ロボットハンド、供給箱、奥行き計測センサのそれぞれの位置姿勢の関係を示すもので、例えば、ロボットのベース座標系、ロボットハンドの座標系、供給箱の座標系、奥行き計測センサの座標系と、それぞれの座標系間の関係を表す位置姿勢情報が入力される。 The arrangement information, the robot, the robot hand, the supply box, shows the relationship between the respective position and orientation of the depth measurement sensor, for example, the base coordinate system of the robot, the coordinate system of the robot hand, the supply box of the coordinate system, the depth measurement and coordinate system of the sensor, the position and orientation information indicating the relationship between the respective coordinate systems is input. また、配置情報としては、ワークの座標系も入力される。 As the arrangement information, the coordinate system of the workpiece is also input. これらの座標系は、ロボット、ロボットハンド、供給箱、奥行き計測センサをモデル化して仮想空間上に配置する際に、各モデルの座標系として用いられる。 These coordinate systems, robots, robot hand, feedbox, when placed on the virtual space by modeling the depth measuring sensor is used as the coordinate system for each model. また、座標系間の関係は、各モデルを仮想空間上に配置する際の位置姿勢を決めるために用いられる。 The relationship between the coordinate system is used to determine the position and orientation at the time of placing the model in the virtual space. 以上が設計情報に関する補足である。 The above is a supplement on the design information. なお、本実施の形態では、設計情報は入力部4から入力されるものとしたが、予め記憶部1に記憶させておいても良い。 In this embodiment, the design information has been assumed to be input from the input unit 4, may be stored in advance in the storage unit 1. また、予め記憶部1に記憶させたものを必要に応じて修正するように構成しても良い。 It may also be configured to modify as needed what was previously stored in the storage unit 1. 記憶部1に蓄えられた設計情報は演算部2で使用される。 Design information stored in the storage unit 1 is used in the calculating portion 2.

図2は、演算部2の動作を説明するためのフロー図である。 Figure 2 is a flowchart for explaining the operation of the arithmetic unit 2. 以下では、演算部2の動作について、図1に加えて図2も用いて述べる。 Hereinafter, the operation of the operation unit 2, FIG. 2 also will be described with reference in addition to FIG. 演算部2の動作は、制御部24により制御される。 Operation of the arithmetic unit 2 are controlled by the control unit 24. まず、ステップS211a〜S211bにおいて、バラ積み演算部21は、記憶部1からワーク形状モデル、周辺環境形状モデル、配置情報を読み出し、これらを用いて、ワークが供給箱に積み重ねられた状態を仮想空間上に再現する。 First, in step S211a~S211b, bulk calculation unit 21, a work shape model from the storage unit 1, the surrounding environment shape model, reads the configuration information, by using these, the virtual space state the workpiece is stacked feedbox reproduced above. 以下、ステップS211a〜S211bにおけるバラ積み演算部21の動作について述べる。 Hereinafter will be described the operation of the bulk operation unit 21 in step S211a~S211b.

ステップS211aにおいて、バラ積み演算部21は、供給箱をモデル化した供給箱モデルを仮想空間上に配置する。 In step S211a, bulk calculating unit 21 arranges the supply box model that models the feedbox on the virtual space. 次に、ステップS211bにおいて、バラ積み演算部21は、供給箱モデルの中に、ワークをモデル化したワークモデルを物理的に落下させる模擬を行う。 Next, in step S211b, bulk calculating unit 21, into the feed box model, perform simulated to physically fall workpiece model that models the workpiece. バラ積み演算部21は、供給箱モデルの上空にワークモデルを位置姿勢がランダムになるように配置し、配置されたワークモデルを供給箱モデルに落下させる。 Bulk calculation unit 21, a workpiece model position and orientation arranged such that random high over the feedbox model, the placed workpiece model is dropped to the supply box model. これをN回(Nは自然数)繰り返すことで、供給箱モデルにN個のワークモデルがバラ積みになった状態を再現できる。 This is N times that (N is a natural number) is repeated, can reproduce the state in which the N-number of work model has become the bulk supply box model. このとき、表示部3では、ワークモデルのバラ積み状態の再現をグラフィックで表示し、再現が適切かを使用者が確認することもできる。 At this time, the display unit 3 to display a reproduction of the bulk state of the workpiece models in the graphic may be reproduced to confirm appropriate or the user. さらに、再現が適切でなければ、使用者は設計情報を修正した上でシミュレーションをやり直すこともできる。 Moreover, if reproduction is suitable, the user can also re-simulation on a modification of the design information.

なお、ワークモデルの形状は、ワーク形状モデルで規定されており、供給箱モデルの形状は、周辺環境形状モデルで規定されている。 The shape of the work model is defined by the work shape model, the shape of the supply box model is defined by the surrounding environment shape model. このとき、各ワークモデルには座標系が規定されており、再現されたバラ積みを構成する各ワークモデルの位置姿勢が分かる。 In this case, each the workpiece model are defined coordinate system, can be seen the position and orientation of each workpiece model constituting the reproduced bulk. さらに、設計情報にロボットの動作モデルが含まれており、ロボットが把持したワークを持ち上げる方向が分かっていれば、ワークの干渉判定により、持ち上げるときに干渉する周辺の干渉物数を判断することができる。 Further, includes a behavior model of the robot in the design information, knowing the direction of lifting the workpiece robot grips, the interference judgment of the work, is to determine the interfering object number near interfere when lifting it can. 以上より、バラ積み演算部21は、ワークモデルが積み重ねられた状態であるバラ積みシーンを仮想空間上に再現する。 Thus, bulk calculation unit 21, to reproduce the bulk scene is a state in which the work model are stacked in the virtual space. バラ積み演算部21は、バラ積みシーンにおける各ワークモデルの位置姿勢、さらには各ワークモデルにおける周辺の干渉物数を出力する。 Bulk calculation unit 21, the position and orientation of each workpiece model in bulk scene, further outputs the interfering object number around in each workpiece model. 以上がステップS211a〜S211bにおける演算部2の動作である。 The above is the operation of the operation unit 2 in step S211a~S211b.

次に、ステップS221〜S222において、奥行き計測模擬部22は、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによって積み重ねられたワークモデルの奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する。 Next, in step S221~S222, the depth measurement simulating section 22 arranges the sensor model that models the depth measuring sensor in a virtual space, each point to simulate the depth measurement of workpiece models stacked by the sensor model generating a depth data consisting of the depth information in the. 奥行き計測模擬部22は、センサモデル配置部221及び奥行きデータ生成部222を備える。 Depth measurement simulating section 22 includes a sensor model placement unit 221 and the depth data generation unit 222. 以下、ステップS221〜S222における奥行き計測模擬部22の動作について述べる。 Hereinafter will be described the operation of the depth measurement simulating section 22 in step S221~S222.

ステップS221において、センサモデル配置部221は、記憶部1から配置情報とセンサ形状モデルとを読み出し、センサモデルを仮想空間上に配置する。 In step S221, the sensor model placement unit 221 from the storage unit 1 reads the arrangement information and the sensor shape model, placing the sensor model in the virtual space. この結果、仮想空間上のセンサモデルの位置姿勢が決定される。 As a result, the position and orientation of the sensor model in the virtual space is determined. センサモデルの形状は、センサ形状モデルで規定される。 The shape of the sensor model is defined by the sensor shape model. 同時に、センサモデル配置部221は、記憶部1から第1のハンド形状モデルの中の1つ、ロボット形状モデルと配置情報を読み出し、ロボットをモデル化したロボットモデル、ロボットハンドをモデル化したハンドモデルも仮想空間上に配置する。 At the same time, the sensor model placement unit 221 from the storage unit 1 one of the first hand shape model, reads the arrangement information and the robot geometric model, modeling the robot and robot model, hand model that models the robot hand also placed on the virtual space. ロボットモデルの形状は、ロボット形状モデルで規定される。 The shape of the robot model is defined by the robot geometric model. また、ハンドモデルの形状は、第1のハンド形状モデルで規定される。 The shape of the hand model is defined by the first hand shape model.

次に、ステップS222において、奥行きデータ生成部222は、記憶部1からセンサパラメータを読み出し、読み出したセンサパラメータに基づいて、バラ積みされたワークモデルのセンサモデルによる計測を模擬して、奥行きデータを取得する。 Next, in step S222, the depth data generating unit 222 reads from the storage unit 1 a sensor parameter, on the basis of the read sensor parameters, to simulate the measurement by the sensor model rose stacked and the work model, the depth data get. 奥行きデータは、センサパラメータにより設定された視野範囲、分解能で取得した、センサモデルから対象となるワークモデルの各点までの距離を明暗で表現した画像データである。 Depth data set field of view by the sensor parameters were acquired at a resolution, which is the image data representing the distance from the sensor model to each point of the work model of interest with brightness. 奥行きデータは、センサモデルに近いほど明るく、遠いほど暗い画像として表現している。 Depth data are bright closer to the sensor model is expressed as a far darker image. 奥行き計測模擬部22は、以上のように動作する。 Depth measurement simulating section 22 operates as described above.

このとき、表示部3では、ロボットモデル、ハンドモデル、センサモデルの配置や、奥行きデータをグラフィックで表示し、配置や奥行きデータが適切かを使用者が確認することができる。 At this time, the display unit 3, and the arrangement of the robot model, hand model, sensor model, to display the depth data with a graphic, or placement and depth data proper user can confirm. 再現が適切でなければ、使用者は設計情報を修正した上でシミュレーションをやり直すことができる。 If reproduction is not appropriate, the user can redo the simulation on a modification of the design information. 図3は、本実施の形態のロボットシミュレーション装置の表示部3における表示の一例を示す図である。 Figure 3 is a diagram showing an example of display on the display unit 3 of the robot simulation apparatus of the present embodiment. 表示部3は、奥行きデータ表示部31、仮想空間表示部32、設計情報表示部33を備える。 Display unit 3 is provided with a depth data display unit 31, the virtual space display unit 32, the design information display unit 33. 奥行きデータ表示部31には奥行きデータが表示される。 Depth data is displayed on the depth data display unit 31. 仮想空間表示部32には、仮想空間に配置された供給箱モデル、ロボットモデル、センサモデル、ハンドモデルが表示される。 The virtual space display unit 32, feedbox model disposed in the virtual space, the robot model, sensor model, a hand model is displayed. また、設計情報表示部33には、設計情報が表示される。 Moreover, the design information display unit 33, design information is displayed.

次に、ステップS231a〜S235において、ハンド選択部23は、奥行きデータとハンド形状モデルに基づいて把持可能性を算出し、把持可能性に基づいてロボットハンドの形状を選択する。 Next, in step S231a~S235, hand selector 23 calculates a gripping possibility, based on the depth data and the hand shape model, selecting the shape of the robot hand on the basis of the grip potential. 把持可能性は、ロボットハンドでワークを把持できる可能性を表す指標であり、詳細については後述する。 Gripping possibility is an index representing the possibility of holding the workpiece by the robot hand will be described later in detail. ハンド選択部23は、形状モデル変換部231、形状モデル回転部232、領域抽出部233、把持可能性演算部234、評価選択部235を備える。 Hand selecting section 23 includes a shape model conversion unit 231, the shape model rotation unit 232, the region extraction unit 233, the grip potential calculating unit 234, the evaluated selection portion 235. ここで、ハンド選択部23の動作を説明する前に、本実施の形態のロボットシミュレーション装置で選択するロボットハンドの形状について説明する。 Before describing the operation of the hand selector 23 will be described the shape of the robot hand for selecting the robot simulation apparatus of the present embodiment.

ロボットハンドには大きく分けて挟持方式と吸着方式の2つの方式があり、それぞれの方式で形状は異なる。 There are two methods of holding method and clamping system are roughly the robot hand, the shape is different for each method. したがって、本実施の形態のロボットシミュレーション装置において、この2つの方式のいずれかを選択することも形状を選択することとなる。 Thus, the robot simulation device of the present embodiment, also select one of these two methods will select the shape. また、挟持方式のロボットハンドの形状を決定する項目としては、ロボットハンドの物体を挟む部分(以降爪と呼ぶ)の数、各爪の位置、各爪の形状、各爪の大きさがあり、これらのうちの少なくとも1つの項目を決定することも、本実施の形態のロボットシミュレーション装置における形状の選択に含まれる。 As the items that determine the shape of the robot hand of the clamping system, the number of parts sandwiching an object of the robot hand (hereinafter referred to as a claw), the position of each nail, the shape of each claw, there is the size of each pawl, also determine at least one item of these are included in the shape selection of the robot simulation apparatus of the present embodiment. 一方、吸着方式のロボットハンドの形状を決定する項目としては、吸着パッドの数、各吸着パッドの位置、各吸着パッドの形状、各吸着パッドの大きさがあり、これらのうちの少なくとも1つの項目を決定することも、本実施の形態のロボットシミュレーション装置における形状の選択に含まれる。 On the other hand, the item that determines the shape of the robot hand holding method, the number of suction pads, the position of each suction pad, the shape of each suction pad has the size of each suction pad, at least one item of these determining the also included in the shape selection of the robot simulation apparatus of the present embodiment.

さらに、ハンド選択部23の動作を説明する前に、把持可能性の算出に用いる把持可能状態の定義を述べる。 Furthermore, before describing the operation of the hand selector 23, it describes the definition of the gripping state to be used for calculation of the holding potential. 把持可能状態とは、ロボットハンドがワークを把持することが可能な状態である。 A gripping state is a state that can robot hand to grip the workpiece. 図4は、ロボットハンドにおける把持可能状態を説明するための図である。 Figure 4 is a diagram for explaining the gripping state in the robot hand. 挟把方式のロボットハンドにおける把持可能状態とは、ロボットハンドが対象物を挟み、ロボットハンドの衝突領域(爪部分)にぶつかるものがなく、さらに接触領域(爪の間の挟む隙間)が対象物と接触している状態である。 The gripping state in the robot hand squeezing bunch method, the robot hand scissors objects, there is nothing to strike the impact area of ​​the robot hand (nails portion), further contact region (gap sandwiching between the nail) is subject is a state in contact are with. 一方、吸着方式のロボットハンドにおける把持可能状態とは、接触領域(吸着パッドの断面)が残らず対象物表面に接触している状態である。 On the other hand, the gripping state in the robot hand holding method, the contact region is in a state in contact with the surface of the object does not remain (the cross section of the suction pad). ここで、ロボットハンドの形状は、接触領域と衝突領域で定義することができる。 Here, the shape of the robot hand can be defined by the contact area with the impact area.

ロボットハンドの接触領域は、対象物であるワークを把持する際にワークの表面に接触すべき領域を、ロボットハンドをワーク側から見た面に投影した2次元の領域である。 Contact area of ​​the robot hand, the area to be in contact with the surface of the workpiece when gripping a workpiece as an object, a two-dimensional region obtained by projecting the plane viewed robot hand from the work side. ここで、ワークの表面に接触すべき領域とは、ワークを把持する際に接触させようとする領域である。 Here, the region to be in contact with the surface of the workpiece is a region to be contacted when gripping a workpiece. ワークの形状や把持方式などによって、必ずしも接触領域の全てがワークに接触するわけではない。 By a work shape and holding patterns, not all of the contact area is in contact with the workpiece. ワークが正常に把持された際には、ロボットハンドの接触領域の少なくとも一部は、ワークの表面に接触する。 When the workpiece is gripped properly, at least a portion of the contact region of the robot hand is in contact with the surface of the workpiece.

また、ロボットハンドの衝突領域は、ワークの把持の際にワークや供給箱に衝突し、接触領域がワークの表面に接触する障害となる可能性がある領域を、奥行きデータの奥行き方向と垂直な面に投影した2次元の領域である。 Further, the collision area of ​​the robot hand, collide with the workpiece or a feedbox during gripping of the workpiece, the area where the contact region may become an obstacle in contact with the surface of the workpiece, and a vertical depth direction of the depth data it is a two-dimensional region obtained by projecting the plane. ロボットハンドの爪など、接触領域と比較してワーク側に突き出している領域が衝突領域となる。 Like claws of the robot hand, the region protruding the workpiece side as compared with the contact area is the impact area. 別の表現では、ハンド衝突領域は、ワークを把持する際に、ハンド接触領域がワークに接触するより先にワークに衝突する可能性のある領域を前記垂直な面に投影した2次元の領域である。 In other words, the hand impact region, when gripping the workpiece, the hand contact area in a two-dimensional region obtained by projecting the plane perpendicular to areas that might collide with the workpiece from above into contact with the workpiece is there. なお、ハンド衝突領域がないロボットハンドも存在する。 In addition, hand collision area is also present there is no robot hand.

図5は、接触領域と衝突領域で定義したロボットハンドの形状モデルを説明するための図である。 Figure 5 is a diagram for explaining the shape model of the robot hand which is defined at the contact region with the impact area. 図5から、爪の本数が変わったり、ロボットハンドの方式が変わっても、接触領域Htと衝突領域Hcでハンドの形状を定義できることが分かる。 From Figure 5, or changed the number of claws, they change scheme of the robot hand, it can be seen that define the shape of the hand at the contact region Ht collision area Hc. 第2のハンド形状モデルにおいて、接触領域や衝突領域は、円や矩形の組み合わせで表現することができる。 In the second hand shape model, the contact region or collision region may be represented by a circle and a rectangle combination. 例えば、図5に示す挟持方式の2本爪タイプのロボットハンドであれば、衝突領域の縦、横、接触領域の縦、横の4パラメータで形状を表現することができる。 For example, if the two claw-type robot hand gripping system shown in FIG. 5 can be expressed longitudinal impact region, horizontal, vertical contact area, the shape next to 4 parameters. したがって、円や矩形の数、それぞれの円や矩形の位置、円の半径、矩形の各辺の長さが、ロボットハンドの形状を決定するための形状パラメータとなる。 Accordingly, the number of circles and rectangles, each circle or rectangle position, the radius of the circle, the length of the rectangular sides, a shape parameter for determining the shape of the robot hand. 図5に示す吸着タイプであれば半径1パラメータで形状を表現することができる。 If suction type shown in FIG. 5 can be expressed shape radius 1 parameter.

以下、ステップS231a〜S235におけるハンド選択部23の動作を説明する。 Hereinafter, the operation of the hand selector 23 in step S231a~S235. ステップS231aにおいて、形状モデル変換部231は、記憶部1からCADデータ形式の第1のハンド形状モデルの1つを読み出す。 In step S231a, the shape model conversion unit 231 reads one of the first hand shape model of CAD data format from the storage unit 1. 続いて、ステップS231bにおいて、形状モデル変換部231は、読み出した第1のハンド形状モデルを接触領域と衝突領域で定義された第2のハンド形状モデルに変換する。 Subsequently, in step S231b, the shape model conversion unit 231 converts the second hand shape model defined by the first hand shape model contact area with the read collision region. 第2のハンド形状モデルは、2次元のデータとなる。 Second hand shape model is two-dimensional data. 第2のハンド形状モデルは、接触領域と衝突領域を別にした2つのデータで構成しても良いし、接触領域と衝突領域を合成した1つのデータとしても良い。 Second hand shape model, to the contact area between the collision region may be composed of two data separately, or as one data obtained by combining the contact area with the impact area. ここで、第2のハンド形状モデルにおける接触領域をハンド接触領域と呼び、第2のハンド形状モデルにおける衝突領域をハンド衝突領域と呼ぶ。 Here, the contact region on the second hand shape model is referred to as the hand contact area, the impact region of the second hand shape model is referred to as a hand collision region.

本実施例では、ハンド接触領域とハンド衝突領域を別のデータで表すものとし、第2のハンド形状モデルは、ハンド接触領域データとハンド衝突領域データで構成される。 In this embodiment, it is assumed to represent the hand contact area and the hand impact region in another data, the second hand shape model is composed of a hand contact region data and the hand impact area data. ハンド接触領域データは、ハンド接触領域に該当する画素の値を1、ハンド接触領域以外の画素の値を0とした画像データである。 Hand contact area data, the value of a pixel corresponding to the hand contact area 1, the values ​​of pixels other than the hand contact area is image data obtained by zero. また、ハンド衝突領域データは、ハンド衝突領域に該当する画素の値を1、ハンド衝突領域以外の画素の値を0とした画像データである。 Also, hand collision domain data, the value of a pixel corresponding to the hand impact area 1, the values ​​of pixels other than hand the impact zone is an image data as 0. 画像データは、画素の位置に対する画素の値の関数と考えることもできるので、ハンド接触領域データ及びハンド衝突領域データも、画素の位置に対する画素の値の関数と考えることもできる。 Image data, so can be considered as a function of the pixel values ​​for the pixel position, the hand contact area data and the hand impact region data can also be considered a function of the value of the pixel with respect to the position of the pixel. なお、互いに異なる形状の第2のハンド形状モデルの集合である第2のハンド形状モデル群を予め用意しておき、設計情報として記憶部1に記憶するように構成することもできる。 It is also be configured to store a prepared advance, as design information in the storage unit 1 a second hand shape model group is a set of second hand shape model of different shapes. この場合には、ステップS231bの処理は不要となり、形状モデル変換部231も不要となる。 In this case, the processing of step S231b is unnecessary, the shape model conversion unit 231 becomes unnecessary.

次に、ステップS232において、形状モデル回転部232は、第2のハンド形状モデルを制御部24から与えられる面内回転角だけ面内回転して第3のハンド形状モデルを生成する。 Next, in step S232, the geometric model rotating unit 232 generates a third hand shape model is rotated in only plane rotation angle given surface the second hand shape model from the control unit 24. ここで、面内回転とは、第2のハンド形状モデルにおいて、接触領域と衝突領域が定義される平面内での回転を言う。 Here, the in-plane rotation, in the second hand shape model refers to a rotation in the plane contact area with the impact area is defined. また、面内回転する角度である面内回転角は、初期値が0度であり、処理の度に予め設定される回転分割数で360度を分割した角度分だけ順次変化する。 The in-plane rotation angle is the angle to rotate the plane, the initial value is 0 degrees, degrees rotation number of divisions sequentially changed by dividing angular fraction of 360 degrees in advance is set in the process. 例えば、回転分割数を12と設定すると、最初の処理では面内回転角は0度(すなわち回転しない)となり、2回目の処理では面内回転角は30度、12回目の処理では面内回転角は330度となる。 For example, if you set the rotation number of divisions 12 and, in-plane rotation angle in the first processing 0 degrees (i.e. non-rotating), and in-plane rotation in plane rotation angle 30 degrees, 12 th process in the second process angle is 330 degrees. 第3のハンド形状モデルを生成することで、同じ形状のロボットハンドに対して、ロボットハンドの姿勢を変化させた場合に、それぞれどれだけ把持可能性があるかを知ることができる。 By generating a third hand shape model, the robot hand of the same shape, in the case of changing the posture of the robot hand, it is possible to know how much gripping possibilities respectively. ここで、第3のハンド形状モデルも第2のハンド形状モデルと同様にハンド接触領域データ、ハンド衝突領域データで構成される。 Here, the third hand shape model second hand shape model as well as hand contact area data, composed of a hand impact area data.

次に、ステップS233aにおいて、領域抽出部233は、画像処理で一般的におこなわれるセグメンテーションにより、奥行き計測模擬部22で得られた奥行きデータから奥行き方向のエッジで区切られた領域を抽出し、領域奥行きデータを生成する。 Next, in step S233a, the region extraction unit 233, the segmentation is typically done in the image processing, and extracts a region separated by the depth direction of the edge from the depth data obtained in the depth measurement simulating section 22, regions to generate the depth data. 領域奥行きデータは、抽出された領域に対応する奥行きデータである。 Region depth data is depth data corresponding to the extracted area. 一般に、領域抽出部233では、複数の領域が抽出されるので、複数の領域奥行きデータが生成されることになる。 In general, the region extracting section 233, a plurality of regions are extracted, a plurality of areas the depth data is generated. 図6は、領域奥行きデータの一例を示す図である。 Figure 6 is a diagram showing an example of the region depth data. 図6の矢印の左側は奥行きデータの例であり、矢印の右側は当該奥行きデータから生成される7つの領域奥行きデータの例を示している。 Left arrow in FIG. 6 is an example of the depth data, the arrow on the right illustrates an example of seven regions depth data generated from the depth data. 続いて、ステップS233bにおいて、領域抽出部233は、生成された領域奥行きデータの1つを選択して出力する。 Subsequently, in step S233b, the region extraction unit 233 outputs one of the generated region depth data select.

次に、ステップS234において、把持可能性演算部234は、第3のハンド形状モデルと領域奥行きデータに基づいて処理条件毎の把持可能性を演算する。 Next, in step S234, the grip potential calculating unit 234 calculates a gripping possibility for each processing condition based on the third hand shape model and the region depth data. ここで、処理条件とは、バラ積み再現の回数、第1又は第2のハンド形状モデルで表されるロボットハンドの形状、面内回転角、選択された領域奥行きデータの組み合わせを指す。 Here, the process conditions and refers the number of bulk reproduction, the shape of the robot hand which is represented by the first or second hand shape model, plane rotation angle, the combination of the selected region depth data. まず、把持可能性演算部234は、領域奥行きデータに基づいて、ロボットハンドと同様にワークモデルの接触領域と衝突領域を求める。 First, the grip potential calculating unit 234, based on the region depth data, like the robot hand seek contact area with the impact region of the workpiece models. ここで、ワークモデルの接触領域と衝突領域についての概念を説明する。 Here, explaining the concept of the contact area with the impact region of the workpiece models. ワークモデルの接触領域は、奥行きデータにおける各点の集まりである計測領域のうちロボットハンドがワークを把持する際にハンド接触領域を接触させる候補となる領域である。 Contact area of ​​the work model is an area in which the robot hand of the measurement area is a collection of points in the depth data are candidates for contacting the hand contact area when gripping the workpiece. また、ワークモデルの衝突領域は、計測領域のうち、把持の際にワークモデル接触領域にハンド接触領域を接触させるより先にハンド衝突領域が衝突する可能性のある領域である。 Further, the collision area of ​​the work model as the measurement area is an area where the hand collision area is likely to collide before the contacting the hand contact area in the work model the contact area when the grip.

ワークモデルの接触領域は、センサから把持対象となるワークの表面までの距離hで2値化した領域とする。 Contact area of ​​the work model, and binarized area at a distance h to the surface of the workpiece comprising a sensor and the gripping target. 領域奥行きデータの各位置に対して、その位置が接触領域である場合には1、接触領域でない場合には0となるような接触領域関数Wtを定義すると、領域奥行きデータの位置(x,y)におけるWtの値であるWt(x,y)は、式(1)で表すことができる。 For each position of the region depth data, 1 in which case the position is a contact region, defining 0 become such contact region functions Wt if not the contact region, the position of the region depth data (x, y Wt (x, y) is the value of Wt in) can be expressed by equation (1). 式(1)において、W(x,y)は位置(x,y)におけるセンサからの距離を表す。 In the formula (1), W (x, y) is the distance from the sensor at location (x, y).

一方、ワークモデルの衝突領域は、把持対象となるワークの表面から、ロボットハンドの衝突領域が把持のためにさらに進入する量dだけ深く進入した高さで2値化した領域となる。 On the other hand, the collision area of ​​the work model, from the surface of the gripping target work, the binarized area further in an amount d by deeply entering the height to enter for impact area of ​​the robot hand is gripping. 領域奥行きデータの各位置に対して、その位置が衝突領域である場合には1、衝突領域でない場合には0となるような衝突領域関数Wcを定義すると、領域奥行きデータの位置(x,y)におけるWcの値であるWc(x,y)は、式(2)で表すことができる。 For each position of the region depth data, 1 in which case the position is collision region and defines a becomes zero such impingement region function Wc if not impact zone, the position of the region depth data (x, y Wc (x, y) is the value of Wc in) can be expressed by equation (2).

図7は、ワークモデルの接触領域と衝突領域を説明するための図である。 Figure 7 is a diagram for explaining a contact area with the impact region of the workpiece models. 図7の左側の図は、ワークモデルの接触領域と衝突領域を説明するために、奥行き計測センサ、ワーク、ロボットハンドの関係を側面から見た図である。 Drawing on the left side of FIG. 7, in order to explain the contact area with the impact region of the workpiece model, which is seen the depth measurement sensors, work, the relationship between the robot hand from the side. 図7の左側の図で、断面Aで2値化した領域が接触領域、断面Bで2値化した領域が衝突領域となる。 In the left diagram of FIG. 7, binarized area is the contact area in cross-section A, a region binarized in section B the impact area. 図7の右側の図は、左側の図に対応する接触領域と衝突領域を例示したものである。 Right side of FIG. 7 is an illustration of a contact area between the collision area corresponding to the view of the left side.

本実施の形態のロボットシミュレーション装置においては、把持可能性演算部234は、領域奥行きデータで抽出された領域をワークの接触領域として使用する。 In the robot simulation apparatus of the present embodiment, the grip potential calculating unit 234 uses the region extracted by the region depth data as the contact area of ​​the workpiece. 領域奥行きデータは、奥行きデータから奥行きのエッジで区切られた領域を抽出しており、バラ積みされた各ワークの表面が抽出されることになるので、ワークの接触領域として使用可能となる。 Region depth data is extracted an area delimited by the depth of the edge from the depth data, it means that the rose stacked surface of each workpiece is extracted, thereby enabling use as the contact area of ​​the work. ワークの衝突領域は、領域奥行きデータで抽出された領域の奥行きから、dだけ深く進入した高さで奥行きデータを2値化することで求められる。 Impact region of the workpiece, the depth of the area extracted by the area depth data obtained by binarizing the depth data at a height which is deeply enters only d. なお、領域奥行きデータで抽出された領域の奥行きが領域内で一定でない場合には、もっともセンサから遠い位置の奥行きを用いる。 Note that when the depth of the region extracted by the region depth data is not constant within the region, using a depth far from the most sensors.

把持可能性演算部234は、ワークモデルの接触領域を表すワークモデル接触領域データと、ワークモデルの衝突領域を表すワークモデル衝突領域データを生成する。 Gripping possibility calculation unit 234 generates a work model contact area data representing the contact area of ​​the work model, the workpiece model collision area data representing the collision area of ​​the work model. ワークモデル接触領域データは、接触領域に該当する画素の値を1、接触領域以外の画素の値を0とした画像データである。 Workpiece model contact area data, the value of a pixel corresponding to the contact region 1, the values ​​of pixels other than the contact area is image data obtained by zero. また、ワークモデル衝突領域データは、衝突領域に該当する画素の値を1、衝突領域以外の画素の値を0とした画像データである。 Further, the work model collision domain data, the value of a pixel corresponding to a collision area 1, the values ​​of pixels other than the impact zone is an image data as 0. ワークモデル接触領域データ及びワークモデル衝突領域データは、画素の位置に対する画素の値の関数と考えることもできる。 Workpiece model contact area data and the workpiece model impact region data can be considered as a function of pixel values ​​relative to the position of the pixel.

次に、把持可能性演算部234は、第3のハンド形状モデルの接触領域、衝突領域と、ワークモデルの接触領域、衝突領域を用いて、把持可能領域を求める。 Then, the grip potential calculating unit 234, the contact area of ​​the third hand shape model, by using the collision area, the contact area of ​​the work model, the impact area, determining the gripping area. 把持可能領域は、ロボットハンドとワークが干渉せずに接触できる領域を表す。 Gripping area represents the area where the robot hand and the workpiece can be contacted without interfering. 続いて、把持可能性演算部234は、把持可能領域を用いて把持可能性マップを求める。 Subsequently, the grip potential calculating unit 234 obtains a gripping possibility map using the gripping area. 図8は、把持可能領域および把持可能性マップを求める手法を説明するための図である。 Figure 8 is a diagram for explaining a method of obtaining the gripping area and the gripping potential map. なお、図8では一例として挟持方式のロボットハンドで説明しているが、吸着方式のロボットハンドでも同じく把持可能領域を計算できる。 Although described in the robot hand pinching system as an example in FIG. 8 can be calculated similarly gripping region in the robot hand of the adsorption method. 吸着方式の場合は、使われるハンドのモデルが異なり、衝突領域Hcが全て0になるということだけで、以下図8に示す計算が同様に行われる。 For adsorption method, different hand model used, only that the impact area Hc all become 0, the calculation shown in the following Figure 8 is similarly performed.

把持可能性演算部234は、第3のハンド形状モデルのハンド接触領域データとワークモデル接触領域データとを用いたコンボリューション(畳み込み演算)によって、第1の領域を求める。 Gripping possibility calculation unit 234 by the third hand shape model of the hand contact area data and the work model contact area data and convolution using (convolution operation), obtains the first region. 挟持方式のロボットハンドに対しては、コンボリューションにより得られた値が1以上となった領域を第1の領域とする。 For clamping system of the robot hand, the region value obtained becomes 1 or more by convolution with the first region. 一方、吸着方式のロボットハンドに対しては、コンボリューションにより得られた値がSt以上となった領域を第1の領域とする。 On the other hand, for the robot hand holding method, the region value obtained is equal to or higher than St by convolution with the first region. ここで、Stは、第3のハンド形状モデルの接触領域の面積である。 Here, St is the area of ​​the contact area of ​​the third hand shape model.

また、把持可能性演算部234は、第3のハンド形状モデルのハンド衝突領域データとワークモデル衝突領域データとを用いたコンボリューションによって、第2の領域を求める。 Further, the grip potential calculating unit 234, the convolution with the third hand shape model of the hand impact region data and workpiece model collision area data, obtaining the second region. 挟持方式のロボットハンドに対しては、コンボリューションにより得られた値が1以上となった領域を第2の領域とする。 For clamping system of the robot hand, the region value obtained becomes 1 or more by convolution with the second region. 一方、吸着方式のロボットハンドに対しては、図5の吸着方式のモデル例で示したように衝突領域は存在せず、ハンド衝突領域データは全ての位置で0となるので、コンボリューション結果も全ての位置で0となり、第2の領域も存在しない。 On the other hand, for the robot hand holding method, the collision region as shown in a model example of the adsorption method of Figure 5 is not present, since the hand impact region data becomes 0 at every position, even convolution results 0 at every position, does not exist the second region. 次に、把持可能性演算部234は、第1の領域の各画素の値から対応する第2の領域の各画素の値を引き、その値が1となった部分を把持可能領域とすることで、把持可能領域データを生成する。 Then, the grip potential calculating unit 234 subtracts the value of each pixel of the second area corresponding from the values ​​of the pixels of the first region, it is a gripping area portions the value becomes 1 in, it generates a grippable region data. 把持可能領域データは、把持可能領域に該当する画素の値を1、把持可能領域以外の画素の値を0とした画像データである。 Gripping region data, the value of a pixel corresponding to the gripping region 1, the values ​​of pixels other than the gripping area is image data obtained by zero. 把持可能領域データは、画素の位置に対する画素の値の関数と考えることもできる。 Gripping region data may also be considered as a function of the value of the pixel with respect to the position of the pixel.

続いて、把持可能性演算部234は、求められた把持可能領域データと、画像処理で一般的に用いられるガウシアン関数とを用いたコンボリューションによって、把持可能性マップを求める。 Subsequently, the grip potential calculating unit 234, a gripping area data obtained by convolution with a generally Gaussian function used in the image processing, obtaining the gripping potential map. 把持可能性マップは、位置毎の把持可能性を表したものである。 Gripping possibilities map is a representation of a gripping possibility per position. 把持可能性マップは、把持可能領域の中心にいくほど値が大きくなる分布となる。 Gripping possibilities map is a go as the value becomes larger distributed around the grip area. 把持可能性マップのピーク位置を求めることで、ロボットハンドが周辺に干渉せず、かつ物体が掴みやすい把持位置を高速に計算することができる。 By determining the peak position of the gripping potential maps can be calculated robot hand does not interfere with the peripheral, and the object is easy to grasp the gripping position at high speed. 把持可能性演算部234は、把持可能性マップにおける位置毎の把持可能性の最大値を処理条件毎の把持可能性とする。 Gripping possibility calculation unit 234, the maximum value of the gripping possibilities for each position in the gripping potential map and gripping possibility for each treatment condition. この把持可能性マップの計算において、ガウシアン関数の大きさが小さすぎると分布が十分に平滑化されずに最大値が複数でてくるので、ガウシアン関数は把持可能領域と同じ程度の大きさを持たせることで、最大値を安定して計算することができる。 In calculation of the gripping possibilities map, since the size is too small and the distribution of the Gaussian function comes out more maximum value without being sufficiently smooth, Gaussian function have the same order of magnitude as the gripping area by causing, it can be calculated stably maximum value. 以上がステップS234における把持可能性演算部234の動作である。 The above is the operation of the gripping possibility calculation unit 234 in step S234.

次にステップS901において、制御部24は、領域抽出部233で生成された領域奥行きデータが全て選択済みであるかを判定する。 Next, in step S901, the control unit 24, the region depth data generated by the region extracting unit 233 determines whether all selected. まだ選択されていない領域奥行きデータがあれば、制御部24はステップS233bに処理を戻す。 If there is a region depth data has not been selected, the control unit 24 returns the process to step S233b. ステップS233bにおいて、領域抽出部233は、まだ選択されていない領域奥行きデータを1つ選択する。 In step S233b, the area extracting unit 233 selects one region depth data that is not yet selected. 一方、全ての領域奥行きデータが選択済みであれば、制御部24はステップS902に処理を進める。 On the other hand, all the region depth data if selected, the control unit 24 advances the process to step S902.

ステップS902において、制御部24は、本ステップの処理回数と予め設定された回転分割数を比較する。 In step S902, the control unit 24 compares the rotation number of divisions set in advance and the processing number of the steps. 本ステップの処理回数が回転分割数に到達していなければ、制御部24は、処理回数を1回加算し、面内回転角を変更して、ステップS232に処理を戻す。 If the processing number of the steps has not reached the rotation number of divisions, the control unit 24, the process number is added once, by changing the in-plane rotation angle, the process returns to step S232. 一方、本ステップの処理回数が回転分割数に到達していれば、制御部24は、処理回数及び面内回転角をリセットし、ステップS903に処理を進める。 On the other hand, if the processing times of the steps has reached the rotational number of divisions, the control unit 24 resets the number of times of processing and in-plane rotation angle, the process proceeds to step S903.

ステップS903において、制御部24は、記憶部1に記憶された第1のハンド形状モデルを全て読み出したかを判定する。 In step S903, the control unit 24 determines whether all read the first hand shape model stored in the storage unit 1. まだ読み出されていない第1のハンド形状モデルがあれば、制御部24はステップS231aに処理を戻す。 If there is a first hand shape model not yet read, the control unit 24 returns the process to step S231a. ステップS231aにおいて、形状モデル変換部231は、まだ読み出されていない第1のハンド形状モデルの1つを記憶部1から読み出す。 In step S231a, the shape model conversion unit 231 reads one of the first hand shape model has not yet been read from the storage unit 1. 一方、全ての第1のハンド形状モデルが読み出されていれば、制御部24はステップS904に処理を進める。 On the other hand, if all of the first hand shape model is read, the control unit 24 advances the process to step S904.

ステップS904において、制御部24は、本ステップの処理回数と予め設定されるバラ積み回数を比較する。 In step S904, the control unit 24 compares the bulk number set in advance and the processing number of the steps. 本ステップの処理回数がバラ積み回数に到達していなければ、制御部24は、処理回数を1回加算し、ステップS211bに処理を戻す。 If the processing number of the steps does not reach the bulk count, the control unit 24, the process number is added once, the process returns to step S211b. 一方、本ステップの処理回数がバラ積み回数に到達していれば、制御部24は、処理回数をリセットし、ステップS235に処理を進める。 On the other hand, if the processing times of the steps to reach the bulk count, the control unit 24 resets the number of times of processing, the processing proceeds to step S235. なお、バラ積み回数は1回以上であれば良いが、一般には複数回とする方がロボットハンドの形状選択の精度が向上する。 Incidentally, bulk count may be at least one, but generally the mutual multiple times to to improve the accuracy of shape selection of the robot hand. また、複数回のバラ積みに対して、ワークの種類を変更することも可能である。 Also, for a plurality of times of bulk, it is also possible to change the type of work. 複数種類のワークに対してバラ積み再現を行い、これらに対して把持可能性を算出してロボットハンドの形状を求めることにより、複数種類のワークを扱う際に最適なロボットハンドの形状を選択することができる。 Perform bulk reproduction for multiple types of workpieces, by determining the shape of the robot hand to calculate the gripping possibility for these to select the optimum shape of the robot hand when dealing with multiple types of workpieces be able to. 本実施の形態では、バラ積み回数を複数回とする。 In this embodiment, the bulk number a plurality of times.

ステップS235に処理が進んだ時点で、複数回のバラ積み再現、さまざまな第1のハンド形状モデル、面内回転角、領域奥行きデータに対して、処理条件毎の把持可能性が求められている。 When the process is advanced to step S235, multiple bulk reproduction, various first hand shape model, in-plane rotation angle, the region depth data, graspable of each processing conditions are required . ステップS235において、評価選択部235は、まず、同一のバラ積み再現かつ同一の第1のハンド形状モデルについて、さまざまな面内回転角、領域奥行きデータに対する処理条件毎の把持可能性のうち最大のものを選択する。 In step S235, evaluation selecting unit 235, first, the same for the bulk reproduction and the same first hand shape model, various plane rotation angle, each processing conditions for regions depth data largest of gripping possibilities to select things. この結果、それぞれの第1のハンド形状モデルに対して、バラ積み再現毎の把持可能性が求められる。 As a result, for each of the first hand shape model, graspable of each bulk reproducibility is obtained. 続いて、評価選択部235は、それぞれの第1のハンド形状モデルに対して、バラ積み再現毎の把持可能性の平均値を算出する。 Subsequently, evaluation selection section 235, for each of the first hand shape model, calculates the average value of the gripping potential of each bulk reproduction. この結果、それぞれの第1のハンド形状モデルに対するハンド形状毎の把持可能性が求められる。 As a result, gripping possibilities for each hand shape is obtained for each of the first hand shape model.

次に、評価選択部235は、ハンド形状毎の把持可能性を比較し、最も把持可能性が高い第1のハンド形状モデルを選択し、対応するハンド形状毎の把持可能性とともに出力する。 Next, evaluation selection section 235 compares the gripping potential of each hand shape, to select the most highly gripping possibility first hand shape model outputs with graspable of the corresponding hand every shape. 出力先は、表示部3としても良いし、記憶部1としても良い。 Destination may be a display unit 3 may be a storage unit 1. また、他の出力手段を備えても良い。 It may also include other output means. 出力結果から、作業者は所望のハンド設計を得ることができる。 From the output, the operator can obtain the desired hand design. 出力先を記憶部1とすれば、バラ積み取り出しシステムを設計するためのソフトウェアなど、他のツールや装置で選択された形状を呼び出すことができ、設計時間を短縮することができる。 If the output destination storage unit 1, and software for designing roses pile extraction system, it is possible to call the selected shape in other tools and devices, it is possible to shorten the design time.

以上で述べたロボットハンドの形状を選択する処理は、式(3)で表すことができる。 Process of selecting the shape of the robot hand as described above can be expressed by Equation (3). 式(3)において、G は位置毎の把持可能性を表す関数であり、iは何回目のバラ積み再現かを表すインデックスである。 In the formula (3), G i is a function representing a gripping possibility for each position, i is an index indicating how many times the bulk reproduction. Nはバラ積み再現を行う回数を表す。 N represents the number of times to perform the bulk reproduction. また、x、y、dはハンドの位置を表すパラメータである。 Also, x, y, d is a parameter representing the position of the hand. x、yは領域奥行きデータ内の位置に対応し、dはどの領域奥行きデータかに対応する。 x, y corresponds to the position of the region depth data, d corresponds to which region the depth data. θはハンドの姿勢を表すパラメータであり、面内回転角に対応する。 θ is a parameter representing the orientation of the hand, corresponding to the in-plane rotation angle. また、Mは第1のハンド形状モデルを識別するためのインデックスである。 Further, M is an index for identifying the first hand shape model. 式(3)は、バラ積み再現ごとの把持可能性を平均してハンド形状毎の把持可能性を求め、ハンド形状毎の把持可能性が最大となる第1のハンド形状モデルを求めることを意味する。 Equation (3), it means that on average the gripping potential of each bulk reproduce seek gripping possibilities for each hand shape, obtaining a first hand shape model graspable of each hand shape is maximum to. なお、式(3)では、位置毎の把持可能性から処理条件毎の把持可能性を求める処理と、処理条件毎の把持可能性からバラ積み再現毎の把持可能性を求める処理とを1つの関数で表している。 Incidentally, the formula (3) in the process of obtaining the gripping potential of each processing condition from the gripping possibilities for each position, the gripping potential of each processing conditions bulk reproducible each gripping possibility determining process and one of the It is represented by a function.

なお、本実施の形態のロボットシミュレーション装置では、ステップS234において、把持可能性演算部234は、把持可能性マップにおける位置毎の把持可能性の最大値を処理条件毎の把持可能性とするように構成したが、他の構成とすることも可能である。 In the robot simulation apparatus of the present embodiment, in the step S234, the grip potential calculating unit 234, the maximum value of the gripping possibilities for each position in the gripping potential map to the grippable of each processing conditions configuration was, but it is also possible to other configurations. 例えば、位置毎の把持可能性の最大値の代わりに、位置毎の把持可能性の積分値を処理条件毎の把持可能性とすることも可能である。 For example, instead of the maximum value of the gripping possibilities for each position, it is possible to grasp the possibility of each processing conditions the integral value of the gripping possibilities for each location. また、最大値と積分値を併用することも可能である。 It is also possible to use the maximum value and integral value. この場合、例えば最大値と積分値を重み付け加算することが考えられる。 In this case, it is conceivable to weighted addition for example the maximum value and the integral value. 複数の処理条件に対して、位置毎の把持可能性の最大値が近い値となる場合には、位置毎の把持可能性の最大値と積分値を併用することが有効となる。 For a plurality of processing conditions, if the maximum value is close values ​​of gripping possibilities for each position, it is effective to use a integral value and the maximum value of the gripping possibilities for each location.

また、把持可能性演算部234は、更に別の構成とすることができる。 Further, the grip potential calculating unit 234 may be a further configuration. 例えば、把持可能性演算部234において、把持したときの安定性も考慮することで、より正確な把持可能性の算出が可能になる。 For example, the grip potential calculation section 234, by taking into account also the stability when the grip, thereby enabling more accurate gripping possibilities calculation. ワークモデルが重心の位置情報を有していれば、バラ積み演算部21により得られるワークモデルの位置姿勢から、バラ積みされた状態でのワークモデルの重心位置を計算することができる。 If workpiece model is only to have a positional information of the center of gravity can be from the position and orientation of the workpiece model obtained by bulk calculation unit 21 calculates the center of gravity of the work model in roses stacked state. 把持位置がワークモデルの重心位置から離れれば離れるほど把持後にモーメントが発生し弾き飛ばしたり落下させたりといった把持失敗のリスクも高まる。 Gripping position even increase the risk of gripping failure such Dropping or flicked generated moment after gripping further away from the center of gravity position of the workpiece model.

そこで、ワークモデルの重心からの距離を把持可能性の演算に加えることで、より安定した設計とすることができる。 Therefore, by adding the distance from the center of gravity of the workpiece models in the calculation of the gripping possibility it can be a more stable design. 把持可能性マップにおける位置毎の把持可能性に対して、各位置のワークモデルの重心からの距離を考慮した演算を行って処理条件毎の把持可能性を求めることで、より正確な把持可能性が求められる。 Relative gripping possibilities for each position in the gripping potential map, we obtain the gripping potential of each of the range by performing a calculation that takes into account the process conditions from the center of gravity of the work model in each position, more accurate gripping possibilities is required. 例えば、位置毎の把持可能性をワークモデルの重心からの距離で除算し、除算結果の最大値を処理条件毎の把持可能性とすることができる。 For example, it is possible to divide the gripping potential of each position at a distance from the center of gravity of the work model, and grippable of each processing conditions the maximum value of the division result. このとき、ロボットハンドの形状を選択する処理は、式(4)で表すことができる。 In this case, the process of selecting the shape of the robot hand can be expressed by Equation (4). 式(4)において、L はワークモデル重心からの距離を表す関数であり、他は式(3)と同様である。 In the formula (4), L i is a function representing a distance from the work model centroid, others are the same as equation (3).

また、把持可能性演算手段234は、更に別の構成とすることができる。 Further, the gripping possibility computing means 234 may be a further configuration. 例えば、把持可能性演算手段234において、周辺のワークモデルとの干渉状態も考慮することで、より正確な把持可能性の算出が可能になる。 For example, the grip potential calculating means 234, the interference state between the periphery of the workpiece models also to consider, allowing more accurate grasping potential calculation. 持ち上げるときに周辺のワークと干渉する場合、把持後に持ち上げることが難しくなる。 Interfere with the periphery of the workpiece when lifting, it is lifted after gripping difficult. そこで、バラ積み演算部21で求めた周辺の干渉物の数を把持可能性の演算に加えることで、より安定した設計とすることができる。 Therefore, by adding the interference the number of peripheral obtained in bulk calculation unit 21 for calculating the gripping possibility it can be a more stable design. 把持可能性マップにおける位置毎の把持可能性に対して、周辺の干渉物数を考慮した演算を行って処理条件毎の把持可能性を求めることで、より正確な把持可能性が求められる。 Relative gripping possibilities for each position in the gripping potential map, we obtain the gripping potential of each performed operation in consideration of the interfering object number near the processing conditions, more accurate graspable resistance is required. 例えば、位置毎の把持可能性を周辺の干渉物数で除算し、除算結果の最大値を処理条件毎の把持可能性とすることができる。 For example, it is possible to divide the gripping potential of each position in the interfering object number of the peripheral, and grippable of each processing conditions the maximum value of the division result. このとき、ロボットハンドの形状を選択する処理は、式(5)で表すことができる。 In this case, the process of selecting the shape of the robot hand may be represented by the formula (5). 式(5)において、C は周辺の干渉物数を表す関数であり、他は式(3)と同様である。 In the formula (5), C i is a function representing the interference product number of the peripheral, the other is the same as equation (3).

以上のように、把持可能性演算部234は、さまざまな構成とすることができ、これらを組み合わせた構成とすることも可能である。 As described above, the grip potential calculating unit 234 may be a variety of configurations, it is also possible to adopt a configuration of a combination of these. 演算量や算出される把持可能性の特性などを考慮し、使用条件に最適な構成を選択すれば良い。 Including the consideration graspable properties to be computed amount and calculation may be selected an optimum configuration for use condition. さらに、本実施の形態で述べた把持可能性の算出方法は、実際のピッキング作業においてロボットハンドの把持位置を求める際にも活用可能である。 Furthermore, the method for calculating the gripping possibilities described in this embodiment can also be utilized in determining the gripping position of the robot hand in the actual picking operation. この場合には、把持可能性が最も高い位置及び面内回転角を把持位置及び把持姿勢としてロボットハンドを制御すれば良い。 In this case, it may be controlled robot hand gripping most likely position and in-plane rotation angle as the gripping position and gripping posture.

本実施の形態のロボットシミュレーション装置は以上のように動作する。 Robot simulation apparatus of the present embodiment operates as described above. したがって、把持ができる可能性が高く、さらに把持失敗もおこりにくい、ロボットハンドの形状を選択することができる。 Thus, the grip there is a high possibility that it is further gripping failure also occurs hardly, it is possible to select the shape of the robot hand. すなわち把持成功率の高いロボットハンドの形状を選択することができる。 That it is possible to select the shape of the high grip success rate robot hand. バラ積み取り出しのシステムは生産現場の生産効率を高めるために用いられることから、いかに作業時間を短縮できるかが重要である。 Since the Rose pile extraction system is used to enhance the production efficiency of the production site, it is important how can shorten the working time. これまでのロボットシミュレーション装置は、与えられたロボット、センサ、ワークから作業時間を見積もるのみであり、作業時間短縮のために配置や構成、システムの構成物の形状などを能動的に変更することができなかった。 So far the robot simulation apparatus, a given robot, sensor, only estimate the working time from the work, arrangement and configuration in order to shorten operation time, be actively changed and shape of the composition of the system could not.

システムの構成物において、特に作業時間に関わるものとして、ワークを持つためのロボットハンドがある。 In the configuration of the system, as especially involved in working time, there is a robot hand for having a workpiece. ワークの形状に応じて掴みやすいロボットハンドを選択し、ワークの把持成功率が上がれば、取り出しにかかるタクトタイムは飛躍的に向上する。 Select grasp easily the robot hand in accordance with the shape of the workpiece, if the gripping success rate of the workpiece rises, tact time according to the extraction is remarkably increased. しかし、これまでのロボットシミュレーション装置では、ロボットハンドは事前に決められた形状のものを扱うのみであり、把持成功率を高めるロボットハンドを選択するロボットシミュレーション装置はなかった。 However, in the robot simulation device so far, the robot hand is only dealing with a shape that is determined in advance, there was no robot simulation apparatus for selecting a robot hand to increase the gripping success rate.

さらには、実物を用いてロボットハンドを決定しようにも、システムを設計する立場にあるシステムインテグレーターには、バラ積み取り出しにおけるロボットハンドとワークの関係に対する知見がないことが多く、現場にある装置だけを使ってのすり合わせの調整、もしくは、既にあるロボットハンドを使うにとどまっていた。 Further, even determine using a robotic hand with real, the system integrator in a position to design a system, often have no knowledge with respect to the relationship of the robot hand and the workpiece in the bulk extraction, only devices in the field adjustment of ground glass of using, or had remained in use already a robot hand. 本実施の形態のロボットシミュレーション装置によれば、ロボットハンドの設計をシステム構築前に決定できるので、バラ積みワークの取り出しシステム設計が効率化する。 According to the robot simulation device of this embodiment, it is possible to determine the robot hand design before system construction, extraction system design of bulk work efficient. さらに、実際のシステム動作において、作業成功率が高いロボットハンドが選択されるので、実際の作業時間を短縮する効果がある。 Furthermore, in the actual system operation, since the work success rate higher robot hand is selected, the effect of shortening the actual working time.

以上に述べたように、本実施の形態のロボットシミュレーション装置は、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、奥行き計測センサをモデル化したセンサモデルを仮想空間上に配置し、センサモデルによってワークモデルの各点の奥行き計測を模擬して各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、複数のロボットハンドの形状をモデル化したハンド形状モデルと奥行きデータとに基づいて、ロボットハンドにおけるワークモデルの把持可能性を複数のロボットハンドの形状に対して算出し、把持可能性に基づいてロボットハンドの前記形状を選択するハンド選択部とを備えるので、把持可能性を高めるロボットハンドの形状を仮想空間上での計 As described above, the sensor robot simulation apparatus of the present embodiment, a model of the bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in the virtual space, the depth measuring sensor place the model in the virtual space, the model and depth measurement simulating unit for generating a depth data consisting of depth information at each point by simulating the depth measurement of each point of the work model by the sensor model, a shape of the plurality of robot hand hand phased on the basis of the hand shape model and depth data, it calculates the gripping possibility of the work model in the robot hand relative to the shape of a plurality of robot hand, selecting the shape of the robot hand on the basis of the grip potential because and a selection unit, a total of the shape of the robot hand in a virtual space to enhance the gripping potential により選択できる。 It can be selected by. 把持可能性が高いロボットハンドが選択されるので、取り出しにかかるタクトタイムを短縮可能となる。 It is highly gripping possibility robot hand is selected, it is possible shorten a tact time in accordance with the extraction.

実施の形態2. The second embodiment.
実施の形態1では、設計情報に含まれるロボットハンドの形状モデルからロボットハンドの形状を選択するように構成していた。 In the first embodiment, it was constituted from the shape model of the robot hand to be included in the design information to select the shape of the robot hand. 一方、ロボットハンドの形状モデルに対して、変更可能な形状パラメータを関連付け、ロボットシミュレーション装置が形状パラメータを調整するように構成することもできる。 On the other hand, the shape model of the robot hand, associates a modifiable shape parameters can also be configured to the robot simulation device to adjust the shape parameter. この結果、設計情報に含まれるロボットハンドの形状を削減しながらも、さまざまな形状から把持可能性を高めるロボットハンドの形状を選択可能となる。 Consequently, while reducing the shape of the robot hand to be included in the design information, and the shape of the robot hand to enhance the gripping potential of various shapes can be selected.

図9は、本発明の実施の形態2によるロボットシミュレーション装置を示す機能ブロック図である。 Figure 9 is a functional block diagram showing a robot simulation apparatus according to a second embodiment of the present invention. 本実施の形態のロボットシミュレーション装置は、形状モデル調整部236をハンド選択部23に備えた点が、実施の形態1の図1におけるものと異なる。 Robot simulation apparatus of the present embodiment, a point having a shape model adjuster 236 to the hand selector 23 is different from that in FIG. 1 of the first embodiment. 以下、図9を用いて本実施の形態のロボットシミュレーション装置の動作について述べる。 Hereinafter will be described the operation of the robot simulation device of the present embodiment with reference to FIG. 実施の形態1におけるものと同様に、記憶部1には入力部4より設計情報が入力される。 In the same manner as in the first embodiment, the storage unit 1 design information from the input unit 4 is inputted. ただし、設計情報に含まれる第1のハンド形状モデルには、その形状モデルに対して変更可能な形状パラメータ、変更可能範囲及び変更可能な刻み幅が関連付けられる。 However, the first hand shape model included in the design information, changeable shape parameters for the geometric model, is changeable range and changeable step size associated. 記憶部1、表示部3、入力部4の動作は、実施の形態1におけるものと同様であり、説明は省略する。 Storage unit 1, a display unit 3, the operation of the input unit 4 are the same as those in the first embodiment, description thereof is omitted.

図10は、本実施の形態のロボットシミュレーション装置における演算部2の動作を説明するためのフロー図である。 Figure 10 is a flowchart for explaining the operation of the computation unit 2 in the robot simulation apparatus of the present embodiment. 本フロー図は、ステップS231bとステップS232との間にステップ236を備え、ステップS902とステップS903との間にステップS905を備える点が実施の形態1の図2におけるものと異なる。 This flowchart includes a step 236 between steps S231b and Step S232, that it includes a step S905 between step S902 and step S903 is different from that in FIG. 2 of the first embodiment. 以下、図9及び図10を用いて演算部2の動作について述べる。 Hereinafter will be described the operation of the operation section 2 with reference to FIGS. なお、図9及び図10において、図1及び図2におけるものと同一の番号を付したものは同等のものであり、説明を省略する。 Note that in FIG. 9 and FIG. 10, those denoted by the same numbers as in FIGS. 1 and 2 are equivalent, the description thereof is omitted.

ステップS236において、形状モデル調整部236は、第1のハンドモデルに関連付けられた変更可能な形状パラメータを用いて、第2のハンド形状モデルの形状を調整して、第4のハンド形状モデルを生成する。 In step S236, the geometric model adjuster 236 uses a changeable shape parameters associated with the first hand model, by adjusting the shape of the second hand shape model, generating a fourth hand shape model to. 実施の形態1にて述べたように、第2のハンド形状モデルでは、爪の本数が変わったり、ロボットハンドの方式が変わっても、接触領域と衝突領域でハンドの形状を定義できる。 As described in the first embodiment, the second hand shape model, or change the number of claws, they change scheme of the robot hand, it defines the shape of the hand at the contact region with the impact area. 第2のハンド形状モデルにおいて、接触領域や衝突領域は、円や矩形の組み合わせで表現することができ、例えば、挟持方式の2本爪タイプのロボットハンドであれば、衝突領域の縦、横、接触領域の縦、横の4パラメータで形状を表現することができる。 In the second hand shape model, the contact region or collision region may be represented by a circle or a rectangle combination, for example, if the two claw-type robot hand clamping system, vertical impact region, horizontal, vertical contact area, it can be expressed shape beside the 4 parameters. また、吸着タイプのロボットハンドであれば、半径1パラメータで形状を表現することができる。 Further, if the adsorption type robot hand, it is possible to express the shape radius 1 parameter. したがって、円や矩形の数、それぞれの円や矩形の位置、円の半径、矩形の各辺の長さが、ロボットハンドの形状を決定するための形状パラメータとなる。 Accordingly, the number of circles and rectangles, each circle or rectangle position, the radius of the circle, the length of the rectangular sides, a shape parameter for determining the shape of the robot hand.

ステップS236において、形状モデル調整部236は、これらの形状パラメータのうち、変更可能な形状パラメータを変更可能範囲内で調整することで第2のハンド形状モデルの形状を調整して、第4のハンド形状モデルを生成する。 In step S236, the geometric model adjustment unit 236, among these shape parameters, by adjusting the shape of the second hand shape model by adjusting in a range capable of changing the changeable shape parameters, the fourth hand to generate a shape model. 例えば、第1のハンド形状モデルが挟持方式の2本爪タイプであり、変更可能な形状パラメータが衝突領域の縦、横、接触領域の縦、横の4つのパラメータであれば、形状モデル調整部236は、この4つのパラメータを調整する。 For example, a two-finger type of the first hand shape model clamping system, the longitudinal changeable shape parameters impact region, horizontal, vertical contact area, if the four parameters of the horizontal, geometric model adjuster 236 adjusts the four parameters. 次に、ステップS232において、形状モデル回転部232は、第4のハンド形状モデルを面内回転して第3のハンド形状モデルを生成する。 Next, in step S232, the geometric model rotating unit 232 generates a third hand shape model fourth hand shape model by plane rotated. 以降、ステップS902までの動作は、実施の形態1におけるものと同様である。 Thereafter, the operation up to step S902 are the same as those in the first embodiment.

ステップS905において、制御部24は、変更可能な形状パラメータの全ての組み合わせに対して、処理条件毎の把持可能性を算出したかを判定する。 In step S905, the control unit 24 determines with respect to all combinations of changeable shape parameters, whether to calculate the gripping potential of each processing conditions. まだ処理条件毎の把持可能性が算出されていない組み合わせがあれば、制御部24はステップS236に処理を戻す。 If there is a combination that has not yet been calculated graspable of each processing condition, the control unit 24 returns the process to step S236. ステップS236において、形状モデル調整部236は、まだ処理条件毎の把持可能性が算出されていない組み合わせの1つに形状パラメータを調整して、第4のハンド形状モデルを生成する。 In step S236, the geometric model adjustment unit 236 adjusts the shape parameters to one of the combinations that have not yet been calculated graspable of each processing conditions, to generate a fourth hand shape model. 一方、変更可能な形状パラメータの全ての組み合わせに対して、処理条件毎の把持可能性を算出されていれば、制御部24はステップS903に処理を進める。 On the other hand, for all combinations of changeable shape parameters, if the calculated gripping possibilities for each treatment condition, the control unit 24 advances the process to step S903. 以降の動作は実施の形態1におけるものと同様である。 The subsequent operation is the same as in the first embodiment. 本実施の形態のロボットシミュレーション装置は以上のように動作する。 Robot simulation apparatus of the present embodiment operates as described above. なお、本実施の形態における処理条件には、実施の形態1で述べたものの他、形状パラメータの組み合わせも加わることになる。 Incidentally, the processing condition in the present embodiment, other those mentioned in the first embodiment, also to join the combination of shape parameters.

本実施の形態のロボットシミュレーション装置によれば、設計情報に含まれる第1のハンド形状モデルの数を削減可能となる。 According to the robot simulation device of this embodiment, it is possible to reduce the number of the first hand shape model included in the design information. この結果、事前に準備する第1のハンド形状モデルの数を削減可能となり、準備作業が軽減される。 As a result, advance enables reduction in the number of the first hand shape model to be prepared, preparation work is reduced. 一方で、1つの第1のハンド形状モデルに対して、さまざまな形状の把持可能性をシミュレーション可能となり、最適な形状のロボットハンドを選択できる可能性が高くなる。 On the other hand, to one of the first hand shape model, the simulation enables a result the gripping potential of various shapes, are more likely to choose the robot hand of optimum shape. 例えば、挟持方式の2本爪タイプのロボットハンドに対して、設計情報としては代表的な形状の1つの第1のハンド形状モデルを用意すれば良く、形状モデル調整部236が衝突領域の縦、横、接触領域の縦、横の4つの形状パラメータをさまざまに変化させることで、挟持方式の2本爪タイプのさまざまな形状に対しての把持可能性を算出することができる。 For example, with respect to two-finger type of the robot hand of the clamping system, as the design information may be provided one first hand shape model of a typical shape, vertical shape model adjuster 236 impact zone, horizontal, vertical contact area, by variously changing the four shape parameters of the horizontal, can be calculated gripping possibilities for the two nails type of various shapes of the sandwiching method. また、本実施の形態のロボットシミュレーション装置は、実施の形態1におけるものと同様の効果も有する。 The robot simulation apparatus of the present embodiment has a similar effect as in the first embodiment.

実施の形態3. Embodiment 3.
実施の形態1では、設計情報に含まれるロボットハンドの形状モデルからロボットハンドの形状を選択するように構成していた。 In the first embodiment, it was constituted from the shape model of the robot hand to be included in the design information to select the shape of the robot hand. 一方、ロボットシミュレーション装置が、形状パラメータに基づいてロボットハンドの形状を生成するように構成することもできる。 On the other hand, the robot simulation device may be configured to generate the shape of the robot hand based on the shape parameter. この結果、設計情報には形状パラメータの情報を含めば良く、ロボットハンドの形状モデルを含む必要がなくなる。 As a result, the design information may be include information shape parameters, it is not necessary to include a shape model of the robot hand.

図11は、本発明の実施の形態3によるロボットシミュレーション装置を示す機能ブロック図である。 Figure 11 is a functional block diagram showing a robot simulation apparatus according to a third embodiment of the present invention. 本実施の形態のロボットシミュレーション装置は、形状モデル変換部231の代わりに形状モデル生成部237をハンド選択部23に備えた点が、実施の形態1の図1におけるものと異なる。 Robot simulation apparatus of the present embodiment, a point having a shape model generating unit 237 instead of the shape model conversion unit 231 in the hand selection section 23 is different from that in FIG. 1 of the first embodiment. 以下、図11を用いて本実施の形態のロボットシミュレーション装置の動作について述べる。 Hereinafter will be described the operation of the robot simulation device of the present embodiment with reference to FIG. 11. 実施の形態1におけるものと同様に、記憶部1には入力部4より設計情報が入力される。 In the same manner as in the first embodiment, the storage unit 1 design information from the input unit 4 is inputted. ただし、設計情報には、第1のハンド形状モデルは含まれず、形状パラメータ、各パラメータの変更可能範囲及び変更可能な刻み幅が含まれる。 However, the design information, the first hand shape model are not included, the shape parameters include changeable range and changeable step size of each parameter. 記憶部1、表示部3、入力部4の動作は、実施の形態1におけるものと同様であり、説明は省略する。 Storage unit 1, a display unit 3, the operation of the input unit 4 are the same as those in the first embodiment, description thereof is omitted.

図12は、本実施の形態のロボットシミュレーション装置における演算部2の動作を説明するためのフロー図である。 Figure 12 is a flowchart for explaining the operation of the computation unit 2 in the robot simulation apparatus of the present embodiment. 本フロー図は、ステップS231a及びS231bの代わりにステップS237を備え、ステップS903の代わりにステップS906を備える点が実施の形態1の図2におけるものと異なる。 This flowchart includes a step S237 in place of steps S231a and S231b, that it comprises the step S906 instead of step S903 is different from that in FIG. 2 of the first embodiment. 以下、図11及び図12を用いて演算部2の動作について述べる。 Hereinafter will be described the operation of the operation section 2 with reference to FIGS. 11 and 12. なお、図11及び図12において、図1及び図2におけるものと同一の番号を付したものは同等のものであり、説明を省略する。 Note that in FIG. 11 and FIG. 12, those denoted by the same numbers as in FIGS. 1 and 2 are equivalent, the description thereof is omitted.

ステップS237において、形状モデル生成部237は、設計モデルに含まれる形状パラメータを設定して、さまざまな形状の第2のハンド形状モデルを生成する。 In step S237, the shape model generating unit 237 sets the shape parameters included in the design model to produce a second hand shape model of various shapes. 実施の形態1及び実施の形態2にて述べたように、第2のハンド形状モデルでは、形状パラメータを用いてロボットハンドの形状を表現することができる。 As described in Embodiment 1 and Embodiment 2, the second hand shape model, it is possible to represent the shape of the robot hand by using the shape parameters. ステップS237において、形状モデル生成部237は、形状パラメータを変更可能範囲内で調整することで、さまざまな形状の第2のハンド形状モデルを生成する。 In step S237, the shape model generating unit 237, by adjusting the shape parameters within changeable range, and generates a second hand shape model of various shapes. 次に、ステップS232において、形状モデル回転部232は、第2のハンド形状モデルを面内回転して第3のハンド形状モデルを生成する。 Next, in step S232, the geometric model rotating unit 232 generates a third hand shape model a second hand shape model by plane rotated. 以降、ステップS902までの動作は、実施の形態1におけるものと同様である。 Thereafter, the operation up to step S902 are the same as those in the first embodiment.

ステップS906において、制御部24は、形状パラメータの全ての組み合わせに対して、処理条件毎の把持可能性を算出したかを判定する。 In step S906, the control unit 24 determines with respect to all combinations of shape parameters, whether to calculate the gripping potential of each processing conditions. まだ処理条件毎の把持可能性が算出されていない組み合わせがあれば、制御部24はステップS237に処理を戻す。 If there is a combination that has not yet been calculated graspable of each processing condition, the control unit 24 returns the process to step S237. ステップS237において、形状モデル生成部237は、まだ処理条件毎の把持可能性が算出されていない組み合わせの1つに形状パラメータを調整して、第2のハンド形状モデルを生成する。 In step S237, the shape model generation unit 237 adjusts the shape parameters to one of the combinations that have not yet been calculated graspable of each processing conditions to generate a second hand shape model. 一方、形状パラメータの全ての組み合わせに対して、処理条件毎の把持可能性を算出されていれば、制御部24はステップS904に処理を進める。 On the other hand, for all combinations of shape parameter, if the calculated gripping possibilities for each processing condition, the control unit 24 advances the process to step S904. 以降の動作は実施の形態1におけるものと同様である。 The subsequent operation is the same as in the first embodiment. 本実施の形態のロボットシミュレーション装置は以上のように動作する。 Robot simulation apparatus of the present embodiment operates as described above. このとき、ロボットハンドの形状を選択する処理は、式(6)で表すことができる。 In this case, the process of selecting the shape of the robot hand may be represented by the formula (6). 式(6)において、P1、・・・、Phは形状パラメータを表し、hは形状パラメータの最大数を表す。 In the formula (6), P1, ···, Ph represents the shape parameter, h represents the maximum number of shape parameters. 他は式(3)と同様である。 Others are the same as that shown in the formula (3).

なお、入手が困難な形状があるなどの理由でロボットハンドの形状に制約があり、変更したくない形状パラメータがある場合も考慮すると、変更可能な形状パラメータと、変更不可能な形状パラメータとを設定できるように構成することが望ましい。 In addition, availability is limited to the shape of the robot hand for reasons such as it is difficult to shape, considering even if there is a shape parameter that you do not want to change, and change can shape parameters, and can not change shape parameters it is desirable to configure to allow setting. また、本実施の形態のロボットシミュレーション装置において、把持可能性が高くなる形状パラメータの組み合わせを求める手法として、全ての組み合わせに対して把持可能性を求めるという最も単純な手法を例示しているが、これに限定されるものではない。 Further, in the robot simulation apparatus of the present embodiment, as a method for determining the combination of shape parameters for gripping possibility is high that although the simplest technique of obtaining a gripping possibility for all combinations, the present invention is not limited to this. これは他の実施の形態についても同様である。 This also applies to the other embodiments.

本実施の形態のロボットシミュレーション装置によれば、設計情報に第1のハンド形状モデルを含む必要がなくなる。 According to the robot simulation device of the present embodiment, it is not necessary to include a first hand shape model in the design information. この結果、事前に第1のハンド形状モデルを準備する必要がなくなり、準備作業が軽減される。 As a result, there is no need to prepare the first hand shape model in advance, preparatory work is reduced. 一方で、さまざまな形状のロボットハンドの把持可能性をシミュレーション可能となり、最適な形状のロボットハンドを選択できる可能性がさらに高くなる。 On the other hand, the simulation enables a result the gripping potential of various shapes robot hand, is more likely to be selected the robot hand of optimum shape. また、本実施の形態のロボットシミュレーション装置は、実施の形態1におけるものと同様の効果も有する。 The robot simulation apparatus of the present embodiment has a similar effect as in the first embodiment.

実施の形態4. Embodiment 4.
実施の形態1におけるロボットシミュレーション装置に対して、選択されたロボットハンドの形状に対応する把持可能性が、事前に設定した閾値より小さい場合、ロボットハンドの制御パラメータを変更するような構成を追加することも可能である。 The robot simulation apparatus in the first embodiment, the grip may correspond to the shape of the selected robot hand is smaller than the threshold set in advance, to add structure to change the control parameters of the robot hand it is also possible. これにより、実際のシステム動作における把持成功率を高めた設計を実現することが可能となる。 This makes it possible to achieve a design with enhanced gripping success rate in the actual system operation.

図13は、本発明の実施の形態4によるロボットシミュレーション装置を示す機能ブロック図である。 Figure 13 is a functional block diagram showing a robot simulation apparatus according to a fourth embodiment of the present invention. 本実施の形態のロボットシミュレーション装置は、演算部2に制御パラメータ変更部25を備えた点が、実施の形態1の図1におけるものと異なる。 Robot simulation apparatus of the present embodiment, a point having a control parameter changing unit 25 to the arithmetic unit 2 are different from those in FIG. 1 of the first embodiment. 図13において、図1におけるものと同一の番号を付したものは同等のものであり、説明を省略する。 13, those denoted by the same numbers as in FIG. 1 is equivalent, the description thereof is omitted. 以下、図13を用いて演算部2の動作について述べる。 Hereinafter will be described the operation of the operation section 2 with reference to FIG. 13. なお、演算部2の動作の流れは、実施の形態1におけるものの最後に、制御パラメータ変更部25の動作が追加されるのみであるので、フロー図については省略する。 Incidentally, the flow of operation of the arithmetic unit 2, the end of those in the first embodiment, since the operation of the control parameter changing unit 25 is only added, omitted for flow diagram.

演算部2において、ハンド選択部23でハンド形状毎の把持可能性を演算し、これに基づいてロボットハンドの形状を選択するまでの処理は、上記実施の形態1におけるものと同様である。 The arithmetic unit 2, processing up to calculating the gripping potential of each hand shape hand selector 23, selecting the shape of the robot hand on the basis of which are the same as those in the first embodiment. すなわち、図2におけるステップS235までの動作は、本実施の形態のロボットシミュレーション装置においても同様である。 That is, the operation up to step S235 in FIG. 2 is the same in the robot simulation apparatus of the present embodiment. 本実施の形態のロボットシミュレーション装置においては、図2のステップS235の動作の後に、以下に述べる制御パラメータ変更部25の動作が追加されたものとなる。 In the robot simulation device of the present embodiment, after the operation of step S235 in FIG. 2, the operation of the control parameter changing unit 25 described below is what is added. 制御パラメータ変更部25は、選択されたハンド形状に対する把持可能性を予め設定される閾値と比較する。 Control parameter changing unit 25 compares the threshold value set in advance the gripping possibilities for the selected hand shape. 把持可能性が閾値以上であれば、制御パラメータ変更部25は、制御パラメータを変更することなく動作を終了する。 If gripping possibility is equal to or greater than the threshold value, the control parameter changing unit 25 terminates the operation without changing the control parameter. 一方、把持可能性が閾値未満であれば、制御パラメータ変更部25は、制御パラメータを変更する。 On the other hand, if the gripping potential is less than the threshold value, the control parameter changing unit 25 changes the control parameter.

ここで、制御パラメータは、ロボットハンドの動作速度や停止時間など、ワークの把持に際するロボットハンドの動作に関するパラメータであり、設計情報に含まれている。 Here, the control parameter, such as operating speed and stopping time of the robot hand, is a parameter related to the operation of the robot hand which during the gripping of the workpiece are included in the design information. 把持可能性が閾値未満の場合、制御パラメータ変更部25は、把持の際のロボットハンドの進入速度や把持後のロボット動作速度を落としたり、把持の際の停止時間を長くするように制御パラメータを変更する。 When gripping possibility is less than the threshold value, the control parameter changing unit 25 is dropped or robot operation speed after approach speed and grip of the robot hand during gripping, the control parameter so as to increase the downtime during gripping change. 本実施の形態のロボットシミュレーション装置によれば、選択されたロボットハンドの把持可能性に応じて制御パラメータを変更することで、把持成功率をさらに高めた設計を実現することができる。 According to the robot simulation device of this embodiment, by changing the control parameters in accordance with the grip potential of the selected robot hand, it is possible to realize a further improved design of the gripping success rate. また、本実施の形態のロボットシミュレーション装置は、実施の形態1におけるものと同様の効果も有する。 The robot simulation apparatus of the present embodiment has a similar effect as in the first embodiment.

実施の形態5. Embodiment 5.
実施の形態1におけるロボットシミュレーション装置では、ハンド形状毎の把持可能性に基づいてロボットハンドの形状を選択するように構成していた。 In the robot simulation apparatus in the first embodiment, it has been configured to select the shape of the robot hand on the basis of the gripping possibility of every hand shape. ハンド形状毎の把持可能性に加えて、ロボットハンドによるワークのバラ積み取り出し作業をシミュレートし、見積もられたタクトタイムも考慮してロボットハンドの形状を選択するように構成することも可能である。 In addition to the gripping potential of each hand shape, it is also possible to simulate the bulk pile extraction work of the workpiece by the robot hand, estimated tact time even considering configured to select the shape of the robot hand is there. これにより、タクトタイムを短縮可能なロボットハンドの形状が選択される可能性をさらに高めることができる。 This can further increase the likelihood that the shape of the shortened robotic hand the tact time is selected.

図14は、本発明の実施の形態5によるロボットシミュレーション装置を示す機能ブロック図である。 Figure 14 is a functional block diagram showing a robot simulation apparatus according to a fifth embodiment of the present invention. 本実施の形態のロボットシミュレーション装置は、演算部2にタクトタイム算出部26を備えた点が、実施の形態1の図1におけるものと異なる。 Robot simulation apparatus of the present embodiment, a point having a cycle time calculation unit 26 to the arithmetic unit 2 are different from those in FIG. 1 of the first embodiment. 図14において、図1におけるものと同一の番号を付したものは同等のものであり、説明を省略する。 14, those denoted by the same numbers as in FIG. 1 is equivalent, the description thereof is omitted. 以下、図14を用いて演算部2の動作について述べる。 Hereinafter will be described the operation of the operation section 2 with reference to FIG. 14.

演算部2において、ハンド選択部23bでハンド形状毎の把持可能性を演算し、これに基づいてロボットハンドの形状を選択するまでの処理は、上記実施の形態1におけるものと同様である。 The arithmetic unit 2, processing up to calculating the gripping potential of each hand shape hand selector 23b, selecting the shape of the robot hand on the basis of which are the same as those in the first embodiment. ただし、実施の形態1におけるものと異なり、ハンド選択部23bが備える評価選択部235bはハンド形状毎の把持可能性が高い順に複数のハンド形状を選択する。 However, different from that of the first embodiment, evaluation selector 235b with the hand selector 23b is selects a plurality of hand shape descending order graspable of each hand shape. すなわち、図2に示したフロー図と比較すると、本実施の形態のロボットシミュレーション装置の動作は、ステップS235において複数のハンド形状が選択される点と、ステップS235の動作の後に、タクトタイム算出部26の動作が追加された点とが異なる。 That is, when compared with the flowchart shown in FIG. 2, the operation of the robot simulation apparatus of the present embodiment are that a plurality of hand shape is selected in step S235, after the operation of step S235, the tact time calculator and that the 26 operation has been added.

タクトタイム算出部26は、ハンド選択部23bで選択された複数のロボットハンドの形状を用いて、ワークのバラ積み取り出し作業をシミュレートし、それぞれのロボットハンドに対するタクトタイムを見積もる。 Tact time calculating unit 26, using the shape of a plurality of robot hand selected by the hand selection unit 23b, to simulate the work extraction stacked in bulk of the work, estimated tact time for each of the robot hand. 続いて、タクトタイム算出部26は、見積もられたタクトタイムをスコアに換算する。 Subsequently, the tact time calculating unit 26 converts the tact time was estimated to score. このスコアは、タクトタイムが短いほど高い値となる。 This score is, the higher the tact time is short high value. さらに、タクトタイム算出部26は、ハンド形状毎の把持可能性と対応するハンド形状に対するスコアを重み付け加算して、最も高い値となるハンド形状を選択する。 Furthermore, the tact time calculating unit 26, a score for the corresponding hand shape and gripping possibility for each hand shape by weighted addition, selecting the hand shape which is the highest value. 本実施の形態のロボットシミュレーション装置は、以上のように動作する。 Robot simulation apparatus of the present embodiment operates as described above. 本実施の形態のロボットシミュレーション装置によれば、タクトタイムを短縮可能なロボットハンドの形状が選択される可能性をさらに高めることができる。 According to the robot simulation device of the present embodiment, it is possible to further increase the likelihood that the shape of the shortened robotic hand the tact time is selected. また、本実施の形態のロボットシミュレーション装置は、実施の形態1におけるものと同様の効果も有する。 The robot simulation apparatus of the present embodiment has a similar effect as in the first embodiment.

1 記憶部、2 演算部、3 表示部、4 入力部、21 バラ積み演算部、22 奥行き計測模擬部、23、23b ハンド選択部、24 制御部、25 制御パラメータ変更部、26 タクトタイム算出部、221 センサモデル配置部、222 奥行きデータ生成部、231 形状モデル変換部、232 形状モデル回転部、233 領域抽出部、234 把持可能性演算部、235、235b 評価選択部、236 形状モデル調整部、237 形状モデル生成部、31 奥行きデータ表示部、32 仮想空間表示部、33 設計情報表示部。 1 storage unit, second operation unit, 3 a display unit, 4 input unit, 21 bulk calculation unit, 22 the depth measurement simulating section, 23,23B hand selector, 24 controller, 25 control parameter changing unit, 26 tact time calculator , 221 sensor model placement unit 222 depth data generation unit, 231 the shape model conversion unit, 232 the shape model rotating part 233 area extracting unit, 234 graspable value calculation unit, 235,235B evaluation selecting unit, 236 the shape model adjustment unit, 237 shape model generating unit, 31 depth data display unit, 32 a virtual space display unit, 33 design information display unit.

Claims (12)

  1. ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、 A bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in a virtual space,
    奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、 Depth measurements arranged sensor model that models the depth measuring sensor on the virtual space, and generates the depth data consisting of the depth information in said each point by simulating the depth measurement of each point of the work model by the sensor model and simulating unit,
    複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するハンド選択部とを備え More based on the shape of the robot hand in the modeled hand shape model and said depth data, calculates the gripping possibility of the work model in the robot hand to a plurality of said shape of said robot hand, said gripping based on the likelihood and a hand selector for selecting the shape of the robot hand,
    前記ハンド形状モデルは、 The hand shape model,
    前記ワークを把持する際に前記ワークに接触すべき領域を奥行きデータの奥行き方向と垂直な面に投影した2次元の領域であるハンド接触領域と、 And hand contact area is a two-dimensional region obtained by projecting the area to be in contact with the workpiece in the depth direction and a plane perpendicular to the depth data when gripping the workpiece,
    前記ワークを把持する際に前記ハンド接触領域が前記ワークに接触するより先に前記ワークに衝突する可能性のある領域がある場合には、前記衝突する可能性のある領域を前記垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、 If there is a region where the hand contact area with possibility of impinging on the workpiece prior to contact with the workpiece when gripping the workpiece, an area that may be the collision in the plane perpendicular is defined by the projected two-dimensional region in which hand-collision area,
    前記ハンド選択部は、 The hand selection unit,
    前記奥行きデータにおける各点の集まりである計測領域のうち前記ロボットハンドが前記ワークを把持する際に前記ハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、 A workpiece model contact area is an area in which the robot hand are candidates contacting the hand contact area when gripping the workpiece out of the measurement area is a collection of points in the depth data,
    前記計測領域のうち前記ワークモデル接触領域に前記ハンド接触領域を接触させるより先に前記ハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域と A workpiece model impingement region is the region where the hand collision area is likely to collide before the contacting the hand contact area with the workpiece models contact area of the measurement region
    を前記奥行きデータに基づいて求め、 The determined based on the depth data,
    前記ハンド接触領域及び前記ハンド衝突領域並びに前記ワークモデル接触領域及び前記ワークモデル衝突領域に基づいて把持可能性を算出する Calculating a gripping possibility, based on the hand contact area and the hand impact region and the work model contact area and the workpiece model collision region
    ことを特徴とするロボットシミュレーション装置。 Robot simulation device, characterized in that.
  2. 前記ワークモデルは、 前記ワークの重心の位置情報を有し、 The workpiece model has position information of the center of gravity of the workpiece,
    前記ハンド選択部は、前記重心の位置情報を用いて前記把持可能性を算出する ことを特徴とする請求項に記載のロボットシミュレーション装置。 The hand selection unit, the robot simulation apparatus according to claim 1, characterized in that calculating said gripping possibilities by using the position information of the center of gravity.
  3. 前記ハンド選択部は、 The hand selection unit,
    前記ロボットハンドが前記ワークモデルを把持して持ち上げる際の周辺の干渉物の数を用いて前記把持可能性を算出する ことを特徴とする請求項に記載のロボットシミュレーション装置。 Robot simulation apparatus according to claim 1, characterized in that calculating said gripping possibilities by using the interference the number of the peripheral when the robot hand is lifted by gripping the workpiece model.
  4. 前記ハンド選択部は、 The hand selection unit,
    前記把持可能性が最も高い前記ロボットハンドの前記形状を選択する ことを特徴とする請求項1から請求項のいずれか1項に記載のロボットシミュレーション装置。 Robot simulation apparatus according to any one of claims 1 to 3, characterized in that the gripping possibility to select the shape of the highest the robot hand.
  5. ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、 A bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in a virtual space,
    奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、 Depth measurements arranged sensor model that models the depth measuring sensor on the virtual space, and generates the depth data consisting of the depth information in said each point by simulating the depth measurement of each point of the work model by the sensor model and simulating unit,
    複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するハンド選択部とを備え More based on the shape of the robot hand in the modeled hand shape model and said depth data, calculates the gripping possibility of the work model in the robot hand to a plurality of said shape of said robot hand, said gripping based on the likelihood and a hand selector for selecting the shape of the robot hand,
    前記ハンド選択部は、 The hand selection unit,
    複数種類の前記ワークモデルに対して求められた前記把持可能性の平均値が最も高い前記ロボットハンドの前記形状を選択する Selecting the shape of the highest the robot hand average value of the grip may have been determined for a plurality of types of the workpiece model
    ことを特徴とするロボットシミュレーション装置。 Robot simulation device, characterized in that.
  6. ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、 A bulk operation unit to reproduce the state in which the work model that models the workpiece are stacked in a virtual space,
    奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、 Depth measurements arranged sensor model that models the depth measuring sensor on the virtual space, and generates the depth data consisting of the depth information in said each point by simulating the depth measurement of each point of the work model by the sensor model and simulating unit,
    複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するハンド選択部とを備え More based on the shape of the robot hand in the modeled hand shape model and said depth data, calculates the gripping possibility of the work model in the robot hand to a plurality of said shape of said robot hand, said gripping based on the likelihood and a hand selector for selecting the shape of the robot hand,
    前記バラ積み演算部は、前記ワークモデルが積み重ねられた状態を複数回再現し、 The bulk calculation unit, a state where the work model are stacked reproduced a plurality of times,
    前記ハンド選択部は、複数回再現された前記ワークモデルが積み重ねられた状態に対して求められた前記把持可能性の平均値が最も高い前記ロボットハンドの前記形状を選択する The hand selector selects a plurality of times reproduced the shape of the average value of the gripping most likely the robot hand determined for a state in which the work model are stacked
    ことを特徴とするロボットシミュレーション装置。 Robot simulation device, characterized in that.
  7. 複数の前記ロボットハンドの前記形状には、把持方式の異なる前記形状が含まれる ことを特徴とする請求項1 から請求項6のいずれか1項に記載のロボットシミュレーション装置。 The said shape of the plurality of the robot hand, the robot simulation apparatus according to any one of claims 6 to include different the shapes of the gripping system from claim 1, wherein.
  8. 前記把持方式には、挟把方式と吸着方式とが含まれる ことを特徴とする請求項に記載のロボットシミュレーション装置。 Wherein the gripping system, a robot simulation apparatus according to claim 7, characterized in that it includes a holding method and narrow bunch scheme.
  9. 前記ハンド選択部で選択された前記形状に対応する前記把持可能性に基づいて、 前記ロボットハンドの動作を制御する制御パラメータを変更する制御パラメータ変更部を備える ことを特徴とする請求項1から請求項のいずれか1項に記載のロボットシミュレーション装置。 Based on the grip may correspond to the shape selected by the hand selection unit, according claim 1, characterized in that it comprises the control parameter changing unit for changing a control parameter for controlling the operation of the robot hand robot simulation apparatus according to any one of claim 8.
  10. 情報処理装置を ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するバラ積み演算部と、 A bulk operation unit to reproduce the state in which the workpiece model the information processing apparatus a modeled workpiece stacked on the virtual space,
    奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成する奥行き計測模擬部と、 Depth measurements arranged sensor model that models the depth measuring sensor on the virtual space, and generates the depth data consisting of the depth information in said each point by simulating the depth measurement of each point of the work model by the sensor model and simulating unit,
    複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するハンド選択部と して機能させ More based on the shape of the robot hand in the modeled hand shape model and said depth data, calculates the gripping possibility of the work model in the robot hand to a plurality of said shape of said robot hand, said gripping based on the potential to function as a hand selector for selecting the shape of the robot hand,
    前記ハンド形状モデルは、 The hand shape model,
    前記ワークを把持する際に前記ワークに接触すべき領域を奥行きデータの奥行き方向と垂直な面に投影した2次元の領域であるハンド接触領域と、 And hand contact area is a two-dimensional region obtained by projecting the area to be in contact with the workpiece in the depth direction and a plane perpendicular to the depth data when gripping the workpiece,
    前記ワークを把持する際に前記ハンド接触領域が前記ワークに接触するより先に前記ワークに衝突する可能性のある領域がある場合には、前記衝突する可能性のある領域を前記垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、 If there is a region where the hand contact area with possibility of impinging on the workpiece prior to contact with the workpiece when gripping the workpiece, an area that may be the collision in the plane perpendicular is defined by the projected two-dimensional region in which hand-collision area,
    前記ハンド選択部は、 The hand selection unit,
    前記奥行きデータにおける各点の集まりである計測領域のうち前記ロボットハンドが前記ワークを把持する際に前記ハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、 A workpiece model contact area is an area in which the robot hand are candidates contacting the hand contact area when gripping the workpiece out of the measurement area is a collection of points in the depth data,
    前記計測領域のうち前記ワークモデル接触領域に前記ハンド接触領域を接触させるより先に前記ハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域と A workpiece model impingement region is the region where the hand collision area is likely to collide before the contacting the hand contact area with the workpiece models contact area of the measurement region
    を前記奥行きデータに基づいて求め、 The determined based on the depth data,
    前記ハンド接触領域及び前記ハンド衝突領域並びに前記ワークモデル接触領域及び前記ワークモデル衝突領域に基づいて把持可能性を算出する Calculating a gripping possibility, based on the hand contact area and the hand impact region and the work model contact area and the workpiece model collision region
    ことを特徴とするロボットシミュレーションプログラム。 Robot simulation program, characterized in that.
  11. 請求項10に記載のロボットシミュレーションプログラムを記録した記録媒体。 A recording medium recording a robot simulation program according to claim 10.
  12. バラ積み演算部が、ワークをモデル化したワークモデルが積み重ねられた状態を仮想空間上に再現するステップと、 A step of bulk calculation unit, to reproduce the state in which the work model that models the workpiece are stacked in a virtual space,
    奥行き計測模擬部が、奥行き計測センサをモデル化したセンサモデルを前記仮想空間上に配置し、前記センサモデルによって前記ワークモデルの各点の奥行き計測を模擬して前記各点における奥行き情報からなる奥行きデータを生成するステップと、 Depth of the depth measurement simulating section, a sensor model that models the depth measuring sensor placed on the virtual space, consisting of the depth information in said each point by simulating the depth measurement of each point of the work model by the sensor model the method comprising the steps of: generating the data,
    ハンド選択部が、複数のロボットハンドの形状をモデル化したハンド形状モデルと前記奥行きデータとに基づいて、前記ロボットハンドにおける前記ワークモデルの把持可能性を複数の前記ロボットハンドの前記形状に対して算出し、前記把持可能性に基づいて前記ロボットハンドの前記形状を選択するステップと を備え Hand selecting unit, a shape of the plurality of robot hand the a modeled hand shape model based on the depth data, to the shape of the robot hand gripping possibility plurality of the workpiece models in the robot hand calculated, and a step of selecting the shape of the robot hand on the basis of the gripping possibility,
    前記ハンド形状モデルは、 The hand shape model,
    前記ワークを把持する際に前記ワークに接触すべき領域を奥行きデータの奥行き方向と垂直な面に投影した2次元の領域であるハンド接触領域と、 And hand contact area is a two-dimensional region obtained by projecting the area to be in contact with the workpiece in the depth direction and a plane perpendicular to the depth data when gripping the workpiece,
    前記ワークを把持する際に前記ハンド接触領域が前記ワークに接触するより先に前記ワークに衝突する可能性のある領域がある場合には、前記衝突する可能性のある領域を前記垂直な面に投影した2次元の領域であるハンド衝突領域とで定義され、 If there is a region where the hand contact area with possibility of impinging on the workpiece prior to contact with the workpiece when gripping the workpiece, an area that may be the collision in the plane perpendicular is defined by the projected two-dimensional region in which hand-collision area,
    前記ロボットハンドの前記形状を選択するステップは、 Step of selecting the shape of the robot hand,
    前記奥行きデータにおける各点の集まりである計測領域のうち前記ロボットハンドが前記ワークを把持する際に前記ハンド接触領域を接触させる候補となる領域であるワークモデル接触領域と、 A workpiece model contact area is an area in which the robot hand are candidates contacting the hand contact area when gripping the workpiece out of the measurement area is a collection of points in the depth data,
    前記計測領域のうち前記ワークモデル接触領域に前記ハンド接触領域を接触させるより先に前記ハンド衝突領域が衝突する可能性のある領域であるワークモデル衝突領域と A workpiece model impingement region is the region where the hand collision area is likely to collide before the contacting the hand contact area with the workpiece models contact area of the measurement region
    を前記奥行きデータに基づいて求めるステップと、 And determining, based on the depth data,
    前記ハンド接触領域及び前記ハンド衝突領域並びに前記ワークモデル接触領域及び前記ワークモデル衝突領域に基づいて把持可能性を算出するステップとを備える And calculating a gripping possibility, based on the hand contact area and the hand impact region and the work model contact area and the workpiece model collision region
    ことを特徴とするロボットシミュレーション方法。 Robot simulation wherein the.
JP2013241725A 2013-11-22 2013-11-22 Robot simulation apparatus, a program, a recording medium and methods Active JP6036662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013241725A JP6036662B2 (en) 2013-11-22 2013-11-22 Robot simulation apparatus, a program, a recording medium and methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013241725A JP6036662B2 (en) 2013-11-22 2013-11-22 Robot simulation apparatus, a program, a recording medium and methods

Publications (2)

Publication Number Publication Date
JP2015100866A true JP2015100866A (en) 2015-06-04
JP6036662B2 true JP6036662B2 (en) 2016-11-30

Family

ID=53377034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013241725A Active JP6036662B2 (en) 2013-11-22 2013-11-22 Robot simulation apparatus, a program, a recording medium and methods

Country Status (1)

Country Link
JP (1) JP6036662B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5877857B2 (en) 2014-03-10 2016-03-08 ファナック株式会社 Robot simulation device for simulating the removal step of the work
JP2018103339A (en) * 2016-12-28 2018-07-05 オムロン株式会社 Simulation apparatus, a robot, a simulation method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2555822B2 (en) * 1991-10-30 1996-11-20 日本電装株式会社 Fast picking apparatus of the pile parts
JP2001277167A (en) * 2000-03-31 2001-10-09 Okayama Pref Gov Shin Gijutsu Shinko Zaidan Three-dimensional attitude recognizing method
JP4655309B2 (en) * 2005-11-09 2011-03-23 株式会社Ihi Picking order determining method, apparatus and program, and picking system,
JP4153528B2 (en) * 2006-03-10 2008-09-24 ファナック株式会社 Apparatus for a robot simulation program, a recording medium and methods
JP2007334678A (en) * 2006-06-15 2007-12-27 Fanuc Ltd Robot simulation device
KR101453234B1 (en) * 2010-11-17 2014-10-22 미쓰비시덴키 가부시키가이샤 Workpiece pick-up apparatus
FI20106387A (en) * 2010-12-30 2012-07-01 Zenrobotics Oy The method, computer program and apparatus for determining the adhesion of
JP5623358B2 (en) * 2011-09-06 2014-11-12 三菱電機株式会社 Workpiece picking apparatus
JP5936108B2 (en) * 2011-12-06 2016-06-15 株式会社Ihi Object extraction apparatus and method

Also Published As

Publication number Publication date Type
JP2015100866A (en) 2015-06-04 application

Similar Documents

Publication Publication Date Title
Billard et al. Discovering optimal imitation strategies
Gupta et al. Prototyping and design for assembly analysis using multimodal virtual environments
Frati et al. Using Kinect for hand tracking and rendering in wearable haptics
US6792398B1 (en) Systems and methods for creating virtual objects in a sketch mode in a haptic virtual reality environment
US5973678A (en) Method and system for manipulating a three-dimensional object utilizing a force feedback interface
Chryssolouris et al. A virtual reality-based experimentation environment for the verification of human-related factors in assembly processes
US20110216090A1 (en) Real-time interactive augmented reality system and method and recording medium storing program for implementing the method
US20020133264A1 (en) Virtual reality system for creation of design models and generation of numerically controlled machining trajectories
US9383895B1 (en) Methods and systems for interactively producing shapes in three-dimensional space
US20100208035A1 (en) Volume recognition method and system
Seth et al. Virtual reality for assembly methods prototyping: a review
Morales et al. Integrated grasp planning and visual object localization for a humanoid robot with five-fingered hands
Popović et al. Motion sketching for control of rigid-body simulations
US20140104274A1 (en) Grasping virtual objects in augmented reality
Ueda et al. A hand-pose estimation for vision-based human interfaces
Popović et al. A strategy for grasping unknown objects based on co-planarity and colour information
Goldfeder et al. Data-driven grasping with partial sensor data
US20020123812A1 (en) Virtual assembly design environment (VADE)
Goldfeder et al. Data-driven grasping
Kim et al. A haptic-rendering technique based on hybrid surface representation
Xue et al. An automatic grasp planning system for service robots
Rao et al. Grasping novel objects with depth segmentation
Balasubramaniam et al. Generation of collision-free 5-axis tool paths using a haptic surface
Johnson et al. Perceptual perspective taking and action recognition
US20040010346A1 (en) Method of real-time collision detection between solid geometric models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R151 Written notification of patent or utility model registration

Ref document number: 6036662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151