JP7223630B2 - シミュレーション装置、および、シミュレーションプログラム - Google Patents
シミュレーション装置、および、シミュレーションプログラム Download PDFInfo
- Publication number
- JP7223630B2 JP7223630B2 JP2019090807A JP2019090807A JP7223630B2 JP 7223630 B2 JP7223630 B2 JP 7223630B2 JP 2019090807 A JP2019090807 A JP 2019090807A JP 2019090807 A JP2019090807 A JP 2019090807A JP 7223630 B2 JP7223630 B2 JP 7223630B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- model
- robot
- data
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
特許文献1には、ロボットの動作領域の三次元的な形状データを作成し、並びに、ロボットの位置を特定するためのマーカの画像に基づいてロボットの実機の画像と形状データとを重ね合わせて拡張現実空間を生成する演算部と、拡張現実空間を表示する表示部とを備えるロボットシステムが記載されている。
特許文献3には、サンプリング時間毎の各通過点における各軸値及び各教示点における各軸値をサンプリング時間毎に逐次出力するロボット動作生成器が記載されている。この逐次出力された各軸値に基づいてロボットの動作シミュレーションモデルを表示させれば、動作に連続性がある見やすいものとなる。
よって、ロボットの動作シミュレーションを過酷な作業現場に適用するには、特許文献1~3のような従来のシミュレーション技術のような、単にロボットが障害物に干渉しないなどの単純な衝突判定だけでは不充分である。
本発明は、作業が行われる仮想空間である作業場所モデルと、前記作業場所モデル内に存在する作業対象モデルと、前記作業対象モデルに対して作業を行うロボットモデルとを選択するモデル選択部と、
前記ロボットモデルの構成要素である関節ごとに、根元側の関節を先端側の関節よりも先に時系列の作業動作データを割り当て、その作業動作データに従って動作する前記ロボットモデルと、前記作業場所モデルおよび前記作業対象モデルとの干渉に応じて発生する前記ロボットモデル内での応力分布を計算する計算制御部と、
計算された応力分布に従って、前記ロボットモデルが前記作業対象モデルに対して行う作業中の前記ロボットモデルの姿勢の安定度合いを評価指標として計算し、その評価指標が高い前記作業動作データを出力する動作評価部とを有することを特徴とする。
その他の手段は、後記する。
シミュレーション装置30は、CPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。図1では、シミュレーション装置30の記憶手段として、記憶装置40を用いる。
記憶装置40には、3Dモデルデータ41と、関節動作データ42と、評価結果データ45とが格納される。関節動作データ42は、動作計算データ43と、動作実績データ44とから構成される。以下、記憶装置40内のデータ内容を順に説明する。
3Dモデルデータ41は、作業を行うロボットの形状を示すロボットモデル301と、ロボットの作業対象の形状を示す作業対象モデル302と、ロボットの作業場所を示す仮想空間である作業場所モデル(交差点303を含む通路など)とを含めて構成される。
「直進311→アーム右回転」という2つの基本動作データを順に接続して作成された作業動作データは、ロボットモデル301を作業対象モデル302まで最短距離で近づけるようにして作成された。しかし、この作業動作データは、作業場所モデルが示す十字路の壁が考慮されていないため、途中でロボットモデル301が壁(障害物)に衝突してしまう。
「直進321→筐体右回転→直進322→筐体左回転→アーム右回転」という5つの基本動作データを順に接続して作成された作業動作データは、作業場所モデルが示す十字路の通路に沿って、ロボットモデル301を作業対象モデル302まで近づける。このように作業動作データは、作業に直接関係する作業対象モデル302だけでなく、その周囲の作業場所モデル(通路)も考慮して作成する必要がある。
作業対象モデル302としての配管101には、弁の開度を調整するシャフト103と、手でつかんで回す場合に利用するハンドル部102とが備えられている。これらの3Dモデルは、ロボットハンドの接触や干渉に応じて、CG上でも部品が動作するような構成としてもよい。作業対象モデル302が動作するようにアニメーション表示する画面の詳細は、図13~図15で後記する。
ロボットモデル301としての多関節型アーム・ロボットは、水平方向の移動および回転に利用するクローラ121、122と、アームの関節部111~116と、モノを掴むハンド部117とを有する。ハンド部117は、エンドエフェクタとしてもよい。
ハンドル部102を掴んだハンド部117は、右に回転することで、ハンドル部102を回す。これにより、シャフト103が調整されることで、配管101の弁が開く。
各ノードには、関節を識別するためのノードIDが付されている。例えば、ノードC1、C2はルートノードであり、自身が親ノードを持たない。ルートノードC1だけを通過するリンクと、ルートノードC2だけを通過するリンクと、ルートノードC1、C2間を接続するリンクは、クローラ121、122に対応するロボット構成部品の中心軸である。
つまり、各ノードの動作データは、ルートノード側(C1,C2)を先に計算し、リーフノード側(A7)を後に計算することが望ましい。
以上、図8で説明したノードごとに動作データが割り当てられる。なお、動作データを割り当てる対象は、各関節(各ノード)に限定されず、クローラ121、122の走行データ(筐体全体を前進させたり後退させたりするためのクローラの回転運動など)や、図8の多関節モデルとは異なるロボット(アームが伸縮するロボットなど)の構成要素に割り当ててもよい。
図9は、ノードに割り当てた動作データのうちの関節の中心座標データを示す時系列グラフである。3Dの座標軸(X,Y,Z)に対応して、3つの座標データを示す線分が示される。
図10は、ノードに割り当てた動作データのうちの関節の回転角データを示す時系列グラフである。3Dの回転軸(θ,φ,ψ)に対応して、3つの回転角データを示す線分が示される。
動作実績データ44は、ロボットの動作の履歴データとして、あらかじめ用意されているデータである。
動作計算データ43は、動作実績データ44の欠損している時間範囲分を補完するデータである。欠損している時間範囲とは、例えば、150フレーム以降の時間帯である。計算制御部32は、動作実績データ44が存在している時間帯は動作実績データ44を割り当てるとともに、動作実績データ44が存在していない時間帯は動作計算データ43を割り当てる。ここで、計算制御部32は、動作計算データ43と動作実績データ44とをなめらかに接続するようにスムージング(平滑化)することが望ましい。
S100として、モデル選択部31は、今回のシミュレーション対象となる作業内容についての3Dモデルデータ41を入力装置10を介して、ユーザに選択させる。例えば、以下の3Dモデルデータ41が選択される。
・図2の作業場所モデル(交差点303を含む通路など)
・図5の作業対象モデル302と、作業内容(ハンドル部102を回すことで配管101の弁を開ける)
・図6のロボットモデル301。なお、選択されるロボットモデルは1つの筐体でもよいし、複数の筐体が協調して1つの作業を遂行するものでもよい。
なお、作業動作データの作成処理は、図4に示したように、ロボットモデルの初期位置と、作業対象モデルの初期位置と、作業場所モデルの3D空間(走行可能な通路と、走行不可能な壁)とを考慮し、ロボットモデルが作業場所に干渉しないように(壁に激突しないように)、関節動作データ42から基本動作データが抽出される。ロボットモデルが作業場所に干渉するか否かの判定処理は、ロボットモデルの動作範囲を考慮してロボットモデルの体積より周囲にやや広めにした体積を衝突範囲とすることが望ましい。
S500として、動作評価部33は、S400で計算された動作フレームごとの応力分布から、作業動作データの評価指標を計算する。評価指標は、例えば、以下のパラメータである。
・評価指標「最大主応力」は、ロボットモデルの姿勢の安定度(作業中に倒れないか)や、ロボットモデルの作業遂行度合い(ハンドル部をしっかり握って回しているか)などの評価に用いられる。
・評価指標「動作時間」は、作業時間が短期間で済ませられるほど高評価など、作業動作データの評価に用いられる。
これらの各評価指標を元に、今回の作業動作データの評価点が計算される。
・ロボットモデルの筐体の安定度合いが高い。例えば、各パーツの最大主応力が限界閾値を超過していないときには、作業中にロボットモデルが倒れないので、安定度合いが高いと評価できる。
・ロボットモデルのハンド部がハンドル部をしっかり握って回している(ハンド部の最大主応力が所定閾値を超過しているか)
・作業の所要時間が制限時間以内に完了する。
また、終了条件での判定処理は、評価点に対してシミュレーテッド・アニーリングを代表とする最適化手法を利用することにより、計算の高速化と効率化を図ることもできる。
S700として、動作評価部33は、例えば、評価点が高い順に3通りの作業動作データを評価結果データ45として記憶装置40に格納するとともに、表示装置20に表示する(表示画面の詳細は、図13~図15で後記)。
S410として、計算制御部32は、動作フレームごとのループ処理において、今回の計算対象のフレーム番号を指定フレームとして指定する。動作フレームとは、時刻を相対化した各時間断面における動作データである。今回のフレーム番号は、開始フレーム=0から最終フレーム=200まで、1フレームずつ順に選択される。S420以降の処理において、フレーム番号ごとの応力分布が計算される。
S420として、計算制御部32は、指定フレームについて、関節動作データ42(図9に示した中心座標データ、図10に示した回転角度データ)を関節ごとに設定する。
S440として、計算制御部32は、指定フレームについて、パーツごとの重心から、ロボットモデル(ロボットアーム)にかかる荷重を、パーツごとに設定する。なお、通常は、ハンド部(エンドエフェクタ)にかかる下向きの重力による荷重を設定する。
・パーツごとのミーゼス応力
・主応力のロボット構成部品表面上での分布
・最大主応力
S470として、計算制御部32は、S450の応力計算の結果を評価結果データ45に保存する。
表示画面は、ロボットモデルの表示欄210と、ロボットモデル表示欄210で再生中の動作フレームを指定するための再生操作欄220と、表示欄210に表示するロボットモデルの作業内容を指定するための作業指定欄230とを含む。この表示画面は、例えば、PC上の画面に表示するデスクトップ・アプリの画面である。
表示欄210には、評価結果データ45から読み出したロボットモデルの作業動作データが、アニメーションとして表示される。この表示欄210は、様々なカメラ角度から可視化されたロボットモデルが表示される。表示欄210には、ロボットモデルが映るようにカメラ視野が設定されているので、ロボットの姿勢を視覚的に確認できる。なお、表示欄210に表示されるロボットの台数は1台でもよいし、複数のアーム型ロボットを同時に表示してもよい。
なお、80フレーム目では、基本動作データ=S001(移動中)なので、ハンド部は閉じられている。また、図13の時点では、まだボタン234が押下されていないため、表示欄210には、ロボットモデルに対して評価指標(応力分布)が付されていない。
スライドバー221に表示されるように、図13の80フレーム目から、図14の170フレーム目へと時間が経過している。そして、プルダウンメニュー233に表示されるように、図13のS001(移動中)から、図14のS002(作業中)へと状態が遷移している。
これにより、表示欄210には、作業中のロボットモデルと、その作業対象モデルとが同時に表示される。
ボタン234が押下されることで(太枠の矩形)、動作評価部33による評価計算(S500)が実行される。この評価計算による評価結果データ45が、表示欄210のロボットモデルにマッピングされる。
つまり、評価結果データ45の応力分布は、最大主応力の大きさに応じたコンター図のような表示パターン(符号212)として、ロボットの構成部品の表面にマッピングされる(符号211)。この応力分布の表示により、ユーザはロボットのどこに応力が集中しているかがわかり、ロボットが転倒しないことなどを確認できる。
これにより、様々な作業対象や非定形な作業目的に対しても、作業時間を短縮でき、かつ、作業を遂行できる作業動作データを作成できる。さらに、3Dモデルデータ41を用いて事前にシミュレーションすることで、実際の作業場所でロボットを作業させる前に、ロボットの作業動作データが適切か否かを評価することができる。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
さらに、各装置を繋ぐ通信手段は、無線LANに限定せず、有線LANやその他の通信手段に変更してもよい。
20 表示装置
30 シミュレーション装置
31 モデル選択部
32 計算制御部
33 動作評価部
40 記憶装置
41 3Dモデルデータ
42 関節動作データ
43 動作計算データ
44 動作実績データ
45 評価結果データ
301 ロボットモデル
302 作業対象モデル
303 交差点(作業場所モデル)
Claims (6)
- 作業が行われる仮想空間である作業場所モデルと、前記作業場所モデル内に存在する作業対象モデルと、前記作業対象モデルに対して作業を行うロボットモデルとを選択するモデル選択部と、
前記ロボットモデルの構成要素である関節ごとに、根元側の関節を先端側の関節よりも先に時系列の作業動作データを割り当て、その作業動作データに従って動作する前記ロボットモデルと、前記作業場所モデルおよび前記作業対象モデルとの干渉に応じて発生する前記ロボットモデル内での応力分布を計算する計算制御部と、
計算された応力分布に従って、前記ロボットモデルが前記作業対象モデルに対して行う作業中の前記ロボットモデルの姿勢の安定度合いを評価指標として計算し、その評価指標が高い前記作業動作データを出力する動作評価部とを有することを特徴とする
シミュレーション装置。 - 前記動作評価部は、前記作業動作データごとの評価指標を計算するときに、姿勢の安定度合いに加えて、作業の所要時間が短いほど高評価とする評価指標を加味することを特徴とする
請求項1に記載のシミュレーション装置。 - 前記動作評価部は、評価指標が高い前記作業動作データを出力するときに、前記作業動作データに従って動作する前記ロボットモデルを、そのロボットモデル上に発生する応力分布である最大主応力の大きさに応じたコンター図として表示することを特徴とする
請求項1に記載のシミュレーション装置。 - 前記計算制御部は、事前に用意された基本動作データを組み合わせ、前記ロボットモデルが前記作業場所モデルの障害物に衝突しないように、前記ロボットモデルに割り当てる前記作業動作データを作成することを特徴とする
請求項1に記載のシミュレーション装置。 - 前記モデル選択部は、同じ前記作業場所モデルで同時に動作する複数の前記ロボットモデルを選択し、
前記動作評価部は、選択された複数の前記ロボットモデルそれぞれの前記作業動作データを出力することを特徴とする
請求項1に記載のシミュレーション装置。 - コンピュータをモデル選択部と、計算制御部と、動作評価部として機能させるためのシミュレーションプログラムであって、
前記モデル選択部は、作業が行われる仮想空間である作業場所モデルと、前記作業場所モデル内に存在する作業対象モデルと、前記作業対象モデルに対して作業を行うロボットモデルとを選択し、
前記計算制御部は、前記ロボットモデルの構成要素である関節ごとに、根元側の関節を先端側の関節よりも先に時系列の作業動作データを割り当て、その作業動作データに従って動作する前記ロボットモデルと、前記作業場所モデルおよび前記作業対象モデルとの干渉に応じて発生する前記ロボットモデル内での応力分布を計算し、
前記動作評価部は、計算された応力分布に従って、前記ロボットモデルが前記作業対象モデルに対して行う作業中の前記ロボットモデルの姿勢の安定度合いを評価指標として計算し、その評価指標が高い前記作業動作データを出力することを特徴とする
シミュレーションプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019090807A JP7223630B2 (ja) | 2019-05-13 | 2019-05-13 | シミュレーション装置、および、シミュレーションプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019090807A JP7223630B2 (ja) | 2019-05-13 | 2019-05-13 | シミュレーション装置、および、シミュレーションプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020185631A JP2020185631A (ja) | 2020-11-19 |
JP7223630B2 true JP7223630B2 (ja) | 2023-02-16 |
Family
ID=73220759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019090807A Active JP7223630B2 (ja) | 2019-05-13 | 2019-05-13 | シミュレーション装置、および、シミュレーションプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7223630B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004082313A (ja) | 2002-08-29 | 2004-03-18 | Nachi Fujikoshi Corp | ロボットの動作シミュレーションモデルの作成装置 |
JP2006003263A (ja) | 2004-06-18 | 2006-01-05 | Hitachi Ltd | 視覚情報処理装置および適用システム |
JP2009125920A (ja) | 2007-11-28 | 2009-06-11 | Mitsubishi Electric Corp | ロボットの作業動作最適化装置 |
JP2009274148A (ja) | 2008-05-12 | 2009-11-26 | Kanto Auto Works Ltd | シミュレーション装置 |
JP2010137298A (ja) | 2008-12-09 | 2010-06-24 | Yaskawa Electric Corp | 複腕ロボットの作業プログラム作成方法 |
JP2018008347A (ja) | 2016-07-13 | 2018-01-18 | 東芝機械株式会社 | ロボットシステムおよび動作領域表示方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2539147B2 (ja) * | 1992-11-17 | 1996-10-02 | 三菱重工業株式会社 | 主応力表示装置 |
-
2019
- 2019-05-13 JP JP2019090807A patent/JP7223630B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004082313A (ja) | 2002-08-29 | 2004-03-18 | Nachi Fujikoshi Corp | ロボットの動作シミュレーションモデルの作成装置 |
JP2006003263A (ja) | 2004-06-18 | 2006-01-05 | Hitachi Ltd | 視覚情報処理装置および適用システム |
JP2009125920A (ja) | 2007-11-28 | 2009-06-11 | Mitsubishi Electric Corp | ロボットの作業動作最適化装置 |
JP2009274148A (ja) | 2008-05-12 | 2009-11-26 | Kanto Auto Works Ltd | シミュレーション装置 |
JP2010137298A (ja) | 2008-12-09 | 2010-06-24 | Yaskawa Electric Corp | 複腕ロボットの作業プログラム作成方法 |
JP2018008347A (ja) | 2016-07-13 | 2018-01-18 | 東芝機械株式会社 | ロボットシステムおよび動作領域表示方法 |
Non-Patent Citations (1)
Title |
---|
Mustafa Bugday,Mehmet Karali,Design optimization of industrial robot arm to minimize reduntant weight,Engineering science and technology,an international journal,TR,Karabuk university,2018年11月,Vol22,P346-352 |
Also Published As
Publication number | Publication date |
---|---|
JP2020185631A (ja) | 2020-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6879464B2 (ja) | 干渉判定方法、干渉判定システム及びコンピュータプログラム | |
JP7414919B2 (ja) | シミュレータ装置及びシミュレーション方法 | |
Zha | Optimal pose trajectory planning for robot manipulators | |
US20180036882A1 (en) | Layout setting method and layout setting apparatus | |
Wolfartsberger et al. | A virtual reality supported 3D environment for engineering design review | |
US7191104B2 (en) | Method of real-time collision detection between solid geometric models | |
JP7344977B2 (ja) | 機械学習データ生成装置、機械学習装置、機械学習データ生成方法及びコンピュータプログラム | |
US9135392B2 (en) | Semi-autonomous digital human posturing | |
JP7528028B2 (ja) | 情報処理装置、情報処理方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体 | |
Arnay et al. | Teaching kinematics with interactive schematics and 3D models | |
Dai et al. | Virtual prototyping: An approach using VR-techniques | |
JP7511259B2 (ja) | モーション計画グラフ生成ユーザインターフェース、システム、方法、および物品 | |
Maurice et al. | Digital human modeling for collaborative robotics | |
US6798416B2 (en) | Generating animation data using multiple interpolation procedures | |
JP7223630B2 (ja) | シミュレーション装置、および、シミュレーションプログラム | |
JP2021119452A (ja) | 3dモデリングにおける没入型ジェスチャを用いた頂点の選択 | |
US20220281103A1 (en) | Information processing apparatus, robot system, method of manufacturing products, information processing method, and recording medium | |
US20220410395A1 (en) | Information processing apparatus, information processing method, display device, display method, robot system, article manufacturing method, and recording medium | |
Amar et al. | Trajectory reconstruction for robot programming by demonstration | |
JP7493926B2 (ja) | 制御方法、制御装置、ロボットシステム、物品の製造方法、動作プログラム作成方法、動作プログラム作成装置、表示装置、表示装置の制御方法、プログラムおよび記録媒体 | |
JP7374723B2 (ja) | 情報処理方法、情報処理装置、およびロボットシステム | |
Drews et al. | A system for digital mock-up's and virtual prototype design in industry:'the Virtual Workbench' | |
Bayazit | Solving motion planning problems by iterative relaxation of constraints | |
Rodríguez Hoyos et al. | Virtual reality interface for assist in programming of tasks of a robotic manipulator | |
Sun et al. | Direct virtual-hand interface in robot assembly programming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7223630 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |