JP2010211726A - シミュレーション方法 - Google Patents

シミュレーション方法 Download PDF

Info

Publication number
JP2010211726A
JP2010211726A JP2009059678A JP2009059678A JP2010211726A JP 2010211726 A JP2010211726 A JP 2010211726A JP 2009059678 A JP2009059678 A JP 2009059678A JP 2009059678 A JP2009059678 A JP 2009059678A JP 2010211726 A JP2010211726 A JP 2010211726A
Authority
JP
Japan
Prior art keywords
robot
worker
simulation
work
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009059678A
Other languages
English (en)
Other versions
JP5502348B2 (ja
Inventor
Akira Nihei
亮 二瓶
Shinsuke Sakakibara
伸介 榊原
Kazukuni Ban
一訓 伴
Masahiro Morioka
昌宏 森岡
Satoshi Adachi
悟志 足立
Shota Takizawa
象太 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2009059678A priority Critical patent/JP5502348B2/ja
Publication of JP2010211726A publication Critical patent/JP2010211726A/ja
Application granted granted Critical
Publication of JP5502348B2 publication Critical patent/JP5502348B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

【課題】人間とロボットとの協調作業による生産システムの立上げ時間を短縮する。
【解決手段】作業者(4)とロボット(5)とが協調して行う生産作業のシミュレーションを行うシミュレーション方法は、作業者の各身体部位の可動範囲と動作速度とを含む動作特性を指定する指定工程と、作業者の配置可能な位置とロボットの配置可能な位置との組合せ毎に、動作シミュレーションにより作業者とロボットとの協調による生産作業の所要時間を算出して、算出された所要時間から所要時間が最も短い作業者の位置とロボットの位置との組合せを決定する決定工程と、を含む。
【選択図】図2

Description

本発明は、作業者とロボットとが協調して行う生産作業のシミュレーションを行うシミュレーション方法に関する。
電子機器等に代表される複雑部品の組立を行う生産システムにおいては、細かな部品同士の嵌合いやケーブルの組付け等、類似する多種又は多数の部品を使用した難易度の高い作業を伴うことが多い。そのような生産システムにおいては、その生産性を向上させつつランニングコストを低減するための手法としてロボットによる自動化生産が広範に行われている。近年、ロボットの性能は視覚センサや力センサ等の使用によって以前より高度に知能化されつつあるものの、その進歩は未だ途上の段階である。従って、複雑部品の組立や加工など難易度の高い生産作業を伴う生産現場では、今なお人間による作業が多く行われている。
しかしながら、人件費が高い工業先進国においては、人間とロボットとの協調作業による生産システムを構築することで、従来の人間のみでの生産作業よりも生産性を向上させつつ、ランニングコストを低減させることが望まれる。具体的には、部品集約や人間への部品供給など比較的難易度の低い作業をロボット化すると共に難易度の高い作業を人間が行うことによって、ランニングコストを低減することができる。
さらに、人間が生産作業で使用する部品をロボットが作業工程の順番通りに供給したり、ロボットが部品固定の治具を兼務するなどのロボットによる作業支援を行うことにより、人間だけの生産作業よりもその作業信頼性や生産性を向上させることもできる。このような利点のために、今後は、人間とロボットの協調作業による生産システムが各種生産現場において拡張していくことが期待されている。
一方、今般の市場要求の多様化に伴う多品種少量生産型時代においては、新規生産システムの立上げや既存生産システムへの生産機種の追加などを迅速に行うことが求められている。同様に、ロボットを使用した生産システムにおいてもその立上げ時間の短縮が要求されている。このような要求に対して、近年では、ロボットおよび周辺機器の配置やロボットの動作プログラムをオフラインシミュレーションにより事前に検討することにより、実際のシステムの設置・立上げでの試行錯誤を可能な限り排除する手法が一般的に実施されている。
例えば、特許文献1では、サイクルタイム、デューティ、1サイクル当たりの消費電力などのロボット動作の評価指標を最適とするロボット配置を算出するシミュレーション装置が開示されている。このオフラインシミュレーションの活用はロボットを使用した生産システムの立上げにおいて重要な役割を果たしている。
人間とロボットとの協調作業による生産システムにおいても、ロボットを人間に対してどのように配置し、ロボットがどのような動作を行うことによって効果的な作業支援できるか、延いては作業者とロボットの協調作業による生産作業の所要時間を最短できるかをオフラインシミュレーションにより事前検討することは、生産システムの立上げ時間を短縮する上で重要である。
特許第3797986号
特許文献1においては、ロボットのサイクルタイムなどの評価指標を最適化するロボット配置の算出をすることができる。しかしながら、特許文献1に開示される装置はロボットのみの動作シミュレーションを行うものであり、人間とロボットとの協調作業による生産システムを構築するためのシミュレーションを行うものではない。
また、計算演算機器などを利用して、仮想空間内に人間の三次元モデルを構築した上で、人間の動作をモーションキャプチャなどで認識し、構築した人間の三次元モデルを実際の人間の動作通りに再現動作させ、人間の特徴動作を抽出したり技能の解析を行うなどの研究開発は多数行われている。さらに、人間の組立作業について、人間と作業環境を三次元モデル化し、仮想空間内で組立作業をシミュレーションする手法もこれまで提案されている。
しかしながら、仮想空間内に人間の三次元モデルとロボットの三次元モデルとを両存するようにして配置すると共に、その両者の協調作業を実際の人間やロボットの動作速度を再現するようにしてシミュレーションする手法は提案されていない。そのため、人間とロボットとの協調作業による生産システムを構築するにあたってのオフラインシミュレーションにおいて、特に人間との協調作業を効率的に行うためのロボット配置やロボット動作計画を算出する際には、人間が生産システム内に設置される周辺機器などと同様に完全に固定された三次元モデルであるか、または限定された単純動作のみが可能な三次元モデルとして配置されるに留まっていた。そして、オフラインシミュレーションにおいては、実際のロボットと同様の動作性能にて再現動作可能なロボットの三次元モデルのみを仮想空間内にて動作させ、ロボットの最適配置や動作プログラムを検討していた。
この方法においては、オフラインシシミュレーションにより得られたロボットの配置場所や動作プログラムは人間の動作を考慮して適正化されたものではない。従って、人間とロボットとの協調作業による生産システムの生産性を向上するためには、実際の生産システムを立上げた後に人間とロボットとの協調による生産作業を何度も繰返し実施し、試行錯誤によってロボットの配置場所や動作プログラムを最適化する必要がある。このため、生産システムの立上げに多大な時間を要するという問題があった。
本発明はこのような事情に鑑みてなされたものであり、人間とロボットとの協調作業による生産システムの立上げ時間を短縮することのできるシミュレーション方法を提供することを目的とする。
前述した目的を達成するために1番目の発明によれば、作業者とロボットとが協調して行う生産作業のシミュレーションを行うシミュレーション方法において、前記作業者の各身体部位の可動範囲と動作速度とを含む動作特性を指定する指定工程と、前記作業者の配置可能な位置と前記ロボットの配置可能な位置との組合せ毎に、動作シミュレーションにより前記作業者と前記ロボットとの協調による生産作業の所要時間を算出して、算出された所要時間から所要時間が最も短い前記作業者の位置と前記ロボットの位置との組合せを決定する決定工程と、を含むシミュレーション方法が提供される。
2番目の発明によれば、1番目の発明において、前記決定工程は、前記作業者と前記ロボットとの夫々の作業点列に基づいて前記作業者の基部と前記ロボットの基部とが配置可能な離散的な位置の集合を仮想空間内に夫々求め、所定のルールに基づいて前記位置の集合の夫々から1要素ずつ選択し、前記位置の集合の全てを網羅するように、動作シミュレーションを実施して所要時間を算出し、算出された所要時間から所要時間が最も短い前記作業者の基部の位置と前記ロボットの基部の位置の組合せを決定する。
3番目の発明によれば、1番目または2番目の発明において、さらに、前記決定工程において決定された前記作業者の位置と前記ロボットの位置との組合せに基づいて、前記作業者の三次元モデルと前記ロボットの三次元モデルとを仮想空間に配置して画面上に表示することを含む。
4番目の発明によれば、1番目または2番目の発明において、さらに、前記決定工程において決定された前記作業者の位置と前記ロボットの位置との組合せにおいて、前記作業者の所定の複数の動作位置に対して前記作業者の複数の手先姿勢項候補を設定すると共に、前記ロボットの前記所定の複数の動作位置に対して前記ロボットの複数の手先指定候補を設定し、設定された前記作業者および前記ロボットの全ての手先姿勢候補の組合せが網羅されるように、動作シミュレーションにより前記作業者と前記ロボットとの協調による生産作業の所要時間を前記手先姿勢候補の組合せ毎に算出し、算出された所要時間から所要時間が最も短い前記作業者と前記ロボットとの手先姿勢候補の組合せを決定することを含む。
5番目の発明によれば、1番目から4番目のいずれかの発明において、前記ロボットの動作シミュレーションは、実際のロボットと同様の制御アルゴリズムにて再生動作される。
6番目の発明によれば、1番目から5番目のいずれかの発明において、前記作業者の各身体部位の可動範囲と動作速度とを含む動作特性は、前記作業者を実測することにより特定される。
1番目の発明においては、作業者の三次元モデルによって実際の作業者の可動範囲や動作速度を含む動作特性と同様の動作特性を再現できる。従って、作業者の動作特性も考慮しつつ生産作業の所要時間を最短化するための作業者とロボットとの配置位置を算出することが可能となる。その結果、従来よりも大幅に精度の高いシミュレーションが可能となる。そして、作業者とロボットとの協調作業による生産システムの立上げ時には、シミュレーションにて算出された配置位置にロボットを設置すると共に、シミュレーションにて得られたロボットの動作計画、つまりは動作プログラムを一通り再生して動作確認する。このとき、必要に応じて、シミュレーションと実際の生産システムとの間でのロボット設置位置誤差などに起因するロボットの動作修正を実施するのみにできるので、従来よりも生産システムの立上げ時間を大幅に短縮することができる。
2番目の発明においては、作業者とロボットの配置位置の全組合せのシミュレーションを計算演算機器にて自動的に実施することにより、人為的な漏れのない高精度のシミュレーションを実行することができる。
3番目の発明においては、シミュレーション結果を視覚的に確認することができ、実際の生産システムの立上げをスムーズに実施することができる。また、シミュレーションの途中経過の画面表示を省き、最終的な最適配置のみを画面上に表示するようにすることで、計算演算機器におけるシミュレーションの処理速度が向上し、さらに短時間でシミュレーション結果を得ることができる。
4番目の発明においては、最短作業時間を実現するための作業姿勢(手先指定)まで算出することができ、更に精度の高いシミュレーションが可能となる。
5番目の発明においては、動作シミュレーションでのロボットが実際のロボットと同様の制御アルゴリズムにて再生動作される。このため、シミュレーションにより得られたロボットの動作計画・動作プログラムを実際のロボットにそのまま適用することが可能となる。さらに、シミュレーションデータを加工する必要がないため、実際の生産システムの立上げを短時間で行うことができる。
6番目の発明においては、作業者の可動範囲や動作速度を含む動作特性を実際の作業者を実測して特定することにより、より現実の生産作業に近い精度の高いシミュレーションが可能となる。また、個々の作業者の身体部位を測定するようにすれば、作業者毎に適したロボット配置と動作計画が算出できるため、個々の作業者の体格や生産作業速度に合わせた生産システムを構築することができる。
本発明のシミュレーション方法が実施される生産システムの三次元モデルが表示された表示部の図である。 本発明のシミュレーション方法のブロック図を示す図である。 図2に示されるステップ1を詳細に示す図である。 図2に示されるステップ2の他の形態を示す図である。 (a)作業者とロボットとの協調動作による生産システムにおける組立生産作業を示す第一の図である。(b)作業者とロボットとの協調動作による生産システムにおける組立生産作業を示す第二の図である。(c)作業者とロボットとの協調動作による生産システムにおける組立生産作業を示す第三の図である。
以下、添付図面を参照して本発明の実施形態を説明する。以下の図面において同様の部材には同様の参照符号が付けられている。理解を容易にするために、これら図面は縮尺を適宜変更している。
図1は、本発明のシミュレーション方法が実施される生産システムの三次元モデルが表示された表示部の図である。図1においては、本発明のシミュレーション方法を実施する計算演算機器31、例えばパーソナルコンピュータと、各種データの入力、指定、選択などを行う入力手段32、例えばマウスやキーボードと、生産システムの三次元モデルを含む仮想空間を表示する表示部33とを主に含んでいる。
図1の表示部33に表示される生産システムの三次元モデルは、生産作業を中心的に実施する作業者4と、作業者4の生産作業を支援するロボット5を主に含んでいる。ロボット5は、例えば六軸ないしは七軸の垂直多関節型ロボットであるが、そのような垂直多関節型ロボットに限定されない。
ロボット5は、例えば作業者4が生産作業で使用する部品を作業工程の順番通りに作業者4に供給したり、部品を固定するための治具としての役目を果たす。あるいは、ロボット5が中心的に生産作業を行い、作業者4が部品をロボット5に供給するなどの支援作業を行ってもよい。
さらに、表示部33に表示される三次元モデルは、作業者が生産作業を行うための周辺機器、例えば作業者4とロボット5との間に配置される作業台6を含んでいる。図1においては、ロボット5が作業者4に供給する部品81、82‥が収納された部品収納部91が作業台6上に設けられている。さらに、作業者4が部品81、82‥に組付ける組付け部品101、102‥が収納された部品収納部92が作業台6上に設けられている。なお、シミュレーションの際には、三次元モデル内に、周辺機器や治具や工具さらにはワークも追加配置しても良い。
図1に示される生産システムの例においては、ロボット5が組立作業の要所にて部品収納部91から部品81を取出して作業者4に差出す。そして、作業者4は、ロボット5が把持した部品81に対して別の部品101を組付ける。言い換えれば、ロボット5は部品供給部と部品の固定治具としての二つの役目を果たす。図1には、作業者とロボットとの協調作業を行う効果的な生産システムの例が示されている。
本発明においては、このような生産システムの立上げを効率的に行うために計算演算機器31がオフラインにてシミュレーションを実施する。そして、計算演算機器31は、生産システムの立上げ前段階で、作業者4とロボット5の配置関係やそれぞれの動作計画を算出する。
シミュレーションを実施する際には、計算演算機器31において、シミュレーションを行うための仮想空間を設定して表示部33に表示する。そして、図1に示されるように、仮想空間内に作業者4の三次元モデルとロボット5の三次元モデル、および必要に応じて周辺機器の三次元モデルを配置する。ここで、作業者4の三次元モデルについては、リンクと回転関節との組合せとして構築する。特に、作業者4の腕部については六軸ないしは七軸の垂直多関節型ロボットと同様の構造として構築するのが好ましい。これにより、実際の作業者の動作を容易に再現可能となる。ただし、他の方式にて作業者4の三次元モデルを構築してもよい。
図2は本発明のシミュレーション方法のブロック図を示す図である。図2のステップ1においては、実際に生産作業を実施する作業者4の可動範囲と動作速度を含む動作特性を指定する。このとき、入力手段32を用いて動作特性を入力してもよく、あるいは予め設定された複数の動作特性のうちの一つを指定してもよい。
ここで、図3は図2に示されるステップ1を詳細に示す図である。図3に示されるように、ステップ1は、作業者の各身体部位の可動範囲と動作速度とを含む動作特性を実測して計算演算機器31の記憶部(図示しない)に保存するステップ1aと、保存された動作特性を仮想空間に対して指定するステップ1bとを含んでもよい。
具体的には、図3のステップ1aにおいては、作業者4の胴体部や腕の長さなどの各身体部位の寸法、ならびに生産作業を実施する際に頻繁に動作させる腕や胴体などの可動範囲およびそれらの動作速度を実際に測定する。
作業者4の各身体部位の寸法については、平均的な体格の作業者4を抽出し、この作業者4の各身体部位の詳細寸法を作業者4全体の平均値として実測する。そして、この作業者4の三次元モデルの胴体や腕などを各リンク長として決定することにより、作業者4の三次元モデルを高精度で構築することができる。また、各身体部位の寸法の実測時には、測長機器を用いて作業者4を直接的に測定してもよい。あるいは、カメラで作業者4を撮像し、撮像された画像から作業者4の各身体部位の寸法を算出してもよい。
作業者4の各身体部位の可動範囲および動作速度についても同様に、平均的な体格の作業者4の可動範囲および動作速度を実測するのが好ましく、それにより、より高精度のシミュレーションが可能となる。
可動範囲および動作速度の実測時には、はじめに作業者4の動作の基本となる基本動作パターンを定める。そして、作業者4がこれら基本動作パターン通りに動作した際の各身体部位の移動前後の位置および移動の所要時間から可動範囲および動作速度を求めることができる。
あるいは、生産システム内に設置した非接触式の動作測定機器にて作業者4の動作の様子を測定することにより、可動範囲および動作速度を算出してもよい。非接触式の動作測定機器としてカメラを使用する場合には、作業者4の胴体や腕など各身体部位の動作をカメラにて撮影し、撮影画像を解析する。これにより、作業者4の各身体部位の可動範囲やその動作速度を算出することができる。
その他の非接触式の動作測定機器としては、光追尾式のレーザセンサを用いてもよい。この場合には、作業者4の各身体部位の要所に被測定物を装着し、レーザセンサにて、作業者4の動作に伴う被測定物の移動を追尾するようにして測定を行う。
なお、必ずしも実測により作業者の動作特性を特定する必要はなく、例えば作業者の各身体部位の可動範囲と動作速度とを含む動作特性を机上にて検討し、この動作特性を入力手段32で単に指定するようにしてもよい。
次いで、図3のステップ1bにおいて、作業者4の動作特性を仮想空間に対して指定する。ステップ1aにおいて決定された作業者の動作特性は、仮想空間内における作業者4の三次元モデルのリンク長や各リンクの可動範囲、動作速度等の各種パラメータである。決定された作業者の動作特性を仮想空間3に対して指定することで、作業者4の三次元モデルの各種パラメータが設定される。
ここで、平均的な体格の作業者を抽出して動作特性を特定する手法だけではなく、複数の作業者毎に各身体部位の動作特性を特定してもよい。このような場合には、作業者4に応じて異なる動作特性を使用する。従って、各作業者4の体格に依存する各身体部位の可動範囲や動作速度を含む動作特性に適合した、より精度の高いシミュレーションを行うことが可能となる。それゆえ、個々の作業者4の生産作業能力に適合した最適な生産システムを構築することが可能となる。
作業者の動作特性が指定されると、図1を参照して説明したように、表示部33の仮想空間内に作業者4、ロボット5および作業台6などの三次元モデルを構築する。ここで、図1の表示部33に表示された生産システムの三次元モデルの動作について簡単に説明する。
図5(a)から図5(c)は、作業者とロボットとの協調動作による生産システムにおける組立生産作業を示す図である。これら図面に示されるように、ロボット5は手先部分により部品収納部91から製品のベースとなる部品81を取出す(図5(a))。そして、ロボット5は部品81を作業者4の前方位置まで移動させて、その位置で停止させる(図5(b))。部品81はロボット5の手先部分に把持されたままであるので、部品81は作業者4の前方位置で固定された状態になる。これにより、部品81の一つの面が作業者4に対面するものとする。
次いで、図5(c)に示されるように、作業者4は別の部品収納部92に収納された組付け部品101を取出す。部品81はロボット5によって固定状態にあるので、作業者4は、組付け部品101を部品81の一つの面に組付ける。
次いで、ロボット5は、作業内容に応じて、部品81の他の面が作業者4に対面するように部品81の向きを変更する。そして、作業者4は部品収納部92から取出した別の組付け部品102を部品81の他の面に組付ける。このようにして、組立作業が順次進められる。
全ての組付け部品101、102‥を部品81に組付けると、ロボット5は部品81を作業台6の所定の場所に載置する。その後、ロボット5は部品収納部91から他の部品82を取出して、作業者4と共に前述した動作を繰返すものとする。
再び図2を参照すると、ステップ2のうちのステップ2aにおいて、作業者4とロボット5との配置位置を決定するために両者が配置可能な位置の組合せ集合を決定する。ステップ2aにおいては、作業者4、ロボット5および作業台6等の寸法に基づいて、操作者がそのような位置の組合せ決定し、入力手段32を用いて入力する。あるいは、予め定められた作業者4とロボット5との配置可能な位置の組合せ集合から一つの組合せを選択してもよい。
ここで、図4は図2に示されるステップ2の他の形態を示す図であり、図2のステップ2aの代わりに、図4のステップ21a、21bを採用してもよい。この場合には、はじめに、図4にのステップ21aにおいて、作業者4とロボット5とのそれぞれが作業を行う位置・姿勢を定めて作業工程順に並べられた作業点列を作成する。
具体的には、ロボット5が作業者4に対して差出す部品81、82‥の位置(部品81、82‥がロボット5によって固定状態になる位置)を、作業者4が作業台6上で部品の組立を行う際に作業性が最も良い場所として決定する。このとき、組付け部品101、102‥が組付けられる部品81、82‥の面を上面または横面になるように、ロボット5の動作姿勢を予め決定しておく。このようにして、生産作業の各工程において作業者4とロボット5とのそれぞれが作業を行う位置・姿勢を定める。そして、それら位置・姿勢を作業工程順に並べることにより作業点列を作成する。
次いで、作成された作業点列に対して、作業者4とロボット5とが配置可能な位置を決定する。作業者4については、作業者4の基部、例えば作業者4自身の足元または作業椅子などが作業空間における床面などに接触するよう配置される。そして、ロボット5については、ロボット5の基部、例えば設置ベースなどが作業空間における床面などに接触するよう配置される。しかしながら、作業者4が組立作業を行う手先部分およびロボット5が部品を把持するロボット先端の手先部分を予め定めた作業点列にそれぞれ到達させる必要がある。従って、作業空間内において作業者4とロボット5とのそれぞれの基部が配置可能なそれぞれの領域は限定される。
ここで、作業者4とロボット5との協調作業による組立生産作業の所要時間を最短にするためには、作業者4とロボット5とのそれぞれの基部をこれら基部が配置可能なそれぞれの領域の全ての場所に配置するシミュレーションを行って、作業者4およびロボット5の最適な配置位置を探索する必要がある。
このことを実施するために、作業者4とロボット5とのそれぞれの基部が配置可能なそれぞれの領域をメッシュ状に分割する。そして、メッシュの格子点の集合を離散的な位置集合として設定し、この位置集合が網羅されるように作業者4とロボット5とを配置可能な位置の組合せを定義する(ステップ21b)。なお、メッシュの寸法は、シミュレーションを行う計算演算機器31の処理能力および実際のロボット5の設置位置の誤差などに応じて適宜変更される。
再び図2を参照すると、ステップ2bにおいて、定義した作業者4とロボット5との配置可能位置の組合せから、実際に両者が配置される一要素を選択する。この選択については、例えば入力手段32にて一要素を指定して選択するようにしてもよく、あるいは入力手段32を使用することなしに、計算演算機器31にて自動的に選択するようにしてもよい。そして、選択された一要素の位置の組合せにそれぞれ配置された作業者4とロボット5との両方の動作計画を作成して動作シミュレーションを実施する。次いで、ステップ2cにおいては、動作シミュレーションの結果として、組立生産作業の所要時間を算出する。
図4を参照して、図2のステップ2b、2cについて具体的に説明する。はじめに、図4のステップ21cにおいて、所定のルールに基づいて、作業者4とロボット5とが配置された離散的な位置集合から1要素を選択する。この選択についても、例えば入力手段32にて一要素を指定して選択するようにしてもよく、あるいは入力手段32を使用することなしに計算演算機器31にて自動的に選択するようにしてもよい。そして、選択された1要素の位置の組合せのそれぞれに作業者4とロボット5とを配置する。所定のルールは、例えば配置可能領域において作業台6からの作業者4およびロボット5の距離が長い順である。このような所定のルールに従うことによって、或る位置集合が人為的に漏れることなしに、全ての位置集合について確実に動作シミュレーションを実施することができる。
次いで、1要素に配置された作業者4とロボット5とそれぞれの手先部が事前に定めた作業点列の位置・姿勢となるようにそれぞれの動作計画を作成する。次いで、ステップ21dにて、動作シミュレーションを実施し、組立生産作業の所要時間を算出する(ステップ21e)。
その後、図2のステップ2d(または図4のステップ21f)において、位置集合の組合せ全てを検証したか否かを判定する。そして、全ての組合せについての所要時間が算出されていない場合には、図2のステップ2b(または図4のステップ21c)まで戻り、全ての組合せについての所要時間が算出されるまで処理を繰返す。この繰返し処理においては、図2のステップ2b(または図4のステップ21c)にて、作業者4とロボット5との配置可能位置の組合せから実際に両者が配置される一要素を選択する際に、所定のルールに基づいて計算演算機器31にて次の要素を自動的に選択するようにしておくと、全ての位置集合について漏れなく確実に動作シミュレーションを実施することができる。
そして、全ての組合せについての所要時間が算出されると、図2のステップ2eにおいて、所要時間が最短である作業者4およびロボット5の位置の組合せを決定する。または、図4のステップ21gにおいて、作業者4およびロボット5の基部についてのそのような位置の組合せが決定される。なお、最短所要時間を実現するロボットの配置位置は、ロボットの総移動距離が概ね最短となる配置関係として導出されるため、ロボットの総移動距離が最短となる配置関係を探索するようにしても良い。
前述した動作シミュレーションは計算演算機器31により実行される。動作シミュレーション時には、表示部33において、作業者4およびロボット5の三次元モデルをステップ2eまたはステップ21gにて算出された最適位置に表示するのが好ましい。この場合には、計算演算機器31内に仮想空間を構築し、この仮想空間内に作業者4とロボット5および必要に応じて設置する作業台6などの周辺機器などを含む生産システムの三次元モデルを生成する。そして、算出された最適位置に対応するように作業者4およびロボット5の三次元モデルを表示部33上に表示する。これにより、シミュレーション結果を視覚的に確認することができ、実際の生産システムの立上げをスムーズに実施することができる。
本発明のシミュレーション方法では作業者4とロボット5の配置可能な位置集合の組合せ全てを網羅するようにシミュレーションを実施しているので、シミュレーション毎に結果を表示すると、シミュレーションの計算時間および表示時間は膨大になる。このため、途中結果を表示部33に表示することなしに、算出された最適配置のみを表示するのが望ましい。これにより、動作シミュレーションに要する時間を短縮できる。
前述した動作シミュレーションにおいては、作業者4とロボット5との作業点列の各点について、位置と姿勢との両方を予め一意的に定めていた。しかしながら、同一の作業位置で作業する場合であっても作業姿勢が異なる場合には、ロボット5の作業の所要時間および組立生産作業の作業性が変わるので、組立生産作業の所要時間に影響を及ぼす。つまり、図5(c)から分かるように、ロボット5が部品81を作業者4に差出す場所が同じであっても、ロボット5の動作の所要時間は、ロボット5の手先姿勢、つまり差出された部品81の姿勢に応じて変化する。
従って、はじめに、作業者4およびロボット5の位置および姿勢が指定された作業点列に基づいて動作シミュレーションを行い、その動作シミュレーションにより得られた最適配置において、作業点列の作業姿勢、つまり作業者4およびロボット5の作業点列におけるそれぞれの手先姿勢を種々変化させて動作シミュレーションを再度行うことも可能である。
図4のステップ22aにおいて、作業点列のうちの所定の複数の動作位置に対して複数の手先姿勢候補を設定している。具体的には、ステップ22aにおいては、部品81の差出し位置におけるロボット5の手先姿勢を複数候補設定すると共に、次に差出される部品82(図示しない)以降についても同様に、複数の手先姿勢候補を設定する。作業者4についても同様に複数の手先指摘候補を設定する。
次いで、複数の動作位置における複数の手先姿勢候補から、はじめに一組の手先姿勢候補の組合せを選ぶ。そして、この手先姿勢の組合せにおいて、動作シミュレーションを実行して組立生産作業の所要時間を算出する(ステップ22bおよびステップ22c)。
次いで、ステップ22dにおいて、設定された手先姿勢候補全てを検証したか否かを判定する。そして、全ての手先姿勢候補についての所要時間が算出されていない場合には、図4のステップ22aまで戻り、全ての手先姿勢候補についての所要時間が算出されるまで処理を繰返す。
そして、全ての手先姿勢候補についての所要時間が算出されると、ステップ22eにおいて、所要時間が最短となる作業者4およびロボット5の手先姿勢候補の組合せを決定する。決定された作業者4とロボット5の手先姿勢候補の組合せを作業者4とロボット5の複数の動作位置における夫々の手先姿勢として、作業者4およびロボット5の両方の動作計画を作成する。このように生産作業の所要時間が最短となる手先姿勢の組合せを決定することによって、さらに高精度のシミュレーションを行うことが可能となる。
このように本発明においては、作業者4の三次元モデルによって実際の作業者の可動範囲や動作速度を含む動作特性と同様の動作特性を再現できる。従って、作業者4の動作特性も考慮しつつ生産作業の所要時間を最短化するための作業者4とロボット5との配置位置を算出することが可能となる。その結果、従来よりも大幅に精度の高いシミュレーションが可能となる。そして、作業者4とロボット5との協調作業による生産システムの立上げ時には、シミュレーションにて算出された配置位置にロボット5を設置すると共に、シミュレーションにて得られたロボットの動作計画、つまりは動作プログラムを一通り再生して動作確認する。このとき、必要に応じて、シミュレーションと実際の生産システムとの間でのロボット設置位置誤差などに起因するロボット5の動作修正を実施するのみにできるので、従来よりも生産システムの立上げ時間を大幅に短縮することができる。
ところで、作業者4の手先姿勢を含めた作業姿勢に応じて、作業者4の腕など身体部位の動作速度は異なる。このため、作業者4の作業姿勢に応じて腕など身体部位の動かしやすさが異なり、その結果、作業姿勢に応じて組立作業の作業性も異なる。従って、動作シミュレーションにおいては、作業者4の身体部位の姿勢によって動作特性が異なるように動作特性を指定するのが好ましい。そのような動作特性に基づいて、図4のステップ21dおよびステップ22bの動作シミュレーションを実施することにより、現実により近い動作が考慮された、さらに高精度のシミュレーション結果を得ることが可能である。
前述した実施形態においては、作業者4とロボット5との作業位置を予め定め、各作業位置における作業者4およびロボット5の両方の手先姿勢(作業姿勢)の候補を複数設定して、動作シミュレーションを実施している。ただし、作業者4とロボット5との作業位置を予め設定することなしに、所定の条件を満たす最適な作業位置・姿勢を同時に探索してシミュレーションを実施してもよい。
例えば、作業者4は組立作業を行う際に、作業台6上に載置された作業指示書(図示しない)を確認しつつ作業を進めることが多い。このため、ロボット5の動作時にロボット5のアーム部分が作業者4と作業指示書(図示しない)の間に介入しないようにするのが望ましい。
さらに、作業者4には、部品101等を部品収納部92から取出したり、組立作業時に使用する工具類を準備するなどの段取り作業がある。このような段取り作業を行うときにも、作業者4の段取り作業が妨げられないようにロボット5を配置して、その動作を計画することも生産作業の作業性を向上させる上で重要である。
言い換えれば、作業者4が行う作業全体に対して、ロボット5が作業者の作業を妨げないように設定し、組立生産作業の所要時間が最短化される作業者4とロボット5の作業位置・姿勢ならびに両者の配置位置を探索するのが望まれる。これにより、最適なシミュレーションを行うことが可能となる。
また、前述した実施形態においては、作業者4とロボット5とが協調する生産作業として、製品の組立生産作業について説明したが、本発明のシミュレーション方法が適用される生産作業はこのような組立生産作業に限定されない。例えば、ロボット5が作業者4に差出した部品を作業者4がバリ取りなどの仕上加工、または塗装作業を行うようにしてもよい。このような生産作業であっても、本発明のシミュレーション方法を適用でき、それにより、生産システムを効率的に短時間で立上げることができる。
さらに、動作シミュレーション時に、三次元モデルのロボット5を実際のロボットと同様の制御アルゴリズムに基づいて再生動作するのが望ましい。これにより、さらに高精度なシミュレーションが可能である。ここで、実際のロボットは、本体部分を構成するリンクと、リンク同士を連結する回転関節部および直動関節部と、リンクを動作させるためのサーボモータ等とから構成されている。そして、実際のロボットに接続された制御装置(図示しない)からの指令に従って、サーボモータが駆動制御される。
三次元モデルのロボット5の軸構成などの形態、各リンクの長さなどが実際のロボットと同様に構築されており、ロボット5は実際のロボットの動作を忠実に再現できる。そして、実際の制御装置からロボットのサーボモータへの制御指令と同様の制御アルゴリズムにて三次元モデルのロボット5の各リンクを動作させるようにすると、実際のロボットと同様の動作速度・加速度などの動作性能を有するロボットを再現することができる。
さらに、動作シミュレーション時にロボット5の停止位置ならびにこれら停止位置の間を移動するときのロボット5の動作速度および加速度を指定するロボット動作プログラムを、実際のロボットの動作プログラムと同様の形式で作成するのが好ましい。この場合には、シミュレーション時に作成されたロボット5の動作プログラムをそのままの形式で実際のロボットに適用できる。それゆえ、生産システムの立上げをより短時間で行えるのが分かるであろう。
3 仮想空間
4 作業者
5 ロボット
6 作業台
31 計算演算機器
32 入力手段
33 表示部
81、82、… 部品
91、92 部品収納部
101、102、… 組付け部品

Claims (6)

  1. 作業者とロボットとが協調して行う生産作業のシミュレーションを行うシミュレーション方法において、
    前記作業者の各身体部位の可動範囲と動作速度とを含む動作特性を指定する指定工程と、
    前記作業者の配置可能な位置と前記ロボットの配置可能な位置との組合せ毎に、動作シミュレーションにより前記作業者と前記ロボットとの協調による生産作業の所要時間を算出して、算出された所要時間から所要時間が最も短い前記作業者の位置と前記ロボットの位置との組合せを決定する決定工程と、を含むシミュレーション方法。
  2. 前記決定工程は、
    前記作業者と前記ロボットとの夫々の作業点列に基づいて前記作業者の基部と前記ロボットの基部とが配置可能な離散的な位置の集合を仮想空間内に夫々求め、
    所定のルールに基づいて前記位置の集合の夫々から1要素ずつ選択し、
    前記位置の集合の全てを網羅するように、動作シミュレーションを実施して所要時間を算出し、
    算出された所要時間から所要時間が最も短い前記作業者の基部の位置と前記ロボットの基部の位置の組合せを決定する、請求項1に記載のシミュレーション方法。
  3. さらに、前記決定工程において決定された前記作業者の位置と前記ロボットの位置との組合せに基づいて、前記作業者の三次元モデルと前記ロボットの三次元モデルとを仮想空間に配置して画面上に表示することを含む、請求項1または2に記載のシミュレーション方法。
  4. さらに、前記決定工程において決定された前記作業者の位置と前記ロボットの位置との組合せにおいて、
    前記作業者の所定の複数の動作位置に対して前記作業者の複数の手先姿勢項候補を設定すると共に、前記ロボットの前記所定の複数の動作位置に対して前記ロボットの複数の手先指定候補を設定し、
    設定された前記作業者および前記ロボットの全ての手先姿勢候補の組合せが網羅されるように、動作シミュレーションにより前記作業者と前記ロボットとの協調による生産作業の所要時間を前記手先姿勢候補の組合せ毎に算出し、
    算出された所要時間から所要時間が最も短い前記作業者と前記ロボットとの手先姿勢候補の組合せを決定することを含む、請求項1または2に記載のシミュレーション方法。
  5. 前記ロボットの動作シミュレーションは、実際のロボットと同様の制御アルゴリズムにて再生動作される、請求項1から4のいずれか一項に記載のシミュレーション方法。
  6. 前記作業者の各身体部位の可動範囲と動作速度とを含む動作特性は、前記作業者を実測することにより特定される、請求項1から5のいずれか一項に記載のシミュレーション方法。
JP2009059678A 2009-03-12 2009-03-12 シミュレーション方法 Active JP5502348B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009059678A JP5502348B2 (ja) 2009-03-12 2009-03-12 シミュレーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009059678A JP5502348B2 (ja) 2009-03-12 2009-03-12 シミュレーション方法

Publications (2)

Publication Number Publication Date
JP2010211726A true JP2010211726A (ja) 2010-09-24
JP5502348B2 JP5502348B2 (ja) 2014-05-28

Family

ID=42971776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009059678A Active JP5502348B2 (ja) 2009-03-12 2009-03-12 シミュレーション方法

Country Status (1)

Country Link
JP (1) JP5502348B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230621A (ja) * 2014-06-05 2015-12-21 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
DE102016008576A1 (de) 2015-07-21 2017-01-26 Fanuc Corporation Robotersimulationsvorrichtung für ein menschliches Eingreifen umfassendes Robotersystem
JP2017170584A (ja) * 2016-03-25 2017-09-28 株式会社国際電気通信基礎技術研究所 ロボットの行動シミュレーション装置
JP2018020410A (ja) * 2016-08-04 2018-02-08 キヤノン株式会社 レイアウト設定方法、およびレイアウト設定装置
JP2019098455A (ja) * 2017-11-30 2019-06-24 株式会社安川電機 ロボットシステムおよびワークの生産方法
US10434648B2 (en) 2016-12-27 2019-10-08 Fanuc Corporation Task planning device
JP2021522625A (ja) * 2018-04-20 2021-08-30 リタール ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト モジュール式制御キャビネットの組立システム及び方法
WO2022039115A1 (ja) * 2020-08-20 2022-02-24 ファナック株式会社 ロボットシステム
WO2022209579A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 ロボット制御システム、および制御装置
DE112021007579T5 (de) 2021-07-02 2024-02-29 Fanuc Corporation Optimierungsassistenzvorrichtung
JP7456263B2 (ja) 2020-04-24 2024-03-27 コニカミノルタ株式会社 シミュレーション装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3118723A1 (en) 2015-07-13 2017-01-18 Thomson Licensing Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0281209A (ja) * 1988-09-19 1990-03-22 Toyota Motor Corp ロボットの教示用データ作成方法
JPH11277473A (ja) * 1998-03-27 1999-10-12 Kiyoaki Kakihara 手作業アシスタントマニピュレーター制御システム
JP2001071292A (ja) * 1999-09-02 2001-03-21 Agency Of Ind Science & Technol 情報共有装置、その情報提示方法および記録媒体
JP3797986B2 (ja) * 2003-07-03 2006-07-19 ファナック株式会社 ロボットオフラインシミュレーション装置
WO2009004772A1 (ja) * 2007-07-05 2009-01-08 Panasonic Corporation ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム
JP2009297880A (ja) * 2008-06-17 2009-12-24 Panasonic Corp 物品管理システム及び物品管理方法及び物品管理プログラム
JP2010120139A (ja) * 2008-11-21 2010-06-03 New Industry Research Organization 産業用ロボットの安全制御装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0281209A (ja) * 1988-09-19 1990-03-22 Toyota Motor Corp ロボットの教示用データ作成方法
JPH11277473A (ja) * 1998-03-27 1999-10-12 Kiyoaki Kakihara 手作業アシスタントマニピュレーター制御システム
JP2001071292A (ja) * 1999-09-02 2001-03-21 Agency Of Ind Science & Technol 情報共有装置、その情報提示方法および記録媒体
JP3797986B2 (ja) * 2003-07-03 2006-07-19 ファナック株式会社 ロボットオフラインシミュレーション装置
WO2009004772A1 (ja) * 2007-07-05 2009-01-08 Panasonic Corporation ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム
JP2009297880A (ja) * 2008-06-17 2009-12-24 Panasonic Corp 物品管理システム及び物品管理方法及び物品管理プログラム
JP2010120139A (ja) * 2008-11-21 2010-06-03 New Industry Research Organization 産業用ロボットの安全制御装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10603791B2 (en) 2014-06-05 2020-03-31 Canon Kabushiki Kaisha Apparatus, method for controlling apparatus, and storage medium
JP2015230621A (ja) * 2014-06-05 2015-12-21 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
US9943961B2 (en) 2014-06-05 2018-04-17 Canon Kabushiki Kaisha Apparatus, method for controlling apparatus, and storage medium
DE102016008576A1 (de) 2015-07-21 2017-01-26 Fanuc Corporation Robotersimulationsvorrichtung für ein menschliches Eingreifen umfassendes Robotersystem
CN106363622A (zh) * 2015-07-21 2017-02-01 发那科株式会社 人协作型机器人系统的机器人模拟装置
JP2017024113A (ja) * 2015-07-21 2017-02-02 ファナック株式会社 人間協調型ロボットシステムのロボットシミュレーション装置
US10239209B2 (en) 2015-07-21 2019-03-26 Fanuc Corporation Robot simulation device for human intervention-type robot system
DE102016008576B4 (de) * 2015-07-21 2020-08-27 Fanuc Corporation Robotersimulationsvorrichtung für ein menschliches Eingreifen umfassendes Robotersystem
JP2017170584A (ja) * 2016-03-25 2017-09-28 株式会社国際電気通信基礎技術研究所 ロボットの行動シミュレーション装置
JP2018020410A (ja) * 2016-08-04 2018-02-08 キヤノン株式会社 レイアウト設定方法、およびレイアウト設定装置
JP7009051B2 (ja) 2016-08-04 2022-01-25 キヤノン株式会社 レイアウト設定方法、制御プログラム、記録媒体、制御装置、部品の製造方法、ロボットシステム、ロボット制御装置、情報処理方法、情報処理装置
US10434648B2 (en) 2016-12-27 2019-10-08 Fanuc Corporation Task planning device
JP2019098455A (ja) * 2017-11-30 2019-06-24 株式会社安川電機 ロボットシステムおよびワークの生産方法
JP7043812B2 (ja) 2017-11-30 2022-03-30 株式会社安川電機 ロボットシステムおよびワークの生産方法
JP2021522625A (ja) * 2018-04-20 2021-08-30 リタール ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト モジュール式制御キャビネットの組立システム及び方法
JP7112586B2 (ja) 2018-04-20 2022-08-03 リタール ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト モジュール式制御キャビネットの組立システム及び方法
US11901707B2 (en) 2018-04-20 2024-02-13 Rittal Gmbh & Co. Kg System and method for mounting an item of switchgear cabinet equipment of modular construction
JP7456263B2 (ja) 2020-04-24 2024-03-27 コニカミノルタ株式会社 シミュレーション装置
WO2022039115A1 (ja) * 2020-08-20 2022-02-24 ファナック株式会社 ロボットシステム
WO2022209579A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 ロボット制御システム、および制御装置
DE112021007579T5 (de) 2021-07-02 2024-02-29 Fanuc Corporation Optimierungsassistenzvorrichtung

Also Published As

Publication number Publication date
JP5502348B2 (ja) 2014-05-28

Similar Documents

Publication Publication Date Title
JP5502348B2 (ja) シミュレーション方法
Blankemeyer et al. Intuitive robot programming using augmented reality
CN106163771B (zh) 用于机器人3d打印的方法及系统
Pan et al. Recent progress on programming methods for industrial robots
JP6497953B2 (ja) オフライン教示装置、オフライン教示方法及びロボットシステム
CN110494813B (zh) 基于可构建性分析的规划和调整项目
US9731419B2 (en) System and method for programming robots
JP5606816B2 (ja) 溶接ロボットのティーチング装置およびティーチング方法
JP4347386B2 (ja) 加工用ロボットプラグラムの作成装置
JP3673749B2 (ja) シミュレーション装置
JP4621641B2 (ja) ロボット教示用cad装置及びロボット教示方法
CN110434856B (zh) 一种焊接控制方法、装置、存储介质及焊接机器人
JP2017094406A (ja) シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP2007160486A (ja) オフラインプログラミング装置
JP7293267B2 (ja) 情報処理装置、情報処理方法及びロボットシステム
Fang et al. Orientation planning of robot end-effector using augmented reality
Kuo et al. Motion generation from MTM semantics
JP5513146B2 (ja) ロボットシミュレータ
CN111113426A (zh) 一种基于cad平台的机器人离线编程系统
Kim et al. Kinematic Implementation of 3-DOF 2-Link Type Vehicle Simulator: Kinematic analysis and motion control method for 3-DOF 2-link type vehicle simulator
CN113681574A (zh) 一种面向钣金折弯的机器人三维可视化仿真与离线编程系统
Wojtynek et al. InteractiveWorkspace Layout focusing on the reconfiguration with collaborative robots in modular production systems
Ding et al. A human-guided vision-based measurement system for multi-station robotic motion platform based on v-rep
JP5513145B2 (ja) ロボットの姿勢判定方法
JP2021186929A (ja) 多軸ロボットの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130903

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131009

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20131105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140313

R150 Certificate of patent or registration of utility model

Ref document number: 5502348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150