JP4837116B2 - 視覚センサを備えたロボットシステム - Google Patents

視覚センサを備えたロボットシステム Download PDF

Info

Publication number
JP4837116B2
JP4837116B2 JP2010091363A JP2010091363A JP4837116B2 JP 4837116 B2 JP4837116 B2 JP 4837116B2 JP 2010091363 A JP2010091363 A JP 2010091363A JP 2010091363 A JP2010091363 A JP 2010091363A JP 4837116 B2 JP4837116 B2 JP 4837116B2
Authority
JP
Japan
Prior art keywords
robot
workpiece
time
visual sensor
arm tip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010091363A
Other languages
English (en)
Other versions
JP2011201007A (ja
Inventor
一訓 伴
文和 藁科
愼 山田
勇太 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2010091363A priority Critical patent/JP4837116B2/ja
Priority to US13/014,769 priority patent/US8326460B2/en
Priority to CN201110035381.3A priority patent/CN102189548B/zh
Priority to DE102011009814.3A priority patent/DE102011009814B4/de
Publication of JP2011201007A publication Critical patent/JP2011201007A/ja
Application granted granted Critical
Publication of JP4837116B2 publication Critical patent/JP4837116B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

本発明は視覚センサによって検出したワークの位置情報を用いてロボットを作業させるロボットシステムに関する。
ロボットを用いてワークのハンドリングまたは加工などの作業を正確に行うには、ワークが置かれている位置およびロボットが把持しているワークの把持ずれを正確に認識することが必要になる。このため、近年では、視覚センサを用いてワークの位置およびワークの把持ずれを視覚的に認識することが行われている。
カメラがロボットアーム先端部に取付けられていて、テーブルなどに配置されたワークの位置を計測する場合に、ワークの位置の認識が実施される。また、ワークの把持ずれの認識は、ロボットが把持しているワークの位置を固定カメラで計測する場合に実施される。
このようにカメラまたはワークのうちの一方がロボットの動作によって移動可能な状態でワークの位置を計算する場合には、画像を撮像した瞬間のロボットの位置情報が必要となる。その理由は、同じ位置にあるワークを撮像した場合であっても、カメラが取付けられたロボットまたはワークを把持しているロボットの位置が変化すると、画像内でのワークの位置が変化するためである。
特許文献1には、撮像時のロボットの位置情報を用いて、画像内でのワークの位置を計算する方法が開示されている。しかしながら、特許文献1に開示される技術を実際に適用する際には、撮像した瞬間の正確なロボットの位置情報を得るために、ワークの撮像時にロボットを一時静止させる必要があった。
ワークの撮像時にロボットを一時静止する場合には、ロボットの減速時間、撮像とロボット位置取得とのための静止時間、再加速時間などを必要とし、タクトタイムが増加するという問題点があった。このような問題を解決するために、ロボットを静止させることなしにワークの画像を撮像し、ワークを撮像した瞬間のロボット位置を取得することが望まれている。
ここで、撮像した時刻とロボット位置を取得した時刻との間のずれが問題となりうる。例えば、ロボットが2000mm/secで移動していて、撮像した時刻とロボット位置を取得した時刻とが1msecずれた場合には、ロボットはこれら時刻の間で2mm移動することになる。従って、ワークの画像に含まれるワークの位置情報は、ロボットが上記のように移動した誤差を生じさせることになる。
また、カメラとワークとの間の距離が1mとすると、撮像した時刻とロボット位置を取得した時刻との間の1msecにおいてロボットの姿勢が0.1度変化した場合には、さらに1000mm×tan(0.1)=1.75mmの計測誤差が発生する。そして、その計測誤差もワークの位置情報に含まれることになる。
一般的にロボット制御装置は一定周期、例えばサーボモータの制御周期で該サーボモータのエンコーダの角度情報などを読取って、ロボットの位置情報を認識している。従って、視覚センサにより計測されたワークの位置情報の精度は、この更新周期に依存することになる。
特許文献2には、ロボットに取付けられたカメラによってロボットの移動中にワークを撮像し、ワークの位置を補正するシステムが開示されている。しかしながら、特許文献2には、撮像した瞬間の正確なロボット位置を取得する具体的な方法は開示されていない。
さらに、特許文献3には、ロボットがワークを搬送しているときに、ワークを撮像して把持誤差を補正する方法が開示されている。しかしながら、ロボット位置の更新周期に起因するロボット位置の誤差については考慮されていない。
特許文献4には、より短い周期でロボットの位置情報を更新しているサーボモータの制御系に対して、撮像した瞬間にトリガ信号を送り、該制御系が保持しているロボット位置情報を取得する方法が開示されている。そのような場合であっても、ロボット位置情報の精度はサーボモータの制御系の制御周期に依存する。また、特許文献4に開示される方法は専用のトリガ信号線とトリガ入出力部を必要とするという問題も含んでいる。
特許第2889011号 WO 2009/077118 A1 特許第4174342号 特開2008−183690号公報
本発明はこのような事情に鑑みてなされたものであり、ロボットを一時停止することなしに、および専用のハードウェアを用いることなしに、撮像した瞬間の正確なロボット位置を取得することのできるロボットシステムを提供することを目的とする。
前述した目的を達成するために1番目の発明によれば、ロボットと、該ロボットを制御するロボット制御部と、ワークを視覚的に計測する視覚センサと、前記ワークまたは前記視覚センサのうちの一方が前記ロボットのアーム先端部に把持されるかまたは固定されつつ、前記ロボットのアームの動作によって移動可能であると共に、前記ワークまたは前記視覚センサのうちの他方が前記ロボットから離れた位置に置かれており、前記アーム先端部が移動している最中に前記ワークを計測するロボットシステムにおいて、前記視覚センサは、画像処理した結果を前記ロボットの座標系での値に変換するキャリブレーションデータが予め求められているものであり、前記視覚センサを制御すると共に、該視覚センサにより撮像された前記ワークの画像の情報に基づいて、前記画像上の前記ワークの位置情報を算出する画像処理部と、前記ロボット制御部および前記画像処理部が現在時刻を参照する時計と、一定周期または不定周期の第一の時刻と、該第一の時刻における前記アーム先端部の位置情報とを組にして順次記憶するロボット位置時刻用記憶部と、前記視覚センサが前記ワークを撮像する、前記第一の時刻とは別の任意の時刻である第二の時刻を記憶する画像撮像時刻用記憶部と、前記ロボット位置時刻用記憶部に記憶された第一の時刻のうち、前記画像撮像時刻用記憶部に記憶された前記第二の時刻よりも前および後のそれぞれにおける少なくとも二つの第一の時刻と、これら第一の時刻のそれぞれに対応する前記アーム先端部の位置情報とに基づいて、前記視覚センサが前記ワークを撮像した第二の時刻における前記アーム先端部の位置情報を算出するアーム先端部位置算出部と、該アーム先端部位置算出部により算出された第二の時刻における前記アーム先端部の位置情報と前記画像処理部により算出された、前記第二の時刻における前記画像上の前記ワークの位置情報と、前記キャリブレーションデータに基づいて、前記アーム先端部に対する前記把持されたワークの位置情報、または前記ロボットから離れた位置に置かれたワークの前記ロボットに対する位置情報を算出するワーク位置算出部と、を具備するロボットシステムが提供される。
2番目の発明によれば、1番目の発明において、さらに、前記ワーク位置算出部により算出された、前記ロボットの前記アーム先端部に対する前記把持されたワークの位置情報、または前記ロボットから離れた位置に置かれたワークの前記ロボットに対する位置情報に基づいて、前記ロボットの動作を補正する補正部を具備する。
3番目の発明によれば、1番目の発明において、前記ワークまたは前記視覚センサのうちの一方が、前記ロボットのアーム先端部に把持されるかまたは固定されつつ前記ロボットのアームの動作によって移動可能であり、前記視覚センサは、前記ロボットの前記アーム先端部が移動しているときに該アーム先端部が互いに異なる位置にいる時点で前記ワークを複数回撮像してステレオ計測を行い、前記ワーク位置算出部は、前記視覚センサの前記ステレオ計測の結果に基づいて、前記アーム先端部に対する前記把持されたワークの三次元位置または前記ロボットから離れた位置に置かれたワークの前記ロボットに対する三次元位置を算出する。
4番目の発明によれば、1番目の発明において、さらに、前記視覚センサに取付けられたレーザスリット投光器を具備し、前記視覚センサは、前記ロボットの前記アーム先端部が移動しているときにレーザが投光されている前記ワークの一部分の三次元位置を異なる位置で複数回撮像することにより距離画像を取得し、前記ワーク位置算出部は、前記距離画像に基づいてワークの三次元形状または/および三次元位置を算出する。
すなわち1番目の発明においては、撮影時刻よりも前後のそれぞれの時刻におけるアーム先端部の位置を利用してワークの位置を算出している。従って、一定周期または不定周期ごとに認識されるアーム先端部の位置情報よりも高い精度で、視覚センサが画像を撮像した瞬間におけるロボットの位置情報を取得でき、その結果、従来技術よりも高精度でワークの位置を算出できる。このことは、ロボットが動作している場合に特に有利である。
また、ロボットが静止しているときにおいてもロボット制御装置はサーボモータの制御を行っているため、ロボットのアーム先端部の位置姿勢はわずかながら変化する。このため、ロボットが静止している状態で視覚センサがワークを撮像した場合においても、従来方法よりも正確にロボットの位置情報を取得でき、視覚センサによるワークの位置計測精度を向上させられる。
さらに、1番目の発明においては、専用のトリガ信号線やトリガ入出力部を使用することなしに、撮像した瞬間のロボット位置情報を取得できる。つまり、専用のトリガ信号線やトリガ入出力部などを追加する費用を排除すると共に、これらの故障リスクを低減することもできる。また、これは利用者にとって利用が簡便なシステムを提供することにもなる。
すなわち2番目の発明においては、視覚センサによって認識したワークの位置に応じてロボットをより適切な目的位置に動作させられる。
すなわち3番目の発明においては、ステレオ計測により、ロボットに把持されたワークの該ロボットのアーム先端部に対する三次元位置またはロボットから離れた位置に置かれたワークの該ロボットに対する三次元位置をより正確に求めることができる。
すなわち4番目の発明においては、距離画像を用いてワークの三次元形状または/および三次元位置をより正確に求めることができる。
本発明の第一の実施形態におけるロボットシステムの全体構成を示す図である。 本発明の第二の実施形態におけるロボットシステムの全体構成を示す図である。 第一の実施形態におけるロボットシステムの機能ブロック図である。 本発明のロボットシステムに含まれるロボット制御部および画像処理部の動作を示すフローチャートである。 ステレオ計測を実施する実施形態におけるロボットシステムの全体構成を示す図である。 レーザスリット投光器を備えた実施形態におけるロボットシステムの全体構成を示す図である。 他の実施形態におけるロボットシステムの機能ブロック図である。 さらに他の実施形態におけるロボットシステムの機能ブロック図である。
以下、添付図面を参照して本発明の実施形態を説明する。以下の図面において同様の部材には同様の参照符号が付けられている。理解を容易にするために、これら図面は縮尺を適宜変更している。
図1は本発明の第一の実施形態におけるロボットシステムの全体構成を示す図である。図1に示されるロボットシステム10は、ロボット11と、このロボット11を制御するロボット制御装置12とを主に含んでいる。ロボット11のアーム先端部にはハンド14が搭載されており、このハンド14は、テーブル16上のワーク15を把持する。なお、テーブル16上に載置されたワーク15は位置決めされておらず、ワーク15の位置は不定である。
図1に示されるように、ロボット11のアーム先端部には、腕木18を介してカメラ13が搭載されている。テーブル16上に載置されたワーク15の位置W1は、視覚センサとしてのカメラ13を用いて計測される。計測されたワーク15の位置情報に基づいて、ロボット11はワーク15が把持されるべき位置まで移動する。
ロボット11は、公知の典型的なロボットマニピュレータ(以下、ロボット)であり、作業を行う位置姿勢に到達可能であればその機構に制限はない。ロボット11のアームのアーム先端部に取付けられているハンド14は、ワーク15の形状・材質・重量等に応じて選択される。従って、ハンド14は、吸引式およびチャック式でありうる。なお、図1には、例としてチャック方式のハンド14が示されている。
図1において矢印X1で示されるように、ロボット11は、動作開始位置P1から撮像位置Q1を経てワーク把持位置P2まで移動し、次いでワーク把持位置P2においてワーク15を把持するようプログラムされている。前述したようにワーク15の位置W1は不定であるので、ロボット11は、カメラ13を用いて求められたワーク15の位置W1’に基づいて、位置W1’に対応するワーク把持位置P2’まで移動し、ワーク把持位置P2’においてワーク15を把持する。
ここで、ワーク15の位置W1、W1’とロボット11のワーク把持位置P2、P2’との間には、以下の式(1)で示される関係がある。なお位置W1、P2等の本願明細書において使用される、位置を表す記号は4×4の同次変換行列である。
Figure 0004837116
ロボット11は矢印X1における撮像位置Q1で一時停止してもよいが、第一の実施形態においては、ロボット11が矢印X1で示される軌道を停止することなく移動する場合を説明する。
ロボット11に教示されたプログラムは撮像位置Q1で撮像を行おうとするが、ソフトウェアの処理遅れなどがある場合には、撮像位置Q1から少しずれた撮像位置Q1’で撮像される。撮像位置Q1’は元の撮像位置Q1に完全に一致している必要はない。ただし、撮像位置Q1、Q1’の両方において、ワーク15がカメラ13の視野内に入っている必要がある。その理由は、撮像位置Q1が撮像位置Q1’までずれた場合であっても、後述する手法により撮像した瞬間におけるロボット11の位置情報Q1’が求められ、この位置情報Q1’に基づいてワーク15の位置W1’を正確に求めることができるためである。
画像処理を行って求めた検出データをロボットの座標系に変換するためのキャリブレーションデータは、撮像位置Q1におけるキャリブレーションにより予め求められていて、ロボット制御装置12内に記憶されているものとする。従って、後述するワーク位置算出部42は、撮像位置Q1’で撮像した画像と撮像位置Q1’の位置情報とに基づいて、ロボット座標系におけるワークの位置W1’を算出することができる。
その算出手法は、特許第2889011号に開示されており、公知である。従って、算出方法の詳細な説明を省略するが、以下に簡潔に記載する。まず、撮像位置Q1’において撮像した画像に対して所定の画像処理を行い、画像内のワーク15を検出し、その検出データを求める。次いで、求めた検出データと予め求めたキャリブレーションデータとに基づいて仮のワークの位置を求める。その後、仮のワークの位置と視覚センサ13の移動量、すなわちキャリブレーションを行った位置Q1から撮像が行われた位置Q1’への移動量とに基づいてワーク15の正確な位置W1’を求める。
そして、ロボット11が把持を行うべきワーク把持位置P2’は、以下の式(2)に基づいて求められる。
Figure 0004837116
ここで、図3は第一の実施形態におけるロボットシステムの機能ブロック図である。ロボット制御装置12はデジタルコンピュータであり、ロボット制御部31と、画像処理部32と、ロボット位置および時刻用記憶部33と、画像撮像時刻用記憶部34と、時計35とを含んでおり、これらはバスにより互いに接続されている。なお、図3に示されるように、ロボット制御部31はロボット11に接続されており、画像処理部32はカメラ13に接続されている。
ロボット制御部31および画像処理部32の両方は時計35にアクセスして、時刻を取得することができる。ロボット位置および時刻用記憶部33は、ロボット11の位置と、この位置を取得したときに時計35から得られる時刻とを組にしてロボット位置更新周期で順次記憶する。さらに、画像撮像時刻用記憶部34は、カメラ13が撮像した瞬間の時刻と、そのときの画像とを組にして記憶する。ロボット位置および時刻用記憶部33および画像撮像時刻用記憶部34は、最新の複数の組の情報のみを記憶するように設定されていてもよく、また、ロボット11の動作時における全ての組の情報を記憶してもよい。
さらに、図3に示されるように、ロボット制御部31は、ロボット位置および時刻用記憶部33に記憶された時刻のうち、画像撮像時刻用記憶部34に記憶された時刻よりも前および後のそれぞれにおける少なくとも一つの時刻と、これら時刻のそれぞれに対応するロボット11のアーム先端部の位置とに基づいて、カメラ13がワーク15を計測したときのアーム先端部の位置情報を算出するアーム先端部位置算出部41を含んでいる。
さらに、ロボット制御部31は、アーム先端部位置算出部41により算出されたアーム先端部の位置情報と画像処理部32により算出されたワーク15の位置情報とに基づいて、アーム先端部に対する把持されたワーク15の位置情報、またはロボット11から離れた位置に置かれたワーク15のロボット11に対する位置情報を算出するワーク位置算出部42とを含んでいる。
さらに、ロボット制御部31に含まれる補正部43は、ワーク位置算出部42により算出された、ロボット11のアーム先端部に対する把持されたワーク15の位置情報、またはロボット11から離れた位置に置かれたワーク15のロボット11に対する位置情報に基づいて、ロボット11の動作を補正する。この目的のために、補正部43は前述した位置情報に基づいて、ロボット11のプログラムを補正できる。
図4は本発明のロボットシステムに含まれるロボット制御部31および画像処理部32の動作を示すフローチャートである。以下、図3および図4に基づいて、撮像した瞬間のロボットの位置Q1’を求める方法を説明する。
はじめに、ステップS1において、ロボット制御部31は、時計35から取得した時刻と、この時刻に対応するロボット11のアーム先端部の位置とを組にして、ロボット位置更新周期でロボット位置および時刻用記憶部33に順次記憶する。なお、ロボット11のアーム先端部の位置を単に「ロボット位置」と呼ぶ場合がある。
例えば、ロボット11が垂直六軸多関節ロボットの場合、ロボット位置情報としてロボットの各軸の角度(J1〜J6)を記憶することができる。以下、説明を容易にする目的で、記憶した時刻とロボット位置をそれぞれTx、Px=(Jx1〜Jx6)とする。なお、ロボット位置更新周期は一定周期でも、不定周期でもよい。
次いで、ステップS2において、ロボット制御部31は、ロボット11が、その動作プログラムに予め記載された撮像位置Q1に到達しているか否かを確認する。ロボット11が到達している場合にはステップS3に進む。未だ到達していない場合には、一定時間待機した後にステップS1に戻り、ロボット11が撮像位置Q1に到達するまで処理を繰返す。
図4に示される実施例においては、ロボット11が撮像位置Q1に到達しているかの確認はロボット制御部31がロボット11の位置を監視することで行っている。しかしながら、ロボット11が動作を開始してから撮像位置Q1に到達するのに要する所要時間を予め計測し、ロボット11が動作を開始してからの時刻(時計35から取得できる)と、所要時間とを比較して、ロボット11が撮像位置Q1に到達しているかを判断してもよい。あるいは、ロボット11が動作を開始してから上記所要時間が経過した場合に、ステップS3に自動的に進んでもよい。
次いで、ステップS3においては、ロボット制御部31は、画像処理部32に対して画像処理開始命令を出力する。画像処理開始命令が出力されると、画像処理部32の処理が始まる。
ステップS4においては、画像処理部32は、撮像指令をカメラ13に送ると共に、時計35から取得した時刻を撮像時刻Tsとして画像撮像時刻用記憶部34に記憶する。次いで、ステップS5において、カメラ13によるワーク15の撮像が完了するのを待った後で、撮像した画像をステップS4で既に記憶した撮像時刻Tsと組にして画像撮像時刻用記憶部34に記憶する。
次いで、ステップS6において、画像処理部32はステップS5で撮像した画像に対して所定の画像処理を行い、画像に映っているワーク15を検出し、その検出データを求め、さらに求めた検出データと予め求めてあるキャリブレーションデータとに基づいて仮のワークの位置情報を求める。
ロボット制御部31はステップS3が完了した後にステップS7に進む。ステップS7においては、ロボット制御部31は次のロボット位置更新周期において、新たな時刻とロボット位置とを組にしてロボット位置および時刻用記憶部33に同様に記憶する。説明を容易にする目的で、ステップS7において記憶した時刻とロボット位置をそれぞれTy、Py=(Jy1〜Jy6)とする。
次いで、ステップS8において、ロボット制御部31は、撮像時刻が画像撮像時刻用記憶部34に記憶されているかを確認する。撮像時刻が記憶されている場合にはステップS9に進む。未だ記憶されていない場合には、一定時間待機した後にステップS7に戻り、撮像時刻が記憶されるまでこの確認処理を繰返す。
次いで、ステップS9において、ロボット制御部31のアーム先端部位置算出部41は、画像撮像時刻用記憶部34に記憶された撮像時刻Tsと、ロボット位置および時刻用記憶部33に記憶されたロボットの位置と時刻との組Tx、Px、Ty、Pyとに基づいて、撮像した瞬間のロボット位置Q1’=(Js1〜Js6)を算出する。ここで、TxはTsよりも早い時刻であり、TyはTsよりも遅い時刻であることに留意されたい。
アーム先端部位置算出部41は、例えば一次補間を用いて以下の式(3)に基づいて撮像した瞬間のロボット位置Q1’を算出する。
Figure 0004837116
なお、撮像した瞬間のロボット位置Q1’=(Js1〜Js6)は各軸位置であるが、これを順変換すれば直交位置を求めることができる。
第一の実施形態においては、ロボットの各軸位置を一次式で内挿補間することにより、撮像した瞬間のロボット位置Q1’を算出したが、他の手法によりロボット位置Q1’を算出してもよい。例えば外挿補間により、補間計算を行ってもよい。さらに、前述したようにロボット11の各軸位置で補間を行うことも、直交位置に変換してから補間を行うことも可能である。なお、第一の実施形態のような一次補間を採用した場合には、二組のロボット位置および時刻があれば足りる。
どの補間式を採用するかは、ロボット11の制御系の特性に応じて選択できる。例えば、二次式を用いた補間を行う場合には、ロボット11の速度変化があるときの近似誤差を小さくすることができる。ただし、二次補間を採用する場合には、三組のロボット位置および時刻が必要となる。その場合には、撮像時刻Tsよりも前の二つのTxと撮像時刻Tsよりも後の一つのTyとを使用してもよく、また撮像時刻Tsよりも前の一つのTxと撮像時刻Tsよりも後の二つのTyとを使用してもよい。
その後、前述したようにワーク位置算出部42は、前述したようにアーム先端部位置算出部41により算出されたアーム先端部の位置情報と画像処理部32により算出されたワーク15の仮の位置情報とに基づいて、ロボット11から離れた位置に置かれたワーク15のロボット11に対する位置情報を算出する。
ところで、図2は本発明の第二の実施形態におけるロボットシステムの全体構成を示す図である。図2においては、カメラ13は二つのテーブル16、17の間の所定の位置に固定されている。言い換えれば、カメラ13はロボット11から離れた遠方の位置に配置されている。第二の実施形態においては、ロボット11はワーク15を一方のテーブル16から他方のテーブル17まで搬送する。
前述したように、テーブル16におけるワーク15の位置は不定であるので、ロボット11はワーク15をずれを含んで把持する可能性がある。第二の実施形態においては、カメラ13は、ワーク15を搬送する途中で把持ずれ量を計測するのに使用される。
図2に矢印X2で示されるように、ロボット11はテーブル16上の動作開始位置P1でワーク15を把持し、撮像位置Q1を経て、テーブル17上の位置P2まで移動し、ワーク15をテーブル17上に載置するようにプログラムされている。前述したようにロボット11に教示されたプログラムは撮像位置Q1で撮像を行おうとするが、ソフトウェアの処理遅れなどがある場合には、撮像位置Q1から少しずれた撮像位置Q1’で撮像されることになる。
第二の実施形態では、ハンド14によるワーク15の掴みずれを補正するために、ロボット11のアーム先端部に対するワーク15の相対位置を計測する。ロボット11が位置Q1’にいるときに計測されたワールド座標系におけるワーク15の位置をW1’とすると、ワーク位置算出部42は、ロボット11のアーム先端部に対するワーク15の相対的な位置V1’を以下の式(4)に基づいて算出する。
Figure 0004837116
そして、位置P2を教示したときに把持されていたワーク15について、ロボット11のアーム先端部に対するワーク15の相対的な位置をV1とすると、ワーク位置算出部42は、位置Q1’で撮像したワーク15を解放すべき位置P2’を以下の式(5)に基づいて算出する。
Figure 0004837116
前述した実施形態においては、一つの二次元のカメラ13を視覚センサとして使用している。しかしながら、三次元センサを使用して、ワーク15の三次元位置姿勢を求めるようにしてもよい。三次元センサおよび三次元センサを構成するカメラは、カラーカメラでもモノクロカメラでもよい。以下、視覚センサとして、三次元センサを用いた実施例について説明する。
或る実施例においては、複数のカメラ13を用いたステレオ方式の三次元視覚センサを使用することができる。また、図5は、ステレオ計測を実施する実施形態におけるロボットシステムの全体構成を示す図である。ロボット11の動作時に撮像した瞬間のロボット位置を求める前記手法を用いた場合には、図5に示されるように、単一のカメラ13を用いてロボット動作中に連続してワーク15を撮像して得た異なる位置(Q1、…、Qn)から撮像したワーク15の複数画像に基づいて、ステレオ計測を実施してもよい。図5に示すような計測を行った場合には、ロボット11のアーム先端部に対する把持されたワーク15の三次元位置が求められる。また図示はしていないが、図1に示す構成で、異なる位置(Q1、…、Qn)から撮像したワーク15の複数画像に基づいてステレオ計測を行うと、ロボット11に対するワーク15の三次元位置が求められることになる。
図6は、レーザスリット投光器を備えた実施形態におけるロボットシステムの全体構成を示す図である。図6においては、カメラ13と、腕木18によりカメラ13に取付けられたレーザスリット投光器19とからなる三次元視覚センサが用いられる。この三次元視覚センサはレーザが投光されている箇所の三次元位置の計測と、幾何学的に定まっている形状のワークについての位置姿勢の計測が可能である。このような三次元視覚センサは公知のものでありここでは詳細に触れない。このセンサで計測を行うためには、通常のカメラ画像とレーザ画像を取得する必要がある。また、ロボット動作中に複数枚の画像を取得する場合には、各画像を撮像したロボット位置が異なるため、それらのロボット位置を考慮して計算を行う必要がある。
レーザが投光されている箇所の三次元位置を求めることを連続して行い、取得した複数回分の三次元位置情報を一般に距離画像と呼ばれる形に集約し、距離画像に基づいてワーク15の三次元形状を得ることも可能である。この場合においても前述した手法を用いてレーザが投光された画像を撮像した瞬間のロボット位置を用いて三次元位置情報を計算する。このようにして得られたワーク15の三次元形状からワーク15の三次元位置姿勢を求めることが可能となる。
図7は、他の実施形態におけるロボットシステムの機能ブロック図である。図7においては、ロボット11に接続されたロボット制御装置12aと、カメラ13(視覚センサ)に接続された画像処理装置12bとが主に示されている。図7に示されるように、ロボット制御装置12aには、互いに接続されたロボット制御部31とロボット位置および時刻用記憶部33と時計35aとが含まれている。
同様に、画像処理装置12bには、互いに接続された画像処理部32と画像撮像時刻用記憶部34と時計35bとが含まれている。これら時計35a、35bは互いに同期されていることに留意されたい。従って、ロボット制御装置12aおよび画像処理装置12bが時計35a、35bのそれぞれから独自に取得した時刻は互いに等しい。
図示されるように、ロボット制御装置12aおよび画像処理装置12bは、通信インターフェース36、例えば有線LANまたは無線LAN等により互いに接続されている。ここで、通信インターフェース36の処理に遅延が生じる可能性がある。しかしながら、画像撮像時刻用記憶部34においては、時刻と関連付けて、画像を記憶できるので、画像撮像時刻用記憶部34に記憶された時刻に近い二つ以上の時刻をロボット位置および時刻用記憶部33から探索し、その時刻に基づいて必要なロボット位置を求めることができる。
図8は、さらに他の実施形態におけるロボットシステムの機能ブロック図である。図8においては、ロボット11に接続されたロボット制御装置12と、画像処理部32を含んだカメラ13とが主に示されている。図8に示されるように、ロボット制御装置12aには、互いに接続されたロボット制御部31とロボット位置および時刻用記憶部33と時計35aとが含まれている。
カメラ13には、互いに接続された画像処理部32と画像撮像時刻用記憶部34と時計35bとが含まれている。同様に時計35a、35bは互いに同期されており、またロボット制御装置12およびカメラ13は通信インターフェース36により互いに接続されている。これら図5から図8に示される実施形態においても、前述したのと同様な効果が得られるのは明らかであろう。
10 ロボットシステム
11 ロボット
12、12a ロボット制御装置
12b 画像処理装置
13 カメラ(視覚センサ)
14 ハンド
15 ワーク
16、17 テーブル
18 腕木
19 レーザスリット投光器
31 ロボット制御部
32 画像処理部(視覚センサ情報処理部)
33 ロボット位置および時刻用記憶部(ロボット位置時刻用記憶部)
34 画像撮像時刻用記憶部
35、35a、35b 時計
36 通信インターフェース
41 アーム先端部位置算出部
42 ワーク位置算出部
43 補正部

Claims (4)

  1. ロボットと、該ロボットを制御するロボット制御部と、ワークを視覚的に計測する視覚センサと、前記ワークまたは前記視覚センサのうちの一方が前記ロボットのアーム先端部に把持されるかまたは固定されつつ、前記ロボットのアームの動作によって移動可能であると共に、前記ワークまたは前記視覚センサのうちの他方が前記ロボットから離れた位置に置かれており、前記アーム先端部が移動している最中に前記ワークを計測するロボットシステムにおいて、
    前記視覚センサは、画像処理した結果を前記ロボットの座標系での値に変換するキャリブレーションデータが予め求められているものであり、
    前記視覚センサを制御すると共に、該視覚センサにより撮像された前記ワークの画像の情報に基づいて、前記画像上の前記ワークの位置情報を算出する画像処理部と、
    前記ロボット制御部および前記画像処理部が現在時刻を参照する時計と、
    一定周期または不定周期の第一の時刻と、該第一の時刻における前記アーム先端部の位置情報とを組にして順次記憶するロボット位置時刻用記憶部と、
    前記視覚センサが前記ワークを撮像する、前記第一の時刻とは別の任意の時刻である第二の時刻を記憶する画像撮像時刻用記憶部と、
    前記ロボット位置時刻用記憶部に記憶された第一の時刻のうち、前記画像撮像時刻用記憶部に記憶された前記第二の時刻よりも前および後のそれぞれにおける少なくとも二つの第一の時刻と、これら第一の時刻のそれぞれに対応する前記アーム先端部の位置情報とに基づいて、前記視覚センサが前記ワークを撮像した第二の時刻における前記アーム先端部の位置情報を算出するアーム先端部位置算出部と、
    該アーム先端部位置算出部により算出された第二の時刻における前記アーム先端部の位置情報と前記画像処理部により算出された、前記第二の時刻における前記画像上の前記ワークの位置情報と、前記キャリブレーションデータに基づいて、前記アーム先端部に対する前記把持されたワークの位置情報、または前記ロボットから離れた位置に置かれたワークの前記ロボットに対する位置情報を算出するワーク位置算出部と、を具備するロボットシステム。
  2. さらに、前記ワーク位置算出部により算出された、前記ロボットの前記アーム先端部に対する前記把持されたワークの位置情報、または前記ロボットから離れた位置に置かれたワークの前記ロボットに対する位置情報に基づいて、前記ロボットの動作を補正する補正部を具備する請求項1に記載のロボットシステム。
  3. 前記ワークまたは前記視覚センサのうちの一方が、前記ロボットのアーム先端部に把持されるかまたは固定されつつ前記ロボットのアームの動作によって移動可能であり、
    前記視覚センサは、前記ロボットの前記アーム先端部が移動しているときに該アーム先端部が互いに異なる位置にいる時点で前記ワークを複数回撮像してステレオ計測を行い、
    前記ワーク位置算出部は、前記視覚センサの前記ステレオ計測の結果に基づいて、前記アーム先端部に対する前記把持されたワークの三次元位置または前記ロボットから離れた位置に置かれたワークの前記ロボットに対する三次元位置を算出するようにした、請求項1に記載のロボットシステム。
  4. さらに、前記視覚センサに取付けられたレーザスリット投光器を具備し、
    前記視覚センサは、前記ロボットの前記アーム先端部が移動しているときにレーザが投光されている前記ワークの一部分の三次元位置を異なる位置で複数回撮像することにより距離画像を取得し、
    前記ワーク位置算出部は、前記距離画像に基づいてワークの三次元形状または/および三次元位置を算出するようにした、請求項1に記載のロボットシステム。
JP2010091363A 2010-03-05 2010-04-12 視覚センサを備えたロボットシステム Active JP4837116B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010091363A JP4837116B2 (ja) 2010-03-05 2010-04-12 視覚センサを備えたロボットシステム
US13/014,769 US8326460B2 (en) 2010-03-05 2011-01-27 Robot system comprising visual sensor
CN201110035381.3A CN102189548B (zh) 2010-03-05 2011-01-31 具有视觉传感器的机器人系统
DE102011009814.3A DE102011009814B4 (de) 2010-03-05 2011-01-31 Robotersystem mit visuellem Sensor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010049188 2010-03-05
JP2010049188 2010-03-05
JP2010091363A JP4837116B2 (ja) 2010-03-05 2010-04-12 視覚センサを備えたロボットシステム

Publications (2)

Publication Number Publication Date
JP2011201007A JP2011201007A (ja) 2011-10-13
JP4837116B2 true JP4837116B2 (ja) 2011-12-14

Family

ID=44503090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010091363A Active JP4837116B2 (ja) 2010-03-05 2010-04-12 視覚センサを備えたロボットシステム

Country Status (4)

Country Link
US (1) US8326460B2 (ja)
JP (1) JP4837116B2 (ja)
CN (1) CN102189548B (ja)
DE (1) DE102011009814B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10339668B2 (en) 2017-04-26 2019-07-02 Fanuc Corporation Object recognition apparatus

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5665333B2 (ja) * 2010-03-10 2015-02-04 キヤノン株式会社 情報処理装置および情報処理装置の制御方法
EP2643730A4 (en) * 2010-11-25 2014-10-08 Resolution Art Inc IMAGING ROBOT
JP5803155B2 (ja) * 2011-03-04 2015-11-04 セイコーエプソン株式会社 ロボット位置検出装置及びロボットシステム
US20130041508A1 (en) * 2011-08-12 2013-02-14 Georgia Tech Research Corporation Systems and methods for operating robots using visual servoing
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
FR2983059B1 (fr) * 2011-11-30 2014-11-28 Medtech Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre.
JP5266377B2 (ja) * 2011-12-19 2013-08-21 ファナック株式会社 物品の姿勢を修正する機能を備えた取出し装置
JPWO2013150596A1 (ja) * 2012-04-02 2015-12-14 株式会社安川電機 ロボットシステム及び作業設備
JP5928114B2 (ja) * 2012-04-12 2016-06-01 セイコーエプソン株式会社 ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
JP5664629B2 (ja) * 2012-10-19 2015-02-04 株式会社安川電機 ロボットシステムおよび加工品の製造方法
JP5698789B2 (ja) 2013-04-18 2015-04-08 ファナック株式会社 ワークを搬送するロボットの制御装置
JP5616478B1 (ja) 2013-04-18 2014-10-29 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
CN104959982A (zh) * 2013-10-10 2015-10-07 精工爱普生株式会社 机器人控制系统、机器人、程序以及机器人控制方法
CN104827480A (zh) * 2014-02-11 2015-08-12 泰科电子(上海)有限公司 机器人系统的自动标定方法
CN104608137B (zh) * 2015-02-09 2016-08-24 江苏科沁光电科技有限公司 一种带视觉的四轴机器人系统
DE102015002197B4 (de) * 2015-02-20 2024-02-01 Audi Ag Verfahren zum Betrieb eines Roboters und Werkeinrichtung
DE102015204599B3 (de) * 2015-03-13 2016-08-11 Kuka Roboter Gmbh Verfahren zur Steuerung eines Manipulators zur Ausführung eines Arbeitsprozesses
DE102015204867A1 (de) * 2015-03-18 2016-09-22 Kuka Roboter Gmbh Robotersystem und Verfahren zum Betrieb eines teleoperativen Prozesses
CN104897463A (zh) * 2015-04-16 2015-09-09 广东工业大学 一种钢-混凝土组合件受力变形的实时检测装置及其的检测方法
FR3036302B1 (fr) * 2015-05-20 2017-06-02 Commissariat A L`Energie Atomique Et Aux Energies Alternatives Procede de soudage manuel teleopere et robot de soudage mettant en oeuvre un tel procede
CN108885715B (zh) * 2016-03-03 2020-06-26 谷歌有限责任公司 用于机器人抓取的深度机器学习方法和装置
JP6586532B2 (ja) 2016-03-03 2019-10-02 グーグル エルエルシー ロボットの把持のための深層機械学習方法および装置
WO2018008102A1 (ja) * 2016-07-06 2018-01-11 富士機械製造株式会社 撮像装置及び撮像システム
CN110198812B (zh) 2017-02-24 2022-02-18 Abb瑞士股份有限公司 用于选择用于工业机器人调试的初始点的方法和装置
US20190226287A1 (en) * 2017-05-11 2019-07-25 National Oilwell Varco Norway As System and method for placing pipe in and removing pipe from a finger rack
US11220007B2 (en) * 2017-08-23 2022-01-11 Shenzhen Dorabot Robotics Co., Ltd. Method of stacking goods by robot, system of controlling robot to stack goods, and robot
JP6579498B2 (ja) * 2017-10-20 2019-09-25 株式会社安川電機 自動化装置及び位置検出装置
JP6734253B2 (ja) 2017-12-20 2020-08-05 ファナック株式会社 ワークを撮像する視覚センサを備える撮像装置
WO2019163671A1 (ja) * 2018-02-23 2019-08-29 倉敷紡績株式会社 線状物の先端移動方法、制御装置、および、三次元カメラ
JP6661709B2 (ja) * 2018-08-01 2020-03-11 キヤノン株式会社 ロボット制御方法、物品の製造方法、及びロボット装置
JP2020025992A (ja) * 2018-08-09 2020-02-20 株式会社東芝 制御装置、制御方法、およびプログラム
JP7034035B2 (ja) * 2018-08-23 2022-03-11 株式会社日立製作所 自律学習型ロボット装置及び自律学習型ロボット装置の動作生成方法
USD887469S1 (en) * 2018-10-02 2020-06-16 Teleflex Medical Incorporated Camera assembly
JP6878391B2 (ja) * 2018-12-18 2021-05-26 ファナック株式会社 ロボットシステムとその調整方法
WO2020150870A1 (en) * 2019-01-21 2020-07-30 Abb Schweiz Ag Method and apparatus for monitoring robot system
JP7309371B2 (ja) * 2019-01-25 2023-07-18 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP7190919B2 (ja) * 2019-01-25 2022-12-16 株式会社ソニー・インタラクティブエンタテインメント 画像解析システム
WO2020157875A1 (ja) * 2019-01-30 2020-08-06 株式会社Fuji 作業座標作成装置
US11170526B2 (en) * 2019-03-26 2021-11-09 Samsung Electronics Co., Ltd. Method and apparatus for estimating tool trajectories
CN110125940A (zh) * 2019-06-03 2019-08-16 上海贽桐机器人科技有限公司 基于视觉的工业机器人板块拼图方法和系统
CN110331408A (zh) * 2019-08-02 2019-10-15 安吉八塔机器人有限公司 一种浸搪机器人系统
WO2021166818A1 (ja) * 2020-02-20 2021-08-26 ファナック株式会社 ロボットシステム
DE102020111509B4 (de) * 2020-04-28 2023-04-20 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät sowie Verfahren zum Messen von Koordinaten eines Werkstücks
JP7040567B2 (ja) * 2020-08-18 2022-03-23 オムロン株式会社 制御装置、制御装置の制御方法、情報処理プログラム、および記録媒体
CN116096533A (zh) * 2020-09-18 2023-05-09 Abb瑞士股份有限公司 用于调整机器人系统的方法和装置
CN113829346B (zh) * 2021-09-26 2023-08-11 三一建筑机器人(西安)研究院有限公司 一种工件定位方法、工件定位装置及坡口切割工作站
TWI776694B (zh) * 2021-09-30 2022-09-01 台達電子工業股份有限公司 自動化機械手臂系統與機械手臂與其電腦視覺之間的協調方法
CN115890638A (zh) 2021-09-30 2023-04-04 台达电子工业股份有限公司 自动化机械手臂系统

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4437114A (en) * 1982-06-07 1984-03-13 Farrand Optical Co., Inc. Robotic vision system
JPH04174342A (ja) 1990-08-01 1992-06-22 Sharp Corp Sog膜形成用溶液の性能評価方法及びその性能評価機構並びにその性能評価方法を利用しての半導体装置の製造方法
US5319443A (en) 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
US5255096B1 (en) * 1992-04-10 1997-12-23 William M Boyle Video time code synchronized robot control apparatus
JP3086550B2 (ja) * 1992-10-29 2000-09-11 富士通株式会社 運動体の運動同定方法及び運動体の運動同定装置
EP0812662B1 (en) 1995-12-27 2008-01-23 Fanuc Ltd Composite sensor robot system
JPH11207611A (ja) * 1998-01-21 1999-08-03 Shin Etsu Handotai Co Ltd 両面研磨装置におけるワークの自動搬送装置
JPH11248421A (ja) * 1998-03-04 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 移動物体追跡方法及び装置
US6194860B1 (en) * 1999-11-01 2001-02-27 Yoder Software, Inc. Mobile camera-space manipulation
JP3955499B2 (ja) * 2001-08-07 2007-08-08 日本電産サンキョー株式会社 ハンドの位置合わせ方法およびその装置
US6580971B2 (en) * 2001-11-13 2003-06-17 Thierica, Inc. Multipoint inspection system
JP3859571B2 (ja) * 2002-10-17 2006-12-20 ファナック株式会社 3次元視覚センサ
JP3865703B2 (ja) * 2002-10-25 2007-01-10 ファナック株式会社 物品搬送システム及び搬送方法
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
JP4174342B2 (ja) 2003-02-19 2008-10-29 ファナック株式会社 ワーク搬送装置
EP1633534B1 (en) 2003-04-28 2018-09-12 Nikon Metrology NV Cmm arm with exoskeleton
JP4137862B2 (ja) * 2004-10-05 2008-08-20 ファナック株式会社 計測装置及びロボット制御装置
KR100738888B1 (ko) * 2005-10-27 2007-07-12 엘지전자 주식회사 로봇 청소기에 장착된 카메라의 제어 장치 및 방법
WO2008047872A1 (fr) * 2006-10-20 2008-04-24 Hitachi, Ltd. Manipulateur
JP2008183690A (ja) 2007-01-31 2008-08-14 Nachi Fujikoshi Corp ロボット制御装置及びロボット制御システム
BRPI0814191A2 (pt) * 2007-06-26 2015-01-27 Restoration Robotics Inc Ferramentas de captação de unidade folicular incluindo dispositivos e seu uso para remover o tecido conectivo
DE102007060653A1 (de) 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
CN101637908B (zh) * 2008-07-29 2010-11-03 上海发那科机器人有限公司 一种用于机器人搬运作业的视觉定位方法
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10339668B2 (en) 2017-04-26 2019-07-02 Fanuc Corporation Object recognition apparatus

Also Published As

Publication number Publication date
JP2011201007A (ja) 2011-10-13
US8326460B2 (en) 2012-12-04
DE102011009814A1 (de) 2011-09-08
DE102011009814B4 (de) 2018-09-06
US20110218675A1 (en) 2011-09-08
CN102189548A (zh) 2011-09-21
CN102189548B (zh) 2014-06-18

Similar Documents

Publication Publication Date Title
JP4837116B2 (ja) 視覚センサを備えたロボットシステム
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP5803155B2 (ja) ロボット位置検出装置及びロボットシステム
JP4174342B2 (ja) ワーク搬送装置
KR101485722B1 (ko) 화상 처리 장치 및 화상 처리 시스템
JP5849403B2 (ja) ロボットコントローラー、ロボット、及び、ロボットシステム
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
EP3988254A1 (en) Robot hand-eye calibration method and apparatus, computing device, medium and product
JP6661028B2 (ja) 作業位置補正方法
JP2007319938A (ja) ロボット装置及び物体の三次元形状の取得方法
JP6308248B2 (ja) コンベアトラッキング等に向けられたガイダンス装置
JP2011115877A (ja) 双腕ロボット
JP2007011978A (ja) ロボットの運動制御装置
CN105313127A (zh) 机器人、机器人的控制方法以及机器人的控制装置
JP2014161950A (ja) ロボットシステム、ロボット制御方法、ロボット較正方法
JP2019119027A (ja) ロボットシステムの制御方法、およびロボットシステム
JP2004001122A (ja) ピッキング装置
JP2013013950A (ja) ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP4572497B2 (ja) ロボット制御装置
JP5891698B2 (ja) ロボット
JP5509859B2 (ja) ロボット制御装置及び方法
JP2019077026A (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
JP2021045810A (ja) モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム
CN110977950B (zh) 一种机器人抓取定位方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110927

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4837116

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150