JP2008254150A - ロボットの教示装置及び教示方法 - Google Patents

ロボットの教示装置及び教示方法 Download PDF

Info

Publication number
JP2008254150A
JP2008254150A JP2007101663A JP2007101663A JP2008254150A JP 2008254150 A JP2008254150 A JP 2008254150A JP 2007101663 A JP2007101663 A JP 2007101663A JP 2007101663 A JP2007101663 A JP 2007101663A JP 2008254150 A JP2008254150 A JP 2008254150A
Authority
JP
Japan
Prior art keywords
image
robot
area
imaging
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007101663A
Other languages
English (en)
Other versions
JP4844453B2 (ja
Inventor
Takeshi Ueyama
剛 植山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2007101663A priority Critical patent/JP4844453B2/ja
Priority to US12/078,930 priority patent/US8306661B2/en
Publication of JP2008254150A publication Critical patent/JP2008254150A/ja
Application granted granted Critical
Publication of JP4844453B2 publication Critical patent/JP4844453B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • B25J18/005Arms having a curved shape
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • B25J9/0018Bases fixed on ceiling, i.e. upside down manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40478Graphic display of work area of robot, forbidden, permitted zone
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40563Object detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】実機を用いてロボットの進入禁止領域を設定する際の画像データの処理を比較的簡単に済ませると共に、オペレータの操作も容易に済ませる。
【解決手段】カメラのワークW全体が視野内に収まる第1の姿勢で第1の画像I1を撮像し、カメラをそれとは角度90度程度異なる第2姿勢に移動させ、第2の画像I2を撮像する。表示装置8の画面に第1の画像I1を表示させ、オペレータはワークWを内包した楕円形の第1の閉領域A1を指定する。パソコン本体は、指定された第1の閉領A1を第1の方向に延長した第1の投射空間P1を作業空間内に仮想的に算出する。表示装置8の画面に第2の画像I2及び第1の投射空間P1を投影した領域を表示させ、オペレータは、ワークWを内包した部分を切取るように2本の直線L1,L2を指定する。パソコン本体は、直線L1、L2を延長した2つの平面で第1の投射空間P1を切断した仮想円柱Cを算出し、ロボットの進入禁止領域として設定する。
【選択図】図1

Description

本発明は、三次元座標系で定義されロボットの作業が実行される作業空間における、障害物の存在する領域を、ロボットの進入禁止領域として設定するロボットの教示装置及び教示方法に関する。
例えば部品の組付作業や検査作業等を行う産業用ロボットにあっては、実際の作業の前に、例えばティーチングペンダントを用いた遠隔手動操作により、ロボットの手先(ハンド等のツール)が移動する目標位置を教示(設定)する教示作業が行われる。また、その際、ロボットの作業空間における、ワークや治具、他の設備などの障害物が存在する空間を、ロボットの進入禁止領域として設定することが予め行われる。これにより、教示作業時のロボットの移動、及びその後の経路計算が、設定された進入禁止領域を回避する(障害物に干渉しない)ようにして行われる。
従来では、上記したロボットの進入禁止領域の設定方法として、第1に、CADデータを用いてコンピュータ上で設定する方法が提案されている。しかし、この設定方法では、CADデータが必要となると共に、CADデータと実機との誤差により、ずれが生ずる虞があり、実用が難しい問題点があった。
また、ロボットの進入禁止領域の設定方法として、第2に、実機を用いて、実際の作業空間における障害物を、カメラなどのセンサにより三次元計測する方法も提案されている。このような三次元計測の具体的な方法として、ワークなどの計測対象物を、ステレオカメラ装置により異なる視点となる2箇所から撮影し、ステレオ視の原理を用いて三次元情報を得る方法が知られている(例えば特許文献1参照)。
特許第3343682号公報
しかしながら、上記したステレオカメラ装置を使用して対象物の三次元情報を得る方法にあっては、画像データ処理装置による画像データの処理が複雑で、演算量が膨大となる不具合がある。また、画像データの処理にあっては、画像データ中の対象物の頂点やエッジを検出し、2つの画像間で対応点を見つける必要があるが、オペレータが画像上の対応点を指定しなければならない等、オペレータに面倒な操作を強いるものとなっていた。このとき、対象物が比較的複雑な形状のものである場合や、カメラの撮像方向によっては、必要な頂点やエッジが隠れてしまうことがあり、1回(2箇所から)の撮像で必要な画像データが得られないケースが生ずる。
本発明は上記事情に鑑みてなされたもので、その目的は、実機における撮像に基づいて、ロボットの作業空間における障害物の存在する領域をロボットの進入禁止領域として設定することができ、その際の画像データの処理を比較的簡単に済ませることができ、しかも、オペレータの操作も容易に済ませることができるロボットの教示装置及び教示方法を提供するにある。
上記目的を達成するために、本発明のロボットの教示装置は、ロボットの作業空間内に配置された障害物全体が視野内に収まる第1の画像を、第1の位置及び第1の方向から撮像する第1の撮像手段と、前記作業空間内に配置された前記障害物全体が視野内に収まる第2の画像を、前記第1の位置及び第1の方向とは相違する第2の位置及び第2の方向から撮像する第2の撮像手段と、前記第1の画像及び第2の画像を画面上に表示可能な表示手段と、前記第1の画像が表示された画面上の、前記障害物を内包した第1の閉領域を指定するための第1の指定手段と、前記第1の閉領域を前記第1の方向に延長した第1の投射空間を前記作業空間内に仮想的に算出する第1の演算手段と、前記第2の画像が表示された画面上の、前記障害物を内包した第2の閉領域を指定するための第2の指定手段と、前記第2の閉領域を前記第2の方向に延長した第2の投射空間を前記作業空間内に仮想的に算出する第2の演算手段と、前記作業空間内における前記第1の投射空間と第2の投射空間とが重なる重複領域を算出し、その重複領域を進入禁止領域として設定する設定手段とを具備するところに特徴を有する(請求項1の発明)。
また、本発明のロボットの教示方法は、ロボットの作業空間内に配置された障害物全体が視野内に収まる第1の画像を、撮像装置により第1の位置及び第1の方向から撮像する第1の撮像工程と、前記作業空間内に配置された前記障害物全体が視野内に収まる第2の画像を、撮像装置により前記第1の位置及び第1の方向とは相違する第2の位置及び第2の方向から撮像する第2の撮像工程と、表示装置の画面に前記第1の画像が表示された状態で、指定操作装置により当該画面上に前記障害物を内包した第1の閉領域を指定する第1の指定工程と、前記第1の閉領域を前記第1の方向に延長した第1の投射空間を前記作業空間内に仮想的に算出する第1の演算工程と、前記表示装置の画面に前記第2の画像が表示された状態で、前記指定操作装置により当該画面上に前記障害物を内包した第2の閉領域を指定する第2の指定工程と、前記第2の閉領域を前記第2の方向に延長した第2の投射空間を前記作業空間内に仮想的に算出する第2の演算工程と、前記作業空間内における前記第1の投射空間と第2の投射空間とが重なる重複領域を算出し、その重複領域を進入禁止領域として設定する設定工程とを実行するところに特徴を有する(請求項5の発明)。
ここで、障害物が存在する領域をロボットの進入禁止領域として設定する場合、ロボットに対し目標点を教示する場合のような厳密性は求められず、当該障害物の厳密な外形を求める必要はない。つまり、進入禁止領域がある程度大雑把に設定されていても、設定された範囲内に障害物全体が含まれていれば、ロボットによる作業を安全に行うことができ、進入禁止領域を設定することの所期の目的を達成することができる。むしろ、進入禁止領域を、実際の障害物が存在する空間よりも、やや広めの空間(障害物が包含される空間)に設定することにより、安全性は高まるということができる。
本発明によれば、障害物全体を撮像した第1の画像及び第2の画像から、基本的には、ステレオ視の原理により、三次元計測が行われるのであるが、オペレータによって、第1の画像が表示された画面上において第1の指定手段(第1の指定工程)により第1の閉領域が指定されると共に、第2の画像が表示された画面上において第2の指定手段(第2の指定工程)により第2の閉領域が指定される。それに伴い、第1の演算手段(第1の演算工程)により、第1の閉領域を第1の方向に延長した第1の投射空間が仮想的に算出されると共に、第2の演算手段(第2の演算工程)により、第2の閉領域を第2の方向に延長した第2の投射空間が仮想的に算出される。
そして、設定手段(設定工程)により、それら第1の投射空間と第2の投射空間との重複領域が求められる。このとき、第1の投射空間及び第2の投射空間は、共に、障害物全体を包含する空間であり、それらの重複領域は、作業空間中において2つの投射空間がクロスした空間であり且つそのクロス部分内に障害物全体が包含されているということができる。従って、この重複領域を進入禁止領域として設定することにより、実際の障害物が存在する空間よりもやや広めの空間が進入禁止領域として設定されることになり、ロボットが障害物に干渉することなく安全に作業を行うことができる。
この場合、オペレータは、2つの画像間における障害物の対応点の指示を行う必要はなく、また、障害物の形状が単純であるか複雑であるかに関係なく、障害物全体を囲むように閉領域を単に指定すれば良いので、操作が容易となり、撮像方向によって画像中の障害物の必要な頂点やエッジが隠れてしまうことに起因する不具合も生じない。しかも、画像中の障害物の頂点やエッジの検出を行う必要もなく、投射空間や重複領域を求めるだけで済むので、画像データの処理を比較的簡単に済ませることができる。
本発明においては、ロボットを手動操作により自在に移動させるための遠隔操作手段を設け、ロボットの手先部に取付けられたカメラから第1及び第2の撮像手段を構成し、遠隔操作手段の操作により、第1の位置及び第1の方向に移動されたカメラによって第1の画像が撮像され、次に、前記第2の位置及び第2の方向に移動されたカメラによって第2の画像が撮像されるように構成することができる(請求項2、請求項6の発明)。これによれば、撮像手段を1つのカメラで兼用することができると共に、ロボットの手先に取付けられたカメラを、任意の位置に移動させて第1の画像及び第2の画像を撮像することができる。
また、本発明においては、第2の画像が表示された画面上に、第1の演算手段(第1の演算工程)により算出された第1の投射空間を該第2の画像に投影した領域を併せて表示し、第2の指定手段(第2の指定工程)により、その投影領域のうち障害物を内包した部分を切取るように2本の線を指定することによって、第2の閉領域がそれら2本の線と投影領域の外形線とで囲まれる領域に設定されるように構成することができる(請求項3、請求項7の発明)。これによれば、第2の閉領域の指定をより容易に行うことができるようになり、重複領域の算出の処理もより簡単となる。
本発明においては、第1及び第2の指定手段(指定工程)により指定される閉領域を、楕円又は四角形とすることができる(請求項4、請求項8の発明)。これによれば、閉領域の指定の作業が容易となり、演算手段(演算工程)による投射空間の算出の処理も簡単となる。
以下、本発明を具体化した一実施例について、図面を参照しながら説明する。尚、この実施例は、例えば自動車用部品などのワークの部品の組付けが正しく行われているかどうか等を検査するための視覚検査用のロボットシステムに本発明を適用したものである。まず、図4は、本実施例におけるロボットシステムの外観構成を概略的に示している。
ここで、検査設備1は、例えば短いトンネル状をなし、その下部には搬送路2(搬送装置)が設けられ、検査対象物であるワークWは、その搬送路2を送られて検査設備1の所定位置に停止され、その位置にて外観検査が行われるようになっている。前記検査設備1の天井部(架台)に、ロボット3が下向きに取付けられている。このロボット3は、例えば多関節(6軸)型のロボットアーム4を備え、そのロボットアーム4の先端部(手先部)に撮像手段として機能する例えばCCDカメラ等のカメラ5が取付けられている。
このとき、前記ロボットアーム4(各軸のモータ)は、ロボットコントローラ6により、三次元の固有座標系(ロボット座標系)に基づいて動作制御され、前記カメラ5を任意の位置(位置及び向き(姿勢))に自在に移動させるようになっている。また、前記ロボットコントローラ6は、画像処理装置としての機能を内蔵し、前記カメラ5の撮像データの処理を行うようになっている。
前記ロボットコントローラ6は、検査プログラムの実行により、搬送路2上を送られて検査設備1の所定位置に停止されたワークWに対し、予め教示された三次元的な位置や向きの異なる複数の目標点(検査点)に前記カメラ5を順に移動させながら撮影を行い、その撮影画像を処理することに基づいて、ワークWの各部の外観検査(部品の組付けが正しく行われているかどうか等)を行うようになっている。このとき、上記複数の目標点(検査点)の位置データ(ロボット3の位置及び姿勢)は、予め教示(ティーチング)されて記憶されるようになっている。また、この教示時には、併せて、ロボット3の進入禁止領域も設定されるようになっている。
尚、前記カメラ5は、撮影時の光学的条件(視野の大きさ(焦点距離)、レンズのピント、絞り等)が自動調整されるようになっているが、後述する進入禁止領域の設定処理の実行時においては、それら条件が一定値に固定されるようになっている。また、このカメラ5の撮影画像のカメラ座標系と、上記ロボット座標系とのキャリブレーション(座標変換)がなされることは勿論である。
そして、上記のようなワークWの外観検査を行うにあたり、複数の検査点の位置を教示(設定)すると共に、ロボット3の進入禁止領域を設定するための本実施例に係る教示装置について以下述べる。この教示装置は、図4に示すように、この場合、例えば汎用のパーソナルコンピュータシステムから構成され、前記ロボットコントローラ6に接続されたパソコン本体7に、表示装置8、並びに、キーボード9及びマウス10からなる入力操作装置などを接続して構成されている。
詳しく図示はしないが、前記パソコン本体7は、CPU、ROM、RAM、画像メモリ、前記キーボード9及びマウス10からの入力を制御する入力制御部、前記表示装置8の表示を制御する表示制御部、外部からのデータの入出力を制御する入出力制御部等を備えて構成されている。前記ROMには、前記検査点を教示するための教示用プログラムや、進入禁止領域を設定するための進入禁止領域設定用プログラムなどが記憶されている。また、前記画像メモリには、後述するように、前記カメラ5が撮像した画像データが記憶されるようになっており、記憶手段として機能する。
パソコン本体7は、表示装置8の画面に、前記カメラ5の撮影画像(モニタ画像)を表示することが可能となっている。そして、本実施例では、オペレータMが、キーボード9やマウス10を操作することにより、前記ロボットコントローラ6を介してロボットアーム4を手動により遠隔操作することができるようになっており、これらキーボード9やマウス10が遠隔操作手段として機能する。尚、前記ロボットコントローラ6には、図示しないティーチングペンダントが接続可能とされ、このティーチングペンダントを遠隔操作手段として用いる(単独使用或いは併用する)ことも可能である。
さて、パソコン本体7は、そのソフトウエア的構成(進入禁止領域設定用プログラムの実行)により、オペレータMによるキーボード9やマウス10の操作に基づき、本実施例に係る教示方法(各工程)を実行し、ロボット3の作業空間における障害物(この場合ワークW)の存在する領域を、ロボット3の進入禁止領域として設定するようになっている。この教示作業は、実際の検査設備1において、搬送路2の所定位置にワークWが停止された状態で、ロボット3(カメラ5)を用いて行われる。
このとき、本実施例では、カメラ5が、第1及び第2の撮像手段として機能し、また、キーボード9又はマウス10が、第1及び第2の指定手段として機能する。指定手段としては、タッチペン等のペン型のデバイスを採用することも可能であり、表示装置8の画面にタッチパネルなどを設けて、ダイレクトに指定する構成としても良い。尚、このロボット3の進入禁止領域の設定の処理は、検査点の教示の作業に先立って行われる。これにより、検査点の教示作業時に、ロボット3がワークWに干渉することが防止される。さらに、検査点の教示後の軌道生成(計算)時にも、ロボット3が進入禁止領域に進入することのないように軌道が求められる。
具体的には、後の作用説明(フローチャート説明)でも述べるように、パソコン本体7は、進入禁止領域の設定の処理を、次のようにして実行する。即ち、まず、オペレータMの操作により、カメラ5をワークW全体が視野内に収まる第1の位置及び第1の方向(これらをまとめて「第1の姿勢」と称する)に移動させ、第1の画像を撮像すること(第1の撮像工程)が行われる。次いで、カメラ5を前記第1の姿勢とは異なる第2の位置及び第2の方向(これらをまとめて「第2の姿勢」と称する)に移動させ、第2の画像を撮像すること(第2の撮像工程)が行われる。
この際、第1及び第2の姿勢の情報(ロボット座標系における位置及び方向のデータ)が、メモリ(RAM)に記憶されると共に、撮像された2つの画像の画像データは、画像メモリに記憶される。尚、このとき、第1の方向と第2の方向とは、90度程度の角度異なっていることが望ましい(図2参照)。
次に、図1にも示すように、表示装置8の画面に前記第1の画像を表示させ、その状態で、オペレータMがキーボード9又はマウス10を操作して当該画面上に前記ワークWを内包した第1の閉領域を指定すること(第1の指定工程)が行われる。本実施例では、第1の閉領域は、例えば楕円形(真円を含む)とされる。すると、パソコン本体7は、指定された第1の閉領域を前記第1の方向に延長した第1の投射空間(第1の方向に延びる円筒状の空間)をロボット3の作業空間内に仮想的に算出する(第1の演算工程)。
引続き、表示装置8の画面に前記第2の画像を表示させ、その状態で、オペレータMが、キーボード9又はマウス10を操作して当該画面上に前記ワークWを内包した第2の閉領域を指定すること(第2の指定工程)が行われる。このとき、本実施例では、第2の画像が表示された画面上に、上記第1の演算工程により算出された第1の投射空間を該第2の画像に投影した領域を併せて表示することが行われる。そして、第2の指定工程では、その投影領域のうちワークWを内包した部分を切取るように2本の線(直線)を指定することによって、第2の閉領域がそれら2本の線と投影領域の外形線とで囲まれる領域(四角形の領域)に設定される。
第2の閉領域が指定されると、パソコン本体7は、指定された第2の閉領域を前記第2の方向に延長した第2の投射空間をロボット3の作業空間内に仮想的に算出する(第2の演算工程)と共に、作業空間内における前記第1の投射空間と第2の投射空間とが重なる重複領域を算出し、その重複領域を進入禁止領域として設定するようになっている(設定工程)。従って、本実施例では、パソコン本体7(CPU)が、第1及び第2の演算手段、並びに、設定手段として機能するようになっている。
次に、上記構成の作用について、図1〜図3も参照して述べる。図3のフローチャートは、上記した進入禁止領域の設定の処理手順を示している。オペレータMは、検査設備1において、搬送路2の所定位置(実際の作業位置)にワークWを配置した状態で、進入禁止領域設定用プログラムを実行させる。進入禁止領域の設定の処理が開始されると、まず、ステップS11にて、カメラ5とロボット3(ロボットアーム4)との位置関係のキャリブレーションが実行される。
ステップS12〜S18では、撮像工程が実行される。ここでは、カメラ5の撮影したモニタ画像が表示装置8の画面に表示され(ステップS12)、オペレータMが、そのモニタ画面を見ながら、キーボード9又はマウス10を操作することにより(ステップ1S3)、操作に応じてカメラ5(ロボットアーム4)が移動される(ステップS14)。オペレータMは、ワークWにできるだけ近づくようにカメラ5を移動させ、ワークW全体が視野内に(画面ほぼ一杯に)収まる第1の姿勢にカメラ5を移動させたところで、移動を停止させ、撮像操作を行うことにより(ステップS15)、カメラ5による撮像動作が実行される(ステップS16)。そして、その第1の画像I1(図1参照)の画像データが記憶されると共に、その撮像時のカメラ5の第1の位置及び第1の方向のデータが記憶される(ステップS17)。
次のステップS18では、2箇所について撮像動作が実行されたかどうかが判断される。未だ1箇所のみの撮像であれば(No)、ステップS12に戻り、オペレータMは、今度は、上記第1の姿勢とは異なる第2の姿勢にカメラ5を移動させ、上記と同様にワークW全体が視野内に(画面ほぼ一杯に)収まる第2の姿勢にて、カメラ5による撮像動作を実行させる(ステップS12〜S16)。これにより、第2の画像I2(図1参照)の画像データが記憶されると共に、その撮像時のカメラ5の第2の位置及び第2の方向のデータが記憶される(ステップS17)。
このとき、図2にロボットアーム4とカメラ5とを模式的に示すように、ステレオ視の原理を用いて進入禁止領域を設定する(ワークWの存在領域を求める)関係上、第1の姿勢における向き(第1の方向)と、第2の姿勢における向き(第2の方向)とが、角度45度〜90度程度、なかでも角度90度程度異なっていることが望ましい。また、ワークWまでの撮像距離もほぼ同等とすることが望ましい。図2では、第1の姿勢としてワークWの斜め左方向から第1の画像I1を撮像し(実線)、その後、第2の姿勢として、角度がほぼ90度異なるワークWの斜め右方向から第2の画像I2を撮像する様子(破線)を示している。尚、図1及び図2では、便宜上ワークWを立方体として図示している。
このようにして2箇所での撮像動作が完了すると(ステップS18にてYes)、ステップS19〜S25にて、指定工程及び演算工程、並びに設定工程が実行される。即ち、図1(a)にも示すように、まずステップS19では、表示装置8の画面に、第1の画像I1を表示することが行われ、次のステップS20では、オペレータMが、その画面上で、前記ワークWを内包した第1の閉領域A1を指定することが行われる(第1の指定工程)。このとき、図1に示すように、第1の閉領域A1はワークWの画像を取囲む例えば楕円形状とされ、オペレータMは、キーボード9又はマウス10を操作して、例えば、中心点と長短の半径とを指定することにより、第1の閉領域A1を簡単に指定することができる。
ステップS21では、第1の閉領域A1を第1の方向に延長した第1の投射空間P1をロボット3の作業空間内に仮想的に算出することが行われる(第1の演算工程)。この第1の投射空間P1は、カメラ5の第1の位置と第1の方向とから、カメラ5の撮像面(第1の方向に直交する映像プレーンS1)に描かれた第1の閉領域A1を、第1の方向に延長することにより、作業空間内に定義される円筒状の空間として容易に算出される。また、その投射空間P1内に、前記ワークW全体が含まれることは勿論である。
次いで、ステップS22では、表示装置8の画面に、第2の画像I2を表示することが行われるのであるが、ここでは、図1(b)に示すように、上記ステップS21で算出された第1の投射空間P1を、第2の画像I2に投影した領域が、第2の画像I2に重ねて表示される。この場合、第1の投射空間Pを投影した領域は、円筒状の空間の2本の外形線で表され、その2本の線の間に、ワークWの画像が存在することになる。次のステップS23では、オペレータMが、その画面上で、前記ワークWを内包した第2の閉領域A2を指定することが行われる(第2の指定工程)。
本実施例では、この第2の閉領域A2の指定は、図1(c)に示すように、オペレータMが、キーボード9又はマウス10を操作して、第2の画像I2に重ねて表示された第1の投射空間Pの投影領域のうち、ワークWを内包した部分を切取るように2本の線(直線L1、L2)を指定することによって行われ、第2の閉領域A2は、それら2本の直線L1、L2と投影領域の外形線とで囲まれる四角形の領域に設定される。この場合、オペレータMは、直線L1、L2の夫々の両端の点を指定すれば良く、第2の閉領域A2を、簡単に指定することができる。
ステップS24では、図1(d)に示すように、指定された直線L1、L2を、カメラ5の撮像面(第2の方向に直交する映像プレーンS2)に対して垂直に延ばした2つの平面が算出され、その2つの平面で前記第1の投射空間P1を切断した円柱状の領域(仮想円柱C)が算出される。これにより、実質的には、第2の閉領域A2を第2の方向に延長した第2の投射空間P2が作業空間に仮想的に算出され(第2の演算工程)、その第2の投射空間P2と前記第1の投射空間P1とが重なる重複領域が、仮想円筒Cとして算出されることになる。このとき、求められた仮想円筒Cは、ワークW全体が包含され、実際にワークWが存在する空間よりもやや広めの空間とされている。
ステップS25では、その仮想円筒Cの存在領域が、ロボット3の進入禁止領域として設定され(設定工程)、処理が終了される。尚、設定された進入禁止領域のデータは、ロボットコントローラ6に送信され、記憶される。障害物が複数ある場合には、次の障害物に対し上記した処理を繰返すようにすれば良い。この場合、障害物としては、ワークWに限らず、ワーク等を保持するために必要となる治具や、作業空間内に固定的に配置される他の設備なども含まれることは勿論である。
これにて、その後の検査点の教示作業においては、ロボット3が進入禁止領域に進入しないようにしながら行われるので、ロボットアーム4やカメラ5がワークWに干渉(接触)することを未然に防止することができる。さらに、検査点の教示後の軌道生成(計算)時にも、ロボット3が進入禁止領域に進入することのないように軌道が求められ、検査作業時にもロボット3がワークWに干渉することが防止されるのである。
このように本実施例のロボットの教示装置及び教示方法によれば、実機(検査設備1)において、カメラ5によりワークW全体を撮像した第1の画像I1及び第2の画像I2から、基本的には、ステレオ視の原理による三次元計測に基づき、作業空間における障害物(ワークW)の存在する領域をロボット3の進入禁止領域として設定することができる。そして、パソコン本体7は、画像中の障害物の頂点やエッジの検出を行う必要もなく、投射空間P1,P2や重複領域(仮想円筒C)を求めるだけで済むので、画像データの処理を比較的簡単に済ませることができるものである。
このとき、オペレータMが、2つの画像間における障害物の対応点の指示を行う必要はなく、オペレータMは、単純にワークW全体を囲むように、第1の画像I1が表示された画面上において第1の閉領域A1を指定し、第2の画像I2が表示された画面上において2直線L1,L2を指定するだけで済むので、操作が容易となる。またこのとき、ワークWの形状が単純であるか複雑であるかに影響を受けることはなく、撮像方向によって画像中の障害物の必要な頂点やエッジが隠れてしまうことに起因する不具合も生じない。
特に本実施例においては、第1の閉領域A1を楕円形状とし、さらに、2本の直線L1、L2により第2の閉領域A2を指定するように構成したので、第2の閉領域A2の指定をより容易に行うことができるようになり、重複領域の算出の処理もより簡単となる。更に、本実施例では、ロボット3(ロボットアーム4)に取付けられたカメラ5を、撮像手段として利用し、遠隔操作によりカメラ5を移動させて2つの画像を撮像するように構成したので、検査設備1に設置されているロボット3及びカメラ5をそのまま利用することができ、別途にカメラを設けるような場合と比較して、構成を簡単に済ませることができるものである。
尚、本発明は上記した実施例に限定されるものではなく、例えば、次のような拡張、変更が可能である。即ち、上記実施例では、ロボットアーム4の手先部に取付けられたカメラ5を撮像手段として利用したが、ロボットとは独立して設けられた1台或いは2台のカメラを撮像手段として用いることもできる。この場合、カメラは、固定であっても移動可能に設けても良く、ロボットの座標系とカメラの画像上の座標系とのキャリブレーションが適切になされることによって、上記実施例と同様に実施することができる。
上記実施例では、表示装置8の画面に第2の画像I2を表示する際に、第1の投射空間Pを第2の画像I2に投影した領域を併せて表示し、2本の直線L1、L2により第2の閉領域A2の指定を行うように構成したが、第2の閉領域A2に関しても、第1の閉領域A1の指定と同様に、楕円を指定するように構成しても良い。この場合、第2の閉領域A2を第2の方向に延長した円筒状の第2の投射空間P2が求められ、その後、重複領域を算出することにより、進入禁止領域が設定されることになる。
また、オペレータMが指定する閉領域は、楕円形状に限らず、例えば四角形としても良い。四角形の閉領域の場合、オペレータMは、画面上で4個の頂点を指定したり、長方形(正方形)の場合は中心点と一つの頂点とを指定したりすることにより、閉領域を指定することが可能である。閉領域を四角形とした場合でも、投射空間や重複領域の演算を比較的容易に行うことができる。
さらには、上記実施例では、ロボットコントローラ6にパソコンシステムを接続して、パソコン本体7によって、進入禁止領域設定の処理を実行させるように構成したが、パソコンシステムを、単に表示及び入力操作を行うための周辺機器として用い、ロボットコントローラ6側において、制御や演算を行う構成としても良い。また、パソコンシステムに代えて、表示装置を備えたティーチングペンダントを採用しても良く、パソコンシステムに加えて、ロボットを手動操作するためにティーチングペンダント(操作ペンダント)を用いても良いことは勿論である。
上記実施例では、ワークに対して2つの方向から夫々第1の画像及び第2の画像を撮像するよう構成したが、それに加えて、さらにそれらとは異なる方向及び位置から第3の画像さらにはそれ以上の画像を撮像し、それら画像をも考慮して進入禁止領域(重複領域)を設定するように構成しても良い。これによれば、進入禁止領域をより詳細に設定することが可能となる。その他、本発明は、視覚検査用のロボットシステムに限らず、組立作業用、塗装作業用など各種のロボットシステム全般に適用することができ、また、ロボット3(ロボットアーム4)の形状や構造などについても、種々の変形が可能であるなど、要旨を逸脱しない範囲内で適宜変更して実施し得るものである。
本発明の一実施例を示すもので、進入禁止領域の設定の工程を説明するための図 第1の姿勢及び第2の姿勢を説明するための図 進入禁止領域の設定の処理手順を示すフローチャート ロボットのシステムの構成を概略的に示す斜視図
符号の説明
図面中、1は検査設備、3はロボット、4はロボットアーム、5はカメラ(撮像手段)、6はロボットコントローラ、7はパソコン本体(演算手段,設定手段)、8は表示装置(表示手段)、9はキーボード(指定手段)、10はマウス(指定手段)、Wはワーク(障害物)を示す。

Claims (8)

  1. 三次元座標系で定義されロボットの作業が実行される作業空間における、障害物の存在する領域を、前記ロボットの進入禁止領域として設定するロボットの教示装置であって、
    前記作業空間内に配置された前記障害物全体が視野内に収まる第1の画像を、第1の位置及び第1の方向から撮像する第1の撮像手段と、
    前記作業空間内に配置された前記障害物全体が視野内に収まる第2の画像を、前記第1の位置及び第1の方向とは相違する第2の位置及び第2の方向から撮像する第2の撮像手段と、
    前記第1の画像及び第2の画像を画面上に表示可能な表示手段と、
    前記第1の画像が表示された画面上の、前記障害物を内包した第1の閉領域を指定するための第1の指定手段と、
    前記第1の閉領域を前記第1の方向に延長した第1の投射空間を前記作業空間内に仮想的に算出する第1の演算手段と、
    前記第2の画像が表示された画面上の、前記障害物を内包した第2の閉領域を指定するための第2の指定手段と、
    前記第2の閉領域を前記第2の方向に延長した第2の投射空間を前記作業空間内に仮想的に算出する第2の演算手段と、
    前記作業空間内における前記第1の投射空間と第2の投射空間とが重なる重複領域を算出し、その重複領域を進入禁止領域として設定する設定手段とを具備することを特徴とするロボットの教示装置。
  2. 前記ロボットを手動操作により自在に移動させるための遠隔操作手段を備えていると共に、前記第1及び第2の撮像手段は、前記ロボットの手先部に取付けられたカメラから構成されており、
    前記遠隔操作手段の操作により、前記第1の位置及び第1の方向に移動されたカメラによって第1の画像が撮像され、次に、前記第2の位置及び第2の方向に移動されたカメラによって第2の画像が撮像されるように構成されていることを特徴とする請求項1記載のロボットの教示装置。
  3. 前記第2の画像が表示された画面上には、前記第1の演算手段により算出された第1の投射空間を該第2の画像に投影した領域が併せて表示され、前記第2の指定手段により、その投影領域のうち前記障害物を内包した部分を切取るように2本の線を指定することによって、前記第2の閉領域がそれら2本の線と前記投影領域の外形線とで囲まれる領域に設定されるように構成されていることを特徴とする請求項1又は2記載のロボットの教示装置。
  4. 前記第1及び第2の指定手段により指定される閉領域は、楕円又は四角形とされることを特徴とする請求項1ないし3のいずれかに記載のロボットの教示装置。
  5. 三次元座標系で定義されロボットの作業が実行される作業空間における、障害物の存在する領域を、前記ロボットの進入禁止領域として設定するためのロボットの教示方法であって、
    前記作業空間内に配置された前記障害物全体が視野内に収まる第1の画像を、撮像装置により第1の位置及び第1の方向から撮像する第1の撮像工程と、
    前記作業空間内に配置された前記障害物全体が視野内に収まる第2の画像を、撮像装置により前記第1の位置及び第1の方向とは相違する第2の位置及び第2の方向から撮像する第2の撮像工程と、
    表示装置の画面に前記第1の画像が表示された状態で、指定操作装置により当該画面上に前記障害物を内包した第1の閉領域を指定する第1の指定工程と、
    前記第1の閉領域を前記第1の方向に延長した第1の投射空間を前記作業空間内に仮想的に算出する第1の演算工程と、
    前記表示装置の画面に前記第2の画像が表示された状態で、前記指定操作装置により当該画面上に前記障害物を内包した第2の閉領域を指定する第2の指定工程と、
    前記第2の閉領域を前記第2の方向に延長した第2の投射空間を前記作業空間内に仮想的に算出する第2の演算工程と、
    前記作業空間内における前記第1の投射空間と第2の投射空間とが重なる重複領域を算出し、その重複領域を進入禁止領域として設定する設定工程とを実行することを特徴とするロボットの教示方法。
  6. 前記ロボットの手先部に前記撮像装置としてのカメラが取付けられていると共に、該ロボットを手動操作により自在に移動させるための遠隔操作手段を備え、
    前記第1の撮像工程は、前記遠隔操作手段の操作により、前記第1の位置及び第1の方向に前記カメラを移動させることにより実行され、前記第2の撮像工程は、前記遠隔操作手段の操作により、前記第2の位置及び第2の方向に前記カメラを移動させることにより実行されることを特徴とする請求項5記載のロボットの教示方法。
  7. 前記第2の指定工程においては、前記第2の画像が表示された画面上に、前記第1の演算工程において算出された第1の投射空間を該第2の画像に投影した領域が併せて表示され、その投影領域のうち前記障害物を内包した部分を切取るように2本の線を指定することにより、前記第2の閉領域がそれら2本の線と前記投影領域の外形線とで囲まれた領域に設定されることを特徴とする請求項5又は6記載のロボットの教示方法。
  8. 前記第1及び第2の指定工程において指定される閉領域は、楕円又は四角形とされることを特徴とする請求項5ないし7のいずれかに記載のロボットの教示方法。
JP2007101663A 2007-04-09 2007-04-09 ロボットの教示装置及び教示方法 Expired - Fee Related JP4844453B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007101663A JP4844453B2 (ja) 2007-04-09 2007-04-09 ロボットの教示装置及び教示方法
US12/078,930 US8306661B2 (en) 2007-04-09 2008-04-08 Method and system for establishing no-entry zone for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007101663A JP4844453B2 (ja) 2007-04-09 2007-04-09 ロボットの教示装置及び教示方法

Publications (2)

Publication Number Publication Date
JP2008254150A true JP2008254150A (ja) 2008-10-23
JP4844453B2 JP4844453B2 (ja) 2011-12-28

Family

ID=39827672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007101663A Expired - Fee Related JP4844453B2 (ja) 2007-04-09 2007-04-09 ロボットの教示装置及び教示方法

Country Status (2)

Country Link
US (1) US8306661B2 (ja)
JP (1) JP4844453B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011041990A (ja) * 2009-08-19 2011-03-03 Denso Wave Inc ロボットの制御装置及びロボットのティーチング方法
WO2016174841A1 (ja) * 2015-04-28 2016-11-03 セイコーエプソン株式会社 ロボットシステム及びロボット
JP2016203346A (ja) * 2015-04-28 2016-12-08 セイコーエプソン株式会社 ロボットシステムおよびロボット

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602009000644D1 (de) * 2009-02-27 2011-03-03 Honda Res Inst Europe Gmbh Roboter mit automatischer Auswahl von aufgabenspezifischen Darstellungen zur Imitationserlernung
US8457791B2 (en) * 2009-03-10 2013-06-04 GM Global Technology Operations LLC Method for dynamically controlling a robotic arm
WO2013049597A1 (en) * 2011-09-29 2013-04-04 Allpoint Systems, Llc Method and system for three dimensional mapping of an environment
JP2013210254A (ja) * 2012-03-30 2013-10-10 Canon Inc 三次元計測装置、三次元計測方法及び三次元計測プログラム
JP6171457B2 (ja) * 2013-03-25 2017-08-02 セイコーエプソン株式会社 ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP6322959B2 (ja) * 2013-11-05 2018-05-16 セイコーエプソン株式会社 ロボット、ロボットシステム、及びロボット制御装置
CN105792996B (zh) * 2013-11-28 2017-07-25 三菱电机株式会社 机器人系统以及机器人系统的控制方法
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
JP6380828B2 (ja) * 2014-03-07 2018-08-29 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
EP2963513B1 (en) * 2014-07-01 2022-08-24 Seiko Epson Corporation Teaching apparatus and robot system
JP6601155B2 (ja) * 2015-10-28 2019-11-06 株式会社デンソーウェーブ ロボット制御システム
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
JP6822069B2 (ja) * 2016-11-01 2021-01-27 オムロン株式会社 監視システム、監視装置、および監視方法
DE102017102621B3 (de) * 2017-02-09 2018-05-09 Franka Emika Gmbh Roboter
JP6356845B1 (ja) * 2017-02-13 2018-07-11 ファナック株式会社 検査システムの動作プログラムを生成する装置および方法
CN107336230B (zh) * 2017-05-09 2020-05-05 浙江工业大学 一种基于投影和距离判断的工业机器人碰撞预测方法
JP7035555B2 (ja) * 2018-01-23 2022-03-15 セイコーエプソン株式会社 教示装置、及びシステム
CN108687771B (zh) * 2018-05-07 2020-06-23 浙江理工大学 一种基于v-rep平台的trs机器人自动操控方法
JP7063131B2 (ja) * 2018-06-11 2022-05-09 株式会社豊田自動織機 自律走行台車
TWI721324B (zh) * 2018-10-10 2021-03-11 鴻海精密工業股份有限公司 電子裝置及立體物體的判斷方法
DE102018133472B3 (de) * 2018-12-21 2020-03-12 Franka Emika Gmbh Bewegungsüberwachung eines Robotermanipulators
CN111216127A (zh) * 2019-12-31 2020-06-02 深圳优地科技有限公司 一种机器人控制方法、装置、服务器及介质
CN111752252A (zh) * 2020-07-18 2020-10-09 大连交通大学 一种自动化柔性对接装配控制系统及方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05119823A (ja) * 1991-10-24 1993-05-18 Hitachi Ltd ロボツトの軌道計画方法及び制御装置
JPH06126666A (ja) * 1992-10-16 1994-05-10 Mitsubishi Electric Corp ロボットの制御装置
JPH1083446A (ja) * 1996-09-09 1998-03-31 Sony Corp 障害物検出装置、障害物検出方法、移動装置及び移動方法
JP2000317868A (ja) * 1999-05-07 2000-11-21 Sony Corp ロボット装置及びロボット装置の行動決定方法
JP2002288637A (ja) * 2001-03-23 2002-10-04 Honda Motor Co Ltd 環境情報作成方法
JP3343682B2 (ja) * 1999-06-18 2002-11-11 独立行政法人産業技術総合研究所 ロボット動作教示装置および動作教示方法
JP2005291717A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 検知対象検知システム
JP2005324297A (ja) * 2004-05-17 2005-11-24 Matsushita Electric Ind Co Ltd ロボット
JP2006192562A (ja) * 2004-12-14 2006-07-27 Honda Motor Co Ltd 自律移動ロボット

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4754415A (en) * 1984-10-12 1988-06-28 Diffracto Ltd. Robotic alignment and part simulation
JP2003148914A (ja) * 2001-11-08 2003-05-21 Fanuc Ltd 位置検出装置及び位置検出を利用した取出し装置
US6678582B2 (en) * 2002-05-30 2004-01-13 Kuka Roboter Gmbh Method and control device for avoiding collisions between cooperating robots
JP4159577B2 (ja) * 2005-12-13 2008-10-01 ファナック株式会社 複数のロボット間のインターロック自動設定装置及び自動設定方法
JP4298757B2 (ja) * 2007-02-05 2009-07-22 ファナック株式会社 ロボット機構のキャリブレーション装置及び方法
DE102007008903A1 (de) * 2007-02-23 2008-08-28 Abb Technology Ag Einrichtung zum Steuern eines Roboters

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05119823A (ja) * 1991-10-24 1993-05-18 Hitachi Ltd ロボツトの軌道計画方法及び制御装置
JPH06126666A (ja) * 1992-10-16 1994-05-10 Mitsubishi Electric Corp ロボットの制御装置
JPH1083446A (ja) * 1996-09-09 1998-03-31 Sony Corp 障害物検出装置、障害物検出方法、移動装置及び移動方法
JP2000317868A (ja) * 1999-05-07 2000-11-21 Sony Corp ロボット装置及びロボット装置の行動決定方法
JP3343682B2 (ja) * 1999-06-18 2002-11-11 独立行政法人産業技術総合研究所 ロボット動作教示装置および動作教示方法
JP2002288637A (ja) * 2001-03-23 2002-10-04 Honda Motor Co Ltd 環境情報作成方法
JP2005291717A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 検知対象検知システム
JP2005324297A (ja) * 2004-05-17 2005-11-24 Matsushita Electric Ind Co Ltd ロボット
JP2006192562A (ja) * 2004-12-14 2006-07-27 Honda Motor Co Ltd 自律移動ロボット

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011041990A (ja) * 2009-08-19 2011-03-03 Denso Wave Inc ロボットの制御装置及びロボットのティーチング方法
WO2016174841A1 (ja) * 2015-04-28 2016-11-03 セイコーエプソン株式会社 ロボットシステム及びロボット
JP2016203346A (ja) * 2015-04-28 2016-12-08 セイコーエプソン株式会社 ロボットシステムおよびロボット

Also Published As

Publication number Publication date
US8306661B2 (en) 2012-11-06
JP4844453B2 (ja) 2011-12-28
US20080249659A1 (en) 2008-10-09

Similar Documents

Publication Publication Date Title
JP4844453B2 (ja) ロボットの教示装置及び教示方法
US11565427B2 (en) Robot system
JP4191080B2 (ja) 計測装置
JP7490349B2 (ja) 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
JP4167954B2 (ja) ロボット及びロボット移動方法
US10052765B2 (en) Robot system having augmented reality-compatible display
US8406923B2 (en) Apparatus for determining pickup pose of robot arm with camera
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP4021413B2 (ja) 計測装置
JP5499802B2 (ja) 視覚検査システム
JP5850958B2 (ja) ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
EP1215017A2 (en) Robot teaching apparatus
JP2015150636A (ja) ビジュアルフィードバックを利用したロボットシステム
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
EP3421930A1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
US20190030722A1 (en) Control device, robot system, and control method
JP2014184543A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP2009269134A (ja) 視覚検査装置のシミュレーション装置
JP5573537B2 (ja) ロボットのティーチングシステム
JP5610211B2 (ja) 投影面情報提示装置と方法
US10656097B2 (en) Apparatus and method for generating operation program of inspection system
Sreenath et al. Monocular tracking of human hand on a smart phone camera using mediapipe and its application in robotics
JP2778376B2 (ja) カメラ視点変更方式
JP6343930B2 (ja) ロボットシステム、ロボット制御装置、及びロボット制御方法
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110926

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4844453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees