JP2005205519A - ロボットハンド装置 - Google Patents
ロボットハンド装置 Download PDFInfo
- Publication number
- JP2005205519A JP2005205519A JP2004013435A JP2004013435A JP2005205519A JP 2005205519 A JP2005205519 A JP 2005205519A JP 2004013435 A JP2004013435 A JP 2004013435A JP 2004013435 A JP2004013435 A JP 2004013435A JP 2005205519 A JP2005205519 A JP 2005205519A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- hand
- axis
- robot
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 32
- 230000000007 visual effect Effects 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 238000004904 shortening Methods 0.000 abstract 1
- 238000000034 method Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002674 endoscopic surgery Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
【解決手段】作業対象に対して所定のシーケンス動作を行うハンド部4と、ハンド部4を支持するロボットアーム1と、作業対象に向けられたセンサ2とを備えている。ロボットアーム1およびハンド部4により形成される作業軸Z1と、センサ2から作業対象に向けられたセンサ軸Z2とを一致させた。
【選択図】図1
Description
たとえば、ワークを把持する場合には、ハンド部(多指ハンドなど)に据え付けられたセンサ(電子カメラ)情報を用いて、コンピュータの演算処理によりワーク情報(位置および傾きなど)を認識し、ワークを自動的に把持する制御動作が要求されている(たとえば、特許文献1参照)。
この場合、ハンド部とセンサとの干渉を回避するため、センサを駆動するためのサーボモータを必要とする場合があり、装置が大形化する可能性がある。
また、上記のように作業軸とは異なるセンサ軸(視点)を有するセンサ(電子カメラ)を用いた場合、撮像と同時にハンド部を指定視点に移動させようとすると、極めて複雑な座標変換が必要となる。
特許文献2に記載されたカメラ内蔵型のロボットハンド装置は、ちりや挨の侵入回避を目的としており、たとえば遠隔操作(手動)でクリーンルーム内のワークを検査または把持する際に、ロボットハンドおよびカメラを一体的に密閉構造としたものである。
しかし、この場合も、作業軸とカメラの光軸とを一致させる技術思想は示唆されておらず、カメラを用いて視覚制御する概念も当然ながら示唆されていない。視覚制御することができない理由は、特許文献2の出願当時においては、コンピュータの画像処理速度が遅く、視覚情報を処理し且つその処理結果に基づいて実用的な速度でロボットハンド装置を自動的に制御することが困難であったからである。
この場合、視覚情報獲得部と把持部とが別体で構成されており、患部と鉗子との位置関係を鉗子の軸とは異なる視点にあるカメラでとらえて、人間が鉗子をマニュアル操作するようになっている。
また、ハンド部を指定視点に移動させようとした場合には、作業軸とは異なる視点からのセンサ情報であることから、複雑な座標変換処理が必要となり、演算処理に多大な時間を要するためコストアップを招くという課題があった。
また、装置全体がコンパクト化されるとともに、構造的にセンサと他の物体との接触や衝突などが起こりにくくなり、センサを確実に保護することができる。
図1はこの発明の実施の形態1に係るロボットハンド装置を示す斜視図であり、センサ(電子カメラ)2の内蔵位置を示している。
また、図2は制御システム全体を概略的に示す構成図であり、図1のロボットハンド装置を制御部とともに示している。図2においては、煩雑さを避けるために、ハンド部4の図示を省略している。
センサ2は、ハンド支持部3の中央位置に内蔵されており、作業対象(図示せず)に向けられた小形で高解像度(たとえば、1392×1040画素)且つ低歪みの電子カメラ(CCDカメラまたはCMOSカメラなど)により構成されている。
ハンド部4は、開閉動作する多指ハンドにより構成されており、作業対象(対象物体)に対して所定のシーケンス動作を行うように制御駆動される。
また、ここでは、図示を省略するが、センサ2は、作業軸Z1に対して垂直方向に且つ対称位置に配列された一組(一対)の電子カメラ部(ステレオカメラ)により構成されてもよい。この場合、センサ軸Z2は、複数の電子カメラ部の光軸により合成されて形成されることになる。
さらに、センサ2は、レーザ、超音波または磁界を用いた変位センサ(または、エリアセンサ)を含んでいてもよい。
センサ(たとえば、高解像度のCCDカメラ)2は、レンズ2aは対象物体5に向けられており、対象物体5の全体が撮影画像内に収まるように対象物体5を撮影するようになっている。
センサ2により撮影された画像は、通信手段(ネットワークまたはケーブル)11を介してパーソナルコンピュータ(以下、「パソコン」という)10に入力され、対象物体5の位置姿勢を認識するために用いられる。
パソコン10内の画像処理手段は、アーム先端部1aのマニピュレータ部に取り付けられたセンサ2からの撮影画像に基づいて、対象物体5の位置および姿勢を認識する。
パソコン10内の視覚制御手段は、対象物体5の位置および姿勢に基づいてハンド部4を指定視点に移動させ、所定のシーケンス制御動作を実行させる。
このとき、前述のように、作業軸Z1とセンサ軸Z2とが一致しているので、ハンド部4(マニピュレータ先端部)の座標軸とセンサ2の座標軸との間の余分な座標変換が不要となる。
ここでは、モデル・ベースド・マッチング手法に基づく位置姿勢認識処理を例にとって説明する。なお、必要となる対象物体5の3次元CADデータは、パソコン10内にあらかじめ用意されているものとする。
図3において、センサ2の座標系(カメラ座標系)[Oc−Xc,Yc,Zc]は、視点の位置を原点Ocとし、視線の方向をZc軸にとっている。
また、CADモデル座標系[Om−Xm,Ym,Zm]において、原点Omを対象物体5の中心にとっている。
さらに、画像平面上の座標系[O−X,Y]は、原点Oを画像平面の左上隅にとっている。画像平面は、画像平面の中心座標[Mx,My]において、カメラ座標系のZc軸と垂直に交わるように配置されているものとして、以下説明する。
すなわち、CADモデル座標系の各軸[Xm,Ym,Zm]に対して、対象物体5を各角度[Xθ,Yθ,Zθ]で回転させ、さらに、CADモデル座標系の原点Omをカメラ座標系の点t=[Xc,Yc,Zc]におくと、3つの角度パラメータ[Xθ,Yθ,Zθ]が対象物体5の姿勢を表し、3つのパラメータ[Xc,Yc,Zc]が対象物体5の位置を表すことになる。
したがって、対象物体5の位置姿勢は、6つのパラメータ[Xθ,Yθ,Zθ,Xc,Yc,Zc]によって定義される。
また、式(4)において、uは有効焦点距離であり、レンズ2aから撮像素子までの距離に相当しており、以下の式(5)のように求められる。
ここで、合焦距離Wとは、レンズ2aのピントが合っている距離を示し、焦点距離fとは、合焦距離Wを無限遠に合わせたときのレンズ2aから撮像素子までの距離のことである。
なお、CADモデル座標系におけるモデル画像とは、図3に示すように、指定した位置姿勢(傾き、奥行き、距離)を表す6つのパラメータ[Xθ,Yθ,Zθ,Xc,Yc,Zc]によって、3次元CADデータから生成される対象物体5の画像として定義されるものとする。
図4はセンサ情報(撮影画像)に基づくパソコン10の視覚制御(ビジュアルサーボ)動作、すなわち、対象物体5の位置姿勢認識結果に基づく指定視点へのセンサ2(電子カメラ)およびハンド部4の移動処理を示している。
なお、指定視点とは、センサ2(電子カメラ)からの相対的な対象物体5の位置姿勢パラメータが任意に指定されている視点のことである。
続いて、対象物体5の位置姿勢情報の認識結果に基づいて、ロボットアーム1を駆動し、センサ2およびハンド部4を指定視点に向けて移動させる(ステップS4)。
一方、ステップS5において、センサ2およびハンド部4が指定視点に到達した(すなわち、YES)と判定されれば、図4の処理ルーチンを終了する。
まず、ステップS2において、パソコン10内の視覚制御手段は、センサ2から取得された撮影画像に対して、エッジ強調処理、2値化処理、雑音除去処理、細線化処理、塗りつぶし処理、および、輪郭抽出処理を順に実行し、対象物体5の輪郭画像を抽出する。輪郭画像とは、撮影画像から対象物体5の外側の輪郭線のみを抽出した2値画像である。
前述のように、対象物体5の位置姿勢に関する自由度は、CADモデル座標系の各軸[Xm,Ym,Zm]に対する回転角度[Xθ,Yθ,Zθ]と、CADモデル座標系の原点Omをカメラ座標系で表したときのパラメータ[Xc,Yc,Zc]との6つになる。
3つの回転角度[Xθ,Yθ,Zθ]が対象物体5の姿勢を示し、3つのパラメータ[Xc,Yc,Zc]が対象物体5の位置を示すので、対象物体5の位置姿勢を認識することは、上記6つのパラメータを推定することに相当する。
(A1)奥行き位置Zc、
(A2)2次元位置[Xc,Yc]、
(A3)Zm軸の回転角Zθ、
(A4)Xm、Ym軸の回転角[Xθ,Yθ]、
の順に推定する。
すなわち、ステップS3で認識した対象物体5の位置姿勢パラメータに基づき、対象物体5に対して相対的な指定視点に向けて、センサ2付きのロボットアーム1を移動する場合、ロボットアーム1の有している絶対座標の位置パラメータを指定することにより、ロボットアーム1を移動させる。
ロボットアーム1の作業軸Z1とセンサ2のセンサ軸Z2(CCDカメラの光軸)とが一致している場合、ロボットアーム1の座標系とカメラ座標系との関係は、同軸(Z軸)上での平行移動関係となる。
たとえば、ハンド部4が多指ハンド(マニピュレータ)であって、対象物体5が把持部品の場合には、対象物体5を撮影した後、センサ2からの撮影情報を用いて、対象物体5の位置姿勢情報(存在位置および傾きなど)をパソコン10で計算して認識することにより、人間の作業を特に必要とせずに自動的に対象物体5を把持することができる。
また、このとき、作業軸Z1とセンサ軸Z2とが同一線上に設定されているので、ハンド部4とセンサ2との干渉を確実に回避してセンサ2による検出精度を向上させることができる。また、演算が容易であり、画像処理およびフィードバック制御を簡略化することができ、パソコン10の処理時間を短縮させてコストダウンを実現することができる。
また、センサ2(電子カメラ)は、センサ軸Z2に対してハンド部4が干渉しないように内蔵配置されており、センサ2の視界(センサ軸Z2)を遮るものが存在しないので、対象物体5を確実に且つ正確に検出することができる。特に、ハンド部4(多指ハンド)を広げた状態において、センサ2の視界は最大となる。また、センサ2を駆動するサーボモータが不要となるので、コンパクト化を実現することができる。
また、作業軸Z1とセンサ軸Z2とを一致させたことに加えて、アーム先端部1aにセンサ2が配置されているので、センサ2から対象物体5までの距離を最短に設定することができ、検出精度をさらに向上させることができる。
上記効果は、視覚制御(ビジュアルサーボ)に適用した場合に、特に有効である。
視覚制御技術の具体例は、たとえば特開2003−311674号公報、特開2003−94367号公報などに参照することができる。
また、センサ2として1台のCCDカメラを内蔵し、対象物体5のモデルデータを用いて位置姿勢情報を取得する場合を例にとって説明したが、複数(一対または3個以上)のCCDカメラを内蔵してステレオ視覚手段を構成してもよい。
この場合、センサ2(電子カメラ)は、作業軸Z1に対して垂直方向に且つ対称位置に配列された一組(たとえば、一対)の電子カメラ部(立体センサ)により構成され、センサ軸Z2は、複数の電子カメラ部の光軸により合成されて形成されることになる。
このように、2台以上のCCDカメラを用いた場合には、パソコン10内で対象物体5の奥行きを含めた3次元的認識処理時に、モデルデータを不要にすることができる。
また、センサ2として、電子カメラのみならず、レーザ、超音波または磁界を用いた変位センサ(エリアセンサ)とを組み合わせて用いてもよい。
この場合、変位センサとの組み合わせにより、対象物体5の位置姿勢情報をさらに高精度に取得することができる。
また、上記実施の形態1では、モデル・ベースド・マッチング手法に基づく位置姿勢認識処理を例にとって説明したが、他の手法に基づく位置姿勢認識処理を適用しても、同等の作用効果を奏することは言うまでもない。
さらに、センサ2からの信号を用いてロボットアーム1またはハンド部4を制御する一般的な手法に対し、この発明が適用可能なことは言うまでもないことである。
Claims (7)
- 作業対象に対して所定のシーケンス動作を行うハンド部と、
前記ハンド部を支持するロボットアームと、
前記作業対象に向けられたセンサと
を備えたロボットハンド装置において、
前記ロボットアームおよび前記ハンド部により形成される作業軸と、前記センサから前記作業対象に向けられたセンサ軸とを一致させたことを特徴とするロボットハンド装置。 - 前記ロボットアームと前記ハンド部とを接続するために前記ロボットアームの先端部に設けられたハンド支持部を備え、
前記センサは、前記ハンド支持部に設けられたことを特徴とする請求項1に記載のロボットハンド装置。 - 前記ハンド部は、開閉動作する多指ハンドにより構成され、
前記センサは、前記多指ハンドの作業軸に配置されたことを特徴とする請求項1または請求項2に記載のロボットハンド装置。 - 前記センサは、電子カメラを含むことを特徴とする請求項1から請求項3までのいずれか1項に記載のロボットハンド装置。
- 前記電子カメラは、前記作業軸に対して垂直方向に且つ対称位置に配列された一組の電子カメラ部により構成され、
前記センサ軸は、前記複数の電子カメラ部の光軸により合成されて形成されたことを特徴とする請求項4に記載のロボットハンド装置。 - 前記センサは、レーザ、超音波または磁界を用いた変位センサを含むことを特徴とする請求項4または請求項5に記載のロボットハンド装置。
- 前記電子カメラにより撮影された画像を処理する画像処理手段と、
前記画像処理手段の処理結果を用いて前記ハンド部を駆動する視覚制御手段と
を備えたことを特徴とする請求項4から請求項6までのいずれか1項に記載のロボットハンド装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004013435A JP2005205519A (ja) | 2004-01-21 | 2004-01-21 | ロボットハンド装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004013435A JP2005205519A (ja) | 2004-01-21 | 2004-01-21 | ロボットハンド装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005205519A true JP2005205519A (ja) | 2005-08-04 |
Family
ID=34899487
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004013435A Pending JP2005205519A (ja) | 2004-01-21 | 2004-01-21 | ロボットハンド装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005205519A (ja) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN100340379C (zh) * | 2005-11-14 | 2007-10-03 | 哈尔滨工业大学 | 空间机器人手爪 |
| JP2007319973A (ja) * | 2006-05-31 | 2007-12-13 | Hitachi Ltd | ロボット装置 |
| JP2009066678A (ja) * | 2007-09-11 | 2009-04-02 | Yaskawa Electric Corp | ロボットハンドおよびロボットハンドシステム |
| CN101733749A (zh) * | 2009-12-22 | 2010-06-16 | 哈尔滨工业大学 | 空间机器人多领域统一建模与仿真系统 |
| CN102514015A (zh) * | 2011-12-23 | 2012-06-27 | 哈尔滨工业大学 | 三指形抓捕定位机构 |
| CN106628270A (zh) * | 2016-11-08 | 2017-05-10 | 上海宇航系统工程研究所 | 一种飞行器捕获连接及分离装置 |
| WO2019176809A1 (ja) * | 2018-03-14 | 2019-09-19 | 日本電産株式会社 | ロボットハンド、ロボット |
| CN113752280A (zh) * | 2021-10-12 | 2021-12-07 | 中南大学 | 七自由度解耦主操作手 |
| JP2023105585A (ja) * | 2022-01-19 | 2023-07-31 | 本田技研工業株式会社 | ロボットハンド、およびロボットハンド制御方法 |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6039087A (ja) * | 1983-08-12 | 1985-02-28 | ダイセル化学工業株式会社 | ロボツト |
| JPS6079413A (ja) * | 1983-10-06 | 1985-05-07 | Sumitomo Electric Ind Ltd | 視覚装置を用いた位置決め方法 |
| JPH0413530A (ja) * | 1990-04-27 | 1992-01-17 | Mitsubishi Electric Corp | 産業用組立ロボット教示方法 |
| JPH04166014A (ja) * | 1990-10-26 | 1992-06-11 | Iseki & Co Ltd | 果実収穫機 |
| JPH0631666A (ja) * | 1992-07-15 | 1994-02-08 | Fujitsu Ltd | 知能ロボット |
| JPH06218682A (ja) * | 1993-01-26 | 1994-08-09 | Sharp Corp | 組立用ロボット |
| JPH0970786A (ja) * | 1995-09-06 | 1997-03-18 | Ricoh Co Ltd | 把持ハンド |
| JP2003326485A (ja) * | 2002-05-08 | 2003-11-18 | Mitsubishi Heavy Ind Ltd | 捕獲用センサ付マニピュレータ |
-
2004
- 2004-01-21 JP JP2004013435A patent/JP2005205519A/ja active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6039087A (ja) * | 1983-08-12 | 1985-02-28 | ダイセル化学工業株式会社 | ロボツト |
| JPS6079413A (ja) * | 1983-10-06 | 1985-05-07 | Sumitomo Electric Ind Ltd | 視覚装置を用いた位置決め方法 |
| JPH0413530A (ja) * | 1990-04-27 | 1992-01-17 | Mitsubishi Electric Corp | 産業用組立ロボット教示方法 |
| JPH04166014A (ja) * | 1990-10-26 | 1992-06-11 | Iseki & Co Ltd | 果実収穫機 |
| JPH0631666A (ja) * | 1992-07-15 | 1994-02-08 | Fujitsu Ltd | 知能ロボット |
| JPH06218682A (ja) * | 1993-01-26 | 1994-08-09 | Sharp Corp | 組立用ロボット |
| JPH0970786A (ja) * | 1995-09-06 | 1997-03-18 | Ricoh Co Ltd | 把持ハンド |
| JP2003326485A (ja) * | 2002-05-08 | 2003-11-18 | Mitsubishi Heavy Ind Ltd | 捕獲用センサ付マニピュレータ |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN100340379C (zh) * | 2005-11-14 | 2007-10-03 | 哈尔滨工业大学 | 空间机器人手爪 |
| JP2007319973A (ja) * | 2006-05-31 | 2007-12-13 | Hitachi Ltd | ロボット装置 |
| JP2009066678A (ja) * | 2007-09-11 | 2009-04-02 | Yaskawa Electric Corp | ロボットハンドおよびロボットハンドシステム |
| CN101733749A (zh) * | 2009-12-22 | 2010-06-16 | 哈尔滨工业大学 | 空间机器人多领域统一建模与仿真系统 |
| CN102514015A (zh) * | 2011-12-23 | 2012-06-27 | 哈尔滨工业大学 | 三指形抓捕定位机构 |
| CN106628270A (zh) * | 2016-11-08 | 2017-05-10 | 上海宇航系统工程研究所 | 一种飞行器捕获连接及分离装置 |
| CN106628270B (zh) * | 2016-11-08 | 2019-01-08 | 上海宇航系统工程研究所 | 一种飞行器捕获连接及分离装置 |
| WO2019176809A1 (ja) * | 2018-03-14 | 2019-09-19 | 日本電産株式会社 | ロボットハンド、ロボット |
| CN113752280A (zh) * | 2021-10-12 | 2021-12-07 | 中南大学 | 七自由度解耦主操作手 |
| CN113752280B (zh) * | 2021-10-12 | 2023-02-03 | 中南大学 | 七自由度解耦主操作手 |
| JP2023105585A (ja) * | 2022-01-19 | 2023-07-31 | 本田技研工業株式会社 | ロボットハンド、およびロボットハンド制御方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4506685B2 (ja) | 移動型ロボット | |
| JP6855492B2 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
| JP7111114B2 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
| JP4167954B2 (ja) | ロボット及びロボット移動方法 | |
| US8315455B2 (en) | Robot system, robot control device and method for controlling robot | |
| EP2682711B1 (en) | Apparatus and method for three-dimensional measurement and robot system comprising said apparatus | |
| JP2009241247A (ja) | ステレオ画像型検出移動装置 | |
| WO2020024178A1 (zh) | 一种手眼标定方法、系统及计算机存储介质 | |
| JP6816070B2 (ja) | 干渉回避装置およびロボットシステム | |
| CN114341930B (zh) | 图像处理装置、拍摄装置、机器人以及机器人系统 | |
| US12128571B2 (en) | 3D computer-vision system with variable spatial resolution | |
| JP4849178B2 (ja) | 移動型ロボット | |
| JP2005205519A (ja) | ロボットハンド装置 | |
| JP5609760B2 (ja) | ロボット、ロボットの動作方法、及びプログラム | |
| US20230150142A1 (en) | Device and method for training a machine learning model for generating descriptor images for images of objects | |
| JP7055883B2 (ja) | ロボット | |
| JP2006224291A (ja) | ロボットシステム | |
| JPS6334093A (ja) | 視覚装置 | |
| JP2006007390A (ja) | 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体 | |
| JP2016203282A (ja) | エンドエフェクタの姿勢変更機構を備えたロボット | |
| CN116372954A (zh) | Ar沉浸式遥操作排爆机器人系统、控制方法和存储介质 | |
| KR100868882B1 (ko) | 로봇 헤드 | |
| KR20210004553A (ko) | 전자 장치, 이를 이용한 스테레오 영상 복원 방법 및 컴퓨터로 읽을 수 있는 기록 매체 | |
| JPH0665472B2 (ja) | 視覚装置 | |
| WO2024048491A1 (ja) | ロボットシステム、および、ロボットシステムの制御方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061020 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080529 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080603 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080725 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090120 |
