JP5862382B2 - 作業支援装置 - Google Patents

作業支援装置 Download PDF

Info

Publication number
JP5862382B2
JP5862382B2 JP2012057109A JP2012057109A JP5862382B2 JP 5862382 B2 JP5862382 B2 JP 5862382B2 JP 2012057109 A JP2012057109 A JP 2012057109A JP 2012057109 A JP2012057109 A JP 2012057109A JP 5862382 B2 JP5862382 B2 JP 5862382B2
Authority
JP
Japan
Prior art keywords
distance
image
robot
calculation unit
voxel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012057109A
Other languages
English (en)
Other versions
JP2013188840A (ja
Inventor
清宏 宗玄
清宏 宗玄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2012057109A priority Critical patent/JP5862382B2/ja
Publication of JP2013188840A publication Critical patent/JP2013188840A/ja
Application granted granted Critical
Publication of JP5862382B2 publication Critical patent/JP5862382B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Description

本発明は、作業支援装置に関する。
近年、ロボットを利用した物の運搬が行われている。例えば、ロボットに撮像装置を備え、撮像装置で取得した映像に基づいてユーザがロボットを遠隔操作する技術が知られている。ユーザは、撮像装置で取得された映像を表示したモニタを確認しながら、ロボットを操作する。
また典型的には、ロボットには撮像装置のみならず、複数のセンサが設けたものを利用する。撮像装置及び複数のセンサで取得された情報は、複数のモニタに表示させることや、1つのモニタに分割表示させる。ここでセンサにより取得される情報とは、例えばロボットから対象物体までの距離情報や、対象物体の形状情報である。したがってユーザは、モニタに表示された撮像画像やセンサから取得された情報を確認しながら、ロボットを操作することができる。
特許文献1には、作業機械を操縦するユーザに対して、距離画像のみならず、作業対象物の形状、重心といった情報を画像に重ね置きすることでユーザの作業効率を高める支援装置が開示されている。
特許文献2には、ロボットの各関節の動作範囲や特異点による動作制限が、動作余裕量として数値で定量的に表示されるロボットの動作可能領域の表示方法が開示されている。
特開2010−060344号公報 特開2009−226561号公報
Point Cloud Library、[online]、[平成24年2月21日検索]、インターネット〈URL:http:// http://pointclouds.org/〉
特許文献1に示した支援装置により、ロボット搭載の距離画像センサ情報や認識物体の形状をHMI(Human Machine Interface)に表示することで、ユーザはロボットへの支持を効率的に行うことができる。しかしながらこの支援装置では、ロボットアームが指示点に到達できるか否かの観点が不足しているため、例えば、表示されている物体重心へ、ロボットハンド等のエンドエフェクターを近づけようとしても近づけられず、タスクが実行できない可能性がある。
本発明にかかる作業支援装置は、対象物体を運搬するロボットと、前記ロボットから遠隔に設けられた表示手段と、を備える作業支援装置であって、前記ロボットは、対象物体を把持するロボットアームと、前記ロボットアームが到達可能な範囲をボクセル単位で算出する可到達範囲生成器と、前記可到達範囲生成器で生成した前記ロボットアームの到達範囲を記憶するボクセル空間データ記憶部と、前記ロボットの視点の画像及び前記ロボットからの距離を取得する距離画像センサと、前記距離画像センサにより取得した画像及び距離に基づいて距離点を計算する距離点計算部と、前記距離点計算部により計算された距離点と、前記ボクセル空間データ記憶部に記憶されたボクセルとの比較に基づいて、ボクセルの可到達点数を算出する可到達得点抽出器と、前記距離画像センサが取得した画像に、前記可到達性点数を重畳した画像を生成するアルファブレンディング計算部と、を有し、前記表示手段は、前記アルファブレンディング計算部で生成された画像を表示する。
これによりユーザは、ロボットアームが対象物体に到達できるか否かを、容易に判断することができる。
ロボットによるタスクの実行可能性をユーザが容易に判断できる。
実施の形態1にかかる作業支援装置1の構成図である。 実施の形態1にかかる空間のボクセル単位での離散化を示す図である。 実施の形態1にかかるボクセルの代表点を示す図である。 実施の形態1にかかる作業支援装置1の動作フローを示す図である。 実施の形態1にかかる逆運動学計算を示す図である。 実施の形態1にかかるHMI19の表示を示す図である。 実施の形態2にかかる作業支援装置2の構成図である。 実施の形態2にかかる作業支援装置2の動作フローを示す図である。 実施の形態2にかかるHMI19の表示を示す図である。 実施の形態3にかかる作業支援装置3の構成図である。 実施の形態3にかかる作業支援装置3の動作フローを示す図である。 実施の形態3にかかるグリッド上への距離点のプロットを示す図である。 実施の形態3にかかるラベリング処理の結果を示す図である。
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、作業支援装置1の構成を示した図である。作業支援装置1は、ロボット10と、HMI19と、を備える。
ロボット10は、ロボットアーム11と、可到達範囲生成器12と、ボクセル空間データ記憶部13と、距離画像センサ14と、距離点計算部15と、可到達得点抽出器16と、アルファブレンディング計算部17と、画像送信部18と、を有する。
ロボットアーム11は、一端がロボット10の本体部に接続しており、他端がロボットハンドであって物体の把持が可能となっている。またロボットアーム11は複数の関節を有し、関節を駆動させることによって、ロボットハンドに対象物体を適切な角度で把持させる。ロボットアーム11の関節やロボットハンドは、例えばアクチュエータにより駆動する。
可到達範囲生成器12は、ロボットアームが到達可能な空間情報のデータを生成する。具体的には、可到達範囲生成器12は、空間を直方体の集合であるボクセル単位に離散化し、各ボクセルに対してボクセル中心を代表点とする。図2は、ロボット10の前方の空間をボクセル単位に離散化した例である。図3は、ボクセルの代表点を示した図である。また可到達範囲生成器12は、ボクセルの代表点に基づいて、ロボットアーム11の可到達性得点を算出する。可到達点の算出方法については、後に詳述する。
ボクセル空間データ記憶部13は、可到達範囲生成器12で取得したロボットアームが到達可能な空間情報のデータを記憶する。
距離画像センサ14は、KINECT(登録商標)等の距離センサである。距離画像センサ14は、撮影した画像に基づいて、1ピクセル毎の(R,G,B,D)値を取得する。ここで、RGBはカラー画素値であり、Dはセンサからの距離値[m]である。
なお、距離画像センサ14は、独立した1台の距離センサと1台のカラーカメラを使い、射影変換を用いることで1ピクセル毎の(R,G,B,D)値を得ることも可能であるが、簡単のためKINECT(登録商標)のような距離画像センサを用いるのが好ましい。1台の距離センサと1台のカラーカメラを用いる場合の射影変換は、式(1)の方法により行う。
Figure 0005862382
ここで(X,Y,Z)は距離点、(x,y)はピクセル座標、Pは射影行列である。
距離点計算部15は、ピクセル(u,v)で計測された距離値(D)を基に、距離点(X,Y,Z)を得る計算部である。
可到達得点抽出器16は、ボクセル空間データ記憶部13に記憶されているボクセルの座標との比較に基づいて、可到達性得点を算出する。具体的には、可到達得点抽出器16は、距離点(X,Y,Z)が、ボクセル空間データ記憶部13に記憶しているボクセルのうち、どのボクセルに包含されるか計算し、そのボクセルの可到達性得点(0.0〜1.0)を得る。ここで可到達性得点は、点数が大きいほど到達可能性が高いものとする。
アルファブレンディング計算部17は、アルファブレンド画像を生成する。アルファブレンディング計算部17による計算は、例えば式(2)のように行う。
Figure 0005862382
ここで、(Roriginal,Goriginal,Boriginal)は距離画像センサのカラー画素値、Reachabilityは可到達性得点、αはアルファブレンディングの具合を示す。なお、可到達性得点は青色(0,0,255)で描画する。
画像送信部18は、アルファブレンディング計算部17で生成した画像を、ロボット10から遠隔に設けられたHMI19に送信する。
HMI19は、ユーザにより操作が可能な表示手段である。HMI19は、画像送信部18から受信した画像を表示する。ユーザは、HMI19に表示された画像上の対象物を、カーソルやタッチパネル等により選択することができる。またHMI19は、ユーザによる操作された結果をロボット10に送信する。
次に、作業支援装置1の動作について説明する。図4は、作業支援装置1による動作のフローチャートである。
可到達範囲生成器12は、ロボットアーム11の可到達範囲を生成する(ステップS1)。より具体的には、可到達範囲生成器12は、空間を複数のボクセル単位に分割し、ボクセル中心点を手先位置(X,Y,Z)として、手先姿勢角ロール・ピッチ・ヨーをそれぞれL,M,N分割し、位置姿勢
Figure 0005862382
において逆運動学が解けるか、L*M*N通り計算する。可到達範囲生成器12は、逆運動学が解けた回数をK回とすると、K/(L*M*N)をボクセルの可到達性得点とする。図5は、ロボットアーム11の上面図であり、逆運動学計算におけるボクセル代表点と、360°/Mの関係を示したものである。
可到達範囲生成器12は、生成した可到達範囲を、ボクセル空間データ記憶部13に記憶する(ステップS2)。
距離画像センサ14は、把持する対象物体の周囲のカラー画像と、距離画像を、それぞれ取得する(ステップS3)。
距離点計算部15は、距離画像センサ14により取得された画像から、ピクセル(u,v)で計測された距離値(D)に基づいて、距離点(X,Y,Z)を算出する(ステップS4)。
可到達得点抽出器16は、距離点計算部15により算出された距離点(X,Y,Z)が、ボクセル空間データ記憶部13に記憶されたボクセルのうち、どのボクセルに包含されるか計算する(ステップS5)。
アルファブレンディング計算部17は、HMI19に表示させるためのアルファブレンド画像を生成する(ステップS6)。アルファブレンディング計算部17により生成される画像は、ロボット10により撮影されたRGB画像に、距離情報Dの情報を重畳させたものである。
画像送信部18は、アルファブレンディング計算部17が生成したアルファブレンド画像を、HMI19に送信する(ステップS7)。HMI19は、アルファブレンディング計算部17が生成した画像を表示する。図6は、アルファブレンド画像をHMI19に表示した例である。HMI19における表示では、濃い青色で表示されている領域ほど、ロボットアーム11が到達し、タスクを実行できる可能性が高い領域となる。
これにより作業支援装置は、ロボット可到達範囲とセンサ計測範囲を重畳し、その結果をHMIの画面上に表示することができる。そのため、ユーザは指示点におけるロボットのタスク実行成功の可能性を、HMIの画面上で容易に知ることができる。
したがって作業支援装置は、ロボットにより対象物体を移動させるタスクが実行可能であるか否か判定し、判定結果をユーザにわかりやすく伝えることができる。
実施の形態2
図7は、作業支援装置2の構成を示した図である。作業支援装置2の構成物品については、作業支援装置1の構成物品と同様の機能を奏するものには同一の符号を付し、説明を省略する。
作業支援装置2は、ロボットアーム11と、可到達範囲生成器12と、ボクセル空間データ記憶部13と、距離画像センサ14と、距離点計算部15と、平面距離点群抽出部151と、可到達得点抽出器16と、アルファブレンディング計算部17と、画像送信部18と、HMI19と、を備える。
平面距離点群抽出部151は、距離点計算部15から得られる距離点を使用して、平面の検出を行う。ここで典型的には、平面距離点群抽出部151は、平面と判定された部分の距離点のみを抽出し、可到達得点抽出器16に出力する。
次に、作業支援装置2の動作について説明する。図8は、作業支援装置2による動作のフローチャートである。
可到達範囲生成器12は、ロボットアーム11の可到達範囲を生成する(ステップS11)。
可到達範囲生成器12は、生成した可到達範囲を、ボクセル空間データ記憶部13に記憶する(ステップS12)。
距離画像センサ14は、把持する対象物体の周囲のカラー画像と、距離画像を、それぞれ取得する(ステップS13)。
距離点計算部15は、距離画像センサ14により取得された画像から、ピクセル(u,v)で計測された距離値(D)に基づいて、距離点(X,Y,Z)を算出する(ステップS14)。
平面距離点群抽出部151は、距離点計算部15から得られる距離点を利用して、平面部分を抽出する(ステップS15)。例えば平面距離点群抽出部151は、平面部以外の可到達性得点を0.0として出力する。
可到達得点抽出器16は、平面距離点群抽出部151により検出された平面が、ボクセル空間データ記憶部13に記憶されたボクセルのうち、どのボクセルに包含されるか計算する(ステップS16)。
アルファブレンディング計算部17は、距離画像センサのカラー画素値と、可到達得点抽出器16により計算された可到達性得点に基づいて、HMI19に表示させるためのアルファブレンド画像を生成する(ステップS17)。
画像送信部18は、アルファブレンディング計算部17が生成したアルファブレンド画像を、HMI19に送信する(ステップS18)。HMI19は、アルファブレンディング計算部17が生成した画像を表示する。図9は、アルファブレンド画像をHMI19に表示した例であり、テーブル上が平面として認識されている状態を示している。HMI19における表示では、濃い青色で表示されている領域ほど、ロボットアーム11が到達し、タスクを実行できる可能性が高い領域となる。すなわち、青色で表示されている領域が、対象物体を置くことが可能な範囲である。
これにより作業支援装置は、ロボットが把持した物体を置くタスクにおいて、平面領域の範囲を条件に入れることで、物体を置くことが可能な範囲をHMI上に描画することができる。なお、物体を置くことが可能な範囲とは、ロボットアーム11が到達できる範囲であり、かつ、距離画像センサ14により計測が可能な範囲であり、かつ、平面上であるものとする。
したがって作業支援装置は、ロボットによって運搬される対象物体を置くことができる範囲を、ユーザにわかりやすく伝えることができる。
実施の形態3
図10は、作業支援装置3の構成を示した図である。作業支援装置3の構成物品については、作業支援装置2の構成物品と同様の機能を奏するものには同一の符号を付し、説明を省略する。
作業支援装置3は、ロボットアーム11と、可到達範囲生成器12と、ボクセル空間データ記憶部13と、距離画像センサ14と、距離点計算部15と、平面距離点群抽出部151と、座標処理部152と、可到達得点抽出器16と、アルファブレンディング計算部17と、画像送信部18と、HMI19と、を備える。
座標処理部152は、平面距離点群抽出部151で抽出された平面についてラベリング処理を行う。これにより座標処理部152は、対象物体の大きさよりも大きな平面である平面Svalidを検出し、Svalidに含まれる距離点群のみ、可到達得点抽出器16に出力する。
次に、作業支援装置3の動作について説明する。図11は、作業支援装置3による動作のフローチャートである。
可到達範囲生成器12は、ロボットアーム11の可到達範囲を生成する(ステップS21)。
可到達範囲生成器12は、生成した可到達範囲を、ボクセル空間データ記憶部13に記憶する(ステップS22)。
距離画像センサ14は、把持する対象物体の周囲のカラー画像と、距離画像を、それぞれ取得する(ステップS23)。
距離点計算部15は、距離画像センサ14により取得された画像から、ピクセル(u,v)で計測された距離値(D)に基づいて、距離点(X,Y,Z)を算出する(ステップS24)。
平面距離点群抽出部151は、距離点計算部15から得られる距離点を利用して、平面部分を抽出する(ステップS25)。
座標処理部152は、対象物体の大きさよりも大きな平面である平面Svalidを検出する(ステップS26)。具体的には、座標処理部152は、平面距離点群抽出部151で検出された平面の距離点群Dを取り出し、検出された平面に垂直な方向をZ'、平面に平行な方向をX',Y'、原点を平面上に取るΣ'座標系を定義する。また座標処理部152は、検出平面を一定の長さのグリッドへ分割する。その後、座標処理部152は、内部に距離点を含むグリッドを有効なグリッドとし、ラベリング処理によりグルーピングを行う。図12は、一定の長さのグリッドに分割された検出平面上に、距離点をプロットした状態を示している。図13は、有効なグリッドがラベリング処理によりグルーピングされ、第1の平面領域と第2の平面領域が生成された例を示している。座標処理部152は、グルーピングされた平面領域のうち、Wmax>Wobject、Hmax>Hobjectとなる平面Svalidを検出する。なお、Wmaxはグルーピングされた最大の平面領域のX'方向の距離、Hmaxはグルーピングされた最大の平面領域のX'方向の距離、Wobjectは対象物体の幅、Hobjectは対象物体の奥行きであり、Wobject及びHobjectは、ロボット10において既知であるものとする。なお、図13において、最大の平面領域は第1の平面領域である。
可到達得点抽出器16は、座標処理部152により算出されたSvalidに含まれる距離点群が、ボクセル空間データ記憶部13に記憶されたボクセルのうち、どのボクセルに包含されるか計算する(ステップS27)。
アルファブレンディング計算部17は、距離画像センサのカラー画素値と、可到達得点抽出器16により計算された可到達性得点に基づいて、HMI19に表示させるためのアルファブレンド画像を生成する(ステップS28)。
画像送信部18は、アルファブレンディング計算部17が生成したアルファブレンド画像を、HMI19に送信する(ステップS29)。HMI19は、アルファブレンディング計算部17が生成した画像を表示する。
これにより作業支援装置は、対象物体が大きく特定の面積以上の平面上でないと置けないような場合に、対象物体の大きさを考慮して、物体が置ける位置を表示させることができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、距離画像センサ14には、ステレオカメラを用いてカラー画像(R,G,B)と距離画像(D)を取得することとしても良く、カラー画像(R,G,B)と距離画像(D)を略同時に取得する方法であれば、他の方法であっても良い。また、アルファブレンド画像において、タスクの実行可能性を青色で表示するものとして説明したが、他の色で表示することとしても良い。
1 作業支援装置
2 作業支援装置
3 作業支援装置
10 ロボット
11 ロボットアーム
12 可到達範囲生成器
13 ボクセル空間データ記憶部
14 距離画像センサ
15 距離点計算部
16 可到達得点抽出器
17 アルファブレンディング計算部
18 画像送信部
19 表示手段
151 平面距離点群抽出部
152 座標処理部

Claims (1)

  1. 対象物体を運搬するロボットと、前記ロボットから遠隔に設けられた表示手段と、を備える作業支援装置であって、
    前記ロボットは、対象物体を把持するロボットアームと、
    前記ロボットアームが到達可能な範囲をボクセル単位で算出する可到達範囲生成器と、
    前記可到達範囲生成器で生成した前記ロボットアームの到達範囲を記憶するボクセル空間データ記憶部と、
    前記ロボットの視点の画像及び前記ロボットからの距離を取得する距離画像センサと、
    前記距離画像センサにより取得した画像及び距離に基づいて距離点を計算する距離点計算部と、
    前記距離点計算部により計算された距離点と、前記ボクセル空間データ記憶部に記憶されたボクセルとの比較に基づいて、ボクセルにおける前記ロボットアームの可到達性を示す可到達性得点を算出する可到達得点抽出器と、
    前記距離画像センサが取得した画像と、前記可到達性得点に基づいて、アルファブレンド画像を生成するアルファブレンディング計算部と、を有し、
    前記アルファブレンディング計算部は、前記距離画像センサが取得した画像の画素値と、前記可到達性得点とを重畳することで、前記アルファブレンド画像の画素値を決定し、
    前記表示手段は、前記アルファブレンディング計算部で生成された前記アルファブレンド画像を表示する、作業支援装置。
JP2012057109A 2012-03-14 2012-03-14 作業支援装置 Active JP5862382B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012057109A JP5862382B2 (ja) 2012-03-14 2012-03-14 作業支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012057109A JP5862382B2 (ja) 2012-03-14 2012-03-14 作業支援装置

Publications (2)

Publication Number Publication Date
JP2013188840A JP2013188840A (ja) 2013-09-26
JP5862382B2 true JP5862382B2 (ja) 2016-02-16

Family

ID=49389646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012057109A Active JP5862382B2 (ja) 2012-03-14 2012-03-14 作業支援装置

Country Status (1)

Country Link
JP (1) JP5862382B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014001168B4 (de) * 2014-01-31 2019-03-14 Abb Schweiz Ag Robotersteuerung
CN108121871B (zh) * 2017-12-21 2021-05-25 中国科学院遥感与数字地球研究所 一种室内空间可达范围生成方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4350389B2 (ja) * 2003-02-10 2009-10-21 ソニー株式会社 通信ネットワークシステム、携帯端末装置およびコンピュータプログラム
JP4951722B2 (ja) * 2010-07-27 2012-06-13 パナソニック株式会社 移動経路探索装置および移動経路探索方法

Also Published As

Publication number Publication date
JP2013188840A (ja) 2013-09-26

Similar Documents

Publication Publication Date Title
US10857675B2 (en) Control device, robot, and robot system
US9962839B2 (en) Robot apparatus, method for controlling the same, and computer program
CN105666505B (zh) 具备扩展现实对应显示器的机器人系统
JP5471355B2 (ja) 3次元視覚センサ
JP5897624B2 (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
US9981380B2 (en) Teaching apparatus and robot system
JP4850984B2 (ja) 動作空間提示装置、動作空間提示方法およびプログラム
JP5122887B2 (ja) 実写基盤移動機器の制御方法、装置および媒体
JP5423406B2 (ja) 情報処理装置、情報処理システム及び情報処理方法
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
WO2009113339A1 (ja) 動作教示システム及び動作教示方法
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP5213183B2 (ja) ロボット制御システム及びロボット制御プログラム
US9008442B2 (en) Information processing apparatus, information processing method, and computer program
JP6923574B2 (ja) 3次元形状計測システムおよび3次元形状計測方法
JP5862382B2 (ja) 作業支援装置
JP2011177808A (ja) ロボット制御装置
US20130271371A1 (en) Accurate extended pointing apparatus and method thereof
JP7176148B1 (ja) 溶接線検出システム
JP6265784B2 (ja) 姿勢推定システム、プログラムおよび姿勢推定方法
JP2013218423A (ja) 指向性映像コントロール装置及びその方法
JP2020142323A (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP2017113815A (ja) 対象物をロボットを用いて把持するロボットシステムの画像表示方法
WO2019093299A1 (ja) 位置情報取得装置およびそれを備えたロボット制御装置
US20230096097A1 (en) Welding Line Detection System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R151 Written notification of patent or utility model registration

Ref document number: 5862382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151