JP2015104796A - Gripping method, transportation method and robot - Google Patents
Gripping method, transportation method and robot Download PDFInfo
- Publication number
- JP2015104796A JP2015104796A JP2013249355A JP2013249355A JP2015104796A JP 2015104796 A JP2015104796 A JP 2015104796A JP 2013249355 A JP2013249355 A JP 2013249355A JP 2013249355 A JP2013249355 A JP 2013249355A JP 2015104796 A JP2015104796 A JP 2015104796A
- Authority
- JP
- Japan
- Prior art keywords
- gripping
- recognized
- area
- robot
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000007613 environmental effect Effects 0.000 claims abstract 7
- 230000005484 gravity Effects 0.000 claims description 11
- 238000009434 installation Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 9
- 230000032258 transport Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 4
Images
Abstract
Description
本発明は、把持方法、運搬方法及びロボットに関し、特に、物体を認識して把持する技術に関する。 The present invention relates to a gripping method, a transporting method, and a robot, and more particularly to a technique for recognizing and gripping an object.
特許文献1には、把持対象となる目標物が障害物に隠れている場合であっても、目標物を画像認識して把持することができるロボットが開示されている。このロボットは、カメラにより撮影された画像に基づいて障害物が存在すると判定した場合には、障害物をロボットアームによって移動させ、目標物の再認識処理を行う。そして、ロボットは、目標物を認識した場合に、その目標物を把持する動作を実行する。
しかしながら、特許文献1に開示のロボットは、障害物をわざわざ移動してからでないと目標物を把持することができず、効率が良くないという問題がある。また、障害物となる物体の位置を勝手に変更することが望まれない場合もあり得る。
However, the robot disclosed in
本発明は、上述のような問題を解決するためになされたものであり、把持対象となる物体の一部が障害物で隠れている場合であっても、障害物を移動させることなく、把持対象となる物体を適確に把持することができる把持方法、運搬方法及びロボットを提供することを目的とする。 The present invention has been made to solve the above-described problems. Even when a part of an object to be grasped is hidden by an obstacle, the object can be grasped without moving the obstacle. It is an object of the present invention to provide a gripping method, a transporting method, and a robot that can accurately grip a target object.
本発明の第1の態様に係る把持方法は、把持装置が取得した3次元情報である環境情報を取得し、取得した環境情報の中から把持対象物を認識し、認識した前記把持対象物の一部が障害物により隠されていた場合であっても前記把持対象物を把持装置により認識して把持する把持方法であって、前記把持対象物を含む周辺の環境情報を取得するステップと、取得された環境情報により、周辺の環境から前記把持対象物を認識するステップと、前記把持対象物の一部分が認識された場合に、把持対象物であると決定するステップと、前記把持対象物であると決定された物体の把持領域を決定するステップと、決定された把持領域を把持するステップとを備え、前記把持領域を決定するステップは、前記把持対象物を認識するステップにおいて前記把持対象物の一部分として認識された領域を、前記把持領域として決定するものである。 The gripping method according to the first aspect of the present invention acquires environment information that is three-dimensional information acquired by a gripping device, recognizes a gripping object from the acquired environment information, and recognizes the recognized gripping object. A gripping method for recognizing and gripping the gripping object by a gripping device even when part of the object is hidden by an obstacle, and acquiring surrounding environment information including the gripping object; A step of recognizing the gripping object from the surrounding environment based on the acquired environment information; a step of determining a gripping object when a part of the gripping object is recognized; and Determining the gripping area of the object determined to be, and gripping the determined gripping area, wherein the step of determining the gripping area is performed before the step of recognizing the gripping object. The recognized region as part of a grasped object is to determine as the gripping region.
本発明の第2の態様に係る運搬方法は、上述の態様に係る把持方法によって把持した把持対象物を運搬先に運搬する運搬方法であって、前記把持対象物の全体を認識するステップによって認識された把持対象物の全体が障害物を回避する軌道を決定し、その軌道で前記把持対象物を運搬するステップを備えるものである。 A transport method according to a second aspect of the present invention is a transport method for transporting a gripping object gripped by the gripping method according to the above-described aspect to a transport destination, and is recognized by the step of recognizing the entire gripping target object. The entire gripping object is provided with a step of determining a trajectory that avoids the obstacle and transporting the gripping object in the trajectory.
本発明の第3の態様に係るロボットは、3次元情報である環境情報を取得し、取得した環境情報の中から把持対象物を認識し、認識した前記把持対象物の一部が障害物により隠されていた場合であっても前記把持対象物を認識してロボットアームによって把持するロボットであって、前記把持対象物を含む周辺の環境情報を取得する環境情報取得部と、取得された環境情報により、周辺の環境から前記把持対象物の一部分が認識された場合に、把持対象物であると決定する物体認識部と、前記把持対象物であると決定された物体の把持領域を決定する把持領域決定部と、を備え、前記把持領域決定部は、前記把持対象物の一部分として認識された領域を、前記把持領域として決定することを特徴とするものである。 The robot according to the third aspect of the present invention acquires environment information that is three-dimensional information, recognizes a gripping object from the acquired environment information, and a part of the recognized gripping object is an obstacle. An environment information acquisition unit that recognizes the object to be grasped and grasps it with a robot arm even if it is hidden, and obtains surrounding environment information including the object to be grasped, and the obtained environment Based on the information, when a part of the gripping object is recognized from the surrounding environment, an object recognition unit that determines that the object is a gripping object and a gripping area of the object that is determined to be the gripping object are determined. A gripping region determining unit, wherein the gripping region determining unit determines a region recognized as a part of the gripping object as the gripping region.
物体の一部が障害物によって隠れている場合には、障害物によって隠れていない部分が認識されることになる。したがって、上述した本発明の各態様のように、把持対象物の一部分として認識された領域を把持領域として決定することで、障害物で隠れていない領域を把持することができるため、把持対象となる物体を把持する際における把持装置(ロボット)と障害物との接触を回避することができる。 When a part of the object is hidden by the obstacle, the part that is not hidden by the obstacle is recognized. Therefore, as in each aspect of the present invention described above, by determining an area that is recognized as a part of the object to be grasped as a grasping area, it is possible to grasp an area that is not hidden by an obstacle. It is possible to avoid contact between the gripping device (robot) and the obstacle when gripping an object.
上述した本発明の各態様によれば、把持対象となる物体の一部が障害物で隠れている場合であっても、障害物を移動させることなく、把持対象となる物体を適確に把持することができる把持方法、運搬方法及びロボットを提供することができる。 According to each aspect of the present invention described above, even when a part of an object to be grasped is hidden by an obstacle, the object to be grasped is accurately grasped without moving the obstacle. A gripping method, a transporting method, and a robot can be provided.
以下に図面を参照しながら、本発明の好適な実施の形態について説明する。以下の実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、それに限定されるものではない。また、以下の記載及び図面では、説明の明確化のため、当業者にとって自明な事項等については、適宜、省略及び簡略化がなされている。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. Specific numerical values and the like shown in the following embodiments are merely examples for facilitating understanding of the invention, and are not limited thereto unless otherwise specified. In the following description and drawings, matters obvious to those skilled in the art are omitted or simplified as appropriate for the sake of clarity.
<発明の実施の形態1>
本実施の形態1に係るロボット1について説明する。まず、図1を参照して、本実施の形態1に係るロボット1の外部構成について説明する。図1は、本実施の形態1に係るロボット1の外部構成図である。
<
The
ロボット1は、ロボット本体10、移動台車20、把持部30、及び頭部40を有している。ロボット1は、例えば、工場において人が行う荷物(物体)を運搬する作業を代行する産業ロボットとして利用することができる。また、ロボット1は、家庭内において物(物体)を人に拾い届ける作業を実行するサービスロボットとしても利用することができる。
The
移動台車20は、その上方でロボット本体10を支持するように、その上部がロボット本体10の下部に連結されている。移動台車20は、その下部に設けられた車輪(図示せず)を駆動することでロボット1を移動させる。
The upper part of the
把持部30は、ロボット本体10の前方に突出するように、ロボット本体10の前部に接続されている。把持部30は、多関節のアーム(ロボットアーム)である。把持部30は、その先端部に、任意の物体を把持できるハンド60を含む。これにより、ロボット1は、把持部30の各関節の角度を調整することで、ハンド60を所望の位置に移動させ、その位置に存在する物体を把持することができる。
The
頭部40は、ロボット本体10の上方でロボット本体10に支持されるように、ロボット本体10の上部に連結されている。頭部40は、その前方を撮像部50によって観測可能となるように、その前部に撮像部50が取り付けられている。撮像部50は、ロボット1の周辺の環境を観測し、観測した環境を示す環境情報を生成(取得)する。撮像部50は、環境情報取得部として機能する。
The
撮像部50は、所定の角度範囲(画角)を測定可能となっている。一方、頭部40とロボット本体10との連結部は、頭部40を動作可能となるように多自由度の関節構造となっている。例えば、関節構造として少なくとも2自由度以上を有するようにすることで、頭部40は、少なくとも上下左右に動作させることが可能とされている。これにより、撮像部50の測定可能な角度範囲が限られていても、頭部40を動作させることで広範囲を観測することを可能としている。
The
ここで、撮像部50は、具体的には周辺の環境を撮像するカメラとなる。よって、撮像部50は、ロボット1の周辺を撮像して、ロボット1の周辺の画像を示す画像情報を環境情報として生成する。カメラは、単眼カメラ及びステレオカメラ等の各種カメラのうち、任意のカメラを使用するようにしてよい。
Here, the
上述した構成により、ロボット1は、撮像部50によって取得した画像情報が示す画像に基づいて周辺の環境に含まれる物体を認識する。そして、ロボット1は、認識した物体を把持部30によって把持して、その物体の運搬先となる目標地点へ移動台車20の車輪を駆動することで運搬する。
With the configuration described above, the
続いて、図2を参照して、本実施の形態1に係るロボット1の内部構成について説明する。図2は、本実施の形態1に係るロボット1の内部構成図である。
Next, the internal configuration of the
ロボット1は、制御部11、記憶部12、アクチュエータ21a、21b、車輪22a、22b、及びアクチュエータ31a、31bを有する。制御部11及び記憶部12は、ロボット本体10に含まれる。アクチュエータ21a、21b及び車輪22a、22bは、移動台車20に含まれる。アクチュエータ31a、31bは、把持部30に含まれる。
The
制御部11は、ロボット1を統括的に制御する。制御部11は、CPU(Central Processing Unit)を有しており、そのCPUが記憶部12に格納されたプログラムを実行することで、制御部11としての各種処理を実現する。すなわち、このプログラムは、制御部11が有するCPUに制御部11としての各種処理を実行させるためのコードを含んでいる。
The
記憶部12は、上記プログラムや、その他の制御部11が使用する各種情報が格納される。記憶部12は、上記プログラムや各種情報を格納可能な記憶装置の少なくとも1つを含む。記憶装置として、例えば、メモリ及びハードディスク等の少なくとも1つを任意に使用してよい。
The
アクチュエータ21a、21bは、ロボット1の車輪22a、22bを駆動する。アクチュエータ21aは、制御部11からの制御によって駆動され、車輪22aを回転させる。アクチュエータ21bは、制御部11からの制御によって駆動され、車輪22bを回転させる。
The
車輪22a及び車輪22bは、上述した移動台車20の下部に取り付けられた車輪に該当する。すなわち、制御部11は、アクチュエータ21a、21bを制御して、車輪22a、22bを回転させることでロボット1を移動させる。
The wheel 22a and the
アクチュエータ31a、31bは、ロボット1の把持部30を駆動する。アクチュエータ31a、31bは、制御部11からの制御によって駆動され、把持部30を動作させるアクチュエータ31a、31bのそれぞれは、把持部30の関節として設けられている。なお、ここでは、把持部30が、アクチュエータ31aとアクチュエータ31bとの2つの関節を有する例について説明するが、把持部30の関節数は、これに限られない。
The
ハンド60は、制御部11からの制御によって駆動され、物体を把持もしくは解放する。制御部11は、ハンド60によって把持対象の物体を把持する場合、各アクチュエータ31a、31b、21a、21bの少なくとも1つを駆動し、撮像部50から出力された画像情報が示す画像に基づいて認識した物体までハンド60を導く。
The
続いて、図3を参照して、本実施の形態1に係るロボット1の処理ブロックについて説明する。図3は、本実施の形態1に係るロボット1の処理ブロック図である。
Next, processing blocks of the
制御部11は、特徴抽出部111、特徴間対応付け部112、物体認識部113、及び把持可能部検出部114として機能する。
The
また、記憶部12は、物体情報格納部121として機能する。物体情報格納部121には、ロボット1が動作する環境に存在する複数の物体のそれぞれについて、物体認識用特徴情報、物体3Dモデル情報(物体形状情報)、特徴点位置情報、及び物体IDが格納されている。物体認識用特徴情報、物体3Dモデル情報、特徴点位置情報、及び物体IDは、同一の物体について相互に対応付けられている。これらの情報は、物体の種類毎に用意するようにしてもよい。
The
物体認識用特徴情報は、物体のモデルを特徴点(特徴点群)によって示す情報である。物体3Dモデル情報は、物体の3Dモデル(モデルとなる三次元形状)を示す情報である。特徴点位置情報は、物体3Dモデル情報が示す物体の3Dモデルに対する、物体認識用特徴情報が示す各特徴点の位置関係を示す情報である。物体IDは、各物体を一意に示す情報である。 The feature information for object recognition is information indicating an object model by feature points (feature point group). The object 3D model information is information indicating a 3D model (three-dimensional shape as a model) of the object. The feature point position information is information indicating the positional relationship of each feature point indicated by the object recognition feature information with respect to the 3D model of the object indicated by the object 3D model information. The object ID is information that uniquely indicates each object.
特徴抽出部111は、撮像部50から出力された画像情報が示す画像において特徴点(特徴点群)を抽出する。なお、特徴点を抽出するために利用する画像特徴として、SURF特徴、エッジ特徴、及びHOG(Histogram of Oriented Gradient)特徴等の特徴のうち、任意の特徴を利用するようにしてよい。
The
特徴点対応付け部112は、特徴抽出部111によって抽出された特徴点と、物体認識用特徴情報が示す物体のモデルの特徴点との対応付けを行う。すなわち、特徴点対応付け部112は、抽出された特徴点と、物体のモデルの特徴点とを照合(マッチング)することで、抽出された特徴点の中から物体のモデルの特徴点と一致する特徴点を特定し、相互に対応付ける。すなわち、これにより、画像の特徴点の中から、物体の特徴点が認識される。言い換えると、物体のモデルによって、画像中の物体が認識される。
The feature
物体認識部113は、特徴点対応付け部112によって特定された特徴点の対応関係に基づいて、物体の位置・姿勢を認識する。特徴認識部113は、物体の一部でも認識された場合には、その位置に物体が存在すると決定する。例えば、物体認識部113は、抽出された特徴点と物体のモデルの特徴点との間で対応付けられた(一致した)特徴点が、物体のモデルの全ての特徴点に対して所定の割合を超えている場合に、その位置にその物体が存在するものと認識してもよい。また、物体認識部113は、特徴点位置情報が示す物体の3Dモデルと物体の特徴点との位置関係に基づいて、抽出された物体の特徴点から、物体の姿勢(傾き)を特定する。なお、物体の位置には、ロボット1から物体までの距離も含まれる。ここで、ロボット1から物体までの距離は、撮像部50が単眼カメラであれば、特徴点間の距離に基づいて推定するようにすればよく、2つの以上の画像を撮像するステレオカメラであれば、2つの画像間の同一地点のズレ量(例えば同一特徴点のズレ量等)に基づいて算出するようにすればよい。
The
把持可能部検出部114は、物体の認識結果に基づいて、把持部30によって把持可能な部分を検出する。具体的には、把持可能部検出部114は、物体の一部として認識できている領域を、把持部30によって把持可能な領域として決定する。すなわち、把持可能部検出部114は、物体のうち、抽出された物体の特徴点と、物体のモデルの特徴点とが一致している領域を、把持部30によって把持可能な領域として決定する。そして、把持可能部検出部114は、その領域のいずれかの部分を、把持部30によって把持可能な部分(把持する部分)として決定する。例えば、物体において、抽出された物体の特徴点のうち、物体のモデルの特徴点群と一致する特徴点の重心となる部分を把持可能な部分として決定する。物体認識部113及び把持可能部検出部114は、認識部として機能する。
The grippable
ここで、物体が障害物で隠れている領域では障害物の特徴点が抽出されるため、抽出された物体の特徴点と、物体のモデルの特徴点は一致しない。一方、物体が障害物で隠れていない領域では物体の特徴点が抽出されるため、抽出された物体の特徴点と、物体のモデルの特徴点が一致する。よって、上述のように、抽出された物体の特徴点と、物体のモデルの特徴点とが一致する領域で、物体を把持する部分を決定するようにすることで、障害物に隠れていない部分を、物体を把持する部分として決定することができる。 Here, since the feature point of the obstacle is extracted in the region where the object is hidden by the obstacle, the feature point of the extracted object does not match the feature point of the object model. On the other hand, since the feature point of the object is extracted in the region where the object is not obstructed by the obstacle, the feature point of the extracted object matches the feature point of the object model. Therefore, as described above, the part that is not hidden by the obstacle is determined by determining the part that grips the object in the region where the extracted feature point of the object matches the feature point of the object model. Can be determined as the part that holds the object.
そして、把持可能部検出部114は、決定した部分を把持するように把持部30を駆動して、物体を把持する。具体的には、把持可能部検出部114は、アクチュエータ31a、31bを駆動することで、把持すると決定した部分に、把持部30のハンド60の中心をアプローチする。そして、把持可能部検出部114は、ハンド60を駆動することで、物体を把持する。
Then, the grippable
ここで、各物体について複数の把持パターンを予め生成しておき、その複数の把持パターンのうち、把持すると決定した部分を把持する把持パターンを選択して、選択した把持パターンで物体を把持するようにしてもよい。把持パターンとは、ハンド60のサイズ及び形状等を考慮して、物体を把持することができる把持の仕方を定義したものである。例えば、物体において把持する部分、及び、物体に対するハンド60の傾き等が定義される。例えば、この把持パターンを示す情報を記憶部12に予め格納しておき、把持可能部検出部114がその情報に基づいてアクチュエータ31a、31bを駆動することで実現するようにすればよい。
Here, a plurality of grip patterns are generated in advance for each object, and a grip pattern that grips a portion determined to be gripped is selected from the plurality of grip patterns, and the object is gripped with the selected grip pattern. It may be. The gripping pattern defines a gripping method that can grip an object in consideration of the size and shape of the
以上に説明した処理によれば、物体の一部に未観測領域(障害物に隠れている領域)が存在する場合であっても、物体を把持する部分として観測領域(障害物に隠れていない領域)が決定される。よって、物体を把持する際に把持部30が障害物と接触しない適確な把持をすることができる。
According to the processing described above, even if an unobserved region (region hidden by an obstacle) exists in a part of an object, the observation region (not hidden by the obstacle) Area) is determined. Therefore, when gripping an object, the
続いて、図4及び図5を参照して、本実施の形態1に係るロボット1の処理について説明する。図4は、本実施の形態1に係るロボット1の処理を示すフローチャートである。ここでは、図5に示すように、把持対象とする物体の一部が障害物に隠れている場合について説明する。
Subsequently, processing of the
撮像部50は、その画角内で周辺の環境を撮像し、撮像した環境の画像(カメラ画像)を示す画像情報を生成して特徴抽出部111に出力する(S1)。特徴抽出部111は、撮像部50から出力された画像情報が示す画像について特徴点を抽出する(S2)。
The
特徴間対応付け部112は、特徴抽出部111によって抽出された特徴点と、物体情報格納部121に格納された物体認識用特徴情報が示す物体のモデルの特徴点とをマッチングし、相互に一致する特徴点を特定する(S3)。
The
物体認識部113は、特徴間対応付け部112によって特定された特徴点の対応関係に基づいて、マッチングの取れた特徴点から物体の位置・姿勢を導出する(S4)。具体的には、図5に示すように、障害物に隠れてない物体の特徴点から物体の位置・姿勢を認識する。すなわち、物体のモデルの特徴点に対して、一部でも特徴点の一致が見られるのであれば、その一致する特徴点を基準として物体のモデルの特徴点を当てはめた場合に、その物体のモデルの位置に物体が存在すると推定することができる。また、一致する特徴点を基準として当てはめられた物体のモデルの特徴点から、特徴点位置情報が示す物体の3Dモデルと物体の特徴点との位置関係に基づいて物体が存在する領域(物体全体の領域)も特定することができる。よって、例えば、その当てはめられた物体のモデルの特徴点における各特徴点の重心、又は、物体が存在する領域の重心等として、物体の位置を認識することができる。
The
また、物体の姿勢(傾き)は、一致する特徴点について、物体の特徴点のモデルにおける特徴点の分布に対する、抽出された物体の特徴点の分布の傾きとして特定することができる。この傾きは、例えば、物体の特徴点のモデルにおいて、物体が傾きなく水平面に置かれた状態における方向を定義しておくことで特定するようにすればよい。これによれば、特徴点位置情報に基づいて、物体のモデルの特徴点における特徴点の分布に対する、抽出された物体の特徴点の分布の傾きとして、物体の姿勢を特定することができる。 Further, the posture (inclination) of the object can be specified as the inclination of the distribution of the feature point of the extracted object with respect to the distribution of the feature point in the model of the feature point of the object with respect to the matching feature point. For example, this inclination may be specified by defining a direction in a state where the object is placed on a horizontal plane without inclination in a model of a feature point of the object. According to this, based on the feature point position information, the posture of the object can be specified as the inclination of the distribution of the feature point of the extracted object with respect to the distribution of the feature point at the feature point of the model of the object.
把持可能部検出部114は、物体認識部113によって認識された物体の位置・姿勢に応じて、物体を把持できるハンド60の位置・傾きを導出し、ハンド60がその位置・傾きとなるような把持部30の軌道を導出する。
The grippable
この際に、把持可能部検出部114は、障害物との接触を避けるために、マッチングの取れた特徴点から把持可能部分(把持可能場所)を特定し、その把持可能部分を把持する軌道を導出する(S5)。具体的には、把持可能部検出部114は、上述したように、物体のうち、抽出された物体の特徴点と、物体のモデルの特徴点とが一致している領域を、把持部30によって把持可能部分として決定する。すなわち、例えば、抽出された物体の特徴点のうち、物体のモデルの特徴点群と一致する特徴点の重心となる部分を把持可能部分として決定する。
At this time, in order to avoid contact with an obstacle, the grippable
そして、把持可能部検出部114は、決定した把持可能部分を把持する(S6)。すなわち、把持可能部検出部114は、アクチュエータ31a、31b、ハンド60を駆動することで、導出した軌道で把持部30を動作させ、物体を把持する。
Then, the grippable
以上に説明したように、本実施の形態1では、把持対象物の一部分として認識された領域を、把持領域として決定するようにしている。ここで、物体の一部が障害物によって隠れている場合には、障害物によって隠れていない部分が認識されることになる。したがって、把持対象物の一部分から物体を認識した場合であっても、その物体全体のうち、把持対象物の一部分として認識された領域を把持領域として決定することで、障害物で隠れていない領域を把持することができる。そのため、把持対象となる物体を把持する際における把持装置(ロボット)と障害物との接触を回避することができる。 As described above, in the first embodiment, the area recognized as a part of the grasped object is determined as the grasping area. Here, when a part of the object is hidden by the obstacle, the part that is not hidden by the obstacle is recognized. Therefore, even when an object is recognized from a part of the gripping object, an area that is recognized as a part of the gripping object among the entire object is determined as the gripping area, so that the area that is not hidden by the obstacle Can be gripped. Therefore, it is possible to avoid contact between the gripping device (robot) and the obstacle when gripping an object to be gripped.
<発明の実施の形態2>
続いて、実施の形態2に係るロボット1について説明する。本実施の形態2に係るロボット1の外部構成及び内部構成については、図1及び図2と同様であるため説明を省略する。図6を参照して、本実施の形態2に係るロボット1の処理ブロックについて説明する。図6は、本実施の形態2に係るロボット1の処理ブロック図である。
<
Next, the
本実施の形態2に係る制御部11は、実施の形態1に係る制御部11と比較して、さらに、未観測領域導出部115及び移動方向算出部116として機能する。
Compared with the
未観測領域導出部115は、物体3Dモデル情報が示す物体の3Dモデルに基づいて、物体の未観測領域(障害物に隠された領域)を導出する。具体的には、未観測領域導出部115は、上述したように物体認識部13によって特定される物体全体の領域から、特徴間対応付け部112によって特徴点が一致すると特定された領域(観測領域)を除いた領域を、物体の未確認領域として導出する。
The unobserved
移動方向算出部116は、未観測領域導出部115によって導出された未観測領域がなくなるように、把持部30で把持した物体の移動方向を算出する。具体的には、移動方向算出部116は、未観測領域導出部115によって特定された物体の未観測領域から、物体の観測領域に向かう方向を、物体の移動方向として算出する。
The movement
ここで、物体の移動方向は、物体の未観測領域から物体の観測領域に向かう方向となるのであれば、任意の方法により決定するようにしてよい。例えば、未観測領域の重心から、観測領域の重心に向かう方向としてもよい。ここで、未観測領域の重心は、未観測領域に物体のモデルの特徴点を当てはめた場合における、その未観測領域の特徴点の重心としてもよい。また、観測領域の重心は、観測領域における特徴点(一致する特徴点)の重心としてもよい。 Here, the moving direction of the object may be determined by an arbitrary method as long as it is a direction from the unobserved area of the object to the observed area of the object. For example, the direction may be a direction from the center of gravity of the unobserved area toward the center of gravity of the observed area. Here, the centroid of the unobserved region may be the centroid of the feature point of the unobserved region when the feature point of the object model is applied to the unobserved region. Further, the center of gravity of the observation region may be the center of gravity of the feature points (matching feature points) in the observation region.
そして、移動方向算出部116は、算出した移動方向に、把持した物体を移動させる。具体的には、把持可能部検出部114は、アクチュエータ31a、31bを駆動することで、算出した移動方向に把持部30を動作させ、物体を移動する。これにより、物体の未観測領域が障害物に隠れていない状態にして、物体のより多くの部分を認識することができる。そのため、この後に物体を運搬する場合であっても、より確実に障害物を回避可能な軌道を導出することが可能となる。
Then, the movement
続いて、図7及び図8を参照して、本実施の形態2に係るロボット1の処理について説明する。図7は、本実施の形態2に係るロボット1の処理を示すフローチャートである。ここでは、実施の形態1において説明した処理の続きについて説明する。すなわち、ステップS1〜S6については、実施の形態1の説明と同様であるため、説明を省略する。図8に示すように、把持した物体を障害物を回避するように移動させる場合について説明する。
Subsequently, processing of the
未観測領域導出部115は、物体の未観測領域(障害物に隠された領域)を導出する。移動方向算出部116は、未観測領域導出部115によって導出された未観測領域が少なくなる方向を物体の移動方向として決定する。すなわち、上述したように、移動方向算出部116は、未観測領域導出部115によって特定された物体の未観測領域から、物体の観測領域に向かう方向を、物体の移動方向として算出する。この移動方向の算出は、例えば、図5に示すような把持前の状態において行われる。移動方向算出部116は、アクチュエータ31a、31bを駆動することで、決定した方向に物体を移動させる(S7)。これにより、図8に示すように、物体の未観測領域が少なくなる方向に、物体が移動される。
The unobserved
一方で、移動方向算出部116は、物体の移動中に、定期的に、障害物によって隠れている特徴点の数が、所定の閾値以下となったか否かを判定する(S8)。すなわち、撮像部50、特徴抽出部111、特徴間対応付け部112、及び物体認識部113も、定期的に動作して物体の認識内容を更新することになる。ここで、具体的には、移動方向算出部116は、障害物によって隠れている特徴点の数として、物体のモデルの特徴点の数から、特徴間対応付け部112によって対応付けられた特徴点の数を減算した数を算出することになる。
On the other hand, the movement
障害物によって隠れている特徴点の数が、所定の閾値以下となっていないと判定した場合(S8:No)、移動方向算出部116は、未観測領域が少なくなる方向への物体の移動を継続する(S7)。
When it is determined that the number of feature points hidden by the obstacle is not equal to or less than the predetermined threshold (S8: No), the movement
障害物によって隠れている特徴点の数が、所定の閾値以下となったと判定した場合(S8:No)、移動方向算出部116は、未観測領域が少なくなる方向への物体の移動を停止し、物体の運搬先となる目標地点への物体の移動を開始する(S9)。
When it is determined that the number of feature points hidden by the obstacle is equal to or less than the predetermined threshold (S8: No), the movement
ここで、理論上は、物体の全体が認識できた場合には、障害物によって隠れている特徴点の数は0となる。しかしながら、実際上は、物体の認識状況によっては、物体の全体を認識したとしても、必ずしも、抽出された物体の特徴点の数と、物体のモデルの特徴点の数とが一致するとは限らない場合もある。また、図8に示すように、物体を把持した場合にはハンド60によって隠れてしまう特徴点も存在し得る。そのため、上述したように、障害物によって隠れている特徴点の数が0よりも大きい閾値以下となったことをもって、物体の全体が認識されたものとして、算出した移動方向への動作を停止するとよい。
Here, theoretically, when the whole object can be recognized, the number of feature points hidden by the obstacle is zero. However, in practice, depending on the recognition status of the object, even if the entire object is recognized, the number of feature points of the extracted object does not necessarily match the number of feature points of the object model. In some cases. Further, as shown in FIG. 8, there may be a feature point that is hidden by the
また、物体の全体が認識されたとの判定は、上述の閾値による判定のみに限られない。例えば、移動方向算出部116は、未観測領域導出部115によって導出された未観測領域から物体全体が認識される移動量を推定し、推定した移動量だけ物体を移動するようにしてもよい。
Further, the determination that the entire object has been recognized is not limited to the determination based on the above-described threshold value. For example, the movement
以上に説明したように、本実施の形態2では、把持対象物の一部分として認識されていない領域から把持対象物の一部分として認識された領域に向かう方向に移動させ、把持対象物のより多くの部分を認識するようにしている。これによれば、物体の未観測領域が障害物に隠れていない状態にして、物体のより多くの部分を認識することができる。そのため、この後に物体を運搬する場合であっても、より確実に障害物を回避可能な軌道を導出することが可能となる。 As described above, in the second embodiment, the gripping object is moved in the direction from the region not recognized as a part of the gripping object toward the region recognized as a part of the gripping object, and more of the gripping object is detected. The part is recognized. According to this, it is possible to recognize more parts of the object in a state where the unobserved region of the object is not hidden by the obstacle. Therefore, even when an object is transported after this, it is possible to derive a trajectory that can avoid an obstacle more reliably.
よって、例えば、物体の移動前に、特徴間対応付け部112によって対応付けられる物体のモデルが誤っている場合に、物体の移動後に正しい物体のモデルに対応付けられることになる。したがって、物体認識部113によって正しい物体の位置・姿勢を認識することができ、その後に物体を運搬する際に、より確実に障害物を回避可能な軌道を導出することが可能となる。
Therefore, for example, when the object model associated by the
<発明の実施の形態3>
続いて、実施の形態3に係るロボット1について説明する。本実施の形態3に係るロボット1の外部構成及び内部構成については、図1及び図2と同様であるため説明を省略する。図9を参照して、本実施の形態3に係るロボット1の処理ブロックについて説明する。図9は、本実施の形態3に係るロボット1の処理ブロック図である。
<Third Embodiment of the Invention>
Next, the
本実施の形態2に係る制御部11は、実施の形態2に係る制御部11と比較して、さらに、姿勢補正量算出部117として機能する。
The
姿勢補正量算出部117は、物体認識部113が認識した物体の姿勢が目標地点の設置面に対して傾いている場合に、その傾きがより少なくなるように物体の姿勢を補正する。なお、好ましくは、物体認識部113が認識した物体の姿勢と物体の3Dモデルに基づいて物体の底面の傾きを算出し、物体の底面と設置面とが平行となる補正量を算出するとよい。
When the posture of the object recognized by the
続いて、図10及び図11を参照して、本実施の形態3に係るロボット1の処理について説明する。図11は、本実施の形態3に係るロボット1の処理を示すフローチャートである。ここでは、実施の形態2において説明した処理の続きについて説明する。すなわち、ステップS1〜S9については、実施の形態2の説明と同様であるため、説明を省略する。図11に示すように、目標地点への物体の移動が概ね完了し、目標地点に物体を置く場合について説明する。
Subsequently, processing of the
物体認識部113は、物体を目標地点に置く場合、把持部30で隠れていない特徴点から物体の位置・姿勢を認識する(S10)。上述したように、障害物によって物体が隠れている場合と同様に、特徴点対応付け部112によって物体が認識され、物体認識部113によってその位置・姿勢も認識することができる。
The
姿勢補正量算出部117は、物体認識部113が認識した物体の姿勢に基づいて、物体の姿勢が目標地点の設置面に対して傾いている場合に、その傾きがより少なくなるように物体の姿勢を補正した後、物体を目標地点に置く(S11)。
Based on the posture of the object recognized by the
以上に説明したように、把持部30(把持装置)により隠されていない把持対象物の認識可能部分から把持対象物の姿勢を特定し、特定した把持対象物の姿勢の前記運搬先の設置面に対する傾きが、より少なくなるように前記把持対象物の姿勢を補正するようにしている。これによれば、物体を倒れることなく安定して置くことができる。 As described above, the posture of the gripping object is identified from the recognizable portion of the gripping object that is not hidden by the gripping unit 30 (gripping device), and the installation surface of the transport destination with the identified posture of the gripping object The posture of the grasped object is corrected so that the inclination with respect to is smaller. According to this, the object can be stably placed without falling down.
<本発明の他の実施の形態>
上述の実施の形態では、撮像部50として、画像情報を生成するカメラを利用する場合について説明したが、これに限られない。撮像部50として、周辺の環境の各点までの距離(3次元点群)を示す距離情報を生成するセンサを利用するようにしてもよい。センサとして、例えば、レーザレンジファインダ及び距離画像センサ等のセンサのうち、任意のセンサを利用するようにしてよい。この場合、特徴抽出部111は、距離情報が示す3次元点群から特徴点を抽出する。なお、特徴点を抽出するために利用する特徴として、Point Pair Feature等の特徴のうち、任意の特徴を利用するようにしてよい。
<Other embodiments of the present invention>
In the above-described embodiment, the case where a camera that generates image information is used as the
なお、本発明は上記の実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 Note that the present invention is not limited to the above-described embodiment, and can be modified as appropriate without departing from the spirit of the present invention.
1 ロボット
10 ロボット本体
20 移動台車
30 把持部
40 頭部
50 撮像部
60 ハンド
11 制御部
12 記憶部
21a、21b アクチュエータ
22a、22b 車輪
31a、31b アクチュエータ
111 特徴抽出部
112 特徴間対応付け部
113 物体認識部
114 把持可能部検出部
115 未観測領域導出部
116 移動方向算出部
117 姿勢補正量算出部
121 物体情報格納部
DESCRIPTION OF
Claims (9)
前記把持対象物を含む周辺の環境情報を取得するステップと、
取得された環境情報により、周辺の環境から前記把持対象物を認識するステップと、
前記把持対象物の一部分が認識された場合に、把持対象物であると決定するステップと、
前記把持対象物であると決定された物体の把持領域を決定するステップと、
決定された把持領域を把持するステップとを備え、
前記把持領域を決定するステップは、
前記把持対象物を認識するステップにおいて前記把持対象物の一部分として認識された領域を、前記把持領域として決定する
把持方法。 This is a case where environmental information that is three-dimensional information acquired by the gripping device is acquired, a gripping object is recognized from the acquired environmental information, and a part of the recognized gripping object is hidden by an obstacle. However, it is a gripping method for recognizing and gripping the gripping object by a gripping device,
Obtaining surrounding environmental information including the gripping object;
Recognizing the grasped object from the surrounding environment based on the acquired environment information;
Determining a gripping object when a portion of the gripping object is recognized;
Determining a gripping area of an object determined to be the gripping object;
Gripping the determined gripping area, and
The step of determining the gripping area includes
A gripping method in which an area recognized as a part of the gripping object in the step of recognizing the gripping object is determined as the gripping area.
前記把持領域を決定するステップは、前記把持対象物のうち、前記モデルの特徴点が前記把持対象物の特徴点と一致する領域を前記把持領域として決定する、
ことを特徴とする請求項1に記載の把持方法。 The step of recognizing the gripping object extracts a feature point from the environment information, and executes a matching process between the extracted feature point and a feature point of a model stored in advance as a feature point of the gripping object. By recognizing the gripping object,
The step of determining the gripping area determines, as the gripping area, an area where the feature point of the model matches the feature point of the gripping object among the gripping object.
The gripping method according to claim 1, wherein:
ことを特徴とする請求項2に記載の把持方法。 The step of determining the gripping region determines, as the gripping region, centroids of a plurality of feature points that match feature points of the model among the gripping objects.
The gripping method according to claim 2, wherein:
ことを特徴とする請求項2又は3に記載の把持方法。 The gripping method further includes moving the gripping object in a direction from an unobserved area that is not recognized as a part of the gripping object toward an observation area that is recognized as a part of the gripping object. The grasping method according to claim 2, further comprising a step of recognizing a larger part of the object.
定期的に、周辺の環境情報を取得し、取得された環境情報により、前記把持対象物の特徴点を抽出し、
前記把持対象物の特徴点と前記モデルの特徴点との間で一致しない特徴点の数が所定の閾値以下となるまで、前記把持対象物を移動させる、
ことを特徴とする請求項4に記載の把持方法。 Recognizing more parts of the grasped object,
Periodically, the surrounding environment information is acquired, and the feature points of the gripping object are extracted based on the acquired environment information,
Moving the gripping object until the number of feature points that do not match between the feature points of the gripping object and the feature points of the model is equal to or less than a predetermined threshold;
The gripping method according to claim 4.
ことを特徴とする請求項4又は5に記載の把持方法。 The step of recognizing more parts of the grasped object is the center of gravity of the unobserved region, or the center of gravity of the feature point of the unobserved region when the feature point of the model is applied to the unobserved region, Moving the gripping object in a direction toward the center of gravity of the observation region or the center of the feature point of the observation region;
6. The gripping method according to claim 4 or 5, wherein:
前記把持対象物のより多くの部分を認識するステップによって認識された把持対象物のより多くの部分が障害物を回避する軌道を決定し、その軌道で前記把持対象物を運搬するステップ
を備えることを特徴とする運搬方法。 A transportation method for transporting a gripping object gripped by the gripping method according to any one of claims 4 to 6 to a transport destination,
Determining a trajectory in which a larger part of the grasped object recognized by the step of recognizing a larger part of the grasped object avoids an obstacle, and transporting the grasped object in the trajectory. A transportation method characterized by
周辺の環境情報を取得し、取得された環境情報により、前記把持装置が把持した状態において当該把持装置により隠されていない前記把持対象物の認識可能部分から前記把持対象物の姿勢を特定し、
特定した把持対象物の姿勢の前記運搬先の設置面に対する傾きが、より少なくなるように前記把持対象物の姿勢を補正する、
ことを特徴とする請求項7項に記載の運搬方法。 The step of transporting the gripping object includes:
Acquire surrounding environment information, identify the posture of the gripping object from the recognizable portion of the gripping object that is not hidden by the gripping device in the state gripped by the gripping device, based on the acquired environment information,
Correct the posture of the gripping object so that the inclination of the posture of the identified gripping object with respect to the installation surface of the transport destination is less;
The transportation method according to claim 7, wherein:
前記把持対象物を含む周辺の環境情報を取得する環境情報取得部と、
取得された環境情報により、周辺の環境から前記把持対象物の一部分が認識された場合に、把持対象物であると決定する認識部と、
前記把持対象物であると決定された物体の把持領域を決定する把持領域決定部と、を備え、
前記把持領域決定部は、前記把持対象物の一部分として認識された領域を、前記把持領域として決定する
ことを特徴とするロボット。 Even if the gripping object is recognized from the acquired environment information and a part of the recognized gripping object is hidden by an obstacle, the gripping target is acquired. A robot that recognizes an object and grips it with a robot arm,
An environmental information acquisition unit that acquires environmental information around the gripping object;
A recognition unit that determines a gripping object when a part of the gripping object is recognized from the surrounding environment based on the acquired environment information;
A gripping area determination unit that determines a gripping area of an object determined to be the gripping object,
The robot according to claim 1, wherein the gripping area determination unit determines an area recognized as a part of the gripping object as the gripping area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013249355A JP6176091B2 (en) | 2013-12-02 | 2013-12-02 | Grasping method, carrying method and robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013249355A JP6176091B2 (en) | 2013-12-02 | 2013-12-02 | Grasping method, carrying method and robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015104796A true JP2015104796A (en) | 2015-06-08 |
JP6176091B2 JP6176091B2 (en) | 2017-08-09 |
Family
ID=53435238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013249355A Active JP6176091B2 (en) | 2013-12-02 | 2013-12-02 | Grasping method, carrying method and robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6176091B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110065067A (en) * | 2018-01-23 | 2019-07-30 | 丰田自动车株式会社 | Motion profile generating device |
CN115268638A (en) * | 2022-07-11 | 2022-11-01 | 江西泰豪动漫职业学院 | Tool operation method, system, storage medium and equipment based on virtual scene |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05127722A (en) * | 1991-10-30 | 1993-05-25 | Nippondenso Co Ltd | High-speed picking device for stacked component |
US5446835A (en) * | 1991-10-30 | 1995-08-29 | Nippondenso Co., Ltd. | High-speed picking system for stacked parts |
JP2005305613A (en) * | 2004-04-23 | 2005-11-04 | Fanuc Ltd | Article taking-out device |
JP2007290056A (en) * | 2006-04-24 | 2007-11-08 | Yaskawa Electric Corp | Robot, and its object gripping method |
JP2010089238A (en) * | 2008-10-10 | 2010-04-22 | Honda Motor Co Ltd | Method for taking out workpiece |
US20100272547A1 (en) * | 2007-06-12 | 2010-10-28 | Norbert Cottone | Method And System For Depalletizing Tires Using a Robot |
US20120059517A1 (en) * | 2010-09-07 | 2012-03-08 | Canon Kabushiki Kaisha | Object gripping system, object gripping method, storage medium and robot system |
US20130085604A1 (en) * | 2011-10-04 | 2013-04-04 | Kabushiki Kaisha Yaskawa Denki | Robot apparatus, robot system, and method for producing a to-be-processed material |
-
2013
- 2013-12-02 JP JP2013249355A patent/JP6176091B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05127722A (en) * | 1991-10-30 | 1993-05-25 | Nippondenso Co Ltd | High-speed picking device for stacked component |
US5446835A (en) * | 1991-10-30 | 1995-08-29 | Nippondenso Co., Ltd. | High-speed picking system for stacked parts |
JP2005305613A (en) * | 2004-04-23 | 2005-11-04 | Fanuc Ltd | Article taking-out device |
US20060104788A1 (en) * | 2004-04-23 | 2006-05-18 | Fanuc Ltd. | Object picking system |
JP2007290056A (en) * | 2006-04-24 | 2007-11-08 | Yaskawa Electric Corp | Robot, and its object gripping method |
US20100272547A1 (en) * | 2007-06-12 | 2010-10-28 | Norbert Cottone | Method And System For Depalletizing Tires Using a Robot |
JP2010089238A (en) * | 2008-10-10 | 2010-04-22 | Honda Motor Co Ltd | Method for taking out workpiece |
US20110251717A1 (en) * | 2008-10-10 | 2011-10-13 | Honda Motor Co., Ltd. | Method for picking up work pieces |
US20120059517A1 (en) * | 2010-09-07 | 2012-03-08 | Canon Kabushiki Kaisha | Object gripping system, object gripping method, storage medium and robot system |
JP2012055999A (en) * | 2010-09-07 | 2012-03-22 | Canon Inc | System and method for gripping object, program and robot system |
US20130085604A1 (en) * | 2011-10-04 | 2013-04-04 | Kabushiki Kaisha Yaskawa Denki | Robot apparatus, robot system, and method for producing a to-be-processed material |
JP2013078825A (en) * | 2011-10-04 | 2013-05-02 | Yaskawa Electric Corp | Robot apparatus, robot system, and method for manufacturing workpiece |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110065067A (en) * | 2018-01-23 | 2019-07-30 | 丰田自动车株式会社 | Motion profile generating device |
JP2019126866A (en) * | 2018-01-23 | 2019-08-01 | トヨタ自動車株式会社 | Motion trajectory generation apparatus |
CN110065067B (en) * | 2018-01-23 | 2021-12-28 | 丰田自动车株式会社 | Motion trajectory generation device |
CN115268638A (en) * | 2022-07-11 | 2022-11-01 | 江西泰豪动漫职业学院 | Tool operation method, system, storage medium and equipment based on virtual scene |
CN115268638B (en) * | 2022-07-11 | 2024-04-19 | 江西泰豪动漫职业学院 | Tool operation method, system, storage medium and device based on virtual scene |
Also Published As
Publication number | Publication date |
---|---|
JP6176091B2 (en) | 2017-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102650492B1 (en) | A robotic system with automated package registration mechanism and methods of operating the same | |
US10894324B2 (en) | Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method | |
JP6180087B2 (en) | Information processing apparatus and information processing method | |
EP1905548B1 (en) | Workpiece picking apparatus | |
US8630737B2 (en) | Taking out device having function for correcting posture of an article | |
JP2019063984A5 (en) | Information processing device and information processing method | |
US10434652B2 (en) | Workpiece picking system | |
WO2020022302A1 (en) | Grasping device | |
JP2019181622A (en) | Hand control device and hand control system | |
US10909720B2 (en) | Control device for robot, robot, robot system, and method of confirming abnormality of robot | |
WO2020158060A1 (en) | Object grasping system | |
JP2010071743A (en) | Method of detecting object, object detection device and robot system | |
JP2016196077A (en) | Information processor, information processing method, and program | |
CN110303474B (en) | Robot system for correcting teaching of robot using image processing | |
JP5609760B2 (en) | Robot, robot operation method, and program | |
JP6176091B2 (en) | Grasping method, carrying method and robot | |
JP5698815B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP6067547B2 (en) | Object recognition device, robot, and object recognition method | |
JP6040264B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP2015182212A (en) | Robot system, robot, control device, and control method | |
Fan et al. | An automatic robot unstacking system based on binocular stereo vision | |
CN117794704A (en) | Robot control device, robot control system, and robot control method | |
JP2020075340A (en) | Operation system, control device and program | |
JP2010236893A (en) | Method for detecting relative movement between a plurality of objects | |
US20230030852A1 (en) | Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170626 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6176091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |