JP5736978B2 - Article recognition apparatus, article recognition system, program, and article recognition method - Google Patents

Article recognition apparatus, article recognition system, program, and article recognition method Download PDF

Info

Publication number
JP5736978B2
JP5736978B2 JP2011124421A JP2011124421A JP5736978B2 JP 5736978 B2 JP5736978 B2 JP 5736978B2 JP 2011124421 A JP2011124421 A JP 2011124421A JP 2011124421 A JP2011124421 A JP 2011124421A JP 5736978 B2 JP5736978 B2 JP 5736978B2
Authority
JP
Japan
Prior art keywords
article
image
dimensional
illumination
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011124421A
Other languages
Japanese (ja)
Other versions
JP2012251866A (en
Inventor
森 俊二
俊二 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2011124421A priority Critical patent/JP5736978B2/en
Publication of JP2012251866A publication Critical patent/JP2012251866A/en
Application granted granted Critical
Publication of JP5736978B2 publication Critical patent/JP5736978B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物品認識装置、物品認識システム、プログラム、および物品認識方法に関する。   The present invention relates to an article recognition device, an article recognition system, a program, and an article recognition method.

近年、工場の製造ラインなどにおいて様々な産業用ロボットが用いられている。特に、(垂直)多関節ロボットは、人間の腕に近い構造をしているため、種々の作業を人間に代わって行うことができる。
例えば、特許文献1では、カメラによって撮像された物品(ワーク)の画像から把持可能な特定部位を検出し、当該特定部位をロボットハンドによって把持してピックアップするピッキング装置が開示されている。また、例えば、特許文献2では、ワークの認識方法として、相対位置が異なる2つのカメラを備えたステレオカメラによって認識対象のワーク群を撮影し、撮像された一対の2次元画像(画像対)を用いて3次元的な位置や姿勢を決定する方法が開示されている。
このようにして、ステレオカメラによって撮像された画像を3次元化してワークを認識し、得られたワークの位置・姿勢情報をピッキング装置などのロボットの制御に用いることができる。
In recent years, various industrial robots have been used in factory production lines and the like. In particular, since the (vertical) articulated robot has a structure similar to a human arm, it can perform various operations on behalf of a human.
For example, Patent Document 1 discloses a picking device that detects a specific part that can be gripped from an image of an article (work) captured by a camera, and grips and picks up the specific part with a robot hand. For example, in Patent Document 2, as a workpiece recognition method, a workpiece group to be recognized is photographed by a stereo camera including two cameras having different relative positions, and a pair of captured two-dimensional images (image pairs) is obtained. A method for determining a three-dimensional position and posture using the method is disclosed.
In this way, the image captured by the stereo camera is three-dimensionalized to recognize the workpiece, and the obtained position / posture information of the workpiece can be used for controlling a robot such as a picking device.

特開平7−319525号公報JP 7-319525 A 特開平2−309202号公報JP-A-2-309202

しかしながら、製造ラインなどで取り扱われるワークは、ワーク全体や表面に金属や樹脂などの光沢材料を用いたものも多く、ワークの表面で反射光がカメラに入射する場合がある。例えば、特許文献1の図2や特許文献2の図1に示されているように、カメラおよび照明装置がともにワーク群の上方に配置され、ワークが山積みまたはバラ積みされてランダムな姿勢をとっている場合、照明光をカメラの方向に正反射するワークも存在し得る。
そして、ワークの認識にステレオカメラを用いる場合、正反射された反射光が一方のカメラに入射すると、撮像された画像対の一方のみに照明装置が映り込み、得られるワークの情報が画像間で大きく異なってしまうため、3次元化が困難な場合がある。また、例えば、各ワークを一定の姿勢で整列させて取り扱う製造ラインの場合であっても、認識対象のワークが複数存在する場合には、ワークの位置によって照明光がカメラの方向に正反射される場合がある。
However, many workpieces handled on a production line or the like use a gloss material such as metal or resin on the entire workpiece or the surface, and reflected light may enter the camera on the workpiece surface. For example, as shown in FIG. 2 of Patent Document 1 and FIG. 1 of Patent Document 2, both the camera and the lighting device are arranged above the workpiece group, and the workpieces are stacked or stacked in a random posture. In such a case, there may be a work that regularly reflects the illumination light in the direction of the camera.
When a stereo camera is used for workpiece recognition, when reflected light that is specularly reflected is incident on one camera, the illumination device is reflected in only one of the captured image pairs, and the obtained workpiece information is displayed between the images. Since they differ greatly, there are cases where three-dimensionalization is difficult. In addition, for example, even in the case of a production line in which each workpiece is handled in a fixed posture, if there are a plurality of workpieces to be recognized, the illumination light is regularly reflected in the direction of the camera depending on the position of the workpiece. There is a case.

前述した課題を解決する主たる本発明は、認識対象の複数の物品からなる物品群を撮像する第1および第2のカメラを備えたステレオカメラを制御するカメラ制御部と、前記物品群を互いに異なる方向から照明する第1ないし第3の照明装置を制御する照明制御部と、前記第1ないし第3の照明装置のうちの何れか1つを順次点灯させて、前記ステレオカメラによってそれぞれ撮像された一対の2次元画像からなる第1ないし第3の画像対を取得する撮像処理部と、前記第1ないし第3の画像対に含まれる少なくとも1つの2次元画像から前記物品をそれぞれ含む領域を抽出する抽出処理部と、前記領域ごとに、前記第1ないし第3の画像対のうち前記第1および第2のカメラ間の受光量の差が所定値以下である画像対に基づいて前記物品の3次元画像を生成する3次元化処理部と、前記3次元画像に基づいて前記物品を認識して位置・姿勢情報を算出する認識処理部と、を有することを特徴とする物品認識装置である。   The main present invention for solving the above-described problem is that a camera control unit that controls a stereo camera including first and second cameras that capture an image of an article group composed of a plurality of articles to be recognized is different from the article group. An illumination control unit that controls the first to third illumination devices that illuminate from the direction and any one of the first to third illumination devices are sequentially turned on, and each image is captured by the stereo camera. An imaging processing unit that acquires first to third image pairs including a pair of two-dimensional images, and an area that includes the article from at least one two-dimensional image included in the first to third image pairs. For each of the regions, the image processing unit is configured based on the image pair in which a difference in received light amount between the first and second cameras is equal to or less than a predetermined value among the first to third image pairs. A three-dimensional processor for generating a dimension image is an article recognition apparatus characterized by having a recognition processing unit for calculating the position and orientation information to recognize the article based on the 3-dimensional image.

本発明の他の特徴については、添付図面及び本明細書の記載により明らかとなる。   Other features of the present invention will become apparent from the accompanying drawings and the description of this specification.

本発明によれば、表面に光沢がある複数の物品をステレオカメラを用いて認識することができる。   According to the present invention, a plurality of articles whose surfaces are glossy can be recognized using a stereo camera.

本発明の一実施形態における物品認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the article | item recognition apparatus in one Embodiment of this invention. 本発明の一実施形態における物品認識装置を備えた物品認識システム全体の構成の概略を示すブロック図である。It is a block diagram which shows the outline of a structure of the whole article recognition system provided with the article recognition apparatus in one Embodiment of this invention. ステレオカメラ2、および照明装置L1ないしL3の位置関係を示す平面図である。It is a top view which shows the positional relationship of the stereo camera 2 and the illuminating devices L1-L3. ワークの形状の一例を示す斜視図である。It is a perspective view which shows an example of the shape of a workpiece | work. 撮像処理部11の機能(ワーク撮像処理)をコンピュータに実現させるためのプログラムの動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the program for making a computer implement | achieve the function (work imaging | photography process) of the imaging process part 11. FIG. ワーク撮像処理おける、カメラおよび照明装置と撮像される画像との関係を示す図である。It is a figure which shows the relationship between a camera and an illuminating device, and the imaged image in a workpiece | work imaging process. 抽出処理部14、3次元化処理部15、および認識処理部16の機能(ワーク認識処理)をコンピュータに実現させるためのプログラムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the program for making a computer implement | achieve the function (work recognition process) of the extraction process part 14, the three-dimensionalization process part 15, and the recognition process part 16. FIG. 抽出処理部14が画像I11を用いて各ワークを抽出する処理の一例を説明する図である。It is a figure explaining an example of the process in which the extraction process part 14 extracts each workpiece | work using the image I11. 照明装置L1を点灯した場合にワークW2で正反射された反射光がカメラC1に入射する位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship in which the reflected light regularly reflected by the workpiece | work W2 injects into the camera C1, when the illuminating device L1 is lighted. 照明装置L2を点灯した場合にワークW2で正反射された反射光がカメラC2に入射する位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship in which the reflected light regularly reflected by the workpiece | work W2 injects into the camera C2 when the illuminating device L2 is lighted. 図9および図10に示した位置関係において、照明装置L3を点灯した場合にワークW2で正反射される反射光の一例を示す図である。It is a figure which shows an example of the reflected light regularly reflected by the workpiece | work W2 when the illuminating device L3 is lighted in the positional relationship shown in FIG. 9 and FIG. 図9ないし図11に示した位置関係において、ワークW2を含む領域におけるカメラC1およびC2の受光量の一例を示す図である。It is a figure which shows an example of the light reception amount of the cameras C1 and C2 in the area | region containing the workpiece | work W2 in the positional relationship shown in FIG. 9 thru | or FIG.

本明細書および添付図面の記載により、少なくとも以下の事項が明らかとなる。   At least the following matters will become apparent from the description of this specification and the accompanying drawings.

===物品認識システム全体の構成の概略===
以下、図2ないし図4を参照して、後述する本発明の一実施形態における物品認識装置を備えた物品認識システム全体の構成の概略について説明する。なお、図3は、ステレオカメラ2、および照明装置L1ないしL3の位置関係を、ステレオカメラ2側(図2において上側)から見た図である。
=== Overall Configuration of Article Recognition System ===
Hereinafter, with reference to FIG. 2 thru | or FIG. 4, the outline of the structure of the whole article recognition system provided with the article recognition apparatus in one Embodiment of this invention mentioned later is demonstrated. 3 is a diagram showing the positional relationship between the stereo camera 2 and the illumination devices L1 to L3 as viewed from the stereo camera 2 side (upper side in FIG. 2).

図2に示されている物品認識システムは、物品認識装置1、ステレオカメラ2、および照明装置L1ないしL3を含んで構成され、一例として、表面に光沢がある8つのワークWn(1≦n≦8)を認識対象とする。また、ステレオカメラ2、および照明装置L1ないしL3は、ワーク群を収納するトレイ9が据え置かれる作業台などの上方に配置されている。なお、各ワークWnは、例えば図4に示す形状をしており、トレイ9内でランダムな姿勢をとっているものとする。   The article recognition system shown in FIG. 2 includes an article recognition apparatus 1, a stereo camera 2, and lighting apparatuses L1 to L3. As an example, eight workpieces Wn (1 ≦ n ≦ 8) is a recognition target. Further, the stereo camera 2 and the lighting devices L1 to L3 are arranged above a work table or the like on which a tray 9 for storing a work group is installed. Each work Wn has a shape shown in FIG. 4, for example, and takes a random posture in the tray 9.

ステレオカメラ2は、ワーク群に対する相対位置が異なるカメラC1およびC2(第1および第2のカメラ)を備え、カメラC1およびC2からそれぞれ出力される一対の(2次元)画像Im1およびIm2は、物品認識装置1に入力されている。そして、物品認識装置1からは、認識した各ワークWnの位置・姿勢情報T[Wn]が出力されている。さらに、物品認識装置1は、各カメラおよび各照明装置を制御するための制御信号SC1、SC2、およびSL1ないしSL3も出力している。   The stereo camera 2 includes cameras C1 and C2 (first and second cameras) having different relative positions with respect to the workpiece group, and a pair of (two-dimensional) images Im1 and Im2 output from the cameras C1 and C2, respectively, It is input to the recognition device 1. The article recognition apparatus 1 outputs position / posture information T [Wn] of each recognized workpiece Wn. Furthermore, the article recognition apparatus 1 also outputs control signals SC1, SC2, and SL1 to SL3 for controlling each camera and each illumination device.

照明装置L1ないしL3(第1ないし第3の照明装置)は、それぞれ、トレイ9内のワーク群を周囲からリング状に一様に照明することができるリング照明装置であり、一例として、性応答性が良いLED(Light Emitting Diode:発光ダイオード)がリング状に配列されて構成されている。また、照明装置L1ないしL3は、ワーク群を互いに異なる方向から照明することができるよう、互いに異なる高さに配置されている。   The illuminating devices L1 to L3 (first to third illuminating devices) are ring illuminating devices that can uniformly illuminate a work group in the tray 9 from the periphery in a ring shape. LEDs (Light Emitting Diodes) having good characteristics are arranged in a ring shape. Further, the illumination devices L1 to L3 are arranged at different heights so that the workpiece group can be illuminated from different directions.

なお、図2および図3においては、照明装置L1ないしL3は、下段に配置されているものほど径が大きくなっているが、これに限定されるものではない。照明装置L1ないしL3は、ワーク群を照明する際に、互いに陰にならず(照明光を遮らず)、互いに異なる方向から照明するように配置することができれば、同一サイズであってもよい。   In FIGS. 2 and 3, the illumination devices L1 to L3 have larger diameters as they are arranged in the lower stage, but are not limited thereto. The illumination devices L1 to L3 may be of the same size as long as they can be arranged so as not to be shaded from each other (without blocking the illumination light) and to be illuminated from different directions when illuminating the workpiece group.

===物品認識装置の構成===
以下、図1を参照して、本発明の一実施形態における物品認識装置の構成について説明する。
=== Configuration of article recognition apparatus ===
Hereinafter, with reference to FIG. 1, the structure of the article | item recognition apparatus in one Embodiment of this invention is demonstrated.

図1に示されている物品認識装置1は、撮像処理部11、カメラ制御部12、照明制御部13、抽出処理部14、3次元化処理部15、認識処理部16、および記憶部17を含んで構成されている。   The article recognition apparatus 1 shown in FIG. 1 includes an imaging processing unit 11, a camera control unit 12, an illumination control unit 13, an extraction processing unit 14, a three-dimensional processing unit 15, a recognition processing unit 16, and a storage unit 17. It is configured to include.

撮像処理部11には、画像Im1およびIm2が入力され、当該画像対は、撮像処理部11から抽出処理部14に入力されている。また、撮像処理部11からカメラ制御部12には撮像指令信号IMGが入力され、カメラ制御部12からは、制御信号SC1およびSC2が出力されている。さらに、撮像処理部11から照明制御部13には照明選択信号SELが入力され、照明制御部13からは、制御信号SL1ないしSL3が出力されている。   Images Im 1 and Im 2 are input to the imaging processing unit 11, and the image pair is input from the imaging processing unit 11 to the extraction processing unit 14. Further, an imaging command signal IMG is input from the imaging processing unit 11 to the camera control unit 12, and control signals SC <b> 1 and SC <b> 2 are output from the camera control unit 12. Further, an illumination selection signal SEL is input from the imaging processing unit 11 to the illumination control unit 13, and control signals SL <b> 1 to SL <b> 3 are output from the illumination control unit 13.

抽出処理部14から3次元化処理部15には、ワークWnを含む領域画像Im1[Wn]およびIm2[Wn]が入力され、3次元化処理部15から出力されるワークWnの3次元画像(情報)Im3[Wn]は、認識処理部16に入力されている。また、記憶部17から認識処理部16には、ワークの形状を表す3次元モデルMDLが入力され、認識処理部16からは、ワークWnの位置・姿勢情報T[Wn]が出力されている。   The region image Im1 [Wn] and Im2 [Wn] including the work Wn are input from the extraction processing unit 14 to the three-dimensional processing unit 15, and the three-dimensional image of the work Wn output from the three-dimensional processing unit 15 ( Information) Im3 [Wn] is input to the recognition processing unit 16. In addition, a three-dimensional model MDL representing the shape of the workpiece is input from the storage unit 17 to the recognition processing unit 16, and position / posture information T [Wn] of the workpiece Wn is output from the recognition processing unit 16.

===物品認識装置の動作===
以下、図5ないし図12を適宜参照して、本実施形態における物品認識装置の動作について説明する。
=== Operation of article recognition apparatus ===
Hereinafter, the operation of the article recognition apparatus in the present embodiment will be described with reference to FIGS. 5 to 12 as appropriate.

物品認識装置1のうち、撮像処理部11、抽出処理部14、3次元化処理部15、および認識処理部16の機能は、例えば、カメラ制御部12、照明制御部13、および記憶部17を備えるコンピュータによって実現することができる。図5および図7は、撮像処理部11、抽出処理部14、3次元化処理部15、および認識処理部16に相当する機能をコンピュータに実現させるためのプログラムの動作を示している。   In the article recognition apparatus 1, the functions of the imaging processing unit 11, the extraction processing unit 14, the three-dimensional processing unit 15, and the recognition processing unit 16 include, for example, the camera control unit 12, the illumination control unit 13, and the storage unit 17. It can be realized by a computer provided. 5 and 7 show operations of a program for causing a computer to realize functions corresponding to the imaging processing unit 11, the extraction processing unit 14, the three-dimensionalization processing unit 15, and the recognition processing unit 16.

図5には、撮像処理部11に相当する機能(ワーク撮像処理)が示されている。ワーク撮像処理が開始されると(S11)、各照明装置Lm(1≦m≦3)に対して、S12およびS13の処理が行われる(ループ処理1)。   FIG. 5 shows a function (work imaging process) corresponding to the imaging processing unit 11. When the workpiece imaging process is started (S11), the processes of S12 and S13 are performed for each lighting device Lm (1 ≦ m ≦ 3) (loop process 1).

ループ処理1においては、まず、照明装置Lmを選択し、当該照明装置Lmを示す照明選択信号SEL(=m)を照明制御部13に入力する。そして、照明制御部13の制御によって、照明装置Lmを点灯させ、他の照明装置を消灯させる(S12)。   In the loop process 1, first, the illumination device Lm is selected, and an illumination selection signal SEL (= m) indicating the illumination device Lm is input to the illumination control unit 13. Then, under the control of the illumination control unit 13, the illumination device Lm is turned on, and the other illumination devices are turned off (S12).

次に、照明装置Lmを点灯させた状態で、撮像指令信号IMGをカメラ制御部12に入力する。そして、カメラ制御部12の制御によって、カメラC1およびC2にトレイ9内のワーク群を撮影させ、撮像された画像Im1およびIm2を取得する(S13)。   Next, the imaging command signal IMG is input to the camera control unit 12 with the lighting device Lm turned on. Then, under the control of the camera control unit 12, the cameras C1 and C2 are caused to photograph the work group in the tray 9, and the captured images Im1 and Im2 are acquired (S13).

そして、S12およびS13のループ処理1を各照明装置Lmに対して行い、照明装置L1ないしL3のうちの何れか1つを順次点灯させて撮像された画像対をそれぞれ取得することによって、6つの画像(3つの画像対)を取得することができ、ワーク撮像処理を終了する(S14)。なお、図6に示すように、ワーク撮像処理によって、照明装置L1を点灯させて撮像された画像I11およびI12(第1の画像対)、照明装置L2を点灯させて撮像された画像I21およびI22(第2の画像対)、照明装置L3を点灯させて撮像された画像I31およびI32(第3の画像対)が取得される。   Then, the loop process 1 of S12 and S13 is performed on each lighting device Lm, and any one of the lighting devices L1 to L3 is sequentially turned on to obtain the image pairs captured, thereby obtaining six images. Images (three image pairs) can be acquired, and the workpiece imaging process is terminated (S14). As shown in FIG. 6, the images I11 and I12 (first image pair) captured by lighting the illumination device L1 and the images I21 and I22 captured by lighting the illumination device L2 by the workpiece imaging process. (Second image pair) Images I31 and I32 (third image pair) captured by lighting the lighting device L3 are acquired.

図7には、抽出処理部14、3次元化処理部15、および認識処理部16に相当する機能(ワーク認識処理)が示されている。ワーク認識処理が開始されると(S21)、まず、ワーク撮像処理で取得した6つの画像のうちの少なくとも1つ(例えば画像I11)を用いて各ワークWnを抽出する(S22)。   FIG. 7 shows functions (work recognition processing) corresponding to the extraction processing unit 14, the three-dimensional processing unit 15, and the recognition processing unit 16. When the workpiece recognition process is started (S21), first, each workpiece Wn is extracted using at least one of the six images acquired by the workpiece imaging process (for example, the image I11) (S22).

具体的には、例えば、画像I11から各ワークWnのエッジを抽出し、図8に示すように、各ワークWnを含む領域を抽出して領域画像I11[Wn]を生成する。なお、トレイ9内でワーク同士が重なり合っている場合や接触している場合など、領域画像の一部が重複している場合もある。また、領域画像I11[Wn]は、図8のように画像I11をトリミングしたものではなく、例えば、画像I11においてワークWn以外の部分をマスキングしたものであってもよい。   Specifically, for example, the edge of each workpiece Wn is extracted from the image I11, and the region including each workpiece Wn is extracted to generate a region image I11 [Wn] as shown in FIG. In some cases, part of the region image overlaps, for example, when the workpieces overlap or contact each other in the tray 9. Further, the region image I11 [Wn] is not a trimmed image I11 as shown in FIG. 8, but may be a masked portion of the image I11 other than the work Wn.

次に、各ワークWn(1≦n≦8)に対して、S23ないしS29の処理が行われる(ループ処理2)。以下においては、一例として、ワークW2(n=2)に対する処理について説明する。   Next, the processing from S23 to S29 is performed for each workpiece Wn (1 ≦ n ≦ 8) (loop processing 2). In the following, as an example, processing for the workpiece W2 (n = 2) will be described.

ループ処理2においては、まず、m=1として(S23)、照明装置L1を点灯させて撮像された画像I11およびI12を選択し、当該画像対からそれぞれワークW2を含む領域画像I11[W2]およびI12[W2]を生成する(S24)。したがって、S22ないしS24の処理は、抽出処理部14に相当する機能を実現する。   In the loop process 2, first, m = 1 is set (S23), the images I11 and I12 picked up by turning on the lighting device L1 are selected, and region images I11 [W2] including the workpiece W2 are selected from the image pair, respectively. I12 [W2] is generated (S24). Therefore, the processing of S22 to S24 realizes a function corresponding to the extraction processing unit 14.

具体的には、S22の処理と同様に、例えば、画像I11およびI12からそれぞれワークW2を含む領域を抽出し、ワークW2以外の部分をトリミングまたはマスキングして領域画像I11[W2]およびI12[W2]を生成する。なお、後述するS28の処理において対応点検索および3次元化を行うため、ワークW2を含む領域は、画像I11およびI12において同じ位置およびサイズで抽出する。   Specifically, similarly to the processing of S22, for example, regions including the workpiece W2 are extracted from the images I11 and I12, and portions other than the workpiece W2 are trimmed or masked to generate region images I11 [W2] and I12 [W2 ] Is generated. Note that, in order to perform corresponding point search and three-dimensionalization in the processing of S28 described later, the region including the work W2 is extracted at the same position and size in the images I11 and I12.

次に、領域画像I11[W2]およびI12[W2]において、カメラC1およびC2間の受光量差DLを求め、所定の閾値Dthと比較する(S25)。具体的には、例えば、各領域画像に含まれる画素の平均輝度や、各領域画像におけるエピポーラ線上の輝度の変化に基づいて受光量差DLを求めることができる。   Next, in the region images I11 [W2] and I12 [W2], a received light amount difference DL between the cameras C1 and C2 is obtained and compared with a predetermined threshold value Dth (S25). Specifically, for example, the received light amount difference DL can be obtained based on the average luminance of the pixels included in each region image and the change in luminance on the epipolar line in each region image.

ここで、一例として、カメラC1、C2、照明装置L1ないしL3、およびワークW2が図9ないし図11のような位置関係となっている場合、図9に示すように、照明装置L1からの照明光がワークW2の表面で正反射された反射光は、カメラC1に入射する。したがって、領域画像I11[W2]においては、ワークW2の表面に照明装置L1が映り込み、領域画像I12[W2]においては、当該映り込みが発生しない。そのため、例えば図12のm=1の場合に示すように、これらの領域画像における輝度(カメラの受光量)は大きく異なる。   Here, as an example, when the cameras C1 and C2, the illuminating devices L1 to L3, and the workpiece W2 have the positional relationship as shown in FIGS. 9 to 11, as shown in FIG. 9, the illumination from the illuminating device L1 The reflected light that is regularly reflected by the surface of the workpiece W2 enters the camera C1. Therefore, the illumination device L1 is reflected on the surface of the workpiece W2 in the area image I11 [W2], and the reflection does not occur in the area image I12 [W2]. For this reason, as shown in the case of m = 1 in FIG.

このように、一方の領域画像に照明装置L1が映り込み、受光量差DLが閾値Dthより大きい場合(S25:NO)には、次に、m=2として(S27)、照明装置L2を点灯させて撮像された画像I21およびI22を選択する。そして、当該画像対からそれぞれワークW2を含む領域画像I21[W2]およびI22[W2]を生成する(S24)。   As described above, when the illumination device L1 is reflected in one of the region images and the received light amount difference DL is larger than the threshold value Dth (S25: NO), next, m = 2 is set (S27), and the illumination device L2 is turned on. The images I21 and I22 that have been picked up are selected. Then, region images I21 [W2] and I22 [W2] each including the workpiece W2 are generated from the image pair (S24).

照明装置L2を点灯させた場合、図10に示すように、照明装置L2からの照明光がワークW2の表面で正反射された反射光は、カメラC2に入射する。したがって、領域画像I22[W2]においては、ワークW2の表面に照明装置L2が映り込み、領域画像I21[W2]においては、当該映り込みが発生しない。そのため、例えば図12のm=2の場合に示すように、これらの領域画像における輝度は大きく異なる。   When the illumination device L2 is turned on, as shown in FIG. 10, the reflected light obtained by regular reflection of the illumination light from the illumination device L2 on the surface of the workpiece W2 enters the camera C2. Accordingly, the illumination device L2 is reflected on the surface of the workpiece W2 in the area image I22 [W2], and the reflection is not generated in the area image I21 [W2]. Therefore, for example, as shown in the case of m = 2 in FIG. 12, the brightness in these area images is greatly different.

このように、一方の領域画像に照明装置L2が映り込み、受光量差DLが閾値Dthより大きい場合(S25:NO)には、次に、m=3として(S27)、照明装置L3を点灯させて撮像された画像I31およびI32を選択する。そして、当該画像対からそれぞれワークW2を含む領域画像I31[W2]およびI32[W2]を生成する(S24)。   As described above, when the illumination device L2 is reflected in one of the region images and the received light amount difference DL is larger than the threshold value Dth (S25: NO), then m = 3 (S27) and the illumination device L3 is turned on. The images I31 and I32 that have been picked up are selected. Then, region images I31 [W2] and I32 [W2] each including the workpiece W2 are generated from the image pair (S24).

照明装置L3を点灯させた場合、図11に示すように、照明装置L3からの照明光がワークW2の表面で正反射された反射光は、カメラC1およびC2のいずれにも入射しない。したがって、領域画像I31[W2]およびI32[W2]のいずれにおいてもワークW2の表面における照明装置L2の映り込みが発生しない。そのため、例えば図12のm=3の場合に示すように、これらの領域画像における輝度は同程度となる。   When the illumination device L3 is turned on, as shown in FIG. 11, the reflected light obtained by regular reflection of the illumination light from the illumination device L3 on the surface of the workpiece W2 does not enter either of the cameras C1 and C2. Therefore, in any of the area images I31 [W2] and I32 [W2], the illumination device L2 is not reflected on the surface of the workpiece W2. Therefore, for example, as shown in the case of m = 3 in FIG. 12, the luminances in these area images are approximately the same.

このように、いずれの領域画像においても照明装置L3の映り込みが発生せず、受光量差DLが閾値Dth以下である場合(S25:YES)には、領域画像I31[W2]およびI32[W2]を用いて対応点検索および3次元化を行う(S28)。具体的には、例えば図12に示すように、領域画像I31[W2]のエピポーラ線EP1上の注目点AおよびBに対して、領域画像I32[W2]のエピポーラ線EP2上で対応点A’およびB’をそれぞれ検索する。そして、得られた画像間の視差に基づいてワークW2の3次元画像I33[W2]を生成する。   As described above, in any region image, when the reflection of the illumination device L3 does not occur and the received light amount difference DL is equal to or less than the threshold value Dth (S25: YES), the region images I31 [W2] and I32 [W2] ] Is used to perform corresponding point search and three-dimensionalization (S28). Specifically, for example, as shown in FIG. 12, the corresponding point A ′ on the epipolar line EP2 of the region image I32 [W2] with respect to the attention points A and B on the epipolar line EP1 of the region image I31 [W2]. And B ′, respectively. Then, a three-dimensional image I33 [W2] of the workpiece W2 is generated based on the obtained parallax between images.

以上のように、照明装置L1ないしL3をそれぞれ点灯させた場合の一対の領域画像のうち、照明装置の映り込みがなく、DL≦Dthとなる領域画像I31[W2]およびI32[W2]に基づいてワークW2の3次元画像I33[W2]を生成する。したがって、S25ないしS28の処理は、3次元化処理部15に相当する機能を実現する。   As described above, out of the pair of region images when the lighting devices L1 to L3 are respectively turned on, the lighting device is not reflected and the region images I31 [W2] and I32 [W2] satisfying DL ≦ Dth are used. The three-dimensional image I33 [W2] of the workpiece W2 is generated. Therefore, the processing of S25 to S28 realizes a function corresponding to the three-dimensional processing unit 15.

ここで、本実施形態の物品認識システムは、ワーク群を互いに異なる方向から照明する3つの照明装置L1ないしL3を備えている。そのため、例えば図9および図10に示したように、一方の領域画像に映り込みが発生する照明装置とカメラとの組み合わせが存在する場合であっても、例えば図11に示したように、いずれの領域画像においても映り込みが発生しない照明装置が少なくとも1つ存在する。なお、S26の処理は、照明装置L1ないしL3のいずれを点灯させた場合においても一方の領域画像に映り込みが発生している場合(S26:YES)の例外処理であり、必須のものではない。   Here, the article recognition system of the present embodiment includes three illumination devices L1 to L3 that illuminate the workpiece group from different directions. Therefore, for example, as shown in FIG. 9 and FIG. 10, even when there is a combination of a lighting device and a camera in which reflection occurs in one area image, as shown in FIG. There is at least one illumination device in which no reflection occurs in the area image. Note that the process of S26 is an exception process when any one of the illumination devices L1 to L3 is turned on and there is a reflection in one area image (S26: YES), and is not essential. .

次に、生成されたワークW2の3次元画像I33[W2]を、記憶部17に記憶されている3次元モデルMDLと照合して、ワークW2を認識し、位置・姿勢情報T[W2]を算出する(S29)。したがって、当該S9の処理は、制御部17に相当する機能を実現する。   Next, the generated three-dimensional image I33 [W2] of the workpiece W2 is collated with the three-dimensional model MDL stored in the storage unit 17, the workpiece W2 is recognized, and position / posture information T [W2] is obtained. Calculate (S29). Therefore, the process of S9 realizes a function corresponding to the control unit 17.

そして、S23ないしS29のループ処理2を各ワークWnに対して行うことによって、ワークW1ないしW8をすべて認識して、それぞれ位置・姿勢情報T[W1]ないしT[W8]を算出することができ、処理を終了する(S30)。   Then, by performing the loop process 2 of S23 to S29 on each workpiece Wn, all the workpieces W1 to W8 can be recognized and the position / posture information T [W1] to T [W8] can be calculated respectively. The process ends (S30).

前述したように、物品認識装置1において、ワーク(物品)群を互いに異なる方向から照明する照明装置L1ないしL3のうちの何れか1つを順次点灯させて撮像された画像対をそれぞれ取得することによって、照明装置の映り込みがなく、カメラC1およびC2間の受光量差DLが所定の閾値Dth以下である少なくとも一対の領域画像を得ることができ、当該一対の領域画像を用いて生成される3次元画像に基づいて、表面に光沢があるワークWn(1≦n≦8)をステレオカメラ2を用いて認識することができる。   As described above, in the article recognition apparatus 1, each of the image pairs captured by sequentially lighting any one of the illumination apparatuses L1 to L3 that illuminate a workpiece (article) group from different directions is obtained. Thus, it is possible to obtain at least a pair of region images in which there is no reflection of the lighting device and the received light amount difference DL between the cameras C1 and C2 is equal to or less than a predetermined threshold value Dth, and is generated using the pair of region images. Based on the three-dimensional image, the work Wn (1 ≦ n ≦ 8) having a glossy surface can be recognized using the stereo camera 2.

また、一対の領域画像を用いて生成された3次元画像をワークの形状を表す3次元モデルMDLと照合することによって、ワークWnを認識し、位置・姿勢情報T[Wn]を算出することができる。   Further, by collating a three-dimensional image generated using a pair of region images with a three-dimensional model MDL representing the shape of the workpiece, the workpiece Wn can be recognized and position / posture information T [Wn] can be calculated. it can.

また、各領域画像に含まれる画素の平均輝度や、各領域画像におけるエピポーラ線上の輝度の変化に基づいて受光量差DLを求めることによって、当該受光量差DLを閾値Dthと比較して照明装置の映り込みがない一対の領域画像を選択し、3次元画像の生成に用いることができる。   Further, the illumination device compares the received light amount difference DL with the threshold value Dth by obtaining the received light amount difference DL based on the average luminance of the pixels included in each region image and the change in luminance on the epipolar line in each region image. A pair of region images without the reflection of the image can be selected and used to generate a three-dimensional image.

また、図2および図3に示した物品認識システムにおいて、照明制御部13の制御によって照明装置L1ないしL3を点灯または消灯させ、カメラ制御部12の制御によってカメラC1およびC2にワーク群を撮影させることによって、ワーク群を互いに異なる方向から照明して撮像された画像対をそれぞれ取得することができる。   2 and 3, the lighting devices L1 to L3 are turned on or off under the control of the lighting control unit 13, and the cameras C1 and C2 are photographed with the cameras C1 and C2 under the control of the camera control unit 12. Thus, it is possible to acquire image pairs captured by illuminating the workpiece group from different directions.

また、照明装置L1ないしL3として、ワーク群を周囲からリング状に一様に照明するリング照明装置を用いて、互いに異なる高さに配置することによって、ワーク群を互いに異なる方向から照明することができる。   Further, as the illumination devices L1 to L3, by using ring illumination devices that uniformly illuminate the workpiece group from the periphery in a ring shape, the workpiece groups can be illuminated from different directions by being arranged at different heights. it can.

また、物品認識装置1の少なくとも撮像処理部11、抽出処理部14、3次元化処理部15、および認識処理部16に相当する機能をコンピュータに実現させるためのプログラムにおいて、ワーク群を互いに異なる方向から照明する照明装置L1ないしL3のうちの何れか1つを順次点灯させて撮像された画像対をそれぞれ取得することによって、照明装置の映り込みがない一対の領域画像を用いて生成される3次元画像に基づいて、表面に光沢があるワークWnをステレオカメラ2を用いて認識することができる。   Further, in a program for causing a computer to realize functions corresponding to at least the imaging processing unit 11, the extraction processing unit 14, the three-dimensionalization processing unit 15, and the recognition processing unit 16 of the article recognition apparatus 1, directions of work groups are different from each other. 3 is generated using a pair of region images without the reflection of the illumination device, by sequentially turning on any one of the illumination devices L1 to L3 that illuminate from 3 and acquiring each image pair captured. Based on the three-dimensional image, the work Wn having a glossy surface can be recognized using the stereo camera 2.

また、照明装置L1ないしL3を点灯または消灯させて、ワーク群を互いに異なる方向から照明し、ステレオカメラ2によってそれぞれ撮影させることによって、照明装置の映り込みがない少なくとも一対の領域画像を得ることができ、当該一対の領域画像を用いて生成される3次元画像に基づいて、表面に光沢があるワークWnを認識することができる。   In addition, by turning on or off the lighting devices L1 to L3, illuminating the work group from different directions, and photographing each with the stereo camera 2, it is possible to obtain at least a pair of region images without reflection of the lighting device. The workpiece Wn having a glossy surface can be recognized based on the three-dimensional image generated using the pair of region images.

なお、上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得るとともに、本発明にはその等価物も含まれる。   In addition, the said embodiment is for making an understanding of this invention easy, and is not for limiting and interpreting this invention. The present invention can be changed and improved without departing from the gist thereof, and the present invention includes equivalents thereof.

上記実施形態では、物品認識システムは、2つのカメラC1およびC2を備えたステレオカメラ2、および3つの照明装置L1ないしL3を備えているが、これに限定されるものではない。例えば、3つ以上のカメラを備え、認識対象のワークの位置などに応じて適宜選択した2つのカメラによって撮像された一対の2次元画像を出力するステレオカメラを用いることもできる。また、例えば、3つ以上のカメラによって撮像されたk個(k≧3)の2次元画像(画像セット)に基づいてワークの3次元画像を生成してもよい。そして、この場合には、(k+1)個の照明装置を用いることによって、照明装置の映り込みがない少なくとも1組の画像セットを得ることができる。   In the above-described embodiment, the article recognition system includes the stereo camera 2 including the two cameras C1 and C2 and the three illumination devices L1 to L3, but is not limited thereto. For example, a stereo camera that includes three or more cameras and outputs a pair of two-dimensional images picked up by two cameras appropriately selected according to the position of a workpiece to be recognized can be used. Further, for example, a three-dimensional image of a workpiece may be generated based on k (k ≧ 3) two-dimensional images (image sets) captured by three or more cameras. In this case, by using (k + 1) illuminating devices, at least one image set that does not reflect the illuminating device can be obtained.

1 物品認識装置
2 ステレオカメラ
9 トレイ
11 撮像処理部
12 カメラ制御部
13 照明制御部
14 抽出処理部
15 3次元化処理部
16 認識処理部
17 記憶部
C1、C2 カメラ
L1〜L3 照明装置
W1〜W8 ワーク
DESCRIPTION OF SYMBOLS 1 Article recognition apparatus 2 Stereo camera 9 Tray 11 Imaging process part 12 Camera control part 13 Illumination control part 14 Extraction process part 15 Three-dimensionalization process part 16 Recognition process part 17 Memory | storage part C1, C2 Camera L1-L3 Illumination apparatus W1-W8 work

Claims (7)

認識対象の複数の物品からなる物品群を撮像する第1および第2のカメラを備えたステレオカメラを制御するカメラ制御部と、
前記物品群を互いに異なる方向から照明する第1ないし第3の照明装置を制御する照明制御部と、
前記第1ないし第3の照明装置のうちの何れか1つを順次点灯させて、前記ステレオカメラによってそれぞれ撮像された一対の2次元画像からなる第1ないし第3の画像対を取得する撮像処理部と、
前記第1ないし第3の画像対に含まれる少なくとも1つの2次元画像から前記物品をそれぞれ含む領域を抽出する抽出処理部と、
前記領域ごとに、前記第1ないし第3の画像対のうち前記第1および第2のカメラ間の受光量の差が所定値以下である画像対に基づいて前記物品の3次元画像を生成する3次元化処理部と、
前記3次元画像に基づいて前記物品を認識して位置・姿勢情報を算出する認識処理部と、
を有することを特徴とする物品認識装置。
A camera control unit that controls a stereo camera including first and second cameras that capture an article group including a plurality of articles to be recognized;
An illumination control unit for controlling the first to third illumination devices that illuminate the article group from different directions;
Imaging processing for acquiring first to third image pairs each made up of a pair of two-dimensional images captured by the stereo camera by sequentially lighting any one of the first to third lighting devices. And
An extraction processing unit that extracts regions each including the article from at least one two-dimensional image included in the first to third image pairs;
For each region, a three-dimensional image of the article is generated based on an image pair in which a difference in received light amount between the first and second cameras is a predetermined value or less among the first to third image pairs. A three-dimensional processing unit;
A recognition processing unit that recognizes the article based on the three-dimensional image and calculates position / posture information;
An article recognition apparatus characterized by comprising:
前記物品の形状を表す3次元モデルが記憶されている記憶部をさらに有し、
前記認識処理部は、前記3次元画像を前記3次元モデルと照合して前記位置・姿勢情報を算出することを特徴とする請求項1に記載の物品認識装置。
A storage unit storing a three-dimensional model representing the shape of the article;
The article recognition apparatus according to claim 1, wherein the recognition processing unit calculates the position / attitude information by collating the three-dimensional image with the three-dimensional model.
前記3次元化処理部は、前記一対の2次元画像にそれぞれ含まれる画素の輝度に基づいて前記受光量の差を求めることを特徴とする請求項1または請求項2に記載の物品認識装置。   3. The article recognition apparatus according to claim 1, wherein the three-dimensional processing unit obtains the difference in the amount of received light based on luminance of pixels respectively included in the pair of two-dimensional images. 請求項1ないし請求項3の何れかに記載の物品認識装置と、
前記カメラ制御部の制御によって前記物品群を撮影して前記一対の2次元画像を出力する前記ステレオカメラと、
前記照明制御部の制御によって前記物品群を照明する前記第1ないし第3の照明装置と、
を備えることを特徴とする物品認識システム。
The article recognition apparatus according to any one of claims 1 to 3,
The stereo camera that captures the group of articles under the control of the camera control unit and outputs the pair of two-dimensional images;
The first to third illumination devices that illuminate the group of articles under the control of the illumination control unit;
An article recognition system comprising:
前記第1ないし第3の照明装置は、互いに異なる高さから前記物品群をリング状に照明するリング照明装置であることを特徴とする請求項4に記載の物品認識システム。   5. The article recognition system according to claim 4, wherein the first to third illumination apparatuses are ring illumination apparatuses that illuminate the group of articles in a ring shape from different heights. 認識対象の複数の物品からなる物品群を撮像する第1および第2のカメラを備えたステレオカメラを制御するカメラ制御部と、
前記物品群を互いに異なる方向から照明する第1ないし第3の照明装置を制御する照明制御部と、
を備えるコンピュータに、
前記第1ないし第3の照明装置のうちの何れか1つを順次点灯させて、前記ステレオカメラによってそれぞれ撮像された一対の2次元画像からなる第1ないし第3の画像対を取得する機能と、
前記第1ないし第3の画像対に含まれる少なくとも1つの2次元画像から前記物品をそれぞれ含む領域を抽出する機能と、
前記領域ごとに、前記第1ないし第3の画像対のうち前記第1および第2のカメラ間の受光量の差が所定値以下である画像対に基づいて前記物品の3次元画像を生成する機能と、
前記3次元画像に基づいて前記物品を認識して位置・姿勢情報を算出する機能と、
を実現させるためのプログラム。
A camera control unit that controls a stereo camera including first and second cameras that capture an article group including a plurality of articles to be recognized;
An illumination control unit for controlling the first to third illumination devices that illuminate the article group from different directions;
On a computer with
A function of sequentially turning on any one of the first to third illumination devices to obtain first to third image pairs each consisting of a pair of two-dimensional images captured by the stereo camera; ,
A function of extracting regions each containing the article from at least one two-dimensional image included in the first to third image pairs;
For each region, a three-dimensional image of the article is generated based on an image pair in which a difference in received light amount between the first and second cameras is a predetermined value or less among the first to third image pairs. Function and
A function of recognizing the article based on the three-dimensional image and calculating position / posture information;
A program to realize
認識対象の複数の物品からなる物品群を互いに異なる方向から照明する第1ないし第3の照明装置のうちの何れか1つを順次点灯させて、前記物品群を撮像する第1および第2のカメラを備えたステレオカメラによってそれぞれ撮像された一対の2次元画像からなる第1ないし第3の画像対を取得し、
前記第1ないし第3の画像対に含まれる少なくとも1つの2次元画像から前記物品をそれぞれ含む領域を抽出し、
前記領域ごとに、前記第1ないし第3の画像対のうち前記第1および第2のカメラ間の受光量の差が所定値以下である画像対に基づいて前記物品の3次元画像を生成し、
前記3次元画像に基づいて前記物品を認識して位置・姿勢情報を算出することを特徴とする物品認識方法。
First and second images are captured by sequentially turning on any one of first to third illumination devices that illuminate an article group composed of a plurality of recognition target articles from different directions. Obtaining first to third image pairs each consisting of a pair of two-dimensional images captured by a stereo camera equipped with a camera;
Extracting regions each containing the article from at least one two-dimensional image included in the first to third image pairs;
For each region, a three-dimensional image of the article is generated based on an image pair in which a difference in received light amount between the first and second cameras of the first to third image pairs is a predetermined value or less. ,
An article recognition method, comprising: recognizing the article based on the three-dimensional image and calculating position / posture information.
JP2011124421A 2011-06-02 2011-06-02 Article recognition apparatus, article recognition system, program, and article recognition method Expired - Fee Related JP5736978B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011124421A JP5736978B2 (en) 2011-06-02 2011-06-02 Article recognition apparatus, article recognition system, program, and article recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011124421A JP5736978B2 (en) 2011-06-02 2011-06-02 Article recognition apparatus, article recognition system, program, and article recognition method

Publications (2)

Publication Number Publication Date
JP2012251866A JP2012251866A (en) 2012-12-20
JP5736978B2 true JP5736978B2 (en) 2015-06-17

Family

ID=47524809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011124421A Expired - Fee Related JP5736978B2 (en) 2011-06-02 2011-06-02 Article recognition apparatus, article recognition system, program, and article recognition method

Country Status (1)

Country Link
JP (1) JP5736978B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI672937B (en) * 2018-02-05 2019-09-21 廣達電腦股份有限公司 Apparatus and method for processing three dimensional images

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260017A (en) * 2001-03-02 2002-09-13 Minolta Co Ltd Three-dimensional geometric data generating method and device
JP2007114168A (en) * 2005-10-17 2007-05-10 Applied Vision Systems Corp Image processing method, device, and program
JP5342977B2 (en) * 2009-09-29 2013-11-13 大日本スクリーン製造株式会社 Image processing method
JP2011205198A (en) * 2010-03-24 2011-10-13 Hitachi Ltd Stereoscopic photographing device and method

Also Published As

Publication number Publication date
JP2012251866A (en) 2012-12-20

Similar Documents

Publication Publication Date Title
CN109483554B (en) Robot dynamic grabbing method and system based on global and local visual semantics
JP3768174B2 (en) Work take-out device
CN107618030B (en) Robot dynamic tracking grabbing method and system based on vision
EP2345515B1 (en) Method for picking up work pieces
CN105729468B (en) A kind of robotic workstation based on the enhancing of more depth cameras
JP5201411B2 (en) Bulk picking device and control method thereof
JP7467041B2 (en) Information processing device, information processing method and system
US9604365B2 (en) Device and method of transferring articles by using robot
US7966094B2 (en) Workpiece picking apparatus
JP4309439B2 (en) Object take-out device
CN107471218B (en) Binocular vision-based hand-eye coordination method for double-arm robot
JP3834297B2 (en) Image processing device
US9844881B2 (en) Robotic device including machine vision
JP2013086184A (en) Workpiece takeout system, robot apparatus and method for manufacturing material to be processed
JP2012030320A (en) Work system, working robot controller, and work program
JP2020047049A (en) Image processing device and image processing method
CN113284178B (en) Object stacking method, device, computing equipment and computer storage medium
JP2010000561A (en) Deformable thin object spreading device
WO2021065265A1 (en) Size estimation device, size estimation method, and recording medium
JP5609760B2 (en) Robot, robot operation method, and program
JP2020163502A (en) Object detection method, object detection device, and robot system
JP2014188617A (en) Robot control system, robot, robot control method, and program
CN114341930A (en) Image processing device, imaging device, robot, and robot system
JP3516067B2 (en) Image creation method and image creation device for depalletizing
CN109454004B (en) Robot scanning and sorting system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150406

R150 Certificate of patent or registration of utility model

Ref document number: 5736978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees