JP2014013146A - 3次元計測装置及びロボット装置 - Google Patents

3次元計測装置及びロボット装置 Download PDF

Info

Publication number
JP2014013146A
JP2014013146A JP2012149595A JP2012149595A JP2014013146A JP 2014013146 A JP2014013146 A JP 2014013146A JP 2012149595 A JP2012149595 A JP 2012149595A JP 2012149595 A JP2012149595 A JP 2012149595A JP 2014013146 A JP2014013146 A JP 2014013146A
Authority
JP
Japan
Prior art keywords
camera
image
dimensional
workpiece
reference camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012149595A
Other languages
English (en)
Other versions
JP2014013146A5 (ja
JP6222898B2 (ja
Inventor
Hideaki Suzuki
秀明 鈴木
Tei Hayashi
禎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012149595A priority Critical patent/JP6222898B2/ja
Priority to US13/928,623 priority patent/US9679385B2/en
Priority to EP13174627.3A priority patent/EP2682711B1/en
Publication of JP2014013146A publication Critical patent/JP2014013146A/ja
Publication of JP2014013146A5 publication Critical patent/JP2014013146A5/ja
Application granted granted Critical
Publication of JP6222898B2 publication Critical patent/JP6222898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像処理の高速化が可能な3次元計測装置及びこれを備えるロボットシステムを提供すること。
【解決手段】ワークを撮像する基準カメラ22と、基準カメラ22とは異なる視点でワークを撮像する参照カメラ23と、基準カメラ22がワークを撮像して取得した第1画像と予め設定された仮のワーク奥行情報とから3次元座標を計算し、計算した3次元座標と参照カメラ23の基準カメラ22に対する姿勢パラメータとからワークの3次元画像の参照カメラ23への投影を計算し、計算した投影に基づいて参照カメラ23の切出し範囲を設定し、基準カメラ22で撮像された第1画像と参照カメラ23の切出し範囲で切り出された第2画像と、からワークの3次元位置を計測するカメラ制御部5と、を備えた3次元計測装置。
【選択図】図3

Description

本発明は、2つ以上の視点からワークの撮像を行い、3次元計測や立体視を行う3次元計測装置及びこれを備えるロボット装置に関する。
従来、3次元計測や立体視を行う際には、複数のカメラ等により撮像を行って3次元情報を取得し、3次元情報から3次元計測等を行う3次元計測装置が広く用いられている。また、3次元計測装置としては、例えば、撮像した2画像のそれぞれから特徴点を抽出し、抽出した特徴点を対応付けて三角測量の原理により3次元計測を行うステレオ法が広く知られている。
ところで近年、CCDやCMOS等の画像センサを用いたデジタルカメラにおいては、画像センサ上で読み出す画素の範囲を予め設定して、必要な画素だけを読み出す部分切り出し機能を有するものが一般的となっている。部分切り出し機能は、扱うデータ量を削減することができるため、全画素を使用するよりも画像データの転送や画像処理を高速に実行可能になるというメリットがある。
しかしながら、上述の部分切り出し機能は、画像センサ上の画素を読み出す範囲を予め設定する必要があるため、例えば、生産ライン等で被写体の位置がバラついた状態で搬送される場合には、適応させることが困難となるという問題があった。
また一方で、ステレオ画像から領域を切り出す方法として、第1画像と第2画像とを取得した後、第1画像に類似する部分を第2画像から探し出し、類似部分から切り出し範囲を設定する3次元計測装置が提案されている(特許文献1参照)。
特開2005−45328号公報
しかしながら、特許文献1に記載の3次元計測装置は、第1画像と第2画像の両方をカメラから取得後に第1画像に類似する部分を第2画像の切り出し範囲として設定するため、カメラからの画像転送時間は削減できないという課題があった。すなわち、上記のデジタルカメラにおける部分切り出し機能の恩恵を受けることはできなかった。
そこで、本発明は、情報量を低減させて、画像処理の高速化が可能な3次元計測装置及びこれを備えるロボットシステムを提供することを目的とする。
本発明は、3次元計測装置において、ワークを撮像する第1カメラと、前記第1カメラとは異なる視点でワークを撮像する第2カメラと、前記第1カメラがワークを撮像して取得した第1画像と予め設定された仮のワーク奥行情報とから3次元座標を計算し、計算した前記3次元座標と前記第2カメラの前記第1カメラに対する姿勢パラメータとからワークの3次元画像の前記第2カメラへの投影を計算し、計算した投影に基づいて前記第2カメラの切出し範囲を設定し、前記第1カメラで撮像された前記第1画像と前記第2カメラの前記切出し範囲で切り出された第2画像と、からワークの3次元位置を計測する制御部と、を備えた、ことを特徴とする。
また、本発明は、3次元計測方法において、第1カメラでワークを撮像して第1画像を取得する第1画像取得工程と、前記第1画像取得工程により取得された前記第1画像と、仮のワーク奥行情報と、から3次元座標を計算する3次元座標計算工程と、第2カメラの前記第1カメラに対する姿勢パラメータと、前記3次元座標と、から前記3次元座標の前記第2カメラへの投影を計算する投影計算工程と、前記投影計算工程により計算された投影に基づいて、前記第2カメラから切り出す第2画像の切出し範囲を設定する切出し範囲設定工程と、前記切出し範囲設定工程により設定された切出し範囲で前記第2画像を取得する第2画像取得工程と、前記第1画像と前記第2画像とからワークを3次元計測する3次元計測工程と、を備えた、ことを特徴とする。
本発明によれば、第1カメラで撮像したワークの3次元画像の投影を計算し、計算した投影に基づいて設定した第2カメラの切出し範囲でワークを撮像して3次元計測することで、情報量を低減させて、画像処理の高速化が可能になる。
本発明の実施形態に係るロボット装置の概略構成を示す斜視図である。 本実施形態に係るロボット装置の制御装置の構成を示すブロック図である。 本実施形態に係るカメラ制御部の構成を示すブロック図である。 第1実施形態に係るカメラ制御部による3次元計測のフローチャートである。 第1実施形態に係る基準カメラ及び参照カメラで取得される画像内の切出し範囲と投影点との位置関係を示す図である。 第1実施形態に係る基準カメラ及び参照カメラの画像センサを示す図である。 第2実施形態に係るカメラ制御部による3次元計測のフローチャートである。 第2実施形態に係る基準カメラ及び参照カメラで取得される画像内の切出し範囲と投影3次元画像との位置関係を示す図である。 第2実施形態に係る基準カメラ及び参照カメラの画像センサを示す図である。
<第1実施形態>
以下、本発明の第1実施形態に係るロボット装置1について、図1から図6を参照しながら説明する。まず、ロボット装置1の概略構成について、図1から図3を参照しながら説明する。図1は、本発明の実施形態に係るロボット装置1を示す斜視図である。図2は、本実施形態に係るロボット装置1の制御装置4の構成を示すブロック図である。図3は、本実施形態に係るカメラ制御部5の構成を示すブロック図である。
図1に示すように、第1実施形態に係るロボット装置1は、ワークの組立を行うロボット2と、ロボット2によるワークの組立が行われる架台3と、ロボット2を制御する制御装置4と、を備えている。
ロボット2は、6軸多関節の汎用ロボットであり、ロボットアーム20と、ロボットアームの先端部に取り付けられたハンド21と、第1カメラとしての基準カメラ22と、第2カメラとしての参照カメラ23と、を備えている。なお、本実施形態においては、基準カメラ22と参照カメラ23の2台のカメラを用いたが、例えば、ステレオカメラのような複眼カメラを用いてもよい。
ロボットアーム20は、各関節を各関節軸まわりにそれぞれ回転駆動する6つのアクチュエータ(図示せず)を備えており、6つのアクチュエータのそれぞれを選択的に駆動することで先端部に取り付けられたハンド21を任意の3次元位置に移動させる。ハンド21は、ワーク等を把持する把持部21aと、把持部21aを駆動する不図示のアクチュエータと、を備えており、ロボットアーム20の駆動により移動し、移動した位置でアクチュエータを駆動することでワーク等を把持する。なお、ハンド21には、不図示の力覚センサが設けられており、ワークを把持する際には、力覚センサによりワークを把持する把持力が調整される。また、ハンド21は、ロボットアーム20の先端に着脱自在に取り付けられており、作業するワークの形状等により交換可能になっている。
基準カメラ22は、ロボットアーム20の先端に取り付けられており、ワークを撮像してワークの第1画像を取得する。参照カメラ23は、ロボットアーム20の先端で基準カメラ22に隣接して取り付けられており、基準カメラ22と異なる視点でワークを撮像してワークの第2画像を取得する。
架台3は、矩形箱状に形成されており、上面にワークが載置される平面状の載置部30が設けられている。載置部30の略中央部には、ワークの組立に用いられる治具31が設けられており、載置部30の隅部には、ロボットアーム20の基端部を固定支持する支持部32と、部品供給機33と、工具置き台34と、が設けられている。架台3の下部には、架台3を移動させるための4つのキャスター35・・・と、架台3を床面に固定させるための4つの固定金具36・・・と、が設けられており、任意の位置に移動した後、固定可能となっている。
図2に示すように、制御装置4は、演算装置40と、記憶装置41と、を有するコンピュータ本体に、ロボットアーム20、ハンド21、基準カメラ22及び参照カメラ23がバスを介して接続されて構成されている。また、コンピュータ本体には、入力装置42、ティーチングペンダント43、ディスプレイ44、スピーカ45、記録メディア読取装置46及び通信装置47などもバスを介して接続されている。なお、図2においては、これらを接続するためのインターフェイスは不図示としている。
演算装置40は、CPU40aと、画像処理装置40bと、音声処理装置40cと、を備えている。CPU40aは、カメラ制御部5と、ロボット制御部6と、を備えている。カメラ制御部5は、記憶装置41に記憶された各種プログラムや入力装置42から入力される設定等に従って、ワークの3次元位置を計測する。
図3に示すように、カメラ制御部5は、第1画像取得部51と、3次元座標計算部52と、投影計算部53と、切出し範囲設定部54と、第2画像取得部55と、3次元計測部56と、を備えている。第1画像取得部51は、基準カメラ22でワークを撮像してワークの第1画像を取得する。3次元座標計算部52は、第1画像取得部51で取得した第1画像と、予め設定された仮のワーク奥行情報と、から3次元座標を計算する。なお、仮のワーク奥行情報は、例えば、基準カメラ22でワークを撮像して、撮像時のピント距離を基準にして設定してもよい。
投影計算部53は、参照カメラ23及び基準カメラ22のカメラパラメータと、3次元座標計算部52で計算された3次元座標と、からワークの3次元画像の参照カメラ23の画像センサ上への投影を計算する。切出し範囲設定部54は、投影計算部53で計算された投影に基づいて、参照カメラ23の画像センサ上の画素を切り出す切出し範囲を設定する。第2画像取得部55は、切出し範囲設定部54で設定された参照カメラ23の画像センサ上の切出し範囲でワークを撮像して、第2画像を取得する。3次元計測部56は、第1画像と第2画像とからワークの3次元位置を計測する。なお、カメラ制御部5によるワークの3次元位置の計測については、後に詳しく説明する。
ロボット制御部6は、カメラ制御部5により計測されたワークの3次元位置及び記憶装置41に記憶された各種プログラムや入力装置42から入力される設定等に基づいて、ロボットアーム20やハンド21を制御する。なお、ロボット制御部6によるロボットアーム20やハンド21の制御については、その説明を省略する。
画像処理装置40bは、CPU40aからの描画指示に応じてディスプレイ44を制御して、画面上に所定の画像を表示させる。音声処理装置40cはCPU40aからの発音指示に応じた音声信号生成してスピーカ45に出力する。
記憶装置41は、バスを介してCPU40aに接続されており、各種プログラムやデータ等が格納されたROM41aと、CPU40aの作業領域として確保されたRAM41bと、を備えている。本実施形態においては、ROM41aには、ロボットアーム20やハンド21の駆動プログラムに加え、ワークを3次元計測するための各種プログラム等が格納されている。例えば、後述する第1画像取得工程、3次元座標計算工程、投影計算工程、切出し範囲設定工程、第2画像取得工程及び3次元計測工程を実行させるための3次元計測プログラム等が格納されている。また、ROM41aは、作業者により、仮のワーク奥行情報や基準カメラ22及び参照カメラ23のカメラパラメータ等のデータが入力装置42から入力された際には、これらを格納する。
入力装置42は、キーボード42aと、マウス42bと、から構成されており、ワークの3次元位置の計測に必要な情報、或いはその他の指示の入力を可能としている。記録メディア読取装置46は、例えば、3次元計測プログラム等を記録したコンピュータ読み取り可能な記録媒体48を読み込み、ROM41aに格納させるため等に用いられる。通信装置47は、例えば、上述したような記録媒体48を使用せずに、通信装置47を介してインターネット等から配信される3次元計測プログラム等をダウンロードする際に用いられる。
次に、上述のように構成されたロボット装置1のハンド21がワークを把持する際の、カメラ制御部5によるワークの3次元位置の計測方法について、図4に示すフローチャートに沿って、図5及び図6を参照しながら説明する。図4は、第1実施形態に係るカメラ制御部5による3次元計測のフローチャートである。図5は、第1実施形態に係る基準カメラ22及び参照カメラ23で取得される画像内の切出し範囲と投影点との位置関係を示す図である。図6は、第1実施形態に係る基準カメラ22及び参照カメラ23の画像センサを示す図である。
まず、基準カメラ22の内部パラメータと、参照カメラ23の内部パラメータと、カメラの姿勢パラメータと、を予め求め、ROM41aに記憶させておく。なお、内部パラメータとは、任意の3次元点の座標から画像上の点への投影計算に必要となるパラメータであり、公知のカメラキャリブレーション技術によって求めることができる。本実施形態においては、内部パラメータとして、下記を用いる。
fをレンズの焦点距離、cを画像におけるカメラ光軸中心のX座標、cを画像におけるカメラ光軸中心のY座標、sを画像センサの1画素あたりの幅、sを画像センサの1画素あたりの高さ、とする。すると、基準カメラ22の内部パラメータは、(f、cxL、cyL、sxL、syL)と表すことができる。また、参照カメラ23の内部パラメータは、(f、cxR、cyR、sxR、syR)と表すことができる。なお、添え字Lは、基準カメラ101の内部パラメータを示し、添え字Rは、基準カメラ101の内部パラメータを示している。
また、姿勢パラメータとは、基準カメラ22と参照カメラ23との相対姿勢であり、公知のカメラキャリブレーション技術によって求めることができる。本実施形態においては、基準カメラ22及び参照カメラ23の姿勢パラメータを、回転行列R及び並進ベクトルtで表す。
ここで、図5において、基準カメラ座標系Cと、参照カメラ座標系Cは、それぞれのカメラの姿勢を代表する座標系であり、カメラのレンズ主点を原点とし、画像の座標系とX、Y方向が一致するように配置された座標系である。前述の姿勢パラメータは、基準カメラ座標系Cと参照カメラ座標系Cとの相対姿勢を表す。また、図5及び図6に示す201、202は、基準カメラ22及び参照カメラ23の画像センサ面をそれぞれ表しており、任意の被写体(例えば、ワーク)が画像センサ面201、202に投影された結果を画像として取得する。なお、図5においては、説明を簡単化するために、画像センサの実際の物理的な配置に対し、レンズ主点について反転した図を用いている。
次に、図4に示すように、ロボット装置1を撮影姿勢に移動させて基準カメラ22によって第1画像を取得する(ステップS01、第1画像取得工程)。そして、第1画像に対して画像処理を行い、画像内のワークを検出する(ステップS02)。この検出には、パターンマッチングや2値化処理など、公知の各種画像処理手法を用いることが可能である。その後、ステップS02における第1画像のワークの検出結果に基づいて、参照カメラ23に設定する参照カメラ切出し範囲206を計算する(ステップS03)。以下、切り出しステップS03について、ステップS11〜S14のサブステップに分けて説明する。まず、第1画像における対象物抽出結果に基づいて、基準カメラ切出し範囲203を計算する(ステップS11)。基準カメラ切出し範囲203としては、たとえば、第1画像において抽出された対象物の画像領域を囲う最小の矩形領域が計算される。
次に、計算された基準カメラ切出し範囲203に対して、切出し基準点Pを設定する。切出し基準点Pは、基準カメラ切出し範囲203の略中心であることが望ましいが、基準カメラ切出し範囲203に対して一意に決まる点であれば、任意の点を用いてもよい。本実施形態においては、基準カメラ切出し範囲203の重心を切出し基準点Pとして用いることとし、その画像座標をP(c、r)とすると、
Figure 2014013146
と表せる。ここで、sxL、syLは、基準カメラ22の内部パラメータの画像センサのサイズであり、cxL、cyLは、画像座標における光軸中心の位置である。また、fは、基準カメラ22の焦点距離である。なお、本実施形態においては、簡単にするためにレンズ歪みを考慮していないが、例えば、公知のレンズ歪を考慮した変換式を用いてもよい。
次に、切出し基準点Pと、仮のワーク奥行情報と、を用いてワークの3次元点Pを計算する(ステップS12、3次元座標計算工程)。ここで、奥行情報は、基準カメラ22のレンズから、測定したい領域までの距離を規定する情報であり、予めユーザが設定してROM41aに記憶させておく。奥行情報としては、レンズのピントが合うワークディスタンスを設定してもよく、ワークとカメラとの大まかな距離が予め規定できる場合は設計値から決定してもよい。本実施形態においては、基準カメラ座標系Cの距離dを規定し、z=dが奥行情報として設定され、ROM41aに記憶させている。
図5に示すように、ワークの3次元点Pは、基準カメラ座標系Cの原点と切出し基準点PLとを結ぶ視線204と、奥行情報z=dによって規定される平面205との交点である。また、視線204は、基準カメラ座標系Cと、切出し基準点Pと、を通る直線であるので、視線204は、
Figure 2014013146
と表せる。更に、3次元点Pの座標を、P=(x、y、z)とすると、z=λ・f=dより、
Figure 2014013146
と、3次元点Pを基準カメラ座標系Cにおいて求めることができる。
次に、3次元点Pの、参照カメラ23への投影点Pを計算する(ステップS13、投影計算工程)。まず、基準カメラ座標系Cで記述された3次元点Pを、参照カメラ座標系Cに座標変換する。姿勢パラメータである回転行列R及び並進ベクトルtを用いて、以下のように座標変換を行う。参照カメラ座標系Cで表された3次元点Pの座標をP=(x´、y´、z´)とすると、
Figure 2014013146
と表せる。
次に、参照カメラ座標系Cで表された3次元点Pを、参照カメラ23へ投影した投影点Pを求める。P=(x´、y´、z´)は、参照カメラ23の焦点距離fを用いて、
Figure 2014013146
と表せる。更に、投影点Pの画像座標(c、r)は、参照カメラ23の内部パラメータを用いると、
Figure 2014013146
と表せる。以上の処理により、3次元点Pを参照カメラ23に投影した投影点Pの画像座標を求めることができる。
次に、投影点Pの画像座標を基準に、参照カメラ23に設定する参照カメラ切出し範囲206を決定する(ステップS14、切出し範囲設定工程)。例えば、図6に示すように、投影点Pを重心とした矩形の領域を、参照カメラ切出し範囲206として設定する。ここで、参照カメラ切出し範囲206の切り出し幅w´や切り出し高さh´は、基準カメラ切出し範囲203の幅wや高さhを基準に決定してもよいし、予め固定値として設定してもよい。
以上のステップS11〜S14の処理を行うことにより、基準カメラ22に設定した切り出し範囲を元に、参照カメラ23に設定するべき切り出し範囲を自動的に計算することができる。切出し範囲が設定されると、次に、参照カメラ23による切出し範囲での第2画像が取得され(ステップS04、第2画像取得工程)、第2画像に対する画像処理によってワークが抽出される(ステップS05)。そして最後に、第1画像と第2画像とでワークの3次元位置の測定が行われる(ステップS06、3次元計測工程)。なお、3次元計測工程におけるワークの3次元位置の計測については、一般的な画像処理により実施可能であるため、ここではその説明は省略する。
以上説明したように、第1実施形態に係るロボット装置1は、基準カメラ22に設定した基準カメラ切出し範囲を元に、参照カメラ23に設定するべき参照カメラ切出し範囲を自動的に計算し、切り出したそれぞれの画像をもとに、3次元位置の計測を行う。そのため、計算する画像を小さくすることができる。つまり、情報量や伝送量を小さくすることができる。これにより、3次元計測における画像処理の高速化が可能になり、計測時間の短縮が可能になる。その結果、ロボット装置1におけるタクトタイム(工程作業時間)の短縮が可能になる。
<第2実施形態>
次に、本発明の第2実施形態に係るロボット装置1Aについて、図1から図3を援用すると共に、図7から図9を参照しながら説明する。第2実施形態においては、カメラ制御部による3次元位置の計測方法が第1実施形態と相違する。そのため、第2実施形態においては、第1実施形態と相違する点、即ち、カメラ制御部による3次元位置の計測方法を中心に説明し、第1実施形態と同様の構成については同じ符号を付してその説明は省略する。
まず、ロボット装置1Aの概略構成について、図1から図3を援用しながら説明する。図1から図3に示すように、第2実施形態に係るロボット装置1Aは、ロボット2と、架台3と、ロボット2を制御する制御装置4Aと、を備えており、制御装置4Aは、演算装置40Aと、記憶装置41と、を備えている。演算装置40Aは、CPU40aAと、画像処理装置40bと、音声処理装置40cと、を備えており、CPU40aAは、カメラ制御部5Aと、ロボット制御部6と、を備えている。
次に、上述のように構成されたロボット装置1Aのハンド21がワークを把持する際の、カメラ制御部5Aによるワークの3次元位置の計測方法について、図7に示すフローチャートに沿って、図8及び図9を参照しながら説明する。図7は、第2実施形態に係るカメラ制御部5Aによる3次元計測のフローチャートである。図8は、第2実施形態に係る基準カメラ22及び参照カメラ23で取得される画像内の切出し範囲と投影3次元画像との位置関係を示す図である。図9は、第2実施形態に係る基準カメラ22及び参照カメラ23の画像センサを示す図である。
基準カメラ22の内部パラメータを(f、cxL、cyL、sxL、syL)と表し、参照カメラ23の内部パラメータを(f、cxR、cyR、sxR、syR)と表し、これを予めROM41aに記憶させておく点は、第1実施形態と同様である。
図8において、基準カメラ座標系Cと、参照カメラ座標系Cは、基準カメラ22と参照カメラ23の姿勢を代表する座標系であり、カメラのレンズ主点を原点とし、画像の座標系とX、Y方向が一致するように配置された座標系である。前述の姿勢パラメータは、基準カメラ座標系Cと参照カメラ座標系Cとの相対姿勢を表す。また、図8及び図9に示す201、202は、基準カメラ22及び参照カメラ23の画像センサ面をそれぞれ表しており、任意の被写体(例えば、ワーク)が画像センサ面201、202に投影された結果を画像として取得する。なお、図8においては、説明を簡単化するために、画像センサの実際の物理的な配置に対し、レンズ主点について反転した図を用いている。
次に、図7に示すように、ロボット装置1を撮影姿勢に移動させて基準カメラ22によって第1画像を取得する(ステップS01、第1画像取得工程)。そして、第1画像に対して画像処理を行い、画像内のワークを検出する(ステップS02)。この検出には、パターンマッチングや2値化処理など、公知の各種画像処理手法を用いることが可能である。その後、ステップS02における第1画像のワークの検出結果に基づいて、参照カメラ23に設定する参照カメラ切出し範囲307を計算する(ステップS03)。以下、切り出しステップS03について、ステップS21〜S24のサブステップに分けて説明する。まず、第1画像における対象物抽出結果に基づいて、基準カメラ切出し範囲303を計算する(ステップS21)。基準カメラ切出し範囲303としては、たとえば、第1画像において抽出された対象物の画像領域を囲う最小の矩形領域が計算される。
次に、計算された基準カメラ切出し範囲303に対して、頂点PLi(i=1、2、3、4)の座標を抽出し、画像座標をPLi(cLi、rLi)とする。次に、基準カメラ22に設定された基準カメラ切り出し範囲303の頂点PLiと、仮のワーク奥行情報と、を用いてワークの存在し得る3次元計測対象領域(3次元座標)を求める(ステップS22、3次元座標計算工程)。
ここで、奥行情報は、基準カメラ22のレンズから、測定したい領域までの距離を規定する情報であり、予めユーザが設定してROM41aに記憶させておく。なお、奥行情報は、基準カメラ座標系Cの原点から近い側と遠い側の2つを設定し、基準カメラ22からピントが合う範囲の被写界深度の前端、後端を設定してもよく、ワークと基準カメラ22との距離の範囲が予め規定できる場合は設計値から決定してもよい。本実施形態においては、基準カメラ座標系Cの原点からの距離として、z=d、z=dが奥行情報として設定され、ROM41aに記憶させている。
また、3次元計測対象領域とは、基準カメラ切り出し範囲303によって定義される視線曲面(本実施形態においては4つの視平面)と、奥行情報とによって得られる少なくとも2つの平面によって囲まれる領域である。図8に示すように、3次元計測対象領域は、四角錘台状の領域で表される。3次元計測対象領域の代表点として、8つの頂点(3次元点)PWi・j(i=1、2、3、4、j=1、2)の座標を求める。3次元点PWi・jは、基準カメラ座標系Cから基準カメラ切り出し範囲303の頂点PLiに向かう視線と、平面304、305との交点である。以下、ステップS22において3次元点PWi・jを求める。
ステップS21で画像座標によって設定された頂点PLi(cLi、rLi)は、基準カメラ座標系Cにおいて、下記のように表現される。
Figure 2014013146
ここで、sxL、syLは、基準カメラ22の内部パラメータの画像センササイズであり、cxL、cyLは、画像座標における光軸中心の位置である。また、fは、基準カメラ22の焦点距離である。なお、本実施形態においては、簡単にするためにレンズ歪みを考慮していないが、例えば、公知のレンズ歪を考慮した変換式を用いてもよい。
基準カメラ座標系Cと、3次元点PWi・jを通る視線の式は、
Figure 2014013146
と表せる。更に、3次元点PWi・jの座標を、距離d、dの平面と視線の交点として求める。
Wi・j=(xWi・j、yWi・j、zWi・j
とすると、zWij=λ・f=d(i=1、2、3、4、j=1、2)より、
Figure 2014013146
と、3次元点PWi・jを基準カメラ座標系Cにおいて求めることができる。
次に、3次元点PWi・jの参照カメラ23への投影点PRijを計算する(ステップS23、投影計算工程)。まず、基準カメラ座標系Cで記述されたPWi・jの座標を参照カメラ座標系Cに座標変換する。姿勢パラメータである回転行列R及び並進ベクトルtを用いて、以下のように座標変換を行う。参照カメラ座標系Cで表された3次元点PWi・jの座標をPWi・j=(x´wi・j、y´wi・j、z´wi・jとすれば、
Figure 2014013146
次に、参照カメラ座標系Cで表された3次元点Pを、参照カメラ23へ投影した投影点PRijを求める。PRi・j=(x´Ri・j、y´Ri・j、z´Ri・jは、参照カメラ23の焦点距離fを用いて、
Figure 2014013146
となる。更に、投影点PRijの画像座標(cRij、rRij)は、参照カメラ23の内部パラメータを用いて、
Figure 2014013146
として求まる。以上の処理により、3次元計測対象領域306の3次元点PWijを参照カメラ23に投影した投影点PRijの画像座標を求めることができる。
次に、3次元計測対象領域頂点の投影点PRijを全て包含するように参照カメラ切出し範囲を決定し、参照カメラ23に設定する(ステップS24、切出し範囲設定工程)。例えば、図9に示すように、投影点PRijを含み、画像座標に平行な最小矩形領域を、参照カメラ切出し範囲として用いる。
以上のステップS21〜S24の処理を行うことにより、基準カメラ22に設定した基準カメラ切出し範囲303をもとに、参照カメラ23に設定する参照カメラ切出し範囲307を自動的に計算することができる。参照カメラ切出し範囲が設定されると、次に、参照カメラ切出し範囲での第2画像が取得され(S04、第2画像取得工程)、第2画像に対する画像処理によってワークが抽出される(ステップS05)。そして最後に、第1画像と第2画像とでワークの3次元位置の測定が行われる(ステップS06、3次元計測工程)。なお、3次元計測工程におけるワークの3次元位置の計測については、一般的な画像処理により実施可能であるため、ここではその説明は省略する。
以上説明したように、第2実施形態に係るロボット装置1Aは、少数の点に対する座標計算のみで切出し範囲を決定できるため、基準カメラ22と参照カメラ23の画素相関を取るような手法に比べて計算負荷が小さく、高速に切出し範囲を決定することができる。また、第2実施形態においては、3次元計測対象領域306の投影を考慮して参照カメラ切出し範囲307を決定することにより、3次元計測対象領域306内の被写体(ワーク)を参照カメラ23によって不足なく撮像することができる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されない。
例えば、本実施形態においては、基準切出し範囲203及び参照切出し範囲206を、矩形状に切出したが、本発明においてはこれに限定されない。基準切出し範囲及び参照切出しは、矩形以外にも、例えば、多角形、円形、楕円形など、任意の2次元形状に切出してもよい。
また、第1実施形態においては、奥行情報を規定する平面205を基準カメラ座標系Cのz軸方向に対して垂直な平面としたが、本発明においてはこれに限定されない。例えば、奥行を規定する平面に任意の傾きを設定してもよい。その場合は、z=dとして表現された奥行情報をax+by+cz=dとして、一般的な平面の方程式に拡張することで対応させることができる。
また、第2実施形態においては、奥行情報を規定する平面304、305を、基準カメラ座標系Cのz方向に対して垂直な平面としたが、本発明においてはこれに限定されない。例えば、奥行を規定する平面304、305に任意の傾きを設定してもよい。その場合は、z=d(j=1、2)として表現した奥行情報を、ax+by+cz=d(j=1、2)として、一般的な平面の方程式に拡張することで対応させることができる。
また、本実施形態においては、基準カメラ22及び参照カメラ23の2台のカメラを用いて説明したが、本発明においてはこれに限定されない。例えば、3台以上のカメラからなる複眼カメラシステムを用いてもよい。参照カメラが2台以上ある場合でも、それぞれのカメラに対して内部パラメータ及び姿勢パラメータが求めることで、1台の基準カメラに対して設定した基準カメラ切出し範囲をもとに、それぞれの参照カメラに設定する参照カメラ切出し範囲を計算することができる。
1、1A ロボット装置
2 ロボット
5、5A カメラ制御部(制御部)
20 ロボットワーム
22 基準カメラ(第1カメラ)
23 参照カメラ(第2カメラ)
48 記録媒体

Claims (8)

  1. ワークを撮像する第1カメラと、
    前記第1カメラとは異なる視点でワークを撮像する第2カメラと、
    前記第1カメラがワークを撮像して取得した第1画像と予め設定された仮のワーク奥行情報とから3次元座標を計算し、計算した前記3次元座標と前記第2カメラの前記第1カメラに対する姿勢パラメータとから前記3次元座標の前記第2カメラへの投影を計算し、計算した投影に基づいて前記第2カメラの切出し範囲を設定し、前記第1カメラで撮像された前記第1画像と前記第2カメラの前記切出し範囲で切り出された第2画像と、からワークの3次元位置を計測する制御部と、を備えた、
    ことを特徴とする3次元計測装置。
  2. 前記制御部は、設定した前記切出し範囲で前記第2カメラにワークを撮像させて第2画像を取得させる、
    ことを特徴とする請求項1に記載の3次元計測装置。
  3. 前記制御部は、前記計算した投影から基準点を設定し、設定した前記基準点から予め設定された領域を包含するように前記切出し範囲を設定する、
    ことを特徴とする請求項1又は2に記載の3次元計測装置。
  4. ワークを3次元計測する請求項1から3のいずれか1項に記載の3次元計測装置と、
    前記3次元計測装置により計測されたワークの3次元位置に基づいて、ワークを把持するロボットアームと、を備えた、
    ことを特徴とするロボット装置。
  5. 第1カメラでワークを撮像して第1画像を取得する第1画像取得工程と、
    前記第1画像取得工程により取得された前記第1画像と、仮のワーク奥行情報と、から3次元座標を計算する3次元座標計算工程と、
    第2カメラの前記第1カメラに対する姿勢パラメータと、前記3次元座標と、から前記3次元座標の前記第2カメラへの投影を計算する投影計算工程と、
    前記投影計算工程により計算された投影に基づいて、前記第2カメラから切り出す第2画像の切出し範囲を設定する切出し範囲設定工程と、
    前記切出し範囲設定工程により設定された切出し範囲で前記第2画像を取得する第2画像取得工程と、
    前記第1画像と前記第2画像とからワークを3次元計測する3次元計測工程と、を備えた、
    ことを特徴とする3次元計測方法。
  6. 前記第2画像取得工程は、切り出し範囲設定工程により設定された切出し範囲で前記第2カメラにワークを撮像させて第2画像を取得する、
    ことを特徴とする請求項5に記載の3次元計測方法。
  7. 請求項5又は6に記載の各工程をコンピュータに実行させるための3次元計測プログラム。
  8. 請求項7に記載の3次元計測プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2012149595A 2012-07-03 2012-07-03 3次元計測装置及びロボット装置 Active JP6222898B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012149595A JP6222898B2 (ja) 2012-07-03 2012-07-03 3次元計測装置及びロボット装置
US13/928,623 US9679385B2 (en) 2012-07-03 2013-06-27 Three-dimensional measurement apparatus and robot system
EP13174627.3A EP2682711B1 (en) 2012-07-03 2013-07-02 Apparatus and method for three-dimensional measurement and robot system comprising said apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012149595A JP6222898B2 (ja) 2012-07-03 2012-07-03 3次元計測装置及びロボット装置

Publications (3)

Publication Number Publication Date
JP2014013146A true JP2014013146A (ja) 2014-01-23
JP2014013146A5 JP2014013146A5 (ja) 2015-08-20
JP6222898B2 JP6222898B2 (ja) 2017-11-01

Family

ID=48699661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012149595A Active JP6222898B2 (ja) 2012-07-03 2012-07-03 3次元計測装置及びロボット装置

Country Status (3)

Country Link
US (1) US9679385B2 (ja)
EP (1) EP2682711B1 (ja)
JP (1) JP6222898B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104908038A (zh) * 2014-03-12 2015-09-16 发那科株式会社 对工件的取出工序进行仿真的机器人仿真装置
JP2018510347A (ja) * 2015-03-31 2018-04-12 ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド 物体サイズを測定する機器、方法、および装置
WO2018163335A1 (ja) * 2017-03-08 2018-09-13 マクセル株式会社 距離計測装置、ヘッドマウントディスプレイ装置、携帯情報端末、映像表示装置、周辺監視システム、及び距離計測方法
JP2020075327A (ja) * 2018-11-08 2020-05-21 ファナック株式会社 制御システム
US10964040B2 (en) 2018-09-13 2021-03-30 Arcsoft Corporation Limited Depth data processing system capable of performing image registration on depth maps to optimize depth data

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6005299B2 (ja) * 2013-11-28 2016-10-12 三菱電機株式会社 ロボットシステムおよびロボットシステムの制御方法
JP5850958B2 (ja) * 2014-01-24 2016-02-03 ファナック株式会社 ワークを撮像するためのロボットプログラムを作成するロボットプログラミング装置
CN104819689A (zh) * 2015-01-28 2015-08-05 山西迪迈沃科光电工业有限公司 一种形位公差测量方法
CN105938619A (zh) * 2016-04-11 2016-09-14 中国矿业大学 一种融合RGB和Depth信息的视觉里程计实现方法
WO2018009980A1 (en) 2016-07-15 2018-01-18 Fastbrick Ip Pty Ltd Boom for material transport
EP3485112B1 (en) 2016-07-15 2021-08-25 Fastbrick IP Pty Ltd Vehicle which incorporates a brick laying machine
CN106296683A (zh) * 2016-08-09 2017-01-04 深圳迪乐普数码科技有限公司 一种虚拟屏幕墙的生成方法及终端
JP6850639B2 (ja) * 2017-03-09 2021-03-31 本田技研工業株式会社 ロボット
US11441899B2 (en) 2017-07-05 2022-09-13 Fastbrick Ip Pty Ltd Real time position and orientation tracker
CN111226090B (zh) 2017-08-17 2023-05-23 快砖知识产权私人有限公司 具有改进的横滚角测量的激光跟踪器
WO2019033165A1 (en) 2017-08-17 2019-02-21 Fastbrick Ip Pty Ltd CONFIGURATION OF INTERACTION SYSTEM
WO2019071313A1 (en) 2017-10-11 2019-04-18 Fastbrick Ip Pty Ltd MACHINE FOR CARRYING OBJECTS AND CARROUSEL WITH SEVERAL COMPARTMENTS FOR USE WITH THE SAME
USD869313S1 (en) * 2017-11-10 2019-12-10 Beijing Jingdong Shangke Information Technology Co, Ltd Measuring car
CN114643577B (zh) * 2020-12-18 2023-07-14 沈阳新松机器人自动化股份有限公司 一种通用型机器人视觉自动标定装置和方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104561A (ja) * 2002-09-11 2004-04-02 Ikegami Tsushinki Co Ltd Ccdカメラ装置
JP2008232976A (ja) * 2007-03-23 2008-10-02 Seiko Epson Corp 画像検査方法および画像検査装置
JP2011191312A (ja) * 2005-06-17 2011-09-29 Omron Corp 画像処理装置
JP2012028949A (ja) * 2010-07-21 2012-02-09 Canon Inc 画像処理装置及びその制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3064928B2 (ja) * 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
JP2005045328A (ja) * 2003-07-22 2005-02-17 Sharp Corp 3次元画像撮像装置
US7512262B2 (en) 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
JP5330640B2 (ja) * 2006-05-09 2013-10-30 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP5714232B2 (ja) * 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
EP2416293A4 (en) 2009-03-31 2017-02-01 Panasonic Intellectual Property Management Co., Ltd. Stereo image processor and stereo image processing method
US8698878B2 (en) * 2009-07-02 2014-04-15 Sony Corporation 3-D auto-convergence camera
JP5471355B2 (ja) 2009-11-24 2014-04-16 オムロン株式会社 3次元視覚センサ
JP5395956B2 (ja) * 2010-07-02 2014-01-22 株式会社ソニー・コンピュータエンタテインメント 情報処理システムおよび情報処理方法
JP5893278B2 (ja) 2011-07-26 2016-03-23 キヤノン株式会社 画像計測装置、画像計測方法、プログラム及び記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104561A (ja) * 2002-09-11 2004-04-02 Ikegami Tsushinki Co Ltd Ccdカメラ装置
JP2011191312A (ja) * 2005-06-17 2011-09-29 Omron Corp 画像処理装置
JP2008232976A (ja) * 2007-03-23 2008-10-02 Seiko Epson Corp 画像検査方法および画像検査装置
JP2012028949A (ja) * 2010-07-21 2012-02-09 Canon Inc 画像処理装置及びその制御方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015002760B4 (de) * 2014-03-12 2021-01-28 Fanuc Corporation Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE102015002760A1 (de) 2014-03-12 2015-09-17 Fanuc Corporation Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
JP2015171745A (ja) * 2014-03-12 2015-10-01 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
CN104908038B (zh) * 2014-03-12 2016-10-12 发那科株式会社 对工件的取出工序进行仿真的机器人仿真装置
US9529945B2 (en) 2014-03-12 2016-12-27 Fanuc Corporation Robot simulation system which simulates takeout process of workpieces
CN104908038A (zh) * 2014-03-12 2015-09-16 发那科株式会社 对工件的取出工序进行仿真的机器人仿真装置
JP2018510347A (ja) * 2015-03-31 2018-04-12 ベイジン ジンドン シャンケ インフォメーション テクノロジー カンパニー リミテッド 物体サイズを測定する機器、方法、および装置
WO2018163335A1 (ja) * 2017-03-08 2018-09-13 マクセル株式会社 距離計測装置、ヘッドマウントディスプレイ装置、携帯情報端末、映像表示装置、周辺監視システム、及び距離計測方法
JPWO2018163335A1 (ja) * 2017-03-08 2019-11-21 マクセル株式会社 距離計測装置、ヘッドマウントディスプレイ装置、携帯情報端末、映像表示装置、周辺監視システム、及び距離計測方法
CN110392818A (zh) * 2017-03-08 2019-10-29 麦克赛尔株式会社 距离测量装置、头戴式显示器装置、便携信息终端、影像显示装置、周边监视系统以及距离测量方法
CN110392818B (zh) * 2017-03-08 2021-11-09 麦克赛尔株式会社 距离测量装置、头戴式显示器装置、便携信息终端、影像显示装置、周边监视系统
US11422372B2 (en) 2017-03-08 2022-08-23 Maxell, Ltd. Distance measurement device, head-mounted display device, mobile information terminal, image display device, surroundings monitoring system, and distance measurement method
US10964040B2 (en) 2018-09-13 2021-03-30 Arcsoft Corporation Limited Depth data processing system capable of performing image registration on depth maps to optimize depth data
JP2020075327A (ja) * 2018-11-08 2020-05-21 ファナック株式会社 制御システム
US11241797B2 (en) 2018-11-08 2022-02-08 Fanuc Corporation Control system

Also Published As

Publication number Publication date
US9679385B2 (en) 2017-06-13
JP6222898B2 (ja) 2017-11-01
EP2682711A1 (en) 2014-01-08
US20140009583A1 (en) 2014-01-09
EP2682711B1 (en) 2016-02-03

Similar Documents

Publication Publication Date Title
JP6222898B2 (ja) 3次元計測装置及びロボット装置
JP6021533B2 (ja) 情報処理システム、装置、方法及びプログラム
US9279661B2 (en) Information processing apparatus and information processing method
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP5310130B2 (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5282717B2 (ja) ロボットシステム
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6080407B2 (ja) 3次元計測装置及びロボット装置
JP6067175B2 (ja) 位置測定装置及び位置測定方法
JP2014013146A5 (ja)
JP2016099257A (ja) 情報処理装置及び情報処理方法
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
US9905016B2 (en) Robot identification system
JP6520451B2 (ja) 外観撮影装置及び外観撮影方法
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
CN112276936A (zh) 三维数据生成装置以及机器人控制系统
JP2020047049A (ja) 画像処理装置及び画像処理方法
JP5477658B2 (ja) キャリブレーション用校正治具、校正治具を備えた3次元計測システム
JP7353757B2 (ja) アーチファクトを測定するための方法
JP7427370B2 (ja) 撮像装置、画像処理装置、画像処理方法、撮像装置の校正方法、ロボット装置、ロボット装置を用いた物品の製造方法、制御プログラムおよび記録媒体
JP2008168372A (ja) ロボット装置及び形状認識方法
JP2019158691A (ja) 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
JP5018282B2 (ja) 製品の3次元形状モデルデータ作成方法
JP2007033087A (ja) キャリブレーション装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171003

R151 Written notification of patent or utility model registration

Ref document number: 6222898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151