JP2016061654A - 移動支援装置、方法及びプログラム - Google Patents

移動支援装置、方法及びプログラム Download PDF

Info

Publication number
JP2016061654A
JP2016061654A JP2014189322A JP2014189322A JP2016061654A JP 2016061654 A JP2016061654 A JP 2016061654A JP 2014189322 A JP2014189322 A JP 2014189322A JP 2014189322 A JP2014189322 A JP 2014189322A JP 2016061654 A JP2016061654 A JP 2016061654A
Authority
JP
Japan
Prior art keywords
viewpoint
imaging unit
axis
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014189322A
Other languages
English (en)
Other versions
JP6193195B2 (ja
Inventor
英昭 内山
Hideaki Uchiyama
英昭 内山
晃仁 関
Akihito Seki
晃仁 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2014189322A priority Critical patent/JP6193195B2/ja
Priority to US14/848,868 priority patent/US10809053B2/en
Publication of JP2016061654A publication Critical patent/JP2016061654A/ja
Application granted granted Critical
Publication of JP6193195B2 publication Critical patent/JP6193195B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】作業効率を向上させることができる移動支援装置、方法及びプログラムを提供する。
【解決手段】実施形態の移動支援装置は、撮像部と、第1算出部と、第2算出部と、第3算出部と、出力部と、を備える。撮像部は、第1視点で対象物の第1画像を撮像し、第2視点に移動して対象物の第2画像を撮像する。第1算出部は、第1画像及び第2画像を用いて、第1視点での撮像部の第1位置及び第1姿勢を算出するとともに、第2視点での撮像部の第2位置及び第2姿勢を算出する。第2算出部は、第1位置、第1姿勢、第2位置、及び第2姿勢を用いて、第1視点での撮像部の第1光軸に基づく第1軸と第2視点での撮像部の第2光軸に基づく第2軸とが成す第1角を算出する。第3算出部は、第1角の角度を増加させる方向に位置する次撮像を行う次視点を算出する。出力部は、第2視点から次視点の方向への撮像部の移動を促す情報を出力する。
【選択図】図1

Description

本発明の実施形態は、移動支援装置、方法及びプログラムに関する。
単眼カメラを移動させて視点を変えながら対象物を撮像し、撮像した視点が異なる複数の画像を用いて、各視点の3次元位置及び3次元姿勢、並びに対象物の3次元形状を算出することを繰り返すことで、広域な対象物の3次元形状を算出するvisual mono-SLAM(Simultaneous localization and mapping)と呼ばれる手法が知られている。
例えば、特許文献1には、次の画像を撮像する次視点をユーザに教示するため、移動した撮像部の位置が次視点の条件を満たすと、ガイダンスを行う技術が知られている。
特開2013−246111号公報
しかしながら、上述したような従来技術では、撮像部の位置が次視点の条件を満たさなければガイダンスが行われない。このため、次視点がどのあたりにあるかを推測できない熟練度の低いユーザの場合、撮像部を次視点に移動させるために撮像部をどの方向に移動させればいいか判断できず、作業効率を向上できない。
本発明が解決しようとする課題は、作業効率を向上させることができる移動支援装置、方法及びプログラムを提供することである。
実施形態の移動支援装置は、撮像部と、第1算出部と、第2算出部と、第3算出部と、出力部と、を備える。撮像部は、第1視点で対象物の第1画像を撮像するとともに、前記第1視点から第2視点に移動して前記対象物の第2画像を撮像する。第1算出部は、前記第1画像及び前記第2画像を用いて、前記第1視点での前記撮像部の第1位置及び第1姿勢を算出するとともに、前記第2視点での前記撮像部の第2位置及び第2姿勢を算出する。第2算出部は、前記第1位置、前記第1姿勢、前記第2位置、及び前記第2姿勢を用いて、前記第1視点での前記撮像部の第1光軸に基づく第1軸と前記第2視点での前記撮像部の第2光軸に基づく第2軸とが成す第1角を算出する。第3算出部は、前記第1軸と前記第2軸との交点を基準に前記第2軸を回転させることで前記第1角の角度を増加させる方向に位置する次撮像を行う次視点を算出する。出力部は、前記第2視点から前記次視点の方向への前記撮像部の移動を促す情報を出力する。
第1実施形態の移動支援装置の例を示す構成図。 第1実施形態の撮像部の移動例を示す図。 第1実施形態の光軸の例を示す図。 第1実施形態の第1角の例を示す図。 第1実施形態の第1角の例を示す図。 第1実施形態の出力例を示す図。 第1実施形態の出力例を示す図。 第1実施形態の撮像部の不適切な移動例を示す図。 第1実施形態の移動支援装置の処理例を示すフローチャート。 第2実施形態の移動支援装置の例を示す構成図。 第2実施形態の重心位置の例を示す図。 第2実施形態の出力例を示す図。 第2実施形態の移動支援装置の処理例を示すフローチャート。 第3実施形態の移動支援装置の例を示す構成図。 第3実施形態の第4角及び第5角の例を示す図。 第3実施形態の移動支援装置の処理例を示すフローチャート。 各実施形態の移動支援装置のハードウェア構成例を示す図。
以下、添付図面を参照しながら、実施形態を詳細に説明する。
(第1実施形態)
図1は、第1実施形態の移動支援装置10の一例を示す構成図である。図1に示すように、移動支援装置10は、撮像部11と、第1算出部13と、第2算出部15と、第3算出部17と、出力制御部19と、出力部21とを、備える。
撮像部11は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)を画像センサに用いた単眼カメラなどの撮像装置により実現できる。第1算出部13、第2算出部15、第3算出部17、及び出力制御部19は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。出力部21は、例えば、液晶ディスプレイやタッチパネルディスプレイなどの表示装置により実現してもよいし、スピーカなどの音声出力装置により実現してもよいし、ランプやLED(Light Emitting Diode)などの発光装置により実現してもよいし、これらを併用して実現してもよい。
移動支援装置10は、撮像部11を移動させて視点を変えながら対象物を撮像し、対象物の3次元形状を計測(算出)する計測装置などに適用できる。
撮像部11は、ユーザにより移動させられ、視点を変えながら対象物を撮像する。例えば、撮像部11は、図2に示すように、第1視点51で対象物40の第1画像を撮像するとともに、第1視点51から第2視点52に移動して対象物40の第2画像を撮像する。
第1算出部13は、撮像部11により新たな視点で撮像が行われる毎に、撮像部11により異なる視点で撮像された複数の画像(前回までに撮像された1以上の画像と新たに撮像された画像)に対し、各画像上の特徴点を対応付けることで、各視点での撮像部11の3次元位置及び3次元姿勢を算出する。これにより、対象物のうち複数の画像内に写る部分の3次元形状も計測(算出)される。この3次元形状の計測手法は、Structure from motionなどにより実現できる。
例えば、第1算出部13は、撮像部11により撮像された第1画像及び第2画像を用いて、第1視点51での撮像部11の第1位置及び第1姿勢を算出するとともに、第2視点52での撮像部11の第2位置及び第2姿勢を算出する。第1実施形態では、第1位置及び第2位置は、3次元上の位置であり、第1姿勢及び第2姿勢は、3次元上の姿勢であることを想定しているが、これに限定されるものではない。
具体的には、第1算出部13は、第1画像から複数の第1特徴点を検出するとともに第2画像から複数の第2特徴点を検出し、第1画像上の複数の第1特徴点それぞれと第2画像上の複数の第2特徴点それぞれとを対応付けることで、第1位置、第1姿勢、第2位置、及び第2姿勢を算出する。
第1特徴点及び第2特徴点は、画像上の特徴を表す点であり、例えば、画像上の局所的な輝度変化が特徴的な画素などが挙げられる。また、複数の第1特徴点それぞれと複数の第2特徴点それぞれとの対応付けは、周辺領域のテクスチャが類似する第1特徴点及び第2特徴点を対応付けることで行う。そして、複数の第1特徴点それぞれと複数の第2特徴点それぞれとが対応付けられた第1画像及び第2画像に対し、例えば、David Nister,“An efficient solution to the five−point relative pose problem,”IEEE Transactions on Pattern Analysis and Machine Intelligence,Volume.26, Issue.6,pp.756−770,2004.に記載された手法を用いることで、第1位置、第1姿勢、第2位置、及び第2姿勢、並びに対象物50のうち第1画像及び第2画像に写る部分の3次元形状が算出できる。
第2算出部15は、第1算出部13により算出された各視点の3次元位置及び3次元姿勢を用いて、各視点での撮像部11の光軸に基づく軸同士が成す第1角を算出する。例えば、第2算出部15は、第1算出部13により算出された第1位置、第1姿勢、第2位置、及び第2姿勢を用いて、第1視点51での撮像部11の第1光軸に基づく第1軸と第2視点52での撮像部11の第2光軸に基づく第2軸とが成す第1角を算出する。
光軸は、撮像部11の光学中心から焦点を通る直線であり、ある視点での撮像部11の3次元位置及び3次元姿勢が算出されることで求まる。
例えば、第1視点51での3次元位置が3次元座標Xで表され、3次元姿勢が3次元方向ベクトルVで表されるとする。この場合、図3に示すように、第1視点51での撮像部11の光学中心61の3次元位置がX、第1光軸81の3次元向きがVとなるため、第1視点51での3次元位置及び3次元姿勢から第1光軸81を求めることができる。
また例えば、第2視点52での3次元位置が3次元座標Xで表され、3次元姿勢が3次元方向ベクトルVで表されるとする。この場合、図3に示すように、第2視点52での撮像部11の光学中心62の3次元位置がX、第2光軸82の3次元向きがVとなるため、第2視点52での3次元位置及び3次元姿勢から第2光軸82を求めることができる。
なお、第1実施形態では、視点と光学中心とが一致していることを想定しているが、これに限定されるものではない。
また、各視点での撮像部11の光軸に基づく軸は、具体的には、各光軸が成す外積に対して垂直となる面に各光軸を射影した軸である。但し、各光軸が成す外積に対して垂直となる面上に各光軸が元々位置する場合、各視点での撮像部11の光軸に基づく軸は、各視点での撮像部11の光軸そのものとなる。
例えば、第1光軸81に基づく第1軸及び第2光軸に基づく第2軸であれば、第1光軸81と第2光軸82との外積に対して垂直となる面に第1光軸を射影した軸が第1軸となり、当該面に第2光軸を射影した軸が第2軸となる。
例えば、図4に示す例の場合、第1光軸81と第2光軸82との外積は、第1光軸81と第2光軸82とを結ぶ最短の直線92の方向ベクトルを表す。このため、第1光軸81と第2光軸82との外積に対して垂直となる面は、光学中心61と、光学中心62と、第1光軸81と第2光軸82とを結ぶ最短の直線92の中央点91と、が位置する面とすることができる。この場合、第1軸81’は、第1光軸81を当該面に射影した軸となり、第2軸82’は、第2光軸82を当該面に射影した軸となる。そして、第1軸81’の3次元方向ベクトルをV’第2軸82’の3次元方向ベクトルをV’とすると、第1軸81’と第2軸82’とが成す第1角θ12’は、数式(1)で求められる。
θ12’=cos−1(V’・V’/|V’||V’|) …(1)
なお、V’・V’は、V’とV’との内積を表し、|V’|は、V’のノルムを表し、|V’|は、V’のノルムを表す。
また例えば、図5に示す例の場合、第1光軸81と第2光軸82との外積は、直線92の方向ベクトルを表す。ここで、第1光軸81と第2光軸82とは、直線92上の交点91で交わっているため、第1光軸81と第2光軸82との外積に対して垂直となる面は、光学中心61と、光学中心62と、交点91と、が位置する面とすることができる。この場合、第1光軸81と第2光軸82は、当該面上に位置するため、第1軸は、第1光軸81そのものとなり、第2軸は、第2光軸82そのものとなり、第1光軸81(第1軸)と第2光軸82(第2)とが成す第1角θ12は、数式(2)で求められる。
θ12=cos−1(V・V/|V||V|) …(2)
なお、V・Vは、VとVとの内積を表し、|V|は、Vのノルムを表し、|V|は、Vのノルムを表す。
第3算出部17は、第2算出部15により算出された第1角の角度を増加させる方向に位置する次撮像を行う次視点を算出する。例えば、第3算出部17は、第1軸と第2軸との交点を基準に第2軸を回転させることで、第2算出部15により算出された第1角の角度を増加させる方向に位置する次撮像を行う次視点を算出する。具体的には、第3算出部17は、第1軸と、次視点と交点とを結ぶ線と、が成す第2角の角度分、第1軸の方向ベクトルを第1角の角度を増加させる方向に回転させることで、次視点を算出する。
例えば、図4に示す例の場合、第1軸81’の3次元方向ベクトルV’の回転軸を直線92、回転中心を中央点91とする。この場合、回転軸の方向ベクトルAは、数式(3)で求められる。
A=V×V=(ax, ay, az) …(3)
なお、V×Vは、VとVとの外積を表す。
また、次視点での撮像部11の光学中心63と回転中心である中央点91とを結ぶ線83と、第1軸81’と、が成す第2角θ13’は、数式(4)で表わされる。
θ13’=θ12’+θ …(4)
θは、線83と第2軸82’とが成す角である。
なお、第1実施形態では、次視点は、回転中心である中央点91を基準に第2軸82’を回転させることで、θ12’を増加させる方向に位置することを想定しており、詳細には、中央点91を基準に第2軸82’を、θ12’を増加させる方向に30度程度回転させたあたりに位置することを想定しているが、これに限定されるものではない。
そして、回転中心である中央点91から次視点での撮像部11の光学中心63方向への3次元方向ベクトルV’は、ロドリゲスの公式より、数式(5)〜(7)で求められる。
Figure 2016061654
Rは、第1軸81’の3次元方向ベクトルV’を、回転軸A周りに回転させる回転行列を示す。
R’=I+sinθ13’/θ12’R+(1−cosθ13’)/θ12 …(6)
R’は、第1軸81’の3次元方向ベクトルV’を、回転軸A周りにθ13’分回転させる回転行列を示す。
’=R’V’ …(7)
これにより、次視点が算出される。
なお、図5に示す例の場合については、第1軸81’を第1光軸81、第2軸82’を第2光軸82、3次元方向ベクトルV’を3次元方向ベクトルV、3次元方向ベクトルV’を3次元方向ベクトルV、3次元方向ベクトルV’を3次元方向ベクトルVとして、図4に示す例の場合と同様の処理を行えばよいので、詳細な説明は省略する。
出力制御部19は、第2視点52から次視点の方向への撮像部11の移動を促す情報を出力部21に出力させる。具体的には、第2視点52から次視点への撮像部11の移動を促す情報を出力部21に出力させる。
例えば、出力制御部19は、図6に示すように、第1視点51、第2視点52、次視点53、回転中心である中央点91、及び第1角θ12’(但し、θ12の場合もある)を可視化して出力部21に出力し、第2視点52から次視点53へ撮像部11を移動させるため、即ち、第2視点52から第1角θ12’を増加させる方向に撮像部11を移動させるため、反時計回り方向への移動を促すメッセージを出力してもよい。なお、出力制御部19は、第2角θ13’も出力部21に出力してもよい。
また例えば、出力制御部19は、図7に示すように、第2視点52から次視点53へ撮像部11を移動させるため、即ち、第2視点52から第1角θ12’を増加させる方向に撮像部11を移動させるため、撮像部11の移動方向を矢印で表して出力部21に出力してもよい。
また例えば、出力制御部19は、第2視点52から第1角θ12’を増加させる方向に撮像部11を移動させることを促す情報を出力部21に出力してもよい。
また出力制御部19は、撮像部11の移動が不適切である旨を出力部21に出力させてもよい。
例えば、図8に示すように、第2視点52から撮像部11を回転移動させて第3視点54に移動させた結果、第2視点52での撮像部11の光学中心62と第3視点54での撮像部11の光学中心とが一致するとする。この場合、第2視点52で撮像した第2画像と第3視点54で撮像した第3画像間に視差が生じないため、第3視点54での撮像部11の位置及び姿勢を算出できず、不適切な撮像部11の移動となる。なお、第3視点54は、撮像部11が第2視点52から実際に移動した視点であり、前述した次視点53とは異なる視点であるとする。
また例えば、出力部21で促された方向と反対方向、即ち、第2視点52から第1角θ12’を減少させる方向に撮像部11を移動させて第3視点に移動させた場合、作業効率を悪化させるため、不適切な撮像部11の移動となる。
また例えば、出力部21で促された方向に撮像部11を移動させて第3視点に移動させたとしても移動量が足りない場合、両画像間で新たに対応付けられる特徴点の数が足りないため、第3視点54での撮像部11の位置及び姿勢を算出できず、不適切な撮像部11の移動となる。
このような場合、出力制御部19は、撮像部11の移動が不適切である旨を出力部21に出力する。具体的には、撮像部11は、第2視点52から実際に移動した第3視点で対象物40の第3画像を撮像する。第1算出部13は、第1画像及び第3画像を用いて、第3視点での撮像部11の第3位置及び第3姿勢を算出するとともに、第2画像及び第3画像を用いて、第3視点での撮像部11の第4位置及び第4姿勢を算出する。第2算出部15は、第1位置、第1姿勢、第3位置、及び第3姿勢を用いて、第1軸81’と、第3視点での撮像部11の第3光軸に基づく第3軸と、が成す第3角を算出する。第3軸は、第1光軸81と第2光軸82との外積に対して垂直となる面に第3光軸を射影した軸である。そして出力制御部19は、第3角の角度が第1角θ12’の角度より小さい場合、又は第4角が算出できない場合、撮像部11の移動が不適切である旨を出力部21に出力する。この際、出力制御部19は、撮像部11が第2視点52に位置する際に算出した次視点の方向への撮像部11の移動を促す情報を出力部21に更に出力してもよい。
図9は、第1実施形態の移動支援装置10で行われる処理の手順の流れの一例を示すフローチャートである。
まず、撮像部11は、第i視点で対象物40の第i画像を撮像する(ステップS101)。なお、iの初期値は1である。
続いて、撮像部11は、第(1+i)視点で対象物40の第(1+i)画像を撮像する(ステップS103)。
続いて、第1算出部13は、第i画像及び第(1+i)画像を用いて、第i視点での撮像部11の第i位置及び第i姿勢を算出するとともに、第(1+i)視点での撮像部11の第(1+i)位置及び第(1+i)姿勢を算出する(ステップS105)。
続いて、第2算出部15は、第i位置、第i姿勢、第(1+i)位置、及び第(1+i)姿勢を用いて、第i視点での撮像部11の第i光軸に基づく第i軸と第(1+i)視点での撮像部11の第(1+i)光軸に基づく第(1+i)軸とが成す第1角を算出する(ステップS107)。
続いて、第3算出部17は、第i軸と第(1+i)軸との交点を基準に第(1+i)軸を回転させることで、第1角の角度を増加させる方向に位置する次撮像を行う次視点を算出する(ステップS109)。
続いて、出力制御部19は、第(1+i)視点から次視点の方向への撮像部11の移動を促す情報を出力部21に出力させる(ステップS111)。
ステップS111が終わると、iに1を足したものをiとして(iをインクリメントして)、ステップS103〜ステップS111の処理が繰り返される。
以上のように第1実施形態によれば、現在撮像(計測)を行った視点から次の撮像(計測)を行う次視点の方向への撮像部11の移動を促す情報が出力されるため、熟練度の低いユーザであっても、撮像部を次視点に移動させるために撮像部をどの方向に移動させればいいか判断でき、作業効率を向上することができる。
また第1実施形態によれば、不適切な撮像部11の移動が行われた場合、その旨が出力されるため、作業効率がこれ以上悪化してしまうことを抑制することができる。
(第2実施形態)
第2実施形態では、撮像部の位置及び姿勢の算出を開始できるか否かを判定する例について説明する。以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
図10は、第2実施形態の移動支援装置110の一例を示す構成図である。図10に示すように、第2実施形態の移動支援装置110は、第1判定部123、第4算出部125、及び出力制御部119が、第1実施形態と相違する。
第1判定部123は、撮像部11により撮像された第1画像上の複数の第1特徴点を検出し、検出した複数の第1特徴点の数及び分布の少なくともいずれかに基づいて、撮像部11の位置及び姿勢の算出を開始するか否かを判定する。具体的には、第1判定部123は、複数の第1特徴点の数及び分布の少なくともいずれかが第1閾値を超えた場合に、撮像部11の位置及び姿勢の算出を開始すると判定し、複数の第1特徴点の数及び分布の少なくともいずれかが第1閾値以下の場合に、撮像部11の位置及び姿勢の算出を開始できないと判定する。
第4算出部125は、撮像部11の位置及び姿勢の算出を開始すると判定された場合、第1画像上での複数の第1特徴点の重心位置を算出する。
出力制御部119は、撮像部11の位置及び姿勢の算出を開始すると判定された場合、第4算出部125により算出された重心位置に基づく方向への撮像部11の移動を促す情報を出力部21に出力させる。
例えば、図11に示すように、複数の第1特徴点151の重心位置153が第1画像の中心152よりも右側に位置する場合、出力制御部119は、図12に示すように、第1視点51から反時計回り方向への撮像部11の移動を促す情報を出力部21に出力する。このようにすれば、第2視点52は、第1視点51の反時計回り方向に位置することが期待できるため、第2視点52で撮像部11により撮像された第2画像において、複数の第1特徴点に対応する複数の第2特徴点が、第1画像に比べ第2画像の中心に集まること、即ち、複数の第2特徴点が第2画像内に写ることが期待できる。この結果、第2視点52での撮像部11の位置及び姿勢の算出が成功しやすくなることが期待できる。なお、図11に示す例では、複数の第1特徴点151のx座標を用いて、x軸上の重心位置153が求められている。
また、複数の第1特徴点の重心位置が第1画像の中心よりも左側に位置する場合、出力制御部119は、第1視点51から時計回り方向への撮像部11の移動を促す情報を出力部21に出力する。
また、出力制御部119は、撮像部11の位置及び姿勢の算出を開始できないと判定された場合、第1視点を変えて第1画像を再撮像することを促す情報を出力部21に出力させる。
図13は、第2実施形態の移動支援装置110で行われる処理の手順の流れの一例を示すフローチャートである。
まず、撮像部11は、第i視点で対象物40の第i画像を撮像する(ステップS201)。なお、iの初期値は1である。
続いて、第1判定部123は、撮像部11により撮像された第i画像上の複数の第1特徴点を検出し、検出した複数の第1特徴点の数及び分布の少なくともいずれかに基づいて、撮像部11の位置及び姿勢の算出を開始するか否かを判定する(ステップS203)。
撮像部11の位置及び姿勢の算出を開始できない場合(ステップS203でNo)、出力制御部119は、第i視点を変えて第i画像を再撮像することを促す情報を出力部21に出力させる(ステップS205)。
一方、撮像部11の位置及び姿勢の算出を開始できる場合(ステップS203でYes)、第4算出部125は、第1画像上での複数の第1特徴点の重心位置を算出する(ステップS207)。
続いて、出力制御部119は、第4算出部125により算出された重心位置に基づく方向への撮像部11の移動を促す情報を出力部21に出力させる(ステップS209)。
以降のステップS211〜S219の処理は、図9に示すフローチャートのステップS103〜S111の処理と同様であるため、説明を省略する。
以上のように第2実施形態によれば、撮像部11の位置及び姿勢を算出できる第1画像が撮像されると、撮像部11の位置及び姿勢の算出が開始されるため、作業効率をより向上することができる。
また第2実施形態によれば、撮像部11の位置及び姿勢の算出を開始する前から、現在の視点から次の撮像(計測)を行う次視点の方向への撮像部11の移動を促す情報が出力されるため、作業効率をより向上することができる。
(第3実施形態)
第3実施形態では、撮像部の位置及び姿勢の算出を終了できるか否かを判定する例について説明する。以下では、第1実施形態との相違点の説明を主に行い、第1実施形態と同様の機能を有する構成要素については、第1実施形態と同様の名称・符号を付し、その説明を省略する。
図14は、第3実施形態の移動支援装置110の一例を示す構成図である。図10に示すように、第3実施形態の移動支援装置210は、第5算出部227、第2判定部229、及び出力制御部219が、第1実施形態と相違する。
第5算出部227は、第1算出部13により対応付けられた第1特徴点及び第2特徴点の組毎に、当該第1特徴点と第1視点とを結ぶ線と、当該第2特徴点と第1視点とを結ぶ線と、が成す第4角、及び当該第1特徴点と第2視点とを結ぶ線と、当該第2特徴点と第2視点とを結ぶ線と、が成す第5角を算出する。
第5算出部227は、例えば、図15に示すように、対応付けられた第1特徴点251A及び第2特徴点251Bの組に対し、第1特徴点251Aと第1視点51(光学中心61)とを結ぶ線261と、第2特徴点251Bと第1視点51(光学中心61)とを結ぶ線262と、が成す第4角θ、及び第1特徴点251Aと第2視点52(光学中心62)とを結ぶ線271と、第2特徴点251Bと第2視点52(光学中心62)とを結ぶ線272と、が成す第5角θを算出する。
第2判定部229は、算出された複数の第4角及び複数の第5角に基づいて、撮像部11の位置及び姿勢の算出を終了するか否かを判定する。具体的には、第2判定部229は、複数の第4角及び複数の第5角の角度の最小値、平均値、及び中央値の少なくともいずれかが第2閾値を超えた場合、撮像部11の位置及び姿勢の算出を終了すると判定する。
第1実施形態で説明したように、第1算出部13は、撮像部11の位置及び姿勢を算出することにより、対象物のうち複数の画像内に写る部分の3次元形状も計測(算出)している。そして、撮像部11の位置及び姿勢が新たに算出されると、対象物のうち新たな部分の3次元形状も計測(算出)されるとともに、計測(算出)済みの部分の3次元形状も更新される。
ここで、一般的に、計測(算出)済みの部分の3次元形状は、更新されるほど、計測(算出)精度が高くなり、第4角や第5角の角度が大きくなる傾向にある。このため、第3実施形態では、複数の第4角及び複数の第5角の角度の最小値、平均値、及び中央値の少なくともいずれかが第2閾値を超えた場合、求めている精度で対象物40の3次元形状を計測できたと判断し、撮像部11の位置及び姿勢の算出、即ち、対象物40の3次元形状の計測を終了する。
出力制御部219は、撮像部11の位置及び姿勢の算出を終了すると判定された場合、その旨を出力部21に出力させる。
図16は、第3実施形態の移動支援装置210で行われる処理の手順の流れの一例を示すフローチャートである。
まず、ステップS301〜S305の処理は、図9に示すフローチャートのステップS101〜S105の処理と同様である。
続いて、第5算出部227は、第1算出部13により対応付けられた第i特徴点及び第(i+1)特徴点の組毎に、当該第i特徴点と第i視点とを結ぶ線と、当該第(i+1)特徴点と第i視点とを結ぶ線と、が成す第4角、及び当該第i特徴点と第(i+1)視点とを結ぶ線と、当該第(i+1)特徴点と第(i+1)視点とを結ぶ線と、が成す第5角を算出する(ステップS307)。
続いて、第2判定部229は、算出された複数の第4角及び複数の第5角に基づいて、撮像部11の位置及び姿勢の算出を終了するか否かを判定する(ステップS309)。
撮像部11の位置及び姿勢の算出を終了する場合(ステップS309でYes)、出力制御部219は、その旨を出力部21に出力させる(ステップS311)。
一方、撮像部11の位置及び姿勢の算出を終了しない場合(ステップS309でNo)、ステップS313へ進む。
以降のステップS313〜S317の処理は、図9に示すフローチャートのステップS107〜S111の処理と同様であるため、説明を省略する。
以上のように第3実施形態によれば、撮像部11の位置及び姿勢の算出を終了できる場合、その旨が出力されるため、作業効率をより向上することができる。
(ハードウェア構成)
図17は、上記各実施形態の移動支援装置のハードウェア構成の一例を示すブロック図である。図17に示すように、上記各実施形態の移動支援装置は、CPUなどの制御装置901と、ROMやRAMなどの記憶装置902と、HDDやSSDなどの外部記憶装置903と、ディスプレイなどの表示装置904と、マウスやキーボードなどの入力装置905と、通信I/F906と、カメラなどの撮像装置907とを、備えており、通常のコンピュータを利用したハードウェア構成で実現できる。
上記各実施形態の移動支援装置で実行されるプログラムは、ROM等に予め組み込んで提供される。
また、上記各実施形態の移動支援装置で実行されるプログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。
また、上記各実施形態の移動支援装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記各実施形態の移動支援装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
上記各実施形態の移動支援装置で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、制御装置901が外部記憶装置903からプログラムを記憶装置902上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
以上説明したとおり、上記各実施形態によれば、作業効率を向上させることができる。
なお本発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
例えば、上記実施形態のフローチャートにおける各ステップを、その性質に反しない限り、実行順序を変更し、複数同時に実施し、あるいは実施毎に異なった順序で実施してもよい。
また例えば、上記第2実施形態と上記第3実施形態とを組み合わせてもよい。
10、110、210 移動支援装置
11 撮像部
13 第1算出部
15 第2算出部
17 第3算出部
19、119、219 出力制御部
21 出力部
123 第1判定部
125 第4算出部
227 第5算出部
229 第2判定部

Claims (15)

  1. 第1視点で対象物の第1画像を撮像するとともに、前記第1視点から第2視点に移動して前記対象物の第2画像を撮像する撮像部と、
    前記第1画像及び前記第2画像を用いて、前記第1視点での前記撮像部の第1位置及び第1姿勢を算出するとともに、前記第2視点での前記撮像部の第2位置及び第2姿勢を算出する第1算出部と、
    前記第1位置、前記第1姿勢、前記第2位置、及び前記第2姿勢を用いて、前記第1視点での前記撮像部の第1光軸に基づく第1軸と前記第2視点での前記撮像部の第2光軸に基づく第2軸とが成す第1角を算出する第2算出部と、
    前記第1軸と前記第2軸との交点を基準に前記第2軸を回転させることで前記第1角の角度を増加させる方向に位置する次撮像を行う次視点を算出する第3算出部と、
    前記第2視点から前記次視点の方向への前記撮像部の移動を促す情報を出力する出力部と、
    を備える移動支援装置。
  2. 前記第1軸は、前記第1光軸と前記第2光軸との外積に対して垂直となる面に前記第1光軸を射影した軸であり、
    前記第2軸は、前記面に前記第2光軸を射影した軸である請求項1に記載の移動支援装置。
  3. 前記第3算出部は、前記第1軸と、前記次視点と前記交点とを結ぶ線と、が成す第2角の角度分、前記第1軸の方向ベクトルを前記第1角の角度を増加させる方向に回転させることで、前記次視点を算出する請求項1に記載の移動支援装置。
  4. 前記出力部は、前記第2視点から前記次視点への前記撮像部の移動を促す情報を出力する請求項1に記載の移動支援装置。
  5. 前記撮像部は、前記第2視点から実際に移動した第3視点で前記対象物の第3画像を撮像し、
    前記第1算出部は、前記第1画像及び前記第3画像を用いて、前記第3視点での前記撮像部の第3位置及び第3姿勢を算出するとともに、前記第2画像及び前記第3画像を用いて、前記第3視点での前記撮像部の第4位置及び第4姿勢を算出し、
    前記第2算出部は、前記第1位置、前記第1姿勢、前記第3位置、及び前記第3姿勢を用いて、前記第1軸と、前記第3視点での前記撮像部の第3光軸に基づく第3軸と、が成す第3角を算出し、
    前記出力部は、前記第3角の角度が前記第1角の角度より小さい場合、又は前記第4角が算出できない場合、前記撮像部の移動が不適切である旨を出力する請求項1に記載の移動支援装置。
  6. 前記第3軸は、前記第1光軸と前記第2光軸との外積に対して垂直となる面に前記第3光軸を射影した軸である請求項5に記載の移動支援装置。
  7. 前記出力部は、更に、前記次視点の方向への前記撮像部の移動を促す情報を出力する請求項5に記載の移動支援装置。
  8. 前記第1画像上の複数の第1特徴点の数及び分布の少なくともいずれかに基づいて、前記撮像部の位置及び姿勢の算出を開始するか否かを判定する第1判定部と、
    開始すると判定された場合、前記第1画像上での前記複数の第1特徴点の重心位置を算出する第4算出部と、を更に備え、
    前記出力部は、前記重心位置に基づく方向への前記撮像部の移動を促す情報を出力する請求項1に記載の移動支援装置。
  9. 前記出力部は、前記重心位置が前記第1画像の中心よりも右側に位置する場合、反時計回り方向への前記撮像部の移動を促す情報を出力し、前記重心位置が前記第1画像の中心よりも左側に位置する場合、時計回り方向への前記撮像部の移動を促す情報を出力する請求項8に記載の移動支援装置。
  10. 前記出力部は、開始しないと判定された場合、前記第1画像の再撮像を促す情報を出力する請求項8に記載の移動支援装置。
  11. 前記第1判定部は、前記数及び前記分布の少なくともいずれかが第1閾値を超えた場合に、前記撮像部の位置及び姿勢の算出を開始すると判定する請求項8に記載の移動支援装置。
  12. 前記第1算出部は、前記第1画像上の複数の第1特徴点それぞれと前記第2画像上の複数の第2特徴点それぞれとを対応付けることで、前記第1位置、前記第1姿勢、前記第2位置、及び前記第2姿勢を算出し、
    対応付けられた第1特徴点及び第2特徴点の組毎に、当該第1特徴点と前記第1視点とを結ぶ線と、当該第2特徴点と前記第1視点とを結ぶ線と、が成す第4角、及び当該第1特徴点と前記第2視点とを結ぶ線と、当該第2特徴点と前記第2視点とを結ぶ線と、が成す第5角を算出する第5算出部と、
    算出された前記複数の第4角及び前記複数の第5角に基づいて、前記撮像部の位置及び姿勢の算出を終了するか否かを判定する第2判定部と、を更に備え、
    前記出力部は、終了すると判定された場合、その旨を出力する請求項1に記載の移動支援装置。
  13. 前記第2判定部は、前記複数の第4角及び前記複数の第5角の角度の最小値、平均値、及び中央値の少なくともいずれかが第2閾値を超えた場合、前記撮像部の位置及び姿勢の算出を終了すると判定する請求項12に記載の移動支援装置。
  14. 第1視点で対象物の第1画像を撮像するとともに、前記第1視点から第2視点に移動して前記対象物の第2画像を撮像する撮像ステップと、
    前記第1画像及び前記第2画像を用いて、前記第1視点での前記撮像部の第1位置及び第1姿勢を算出するとともに、前記第2視点での前記撮像部の第2位置及び第2姿勢を算出する第1算出ステップと、
    前記第1位置、前記第1姿勢、前記第2位置、及び前記第2姿勢を用いて、前記第1視点での前記撮像部の第1光軸に基づく第1軸と前記第2視点での前記撮像部の第2光軸に基づく第2軸とが成す第1角を算出する第2算出ステップと、
    前記第1軸と前記第2軸との交点を基準に前記第2軸を回転させることで前記第1角の角度を増加させる方向に位置する次撮像を行う次視点を算出する第3算出ステップと、
    前記第2視点から前記次視点の方向への前記撮像部の移動を促す情報を出力する出力ステップと、
    を含む移動支援方法。
  15. 第1視点で対象物の第1画像を撮像するとともに、前記第1視点から第2視点に移動して前記対象物の第2画像を撮像する撮像ステップと、
    前記第1画像及び前記第2画像を用いて、前記第1視点での前記撮像部の第1位置及び第1姿勢を算出するとともに、前記第2視点での前記撮像部の第2位置及び第2姿勢を算出する第1算出ステップと、
    前記第1位置、前記第1姿勢、前記第2位置、及び前記第2姿勢を用いて、前記第1視点での前記撮像部の第1光軸に基づく第1軸と前記第2視点での前記撮像部の第2光軸に基づく第2軸とが成す第1角を算出する第2算出ステップと、
    前記第1軸と前記第2軸との交点を基準に前記第2軸を回転させることで前記第1角の角度を増加させる方向に位置する次撮像を行う次視点を算出する第3算出ステップと、
    前記第2視点から前記次視点の方向への前記撮像部の移動を促す情報を出力する出力ステップと、
    をコンピュータに実行させるためのプログラム。
JP2014189322A 2014-09-17 2014-09-17 移動支援装置、方法及びプログラム Active JP6193195B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014189322A JP6193195B2 (ja) 2014-09-17 2014-09-17 移動支援装置、方法及びプログラム
US14/848,868 US10809053B2 (en) 2014-09-17 2015-09-09 Movement assisting device, movement assisting method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014189322A JP6193195B2 (ja) 2014-09-17 2014-09-17 移動支援装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016061654A true JP2016061654A (ja) 2016-04-25
JP6193195B2 JP6193195B2 (ja) 2017-09-06

Family

ID=55456082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014189322A Active JP6193195B2 (ja) 2014-09-17 2014-09-17 移動支援装置、方法及びプログラム

Country Status (2)

Country Link
US (1) US10809053B2 (ja)
JP (1) JP6193195B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684823B2 (en) 2014-09-16 2017-06-20 Kabushiki Kaisha Toshiba Moving body position estimating device, moving body position estimating method, and non-transitory recording medium
JP2017215261A (ja) * 2016-06-01 2017-12-07 京セラ株式会社 位置検出方法及び位置検出システム
JP2017215263A (ja) * 2016-06-01 2017-12-07 京セラ株式会社 位置検出方法及び位置検出システム
JP2020126590A (ja) * 2019-02-04 2020-08-20 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021021577A (ja) * 2019-07-24 2021-02-18 富士通株式会社 画像処理装置及び画像処理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3343172B1 (en) * 2017-01-03 2024-03-13 iOnRoad Technologies Ltd. Creation and use of enhanced maps
US10841486B2 (en) * 2017-07-20 2020-11-17 Eclo, Inc. Augmented reality for three-dimensional model reconstruction
US20200218279A1 (en) * 2017-08-30 2020-07-09 Qualcomm Incorporated Robust Navigation of a Robotic Vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007033087A (ja) * 2005-07-22 2007-02-08 Sony Corp キャリブレーション装置及び方法
US20080304707A1 (en) * 2007-06-06 2008-12-11 Oi Kenichiro Information Processing Apparatus, Information Processing Method, and Computer Program
JP2012507011A (ja) * 2008-10-28 2012-03-22 ザ・ボーイング・カンパニー 空間照会のための手持ち型位置決めインタフェース
US20130321591A1 (en) * 2012-05-29 2013-12-05 Kabushiki Kaisha Topcon Image Pickup Method And Photographing Device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5012615B2 (ja) 2008-03-27 2012-08-29 ソニー株式会社 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP2010256253A (ja) 2009-04-27 2010-11-11 Topcon Corp 三次元計測用画像撮影装置及びその方法
JP5812599B2 (ja) * 2010-02-25 2015-11-17 キヤノン株式会社 情報処理方法及びその装置
US8933996B2 (en) * 2010-06-30 2015-01-13 Fujifilm Corporation Multiple viewpoint imaging control device, multiple viewpoint imaging control method and computer readable medium
JP5501474B2 (ja) * 2011-06-10 2014-05-21 パナソニック株式会社 立体画像生成装置および立体画像生成方法
WO2013113168A1 (en) * 2012-02-03 2013-08-08 Thomson Licensing Method for setting and determining directions of principal axes of 3d object
JP5947634B2 (ja) 2012-06-25 2016-07-06 株式会社トプコン 航空写真撮像方法及び航空写真撮像システム
WO2014179745A1 (en) * 2013-05-02 2014-11-06 Qualcomm Incorporated Methods for facilitating computer vision application initialization
JP2015049200A (ja) 2013-09-03 2015-03-16 株式会社東芝 計測装置、方法及びプログラム
JP2015059988A (ja) * 2013-09-17 2015-03-30 富士通株式会社 ステレオ撮像装置及びステレオ画像生成方法
JP6096626B2 (ja) 2013-09-20 2017-03-15 株式会社東芝 計測支援装置、方法及びプログラム
JP5824537B2 (ja) * 2014-01-16 2015-11-25 キヤノン株式会社 情報処理装置および情報処理方法
US10574974B2 (en) * 2014-06-27 2020-02-25 A9.Com, Inc. 3-D model generation using multiple cameras

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007033087A (ja) * 2005-07-22 2007-02-08 Sony Corp キャリブレーション装置及び方法
US20080304707A1 (en) * 2007-06-06 2008-12-11 Oi Kenichiro Information Processing Apparatus, Information Processing Method, and Computer Program
JP2008304268A (ja) * 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2012507011A (ja) * 2008-10-28 2012-03-22 ザ・ボーイング・カンパニー 空間照会のための手持ち型位置決めインタフェース
US20130321591A1 (en) * 2012-05-29 2013-12-05 Kabushiki Kaisha Topcon Image Pickup Method And Photographing Device
JP2013246111A (ja) * 2012-05-29 2013-12-09 Topcon Corp 画像取得方法及び撮影装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684823B2 (en) 2014-09-16 2017-06-20 Kabushiki Kaisha Toshiba Moving body position estimating device, moving body position estimating method, and non-transitory recording medium
JP2017215261A (ja) * 2016-06-01 2017-12-07 京セラ株式会社 位置検出方法及び位置検出システム
JP2017215263A (ja) * 2016-06-01 2017-12-07 京セラ株式会社 位置検出方法及び位置検出システム
JP2020126590A (ja) * 2019-02-04 2020-08-20 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7412983B2 (ja) 2019-02-04 2024-01-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2021021577A (ja) * 2019-07-24 2021-02-18 富士通株式会社 画像処理装置及び画像処理方法
JP7230722B2 (ja) 2019-07-24 2023-03-01 富士通株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20160080644A1 (en) 2016-03-17
US10809053B2 (en) 2020-10-20
JP6193195B2 (ja) 2017-09-06

Similar Documents

Publication Publication Date Title
JP6193195B2 (ja) 移動支援装置、方法及びプログラム
CN112652016B (zh) 点云预测模型的生成方法、位姿估计方法及其装置
EP4224424A1 (en) Method and system for determining spatial coordinates of a 3d reconstruction of at least part of a real object at absolute spatial scale
JP5710752B2 (ja) 検出装置、方法及びプログラム
JP2017118396A (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
EP3644826A1 (en) A wearable eye tracking system with slippage detection and correction
JP2014013146A5 (ja)
WO2017080280A1 (zh) 一种深度图像合成方法及装置
JP2017191492A5 (ja)
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
JP2009003813A (ja) 手指形状推定装置及び手指形状推定方法、並びにプログラム
JP2017123087A (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
JP2016148649A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6425405B2 (ja) 情報処理装置、方法、プログラム
JP2019158427A (ja) 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
JP6347610B2 (ja) 画像処理装置および3次元空間情報取得方法
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2015135333A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2015132523A (ja) 位置姿勢計測装置、位置姿勢計測方法及びプログラム
JP5728399B2 (ja) 計測装置、方法及びプログラム
CN110900606B (zh) 一种基于小型机械臂手眼联动系统及其控制方法
JP2017162449A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP5634558B2 (ja) 画像処理装置
JP2015072608A (ja) 状態推定装置及び状態推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170809

R151 Written notification of patent or utility model registration

Ref document number: 6193195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151