JP2018091667A - 情報処理装置、情報処理装置の制御方法及びプログラム - Google Patents

情報処理装置、情報処理装置の制御方法及びプログラム Download PDF

Info

Publication number
JP2018091667A
JP2018091667A JP2016233501A JP2016233501A JP2018091667A JP 2018091667 A JP2018091667 A JP 2018091667A JP 2016233501 A JP2016233501 A JP 2016233501A JP 2016233501 A JP2016233501 A JP 2016233501A JP 2018091667 A JP2018091667 A JP 2018091667A
Authority
JP
Japan
Prior art keywords
marker
stability
unit
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016233501A
Other languages
English (en)
Other versions
JP6917701B2 (ja
Inventor
大地 阿達
Taichi Adachi
大地 阿達
孝嗣 牧田
Takatsugu Makita
孝嗣 牧田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016233501A priority Critical patent/JP6917701B2/ja
Priority to US15/826,083 priority patent/US10510159B2/en
Publication of JP2018091667A publication Critical patent/JP2018091667A/ja
Application granted granted Critical
Publication of JP6917701B2 publication Critical patent/JP6917701B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】位置姿勢の推定を不安定にすることなく、排除可能なマーカを容易に認識可能にする。【解決手段】情報処理装置であって、撮像部により現実空間を撮像して得られた画像から1以上のマーカを検出するマーカ検出部と、画像から特徴を検出する特徴検出部と、マーカ検出部による検出結果と、特徴検出部による検出結果とに基づいて、撮像部の位置姿勢を推定する推定部と、1以上のマーカのうち一部のマーカを排除した場合の位置姿勢の推定の安定度を取得する安定度取得部と、安定度に基づいて一部のマーカが排除可能であることを示す情報を出力する出力部とを備える。【選択図】 図2

Description

本発明は、 情報処理装置、情報処理装置の制御方法及びプログラムに関する。
近年、現実空間に仮想情報やCG(Computer Graphics)モデルを合成する拡張現実感(AR:Augmented Reality)や複合現実感(MR:Mixed Reality)に関する技術が注目されている。現実空間への合成は、多くの場合、カメラで撮像した画像から現実空間の3次元形状を認識することにより行われる。現実空間の3次元形状の認識の代表的な手法として、形状が既知のテクスチャを持つマーカ(以下では単にマーカと呼ぶ)を画像から検出する手法やSLAM(Simultaneous Localization And Mapping)がある。SLAMの基本原理は非特許文献1で述べられている。SLAMではカメラが動きながら撮影した画像から検出される現実空間中の特徴的な点(以下では特徴と呼ぶ)を毎フレーム追跡することにより、現実の3次元空間における特徴の3次元座標とカメラの位置姿勢が逐次推定される。
特許文献1は、マーカとSLAMとを併用することにより推定の精度を向上させる技術を開示している。特許文献1では、現実空間にマーカを配置して撮影した画像群Φから特徴を検出してSLAMで推定した結果をマップとして保存し、マーカを取り除いて撮影した画像群ΦCから検出した特徴とマップとを対応付けることにより高精度にSLAMを行っている。
特開2014−112056号公報
Andrew J.Davison, "Real-Time Simultaneous Localization and Mapping with a Single Camera",Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410 河合 紀彦,佐藤 智和,横矢 直和: "テクスチャの明度変化と局所性を考慮したパターン類似度を用いたエネルギー最小化による画像修復",電子情報通信学会論文誌, Vol.J91-D, No.9 pp. 2293-2304, Sep. 2008. J. Sivic and A. Zisserman. "Video google: A text retrieval approach to object matching in videos", Proc. ICCV2003, Vol.2, pp.1470-1477, 2003
しかし、特許文献1に記載の技術では、ユーザはマーカをいつ取り除けば良いか判断することができない。画像群Φ中の特徴の分布が不十分なままマーカを取り除いてしまうと画像群ΦC中の特徴との対応付けが不十分になり、SLAMの推定が不安定になってしまうという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、位置姿勢の推定を不安定にすることなく、排除可能なマーカを容易に認識するための技術を提供する。
上記の目的を達成する本発明に係る情報処理装置は、
撮像部により現実空間を撮像して得られた画像から1以上のマーカを検出するマーカ検出手段と、
前記画像から特徴を検出する特徴検出手段と、
前記マーカ検出手段による検出結果と、前記特徴検出手段による検出結果とに基づいて、前記撮像部の位置姿勢を推定する推定手段と、
前記1以上のマーカのうち一部のマーカを排除した場合の前記位置姿勢の推定の安定度を算出する算出手段と、
前記安定度に基づいて前記一部のマーカが排除可能であることを示す情報を出力する出力手段と、
を備えることを特徴とする。
本発明によれば、位置姿勢の推定を不安定にすることなく、排除可能なマーカを容易に認識することが可能となる。
実施形態1に係る情報処理装置の構成を説明するためのブロック図。 実施形態1に係る情報処理装置の処理手順を示すフローチャート。 実施形態1に係るマーカ情報を記述したテキストファイルを示す図。 実施形態1に係るマーカコーナー点を示す図。 実施形態1に係る特徴点の検出と対応付けを示す図。 実施形態1に係るMR画像を示す図。 実施形態2に係る情報処理装置の構成を説明するためのブロック図。 実施形態2に係る情報処理装置の処理手順を示すフローチャート。 実施形態2に係るマーカ領域削除画像と多視点画像を示す図。 実施形態2に係るテキスト重畳画像を示す図。 実施形態3に係る情報処理装置の構成を説明するためのブロック図。 実施形態3に係る情報処理装置の処理手順を示すフローチャート。 実施形態3に係る現実空間のマーカの分布を示す図。 実施形態3に係るマップ中の特徴点の分布を示す図。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(実施形態1)
<概要>
実施形態1では、SLAMの推定の安定度を算出するためにマーカの大きさに基づいてマーカを1つ選択し、マーカの有無によるSLAMの推定結果の差異を算出する例について説明する。
<装置構成>
図1は、本実施形態に係る情報処理装置100の構成例を示すブロック図である。情報処理装置100は、外部の撮像部1A 及び表示部1Cと、映像ケーブル(USB(Universal Serial Bus)ケーブルなど)を介して接続されている。また、情報処理装置100は、外部記憶装置1BとSATA(Serial Advanced Technology Attachment)ケーブルなどを介して接続されている。
情報処理装置100は、画像取得部101と、マーカ情報取得部102と、マーカ検出部103と、特徴検出部104と、マップ取得部105と、特徴対応付け部106とを備える。また、情報処理装置100は、マーカ選択部107と、第1の位置姿勢推定部108と、第2の位置姿勢推定部109と、安定度取得部110と、排除マーカ提示部111とを備えている。情報処理装置100の各構成要素の機能は、不図示の制御部(CPU)が不図示のメモリからプログラムを読み出して実行することにより実現される。
外部の撮像部1Aは、撮像装置(カラーカメラ)であり、撮像した画像データを逐次画像取得部101へ転送する。外部記憶装置1Bは、SSD(Solid State Drive)やHDD(Hard Disk Drive)などで構成される。外部の表示部1Cは、液晶ディスプレイ装置であり、出力されたMR画像を表示する。
画像取得部101は、撮像部1Aが転送する画像データを入力画像として取得し、不図示のメモリに格納する。
マーカ情報取得部102は、マーカのIDと、マーカのIDに対応する四角形マーカの4つのコーナー点の仮想空間における3次元座標とを、外部記憶装置1Bに予め記憶されているテキストファイルから読み込み、不図示のメモリに格納する。
マーカ検出部103は、入力画像から画像処理により四角形マーカを検出し、検出した四角形マーカの4つのコーナー点の画像座標と、そのIDとを不図示のメモリに格納する。
特徴検出部104は、画像処理によって入力画像に写る現実空間中の特徴点を検出し、検出した特徴点の画像座標と、特徴記述ベクトル(ディスクリプタ)とを不図示のメモリに格納する。
マップ取得部105は、現実空間中の特徴点を示すマップデータを外部記憶装置1Bから取得し、不図示のメモリに格納する。マップデータは、特徴点の3次元座標、撮像部1Aを用いて特徴点を事前に複数箇所で撮像したカメラの画像、当該カメラの位置姿勢、そして当該画像中の特徴点の画像座標及び特徴記述ベクトル(ディスクリプタ)など、特徴点に関する情報を含む。
特徴対応付け部106は、不図示のメモリに格納された入力画像の特徴点とマップ中の特徴点とを、特徴記述ベクトル(ディスクリプタ)の類似度に基づいて対応付け、当該対応付け情報を不図示のメモリに格納する。
マーカ選択部107は、マーカ検出部103により入力画像から検出されたマーカのうち、最も画像上の面積が小さいマーカを1つ選択し、当該マーカのIDを不図示のメモリに格納する。
第1の位置姿勢推定部108は、特徴対応付け部106により対応付けられた特徴点のインデックス情報と、マーカ検出部103により検出されたマーカのIDと、マーカ情報取得部102により取得されたマーカのコーナー点の3次元座標とに基づいて、画像処理により外部の撮像部1Aの位置姿勢を算出し、不図示のメモリに格納する。
第2の位置姿勢推定部109は、特徴対応付け部106により対応付けられた特徴点のインデックス情報と、マーカ検出部103により検出されたマーカのIDと、マーカ情報取得部102により取得されたマーカのコーナー点の3次元座標とに基づいて、マーカ選択部107により選択されたマーカと当該マーカに内包される特徴点とを除外して、画像処理により外部の撮像部1Aの位置姿勢を算出し、不図示のメモリに格納する。
安定度取得部110は、第1の位置姿勢推定部108および第2の位置姿勢推定部109の推定結果を比較して安定度を算出して取得し、不図示のメモリに格納する。安定度の算出方法の詳細は後述する。
排除マーカ提示部111は、安定度取得部110により算出された安定度に基づいて、マーカ検出部103により検出されて選択部107により選択されたマーカに対して排除可能であるかどうかをユーザに対して提示するMR画像を生成し、外部の表示部1Cへ出力する。
<処理>
続いて、図2のフローチャートを参照しながら、本実施形態に係る情報処理装置100が実施する処理の手順を説明する。特に、本実施形態に係る安定度の算出方法、排除マーカの提示方法を詳細に説明する。
(ステップS1001:画像取得処理)
ステップS1001では、画像取得部101は、外部の撮像部1Aから画像データを入力画像として取得してメモリに格納する。画像データは、RGBそれぞれのチャネルの画素ごとの輝度値を記述したものである。
(ステップS1002:マーカ情報取得処理)
ステップS1002では、マーカ情報取得部102は、図3の表に示されるような、2次元コードパターンを持つ四角形マーカの4つのコーナー点の仮想空間における3次元座標とマーカのIDとを、外部記憶装置1Bに予め記憶されているテキストファイルから複数読み込み、メモリに格納する。
(ステップS1003:マーカ検出処理)
ステップS1003では、マーカ検出部103は、図4に示されるように、入力画像からマーカ検出処理により四角形マーカのコーナー点を検出するとともに、マーカの内部の画素の輝度値からマーカのIDを認識する。四角形マーカのコーナー点は、エッジ検出、ハフ変換による公知の線分検出を経て、線分同士の交点から算出される。また、マーカIDは、コーナー点の画像座標をホモグラフィ変換によって正対した四角形の画像に変換し、その内部を走査して公知のパターンマッチングによりIDを対応付けることによって認識される。マーカ検出部103は、マーカごとにIDと、算出した入力画像上のコーナー点の画像座標とを対応付けて、マーカ検出結果としてメモリに格納する。
(ステップS1004:マーカ検出結果判定処理)
ステップS1004では、マーカ検出部103は、マーカ検出結果を参照し、マーカが少なくとも1つ以上検出されたか否かを判定する。少なくとも1つ以上のマーカが検出されている場合、ステップS1005へ進む。一方、マーカが検出されていない場合、処理を終了する。
(ステップS1005:特徴検出処理)
ステップS1005では、特徴検出部104は、入力画像に写る現実空間中の特徴点を検出する。特徴点検出アルゴリズムは公知のHarris特徴やSIFT特徴を用いる。ここで、図5(a)は、本実施形態に係る特徴点の検出の様子を示す図である。特徴点として、入力画像中のコーナー点が三角形で示すように複数検出される。検出した特徴点の特徴情報を、SIFTなどの公知の特徴記述ベクトル(ディスクリプタ)算出アルゴリズムを用いて算出し、特徴点の入力画像上での画像座標と併せてメモリに格納する。
(ステップS1006:マップ取得処理)
ステップS1005では、マップ取得部105は、予め作成・記憶された現実空間中の特徴点を示すマップデータを外部記憶装置1Bから取得する。マップデータは、前述したように特徴点の3次元座標、特徴点を撮像部1Aを用いて事前に複数箇所で撮像したカメラの画像、当該カメラの位置姿勢、そして、当該画像中の特徴点の画像座標及び特徴記述ベクトル(ディスクリプタ)により構成される。ここで、図5(b)は、マップデータ中に含まれる画像の一例を示しており、入力画像に写るものと同じ現実空間が写っている。
以下では、カメラの位置姿勢を、3次元空間における並進位置ベクトル
および回転ベクトル
を合わせた6パラメータのベクトル
として表す。
(ステップS1007:特徴対応付け処理)
ステップS1007では、特徴対応付け部106は、ステップS1005で算出された入力画像上の特徴点のディスクリプタと、ステップS1006で取得しされたマップデータ中の特徴点のディスクリプタとのベクトルの内積を算出することにより、類似度の高い特徴点同士を対応付ける。例えば、類似度が閾値0.8を超える場合、類似度が高いと判定して特徴点同士を対応付けてもよい。
図5(a)および図5(b)には、入力画像中の特徴点と、マップデータ中の画像の特徴点との対応付けの一例が示されている。現実空間中の同一の特徴点が両画像間で対応付けられている。対応付け情報は、マップ中の画像IDと、当該画像中の特徴点のIDと、入力画像上の特徴点のIDとを併せて記述する。対応付け情報はメモリに格納される。
(ステップS1008:マーカ選択処理)
ステップS1007では、マーカ選択部107は、ステップS1003で検出されたマーカの大きさに基づいて、これらのマーカのうち少なくとも一部のマーカを選択する。例えば、ステップS1003で検出されたマーカのうち、入力画像上で最も面積の小さいマーカを選択する。また、選択したマーカのIDを内部メモリに格納する。なお、ステップS1008では、マーカを排除した際に位置姿勢推定への影響を小さくするため、入力画像上で最も面積が小さいマーカを1つ選択する例を説明しているが、反対に最も面積の大きいマーカを選択してもよいし、複数のマーカを選択してもよい。
(ステップS1009:第1の位置姿勢推定処理)
ステップS1009では、第1の位置姿勢推定部108は、ステップS1003で検出されたマーカの情報に基づいて、撮像部1Aのカメラ位置姿勢
を推定する。さらに、第1の位置姿勢推定部108は、ステップS1007で算出された対応付け情報を用いてカメラ位置姿勢
を再度推定する。推定したカメラ位置姿勢
の情報はメモリに格納する。以下、カメラ位置姿勢

の推定方法を説明する。
<カメラ位置姿勢
の推定>
現実空間におけるマーカのコーナー点の3次元座標を
とすると、ピンホールカメラモデルによってその点がカメラ投影面の画像座標
に投影される座標変換は、同次座標系表現で次式のように表される。
ここで
は、撮像部1Aの内部パラメータ
(3×3行列)と、
から一意に定義される回転行列
(3×3行列)および並進ベクトル
とを用いて、以下のように定義される。
また、
は両辺のベクトルが長さを除いて等しいことを示す。以上の定式化に基づき、事前に校正した撮像部1Aのカメラの内部パラメータ
、および、マーカのコーナー点の3次元座標
とその投影座標
から、カメラの位置姿勢を表す
及び
を最小二乗法により求める。すなわち、反復処理のある時点での推定値
を、適切に定めた更新量
を使って
のように更新し、収束するまで反復することで解を求める。最小二乗法には、本実施形態ではガウス・ニュートン法を用いる。反復計算のコスト関数
は、
から求められる
の再投影誤差である。
<カメラ位置姿勢
の推定>
マーカ検出結果を用いて
を推定した後、
を初期値として、同様の処理を行うことにより
を推定する。このとき、ステップS1007で対応付けられたマップ中の特徴点の3次元座標を
、入力画像上の特徴点の画像座標を
として定義する。推定した
はメモリに格納する。
なお、ステップS1009では、説明の単純化のためマーカによる位置姿勢推定と、特徴点による位置姿勢推定との2段階に分けて位置姿勢推定処理を説明した。しかし、対応付けに重みを付けて一度に推定してもよいし、マーカによる位置姿勢推定を行わなくてもよい。(ステップS1010:第2の位置姿勢推定処理)
ステップS1010では、第2の位置姿勢推定部109は、ステップS1008で選択されたマーカの検出結果と同マーカに内包される特徴点の対応付け情報とを除外して、ステップS1009と同様にカメラ位置姿勢
を推定し、メモリに格納する。
(ステップS1011:安定度取得処理)
ステップS1011では、安定度取得部110は、ステップS1009で推定されたカメラ位置姿勢
と、ステップS1010で推定されたカメラ位置姿勢
との差異を算出する。そして、当該差異に基づいてステップS1008で選択されたマーカを用いずにカメラ位置姿勢を推定した場合の安定度を算出する。
および
はいずれも上述したように並進位置ベクトルおよび回転ベクトルで表されるため、それぞれの差分ベクトルを安定度として算出してメモリに格納する。
(ステップS1012:安定度取得結果判定処理)
ステップS1012では、安定度取得部110は、並進位置ベクトルの差分ベクトルの長さが所定の閾値(例えば1mm)より大きいか否かを判定し、且つ/又は、回転ベクトルの差分ベクトルの長さが所定の閾値(例えば0.1mm)より大きいか否かを判定する。これらの少なくとも一方が閾値よりも大きい場合は、差異が大きい、すなわち安定度が閾値未満であると判定できるため、処理を終了する。一方、これらが両方とも閾値以下である場合は、差異が小さい、すなわち安定度が閾値以上であると判定できるため、ステップS1013へ進む。なお、これらの一方の条件を充足するか否かで判定を行ってもよい。
(ステップS1013:排除マーカ提示処理)
ステップS1013では、排除マーカ提示部111は、ステップS1008で選択されたマーカが排除可能であることをユーザに提示するためにMR画像を生成して、生成したMR画像を提示する。例えば、図6に示されるように、MR画像の生成処理では、入力画像上にステップS1008で選択されたマーカに対して、ステップS1003で検出された際の画像座標を用いて、四角形の枠線と「排除可能」の文字とを重畳描画する。排除マーカ提示部111は、生成したMR画像のデータを、外部の表示部1Cに出力してユーザに提示する。
なお、MR画像の生成方法は、入力画像に写る選択マーカが排除可能であることがユーザに提示できれば図6の例に限定されない。枠線や文字の一方を用いてもよいし、これらを用いずに、排除可能であることを示すためにマーカを点滅させてもよい。
以上で一連の処理が終了し、取得した画像に対する排除可能なマーカの情報が出力される。以上説明したように、本実施形態では、SLAMの推定の安定度を算出するためにマーカの大きさに基づいてマーカを1つ選択し、当該マーカの有無に応じたSLAMの推定結果の差異を算出し、当該差異に基づいてマーカを排除可能かどうか判定する例を説明した。これにより、撮像部1Aが一定周期で撮像する場合に、最新の現実空間を撮像した入力画像が入力され、排除可能なマーカがあれば逐次1つずつユーザに提示することができる。
本実施形態によれば、排除対象の最も小さいマーカが自動選択され、ユーザは選択されたマーカが排除可能かどうかを、画像が入力されるたびにMR表示によって知ることができ、SLAMの推定を不安定にすることなくマーカを排除することが可能となる。
(実施形態2)
<概要>
実施形態1では、SLAMの推定の安定度を算出するためにマーカの大きさに基づいてマーカを1つ選択し、当該マーカの有無に応じたSLAMの推定結果の差異を算出し、当該差異に基づいてマーカを排除可能かどうか判定する例を説明した。これに対して、本実施形態では、撮像部からの距離に基づきマーカを1つ選択し、マーカの有無による画像検索結果の位置の差異を判定して(マーカを排除可能であることを示す)テキスト重畳画像を提示する例を説明する。
<装置構成>
以下、実施形態1と重複する内容については説明を省略する。図7は、本実施形態に係る情報処理装置200の構成例を示すブロック図である。図1に示した情報処理装置100の構成要素と同じ構成要素については同じ参照符号を付しており、詳細な説明は省略する。
マーカ選択部701は、マーカ検出結果及び第1の位置姿勢推定結果に基づいてマーカを1つ選択し、不図示のメモリに格納する。マーカ領域削除部702は、入力画像からマーカ選択部701により選択されたマーカの画像領域を削除してマーカ領域削除画像を生成し、不図示のメモリに格納する。
多視点画像取得部703は、外部記憶装置1Bから現実空間を複数の視点で撮像した画像とその視点の位置姿勢とをセットで多視点画像として取得し、不図示のメモリに格納する。安定度取得部704は、マーカ領域削除画像をクエリとして多視点画像の中から最も類似する画像を画像検索によって選び、第1の位置姿勢推定の結果と多視点画像の位置姿勢とを比較して安定度を算出し、不図示のメモリに格納する。
排除マーカ提示部705は、安定度取得部704で算出された安定度に基づき、マーカ検出部103で検出されてマーカ選択部701で選択されたマーカに対して排除可能であることをユーザに対して提示するテキスト重畳画像を生成し、外部の表示部1Cへ出力する。
<処理>
続いて、図8のフローチャートを参照しながら、本実施形態に係る情報処理装置200が実施する処理の手順を説明する。特に、本実施形態に係る安定度の算出方法、排除マーカの提示方法を詳細に説明する。ステップS2001〜ステップS2008の各処理は、実施形態1で図2を参照して説明したステップS1001〜ステップS1007、ステップS1009の各処理とそれぞれ同様である。
(ステップS2009:マーカ選択処理)
ステップS2009では、マーカ選択部701は、ステップS2003で検出されたマーカのうち、撮像部1Aからの距離が最も近いもマーカを選択する。マーカの3次元座標はステップS2002で取得した情報を用い、撮像部1Aの3次元座標はステップS2008で推定した情報を用いる。マーカ選択部701は、選択したマーカのIDをメモリに格納する。
なお、本実施形態に係るマーカ選択方法は、ユーザが情報処理装置200を手に持ち、マーカが排除可能かどうかを確認することを前提としているため、撮像部1Aからの距離が最も近いマーカを選択している。しかし、ユーザと情報処理装置200との位置関係によっては撮像部1Aからの距離が1m〜2mの間で最も近いマーカを選択するように構成してもよいし、これらに限定されない。また、距離でソートして近い順や遠い順、ランダムにマーカを複数選択するように構成してもよい。
(ステップS2010:マーカ領域削除処理)
ステップS2010では、マーカ領域削除部702は、ステップS2009で選択されたマーカの画像領域を入力画像から削除(輝度値をすべて0にする)して、図9(a)に示されるようなマーカ領域削除画像を生成する。そして、生成したマーカ領域削除画像をメモリに格納する。
なお、本実施形態に係るマーカ領域削除方法は、選択したマーカが存在しない場合の現実空間を簡易な方法で仮想的に再現するためにマーカの画像領域を削除(輝度値をすべて0にする)した。しかし、当該方法に限定されるものではなく、特定の輝度値を指定したり、周囲の画素の輝度値から補間したり、非特許文献2に記載のインペインティングアルゴリズムを用いたりしてもよい。
(ステップS2011)
ステップS2011では、多視点画像取得部703は、外部記憶装置1Bから現実空間を複数の視点で撮像した画像とその位置姿勢とをセットで多視点画像として取得し、不図示のメモリに格納する。図9(b)及び図9(c)は多視点画像の一例を示す。図9(b)は、入力画像と同じ現実空間を別の視点から撮像した画像であり、図9(c)は、入力画像と類似しているが入力画像と異なる現実空間を撮像した画像である。
(ステップS2012:安定度取得処理)
ステップS2012では、安定度取得部704は、ステップS2009で選択されたマーカを排除した場合のSLAMの復帰(リローカライズ)処理の安定度を算出する。すなわち、マーカ領域削除画像をクエリとして多視点画像の中から最も類似する画像を画像検索によって選び、第1の位置姿勢推定の結果と多視点画像の位置姿勢とを比較することにより画像検索によるSLAMのリローカライズ処理の安定度を算出する。
ここで、リローカライズ処理とは、SLAMの推定に失敗した場合に、多視点画像から画像検索して入力画像と最も類似する画像を選ぶことにより位置姿勢を取得し、SLAM処理を復帰させるための処理である。安定度は、第1の位置姿勢推定の結果得られる3次元位置と多視点画像の3次元位置との2点間の3次元距離として算出する。
画像検索方法は非特許文献3に記載のBoF(Bag of Words)を用いた2画像間の類似度算出方法を用いる。すなわち、2画像中に映る特徴点を特徴ごとに振り分けて生成されるヒストグラムが類似していれば、2つの画像は類似すると判定する方法である。例えば、図9(b)に示す多視点画像のように入力画像と近い位置で撮影した画像が選ばれた場合、安定度は5cmのように得られる。また、図9(c)に示す多視点画像のように入力画像には類似するが撮影した位置が異なる画像が選ばれた場合、安定度は300cmのように得られる。
(ステップS2013:安定度取得結果判定処理)
ステップS2013では、安定度取得部704は、ステップS2012で算出された安定度(3次元距離)が閾値以上(例えば10cm以上)であるか否かを判定する。安定度が閾値以上である場合、マーカを排除した場合にリローカライズ処理が不安定になると判定して処理を終了する。一方、安定度が閾値未満である場合、ステップS2014へ進む。
(ステップS2014:排除マーカ提示処理)
ステップS2014では、排除マーカ提示部705は、ステップS2013での判定結果に基づいて、ステップS2009で選択されたマーカを排除可能であることをユーザに提示するために、入力画像にテキストを重畳表示したテキスト重畳画像を生成する。ここで、図10にテキスト重畳画像の一例を示す。排除マーカ提示部705は、排除マーカ提示部111は、生成したテキスト重畳画像のデータを、外部の表示部1Cに出力してユーザに提示する。
以上説明したように、本実施形態では、撮像部からの距離に基づいてマーカを1つ選択し、マーカの有無による画像検索結果の位置の差異を判定して(マーカを排除可能であることを示す)テキスト重畳画像を提示する例を説明した。本実施形態によれば、ユーザに最も近いマーカを選択して排除可能か提示することができる。また、SLAMの推定に失敗した場合の復帰(リローカライズ)処理の安定度を算出することができる。また、位置姿勢推定を二度行う実施形態1と比較して、より少ない計算処理で安定度の算出を行うことができる。
(実施形態3)
<概要>
実施形態1では、SLAMの推定の安定度を算出するためにマーカの大きさに基づいてマーカを1つ選択し、当該マーカの有無に応じたSLAMの推定結果の差異を算出し、当該差異に基づいてマーカを排除可能かどうか判定する例を説明した。また、実施形態2では、撮像部からの距離に基づいてマーカを1つ選択し、マーカの有無による画像検索結果の位置の差異を判定して(マーカを排除可能であることを示す)テキスト重畳画像を提示する例を説明した。
これに対して、本実施形態では、マーカの分布に基づいてマーカを1つ選択し、入力画像上の特徴点の分布に基づいて安定度を算出し、当該安定度に基づいてMR画像を提示する例を説明する。
<装置構成>
以下、実施形態1と重複する内容については説明を省略する。図11は、本実施形態に係る情報処理装置300の構成例を示すブロック図である。図1に示した情報処理装置100の構成要素と同じ構成要素については同じ参照符号を付しており、詳細な説明は省略する。
マーカ選択部1101は、マーカ検出部103により検出されたマーカの分布に基づいてマーカを1つ選択し、当該マーカのIDを不図示のメモリに格納する。安定度取得部1102は、マップ取得部105により取得された特徴点とマーカ選択部1101により選択されたマーカの分布に基づいて安定度を算出し、不図示のメモリに格納する。
<処理>
続いて、図11のフローチャートを参照しながら、本実施形態に係る情報処理装置300が実施する処理の手順を説明する。特に、本実施形態に係る安定度の算出方法、排除マーカの提示方法を詳細に説明する。ステップS3001〜ステップS3008、ステップS3012の各処理は、実施形態1で図2を参照して説明したステップS1001〜ステップS1007、ステップS1009、ステップS1013の各処理とそれぞれ同様である。
(ステップS3009:マーカ選択処理)
ステップS3009では、マーカ選択部1101は、ステップS3002で取得された現実空間のマーカの位置の情報に基づいてマーカの分布を算出し、最も密に配置されており且つ小さいマーカを選択する。ここで、図13は、本実施形態に係る現実空間中のマーカの分布を示した図である。現実空間中のX−Z平面に四角形の平面マーカが分布している様子を示している。このX−Z平面を500mm四方のグリッドで分割したそれぞれの領域に含まれるマーカ中心座標の個数をカウントする。マーカ中心座標がグリッドの境界線上にある場合は座標値を切り上げる。図13の例ではグリッドg11中のマーカ数が4で最大となり、グリッドg11に含まれる4つのマーカのうち、座標系原点に最も近いマーカを選択する。
なお、ここではマーカ選択は1つだけ選択しているが、マーカ数が最大のグリッド中から複数のマーカを選択したり、マーカ数が多い順にグリッドをソートしてそれぞれのグリッドから複数のマーカを選択したりしてもよい。
(ステップS3010:安定度取得処理)
ステップS3010では、安定度取得部1102は、マップ取得部105により取得された特徴点を用いて、ステップS3009で選択されたマーカの外側の特徴点の分布に基づき撮像部1Aのカメラの位置姿勢推定の安定度を算出する。
安定度の算出に当たり、選択されたマーカの外側であり且つ当該マーカの所定の距離範囲(例えば半径500mm以内)の特徴点の数をカウントする。図14は、本実施形態に係る選択マーカ周囲のマップ中の特徴点の分布を示した図である。選択マーカの外側であり且つ半径500mm以内の特徴点はi=3個存在し、この場合の安定度は次式によって算出される。
(ステップS3011:安定度取得結果判定処理)
ステップS3011では、安定度取得部1102は、ステップS3010で算出された安定度が閾値以上(例えば0.95以上)であるか否かを判定する。安定度が閾値以上である場合、ステップS3012へ進む。一方、安定度が閾値未満である場合、処理を終了する。
以上説明したように、本実施形態では、マーカの分布に基づいてマーカを1つ選択し、入力画像上の特徴点の分布に基づいてSLAMの推定の安定度を算出し、当該安定度に基づいてMR画像を提示する。
これにより、撮像部の位置姿勢によらずにマーカを選択し、入力画像上の特徴点の分布に基づいて安定度を算出することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:情報処理装置、101:画像取得部、102:マーカ情報取得部、103:マーカ検出部、104:特徴検出部、105:マップ取得部、106:特徴対応付け部、107:マーカ選択部、108:第1の位置姿勢推定部、109:第2の位置姿勢推定部、110:安定度取得部、111:排除マーカ提示部

Claims (11)

  1. 撮像部により現実空間を撮像して得られた画像から1以上のマーカを検出するマーカ検出手段と、
    前記画像から特徴を検出する特徴検出手段と、
    前記マーカ検出手段による検出結果と、前記特徴検出手段による検出結果とに基づいて、前記撮像部の位置姿勢を推定する推定手段と、
    前記1以上のマーカのうち一部のマーカを排除した場合の前記位置姿勢の推定の安定度を取得する安定度取得手段と、
    前記安定度に基づいて前記一部のマーカが排除可能であることを示す情報を出力する出力手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記一部のマーカに内包されない特徴に基づいて前記撮像部の第2の位置姿勢を推定する第2の推定手段をさらに備え、
    前記安定度取得手段は、前記推定手段により推定された前記位置姿勢と、前記第2の推定手段により推定された前記第2の位置姿勢とに基づいて前記安定度を取得することを特徴とする請求項1に記載の情報処理装置。
  3. 前記一部のマーカを前記画像中から領域を指定して削除することによりマーカ領域削除画像を生成するマーカ領域削除手段と、
    前記推定手段により推定された前記位置姿勢を含む複数の位置姿勢で前記現実空間を撮像して得られた複数の画像を取得する多視点画像取得手段と、をさらに備え、
    前記安定度取得手段は、前記マーカ領域削除画像と前記複数の画像との類似度に基づいて前記安定度を取得することを特徴とする請求項1に記載の情報処理装置。
  4. 前記安定度取得手段は、前記一部のマーカの外側の特徴の分布に基づいて前記安定度を取得することを特徴とする請求項1に記載の情報処理装置。
  5. 前記安定度取得手段は、前記一部のマーカから所定の距離範囲に含まれる特徴に基づいて前記安定度を取得することを特徴とする請求項4に記載の情報処理装置。
  6. 前記マーカ検出手段により検出された前記1以上のマーカの大きさに基づいて前記一部のマーカを選択する選択手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
  7. 前記マーカ検出手段により検出された前記1以上のマーカの前記撮像部からの距離に基づいて前記一部のマーカを選択する選択手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
  8. 前記マーカ検出手段により検出された前記1以上のマーカの分布に基づいて前記一部のマーカを選択する選択手段をさらに備えることを特徴とする請求項1に記載の情報処理装置。
  9. 前記出力手段は、前記一部のマーカが排除可能であることを示す情報を表示部へ出力することを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 情報処理装置の制御方法であって、
    撮像部により現実空間を撮像して得られた画像から1以上のマーカを検出するマーカ検出工程と、
    前記画像から特徴を検出する特徴検出工程と、
    前記マーカ検出工程での検出結果と、前記特徴検出工程での検出結果とに基づいて、前記撮像部の位置姿勢を推定する推定工程と、
    前記1以上のマーカのうち一部のマーカを排除した場合の前記位置姿勢の推定の安定度を取得する安定度取得工程と、
    前記安定度に基づいて前記一部のマーカが排除可能であることを示す情報を出力する出力工程と、
    を有することを特徴とする情報処理装置の制御方法。
  11. コンピュータを、請求項1乃至9の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2016233501A 2016-11-30 2016-11-30 情報処理装置、情報処理装置の制御方法及びプログラム Active JP6917701B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016233501A JP6917701B2 (ja) 2016-11-30 2016-11-30 情報処理装置、情報処理装置の制御方法及びプログラム
US15/826,083 US10510159B2 (en) 2016-11-30 2017-11-29 Information processing apparatus, control method for information processing apparatus, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016233501A JP6917701B2 (ja) 2016-11-30 2016-11-30 情報処理装置、情報処理装置の制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2018091667A true JP2018091667A (ja) 2018-06-14
JP6917701B2 JP6917701B2 (ja) 2021-08-11

Family

ID=62193288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016233501A Active JP6917701B2 (ja) 2016-11-30 2016-11-30 情報処理装置、情報処理装置の制御方法及びプログラム

Country Status (2)

Country Link
US (1) US10510159B2 (ja)
JP (1) JP6917701B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201572A (ja) * 2019-06-06 2020-12-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP4300160A3 (en) 2016-12-30 2024-05-29 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10620817B2 (en) * 2017-01-13 2020-04-14 International Business Machines Corporation Providing augmented reality links to stored files
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
KR102596429B1 (ko) 2017-12-10 2023-10-30 매직 립, 인코포레이티드 광학 도파관들 상의 반사―방지 코팅들
EP3729172A4 (en) 2017-12-20 2021-02-24 Magic Leap, Inc. INSERT FOR AUGMENTED REALITY VIEWING DEVICE
JP6945474B2 (ja) * 2018-02-28 2021-10-06 富士フイルム株式会社 学習用データ作成支援装置、学習用データ作成支援方法、および学習用データ作成支援プログラム
CN112136152A (zh) 2018-03-15 2020-12-25 奇跃公司 由观看设备的部件变形导致的图像校正
US11095814B2 (en) 2018-05-25 2021-08-17 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP7319303B2 (ja) 2018-05-31 2023-08-01 マジック リープ, インコーポレイテッド レーダ頭部姿勢位置特定
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US10795458B2 (en) 2018-08-03 2020-10-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
JP2022523852A (ja) 2019-03-12 2022-04-26 マジック リープ, インコーポレイテッド 第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ
JP7288792B2 (ja) * 2019-04-24 2023-06-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置およびデバイス情報導出方法
US11315326B2 (en) * 2019-10-15 2022-04-26 At&T Intellectual Property I, L.P. Extended reality anchor caching based on viewport prediction
WO2021097318A1 (en) * 2019-11-14 2021-05-20 Magic Leap, Inc. Systems and methods for virtual and augmented reality
WO2021097323A1 (en) 2019-11-15 2021-05-20 Magic Leap, Inc. A viewing system for use in a surgical environment
US11917117B2 (en) 2020-09-17 2024-02-27 Canon Kabushiki Kaisha Processing system, processing method and non-transitory computer-readable storage medium
GB2620909A (en) * 2022-07-04 2024-01-31 Opteran Tech Limited Method and system for determining the structure, connectivity and identity of a physical or logical space or attribute thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030012410A1 (en) * 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
JP2008064735A (ja) * 2006-08-11 2008-03-21 Canon Inc 画像処理方法、画像処理装置
WO2012011180A1 (ja) * 2010-07-22 2012-01-26 パイオニア株式会社 拡張現実感装置及びその制御方法
JP2014112056A (ja) * 2012-12-05 2014-06-19 Denso It Laboratory Inc 被写体形状の3次元計測方法およびシステム
JP2015158461A (ja) * 2014-02-25 2015-09-03 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
JP4346950B2 (ja) * 2003-05-02 2009-10-21 キヤノン株式会社 情報処理方法および装置
JP4537104B2 (ja) * 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置
JP5036260B2 (ja) * 2006-09-14 2012-09-26 キヤノン株式会社 位置姿勢算出方法及び装置
JP4868186B2 (ja) * 2007-01-23 2012-02-01 日本電気株式会社 マーカ生成及びマーカ検出のシステム、方法とプログラム
JP4876056B2 (ja) * 2007-11-16 2012-02-15 キヤノン株式会社 画像処理装置、画像処理方法
JP5178860B2 (ja) * 2011-02-24 2013-04-10 任天堂株式会社 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
US10685490B2 (en) 2016-03-10 2020-06-16 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030012410A1 (en) * 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
JP2008064735A (ja) * 2006-08-11 2008-03-21 Canon Inc 画像処理方法、画像処理装置
WO2012011180A1 (ja) * 2010-07-22 2012-01-26 パイオニア株式会社 拡張現実感装置及びその制御方法
JP2014112056A (ja) * 2012-12-05 2014-06-19 Denso It Laboratory Inc 被写体形状の3次元計測方法およびシステム
JP2015158461A (ja) * 2014-02-25 2015-09-03 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201572A (ja) * 2019-06-06 2020-12-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7341736B2 (ja) 2019-06-06 2023-09-11 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP6917701B2 (ja) 2021-08-11
US10510159B2 (en) 2019-12-17
US20180150971A1 (en) 2018-05-31

Similar Documents

Publication Publication Date Title
JP6917701B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
US11887247B2 (en) Visual localization
US10977818B2 (en) Machine learning based model localization system
JP5950973B2 (ja) フレームを選択する方法、装置、及びシステム
US20230334798A1 (en) Systems and methods for presenting digital assets within artificial environments via a loosely coupled relocalization service and asset management service
US11348267B2 (en) Method and apparatus for generating a three-dimensional model
WO2018112788A1 (zh) 图像处理方法及设备
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
JP2021535466A (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
KR101851303B1 (ko) 3차원 공간 재구성 장치 및 방법
US11620730B2 (en) Method for merging multiple images and post-processing of panorama
CN110503711B (zh) 在增强现实中渲染虚拟物体的方法及装置
CN111639147B (zh) 一种地图压缩方法、系统及计算机可读存储介质
JP5439277B2 (ja) 位置姿勢計測装置及び位置姿勢計測プログラム
da Silveira et al. Dense 3D scene reconstruction from multiple spherical images for 3-DoF+ VR applications
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
CN114066999A (zh) 基于三维建模的目标定位系统及方法
JP2015153321A (ja) 画像処理装置、画像処理方法及びプログラム
JP2020027390A (ja) 注意対象推定装置及び注意対象推定方法
Li et al. Research on MR virtual scene location method based on image recognition
WO2021190655A1 (en) Method for merging multiple images and post-processing of panorama
JP2020101922A (ja) 画像処理装置、画像処理方法およびプログラム
JP2012123567A (ja) オブジェクト検出方法、オブジェクト検出装置およびオブジェクト検出プログラム
Tatematsu et al. Detection and segmentation of moving objects from dynamic RGB and depth images
CN112070175A (zh) 视觉里程计方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201120

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210720

R151 Written notification of patent or utility model registration

Ref document number: 6917701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151