JP2016220198A - 情報処理装置、方法、プログラム - Google Patents

情報処理装置、方法、プログラム Download PDF

Info

Publication number
JP2016220198A
JP2016220198A JP2016077328A JP2016077328A JP2016220198A JP 2016220198 A JP2016220198 A JP 2016220198A JP 2016077328 A JP2016077328 A JP 2016077328A JP 2016077328 A JP2016077328 A JP 2016077328A JP 2016220198 A JP2016220198 A JP 2016220198A
Authority
JP
Japan
Prior art keywords
feature
orientation
distribution
added
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016077328A
Other languages
English (en)
Other versions
JP2016220198A5 (ja
JP6723798B2 (ja
Inventor
祐一郎 廣田
Yuichiro Hirota
祐一郎 廣田
圭祐 立野
Keisuke Tateno
圭祐 立野
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
小竹 大輔
Daisuke Kotake
大輔 小竹
藤木 真和
Masakazu Fujiki
真和 藤木
片山 昭宏
Akihiro Katayama
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to KR1020177035740A priority Critical patent/KR101992044B1/ko
Priority to PCT/JP2016/002365 priority patent/WO2016185704A1/en
Priority to US15/574,814 priority patent/US10430967B2/en
Priority to EP16796100.2A priority patent/EP3298590B1/en
Publication of JP2016220198A publication Critical patent/JP2016220198A/ja
Publication of JP2016220198A5 publication Critical patent/JP2016220198A5/ja
Application granted granted Critical
Publication of JP6723798B2 publication Critical patent/JP6723798B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 特徴の設置作業に時間を要する。【解決手段】 撮像装置によって撮像される画像から、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する取得手段と、前記画像に含まれる複数の部分領域を、特徴を追加するための複数の候補領域として設定する設定手段と、前記設定された複数の候補領域を評価する評価手段と、前記評価された複数の候補領域に基づいて、新たに、特徴を追加すべき位置及び/または向きを決定する決定手段と、前記決定された位置および/または向きを出力する出力手段とを備える【選択図】 図2

Description

本発明は、カメラによって撮影された画像中の特徴に基づいてカメラの位置姿勢を導出する技術に関する。
カメラで撮像した画像に映り込んだ特徴(自然特徴点やマーカーなど)に基づいてカメラの位置姿勢を算出する技術はMixed Reality(MR)、Augmented Reality(AR)などで広く用いられている。
このような技術では一般的にシーン中における特徴の配置状況で算出されるカメラの位置姿勢の精度が変動する為、所望の精度でカメラの位置姿勢を算出するためには事前にカメラの位置姿勢の計算精度が高くなるように特徴の配置を調整する必要がある。しかしながらカメラの位置姿勢の計算精度を高くすることができる特徴の配置をユーザーが決めるのは難しい。
このためカメラの位置姿勢の計算精度を高くする為に特徴を配置する作業を補助する技術が開発されている。特許文献1は、特徴としてマーカー(識別子を所定の幾何模様にコーディングした印刷物)を用いてカメラ位置姿勢の推定を行う場合において、マーカーの配置を補助する技術を開示している。この技術では、現在のマーカーの配置における、カメラ位置姿勢を高精度に計算可能な空間領域を可視化する。ユーザーはカメラ位置姿勢を高精度に計算可能な空間領域を確認しながら、この領域が所望の領域をカバーするように対話的にマーカーを追加する。
特開2006−127468号公報
しかしながらこの方法では試しにマーカーを配置してその結果を確認する試行錯誤を繰り返す必要があり特徴の設置作業に時間がかかる。
本発明は以上の課題を鑑みてなされたものであり、特徴の設置作業に要する時間を短縮することを目的とする。
上記課題を解決するために、本発明の情報処理装置は、例えば、撮像装置によって撮像される画像から、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する取得手段と、
前記画像に含まれる複数の部分領域を、特徴を追加するための複数の候補領域として設定する設定手段と、
前記設定された複数の候補領域を評価する評価手段と、前記評価された複数の候補領域に基づいて、新たに、特徴を追加すべき位置及び/または向きを決定する決定手段と、前記決定された位置および/または向きを出力する出力手段とを備える
本発明により、特徴の設置作業に要する時間を短縮できる。
本発明に係る情報処理装置のハードウェア構成を示す。 本発明に係る装置の処理モジュールの構成を示す。 本発明に係るフローチャートを示す。 本発明に係る取得画像と特徴検出結果の一例を示す。 本発明に係る特徴追加位置の決定方法のフローチャートを示す。 本発明に係る特徴追加位置を提示する画面の一例を示す。 本発明に係る装置の処理モジュールの構成を示す。 本発明に係る特徴追加位置の決定方法のフローチャートを示す。 本発明に係る特徴追加位置を提示する画面の一例、特徴物体の追加位置姿勢を提示する画面の一例を示す。 本発明に係る特徴追加位置候補を設定する画面の一例、特徴物体追加位置姿勢候補を設定する画面の一例、特徴を追加し得る領域を設定する画像の一例を示す。 本発明に係る取得画像と特徴検出結果の一例、及び除去すべき特徴を提示する画面の一例を示す。
本発明にかかる各実施形態を説明するのに先立ち、各実施形態に示す情報処理装置が実装されるハードウェア構成について、図1を用いて説明する。
図1は、本実施形態における情報装置200のハードウェア構成図である。同図において、CPU110は、バス100を介して接続する各デバイスを統括的に制御する。CPU110は、読み出し専用メモリ(ROM)120に記憶された処理ステップやプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM120に記憶されており、ランダムアクセスメモリ(RAM)130に一時記憶され、CPU110によって適宜実行される。また、入力I/F140は、外部の装置(表示装置や操作装置など)から情報処理装置200で処理可能な形式で入力信号として入力する。また、出力I/F150は、外部の装置(表示装置)へ表示装置が処理可能な形式で出力信号として出力する。(第1の実施形態)
本実施形態ではカメラ位置姿勢に基づいて現実世界の画像に仮想コンテンツを重畳表示するMRシステムの事前セットアップにおける本発明の実施形態の一例を説明する。本MRシステムはヘッドマウントディスプレイ(以下、頭部装着型表示装置またはHMD)に搭載されているカメラでシーンの画像を取得し(画像取得)、画像から特徴としてコーナー点を検出する。そして時系列で取得した画像間のコーナー点の対応に基づいてカメラの位置姿勢を算出しカメラ位置姿勢に基づいて取得画像上に仮想コンテンツを重畳して表示する。本実施形態ではユーザーがMRシステムを使用するシーンをHMDを装着して観察し、観察したシーンにおいてカメラ位置姿勢を高精度に計算するために好適な特徴追加位置、すなわちコーナー点が検出可能な模様を付与すべき位置を提示する方法を説明する。
本実施形態ではカメラが観測し得る特徴の分布として画像中のコーナー点の位置の分布をユーザーがHMDを装着して撮影した画像から取得する。コーナー点の検出位置は画像中に均一に分布している方がカメラ位置姿勢を高精度に計算できる。そこでコーナー点の分布の良し悪しをコーナー点の分布の均一度を表す評価値で評価し、評価値が高くなるように特徴追加位置を決定し、HMDのディスプレイ(表示部)上に出力する。以降本実施形態の詳細を説明する。
図2は本実施形態に係る情報処理装置200のモジュール構成と外部装置であるHMD210との接続を示した図である。
HMD210には撮像装置211として画像を撮影可能なカメラと表示装置212として液晶ディスプレイが搭載されている。
特徴分布取得部201は、カメラが観測し得る特徴の分布を取得するモジュールでありHMD210の撮像装置211で撮影された画像からコーナー点を検出し、検出位置の分布を取得する。
特徴追加位置決定部202は、特徴分布取得部201が取得した特徴の分布に基づいて特徴を追加すべき位置を決定するモジュールであり特徴の分布の評価値を大きく向上させる特徴追加位置を算出する。
特徴追加位置出力部203は、特徴追加位置決定部202が決定した特徴追加位置を出力するモジュールであり、特徴追加位置をHMD210の表示装置212に出力する。
これらの各機能部は、CPU110が、ROM120に格納されたプログラムをRAM130に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、CPU1510を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
次に本実施形態の処理の詳細を図3のフローチャートに沿って説明する。
(ステップS301)
ステップS301では、特徴分布取得部201が、カメラが観測し得る特徴の分布を取得する。本実施形態においてはHMD210に内蔵された撮像装置211から画像を取得し、その画像からコーナー点特徴を検出して得られるコーナー点の座標値のリストを、カメラが観測し得る特徴の分布とする。図4(a)は取得した画像の一例であり図4(b)は取得画像から検出したコーナー点を図示したものである。図中の黒丸が検出したコーナー点である。コーナー点を検出する方法は様々な方法が提案されているが、本実施形態では非特許文献1で開示されているコーナー点検出方法を用いる。
<非特許文献1> E.Rosten and T.Drummond(May 2006).“Machine learning for high−speed corner detection”.European Conference on Computer Vision.
(ステップS302)
ステップS302では、特徴追加位置決定部202が、特徴の分布、具体的には画像上におけるコーナー点の位置の分布に基づいて特徴追加位置を決定する。本ステップの詳細な処理内容については、図5を用いて後述する。
(ステップS303)
ステップS303では、特徴追加位置出力部203が、ステップS302で決定した特徴追加位置を図示する画像、具体的にはステップS302で算出した追加位置に対応する矩形領域に半透明の色を付けた画像を生成しHMD210の表示装置212に出力する。HMD210は、撮像装置211で撮像した画像に特徴追加位置を図示する画像を重畳してディスプレイに出力することで特徴追加位置を提示する。図6(a)は図4(a)で示した画像がカメラで撮影されたときに特徴追加位置を提示する画像の一例である。601のように色付けされた分割領域が特徴を追加すべき位置を表す。なお、分割領域を色付けして提示する以外にも、例えば円や吹き出しといった領域を囲む図形や矢印で追加すべき位置を指示しても良い。また、ステップS303で決定した特徴追加すべき位置が一つもない場合は、特徴を追加しなくてもカメラ位置姿勢計算の品質が十分に高い旨を表示してもよい。
次に図5のフローチャートを用いてステップS302の処理内容を説明する。
(ステップS501)
ステップS501では、特徴追加位置決定部202が、ステップS301で取得した特徴の分布に対して良し悪しを評価する評価値を算出して保持する。評価値は画像中のコーナー点の位置の分布の均一度を表す値であり次の手順で任意の特徴の分布に対して算出できる。すなわち画像を互いに重複しない所定のサイズの矩形領域に分割しそれぞれの分割領域に対して当該領域にコーナー点が一つ以上含まれる場合は評価値に1を加算して得られる総和を評価値とする。すなわち、矩形領域ごとにコーナー点の数をカウントし、1つ以上の場合に、評価値を1加算する。ここで矩形領域の大きさは小さくすればするほど、細かく評価できるようになるが、少なくともコーナー点が検出できる程度の大きさになるようにすることが必要であるし計算負荷も増える。また、矩形領域の大きさを画像全体に対してあまりにも大きくしてしまうと矩形領域の数が少なくなりすぎて(例えば5以下など)カメラの位置姿勢の計算において安定しなくなる。以上に鑑みて矩形領域をどのような大きさで設定するかを決定すればよい。
(ステップS502)
ステップS502では、特徴追加位置決定部202が、特徴を追加し得る複数の位置を特徴追加位置候補として生成する。具体的には、ステップS501と同様に画像を互いに重複しない所定のサイズの矩形領域に分割し、それぞれの矩形領域の中央を特徴追加位置候補として保持する。
(ステップS503)
ステップS503は、特徴追加位置決定部202が、ステップS502で生成した各特徴追加位置候補に対して処理を行うループである。
(ステップS504)
ステップS504では、特徴追加位置決定部202が、ステップS301で取得した特徴の分布に対して各特徴追加位置候補に特徴を追加した場合の分布に対してステップS501と同様に評価値を算出して保持する。
(ステップS505)
ステップS505では、特徴追加位置決定部202が、ステップS502で生成した特徴追加位置候補の中から各特徴追加位置候補において特徴を追加した場合の評価値の向上量(ステップS504で算出した評価値のステップS501で算出した評価値からの増分)が所定の値以上となる特徴追加位置候補を取り出す。本実施形態のステップS501で説明した方法で評価値を計算した場合、評価値の向上量は0か1である。ここでは上記所定の値を1として評価値の向上量が1である特徴追加位置候補を取り出す。
以上、高精度にカメラの位置姿勢を算出することを可能にするために特徴を追加すべき位置を決定し、ユーザーに提示する方法を説明した。こうすることでユーザーは試行錯誤をせずに特徴を追加すべき位置が分かるようになり特徴の設置作業を短縮することができる。
(第2の実施形態)
第1の実施形態では特徴の分布として画像上における二次元位置の分布を取得して特徴追加位置を決定したが、本実施形態では特徴の三次元位置の分布を取得して特徴追加位置を決定する。本実施形態では、第1の実施形態と特徴の分布の算出、特徴追加位置の決定方法が異なる。本実施形態ではHMDに、さらに三次元情報計測装置を備えることで撮像装置から取得した画像から検出されたコーナー点の三次元位置情報を取得する。そしてコーナー点の三次元位置の分布の均一度を表す評価値を算出し、この評価値を高くする特徴追加位置を決定する。以下、本実施形態の処理の詳細を説明する。
図7は本実施形態に係る情報処理装置700のモジュール構成と外部装置であるHMD710との接続を示した図である。本実施形態では第1、第2の実施形態におけるHMDの構成に三次元計測装置711が追加されている。三次元計測装置は内部に所定のパターンの赤外光を投光する装置と赤外画像を撮像する装置を有し、アクティブステレオ法によってHMD710の撮像装置211が撮像する画像の各画素の距離値を計測する装置である。
本実施形態の処理の詳細を図3のフローチャートに沿って説明する。
(ステップS301)
ステップS301では、特徴分布取得部201が、ユーザーが装着しているHMDが観測し得る特徴の分布を取得する。本実施形態においてはHMDが観測するコーナー点の三次元位置の分布を取得する。具体的にはHMD710に内蔵された撮像装置211から画像を取得し、その画像からコーナー点特徴を検出する。そして三次元計測装置711からコーナー点が検出された画素の距離値を取得することでコーナー点のカメラから見た三次元位置を算出する。
(ステップS302)
ステップS302では、特徴追加位置決定部202が、特徴の分布、具体的にはカメラから見たコーナー点の三次元位置の分布に基づいて特徴追加位置を決定する。本ステップの処理内容については図5を用いて後述する。
(ステップS303)
ステップS303では、特徴追加位置出力部203が、ステップS302で決定した特徴追加位置を図示する画像を生成してHMD710の表示装置212に出力することで提示する。具体的な方法は第1の実施形態と同様の方法で提示する。
次に図5のフローチャートを用いてステップS302の処理内容を説明する。
(ステップS501)
ステップS501では、ステップS301で取得した特徴の分布の良し悪しを評価する評価値を算出して保持する。評価値は、画像中のコーナー点の三次元位置の分布の均一度を表す値であり次の手順で任意の特徴の分布に対して算出できる。
具体的には、まず、カメラが観測し得る空間を分割したボクセル空間を生成する。ボクセル空間を生成する範囲は、MRシステムがカメラ位置姿勢の計算に使用する特徴が存在し得る範囲である。各ボクセルに対して当該ボクセルにコーナー点が一つ以上含まれる場合は評価値に1を加算して得られる総和を評価値とする。
(ステップS502)
ステップS502では、特徴追加位置決定部202が、特徴を追加し得る複数の位置を、特徴追加位置候補として生成する。具体的には画像を所定の数の互いに重複しない矩形領域に分割し、それぞれの矩形領域に属する画素の三次元位置を三次元計測装置711から取得し、その平均をとることで算出した三次元位置のうち、カメラから見た距離が所定の範囲内に収まる三次元位置を特徴追加位置候補として保持する。矩形領域の分割については第1の実施形態と同様に行えばよい。
(ステップS503)
ステップS503は、特徴追加位置決定部202が、ステップS502で生成した各特徴追加位置候補に対して処理を行うループを開始する。
(ステップS504)
ステップS504では、特徴追加位置決定部202が、ステップS301で取得した特徴の分布に対して各特徴追加位置候補において特徴を追加した場合の分布においてステップS501と同様に評価値を算出して保持する。
(ステップS505)
ステップS505では、特徴追加位置決定部202が、ステップS502で生成した特徴追加位置候補の中から各特徴追加位置候補において特徴を追加した場合の評価値の向上量(ステップS504で算出した評価値のステップS501で算出した評価値からの増分)が所定の値以上となる特徴追加位置候補を取り出す。本実施形態のステップS501で説明した方法で評価値を計算した場合、評価値の向上(増大)量は0か1である。ここでは上記所定の値を1として評価値の向上量が1である特徴追加位置候補を取り出す。
以上、高精度にカメラの位置姿勢を算出することを可能にするために特徴を追加すべき位置を特徴の三次元位置の分布に基づいて決定する方法を説明した。このように特徴の三次元の分布を考慮することで高精度にカメラの位置姿勢を算出することを可能にするために特徴を追加すべき位置をより正確に決定することができる。
[変形例2−1]
(分布の均一さに加えて数を考慮した評価値とする)
第2の実施形態では、ステップS302において、コーナー点特徴を用いてカメラ位置姿勢計算するときのコーナー点の分布は空間中での位置が均一に分布している方が望ましいと考えたが、コーナー点の分布は空間中での位置が均一に且つ多数分布しているときに良好であると考えてもよい。カメラ位置姿勢を計算する場合、第2の実施形態で定義した分布の均一さを表す評価値が同じである特徴分布においてはその分布している特徴の数が多い方が各対応点間距離のランダムな誤差の影響を受けにくくなる。このため分布数も考慮することでより適切に特徴追加位置を決定することが可能になる。
本変形例では分布が均一で且つ数が多いことを表す評価値eを次のように定義する。
Figure 2016220198

ここでrは各ボクセル、Rは全ボクセルの集合、cはrに含まれるコーナー点数、α、βはそれぞれカメラ位置姿勢精度に対して特徴の分布の広さの影響と数の影響のバランスを決定する正の実数のパラメータである。第2の実施形態のステップS501で用いた評価値の定義を上記で説明した評価値の定義に置き換える。
なお、上記評価値は第1の実施形態においても同様に適用可能である。その場合はrを第1の実施形態のステップS502で生成したそれぞれの矩形領域、Rを第1の実施形態のステップS502で生成した全矩形領域の集合とすることでコーナー点の画像中での位置の均一さを評価する。
以上のように特徴の分布の均一さに加えて数の多さも考慮することで高精度にカメラの位置姿勢を算出することを可能にするために特徴を追加すべき位置をより正確に決定することができる。
[変形例2−2]
(向きの分布の均一さも考慮して特徴追加位置を決定)
第2の実施形態では特徴の三次元位置の分布に基づいて特徴の分布を評価したが、特徴の向きの分布も考慮して特徴を追加位置と向きを決定し提示してもよい。本変形例では第2の実施形態で説明した装置構成において特徴が存在する面の法線方向を特徴の向きとして算出し、特徴の三次元位置と向きの分布が均一になるように特徴の追加位置・向きを決定する方法についてこれまでと処理内容が異なる部分を説明する。
(ステップS301)
ステップS301では、特徴分布取得部201が、MRシステムを使用するシーンにおいてカメラが観測し得る特徴の分布、具体的にはコーナー点の三次元位置と向きの分布を取得する。コーナー点の三次元位置については三次元計測装置711からコーナー点が検出された画素の距離値を取得することで算出する。コーナー点の向きについては三次元計測装置711からコーナー点が検出された近傍画素の距離値から検出した面の法線方向とする。
(ステップS302)
ステップS302では、特徴追加位置決定部202がコーナー点の三次元位置と向きの分布が均一になるように特徴追加位置・向きを決定する。
まず第2の実施形態のステップS505までの処理を行い取り出した特徴追加位置候補を特徴の位置に基づく特徴追加候補として保持し、これらをさらに特徴の向きに基づいて評価する。まず、各特徴の位置に基づく特徴追加候補についてその近傍画素の距離値からステップS301と同様の方法で特徴追加位置の向きを計算する。次に、各特徴追加候補にコーナー点を追加した場合のコーナー点の向きの分布の均一度の評価値を算出する。具体的には原点を起点としてステップS301で算出した観測した特徴の向きと当該特徴追加候補の向きに直線を延ばしたときの単位球面との交点をそれぞれ三次元座標値として算出し、算出された全座標値に対して主成分分析を行い、3軸の寄与率を算出する。このうち最小寄与率の値を最大寄与率の値で除した値を評価値とする。この評価値が高い程コーナー点の向きが均一に分布していることを表す。特徴の位置に基づいて算出した各特徴追加候補について、上記方法で特徴の向きの均一度の評価値を算出し、特徴の向きの評価値が高い特徴追加候補を取り出す。
なお、本変形例では先に第2の実施形態のステップS504までの処理で特徴の位置の分布を評価してからさらに特徴の向きに基づいて評価を行う方法を説明したが、先に特徴の向きの分布を評価してからさらに特徴の位置の分布を評価してもよい。また、特徴の位置の分布の評価値と向きの分布の評価値に所定の重み付けをした和を評価値として同時に評価してもよいし、特徴の向きのみで評価してもよい。特徴の向きのみで評価する場合は、特徴追加向きの候補として単位球の原点から球面を所定の数でサンプリングして生成した点を指す複数の方向ベクトルを用いる。それぞれの特徴追加向き候補に対して、当該向きに特徴が追加した時の特徴の向きの均一度の評価値を算出し、評価値が高い特徴追加向き候補を取り出す。
以上、特徴の位置と向きが共に均一になるような特徴追加位置を決定する方法を説明した。こうすることで高精度にカメラの位置姿勢を算出することを可能にするために特徴を追加すべき位置をより正確に決定することができる。
(第3の実施形態)
(分布範囲の広さを評価値とする。)
第1の実施形態では、ステップS302においてコーナー点の位置または向きの分布が均一になるよう特徴追加位置を決定したが本実施形態ではコーナー点の分布は画像中での位置または向きが広範囲に分布するよう特徴追加位置を決定する。これはコーナー点の位置または向きが固まって分布するよりも広範囲に分布している方がカメラ位置姿勢をより高精度に算出できるためである。この考えに基づき本実施形態ではコーナー点の分布の良し悪しを、コーナー点の分布範囲の広さを表す評価値で評価する。具体的には第1の実施形態においてステップS501の特徴の分布の良し悪しを評価する評価値をコーナー点の画像中における二次元位置の分散として定義する。
本実施形態で説明した評価値を用いる場合はステップS505で算出される評価値の向上(増大)量は(第1、2の実施形態では0か1の離散的な値をとったのに対して)連続的な値を取る。よって第1の実施形態で説明したように図6のような画面で特徴追加位置をユーザーに提示する際には、特徴追加位置を表す領域601にさらにその特徴追加位置に特徴を追加した場合の評価値の向上量(もしくは向上量の順位)を表示する。こうすることでユーザーは特徴追加位置候補の重要度も把握することが出来る。
本実施形態で画像中の特徴の位置の分布範囲の広さに基づいて特徴追加位置を決定する方法説明したが、空間中の特徴の三次元位置の分布の広さに基づいて特徴を追加する三次元位置を決定しても良い。具体的には第2の実施形態においてステップS501の特徴の分布の良し悪しを評価する評価値をコーナー点の画像中における三次元位置の分散として定義する。さらに、空間中の特徴の向きの分布の広さに基づいて特徴を追加する向きを決定しても良い。具体的には変形例2−2において特徴の向きの分布の良し悪しを評価する評価値を特徴の向きの分散として定義する。向きの分散についてはここでは分布している各特徴の向きを半径1の半球面を指し示す単位ベクトルに変換し、全ての単位ベクトルの和ベクトルの大きさを要素数で除した値をRとして1−Rを分散とする。
以上、特徴の分布範囲の広さに基づいて特徴追加位置を決定する方法を説明した。こうすることで分布範囲が広くなるように特徴追加位置を提示することができる。
(第4の実施形態)
精度を評価値とする。精度は三次元の誤差伝搬で算出。
第1〜3の実施形態では特徴の分布として画像内あるいは三次元空間中における位置や向きの分布を取得し、カメラ位置姿勢を計算する場合における特徴の分布の良し悪しを表す評価値を分布の均一度や分布範囲の広さに基づいて定義した。
本実施形態では現在の特徴の分布においてカメラ位置姿勢を計算した場合の位置姿勢計算精度を評価値として定義し、この評価値が高くなるように特徴追加位置を決定する。具体的には三次元位置と画像中における検出位置の精度の分布を取得する。そして特徴の位置と検出位置の精度の分布に基づいて、カメラ位置姿勢を計算(導出)した場合の計算精度を算出して現在の特徴の分布の評価値とし、この評価値を高くする特徴追加位置を決定する。以下、第2の実施形態と同様の装置構成において実施する本実施形態の処理内容のうちこれまでの実施形態と異なる部分を図3のフローチャートに沿って説明する。
(ステップS301)
ステップS301では、特徴分布取得部201が、ユーザーが装着しているHMDの撮像装置211が観測し得る特徴の分布、具体的にはコーナー点の三次元位置とその検出精度を表す共分散行列の分布を取得する。コーナー点の三次元位置については第2の実施形態で説明した方法と同様の方法で取得する。コーナー点の検出精度を表す共分散行列については画像の量子化誤差に起因する各コーナー点の画像上での検出位置の最大誤差0。5pxを3σとしたガウス分布で近似し、σを対角成分に持つ行列とする。なお、検出位置の最大誤差の要因として量子化誤差以外の要因も考慮したい場合はカメラを静止させた状態で複数枚撮影した画像で特徴を検出し検出位置のばらつきを算出してもよい。
(ステップS302)
ステップS302では、特徴追加位置決定部202が特徴の分布、具体的にはコーナー点の三次元位置とその検出精度を表す共分散行列の分布に基づいて特徴追加位置を決定する。本ステップの処理内容については後述する。
(ステップS303)
ステップS303では、特徴追加位置出力部203がステップS302で決定した特徴追加位置を図示する画像を生成してHMDの表示装置212に出力する。具体的な方法は第2の実施形態と同様の方法で提示する。
次に図5のフローチャートを用いてステップS302の処理内容を説明する。
(ステップS501)
ステップS501では、ステップS301で取得した特徴の分布の良し悪しを評価する評価値を算出して保持する。評価値はコーナー点の三次元位置とその検出精度を表す共分散行列の分布に基づいてカメラ位置姿勢を計算した場合の計算精度を表す値であり次の手順で任意の特徴の分布に対して算出できる。すなわち、(式2)により算出したカメラ位置姿勢の計算精度を表す共分散行列Sを評価値とする。
Figure 2016220198

ここでNはコーナー点の総数であり
Figure 2016220198

はn番目のコーナー点のx軸成分、y軸成分の分散である。JはJの擬似逆行列である。Jはカメラ位置姿勢のヤコビ行列であり各コーナー点の画像上で観測される位置をカメラ位置姿勢を表す並進移動と回転の6パラメータで偏微分した係数行列である。
(ステップS502)
ステップS502では、特徴を追加し得る複数の位置を特徴追加位置候補として生成する(複数生成)。具体的には画像を互いに重複しない所定のサイズの矩形領域に分割し、それぞれの矩形領域に属する画素の三次元位置を三次元計測装置711から取得し、その平均をとることで算出した三次元位置のうち、カメラから見た距離が所定の範囲内に収まる三次元位置を特徴追加位置候補として保持する。
(ステップS503)
ステップS503では、ステップS502で生成した各特徴追加位置候補に対して処理を行うループである。
(ステップS504)
ステップS504では、ステップS301で取得した特徴の分布に対して各特徴追加位置候補において特徴を追加した場合の分布においてステップS501と同様に評価値を算出して保持する。
(ステップS505)
ステップS505では、ステップS502で生成した特徴追加位置候補の中から各特徴追加位置候補において特徴を追加した場合の評価値の向上量が所定の値以上となる特徴追加位置候補を取り出す。本実施形態においては評価値であるカメラ位置姿勢の計算精度を表す共分散行列を次の計算でスカラー値化して向上量を算出する。まず、カメラ位置姿勢の計算精度を表す共分散行列Sを所定の位置にある仮想的な基準点を算出したカメラ位置姿勢に基づいてカメラで撮影した画像に重畳する場合の描画位置の共分散行列に換算する。次に換算された共分散行列の最大固有値の二乗根を算出しこの値の特徴追加前後の差を評価値の向上量とする。
以上、カメラが観測し得る特徴の三次元位置と検出精度の分布に基づいて算出したカメラ位置姿勢の計算精度が高くなるように特徴追加位置を決定する方法を説明した。こうすることで高精度にカメラの位置姿勢を算出することを可能にするために特徴を追加すべき位置をより正確に決定することができる。
(第5の実施形態)
第1〜4の各実施形態では、ステップS302で特徴の分布の評価値に基づいて特徴追加位置を決定する際に評価値の向上量が所定の値よりも大きい特徴追加位置を取り出したが、本実施形態ではその他の取り出し基準として特徴追加位置候補の中から評価値の向上量の大きい上位所定の個数の特徴追加を取り出す方法と、別途目標評価値を取得し目標評価値を少量の特徴の追加で達成するために必要な特徴追加位置を特徴追加位置候補から取り出す方法をそれぞれ説明する。
[特徴追加位置候補の中から評価値の向上量の大きい上位所定の個数の特徴追加を取り出して提示する]
各特徴追加位置候補に対して算出した評価値で特徴追加位置候補をソートし、上位所定の個数の特徴追加位置候補を取り出して提示する。上位所定の個数はユーザーが入力した値を用いてもよい。
[別途目標評価値を設定し、目標評価値を少量の特徴の追加で達成するために必要な特徴追加位置を特徴追加位置候補から取り出す]
所定の目標評価値を設定し、現在の特徴の分布においてその目標値に満たない場合に少量の特徴の追加で目標値を満たすために必要な特徴追加位置を取り出す。
この方法ではあらかじめUIを通してユーザーが入力した目標評価値を取得する。そしてステップS302の処理内容を以降説明する図8のフローチャートのように変更して特徴追加位置を決定する。以降図8のフローチャートに沿って処理内容を説明する。
(ステップS801)
ステップS801では、複数の特徴追加位置を保存するための特徴追加位置リストを空のリストで、特徴分布をステップS301で取得した特徴の分布で初期化する。
(ステップS802)
ステップS802は、ステップS301で取得した現在の特徴分布における特徴分布の評価値を計算し、評価値が目標評価値に満たない間繰り返し実行するループである。評価値はこれまでに説明した任意の実施形態のステップS501の方法で計算する。
(ステップS502)
ステップS502では、特徴を追加し得る複数の位置を特徴追加位置候補として生成する。具体的な方法はこれまでに説明したそれぞれの実施形態における図5のステップS502と同じである。
(ステップS503)
ステップS503はステップS502で生成した各特徴追加位置候補に対して処理を行うループである。
(ステップS504)
ステップS504では現在の特徴分布に対して各特徴追加位置候補において特徴を追加した場合の分布において、これまでに説明した各実施形態における図5のステップS501と同様の方法で評価値を算出して保持する。
(ステップS803)
ステップS803では、特徴追加位置候補の中から評価値が最も高い特徴追加位置候補を取り出し、特徴追加位置リストに追加する。
(ステップS804)
ステップS804では、ステップS803で追加した評価値が最も高い特徴追加位置候補を現在の特徴分布に追加する。
(ステップS805)
特徴追加位置リストに入っている全ての特徴追加位置をステップS303で提示する特徴追加位置として取り出す。
図9(a)は、以上の方法で特徴追加位置を決定する場合に特徴追加位置をユーザーに提示する画面の一例である。領域900は、HMDの撮像装置211が撮影した画像に特徴追加位置を重畳して図示する領域である。領域901は、ユーザーが設定する目標評価値が示されている。領域902は、HMDの撮像装置211が観測した特徴の分布に対して算出した評価値が示されている。領域903〜905は目標評価値を達成するための特徴追加位置を表す領域であり、領域内に表示されている数値はステップS803で特徴追加リストに追加された順序を表す数値である。数値が小さいほど評価値を向上させる効果が大きい特徴追加位置であることを表す。また、評価値が既に目標評価値よりも大きく、特徴を追加する必要がない時はその旨を画面に表示する。
なお、ここに表示する数値は評価値そのものであったり、評価値を追加した場合の追加前に対する向上量であってもよい。また、その際に数値ではなく色や透明度を用いて表示しても良い。領域906は、提示されている特徴追加位置903〜905それぞれに仮に特徴を追加した時の評価値が示されている。それぞれの特徴追加位置をマウスカーソル907で選択することにより、領域908には属性情報が表示される。
本変形例では、ユーザーが目標評価値を直接数値で設定したが、目標評価値を決めやすいようにユーザーにはMRシステムが描画するCGコンテンツの許容振動量を表す画素数とユーザーがCGコンテンツに最も近づいたときの距離を入力してもらい、その値を第4の実施形態で定義した評価値であるカメラ位置姿勢の計算精度に変換してもよい。さらにその時の振動量でCGコンテンツが振動している様子を画面で確認しながら振動量を調整するUIを備えてもよい。こうすることでユーザーが直感的に理解しやすい方法で評価値を設定することができる。
本変形例ではユーザーが目標評価値を設定したが、ユーザーに目標評価値の設定作業を要求せずにあらかじめ決められた目標評価値を保存しておきその値を取得してもよい。その時のあらかじめ決められた目標評価値はカメラ位置姿勢計算が破綻しないために目標評価値としてもよい。
本変形例ではステップS804で評価値の最も高い特徴追加位置から順に特徴追加位置リストに追加したが必ずしもこの方法に限るものではない。例えば評価値の高い順に所定の個数の特徴をまとめて特徴追加位置リストに追加してもよい。
以上に説明した方法により所望の目標値を少ない追加量で達成するのに必要な特徴追加位置を提示することができる。
(第6の実施形態)
(分布の取得方法のバリエーション。実測画像ではなく三次元情報から生成した画像から取得)
第1〜5の実施形態では、ステップS301において特徴の分布をHMDで撮像した実写画像から取得したが、本実施形態では特徴の分布をシーンの三次元情報とカメラ位置姿勢に基づいて生成した画像から取得する。本実施形におけるステップS301の処理を説明する。
まずMRシステムを使用するシーンの三次元情報を取得する。具体的にはシーンをRGBDスキャナでくまなくスキャンし、シーンの色情報を伴う距離情報を取得する。次にユーザーが設定した特徴追加位置を調べたい視点を表すカメラ位置姿勢を取得する。取得したカメラ位置姿勢で観測される画像面にシーンの三次元情報を投影することで、設定したカメラ位置姿勢でシーンを実際に観測した時に得られるであろう画像を生成する。そしてこの画像からコーナー点を検出しコーナー点の分布を取得する。
本実施形態ではシーンの三次元情報をスキャンして取得したが、特徴追加位置を調べたい視点において観測されるであろう画像を生成するためのシーンの三次元情報が取得できれば必ずしもスキャンする必要はなく例えば3Dモデリングソフトウェアでユーザーが作成したシーンの三次元モデルを用いてもよい。
以上、特徴の分布をシーンの三次元情報とカメラ位置姿勢から生成した画像から取得する方法を説明した。こうすることで特徴追加位置を調べたい任意のカメラ位置姿勢において特徴の追加位置を決定・提示することができる。
(第7の実施形態)
第1〜6の実施形態では一つのカメラの視点において特徴を追加すべき位置を決定し提示したが本実施形態ではMRシステムを使用するシーンにおいてHMDが取りうる複数のカメラ視点において特徴を追加すべき位置を決定・提示する方法を説明する。
本実施形態では第1〜5の実施形態のようにMRシステムを使用するシーンの三次元情報を取得していない場合における本実施形態の詳細を説明する。HMDが取りうる位置姿勢の範囲をユーザーが実際に動きまわりながら指定し、指定された複数の視点においてその都度第1〜第5の実施形態で説明したいずれかの方法で特徴追加位置を決定する。ステップS303で得られた決定した特徴追加位置を提示する画像はユーザーが動き回っている最中に即座にHMDの表示装置に提示してもよいし、ユーザーがシーン中を動き回る動作を終えた後に一覧できるようまとめて提示してもよい。
以上、MRシステムを使用するシーンにおいてHMDが取りうる複数のカメラ視点において特徴を追加すべき位置を決定・提示する方法を説明した。こうすることでMRシステムを使用するシーン中でHMDが取り得る位置姿勢の範囲に応じた特徴追加位置を提示することができる。
[変形例7−1]
第7の実施形態ではMRシステムを使用するシーンの三次元情報を取得していない場合に、複数のカメラ視点においてそれぞれ特徴を追加すべき位置を決定したが、本変形例では第6の実施形態のようにシーンの三次元情報を取得している場合に、位置姿勢の範囲全体を考慮して特徴を追加すべき位置を決定・提示する方法を説明する。
本変形例では、ステップS301に入る前にまずシーンの三次元情報とシーン中でHMDの撮像装置211が取り得る位置姿勢の範囲を取得する。シーンの三次元情報は第6の実施形態で説明した方法で取得する。シーン中でカメラが取り得る位置姿勢の範囲はユーザーがカメラ位置姿勢が取りうる6パラメータの範囲をUIを介して数値で設定したものを取得する。取得したカメラ位置姿勢の範囲を所定の間隔でサンプリングしてカメラが取り得る複数の位置姿勢を生成する。以降の処理は図3で示したフローチャートに従い下記のように実施する。
ステップS301では、特徴分布取得部201が、上記サンプリングして生成した各カメラ位置姿勢においてカメラが観測した時に得られるであろう画像を生成する。そしてこの画像からコーナー点を検出しコーナー点の分布を取得し保持する。この結果サンプリングした各カメラ位置姿勢の特徴分布が保持される。
ステップS302では、特徴追加位置決定部202が特徴の保持されている各カメラ位置姿勢の分布に基づいて特徴追加位置を決定する。まず、シーンの三次元空間中に特徴追加位置候補を生成する。シーンの三次元空間をボクセルに分割し、シーンの三次元情報が持つ距離点やモデル情報が含まれるボクセルの中央の三次元位置を特徴追加位置候補として保持する。次にステップS301で保持している各カメラ位置姿勢において、これまでの実施形態で説明した図5のステップS501、S503、S504を実行して評価値を算出し保持する。この結果、各カメラ位置姿勢、各特徴追加位置候補の全組み合わせに対して評価値が保持される。次に保持されている評価値の集合を特徴追加位置候補毎に評価値の総和を算出し、この総和値を各特徴追加位置候補の評価値として保持する。そして各特徴追加位置候補の評価値の中から評価値の高い特徴追加位置候補を取り出す。この取り出し基準自体はこれまでの実施形態で説明した図5のステップS505と同様である。
以上、HMDが取りうる位置姿勢の範囲全体を考慮することで、高精度にカメラの位置姿勢を算出することを可能にするために特徴を追加すべき位置をより正確に決定することができる。
(第8の実施形態)
第1〜7の実施形態では自動的に特徴追加位置候補を生成したが、本実施形態ではユーザーが手動で複数の特徴追加位置候補を設定してその中から特徴分布の評価値を高くする特徴追加位置を決定する方法を説明する。本実施形態ではユーザーが特徴追加位置候補をHMDの撮像装置211が撮像取得した画像中で指定する方法を説明する。
本変形例では、ステップS301に入る前にHMDの撮像装置211が撮像取得した画像をディスプレイに表示し、ユーザーが画像中で特徴を追加可能な領域をマウス操作で複数指定する。指定された複数の領域を特徴追加位置候補として第1〜7の実施形態のステップS502で生成する特徴追加位置候補に置き換えて以降の処理を行う。
図10(a)は本実施形態に係る特徴追加位置候補を設定する画面の一例である。1000はHMDの撮像装置212で撮影した画像上で特徴追加位置候補を設定する領域である。1001、1002は特徴追加位置候補であり、このうち1001はマルスカーソル1003によって選択されている状態を表している。1004は現在選択されている特徴追加位置候補の属性として位置を表示する領域であり、1005は選択されている特徴追加位置候補を削除するボタンである。1006は特徴追加位置候補を追加するボタンである。1007は現在の特徴追加位置候補で確定させる決定ボタンである。決定ボタン1007を押下することで図9(a)に示した特徴追加位置の提示画面に遷移する。
本実施形態では図10(a)の特徴追加位置候補設定画面と図9(a)の特徴追加位置提示画面を分けたが、特徴追加位置候補設定画面に、現在の特徴追加位置候補に特徴を追加した時の評価値906を表示してもよい。
以上、ユーザーが設定した複数の特徴追加位置または位置姿勢の候補を取得してその中から特徴分布の評価値を高くする特徴追加位置または位置姿勢を決定する方法を説明した。こうすることで環境の制約によって観測可能な空間の中で特徴を追加し得る位置が限定されている状況においてもユーザーが環境の制約を考慮した特徴の追加位置を決定・提示することができる。
[変形例8−1]
第8の実施形態では、HMDの撮像装置211が撮影した画像上における特徴追加位置を二次元で指定している。
本変形例では、第6の実施形態のようにシーンの三次元情報を取得している場合に、自立する看板のような所定の物体(以降、特徴物体と呼ぶ)をシーンに新たに追加配置する場合に複数の配置位置姿勢候補を指定し、最適な配置位置姿勢を求める方法を説明する。
本変形例では、ステップS301に入る前に、第6の実施形態と同様の方法で取得したMRシステムを使用するシーンの三次元情報と、特徴物体のモデル情報及びカメラ位置姿勢を取得する。ユーザーはUIを介してシーン中における特徴物体の配置され得る複数の位置姿勢を特徴物体の追加位置姿勢候補として設定する。ステップS503ではそれぞれの特徴物体の配置されうる位置姿勢についてループ処理を行い、ステップS504ではループ処理の対象となる位置姿勢で特徴物体が配置されているときにカメラが観測するであろう画像をシーンの三次元情報とカメラ位置姿勢、及び特徴物体の位置姿勢候補に基づいて生成する。生成した画像から特徴分布を取得し、その分布の評価値を算出して保持する。ステップS505では保持された特徴物体の各追加位置姿勢候補の評価値の中から評価値の高い位置姿勢候補を選択する。
図10(b)は、選択された評価値の高い位置姿勢候補で特徴物体を表示した例である。ユーザーは、この画面を操作することで、特徴物体を配置する位置姿勢を決定する。
領域1010はシーンの三次元情報を見ながら特徴追加位置候補を設定する画面領域である。三次元情報を表示する視点はマウスカーソル1014で任意の視点に操作することができる。領域1011、1012、1013は、特徴物体の追加位置姿勢候補を示している。図10(b)の例では、特徴物体として領域1011、1012に示されるような看板状の物体と領域1013に示されるようなポスター状の物体を配置している。このように、特徴物体には複数の種類の物体を設定できてもよい。このうち実線で描画される領域1011は、マウスカーソル1014によって選択されている状態を表しており、領域1015は選択されている特徴物体1011の位置姿勢を示している。ボタン1016は、現在の特徴追加位置候補で確定させる決定ボタンである。決定ボタン1016を押下することで図9(b)に示した特徴物体追加位置姿勢の提示画面に遷移する。
図9(b)は、特徴物体の追加位置姿勢を提示する画面の一例である。領域1010はシーンの三次元情報の上に特徴物体の追加位置姿勢を重畳して図示する領域である。三次元情報を表示する視点はマウスカーソル913で任意の視点に操作することができる。911〜912は目標評価値を達成するための特徴物体の追加位置姿勢を表すオブジェクトでありオブジェクト上の数値は図8のステップS803で特徴追加リストに追加された順序を表す数値である。その他の画面要素は図9(a)と同様である。
以上、ユーザーが設定した複数の特徴物体の位置姿勢の候補を取得してその中から特徴分布の評価値を高くする特徴物体の追加位置姿勢を決定する方法を説明した。こうすることでカメラの位置姿勢を高精度に算出できるように追加すべき特徴物体の位置姿勢を決定・提示することができる。
[変形例8−2]
(特徴追加可能領域、不可能領域を仮想空間で指定。)
第8の実施形態では、特徴追加位置候補をそれぞれユーザーが指定したが、本変形例ではユーザーが特徴を追加し得る領域を指定する方法を説明する。
特徴を追加し得る領域をHMDの撮像装置が撮影した画像中またはシーンの三次元情報中の領域として指定する。図5のステップS502においては指定された特徴を追加し得る領域の中で特徴追加位置候補を生成するようにする。
図10(c)はHMDの撮像装置211が撮影した画像中で特徴を追加し得る領域を設定する画面の一例である。領域1021はマウスカーソル1022を用いて指定された特徴を追加し得る領域である。領域1023は指定された特徴を追加し得る領域の属性を表示しており、ここでは属性として画像上における領域の中心位置を表示している。ボタン1024は現在指定している特徴を追加し得る領域を削除するボタンであり、ボタン1025は特徴を追加し得る領域を追加するボタンである。なお、本変形例では特徴を追加し得る領域を設定したが、特徴追加不可能領域を設定して特徴追加不可能領域外でのみ特徴追加位置候補を生成してもよい。
以上説明したようにユーザーが特徴を追加し得る領域を指定し、その領域内で特徴追加位置を決定する方法を説明した。こうすることで環境の制約を考慮して特徴の追加位置や位置姿勢を決定・提示することができる。
(第9の実施形態)
第8の実施形態の[変形例8−1]においてはユーザーが特徴物体の追加位置姿勢の候補を設定する際に特徴物体のモデル種類と位置姿勢を指定していた。
本実施形態ではユーザーが特徴物体の位置姿勢のみを設定してモデルはあらかじめ登録された複数の中から最適なモデル種別を自動的に決定して提示する方法を説明する。具体的には指定された各特徴物体追加位置姿勢候補であらかじめ登録されている各モデルを配置したときの評価値を算出して保持し、評価値の高い特徴物体の追加位置姿勢の候補と、モデル種別の組み合わせを決定・提示する。
これにより、カメラの位置姿勢を高精度に算出できるように追加すべき特徴物体の種別も提示することができる。
(第10の実施形態)
これまで説明した実施形態では特徴を追加すべき位置を提示したが、本実施形態では特徴を移動すべき位置を提示する方法を説明する。
本実施形態における装置構成は第2の実施形態の図7で説明したものを用いる。まず環境内にある移動可能な特徴を持つポスターをあらかじめ登録し、テンプレートとして保存しておく。そしてHMDの撮像装置211が撮像した画像の中から予め登録したポスターをテンプレートマッチングをすることでポスターの現在の位置を認識する。また,ポスターの移動先になり得る壁面を三次元情報計測装置711が計測した距離点群情報の中から平面検出することで特定する。そして検出された壁面領域内でサンプリングすることで認識されたポスターの移動先候補を複数生成する。次に生成したポスターの各移動先候補にポスターが移動した場合の特徴分布の評価値をこれまでに説明した各実施形態における図5のステップS501と同様の方法で算出する。そして評価値が上位にある所定の数のポスターの移動先を評価値の順位と共に図示する。
以上説明した方法により既に設定してある特徴の位置を移動する際においても特徴の移動先を提示することができる。
(第11の実施形態)
これまでの実施形態では特徴を追加すべき位置を特定しユーザーに提示する方法を説明した。本実施形態ではコーナー点の分布、具体的にはコーナー点の密集度に基づいてカメラ位置姿勢を算出する精度を向上させる為に除去すべき特徴を決定して提示する方法を説明する。
本実施形態ではカメラ位置姿勢の計算は画像中のコーナー点とそのコーナー点と対応付けられた三次元点もしくは他の画像中におけるコーナー点との距離を最小化することで算出することを前提とする。この場合、所定の範囲に存在するコーナー点が多すぎると本来対応付けられるべきでないコーナー点に偶然誤対応してしまう確率が高くなりこの結果カメラ位置姿勢の計算精度が低下する。そこでコーナー点が密集しすぎている場合は密集しているコーナー点の一部を除去すべきコーナー点として提示する。本実施形態では取得画像から検出した対応点の所定の範囲内での分布密度を計算し、分布密度が所定の値より高い場合は、当該範囲内のコーナー点の中から必要な個数を選択し除去すべきコーナー点として提示する。以降この方法の詳細について説明する。
まず第1の実施形態と同様にHMDの撮像装置から画像を取得しコーナー点を検出する図11(a)は取得した画像の一例であり、図11(b)は取得画像からコーナー点を検出した結果である。次に取得画像を所定の範囲でサンプリングし、各範囲におけるコーナー点の分布密度を算出する。各範囲に存在するコーナー点の個数が基準個数より大きい場合は超過している個数だけコーナー点を除去するべきであると判定する。このようにして各範囲から除去すべきコーナー点を取り出したものを提示する。図11(c)は提示画像の一例である。白丸で示されたコーナー点が除去すべきコーナー点である。
以上説明したように、カメラ位置姿勢を高精度に計算するために除去すべき特徴を提示する。これにより、ユーザーは試行錯誤をせずに除去すべき特徴が分かるようになり特徴の除去作業を効率化することができる。
(実施形態のその他のバリエーション)
(マーカー、blob特徴、エッジ特徴、輝度勾配の大きい画素などの特徴でもよい)
第1〜10の実施形態においては特徴としてコーナー点を用いた。しかし、カメラ位置姿勢を計算することができる特徴であり、属性として検出位置が取得できる特徴であれば本発明は同様の方法で実施可能である。例えば特許文献1に開示されているような識別子をコーディングしたマーカーを特徴としてもよい。
この場合、ステップS301において画像からコーナー点を検出する代わりにマーカーを検出し、画像上におけるマーカー検出位置の分布を取得することで第1〜10の実施形態で説明した方法で同様にマーカーを追加すべき位置を決定・提示することが可能である。また、同様に位置を検出できる特徴であればエッジ特徴やSIFTのようなBlob特徴、輝度勾配が大きい画素を特徴としてもステップS301においてその検出位置の分布を取得することで本発明の実施が可能である。さらに画像のエッジ特徴を用いる場合はエッジ特徴の検出された位置と向きを用いて[変形例2−2]で説明した方法と同様にエッジ特徴の位置と向きが均一になるように特徴位置を決定することができる。このようにコーナー点特徴以外の特徴を用いたカメラ位置姿勢計算を行うシステムにも広く本発明の適用は可能である。
(特徴追加位置候補の生成は矩形領域をサンプリングするのではなくセグメントでもよい)
第1〜7の実施形態においてはステップS501で生成またはユーザーが指定する特徴追加位置候補は画像を矩形領域でサンプリングして生成した。しかし特徴を追加し得る複数の候補をもれなく生成できる方法であれば他の方法でも本発明の実施は可能である。例えば画像を色情報でセグメンテーションして得た各セグメントのうち一定の広さを持つセグメントの中央を特徴追加位置の候補としてもよい。また、第6の実施形態のようにシーンの距離情報を取得できる構成であれば距離情報から面でセグメンテーションして得た各セグメントのうち一定の広さを持つセグメントの中央を特徴追加位置候補としてもよい。このように一定の広さを持つセグメントの中央を特徴追加位置候補とすることで特徴を追加することが容易な特徴追加位置を提示することができる。
(提示した結果でカメラ位置合わせを行って結果を提示する構成を備えてもよい。)
カメラで撮像した画像中で検出された特徴に基づいてカメラ位置姿勢を計算する装置に第1〜9の実施形態では特徴を追加すべき位置や位置姿勢を提示する機能を搭載させてもよい。こうすることでシーン中を動いてカメラの位置姿勢を計算する時の計算結果が悪かった時に適宜、カメラ位置姿勢計算結果を良くするために追加すべき特徴の位置や位置姿勢を提示させることができる。
<定義>
本発明における特徴分布取得手段はカメラが観測し得る特徴の分布を取得できるものであればなんでもよい。その一例が第1〜4の実施形態で説明したカメラが撮影した画像から取得する方法である。その他に第6の実施形態で説明したようにシーンの三次元情報とカメラ位置姿勢に基づいてカメラが観測するであろう画像を生成して、その画像から取得してもよい。
本発明における特徴追加位置及び/または向きを決定する決定手段は特徴の分布がカメラ位置姿勢の計算に適するように特徴追加位置及び/または向きを決定する手段であればなんでもよい。決定手段の構成要素には特徴追加位置及び/または向きの候補を生成する方法と、特徴追加位置及び/または向きの候補に特徴を追加したときの特徴の分布がカメラ位置姿勢の計算に適している度合いを評価する評価尺度と、評価尺度で算出された評価値に基づいて特徴追加位置及び/または向きの候補の中から提示する特徴追加位置及び/または向きを取り出す基準がある。
特徴追加位置及び/または向きの候補を生成する方法の一例が第1、2、7の実施形態で説明したカメラが撮影した画像もしくは観測し得る三次元空間を矩形領域に分割やボクセルに分割して、それぞれの領域の二次元位置または三次元位置を特徴追加位置候補とする方法である。その他に(実施形態のその他のバリエーション)で説明したようにカメラが撮影した画像やシーンの三次元情報をセグメンテーションして各セグメントを特徴追加位置候補としてもよい。さらに第8の実施形態で説明したようにユーザーが設定した特徴追加位置及び/または向きの候補を取得してもよい。
評価尺度の一例が第1の実施形態で説明した特徴の分布の均一さである。この他に第2の実施形態で説明したように特徴の分布の広さを評価尺度としてもよい。また、第4の実施形態で説明したようにその分布においてカメラ位置姿勢を計算した場合の計算精度を算出して評価尺度としてもよい。
特徴追加位置及び/または向きの候補の中から提示する特徴追加位置及び/または向きを取り出す基準の一例が第1の実施形態で説明した特徴を追加することによる評価値の向上量が大きい特徴追加位置を取り出す方法である。その他に第5の実施形態で説明したように評価値の向上量の大きい上位所定の個数の特徴追加を取り出してもよい。また、同じく第5の実施形態で説明したように目標評価値を達成するために必要な特徴追加位置を取り出してもよい。
本発明における特徴追加位置及び/または向きを提示する手段は決定した特徴追加位置を提示するものであればなんでもよい。その一例が第1の実施形態で説明した特徴の追加位置を画像上に重畳して提示する方法である。この他に第8の実施形態で説明したように追加配置する特徴物体の位置姿勢をシーンの三次元情報に重畳して提示してもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (19)

  1. 撮像装置によって撮像される画像から、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する取得手段と、
    前記画像に含まれる複数の部分領域を、特徴を追加するための複数の候補領域として設定する設定手段と、
    前記設定された複数の候補領域を評価する評価手段と、
    前記評価された複数の候補領域に基づいて、新たに、特徴を追加すべき位置及び/または向きを決定する決定手段と、
    前記決定された位置および/または向きを出力する出力手段とを備えることを特徴とする情報処理装置。
  2. 更に、前記取得された特徴に基づいて前記画像内における前記特徴の分布を取得する分布取得手段を備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記決定手段は、前記分布がより均一になるように、前記位置及び/または向きを決定することを特徴とする請求項2に記載の情報処理装置。
  4. 前記決定手段は、前記候補領域ごとに、前記取得された特徴の数をカウントし、前記カウントされた候補領域ごとの特徴の数に基づいて、前記画像内における前記特徴の分布がより均一になるように、前記追加すべき位置及び/または向きを決定することを特徴とする請求項1に記載の情報処理装置。
  5. 更に、前記特徴の三次元位置を求める手段を備え、
    前記決定手段は、前記特徴の三次元位置の分布がより均一になるように、前記追加すべき位置及び/または向きを決定することを特徴とする請求項1に記載の情報処理装置。
  6. 前記決定手段は、前記取得された特徴の分布がより拡がるように、前記追加すべき位置及び/または向きを決定することを特徴とする請求項1に記載の情報処理装置。
  7. 前記決定手段は、前記取得された特徴の分布に新たに特徴を追加して得られる分布に基づいて導出される前記撮像装置の位置姿勢の精度が高くなるように、前記追加すべき位置及び/または向きを決定することを特徴とする請求項1に記載の情報処理装置。
  8. 更に、前記特徴の分布の評価値を求める評価手段を備えることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 前記決定手段は、前記評価値が増大するように、前記追加すべき位置及び/または向きを決定することを特徴とする請求項8に記載の情報処理装置。
  10. 更に、前記評価値の目標値を取得する手段を備え、
    前記決定手段は、前記評価値が、前記目標値を超える位置及び/または向きを、前記追加すべき位置及び/または向きとして決定する特徴とする請求項8に記載の情報処理装置。
  11. 前記決定手段は、前記評価値の向上量が所定の値よりも多い位置及び/または向きを、前記追加すべき位置及び/または向きとして決定することを特徴とする請求項8に記載の情報処理装置。
  12. 更に、現実のシーンのうち、前記特徴を追加可能な領域を設定する設定手段を備え、
    前記決定手段は、前記設定された領域の中から、前記追加すべき位置を決定することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
  13. 更に、現実のシーンのうち、前記特徴を追加しない領域を設定する第2の設定手段を備え、
    前記決定手段は、前記第2の設定手段で設定された領域を除いた領域から、前記追加すべき位置を決定することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
  14. 前記出力手段は、前記追加すべき位置及び/または向きに関する情報を、前記撮像装置で撮像した画像に重畳して外部の表示部に表示させることを特徴とする請求項1に記載の情報処理装置。
  15. 前記撮像装置は、頭部装着型表示装置に備え付けられていることを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
  16. 更に、前記特徴に基づいて前記撮像装置の位置姿勢を導出する導出手段を更に備えることを特徴とする請求項1乃至15のいずれか1項に記載の情報処理装置。
  17. 撮像装置によって撮像される現実のシーンに含まれ、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する手段と、
    前記検出された特徴の分布に基づいて、新たに、前記現実のシーンに含まれる特徴のうち、削除すべき特徴を決定する手段と、
    前記決定された特徴を出力する手段とを備えることを特徴とする情報処理装置。
  18. 撮像装置によって撮像される画像から、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する取得工程と、
    前記画像に含まれる複数の部分領域を、特徴を追加するための複数の候補領域として設定する設定工程と、
    前記設定された複数の候補領域を評価する評価工程と、
    前記評価された複数の候補領域に基づいて、新たに、特徴を追加すべき位置および/または向きを決定する決定工程と、
    前記決定された位置および/または向きを出力する出力工程とを備えることを特徴とする情報処理方法。
  19. コンピュータを、
    撮像装置によって撮像される画像から、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する取得手段と、
    前記画像に含まれる複数の部分領域を、特徴を追加するための複数の候補領域として設定する設定手段と、
    前記設定された複数の候補領域を評価する評価手段と、
    前記評価された複数の候補領域に基づいて、新たに、特徴を追加すべき位置および/または向きを決定する決定手段と、
    前記決定された位置および/または向きを出力する出力手段とを備えることを特徴とする情報処理装置の各手段として機能させるためのプログラム。
JP2016077328A 2015-05-20 2016-04-07 情報処理装置、方法、プログラム Active JP6723798B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020177035740A KR101992044B1 (ko) 2015-05-20 2016-05-13 정보 처리 장치, 방법, 및 컴퓨터 프로그램
PCT/JP2016/002365 WO2016185704A1 (en) 2015-05-20 2016-05-13 Information processing apparatus, method, and program
US15/574,814 US10430967B2 (en) 2015-05-20 2016-05-13 Information processing apparatus, method, and program
EP16796100.2A EP3298590B1 (en) 2015-05-20 2016-05-13 Information processing apparatus, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015102825 2015-05-20
JP2015102825 2015-05-20

Publications (3)

Publication Number Publication Date
JP2016220198A true JP2016220198A (ja) 2016-12-22
JP2016220198A5 JP2016220198A5 (ja) 2019-05-09
JP6723798B2 JP6723798B2 (ja) 2020-07-15

Family

ID=57578734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016077328A Active JP6723798B2 (ja) 2015-05-20 2016-04-07 情報処理装置、方法、プログラム

Country Status (4)

Country Link
US (1) US10430967B2 (ja)
EP (1) EP3298590B1 (ja)
JP (1) JP6723798B2 (ja)
KR (1) KR101992044B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020509505A (ja) * 2017-03-06 2020-03-26 Line株式会社 拡張現実を提供するための方法、装置及びコンピュータプログラム
CN113642925A (zh) * 2021-08-31 2021-11-12 重庆电子工程职业学院 基于mr混合现实的智慧物流规划布局方案评价系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111010865B (zh) 2017-02-24 2023-07-25 梅西莫股份有限公司 用于显示医疗监测数据的系统
US11024064B2 (en) * 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
WO2018208616A1 (en) 2017-05-08 2018-11-15 Masimo Corporation System for pairing a medical system to a network controller by use of a dongle
JP7341736B2 (ja) 2019-06-06 2023-09-11 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005327204A (ja) * 2004-05-17 2005-11-24 Canon Inc 画像合成システムおよび画像合成方法、および画像合成装置
JP2006127468A (ja) * 2004-09-28 2006-05-18 Canon Inc 情報処理方法および装置
JP2008065807A (ja) * 2006-08-11 2008-03-21 Canon Inc 指標配置情報計測装置および方法
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
EP1540640A2 (en) * 2002-09-12 2005-06-15 Koninklijke Philips Electronics N.V. Transflective liquid crystal display with reduced flicker
KR101188588B1 (ko) * 2008-03-27 2012-10-08 주식회사 만도 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법
JP5269707B2 (ja) * 2009-07-01 2013-08-21 富士フイルム株式会社 画像合成装置及び方法
KR101622110B1 (ko) 2009-08-11 2016-05-18 삼성전자 주식회사 특징점 추출 방법 및 추출 장치, 이를 이용한 영상 기반 위치인식 방법
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末
US8965107B1 (en) * 2012-05-18 2015-02-24 Google Inc. Feature reduction based on local densities for bundle adjustment of images
GB2506338A (en) * 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
JP2014123230A (ja) * 2012-12-20 2014-07-03 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
US9406137B2 (en) * 2013-06-14 2016-08-02 Qualcomm Incorporated Robust tracking using point and line features

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005327204A (ja) * 2004-05-17 2005-11-24 Canon Inc 画像合成システムおよび画像合成方法、および画像合成装置
JP2006127468A (ja) * 2004-09-28 2006-05-18 Canon Inc 情報処理方法および装置
JP2008065807A (ja) * 2006-08-11 2008-03-21 Canon Inc 指標配置情報計測装置および方法
JP2013225245A (ja) * 2012-04-23 2013-10-31 Sony Corp 画像処理装置、画像処理方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020509505A (ja) * 2017-03-06 2020-03-26 Line株式会社 拡張現実を提供するための方法、装置及びコンピュータプログラム
CN113642925A (zh) * 2021-08-31 2021-11-12 重庆电子工程职业学院 基于mr混合现实的智慧物流规划布局方案评价系统
CN113642925B (zh) * 2021-08-31 2023-12-12 重庆电子工程职业学院 基于mr混合现实的智慧物流规划布局方案评价系统

Also Published As

Publication number Publication date
KR20180008575A (ko) 2018-01-24
EP3298590A4 (en) 2019-01-02
EP3298590B1 (en) 2021-01-06
EP3298590A1 (en) 2018-03-28
JP6723798B2 (ja) 2020-07-15
US20180144497A1 (en) 2018-05-24
US10430967B2 (en) 2019-10-01
KR101992044B1 (ko) 2019-06-21

Similar Documents

Publication Publication Date Title
JP6723798B2 (ja) 情報処理装置、方法、プログラム
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US9773302B2 (en) Three-dimensional object model tagging
US10304206B2 (en) Selecting feature patterns and corresponding layout positions for viewpoint measurement
JP5574852B2 (ja) 情報処理装置、情報処理方法、システム及びプログラム
JP2019114821A (ja) 監視システム、装置、方法およびプログラム
US9697581B2 (en) Image processing apparatus and image processing method
JPWO2020179065A1 (ja) 画像処理装置、画像処理方法及びプログラム
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP6817742B2 (ja) 情報処理装置およびその制御方法
US20220405878A1 (en) Image processing apparatus, image processing method, and image processing program
JP2015184061A (ja) 抽出装置、方法及びプログラム
JP6938201B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7341736B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020144686A (ja) モデル作成システム、モデル作成方法
JP2019185475A (ja) 特定プログラム、特定方法及び情報処理装置
KR20130081126A (ko) 손 제스처 인식 방법 및 그 장치
JP2018041169A (ja) 情報処理装置およびその制御方法、プログラム
WO2016185704A1 (en) Information processing apparatus, method, and program
JP6768400B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20140104386A1 (en) Observation support device, observation support method and computer program product
US20220383487A1 (en) Image processing apparatus, image processing method, and image processing program
JP2023039338A (ja) 画像処理装置、画像処理方法、システムおよびプログラム
JP4966946B2 (ja) 時空間画像分離装置、時空間画像分離方法および時空間画像分離プログラム
JP2016058043A (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R151 Written notification of patent or utility model registration

Ref document number: 6723798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151