JP2014106642A - 光学式シースルー型hmdを用いたarシステム - Google Patents

光学式シースルー型hmdを用いたarシステム Download PDF

Info

Publication number
JP2014106642A
JP2014106642A JP2012257918A JP2012257918A JP2014106642A JP 2014106642 A JP2014106642 A JP 2014106642A JP 2012257918 A JP2012257918 A JP 2012257918A JP 2012257918 A JP2012257918 A JP 2012257918A JP 2014106642 A JP2014106642 A JP 2014106642A
Authority
JP
Japan
Prior art keywords
camera
screen
marker
hmd
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012257918A
Other languages
English (en)
Other versions
JP6061334B2 (ja
Inventor
Yuya Makibuchi
有哉 巻渕
Haruhisa Kato
晴久 加藤
Akio Yoneyama
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012257918A priority Critical patent/JP6061334B2/ja
Publication of JP2014106642A publication Critical patent/JP2014106642A/ja
Application granted granted Critical
Publication of JP6061334B2 publication Critical patent/JP6061334B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】光学式シースルー型HMDを用いたARシステムにおいて、少ないポインティング操作回数で正確なキャリブレーションを可能にする。
【解決手段】カメラ位置姿勢推定部43はカメラ3の位置および姿勢を推定する。3D-2D対応構成部44は、カメラ3の位置、姿勢に基づいて、マーカ座標系における一点のカメラ座標系における3次元座標を計算する。さらに、ユーザにポインティング操作を要求して、その一点がスクリーン2を通してユーザの目に入力される際の当該スクリーン平面上の2次元座標を取得し、これら3次元座標と2次元座標との対応を一組として構成してオンライン・パラメータ推定部45へ出力する。オンライン・パラメータ推定部45は、従来技術では6つの3D-2D対応点から演算していたキャリブレーション・パラメータを、より少ない3D-2D対応点のみで推定すべく、不足する情報を、予め取得されているオフライン・パラメータで補う。
【選択図】図2

Description

本発明は、光学式シースルー型HMDを用いたARシステムに係り、特に、簡単な操作で座標系の較正を行えるARシステムに関する。
AR(拡張現実感)は、文字やCG等の仮想的な電子情報を現実世界に付加する概念である。カメラ画像上の適切な位置に電子情報を重畳表示するためには、現実世界に存在する基準座標系に対するカメラの位置および姿勢(カメラに対する基準座標系の位置および姿勢)を推定する必要がある。特に、立体的なCGキャラクタを現実世界に重ね合わせて表示するARシステムにおいて、重畳するオブジェクトと現実世界との幾何学的な整合性を維持するためには、より高い推定精度が要求される。この精度が不十分であると、例えばCGキャラクタが現実世界の机の上から離れて浮いて表示されるといった画像破綻が生じ得る。
近年、HMD(ヘッド・マウント・ディスプレイ)を利用したARシステムの構築が盛んに試みられている。HMDとは、頭部に搭載する小型の画像表示装置(スクリーン)を備えた眼鏡型装置、またはそれに加えて演算装置を備えた端末の総称であり、日常的に着用可能なウェアラブルコンピュータの一種とも解釈できる。
HMDを用いたARシステムでは、現実世界に存在する対象に関連する情報をHMDのスクリーンに重畳表示する等の利用シーンが考えられる。例えば、マップ・ナビゲーションにおいては、ハンズフリーの状態で歩道や曲がり角にそって矢印を表示することができるため、携帯電話やスマートフォンによるナビゲーションに対して利便性の向上が期待できる。
HMDは主に2種類に分類できる。一つはビデオシースルー型と呼ばれ、もう一つは光学式シースルー型と呼ばれる。これらを用いてARシステムを構築する場合に生じる両者の違いは、重畳表示のベースとなる現実空間の画像がカメラによって取得されるか否かであり、ビデオシースルー型HMDでは、カメラにより取得されて電気信号に変換された映像が現実空間の画像となり、光学式シースルー型HMDでは、現実空間そのものが透過型のスクリーンを通してユーザの目に直接入力される。
画像処理の観点から各方式を比較すると、ビデオシースルー型の場合は現実空間の画像が電子情報として演算部に入力されるため、その画像を解析することにより現実空間にあわせて情報を重畳することは容易である。
なお、ここで言及する「容易」とは、従来から議論されているARシステムのための基本的なアルゴリズムをそのまま適用することができるという意味であり、例えば、現実空間にARマーカを用意することで、入力された画像からマーカの位置および姿勢を計算し、適切な位置および向きでCGキャラクタを配置することで、現実空間においてCGキャラクタがマーカの上にあたかも乗っているかのような画像をユーザに見せることができる。
これに対して、光学式シースルー型HMDの場合には、ユーザの目に入る画像を電子的に取得することができないので上記の方法は適用できない。したがって、このような光学式シースルー型HMDを用いたARシステムにおいて、上記のように現実空間のマーカの上にCGキャラクタを乗せることを目的とするのであれば、カメラをHMDのフレーム等に固定して、あたかもCGキャラクタがマーカの上に乗っているかのように見える、スクリーン上の適切な位置を、カメラが取得した画像から推定するアルゴリズムが必要になる。
図6は、光学式シースルー型HMDの代表的な構成を示した模式図であり、メガネ状のフレーム1と、メガネ状フレーム1の一方のレンズ位置に設けられた透過式のスクリーン2と、フレーム1に固定されてARマーカ6を含む現実環境を撮影するカメラ3とを主要な構成とする。図7は、このような光学式シースルー型HMDを用いたARシステムにおける座標系の較正方法を説明するための図である。
光学式シースルー型HMDにARを表示するためには、マーカ6に対するスクリーンへの投影関係P2が必要となる。しかしながら、光学式シースルー型HMDでは、ユーザがスクリーンを通して実際に見ている映像を取得できないので、投影関係P2は、スクリーン2上のARマーカ6の位置をポインティングするといった、ユーザの協力無しには計測できない。
これに対して、マーカ6に対するカメラ3の姿勢W1は、カメラ3が取得した映像から周知のマーカ位置検出プログラムにより自動的に計算できる。したがって、カメラ3に対するスクリーン2への投影関係P21が判れば、当該投影関係P21およびカメラ姿勢W1に基づいてHMDスクリーン投影P2を計算できる。
なお、ここでの投影関係P21とは、厳密には、カメラ3により取得されるカメラ画像の現実環境での3次元座標系(カメラ座標系)と、この現実環境がHMDのスクリーン2を通してユーザの目に入力される際のスクリーン2上の投影位置を示す2次元座標系(スクリーン座標系)との相対的な関係である。
しかしながら、図8に示したように、カメラ3に対するHMDスクリーンへの投影関係P21は、例えばユーザの鼻と目との間隔やユーザの目とHMDスクリーンとの間隔に依存するので、ユーザごとに較正しなければならない。また、同一ユーザであっても、メガネのかけ方が都度変わるような場合には、メガネをかけるごとに較正しなければならない。このような、カメラ3に対するHMDへの投影位置関係P21の較正は、一般に「HMDのキャリブレーション」と呼ばれる。
非特許文献1には、カメラ3が検出したマーカ6のカメラ画像上での2次元位置と、スクリーン2を通してユーザの目に入力されるスクリーン上でのマーカの2次元位置との違いを補正する平面射影変換行列を、ユーザが少なくとも4点をポインティング操作により指定することによりキャリブレーションする方式が開示されている。
マーカを利用したキャリブレーションでは、ユーザの目に入力される画像におけるマーカに関する情報を得るためにポインティング操作等の手動入力が必要となり、この方式では比較的少ない回数(最低4回)のポインティング操作によりキャリブレーションを実施できる。但し、ポインティング操作中はユーザを頭の位置を固定(ヘッド・ロック)しておく必要があるほか、正確な位置で重畳表示できるオブジェクトがマーカと同一平面上に存在するものに限られる。
非特許文献2には、上述の2つの技術課題を解決する方式が開示されており、非特許文献1と同様に複数回のポインティング操作によりキャリブレーションを実施する方式である。しかしながら、ポインティング操作中でもヘッド・ロックは不要であり、またマーカ座標系の全ての点が重畳表示の対象となっている。
次いで、非特許文献2に開示されており、本発明のベースとなるキャリブレーション手法およびキャリブレーション以降の重畳表示方法について説明する。なお、カメラ3はマーカを正確に検出できているものとする。
図9は、非特許文献2に開示された光学式シースルー型HMDのキャリブレーション方法を模式的に表現した図である。
カメラ3とマーカ6の座標系との相対的な位置関係はマーカ位置検出プログラムにより既知なので、ユーザにポインティングさせるマーカ6上の一点を事前に定めておいた場合、ユーザがスクリーン上でポインティングした一点に対して、その現実空間上(マーカ座標系)の3次元座標を計算できる。したがって、この一回のポインティング操作により、ユーザがポインティングしたスクリーン上の点の2次元座標と、計算された3次元座標との組(対応点)が得られる。非特許文献2では、この試行を少なくとも6回行う必要がある。すなわち、少なくとも6回のポインティング操作がユーザに強いられる。
現実環境内の3次元座標点がスクリーン上の2次元座標点に投影される関係は、ピンホールカメラモデルにより3×4行列の射影行列P3×4を用いて表現でき、この射影行列P3×4の要素を少なくとも6組の点対応から計算するアルゴリズムは、DLT(Direct Linear Transformation)解法として知られている。
その後は、前記図6に示したように、DLT解法により得られた射影変換行列P3×4と、このときに得られるマーカ6に対するカメラ3の位置および姿勢を表す4×4行列の外部パラメータ行列W4×4とからP3×4・W-1 4×4が計算される。このP3×4・W-1 4×4は、カメラ3に関連するカメラ座標系における3次元座標点がスクリーン2へ投影される関係を表現しており、マーカ6が現実空間内のどこに存在していたとしても一定値として得られる。すなわち、この3×4行列の各要素が、事前に求めるべきHMDのキャリブレーション・パラメータとなる。
そして、キャリブレーション以降は、キャリブレーション・パラメータを利用することで手動入力なしにスクリーン2への重畳表示を実現できるようになる。具体的には、その都度得られているマーカ6に対するカメラ3の位置および姿勢をW1とすると、(P3×4・W-1 4×4)・W1という射影変換行列により、マーカ座標系における3次元座標点をスクリーン2へ正確に投影することが可能になる。
G. Klinker, D. Stricker, D. Reiners, "Augmented Reality: A Balancing Act Between High Quality and Real-Time Constraints", Mixed Reality - Merging Real and Virtual Worlds (Ed. by Y. Ohta and H. Tamura), Ohmsha and Springer-Verlag, pp.325-346, 1999. 加藤博一,M.Billinghurst,浅野浩一,橘啓八郎,"マーカー追跡に基づく拡張現実感システムとそのキャリブレーション",日本バーチャルリアリティ学会論文誌,Vol4,No4,pp.607-616,(1999)
非特許文献1では、ポインティング操作中、ユーザは頭の位置を固定しておく必要があり、また、重畳表示できるオブジェクトがマーカと同一平面上に存在するものに限られるという技術課題があった。
非特許文献2では、少なくとも6回のポインティング操作がユーザに求められる。光学式シースルー型HMDを利用したARシステムでは、キャリブレーションはユーザごとに、厳密にはユーザがHMDを装着するごとに行う必要がある。また、キャリブレーション以降にHMDの装着位置がずれた場合は、キャリブレーションを一からやり直す必要がある。したがって、キャリブレーションには、より少ない操作回数が要望されている。
本発明の目的は、上述の技術課題を解決し、光学式シースルー型HMDを搭載したARシステムにおいて、従来よりも少ないポインティング操作回数で、より正確なキャリブレーションを可能にするHMDを利用したARシステムを提供することにある。
上記の目的を達成するために、本発明は、HMDに固定されたカメラでマーカを撮影し、スクリーンに表示される仮想環境の座標系とスクリーンを通して視認される現実環境の座標系とのずれを較正する光学式シースルー型HMDにおいて、以下のような構成を具備した点に特徴がある。
すなわち、カメラ画像からマーカを検出してマーカ座標系とカメラ座標系との対応関係を求めるマーカ検知手段と、マーカ座標系とカメラ座標系との対応関係に基づいて、マーカ座標系におけるカメラの位置および姿勢を推定するカメラ位置姿勢推定手段と、HMDを装着したユーザに、スクリーンを通して視認されるマーカ上の特定の一点を指定させるポインティング操作手段と、カメラの位置および姿勢の推定結果に基づいて、マーカ上の一点のカメラ座標系での3次元座標を、前記ポインティング操作手段により指定された各点のスクリーン平面(単位は[pixel]、以下同様)での一点の2次元座標と対応付ける3D-2D対応構成手段と、カメラ座標系[mm]とスクリーン座標系[mm]との相対的な位置関係に固有のオフライン・パラメータを記憶する手段と、複数回のポインティング操作により得られる各点の3次元座標および2次元座標の対応関係、前記カメラの位置および姿勢、ならびに前記オフライン・パラメータに基づいて、前記ユーザとHMDとの相対的な位置関係に固有のオンライン・パラメータを推定するオンライン・パラメータ推定手段と、オンライン・パラメータに基づいて、カメラ座標系上の一点をスクリーン平面に投影するための射影変換行列をキャリブレーション・パラメータとして求めるキャリブレーション・パラメータ構成手段とを具備した。
本発明によれば、以下のような効果が達成される。
(1)光学式シースルー型HMDを搭載したARシステムのキャリブレーションに必要なポインティング操作回数を従来技術に較べて大幅に減じることができる。
すなわち、これまでユーザがHMDを装着した状態で計測していた多数のパラメータに「オンライン・パラメータ」および「オフライン・パラメータ」という概念を導入して2種のパラメータに分類し、オフライン・パラメータは予め求めることにより、キャリブレーションに必要なポインティング操作回数が減ぜられる。より具体的には、キャリブレーションに必要なポインティング操作回数を、従来技術の6回から2回に減じることができる。
(2)オフライン・パラメータは、ARシステムの製造元等において正確に求められるので、より正確なキャリブレーションが可能になる。
本発明の一実施形態に係る光学式シースルー型HMDのブロック図である。 HMD較正装置4の一実施形態の機能ブロック図である。 本発明のキャリブレーション方法を数式モデルで説明するための図である。 ARマーカ6として利用可能な正方マーカの一例を示した図である。 マーカ座標系の一例を示した図である。 従来の光学式シースルー型HMDの構成を示した模式図である。 光学式シースルー型HMDを用いたARシステムの較正方法の説明図である。 HMDとカメラとの位置関係P21がユーザに依存する様子を示した図である。 従来の光学式シースルー型HMDにおけるキャリブレーション方法を模式的に表現した図である。
以下、図面を参照して本発明の実施形態について詳細に説明する。図1は、本発明の一実施形態に係る光学式シースルー型HMDの主要部の構成を示したブロック図であり、メガネ状のフレーム1と、メガネ状フレーム1の一方のレンズ位置に設けられ、実質的に固定されて当該フレームとの相対位置が維持される透過式スクリーン2と、フレーム1に固定されてARマーカ6を含む現実環境を撮影するカメラ3と、ARマーカ6の写ったカメラ画像に基づいてHMDのキャリブレーションを行うHMD較正装置(演算部)4と、キャリブレーション用のデータやAR用の画像情報を記憶するデータベース5とを主要な構成とする。
前記カメラ3については、焦点距離や光軸のずれ、歪みパラメータ等の内部パラメータが事前のキャリブレーションにより既知であるものとする。なお、ここでのキャリブレーションは、前記HMDのキャリブレーションとは異なり、カメラ3の内部パラメータを求める一般的なカメラ・キャリブレーションを意味している。ARマーカ6は、画像内の点対応を用いて当該マーカ6に対するカメラ3の位置および姿勢を求めるために用いられ、一般的なARシステムで用いられるARマーカの他、事前に特徴を登録した自然画像を用いることができる。
透過型スクリーン2は、テキスト、動画像もしくはCG等のAR用の電子情報を表示でき、かつユーザがスクリーン2を通して背景の実空間を観察できるものであれば、市販の光学式シースルー型HMDやHUD(ヘッド・アップ・ディスプレイ)に搭載されているものや、ホログラムディスプレイなどであっても良い。
データベース5は、ハードディスクやフラッシュメモリ等の不揮発性メモリストレージや、PCの主記憶装置に一般的に使用される揮発性メモリを用いてもよい。本実施形態では、少なくともカメラ3の内部パラメータおよびARマーカ6の形状や大きさ等の特徴が記録されており、加えて重畳表示するCGキャラクタのモデル等の電子情報が記録されていても良い。
図2は、前記HMD較正装置4の一実施形態の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表しているので、その説明は省略する。
カメラ画像取得部41は、カメラ3からARマーカ6を被写体として含むカメラ画像を取得する。マーカ検出部42は、前記カメラ画像からARマーカ6を検出し、その座標を後段のカメラ位置姿勢推定部43へ出力する。カメラ位置姿勢推定部43は、前記ARマーカ6のカメラ画像平面での検出位置に基づいてカメラ3の位置および姿勢を推定し、この推定結果を後段の3D-2D対応構成部44に出力する。
3D-2D対応構成部44は、ユーザによるポインティング操作を検知するポインティング操作部44aを含み、前記カメラ3の位置および姿勢の推定結果に基づいて、マーカ座標系における一点のカメラ座標系における3次元座標を計算する。
さらに、これと同時にユーザにポインティング操作を要求して、その一点がスクリーン2を通してユーザの目に入力される際の当該スクリーン上の2次元座標を取得し、これら3次元座標(カメラ座標系)と2次元座標(スクリーン平面)との対応関係を一組として構成し、この対応関係を後段のオンライン・パラメータ推定部45へ出力する。
このとき、従来技術ではユーザに対して少なくとも6回のポインティング操作が要求され、これにより6つの3D-2D対応点が得られたのに対して、本実施形態では、ユーザに対して2回のポインティング操作しか要求されず、したがって、2つの3D-2D対応点が得られるのみである。
オンライン・パラメータ推定部45は、従来技術では6つの3D-2D対応点から演算していたオンライン・パラメータを2つの3D-2D対応点のみで推定すべく、不足する情報を、予め取得されているオフライン・パラメータで補うようにしている。
すなわち、複数回(本実施形態では、少なくとも2回)のポインティング操作により得られる複数組の3D-2D対応、マーカ座標系に対するカメラ3の位置および姿勢、ならびに事前に求められたARシステムに固有のオフライン・パラメータから、ユーザの身体的特徴や装着具合に起因するオンライン・パラメータを推定し、これを後段のキャリブレーション・パラメータ構成部46へ出力する。
キャリブレーション・パラメータ構成部46は、従来技術と同様に、入力されたオンライン・パラメータから、カメラ座標系における一点をスクリーン平面に投影するための射影変換行列を、ARシステムのキャリブレーション・パラメータとして算出する。
次いで、前記HMD較正装置4の構成および動作を具体的に説明する前に、本発明によるキャリブレーションの基本構想について説明する。
図3は、本発明のキャリブレーション方法を数式モデルで説明するための図であり、ここでは、現実空間の3次元座標X1が、メガネ状フレーム1に固定されたカメラ3により撮影され、そのカメラ画像がHMDの透過式スクリーン2に表示され、かつユーザの目10にスクリーン2を透過して入力される様子が図示されている。
スクリーン2に対してユーザの視線が垂直に保たれると仮定すれば、現実空間の3次元座標X1がスクリーン2へ投影されるモデルは、目10を光軸中心、視線を光軸、スクリーン2を画像平面としたピンホールカメラモデルとして表現できる。このとき、ピンホールカメラモデルの焦点距離は、目10とスクリーン2との距離であり、ここではfZ[mm]で表現される。また、光軸のX方向およびY方向へのずれは、それぞれcX[mm]、cY[mm]と表現される。
焦点距離fZをピクセルの単位に変換したものをf[pixel]、スクリーン2の座標系(u[pixel],v[pixel])上での光軸の位置をcu[pixel],cv[pixel]と表現すれば、これらはそれぞれ、スクリーン2のピクセル密度k[pixel/mm]を用いて、次式(1),(2),(3)のように表現できる。
このとき、ピンホールカメラモデルの内部パラメータ行列Ahmd4eyeは、次式(4)で表現される。
上述の数式モデルを元に、ここでは以下に示す3つの座標系の関係を考える。
(a) 目座標系 (Xeye [mm],Yeye [mm],Zeye [mm])
ユーザの目10が原点であり、Zeye軸がユーザの視線に一致し、Zeye軸の正の方向が視線の方向となる座標系である。
(b) スクリーン座標系 (Xhmd [mm],Yhmd [mm],Zhmd [mm])
長方形形状のスクリーン2がフレーム1に対して平行に固定されており、かつユーザがフレーム1を頭部に平行に装着しているものと仮定して、スクリーン2の左上部が原点であり、Zhmd軸の正の方向をユーザの視線とする座標系である。
(c) カメラ座標系 (Xcam [mm],Ycam [mm],Zcam [mm])
カメラ3により現実空間の点がカメラ3内の画像平面へ投影される様子をピンホールカメラモデルで表現した際に用いられる、カメラ3の設置位置および向きで定まる座標系である。
カメラ座標系からスクリーン座標系への変換行列Wcam2hmdは、スクリーン2およびカメラ3が共にフレーム1に固定されているため、ユーザの目の位置や装着具合にかかわらず常に一定値となる。そこで、Wcam2hmdに含まれる回転行列Rcam2hmdおよび並進ベクトルtcam2hmdを、定数を用いて次式(5),(6)で表現する。ここで、ConstRは3×3の定数行列、Const1,Const2,Const3は、いずれもスカラー定数である。
また、スクリーン座標系から目座標系への変換行列Whmd2eyeに関して、Whmd2eyeに含まれる回転行列Rhmd2eyeは、座標系の定義により単位行列Iであることが分かる。一方、Whmd2eyeに含まれる並進ベクトルthmd2eyeは、焦点距離fZ[mm]およびディスプレイ座標系における光軸のずれcX[mm],cY[mm]を用いて次式(7)で表現できる。
さらに、カメラ座標系から目座標系への変換行列Wcam2eyeに含まれる回転行列Rcam2eyeおよび並進ベクトルtcam2eyeは、前記変換行列Wcam2hmd,Whmd2eyeを用いて次式(8),(9)で表現できる。
以上により、現実空間の3次元座標点X1がスクリーン2の2次元座標点m1に投影されるとき、3次元座標X1と2次元座標m1との間には、ARマーカ6に対するカメラ3の位置および姿勢である変換行列Wmar2camを用いれば、以下の関係式(10),(11)が成り立つ。
上式(11)の右辺において、スクリーン2に重畳表示されるCGモデルの各頂点の3次元座標であるX,Y,Zを除くと、定数を含む各変数(パラメータ)は、以下の3種類(i),(ii),(iii)に分類できる。
(i) ユーザあるいはHMDの装着状態に固有のパラメータ(fZ,cX,cY
(ii) スクリーン2およびカメラ3の相対的な位置関係に固有のパラメータ(ConstR11,ConstR12,ConstR13,ConstR21,ConstR22,ConstR23,ConstR31,ConstR32,ConstR33,Const1,Const2,Const3,k)
(iii) カメラ3がARマーカ6を検出することでオンライン入力されるパラメータ(r11,r12,r13,r21,r22,r23,r31,r32,r33,tX,tY,tZ)。
前記(i)のパラメータ群は、本実施形態ではオンライン・パラメータに分類され、ユーザに要求されるキャリブレーションは、この3つのオンライン・パラメータfZ,cX,cYを求める処理となる。
前記(ii)のパラメータ群は、スクリーン2およびカメラ3の相対的な位置関係であり、両者がフレーム1に固定されている限り定数となるのでオフライン・パラメータに分類される。そして、これらのオフライン・パラメータは、予め求めることが可能である。なお、ピクセル密度kはスクリーン2に固有のパラメータであるが、便宜上、オンライン・パラメータに含めてオンライン・パラメータの数を4つとしてもよい。その場合、ピクセル密度kをオフライン・パラメータとして事前に求める必要はない。
前記(iii)のパラメータ群は、一般的なARシステムにおいて計算されるARマーカ6に対するカメラ3の位置および姿勢であり、カメラ3がARマーカ6を検出できている限りは公知の手法により自動的に求まる。
このようなパラメータ構成では、前記(ii)のオフライン・パラメータを予め計測した上で、本発明のHMD較正装置4により、前記(i)のオンライン・パラメータを求めるようにすれば、次式(12)により表現される射影変換行列P3×4は、HMDの装着位置がずれない限り定数となる。これ以降、前記射影変換行列P3×4の各要素を「HMDのキャリブレーション・パラメータ」と表現する場合もある。
本実施形態では、この射影変換行列P3×4をユーザ毎に、厳密にはユーザがHMDを装着するごとに計算することで、カメラ3が検出したARマーカ6に合わせてCGキャラクタ等をスクリーン2上に正確に表示することが可能となる。
ここで、前記非特許文献2で開示されているキャリブレーション方式では、射影変換行列P3×4の各要素を全て未知パラメータとして、11自由度(11DoF)の問題として扱ったため、解を得るために多くの点対応を必要とした。これに対して、本実施形態のHMD較正装置4では、前記(ii)のパラメータ群を予め求めておく事により、射影変換行列P3×4を3自由度(3DoF)、またkを未知とした場合でも4自由度(4DoF)の問題として扱えるため、従来技術よりも少ない点対応によりキャリブレーションを完了できる。
次いで、図2を改めて参照し、上記の基本構想を実現するための各構成要素の機能について詳細に説明する。前記マーカ検出部42は、カメラ3から提供されるカメラ画像内に存在するARマーカ6を検出し、その座標をカメラ位置姿勢推定部43へ出力する。
なお、カメラ画像に前記カメラ3に固有のレンズ歪みが生じている場合は、ARマーカ6を検出する前段の処理として、カメラ・キャリブレーションにより予め求めた歪みベクトルにより補正する。カメラ3に安価なWEBカメラを用いた場合、カメラレンズの半径方向や円周方向の歪みが顕著に見られることがあり、この補正を行わないとマーカ6の位置が正しく検出できず、結果として後段のカメラ3の位置および姿勢が正しく計算できない。
このような歪みを補正するための歪みベクトルおよび当該歪みベクトルの補正方法については、例えば「詳解 OpenCV ―コンピュータビジョンライブラリを使った画像処理・認識」(Gary Bradski, Adrian Kaehler 著 松田晃一 訳、オライリージャパン,2009)に示されている。
ARマーカ6として利用できるオブジェクトは、大きさおよび配置が既知の検出点を少なくとも4つ以上有し(この状態を形状が既知であると表現する)、各検出点をカメラ画像において特定できるものであればよい。また、点ではなく線分の対応が求まるものでもよい。さらには、事前に特徴を学習した自然画像をマーカとして用いてもよい。
図4は、ARマーカ6として利用可能な正方マーカの一例を示した図であり、カメラ画像に2値化処理を施すことでマーカ領域を抽出し、さらに内部の模様を認識することで、4つの頂点A、B、C、Dの各対応点を検出できる。
ARマーカ6における点または線分の配置は、マーカ6に任意の位置と向きとに設定したマーカ座標系により指定することが可能である。ARマーカ6が正方マーカであれば、図5に示したように、正方マーカの重心をマーカ座標系の原点としてもよい。これにより4頂点の座標が定まり、マーカ座標系(Xmar,Ymar,Zmar)における一つの頂点の座標とそれに対応するカメラ画像中の頂点の座標とを1組の対応点とし、少なくとも4組の対応点をカメラ位置姿勢部43へ出力できる。
カメラ位置姿勢推定部43は、入力された4組の対応点を利用してカメラ3(カメラ座標系)の位置および姿勢を推定し、これを3D-2D対応構成部44へ出力する。マーカ座標系に対するカメラ3(カメラ座標系)の位置および姿勢は、マーカ上の少なくとも4点に関する対応点または線分の対応から平面射影変換行列を求める計算により求めることができる。
なお、このような複数の対応点から平面射影変換行列を計算する方法は、CGを重畳表示するARシステムにおいては周知なので、ここでは説明を省略する。また、これ以降、マーカi(同一のマーカに対してi番目の試行で用いたマーカ)に対して求めたカメラ3の位置姿勢をWiと、このうち回転行列をRi、並進ベクトルをtiと表現する。
3D-2D対応構成部44は、入力されたカメラ3(カメラ座標系)の位置および姿勢から、マーカ座標系における一点の、カメラ座標系における3次元座標を計算し、それと同時に、ユーザに対してポインティング操作を要求して、当該一点がスクリーン2を通してユーザの目に入力される際のスクリーン平面上の2次元座標を取得する。そして、前記一点の3次元座標(カメラ座標系)および2次元座標(スクリーン平面)の対応関係で一組の対応点を構成し、これをオンライン・パラメータ推定部45へ出力する。
マーカ座標系に対するカメラ3の位置および姿勢は既知、すなわちマーカ座標系とカメラ3との位置関係は既知なので、ユーザがスクリーン2上でポインティングした特定の一点に対して、その現実空間上(マーカ座標系)の3次元座標を計算できる。
このような手動のポインティング操作は、マウスやタッチパネルによりカーソルを移動させて特定の一点と重なった位置でクリックまたはタップするといった操作としても良い。もしくは予めスクリーン2上の適当な位置に点や十字のマークを表示しておいて、このマークに特定の一点が重なるようにユーザが頭を動かし、重なったタイミングでキーボードやタッチパネルを操作するようにしても良い。
カメラ座標系における3次元座標を簡易に求めるために、本実施形態では、マーカ座標系の原点を特定の一点とする。これにより、カメラ座標系における3次元座標ti_cameraはtiとして求めることができる。特定の一点を原点としない場合は、そのマーカ座標系における3次元座標をti_markeriとすると、カメラ座標系における3次元座標ti_cameraは次式(13)により計算できる。
以上の処理により、マーカ6上の特定の一点に対して、カメラ座標系における3次元座標(Xi,Yi,Zi)とそれがスクリーン2に投影される点の2次元座標(ui,vi)との組が得られる。オンライン・パラメータ推定部45には、マーカiに関する情報として、3次元座標(Xi,Yi,Zi)、2次元座標(ui,vi)ならびにカメラ位置姿勢Riおよびtiが入力される。
オンライン・パラメータ推定部45は、複数回(本実施形態では、少なくとも2回)のポインティング操作により得られる複数組の3D-2D対応、マーカ座標系に対するカメラ3の位置および姿勢ならびに事前に求めたARシステムに特有なオフライン・パラメータから、ユーザの身体的特徴や装着具合に起因するオンライン・パラメータを推定し、これをキャリブレーション・パラメータ構成部46へ出力する。
オンライン・パラメータ構成部46は、入力された複数のマーカに関する情報のうち、そのマーカ座標系を基準座標系と設定するマーカを1つ選択する。これはランダムに選択してもよいし、複数のマーカの位置の重心点を計算し、マーカ座標系の原点がその重心点に一番近いものを選択してもよい。マーカの検出精度を尺度として検出精度が一番高いマーカを選択してもよい。
マーカjのマーカ座標系が基準座標系として選択されたものとして、基準座標系における各マーカの位置(X'i,Y'i,Z'i)が計算される。これはつまり、各マーカiのマーカjに対する相対的な位置関係を求めれば良いため、それぞれ次式(14)で計算できる。
以上により、オンライン・パラメータを求めるための事前処理は完了となる。以後、これまでに求めた情報に基づいてオンライン・パラメータを計算するための式(11)について更に言及する。
ここでは、マーカiに関する情報を上式(11)に当てはめることで、オンライン・パラメータについての拘束式を構成することを考える。上式(11)の(u,v)には(ui,vi)を、(X,Y,Z)には(X'i,Y'i,Z'i)を、r11〜r33、tX、tYおよびtZにはRjおよびtjの各要素を代入する。その結果、現段階で未知パラメータとして残っているのはオンライン・パラメータのみとなる。このとき、上式(11)を左辺のu,vについてそれぞれ展開することで、オンライン・パラメータに関する2つの拘束式(15),(16)を得ることができる。
ここで、α=kcX、β=kcY、γ=kfZ、δ=fZと置くと、4つのパラメータ(α、β、γ、δ)に対して2つの線形方程式が得られる。つまり、これを2組取得することで4つの方程式を構築できるため、4つのパラメータを線形最小二乗法により求めることができる。4つのパラメータが求まれば、次式(17),(18),(19),(20)によりオンライン・パラメータの計算が完了となる。
以上より、オンライン・パラメータを求めるためには少なくも2点のポインティング操作でよいことが分かる。
キャリブレーション・パラメータ構成部46は、入力されたオンライン・パラメータからカメラ座標系における一点をスクリーン平面に投影するための射影変換行列をARシステムのキャリブレーション・パラメータとして求める。これは、オフライン・パラメータおよびオンライン・パラメータを上式(11)に代入するだけでよい。
以上の説明にてキャリブレーション・パラメータの推定は完了となるが、以下にオフライン・パラメータの変更について補足しておく。
カメラ3がフレーム1に固定された状態で向きや位置を変更できる場合、オフライン・パラメータは常に一定値とはならないが、キャリブレーションを実施する段階さえカメラ3の向きおよび位置が固定であれば本発明の適用対象となる。つまり、カメラ3のフレーム1に対する向きおよび位置が固定された状態でキャリブレーションを実施し、オフライン・パラメータからオンライン・パラメータおよびキャリブレーション・パラメータを求める。オンライン・パラメータが一度求まれば、ユーザと装着したフレーム1との関係が固定である限り一定値となる。
以後、カメラ3のフレーム1に対する向きや位置が変更された場合に、変更後のオフライン・パラメータをその都度計算できるのであれば、上記の実施形態で言及した方式によりスクリーンに重畳表示することが可能である。
1…メガネ状フレーム,2…透過式スクリーン,3…カメラ,4…HMD較正装置(演算部),5…データベース,6…ARマーカ,41…カメラ画像取得部,42…マーカ検出部,43…カメラ位置姿勢推定部,44…3D-2D対応構成部,44a…ポインティング操作部,45…オンライン・パラメータ推定部,46…キャリブレーション・パラメータ構成部

Claims (12)

  1. HMDに固定されたカメラでマーカを撮影し、スクリーンに表示される仮想環境の座標系とスクリーンを通して視認される現実環境の座標系とのずれを較正する光学式シースルー型HMDを用いたARシステムにおいて、
    カメラ画像からマーカを検出してマーカ座標系とカメラ座標系との対応関係を求めるマーカ検知手段と、
    前記マーカ座標系とカメラ画像平面との対応関係に基づいて、マーカ座標系におけるカメラの位置および姿勢を推定するカメラ位置姿勢推定手段と、
    HMDを装着したユーザに、スクリーンを通して視認されるマーカ上の特定の一点を指定させるポインティング操作手段と、
    前記カメラの位置および姿勢の推定結果に基づいて、マーカ上の前記一点のカメラ座標系での3次元座標を、前記ポインティング操作手段により指定されたスクリーン平面での一点の2次元座標と対応付ける3D-2D対応構成手段と、
    前記カメラ座標系とスクリーン座標系との相対的な位置関係に固有のオフライン・パラメータを記憶する手段と
    前記複数回のポインティング操作により得られる各点の3次元座標および2次元座標の対応関係、前記カメラの位置および姿勢、ならびに前記オフライン・パラメータに基づいて、前記ユーザとHMDとの相対的な位置関係に固有のオンライン・パラメータを推定するオンライン・パラメータ推定手段と、
    前記オンライン・パラメータに基づいて、カメラ座標系上の一点をスクリーン平面に投影するための射影変換行列をキャリブレーション・パラメータとして求めるキャリブレーション・パラメータ構成手段とを具備したことを特徴とする光学式シースルー型HMDを用いたARシステム。
  2. 前記オフライン・パラメータが、スクリーン座標系とカメラ座標系との間の変換を表現する3自由度の回転行列および3自由度の並進ベクトルであることを特徴とする請求項1に記載の光学式シースルー型HMDを用いたARシステム。
  3. 前記オフライン・パラメータが、前記スクリーンのピクセル密度を更に含むことを特徴とする請求項2に記載の光学式シースルー型HMDを用いたARシステム。
  4. 前記ポインティング操作手段は、マウスまたはタッチパネルによりカーソルをスクリーン上で移動させ、前記一点と重なった位置を指定させることを特徴とする請求項1ないし3のいずれかに記載の光学式シースルー型HMDを用いたARシステム。
  5. 前記ポインティング操作手段は、ユーザの頭の動きを検知してカーソルをスクリーン上で移動させ、前記複数点のいずれかと重なった位置を指定させることを特徴とする請求項1ないし3のいずれかに記載の光学式シースルー型HMDを用いたARシステム。
  6. 前記オンライン・パラメータが、ユーザとスクリーンとの位置関係に起因する3自由度のパラメータであることを特徴とする請求項1ないし5のいずれかに記載の光学式シースルー型HMDを用いたARシステム。
  7. 前記オンライン・パラメータが、ユーザの目とスクリーンとの距離を示す1自由度のパラメータ、およびユーザが正面を向いた際のスクリーン上の視線の位置を示す2自由度のパラメータを含むことを特徴とする請求項1ないし5のいずれかに記載の光学式シースルー型HMDを用いたARシステム。
  8. 前記オンライン・パラメータが、スクリーンの1自由度のピクセル密度を更に含むことを特徴とする請求項6に記載の光学式シースルー型HMDを用いたARシステム。
  9. 前記オンライン・パラメータが、ユーザの目を光軸中心、視線を光軸、スクリーンを画像平面としたピンホールカメラモデルにおける1自由度の焦点距離と2自由度の光軸のずれであることを特徴とする請求項1ないし5のいずれかに記載の光学式シースルー型HMDを用いたARシステム。
  10. 前記オンライン・パラメータ推定部が、複数の試行により得た複数のマーカのうち、そのマーカ座標系を基準座標軸として使用するマーカを一つ選択することを特徴とする請求項1ないし9のいずれかに記載の光学式シースルー型HMDを用いたARシステム。
  11. 前記オンライン・パラメータ推定手段が、複数のマーカの3次元座標を基準座標軸における3次元座標として再計算することを特徴とする請求項1ないし9のいずれかに記載の光学式シースルー型HMDを用いたARシステム。
  12. 前記オフライン・パラメータが、キャリブレーションの段階のみにおいて前記スクリーンおよびカメラとの位置関係として固定されており、キャリブレーション以後に実施される前記スクリーンへの重畳表示の際に、前記スクリーンとカメラとの位置関係がオフライン・パラメ−タとして計算されることを特徴とする請求項1ないし11のいずれかに記載の光学式シースルー型HMDを用いたARシステム。

JP2012257918A 2012-11-26 2012-11-26 光学式シースルー型hmdを用いたarシステム Active JP6061334B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012257918A JP6061334B2 (ja) 2012-11-26 2012-11-26 光学式シースルー型hmdを用いたarシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012257918A JP6061334B2 (ja) 2012-11-26 2012-11-26 光学式シースルー型hmdを用いたarシステム

Publications (2)

Publication Number Publication Date
JP2014106642A true JP2014106642A (ja) 2014-06-09
JP6061334B2 JP6061334B2 (ja) 2017-01-18

Family

ID=51028095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012257918A Active JP6061334B2 (ja) 2012-11-26 2012-11-26 光学式シースルー型hmdを用いたarシステム

Country Status (1)

Country Link
JP (1) JP6061334B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014183554A (ja) * 2013-03-21 2014-09-29 Ntt Docomo Inc 表示装置
JP2016021097A (ja) * 2014-07-11 2016-02-04 Kddi株式会社 画像処理装置、画像処理方法、およびプログラム
WO2016141263A1 (en) * 2015-03-04 2016-09-09 Oculus Vr, Llc Sparse projection for a virtual reality system
WO2019004565A1 (ko) * 2017-06-29 2019-01-03 주식회사 맥스트 증강현실 객체의 정합을 위한 캘리브레이션 방법 및 이를 수행하기 위한 헤드 마운트 디스플레이
CN109579745A (zh) * 2018-11-26 2019-04-05 江苏科技大学 基于增强现实和手机软件的新型房屋面积测算方法
CN114593688A (zh) * 2022-03-03 2022-06-07 惠州Tcl移动通信有限公司 基于ar眼镜的三维测量方法、装置、ar眼镜及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284175A (ja) * 2008-05-21 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 表示デバイスのキャリブレーション方法及び装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284175A (ja) * 2008-05-21 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 表示デバイスのキャリブレーション方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016024862; 加藤博一,外3名: '"マーカー追跡に基づく拡張現実感システムとそのキャリブレーション"' 日本バーチャルリアリティ学会論文誌 第4巻,第4号, 1999, p.607-616, 日本バーチャルリアリティ学会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014183554A (ja) * 2013-03-21 2014-09-29 Ntt Docomo Inc 表示装置
JP2016021097A (ja) * 2014-07-11 2016-02-04 Kddi株式会社 画像処理装置、画像処理方法、およびプログラム
WO2016141263A1 (en) * 2015-03-04 2016-09-09 Oculus Vr, Llc Sparse projection for a virtual reality system
US10073263B2 (en) 2015-03-04 2018-09-11 Oculus Vr, Llc Sparse projection for a virtual reality system
WO2019004565A1 (ko) * 2017-06-29 2019-01-03 주식회사 맥스트 증강현실 객체의 정합을 위한 캘리브레이션 방법 및 이를 수행하기 위한 헤드 마운트 디스플레이
CN109579745A (zh) * 2018-11-26 2019-04-05 江苏科技大学 基于增强现实和手机软件的新型房屋面积测算方法
CN114593688A (zh) * 2022-03-03 2022-06-07 惠州Tcl移动通信有限公司 基于ar眼镜的三维测量方法、装置、ar眼镜及存储介质
CN114593688B (zh) * 2022-03-03 2023-10-03 惠州Tcl移动通信有限公司 基于ar眼镜的三维测量方法、装置、ar眼镜及存储介质

Also Published As

Publication number Publication date
JP6061334B2 (ja) 2017-01-18

Similar Documents

Publication Publication Date Title
JP6008397B2 (ja) 光学式シースルー型hmdを用いたarシステム
US11741624B2 (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least part of a real object at absolute spatial scale
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US20180101984A1 (en) Headset removal in virtual, augmented, and mixed reality using an eye gaze database
JP6061334B2 (ja) 光学式シースルー型hmdを用いたarシステム
KR20160121798A (ko) 직접적인 기하학적 모델링이 행해지는 hmd 보정
JP7238060B2 (ja) 情報処理装置及びその制御方法、並びに、プログラム
JP2016192132A (ja) 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
US20210377515A1 (en) Information processing device, information processing method, and program
JP2020052790A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
CN110969706B (zh) 增强现实设备及其图像处理方法、系统以及存储介质
US20240119610A1 (en) Smooth and Jump-Free Rapid Target Acquisition
JP2021009557A (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022119668A1 (en) Low motion to photon latency rapid target acquisition
JP6529160B2 (ja) Ar情報表示装置
WO2023054661A1 (ja) 注視位置分析システム及び注視位置分析方法
Kwon et al. Selective attentional point-tracking through a head-mounted stereo gaze tracker based on trinocular epipolar geometry
US11972549B2 (en) Frame selection for image matching in rapid target acquisition
US11941751B2 (en) Rapid target acquisition using gravity and north vectors
KR20040008456A (ko) 포즈추정을 이용한 스테레오/다시점 실감 혼합현실 구현장치 및 그 방법
US20230274384A1 (en) Image alignment using corner and line features
US20230122185A1 (en) Determining relative position and orientation of cameras using hardware
CN118071824A (en) Method for acquiring line-of-sight direction annotation data, model training method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160801

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161208

R150 Certificate of patent or registration of utility model

Ref document number: 6061334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150