JP6384856B2 - 予測カメラ姿勢に基づくarオブジェクトを実時間に合わせて描画する情報装置、プログラム及び方法 - Google Patents
予測カメラ姿勢に基づくarオブジェクトを実時間に合わせて描画する情報装置、プログラム及び方法 Download PDFInfo
- Publication number
- JP6384856B2 JP6384856B2 JP2014141911A JP2014141911A JP6384856B2 JP 6384856 B2 JP6384856 B2 JP 6384856B2 JP 2014141911 A JP2014141911 A JP 2014141911A JP 2014141911 A JP2014141911 A JP 2014141911A JP 6384856 B2 JP6384856 B2 JP 6384856B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- posture
- camera
- predicted
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Closed-Circuit Television Systems (AREA)
Description
「ビデオシースルー型」:重畳対象がカメラによって撮影されたプレビュー画像
「光学式シースルー型」:重畳対象が実空間そのもの
「光学式シースルー型」によれば、装着者がHMDスクリーンを通して観察する実空間に、オブジェクトのみを重畳的に表示する。カメラのプレビュー画像は、カメラ姿勢の算出のみに用いられる。算出されたカメラ姿勢を用いて、オブジェクトのみが、実空間の位置に合わせて表示される。これは、一般に、ユーザの視界の一部に仮想スクリーンを表示する光学式シースルー型HMDに適する。また、HMDの装着具合に応じてオブジェクトの重畳位置を補正する操作は、HMDのキャリブレーションと称される。
(S11)カメラによって、フレーム[1]がキャプチャされたとする。
(S12)フレーム[1]に対するカメラ姿勢の計算に、一定時間を要する。
(S13)カメラ姿勢の計算が終了した時点で、背景画像としてのフレーム[1]と、カメラ姿勢に基づいて射影変換したオブジェクト<1>とを同時に、ディスプレイに重畳的に表示する(例えば非特許文献1参照)。
(S21)カメラによって、フレーム[1]がキャプチャされたとする。そのフレーム[1]は直ぐにそのまま、重畳するオブジェクトの背景画像として、ディスプレイに表示される。
(S22)フレーム[1]に対するカメラ姿勢の計算に、一定時間を要する。
(S23)カメラ姿勢の計算が終了した際に、カメラ姿勢に基づいて射影変換したオブジェクト<1>を、その時点で表示されている背景画像に重畳的に表示する。この時点で、ディスプレイに表示されているプレビュー画像のフレームは、例えば[3]以降に進行している場合がある。
バックバッファを備えた描画制御手段から、フロントバッファを備えたディスプレイへ、表示レートの周期タイミングで垂直同期させて転送するものであり、
描画制御手段からフレーム取得命令が発生した時刻t1に、フレームバッファからバッファ時間Δt1前となる時刻t0に撮影されたフレームに対して、現カメラ姿勢を算出する現カメラ姿勢算出手段と、
時刻t1後の姿勢予測遅延時間Δt2を取得し、予測カメラ姿勢の計算を開始してから次の周期タイミングでの転送終了までの姿勢予測描画時間Δt3を、予測カメラ姿勢の算出可能時間以上であって且つディスプレイのリフレッシュレートの逆数の定数倍(≧1)に設定し、時刻t0のフレームに対する現カメラ姿勢から、「バッファ時間Δt1+姿勢予測遅延時間Δt2+姿勢予測描画時間Δt3」後に予測される予測カメラ姿勢を算出する予測カメラ姿勢算出手段と、
予測カメラ姿勢によってオブジェクトを射影変換した予測オブジェクトを、描画制御手段へ出力する予測オブジェクト生成手段と
を有することを特徴とする。
バックバッファを備えた描画制御手段から、フロントバッファを備えたディスプレイへ、表示レートの周期タイミングで垂直同期させて転送するものであり、
描画制御手段からフレーム取得命令が発生した時刻t1に、フレームバッファからバッファ時間Δt1前となる時刻t0に撮影されたフレームに対して、現カメラ姿勢を算出する現カメラ姿勢算出手段と、
時刻t1後の姿勢予測遅延時間Δt2を取得し、予測カメラ姿勢の計算を開始してから次の周期タイミングでの転送終了までの姿勢予測描画時間Δt3を、予測カメラ姿勢の算出可能時間以上であって且つディスプレイのリフレッシュレートの逆数の定数倍(≧1)に設定し、時刻t0のフレームに対する現カメラ姿勢から、「バッファ時間Δt1+姿勢予測遅延時間Δt2+姿勢予測描画時間Δt3」後に予測される予測カメラ姿勢を算出する予測カメラ姿勢算出手段と、
予測カメラ姿勢によってオブジェクトを射影変換した予測オブジェクトを、描画制御手段へ出力する予測オブジェクト生成手段と
してコンピュータを機能させることを特徴とする。
情報装置は、
バックバッファを備えた描画制御部から、フロントバッファを備えたディスプレイへ、表示レートの周期タイミングで垂直同期させて転送するものであり、
描画制御部からフレーム取得命令が発生した時刻t1に、フレームバッファからバッファ時間Δt1前となる時刻t0に撮影されたフレームに対して、現カメラ姿勢を算出する第1のステップと、
時刻t1後の姿勢予測遅延時間Δt2を取得し、予測カメラ姿勢の計算を開始してから次の周期タイミングでの転送終了までの姿勢予測描画時間Δt3を、予測カメラ姿勢の算出可能時間以上であって且つディスプレイのリフレッシュレートの逆数の定数倍(≧1)に設定し、時刻t0のフレームに対する現カメラ姿勢から、「バッファ時間Δt1+姿勢予測遅延時間Δt2+姿勢予測描画時間Δt3」後に予測される予測カメラ姿勢を算出する第2のステップと、
予測カメラ姿勢によってオブジェクトを射影変換した予測オブジェクトを、描画制御部へ出力する第3ステップと
を実行することを特徴とする。
描画制御部11は、ディスプレイ102に描画する画像を制御する。例えば光学式シースルー型HMDの場合、ユーザの視線の先には、ディスプレイ102を透過した現実空間が見える。この場合、描画制御部11は、予測オブジェクト生成部15から出力されたARオブジェクトのみを描画する。尚、情報装置1がHMDである場合、描画制御部11は、ビデオシースルー型又は光学式シースルー型のいずれのフレームワークであってもよい。描画制御部11は、以下の3つの描画方式のいずれであってもよい。
(方式1)シングルバッファリング (後述する図5参照)
(方式2)ダブルバッファリング+垂直同期無し(後述する図6参照)
(方式3)ダブルバッファリング+垂直同期有り(後述する図7参照)
フレームバッファ12は、カメラ101によってキャプチャされたフレームを連続的にバッファする。フレームバッファ12は、フレームを描画制御部11へ出力すると共に、現カメラ姿勢算出部13から参照される。
現カメラ姿勢算出部13は、描画制御部11から「フレーム取得命令」が発生した時刻t1に、フレームバッファからバッファ時間Δt1前となる時刻t0のフレームに対して、「現カメラ姿勢」を算出する。
Δt1=フレーム取得命令の発生時刻t1−フレームのキャプチャ時刻t0
予測カメラ姿勢算出部14は、時刻t1からの経過時間である姿勢予測遅延時間Δt2を取得し、時刻t0のフレームに対する現カメラ姿勢から、少なくとも「バッファ時間Δt1+姿勢予測遅延時間Δt2」後に予測される予測カメラ姿勢を算出する。算出された予測カメラ姿勢は、予測オブジェクト生成部15へ出力される。
Δt2=姿勢予測演算開始時刻t2−フレーム取得命令の発生時刻t1
尚、カメラキャプチャスレッドのフレームレートfcによれば、姿勢予測遅延時間Δt2は、カメラ姿勢の計算に要した時間Δtwを用いて、以下の範囲となる。
Δtw ≦ Δt2 < 1/fc+Δtw
姿勢予測描画時間Δt3は、例えば以下のいずれであってもよい。
(1)1ステップ前のカメラ姿勢の予測計算とオブジェクトの描画処理に要した時間
(2)過去複数ステップのカメラ姿勢の予測計算とオブジェクトの描画処理に要した時間の平均時間
あくまで、本発明によれば、予測カメラ姿勢を、「いつの時刻」のもので予測するか、が重要であって、予測アルゴリズムについては何ら限定するものではない。
予測オブジェクト生成部15は、予測カメラ姿勢によってオブジェクトを射影変換した予測オブジェクトを、描画制御部11へ出力する。
図5は、本発明におけるシングルバッファリングのフレームワークの説明図である。
姿勢予測描画時間Δt3=
予測カメラ姿勢の算出時間Δt4+予測オブジェクトの生成時間Δt5
図6は、本発明におけるダブルバッファリング(垂直同期無し)のフレームワークの説明図である。
姿勢予測描画時間Δt3=
予測カメラ姿勢の算出時間Δt4+予測オブジェクトの生成時間Δt5
+バックバッファからフロントバッファへの転送時間Δt6
図7は、本発明におけるダブルバッファリング(垂直同期有り)のフレームワークの説明図である。
fc[Hz]:カメラによってキャプチャされるフレームレート
fd[Hz]:垂直同期のリフレッシュレート
姿勢予測描画時間Δt3=
予測カメラ姿勢の算出時間Δt4
+予測オブジェクトの生成(バックバッファへの描画)時間Δt5
+(垂直同期待ち+バックバッファからフロントバッファへの転送)時間Δt6
尚、姿勢予測描画時間Δt3は、結果として1/fd(リフレッシュレート)となる。
Δt3=1/fd
Δt3=α/fd
where ((α-1))/fd ≦ Δt4 < α/fd (α=1,2,3・・・)
情報装置1が所定「マーカ」を予め記憶しており、カメラによってキャプチャされたフレーム内に、その「マーカ」が映っているとする。両者のマーカを比較することによって、カメラ姿勢を算出することができる。この場合、カメラ姿勢は、例えば平面射影変換行列である。以下の2つの処理ステップが実行される。
(ステップ1)点対応計算処理
(ステップ2)平面射影変換行列計算処理
点対応計算処理は、カメラによってキャプチャされたフレーム画像から局所特徴量を抽出し、マーカ画像の特徴点pとフレーム画像の特徴点p'との間の点対応P={(p, p')}を計算する。
座標p=(x,y)、方向θ、局所特徴ベクトルf
尚、点対応を検出する画像間では、その特徴ベクトルについて同じ次元数である。
(1)局所特徴点間の距離に基づいて点対応をソートし、距離が所定閾値以下の点対応のみを用いる。
(2)局所特徴点間の距離に基づいて点対応をソートし、距離が1番目に近いものと2番目に近いものを探索し、それらの距離の比(2番目との距離に対する1番目との距離)が所定閾値以下のものを用いる。
(3)その他、計算コストに優れるバイナリ特徴量や、SSD(Sum of Squared Difference)、正規化相互相関(NCC)等も用いることもできる。
平面射影変換行列計算処理は、点対応毎に、マーカ画像とフレーム画像との間の平面射影変換行列を計算する。
(1)マーカ画像の特徴点に対して所定閾値以下の近くに射影されれば、inlierと判定する。
(2)逆に、所定閾値よりも遠くに射影されれば、outlierと判定する。
この処理を複数回実行した後、inlierの数が所定閾値以上となったHomography行列Hのみを採用する。
前述したカメラ姿勢は、マーカ画像及びフレーム画像から算出されたものであるが、超音波センサ(例えば非特許文献4参照)や、磁気センサ(例えば非特許文献5参照)、赤外線センサ(例えば非特許文献6参照)から算出されたものであってもよい。 これらのセンサを使用する際は、HMDの筐体及び重畳対象のオブジェクトに各種センサを装着した上で、HMDとオブジェクトとの間の相対姿勢を算出するためのトランスミッタや赤外カメラを環境側に設置する必要がある。
101 カメラ
102 ディスプレイ
11 描画制御部
12 フレームバッファ
13 現カメラ姿勢算出部
14 予測カメラ姿勢算出部
15 予測オブジェクト生成部
Claims (3)
- カメラと、ディスプレイと、前記カメラによってキャプチャされたフレームをバッファするフレームバッファと、前記ディスプレイにオブジェクトを描画する描画制御手段とを有する情報装置において、
バックバッファを備えた前記描画制御手段から、フロントバッファを備えた前記ディスプレイへ、表示レートの周期タイミングで垂直同期させて転送するものであり、
前記描画制御手段からフレーム取得命令が発生した時刻t1に、前記フレームバッファからバッファ時間Δt1前となる時刻t0に撮影されたフレームに対して、現カメラ姿勢を算出する現カメラ姿勢算出手段と、
時刻t1後の姿勢予測遅延時間Δt2を取得し、予測カメラ姿勢の計算を開始してから次の周期タイミングでの転送終了までの姿勢予測描画時間Δt3を、予測カメラ姿勢の算出可能時間以上であって且つ前記ディスプレイのリフレッシュレートの逆数の定数倍(≧1)に設定し、時刻t0のフレームに対する現カメラ姿勢から、「バッファ時間Δt1+姿勢予測遅延時間Δt2+姿勢予測描画時間Δt3」後に予測される予測カメラ姿勢を算出する予測カメラ姿勢算出手段と、
前記予測カメラ姿勢によって前記オブジェクトを射影変換した予測オブジェクトを、前記描画制御手段へ出力する予測オブジェクト生成手段と
を有することを特徴とする情報装置。 - カメラ及びディスプレイを有する情報装置に搭載されたコンピュータを機能させるプログラムであって、前記カメラによってキャプチャされたフレームをバッファするフレームバッファと、前記ディスプレイにオブジェクトを描画する描画制御手段として機能させるプログラムにおいて、
バックバッファを備えた前記描画制御手段から、フロントバッファを備えた前記ディスプレイへ、表示レートの周期タイミングで垂直同期させて転送するものであり、
前記描画制御手段からフレーム取得命令が発生した時刻t1に、前記フレームバッファからバッファ時間Δt1前となる時刻t0に撮影されたフレームに対して、現カメラ姿勢を算出する現カメラ姿勢算出手段と、
時刻t1後の姿勢予測遅延時間Δt2を取得し、予測カメラ姿勢の計算を開始してから次の周期タイミングでの転送終了までの姿勢予測描画時間Δt3を、予測カメラ姿勢の算出可能時間以上であって且つ前記ディスプレイのリフレッシュレートの逆数の定数倍(≧1)に設定し、時刻t0のフレームに対する現カメラ姿勢から、「バッファ時間Δt1+姿勢予測遅延時間Δt2+姿勢予測描画時間Δt3」後に予測される予測カメラ姿勢を算出する予測カメラ姿勢算出手段と、
前記予測カメラ姿勢によって前記オブジェクトを射影変換した予測オブジェクトを、前記描画制御手段へ出力する予測オブジェクト生成手段と
してコンピュータを機能させることを特徴とするプログラム。 - カメラと、ディスプレイと、前記カメラによってキャプチャされたフレームをバッファするフレームバッファと、前記ディスプレイにオブジェクトを描画する描画制御部とを有する情報装置の描画制御方法において、
前記情報装置は、
バックバッファを備えた前記描画制御部から、フロントバッファを備えた前記ディスプレイへ、表示レートの周期タイミングで垂直同期させて転送するものであり、
前記描画制御部からフレーム取得命令が発生した時刻t1に、前記フレームバッファからバッファ時間Δt1前となる時刻t0に撮影されたフレームに対して、現カメラ姿勢を算出する第1のステップと、
時刻t1後の姿勢予測遅延時間Δt2を取得し、予測カメラ姿勢の計算を開始してから次の周期タイミングでの転送終了までの姿勢予測描画時間Δt3を、予測カメラ姿勢の算出可能時間以上であって且つ前記ディスプレイのリフレッシュレートの逆数の定数倍(≧1)に設定し、時刻t0のフレームに対する現カメラ姿勢から、「バッファ時間Δt1+姿勢予測遅延時間Δt2+姿勢予測描画時間Δt3」後に予測される予測カメラ姿勢を算出する第2のステップと、
前記予測カメラ姿勢によって前記オブジェクトを射影変換した予測オブジェクトを、前記描画制御部へ出力する第3ステップと
を実行することを特徴とする情報装置の描画制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141911A JP6384856B2 (ja) | 2014-07-10 | 2014-07-10 | 予測カメラ姿勢に基づくarオブジェクトを実時間に合わせて描画する情報装置、プログラム及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141911A JP6384856B2 (ja) | 2014-07-10 | 2014-07-10 | 予測カメラ姿勢に基づくarオブジェクトを実時間に合わせて描画する情報装置、プログラム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016019199A JP2016019199A (ja) | 2016-02-01 |
JP6384856B2 true JP6384856B2 (ja) | 2018-09-05 |
Family
ID=55234103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014141911A Active JP6384856B2 (ja) | 2014-07-10 | 2014-07-10 | 予測カメラ姿勢に基づくarオブジェクトを実時間に合わせて描画する情報装置、プログラム及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6384856B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020083318A1 (zh) * | 2018-10-23 | 2020-04-30 | 中兴通讯股份有限公司 | 平视显示系统、显示方法和汽车 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10089725B2 (en) * | 2016-02-09 | 2018-10-02 | Google Llc | Electronic display stabilization at a graphics processing unit |
KR101953578B1 (ko) * | 2017-10-19 | 2019-03-04 | 서울과학기술대학교 산학협력단 | 클라우드 기반의 가상현실 서비스를 위한 콘텐츠 가공 방법 및 장치 |
KR101953567B1 (ko) * | 2017-11-03 | 2019-03-04 | 서울과학기술대학교 산학협력단 | 가상현실 서비스를 위한 콘텐츠 후처리 방법 |
KR102103430B1 (ko) * | 2018-11-08 | 2020-04-22 | 서울과학기술대학교 산학협력단 | 클라우드에 기반한 가상현실 서비스의 레이턴시 측정방법 및 시스템 |
CN110351528A (zh) * | 2019-07-30 | 2019-10-18 | 四川博文讯通科技有限公司 | 一种基于ar化实景聚合的指挥平台 |
JPWO2021106136A1 (ja) * | 2019-11-28 | 2021-06-03 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3745117B2 (ja) * | 1998-05-08 | 2006-02-15 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP2002159019A (ja) * | 2000-11-16 | 2002-05-31 | Canon Inc | 表示制御装置、撮影位置推測装置、表示システム、撮影システム、画像位置決め方法、撮影位置推測方法、及び処理プログラムを記録した記録媒体 |
JP2012002952A (ja) * | 2010-06-15 | 2012-01-05 | Panasonic Corp | 画像表示制御装置及び画像表示制御方法 |
-
2014
- 2014-07-10 JP JP2014141911A patent/JP6384856B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020083318A1 (zh) * | 2018-10-23 | 2020-04-30 | 中兴通讯股份有限公司 | 平视显示系统、显示方法和汽车 |
Also Published As
Publication number | Publication date |
---|---|
JP2016019199A (ja) | 2016-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6384856B2 (ja) | 予測カメラ姿勢に基づくarオブジェクトを実時間に合わせて描画する情報装置、プログラム及び方法 | |
Kellnhofer et al. | Gaze360: Physically unconstrained gaze estimation in the wild | |
KR101950641B1 (ko) | 향상된 안구 추적을 위한 장면 분석 | |
US9947141B2 (en) | Method of image processing for an augmented reality application | |
CN108229284B (zh) | 视线追踪及训练方法和装置、系统、电子设备和存储介质 | |
EP3195595B1 (en) | Technologies for adjusting a perspective of a captured image for display | |
TWI540461B (zh) | 手勢輸入的方法及系統 | |
KR20220009393A (ko) | 이미지 기반 로컬화 | |
WO2019011249A1 (zh) | 一种图像中物体姿态的确定方法、装置、设备及存储介质 | |
Sugano et al. | Appearance-based gaze estimation with online calibration from mouse operations | |
JP2017523487A (ja) | 適応ホモグラフィ写像に基づく視線追跡 | |
JP2008194146A (ja) | 視線検出装置及びその方法 | |
US11159645B2 (en) | Adaptive backchannel synchronization for virtual, augmented, or mixed reality (xR) applications in edge cloud architectures | |
JP2011008687A (ja) | 画像処理装置 | |
KR102450236B1 (ko) | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체 | |
US10600202B2 (en) | Information processing device and method, and program | |
US20210256733A1 (en) | Resolving region-of-interest (roi) overlaps for distributed simultaneous localization and mapping (slam) in edge cloud architectures | |
CN107977082A (zh) | 一种用于呈现ar信息的方法及系统 | |
JP2019144830A (ja) | 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法 | |
US20180020203A1 (en) | Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium | |
Yi et al. | EgoLocate: Real-time motion capture, localization, and mapping with sparse body-mounted sensors | |
Uddin et al. | Unsupervised deep event stereo for depth estimation | |
KR101273634B1 (ko) | 모바일 기기를 이용하는 증강현실 환경에서 복수 객체 추적방법 및 이를 이용한 시스템 | |
JP2016151612A (ja) | プロジェクションマッピング装置、遅延補償装置、遅延補償方法および遅延補償プログラム | |
Li et al. | A low-cost head and eye tracking system for realistic eye movements in virtual avatars |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170817 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180301 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180301 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6384856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |