JP2020008917A - 拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラム - Google Patents

拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラム Download PDF

Info

Publication number
JP2020008917A
JP2020008917A JP2018126605A JP2018126605A JP2020008917A JP 2020008917 A JP2020008917 A JP 2020008917A JP 2018126605 A JP2018126605 A JP 2018126605A JP 2018126605 A JP2018126605 A JP 2018126605A JP 2020008917 A JP2020008917 A JP 2020008917A
Authority
JP
Japan
Prior art keywords
marker
virtual object
image
data
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018126605A
Other languages
English (en)
Inventor
村上 知広
Tomohiro Murakami
知広 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eidea Inc
Original Assignee
Eidea Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eidea Inc filed Critical Eidea Inc
Priority to JP2018126605A priority Critical patent/JP2020008917A/ja
Publication of JP2020008917A publication Critical patent/JP2020008917A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】汎用性のある一般的な撮像装置を用いて、仮想オブジェクトの画像のマルチアングル表示が可能な拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラムを提供する。【解決手段】拡張現実表示システム1は、ARマーカ3と、ユーザ端末5と、管理サーバ7とから構成されている。ユーザ端末5には、拡張現実表示用コンピュータプログラムがインストールされており、スケール決定部27Aと、傾斜角測定部27Bと、方位角測定部27Cと、演算部27Dと、仮想オブジェクト・データ取得部27Eと、合成用二次元画像データ生成部27Fと、合成画像生成部27Gが実現されている。ユーザ端末5を用いて、ARマーカ3を撮像すると、合成画像生成部27Gは、ARマーカ3を含む画像中のARマーカ3の画像に代えて、仮想オブジェクトの合成用二次元画像データに基づく仮想オブジェクトの画像を背景画像中に合成する。【選択図】 図1

Description

本発明は、所定の場所に設置したARマーカを含む画像を撮像装置で撮像することで、ARマーカを含む画像を背景画像として取得し、背景画像中のARマーカの画像に代えてデータ記憶部に記憶された仮想オブジェクトの画像を背景画像中に合成して表示画面に表示する拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラムに関するものである。
カメラを内蔵したスマートフォンやタブレット端末等のユーザ端末を用いて、背景画像にキャラクタ等の仮想オブジェクトの画像を合成して表示画面に表示する拡張現実表示システム(AR:Augmented Reality)が開発・実用化されている。
例えば、任天堂株式会社等が提供しているアプリケーションソフト「ポケモンGO」(http://www.pokemongo.jp/・非特許文献1)は、GPS(Global Positioning System)及び3軸ジャイロ等の端末が内蔵しているセンサ類を用いて、簡易的にARを実現している。
KDDI株式会社等が提供しているサービス「ミクさんぽ」(https://www.au.com/lp/mikusanpo/・非特許文献2)は、Google社が提供している空間認識技術である「Tango」に対応した端末(https://www3.lenovo.com/jp/ja/tango/)を用いたARの例である。「Tango」に対応した端末は、通常のカメラの他、赤外線カメラ及びモーショントラッキングカメラを備えており、物体の大きさ、物体までの距離、物体の動き等を含むDepth情報を取得可能である。Depth情報を利用することで、キャラクタの前に存在し、キャラクタを隠す遮蔽物を考慮した遮蔽処理を施した合成画像を出力することが可能である。また、キャラクタのマルチアングル表示(360°表示)も可能である。
Apple社が提供しているフレームワーク「ARKit」も端末を用いたARの例である(https://www.apple.com/jp/ios/augmented-reality/・非特許文献3)。水平面を認識することが可能であることが特徴であり、水平面を基準にして、違和感の少ないAR画像を合成可能になっている。
また、ARに関する技術ではないが、特開2004−280728号公報(特許文献1)に記載の発明は、建造物の建設予定地の背景画像に、完成予定の建造物のCG画像を合成する技術に関するものである。違和感のない合成画像にするために、次のステップを実行している。
・建設予定地に設置した基準マーカーを利用してキャリブレーション(校正)用のカメラパラメータを取得;
・キャリブレーション済みのカメラパラメータを用いて、建造物の三次元画像データを二次元画像データに変換;
・キャリブレーション済みのカメラを用いて、建設予定地を撮影;
・建設予定地の二次元画像データに、建造物の二次元画像データを貼り込み合成する。
特開2004−280728号公報
任天堂株式会社等「ポケモンGO」(平成30年5月21日検索)インターネット<http://www.pokemongo.jp/> KDDI株式会社等「ミクさんぽ」(平成30年5月21日検索)インターネット<https://www.au.com/lp/mikusanpo/> Apple社「ARKit」(平成30年5月21日検索)インターネット<https://www.apple.com/jp/ios/augmented-reality>
非特許文献1の「ポケモンGO」は、端末を動かすと、そのアングルに追従することができない。また、端末と表示されている仮想オブジェクトの間に、仮想オブジェクトを遮蔽してしまう物(以下、「遮蔽物」)が存在する場合でも、その物を遮蔽物として認識することができないため、遮蔽物を考慮した画像処理(以下、「遮蔽処理」)ができない。
非特許文献2の「ミクさんぽ」は、「Tango」に対応した端末、すなわち、Depth情報が得られる端末でしか利用することができず、汎用性に欠ける。また、発明者が試したところ、遮蔽処理や、スケールの再現に以下のような課題が存在する。
・壁の正面にキャラクタが立っているとして画面表示されている状態から、端末を壁際に移動し、壁に沿ってキャラクタを撮像すると、本来であれば、キャラクタの横顔(側面)が表示されるべきであるにもかかわらず、正面を向いたキャラクタ画像が表示されることがある;
・壁の正面にキャラクタが立っているとして画面表示されている状態から、端末を壁の反対側に移動させると、本来であれば、キャラクタは壁に遮蔽されるべきであるにもかかわらず、正面を向いたキャラクタ画像が表示されることがある。
非特許文献3の「ARKit」は、一部の限られた端末でしか利用できず、また、遮蔽処理ができない。
特許文献1に記載の技術は、ARに関する技術ではなく、CG画像を生成するためのものである。したがって、1つの視点からみた場合のCG画像しか得ることができず、仮想オブジェクトの任意の角度からの表示(マルチアングル表示)をすることはできない。また、遮蔽処理を行うものではない。
本発明の目的は、特殊な撮像装置ではなく、汎用性のある一般的な撮像装置を用いて、仮想オブジェクトの画像のマルチアングル表示が可能な拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラムを提供することにある。
また、本発明の他の目的は、遮蔽処理が可能な拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラムを提供することにある。
本発明の拡張現実表示システムは、所定の場所に設置したARマーカを含む画像を撮像装置で撮像することで、ARマーカを含む画像を背景画像として取得し、背景画像中のARマーカの画像に代えてデータ記憶部に記憶された仮想オブジェクトの画像を背景画像中に合成して表示画面に表示するものである。
ARマーカは、垂直方向の既知の位置に、垂直方向の長さが既知であるスケール計測用パターンを備え、スケール計測用パターンはARマーカの全周に連続するように設けられている。ARマーカは、全周を撮像可能な三次元形態のものを想定しており、例えば、直立させたポール型、上から吊り下げた吊り下げ型等の形態を含む。
撮像装置は、カメラを内蔵したスマートフォンやタブレット端末等のユーザ端末を想定しているがこれに限られるものではない。例えば、コンピュータプログラムをインストール可能なデジタルカメラ等でもよい。撮像装置は、スケール決定部と、傾斜角測定部と、方位角測定部と、演算部と、仮想オブジェクト・データ取得部と、合成用二次元画像データ生成部と、合成画像生成部とを備えている。
スケール決定部は、背景画像中におけるARマーカのスケール計測用パターンの長さ(Vmt)とスケール計測用パターンの実際の長さ(Hm)とからスケール(Sct)を求める。
傾斜角測定部は、ARマーカを撮像したときの撮像装置の傾斜角(θt)を測定する。スマートフォンやタブレット端末等のユーザ端末の場合には、傾斜角測定部は、多くのユーザ端末が搭載している3軸ジャイロセンサ(角速度センサ)等を利用することができる。
方位角測定部は、ARマーカを撮像したときのARマーカに対する撮像装置の位置の方位角(φt)を測定する。スマートフォンやタブレット端末等のユーザ端末の場合には、方位角測定部は、多くのユーザ端末が搭載している方位角センサ等を利用することができる。
演算部は、スケール計測用パターンの既知の位置の高さ寸法(Hp)、スケール(Sct)及び傾斜角(θt)に基づいて、撮像時におけるARマーカと撮像装置との間の距離(Dt)及び撮像装置の高さ(Ht)を演算する。
仮想オブジェクト・データ取得部は、仮想オブジェクト特定情報に基づいて仮想オブジェクトを特定し、データ記憶部から仮想オブジェクトの三次元画像データを取得する。データ記憶部は、撮像装置内に存在していてもよく、また、撮像装置と電気通信回線を介して接続されたサーバ内に存在していてもよい。
合成用二次元画像データ生成部は、ARマーカと撮像装置との間の距離(Dt)、撮像装置の高さ(Ht)、傾斜角(θt)及び方位角(φt)並びに仮想オブジェクトの三次元画像データに基づいて、仮想オブジェクトの合成用二次元画像データを生成する。そして、合成画像生成部は、ARマーカを含む画像中のARマーカの画像に代えて、仮想オブジェクトの合成用二次元画像データに基づく仮想オブジェクトの画像を背景画像中に合成する。このように構成されているため、本発明によれば、特殊な撮像装置ではなく、汎用性のある一般的な撮像装置を用いて、仮想オブジェクトの画像のマルチアングル表示が可能となる。
なお、ARマーカには、ARマーカの全周に連続するように設けられた、ARマーカの方位角を示す方向認識マークパターンをさらに備えるようにしてもよい。この場合、方位角測定部は、ARマーカを含む画像中の方向認識マークパターンに基づいてARマーカに対する撮像装置の位置の方位角(φt)を測定するように構成すればよい。このようにすれば、撮像装置が方位角センサを搭載していないような場合や、ARマーカが設置されている場所の地磁気が安定せず、方位角センサで取得できる方位角に誤差が生じる場合でも、正確に方位角を取得可能である。
演算部が、撮像時におけるARマーカと撮像装置との間の距離(Dt)及び撮像装置の高さ(Ht)を演算する手法は任意である。例えば、撮像装置自体が撮像素子の画素数情報を有している場合や、ユーザが利用している撮像装置の機種が特定されることで、撮像素子の画素数情報を特定できる場合には、その画素数情報を利用すれば、容易に演算が可能である。本明細書において、画素数情報とは、被写体に対して、撮像素子の縦方向に並ぶピクセル数、及び、横方向に並ぶピクセル数に関する情報である。
画素数情報を利用できない場合には、仮想オブジェクトの合成を行うに先立って、校正を行い、基準となる基準スケールを取得し、これを利用することもできる。具体的には、スケール決定部は、ARマーカから所定の距離(Ds)離れた位置からARマーカを含む背景画像を撮像した時の背景画像中のスケール計測用パターンの長さ(Vms)とスケール計測用パターンの実際の長さ(Hm)とから基準スケール(Scs)を取得し、この基準スケールにも基づいて、ARマーカと撮像装置との間の距離(Dt)及び撮像装置の高さ(Ht)を演算することもできる。
ARマーカの周囲に遮蔽物が存在し、撮像装置とARマーカの間に、遮蔽物が位置する場合には、遮蔽処理を行わないと、本来であれば遮蔽物の後ろに表示されるべき仮想オブジェクトが遮蔽物の前に表示されてしまい、違和感のある画像表示になり得る。そこで、本発明の拡張現実表示システムは、遮蔽物を考慮した画像表示を可能にするため、データ記憶部に、ARマーカとARマーカの周囲に存在する固定物までの距離(Df)と、ARマーカに対する固定物の位置の方位角(φf)と、固定物の高さ(Hf)を含む固定物に関する固定物データマップをさらに記憶していてもよい。そして、撮像装置の仮想オブジェクト・データ取得部は、固定物データマップも取得し、合成用二次元画像データ生成部は、固定物データマップ並びにARマーカと撮像装置との間の距離(Dt)及び方位角(φt)に基づいて、ARマーカと撮像装置との間に固定物が存在するか否かを判断する。そして、合成用二次元画像データ生成部は、固定物が存在する場合には、固定物による遮蔽データを生成し、遮蔽データを仮想オブジェクトの合成用二次元画像データに重ねて仮想オブジェクトの合成用二次元画像データとするようにしてもよい。このようにすれば、ARマーカの周囲に存在する固定物を考慮した遮蔽処理を行うことができ、違和感のない合成画像を提供することができる。なお、本明細書において「固定物」とは、ARマーカの周囲に存在し、地面、床、壁等に固定され、通常は移動させることができない物のことをいう。
固定物データマップの作成手法は任意である。例えば、ARマーカの設置場所を中心として、LIDAR(LIght Detection and Ranging)技術を利用した3Dスキャナ等の3Dスキャナを用いて得られた3次元データに基づいて作成することもできる。
上記遮蔽処理に加えて、または、それとは別に、他の遮蔽処理も行ってもよい。例えば、合成用二次元画像データ生成部は、ARマーカと重なり、ARマーカを遮る移動物が存在するか否かを判断し、移動物が存在する場合には、移動物を抽出して移動物による遮蔽データを生成し、遮蔽データを仮想オブジェクトの合成用二次元画像データに重ねて仮想オブジェクトの合成用二次元画像データとするようにしてもよい。
また、合成用二次元画像データ生成部は、第1の背景画像と、第1の背景画像と方位角だけがずれた第2の背景画像を取得し、第1の背景画像と、第2の背景画像とを比較し、第1の背景画像に含まれているARマーカと、第2の背景画像に含まれているARマーカとの間に生じている基準視差よりも大きな視差が生じている移動物及び固定物の少なくとも一方をターゲットとして抽出して、ターゲットによる遮蔽データを生成し、遮蔽データを仮想オブジェクトの合成用二次元画像データに重ねて仮想オブジェクトの合成用二次元画像データとするようにしてもよい。第1の背景画像と第2の背景画像は、静止画を撮像するモードで左右に撮像装置をずらして1枚ずつ取得してもよく、動画を撮像するモードで連続的に撮像した中から適切なもの(例:左右のずれが20cm程度のもの)を選択して取得してもよい。撮像装置が、2枚の背景画像を同時に取得可能な二眼式のものであれば、それによって得られた背景画像を利用することもできる。
仮想オブジェクト特定情報は、仮想オブジェクトを特定できれば、どのようなものでもよい。例えば、ARマーカに、ARマーカの全周に連続するように設けられた識別コードパターンを備えておき、仮想オブジェクト・データ取得部が、ARマーカを含む画像中の識別コードパターンに基づいて、仮想オブジェクトを特定してもよい。識別コードパターンは、どの角度からARマーカを撮像した場合でも仮想オブジェクトを特定できるように、同じ識別コードが複数繰り返し連続して設けられているものが好ましい。他に、例えば、撮像装置がGPS機能を搭載している場合には、ARマーカを撮像したときのGPSによる座標情報(緯度・経度)に基づいて、ユーザが撮像したARマーカを特定し、仮想オブジェクトを特定してもよい。
本発明は拡張現実表示方法としても把握する(または表現する)ことができる。
所定の場所に設置したARマーカを含む画像を撮像装置で撮像することで、ARマーカを含む画像を背景画像として取得し、背景画像中のARマーカの画像に代えてデータ記憶部に記憶された仮想オブジェクトの画像を背景画像中に合成して表示画面に表示する拡張現実表示方法であって、ARマーカは、垂直方向の既知の位置に、垂直方向の長さが既知であるスケール計測用パターンを備え、スケール計測用パターンはARマーカの全周に連続するように設けられており、背景画像中におけるARマーカのスケール計測用パターンの長さ(Vmt)とスケール計測用パターンの実際の長さ(Hm)とからスケール(Sct)を求めるスケール算出ステップと、ARマーカを撮像したときの撮像装置の傾斜角(θt)を測定する傾斜角測定ステップと、ARマーカに対する撮像装置の位置の方位角(φt)を測定する方位角測定ステップと、スケール計測用パターンの既知の位置の高さ寸法(Hp)、スケール(Sct)及び傾斜角(θt)に基づいて、撮像時におけるARマーカと撮像装置との間の距離(Dt)及び撮像装置の高さ(Ht)を演算する演算ステップと、仮想オブジェクト特定情報に基づいて仮想オブジェクトを特定し、データ記憶部から仮想オブジェクトの三次元画像データを取得する仮想オブジェクト・データ取得ステップと、ARマーカと撮像装置との間の距離(Dt)、撮像装置の高さ(Ht)、傾斜角(θt)及び方位角(φt)並びに仮想オブジェクトの三次元画像データに基づいて、仮想オブジェクトの合成用二次元画像データを生成する仮想オブジェクトの合成用二次元画像データ生成ステップと、ARマーカを含む画像中のARマーカの画像に代えて、仮想オブジェクトの合成用二次元画像データに基づく仮想オブジェクトの画像を背景画像中に合成する合成画像生成ステップとを撮像装置が実行する。
本発明は表示データ作成用コンピュータプログラムとしても把握する(または表現する)ことができる。
所定の場所に設置したARマーカを含む画像を撮像装置で撮像することで、ARマーカを含む画像を背景画像として取得し、背景画像中のARマーカの画像に代えてデータ記憶部に記憶された仮想オブジェクトの画像を背景画像中に合成して表示画面に表示するために、撮像装置に搭載されたコンピュータにインストールされて実行される拡張現実表示用コンピュータプログラムであって、ARマーカは、垂直方向の既知の位置に、垂直方向の長さが既知であるスケール計測用パターンを備え、スケール計測用パターンはARマーカの全周に連続するように設けられており、背景画像中におけるARマーカのスケール計測用パターンの長さ(Vmt)とスケール計測用パターンの実際の長さ(Hm)とからスケール(Sct)を求めるスケール決定部と、ARマーカを撮像したときの撮像装置の傾斜角(θt)を測定する傾斜角測定部と、ARマーカに対する撮像装置の位置の方位角(φt)を測定する方位角測定部と、スケール計測用パターンの既知の位置の高さ寸法(Hp)、スケール(Sct)及び傾斜角(θt)に基づいて、撮像時におけるARマーカと撮像装置との間の距離(Dt)及び撮像装置の高さ(Ht)を演算する演算部と、仮想オブジェクト特定情報に基づいて仮想オブジェクトを特定し、データ記憶部から仮想オブジェクトの三次元画像データを取得する仮想オブジェクト・データ取得部と、ARマーカと撮像装置との間の距離(Dt)、撮像装置の高さ(Ht)、傾斜角(θt)及び方位角(φt)並びに仮想オブジェクトの三次元画像データに基づいて、仮想オブジェクトの合成用二次元画像データを生成する仮想オブジェクトの合成用二次元画像データ生成部と、ARマーカを含む画像中のARマーカの画像に代えて、仮想オブジェクトの合成用二次元画像データに基づく仮想オブジェクトの画像を背景画像中に合成する合成画像生成部とをコンピュータ内に実現するように構成されている。なおこのプログラムをコンピュータ読み取り可能な記録媒体に記録してもよいのはもちろんである。
本実施の形態の拡張現実表示用コンピュータプログラムを実行することで実現される拡張現実表示システムの一例を示すブロック図である。 スケール決定部27Aが基準スケール(Scs)を取得するまでの処理の流れを示すフローチャートである。 ARマーカと校正用基準位置の位置関係を示す図であり、(A)は、概略平面図、(B)は、概略斜視図である。 撮像時のARマーカ3とユーザ端末5の状態を示す模式図である。 撮像によって得られる校正用画像の一例である。 合成画像を表示するまでの処理の流れを示すフローチャートである。 撮像時のARマーカ3とユーザ端末5の状態を示す模式図である。 撮像によって得られる背景画像の一例である。 (A)及び(B)は、異なる位置からユーザ端末5でARマーカ3を撮像する様子を示しており、(C)は、位置1から、(D)は、位置2から撮像した場合に、ユーザ端末5の表示画面29に表示される合成画像の例である。 (A)〜(C)は、ARマーカの方位角を示す方向認識マークパターン31を備えたARマーカ3の例である。 第2の実施の形態の拡張現実表示システムを用いて、合成画像を表示するまでの処理の流れを示すフローチャートである。 固定物データマップを作成するまでのフローチャートである。 3Dスキャナによって固定物データマップを作成する様子を示す図である。 (A)〜(D)は、固定物データマップを利用した固定物の遮蔽処理の例である。 (A)〜(C)は、移動物の遮蔽処理の例である。 第3の実施の形態の拡張現実表示システムを用いて、合成画像を表示するまでの処理の流れを示すフローチャートである。 (A)は第1の背景画像、(B)は第2の背景画像の例を示す図である。 差分画像の例である。 遮蔽データを重ねた仮想オブジェクトの合成用二次元画像データの例である。 ユーザ端末5の表示画面29に表示される合成画像の例である。
以下、図面を参照して本発明の拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラムの実施の形態を詳細に説明する。
<第1の実施の形態>
[全体構成]
図1は、本実施の形態の拡張現実表示用コンピュータプログラムを実行することで実現される拡張現実表示システムの一例を示すブロック図である。本実施の形態の拡張現実表示システム1は、ARマーカ3と、ユーザ端末5と、管理サーバ7とから構成されている。
本実施の形態の拡張現実表示システム1は、ARマーカ3を含む画像をユーザ端末(撮像装置)5で撮像することで、ARマーカ3を含む画像を背景画像として取得し、背景画像中のARマーカ3の画像に代えて仮想オブジェクトの画像を背景画像中に合成して表示画面に表示するものである。
最近では、アニメーション等のコンテンツの舞台になった場所や縁のある場所を宗教的な場所になぞらえて「聖地」と呼び、「聖地」を訪れる行為を「巡礼」と呼ぶことがある。本実施の形態の拡張現実表示システム1を利用すれば、例えば、仮想オブジェクトとして、コンテンツに登場するキャラクタを採用し、ARマーカ3を「聖地」に設置することで、撮像装置5を介して、あたかも「聖地」にキャラクタが現れたように撮像装置のユーザに見せ、また、ユーザに写真撮影させることができる。
本実施の形態では、ARマーカ3は、ポール9と、ポール9に設けられたスケール計測用パターン11と、識別コードパターン13とを備えている。スケール計測用パターン11は、ポール9の垂直方向の既知の位置に設けられており、垂直方向の長さが既知である。本実施の形態では、地面からスケール計測用パターン11の中心点までの高さ(Hp)を1500mm、スケール計測用パターン11自体の垂直方向の長さ(Hm)を300mmに設定してある。スケール計測用パターン11は、ARマーカ3の他の部分及びARマーカ3の周囲と同化してしまわないように、発色の強い色彩で区別可能に構成してある。識別コードパターン13は、仮想オブジェクトを特定するための1次元バーコードであり、識別コードパターン13を読み込むことで、仮想オブジェクトを特定する仮想オブジェクト特定情報を得ることができる。識別コードパターン13は、どの角度からARマーカ3を撮像した場合でも仮想オブジェクトを特定できるように、同じ識別コードが複数繰り返し連続して設けられている。スケール計測用パターン11と識別コードパターン13は、ポール9の全周に連続するように設けられている。なお、添付の図では、便宜上、識別コードパターン13の図示を省略していることがある。
ユーザ端末5は、カメラを内蔵した、携帯電話、スマートフォン、パソコン等であり、本実施の形態では、撮像装置として機能するものである。ユーザ端末5は、汎用端末であり、電気通信回線NWと接続するための通信部15、カメラ部17、角速度センサ18、方位角センサ19、GPS21、タッチパネル等の入力部23、データ記憶部25、制御部27、及び、表示画面29を有している。本システムのユーザは、予め、自身のユーザ端末5に拡張現実表示用コンピュータプログラムをインストールしておく。これにより、拡張現実表示用コンピュータプログラムを実行することで、該ユーザ向けに拡張現実表示システム1が構築される。ユーザは自身のユーザ端末5を操作することで、拡張現実表示用コンピュータプログラムを介して、拡張現実表示システム1を利用することができる。
ユーザ端末5に拡張現実表示用コンピュータプログラムをインストールすることで、ユーザ端末5には、スケール決定部27Aと、傾斜角測定部27Bと、方位角測定部27Cと、演算部27Dと、仮想オブジェクト・データ取得部27Eと、合成用二次元画像データ生成部27Fと、合成画像生成部27Gが実現される。
スケール決定部27Aは、背景画像中におけるARマーカ3のスケール計測用パターン11の長さ(Vmt)とスケール計測用パターン11の実際の長さ(Hm)とからスケール(Sct)を求める。また、スケール決定部27Aは、後述の校正時には、基準スケール(Scs)も取得するようになっている。
傾斜角測定部27Bは、角速度センサ18からの出力に基づいて、ARマーカ3を撮像したときのユーザ端末3の傾斜角(θs及びθt)を測定する。
方位角測定部27Cは、方位角センサ19からの出力に基づいて、ARマーカ3を撮像したときのARマーカ3に対する撮像装置の位置の方位角(φt)を測定する。
演算部27Dは、スケール計測用パターン11の中心点までの高さ(Hp)、スケール(Sct)及び傾斜角(θt)に基づいて、撮像時におけるARマーカ3とユーザ端末5との間の距離(Dt)及びユーザ端末5の高さ(Ht)を演算する。
仮想オブジェクト・データ取得部27Eは、ARマーカ3を含む画像中の識別コードパターン13に基づいて仮想オブジェクトを特定し、データ記憶部から仮想オブジェクトの三次元画像データを取得する。本実施の形態の場合には、三次元画像データは、管理サーバ7に保存されており、仮想オブジェクトが特定されると、管理サーバ7から三次元画像データをダウンロードし、ユーザ端末5のデータ記憶部25に保存する。
合成用二次元画像データ生成部27Fは、ARマーカ3とユーザ端末5との間の距離(Dt)、ユーザ端末5の高さ(Ht)、傾斜角(θt)及び方位角(φt)並びに仮想オブジェクトの三次元画像データに基づいて、仮想オブジェクトの合成用二次元画像データを生成する。
合成画像生成部27Gは、ARマーカ3を含む画像中のARマーカ3の画像に代えて、仮想オブジェクトの合成用二次元画像データに基づく仮想オブジェクトの画像を背景画像中に合成する。
[フローチャート]
〔校正(基準スケールの取得)〕
図2のフローチャート並びに図3及び図4を用いて、スケール決定部27Aが基準スケール(Scs)を取得するまでの処理の流れを説明する。なお、この処理は、ユーザ端末5自体が撮像素子の画素数情報(被写体に対して、カメラ部17の撮像素子の縦方向に並ぶピクセル数、及び、横方向に並ぶピクセル数に関する情報)を有している場合や、ユーザが利用しているユーザ端末5の機種が特定されることで、撮像素子の画素数情報を特定できる場合には不要な処理である(撮像素子の画素数情報を特定できる場合には、画素数情報とスケール計測用パターン11の実際の長さ(Hm)から、基準スケール(Scs)を求める)。
前提として、図3(A)及び(B)に示すように、ARマーカ3の近くに、校正時にARマーカ3を撮像するための校正用基準位置CPが設定されている。本実施の形態では、校正用基準位置CPは、ARマーカ3の東の位置、且つ、ARマーカ3から所定の距離(Ds:本実施の形態では、3000mm)離れた位置に設定されている。
ユーザがユーザ端末5を操作して拡張現実表示用コンピュータプログラムを起動すると(ステップST1)、スケール決定部27Aは、校正の要否を判断する(ステップST2)。校正が不要な場合には、校正処理は行わず、図6のフローに移行する。校正が必要な場合、スケール決定部27Aは、ユーザに対して、所定の位置に存在する校正用基準位置CPへの移動を促す表示を表示画面29に表示する(ステップST3)。ユーザは、表示に促されて校正用基準位置CPへ移動し、その位置からARマーカ3を含む背景画像を撮像し、校正用画像を取得する(ステップST4)。図4は、撮像時のARマーカ3とユーザ端末5の状態を示す模式図であり、図5は、撮像によって得られる校正用画像の図である。スケール決定部27Aは、校正用画像内に表示されているスケール計測用パターン11の長さ(Vms)に相当する縦方向の画素数をカウントする。また、ユーザ端末5の撮像時のコサインエラーを補正するため、撮像時のユーザ端末5の傾斜角(θs)を取得する(ステップST5)。次に、スケール決定部27Aは、下記式(1)に基づいて、基準スケール(Scs)を演算する(ステップST6):
Scs=(Hm/Vms)/cosθs ・・・(1)
なお、Scsの単位は、[mm/画素数]である。
〔撮影〜合成画像の表示〕
図6のフローチャート並びに図7乃至図9を用いて、合成画像を表示するまでの処理の流れを説明する。ユーザは、ユーザ端末5を操作して拡張現実表示用コンピュータプログラムを起動し、ARマーカ3にカメラ部17のレンズを向ける(ステップST11)。図7は、撮像時のARマーカ3とユーザ端末5の状態を示す模式図であり、図8は、撮像によって得られる背景画像の図である。ユーザ端末5は得られた画像を連続的に表示するようになっており、図7及び図8は、その1コマを示している。仮想オブジェクト・データ取得部27Eは、取得したARマーカ3を含む背景画像から、識別コードパターン13を取得し(ステップST12)、識別コードパターン13を読み取って、仮想オブジェクトに対応する識別IDを特定し(ステップST13)、当該識別IDに対応する仮想オブジェクトの三次元画像データを含む仮想オブジェクトに関する各種情報を管理サーバ7から取得する(ステップST14)。仮想オブジェクトに関する各種情報には、例えば、仮想オブジェクトのポーズに関する情報、モーションデータ、表情やリップモーションデータ(唇の動きに関する情報)、音声データ等が含まれる。
次に、スケール決定部27Aは、背景画像中におけるARマーカ3のスケール計測用パターン11の長さ(Vmt)と、背景画像中における画像の中心点O1とスケール計測用パターン11の中心点O2の間の距離(Ppt)を測定する。具体的には、表示されているスケール計測用パターン11の長さ(Vmt)に相当する縦方向の画素数と、画像の中心点O1とスケール計測用パターン11の中心点O2の間の距離(Ppt)に相当する縦方向の画素数をカウントする。併せて、傾斜角測定部27Bは、角速度センサ18からの出力に基づいて、ユーザ端末3の傾斜角(θt)を測定し、方位角測定部27Cは、方位角センサ19からの出力に基づいて、ARマーカ3に対するユーザ端末3の位置の方位角(φt)を測定する(ステップST15)。
スケール決定部27Aは、下記式(2)に基づいて、スケール(Sct)を演算する(ステップ16):
Sct=(Hm/Vmt)/cosθt ・・・(2)
続いて、演算部27Dは、撮像時におけるARマーカ3とユーザ端末5との間の距離(Dt)及びユーザ端末5の高さ(Ht)を演算する(ステップST17)。具体的には、距離(Dt)は下記式(3)に基づいて求め、高さ(Ht)は下記式(4)に基づいて求める:
Dt=Ds(Sct/Scs) ・・・(3)
Ht=Hp−Δht+Dt・tanθt
=Hp−Δht+Ds(Sct/Scs)tanθt ・・・(4)
ただし、Δhtは、撮像素子に沿って延びる仮想平面と直交し、且つ、撮像素子の中心を通る仮想中心線とARマーカ3に沿って伸びる仮想線の交点と、スケール計測用パターン11の中心点の間の距離であり、Δht=Ppt・Sctにより求まる値である。なお、式(1)〜式(4)では、ユーザ端末5の傾斜角(θt及びθs)は絶対値で表現してある。
合成用二次元画像データ生成部27Fは、ARマーカ3とユーザ端末5との間の距離(Dt)、ユーザ端末5の高さ(Ht)、傾斜角(θt)及び方位角(φt)並びに仮想オブジェクトの三次元画像データに基づいて、仮想オブジェクトの合成用二次元画像データODを生成する(ステップST18)。そして、合成画像生成部27Gは、ARマーカ3を含む画像中のARマーカ3の画像に代えて、仮想オブジェクトの合成用二次元画像データに基づく仮想オブジェクトの画像OIを背景画像中に合成する(ステップST19)。図9(A)及び(B)は、位置1と位置2の異なる2つの位置からユーザ端末5でARマーカ3を撮像する様子を示しており、図9(C)は、位置1から、図9(D)は、位置2から撮像した場合に、ユーザ端末5の表示画面29に表示される合成画像の例である。ARマーカ3にカメラ部17のレンズを向けている間は、ステップST15〜ステップST19が繰り返される(ステップST20、ステップST21)。
このようにすることにより、ユーザ端末5を介してARマーカ3を含む場所を撮像させることで、ARマーカ3の位置に、あたかも仮想オブジェクト(キャラクタ)が存在するかのように見せ、また、仮想オブジェクト(キャラクタ)と共に写真や動画を撮ることを可能にさせることができる。
[方向認識マークパターン]
図10(A)〜(C)は、ARマーカの方位角を示す方向認識マークパターン31を備えたARマーカ3の例である。方向認識マークパターン31は、図10(B)に示すように、ARマーカ3の全周に連続するように設けられたアブソリュート・エンコーダ・パターンであり、図10(B)及び(C)に示すように、予め定めた方位角に、予め定めたパターン部分が配置されるようになっている。方位角測定部27Cは、撮像した背景画像からアブソリュート・エンコーダ・パターンを読み取ることで、撮像時の方位角を測定することが可能である。方向認識マークパターン31を備えることで、ユーザ端末5が方位角センサを搭載していないような場合や、ARマーカ3が設置されている場所の地磁気が安定せず、方位角センサ19で取得できる方位角に誤差が生じる場合でも、正確に方位角を取得可能である。
<第2の実施の形態>
図11乃至図14を用いて、第2の実施の形態の拡張現実表示システムを説明する。第2の実施の形態の拡張現実表示システムは、仮想オブジェクトを遮蔽する遮蔽物(固定物及び/または移動物)も考慮して、仮想オブジェクトの合成用二次元画像データを生成する。図11は、第2の実施の形態の拡張現実表示用コンピュータプログラムを実行することで実現される拡張現実表示システムによる合成画像を表示するまでの処理の流れを示すフローチャートである。図11のフローチャートは、図6のフローチャートと異なる点についてのみ言及する。
第2の実施の形態では、ステップST14で、仮想オブジェクト・データ取得部27Eは、管理サーバ7から、固定物データマップも取得する。固定物データマップは、図12及び図13に示す方法で、ARマーカ3の設置後に、拡張現実表示システム1の運営者側で予め準備しておくものである。
図12は、予め準備しておく固定物データマップを作成するまでのフローチャートである。ARマーカ3を所定の位置に設置したら(ステップST31)、図13に示すように、ARマーカ3の上部に、3Dスキャナ33を設置する(ステップST32)。本実施の形態では、3Dスキャナ33は、LIDAR(LIght Detection and Ranging)技術を利用した機器である。設置した3Dスキャナ33を起動し、ARマーカ3の周囲にレーザ光を照射し、反射光を用いて、ARマーカ3の周囲に存在する固定物までの距離(Df)と、ARマーカ3に対する固定物の位置の方位角(φf)と、固定物の高さ(Hf)を測定する(ステップST33)。また、併せて、ARマーカ3が設置されている位置に関するGPSデータ(緯度・経度)も取得する(ステップST34)。そして、得られたデータに基づいて、ARマーカ3の周囲に存在する固定物に関する固定物データマップを作成する(ステップST35)。
第2の実施の形態では、ステップST18(ステップST18a〜18d)で、合成用二次元画像データ生成部27Fは、仮想オブジェクトを遮蔽する遮蔽物(固定物及び/または移動物)も考慮して、仮想オブジェクトの合成用二次元画像データを生成する。ステップST18aでは、図6のステップST18と同様に仮想オブジェクトの合成用二次元画像データを生成し、ステップST18bで、遮蔽物の有無を判断する。遮蔽物が存在すると判断した場合には、遮蔽データを生成し(ステップST18c)、遮蔽データを仮想オブジェクトの合成用二次元画像データに重ねて仮想オブジェクトの合成用二次元画像データとする(ステップST18d)。遮蔽物が存在しないと判断した場合には、遮蔽処理は行わない。
図14(A)〜(D)は、遮蔽物が固定物である場合の遮蔽処理の一例である。図14(A)は、ユーザ端末5による撮像を行う位置から、ARマーカ3を見た様子を示す図である。図14(A)に示すように、ARマーカ3とユーザ端末5の間には、固定物(この例の場合には、「灯籠」)が存在している。合成用二次元画像データ生成部27Fは、固定物データマップ並びにARマーカ3とユーザ端末5の間の距離(Dt)及び方位角(φt)に基づいて、ARマーカ3とユーザ端末5の間に固定物が存在するか否かを判断する(ステップST18b)。この例では、合成用二次元画像データ生成部27Fは、固定物が存在すると判断し、固定物データマップから図14(B)の遮蔽データBDを生成し(ステップST18c)、図14(C)に示すように、遮蔽データBDを仮想オブジェクトの合成用二次元画像データODに重ねて仮想オブジェクトの合成用二次元画像データとする(ステップST18d)。図14(D)は、ユーザ端末5の表示画面29に表示される合成画像の例である。
図15(A)〜(C)は、遮蔽物が移動物である場合の遮蔽処理の一例である。図15(A)は、ユーザ端末5による撮像を行う位置から、ARマーカ3を見た様子を示す図である。図15(A)に示すように、ARマーカ3とユーザ端末5の間には、移動物(この例の場合には、「人物」)が存在し、しかも、移動物は、その一部(人物の「腕」)がARマーカ3と重なっている。合成用二次元画像データ生成部27Fは、ARマーカ3を遮る移動物が存在するか否かを判断する(ステップST18b)。この例では、合成用二次元画像データ生成部27Fは、ARマーカ3を遮っている移動物が存在すると判断し、移動物を抽出し、移動物による遮蔽データBDを生成し(ステップST18c)、図15(B)に示すように、遮蔽データBDを仮想オブジェクトの合成用二次元画像データODに重ねて仮想オブジェクトの合成用二次元画像データとする(ステップST18d)。図15(C)は、ユーザ端末5の表示画面29に表示される合成画像の例である。
<第3の実施の形態>
図16乃至図20を用いて、第3の実施の形態の拡張現実表示システムを説明する。第3の実施の形態の拡張現実表示システムは、視差を利用して、仮想オブジェクトを遮蔽する遮蔽物(固定物及び/または移動物)も考慮して、仮想オブジェクトの合成用二次元画像データを生成する。図16は、第3の実施の形態の拡張現実表示用コンピュータプログラムを実行することで実現される拡張現実表示システムによる合成画像を表示するまでの処理の流れを示すフローチャートである。図16のフローチャートは、図6のフローチャートと異なる点についてのみ言及する。なお、必要に応じて、以下では、必要に応じて、第2の背景画像中におけるARマーカに「′」の符号を付して、第1の背景画像中におけるARマーカと区別する場合がある。
第3の実施の形態では、ステップST15aで、第1の背景画像(図17(A))と、第1の背景画像と方位角がずれた第2の背景画像(図17(B))の2枚の背景画像を取得し、また、それぞれの撮像時のユーザ端末3の傾斜角(θt)と方位角(φt)を測定する。第1及び第2の背景画像は、静止画を撮像するモードで左右にユーザ端末5をずらして1枚ずつ取得してもよく、動画を撮像するモードで連続的に撮像した中から適切なもの(例:左右のずれが20cm程度のもの)を選択して取得してもよい。また、ユーザ端末5のカメラ部17が、2枚の背景画像を同時に取得可能な二眼式のものであれば、それによって得られた2枚の背景画像を利用することもできる。スケール決定部27Aは、第2の背景画像から、背景画像中におけるARマーカ3′のスケール計測用パターン11の長さ(Vmt)と、背景画像中における画像の中心点O1とスケール計測用パターン11の中心点O2の間の距離(Ppt)を測定する(ステップST15b)。スケール決定部27Aは、スケール(Sct)を演算し(ステップST16)、演算部27Dは、撮像時におけるARマーカ3′とユーザ端末5との間の距離(Dt)及びユーザ端末5の高さ(Ht)を演算する(ステップST17)。合成用二次元画像データ生成部27Fは、ARマーカ3′とユーザ端末5との間の距離(Dt)、ユーザ端末5の高さ(Ht)、傾斜角(θt)及び方位角(φt)並びに仮想オブジェクトの三次元画像データに基づいて、仮想オブジェクトの合成用二次元画像データODを生成する(ステップST18a)。
次に、本実施の形態では、第1の背景画像と、第2の背景画像を用いて、図18に示す差分画像を生成し、視差の比較を行う(ステップST18b)。具体的には、第1の背景画像に含まれているARマーカ3と、第2の背景画像に含まれているARマーカ3′の間に生じている視差を基準視差SPとし、基準視差SPよりも大きな視差が生じている部分を検出する(ステップST18c)。基準視差SPよりも大きな視差が生じている物が存在する場合、その物は、ARマーカ3の前、すなわち、ARマーカ3とユーザ端末5の間に存在するものと判断でき、その物をターゲットTとして抽出し、ターゲットTによる遮蔽データを生成し、(ステップST18d)、図19に示すように、遮蔽データBDを仮想オブジェクトの合成用二次元画像データODに重ねて仮想オブジェクトの合成用二次元画像データとする(ステップST18e)。図20は、ユーザ端末5の表示画面29に表示される合成画像の例である。基準視差SPよりも大きな視差が生じている物が存在しない場合は、ARマーカ3とユーザ端末5の間に物は存在しないと判断できるため、遮蔽処理は行わない。
以上、本発明の実施の形態について具体的に説明したが、本発明はこれらの実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で変更が可能であるのは勿論である。例えば、上記実施の形態では、識別コードパターンによって仮想オブジェクトを特定したが、ARマーカを撮像したときのGPSによる座標情報(緯度・経度)に基づいて、ユーザが撮像したARマーカを特定し、仮想オブジェクトを特定することも可能である。この場合には、ARマーカには識別コードパターンは不要である。
本発明によれば、汎用性のある一般的な撮像装置を用いて、仮想オブジェクトの画像のマルチアングル表示が可能な拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラムを提供することができる。また、遮蔽処理が可能である。
1 拡張現実表示システム
3 ARマーカ
5 ユーザ端末
7 管理サーバ
9 ポール
11 スケール計測用パターン
13 識別コードパターン
15 通信部
17 カメラ部
18 角速度センサ
19 方位角センサ
21 GPS
23 入力部
25 データ記憶部
27 制御部
27A スケール決定部
27B 傾斜角測定部
27C 方位角測定部
27D 演算部
27E 仮想オブジェクト・データ取得部
27F 合成用二次元画像データ生成部
27G 合成画像生成部
29 表示画面
31 方向認識マークパターン
33 3Dスキャナ

Claims (10)

  1. 所定の場所に設置したARマーカを含む画像を撮像装置で撮像することで、前記ARマーカを含む画像を背景画像として取得し、前記背景画像中の前記ARマーカの画像に代えてデータ記憶部に記憶された仮想オブジェクトの画像を前記背景画像中に合成して表示画面に表示する拡張現実表示システムであって、
    前記ARマーカは、
    垂直方向の既知の位置に、垂直方向の長さが既知であるスケール計測用パターンと、
    前記スケール計測用パターンは前記ARマーカの全周に連続するように設けられており、
    前記撮像装置は、
    前記背景画像中における前記ARマーカの前記スケール計測用パターンの長さ(Vmt)と前記スケール計測用パターンの実際の長さ(Hm)とからスケール(Sct)を求めるスケール決定部と、
    前記ARマーカを撮像したときの前記撮像装置の傾斜角(θt)を測定する傾斜角測定部と、
    前記ARマーカを撮像したときの前記ARマーカに対する前記撮像装置の位置の方位角(φt)を測定する方位角測定部と、
    前記スケール計測用パターンの前記既知の位置の高さ寸法(Hp)、前記スケール(Sct)及び前記傾斜角(θt)に基づいて、撮像時における前記ARマーカと前記撮像装置との間の距離(Dt)及び前記撮像装置の高さ(Ht)を演算する演算部と、
    仮想オブジェクト特定情報に基づいて前記仮想オブジェクトを特定し、前記データ記憶部から前記仮想オブジェクトの三次元画像データを取得する仮想オブジェクト・データ取得部と、
    前記ARマーカと前記撮像装置との間の距離(Dt)、前記撮像装置の高さ(Ht)、前記傾斜角(θt)及び前記方位角(φt)並びに前記仮想オブジェクトの三次元画像データに基づいて、前記仮想オブジェクトの合成用二次元画像データを生成する仮想オブジェクトの合成用二次元画像データ生成部と、
    前記ARマーカを含む画像中の前記ARマーカの画像に代えて、前記仮想オブジェクトの合成用二次元画像データに基づく前記仮想オブジェクトの画像を前記背景画像中に合成する合成画像生成部とを備えていることを特徴とする拡張現実表示システム。
  2. 前記ARマーカは、前記ARマーカの全周に連続するように設けられた、前記ARマーカの方位角を示す方向認識マークパターンをさらに備えており、
    前記方位角測定部は、前記ARマーカを含む画像中の前記方向認識マークパターンに基づいて前記ARマーカに対する前記撮像装置の位置の方位角(φt)を測定する請求項1に記載の拡張現実表示システム。
  3. 前記データ記憶部は、前記ARマーカと前記ARマーカの周囲に存在する固定物までの距離(Df)と、前記ARマーカに対する前記固定物の位置の方位角(φf)と、前記固定物の高さ(Hf)を含む前記固定物に関する固定物データマップをさらに記憶しており、
    前記仮想オブジェクト・データ取得部は、前記固定物データマップも取得するようになっており、
    前記合成用二次元画像データ生成部は、前記固定物データマップ並びに前記ARマーカと前記撮像装置との間の距離(Dt)及び前記方位角(φt)に基づいて、前記ARマーカと前記撮像装置との間に前記固定物が存在するか否かを判断し、前記固定物が存在する場合には、前記固定物による遮蔽データを生成し、前記遮蔽データを前記仮想オブジェクトの合成用二次元画像データに重ねて前記仮想オブジェクトの合成用二次元画像データとする請求項1に記載の拡張現実表示システム。
  4. 前記固定物データマップは、前記ARマーカの設置場所を中心として、3Dスキャナを用いて得られた3次元データである請求項3に記載の拡張現実表示システム。
  5. 前記合成用二次元画像データ生成部は、前記ARマーカと重なり、前記ARマーカを遮る移動物が存在するか否かを判断し、前記移動物が存在する場合には、前記移動物を抽出して、前記移動物による遮蔽データを生成し、前記遮蔽データを前記仮想オブジェクトの合成用二次元画像データに重ねて前記仮想オブジェクトの合成用二次元画像データとする請求項1に記載の拡張現実表示システム。
  6. 前記合成用二次元画像データ生成部は、
    第1の背景画像と、前記第1の背景画像と方位角だけがずれた第2の背景画像を取得し、
    前記第1の背景画像と、前記第2の背景画像とを比較し、前記第1の背景画像に含まれている前記ARマーカと、前記第2の背景画像に含まれている前記ARマーカとの間に生じている基準視差よりも大きな視差が生じている移動物及び固定物の少なくとも一方をターゲットとして抽出して、前記ターゲットによる遮蔽データを生成し、前記遮蔽データを前記仮想オブジェクトの合成用二次元画像データに重ねて前記仮想オブジェクトの合成用二次元画像データとする請求項1に記載の拡張現実表示システム。
  7. 前記撮像装置の前記スケール決定部は、前記ARマーカから所定の距離(Ds)離れた位置から前記ARマーカを含む背景画像を撮像した時の前記背景画像中の前記スケール計測用パターンの長さ(Vms)と前記スケール計測用パターンの実際の長さ(Hm)とから基準スケール(Scs)を取得し、
    前記演算部は、前記基準スケール(Scs)にも基づいて、前記ARマーカと前記撮像装置との間の距離(Dt)及び前記撮像装置の高さ(Ht)を演算する請求項1に記載の拡張現実表示システム。
  8. 前記ARマーカは、前記ARマーカの全周に連続するように設けられた識別コードパターンを備えており、
    前記仮想オブジェクト・データ取得部は、前記ARマーカを含む画像中の前記識別コードパターンに基づいて、前記仮想オブジェクトを特定する請求項1に記載の拡張現実表示システム。
  9. 所定の場所に設置したARマーカを含む画像を撮像装置で撮像することで、前記ARマーカを含む画像を背景画像として取得し、前記背景画像中の前記ARマーカの画像に代えてデータ記憶部に記憶された仮想オブジェクトの画像を前記背景画像中に合成して表示画面に表示する拡張現実表示方法であって、
    前記ARマーカは、
    垂直方向の既知の位置に、垂直方向の長さが既知であるスケール計測用パターンと、
    前記スケール計測用パターンと前記識別コードパターンは前記ARマーカの全周に連続するように設けられており、
    前記背景画像中における前記ARマーカの前記スケール計測用パターンの長さ(Vmt)と前記スケール計測用パターンの実際の長さ(Hm)とからスケール(Sct)を求めるスケール算出ステップと、
    前記ARマーカを撮像したときの前記撮像装置の傾斜角(θt)を測定する傾斜角測定ステップと、
    前記ARマーカを撮像したときの前記ARマーカに対する前記撮像装置の位置の方位角(φt)を測定する方位角測定ステップと、
    前記スケール計測用パターンの前記既知の位置の高さ寸法(Hp)、前記スケール(Sct)及び前記傾斜角(θt)に基づいて、撮像時における前記ARマーカと前記撮像装置との間の距離(Dt)及び前記撮像装置の高さ(Ht)を演算する演算ステップと、
    仮想オブジェクト特定情報に基づいて前記仮想オブジェクトを特定し、前記データ記憶部から前記仮想オブジェクトの三次元画像データを取得する仮想オブジェクト・データ取得ステップと、
    前記ARマーカと前記撮像装置との間の距離(Dt)、前記撮像装置の高さ(Ht)、前記傾斜角(θt)及び前記方位角(φt)並びに前記仮想オブジェクトの三次元画像データに基づいて、前記仮想オブジェクトの合成用二次元画像データを生成する仮想オブジェクトの合成用二次元画像データ生成ステップと、
    前記ARマーカを含む画像中の前記ARマーカの画像に代えて、前記仮想オブジェクトの合成用二次元画像データに基づく前記仮想オブジェクトの画像を前記背景画像中に合成する合成画像生成ステップとを前記撮像装置が実行することを特徴とする拡張現実表示方法。
  10. 所定の場所に設置したARマーカを含む画像を撮像装置で撮像することで、前記ARマーカを含む画像を背景画像として取得し、前記背景画像中の前記ARマーカの画像に代えてデータ記憶部に記憶された仮想オブジェクトの画像を前記背景画像中に合成して表示画面に表示するために、前記撮像装置に搭載されたコンピュータにインストールされて実行される拡張現実表示用コンピュータプログラムであって、
    前記ARマーカは、
    垂直方向の既知の位置に、垂直方向の長さが既知であるスケール計測用パターンと、
    前記スケール計測用パターンと前記識別コードパターンは前記ARマーカの全周に連続するように設けられており、
    前記背景画像中における前記ARマーカの前記スケール計測用パターンの長さ(Vmt)と前記スケール計測用パターンの実際の長さ(Hm)とからスケール(Sct)を求めるスケール決定部と、
    前記ARマーカを撮像したときの前記撮像装置の傾斜角(θt)を測定する傾斜角測定部と、
    前記ARマーカを撮像したときの前記ARマーカに対する前記撮像装置の位置の方位角(φt)を測定する方位角測定部と、
    前記スケール計測用パターンの前記既知の位置の高さ寸法(Hp)、前記スケール(Sct)及び前記傾斜角(θt)に基づいて、撮像時における前記ARマーカと前記撮像装置との間の距離(Dt)及び前記撮像装置の高さ(Ht)を演算する演算部と、
    仮想オブジェクト特定情報に基づいて前記仮想オブジェクトを特定し、前記データ記憶部から前記仮想オブジェクトの三次元画像データを取得する仮想オブジェクト・データ取得部と、
    前記ARマーカと前記撮像装置との間の距離(Dt)、前記撮像装置の高さ(Ht)、前記傾斜角(θt)及び前記方位角(φt)並びに前記仮想オブジェクトの三次元画像データに基づいて、前記仮想オブジェクトの合成用二次元画像データを生成する仮想オブジェクトの合成用二次元画像データ生成部と、
    前記ARマーカを含む画像中の前記ARマーカの画像に代えて、前記仮想オブジェクトの合成用二次元画像データに基づく前記仮想オブジェクトの画像を前記背景画像中に合成する合成画像生成部とを前記コンピュータ内に実現するように構成されている拡張現実表示用コンピュータプログラム。
JP2018126605A 2018-07-03 2018-07-03 拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラム Pending JP2020008917A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018126605A JP2020008917A (ja) 2018-07-03 2018-07-03 拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018126605A JP2020008917A (ja) 2018-07-03 2018-07-03 拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2020008917A true JP2020008917A (ja) 2020-01-16

Family

ID=69151772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018126605A Pending JP2020008917A (ja) 2018-07-03 2018-07-03 拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2020008917A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325984A (zh) * 2020-03-18 2020-06-23 北京百度网讯科技有限公司 样本数据的获取方法、装置和电子设备
CN111462089A (zh) * 2020-04-01 2020-07-28 深圳市瑞立视多媒体科技有限公司 基于光学动捕系统的虚拟场景精度测试方法及相关设备
CN113763569A (zh) * 2021-08-30 2021-12-07 之江实验室 一种在三维仿真中使用的图像标注方法及装置、电子设备
WO2022202926A1 (ja) * 2021-03-26 2022-09-29 株式会社デンソー 精度補正装置及び拡張現実画像表示装置
WO2023127002A1 (ja) * 2021-12-27 2023-07-06 日本電気株式会社 画像処理装置、画像処理方法、及び、記録媒体
JP2023107292A (ja) * 2022-01-24 2023-08-03 エヌ・ティ・ティ・インフラネット株式会社 精度向上方法、離隔距離取得方法、位置情報算出支援装置、位置情報算出支援プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325984A (zh) * 2020-03-18 2020-06-23 北京百度网讯科技有限公司 样本数据的获取方法、装置和电子设备
CN111325984B (zh) * 2020-03-18 2023-05-05 阿波罗智能技术(北京)有限公司 样本数据的获取方法、装置和电子设备
CN111462089A (zh) * 2020-04-01 2020-07-28 深圳市瑞立视多媒体科技有限公司 基于光学动捕系统的虚拟场景精度测试方法及相关设备
WO2022202926A1 (ja) * 2021-03-26 2022-09-29 株式会社デンソー 精度補正装置及び拡張現実画像表示装置
CN113763569A (zh) * 2021-08-30 2021-12-07 之江实验室 一种在三维仿真中使用的图像标注方法及装置、电子设备
WO2023127002A1 (ja) * 2021-12-27 2023-07-06 日本電気株式会社 画像処理装置、画像処理方法、及び、記録媒体
JP2023107292A (ja) * 2022-01-24 2023-08-03 エヌ・ティ・ティ・インフラネット株式会社 精度向上方法、離隔距離取得方法、位置情報算出支援装置、位置情報算出支援プログラム

Similar Documents

Publication Publication Date Title
JP2020008917A (ja) 拡張現実表示システム、拡張現実表示方法、及び、拡張現実表示用コンピュータプログラム
US10893219B2 (en) System and method for acquiring virtual and augmented reality scenes by a user
JP6683127B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6635037B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
US10636185B2 (en) Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint
EP2915140B1 (en) Fast initialization for monocular visual slam
EP1404126B1 (en) Video combining apparatus and method
JP5682060B2 (ja) 画像合成装置、画像合成プログラム、及び画像合成システム
JP4115117B2 (ja) 情報処理装置および方法
JP2014173990A (ja) 計測装置
JP6589636B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP2017021328A (ja) カメラの空間特性を決定する方法及びシステム
JP2006059136A (ja) ビューア装置及びそのプログラム
JP2011239361A (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
CN112740284A (zh) 动画合成装置、动画合成方法以及记录介质
KR101574636B1 (ko) 면형방식 디지털 항공카메라로 촬영한 시계열 항공사진을 입체시하여 좌표를 연동하고 변화지역을 판독하는 시스템
JP3398796B2 (ja) 複合現実感を利用した3次元測量支援用画像システム
KR101253644B1 (ko) 위치 정보를 이용한 증강 현실 콘텐츠 출력 장치 및 방법
JP2012213083A (ja) 監視範囲検知装置
KR101863647B1 (ko) 3d 맵들에 대한 가설 라인 맵핑 및 검증
JP2016133701A (ja) 情報提供システム、及び情報提供方法
KR101939530B1 (ko) 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 방법 및 그 장치
JP2017162192A (ja) 画像処理プログラム、画像処理装置、画像処理システム、及び画像処理方法
JP7186484B1 (ja) プログラム、情報処理装置、方法及びシステム