WO2022074791A1 - 3次元拡張現実処理システム、3次元拡張現実処理方法、及び3次元拡張現実処理システムのユーザインターフェース装置 - Google Patents
3次元拡張現実処理システム、3次元拡張現実処理方法、及び3次元拡張現実処理システムのユーザインターフェース装置 Download PDFInfo
- Publication number
- WO2022074791A1 WO2022074791A1 PCT/JP2020/038163 JP2020038163W WO2022074791A1 WO 2022074791 A1 WO2022074791 A1 WO 2022074791A1 JP 2020038163 W JP2020038163 W JP 2020038163W WO 2022074791 A1 WO2022074791 A1 WO 2022074791A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- augmented reality
- background image
- display
- processing system
- operation signal
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 107
- 238000012545 processing Methods 0.000 title claims abstract description 78
- 238000003672 processing method Methods 0.000 title claims 3
- 238000000034 method Methods 0.000 claims abstract description 57
- 230000008569 process Effects 0.000 claims abstract description 37
- 239000002131 composite material Substances 0.000 claims description 85
- 230000008859 change Effects 0.000 claims description 16
- 230000006854 communication Effects 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 238000003786 synthesis reaction Methods 0.000 abstract 1
- 238000010191 image analysis Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Abstract
背景画像に3次元拡張現実オブジェクトを配置して、合成する3次元拡張現実処理システムであって、ディスプレイ、ユーザの操作内容を示す操作信号を生成して出力する操作信号出力器、及びプロセッサを含み、プロセッサは、背景画像に含まれる現実オブジェクトの奥行き情報を解析し、背景画像に合成される3次元拡張現実オブジェクトの奥行き情報を示す操作信号を取得し、操作信号が示す奥行き情報及び現実オブジェクトの奥行き情報を比較して3次元拡張現実オブジェクト及び現実オブジェクトのオクルージョン処理を行って背景画像に3次元拡張現実オブジェクトを合成し、3次元拡張現実オブジェクトが合成された背景画像をディスプレイに表示する。
Description
本発明は、背景画像に3次元拡張現実オブジェクトを付与する3次元拡張現実処理システム、方法、及び3次元拡張現実処理システムのユーザインターフェース装置に関する。
現実空間のカメラ撮影画像などの背景画像にCG(Computer Graphics)で作成したAR(Augmented Reality)オブジェクトを付与することが、ゲーム、保守作業、観光ガイド等のコンテンツに用いられている。
特許文献1には、「MR表示装置は、他の体験者が装着する他のMR表装置と接続して現実映像と仮想物体の映像を互いに共有する構成であって、カメラで撮影した現実映像から現実物体を認識し、体験者の操作に基づき、現実物体に所定の仮想物体を紐付けるコントローラと、紐付けされた仮想物体の映像を表示する表示部と、を備える。コントローラは、通信器を介して他のMR表示装置が生成した現実物体の認識結果及び紐付けした仮想物体のデータを取得し、取得したデータと自身のデータとを合成して、合成した映像を表示部に表示すると共に、体験者の操作に基づき、表示部に表示された映像に対して、現実物体に紐付けする仮想物体の編集が可能である(要約抜粋)」との記載がある。
また、特許文献2には、「2次元映像から3次元映像への変換処理(動きベクトルや高周波成分の抽出)の情報から画面の奥行き情報を取得し、その情報を基に3次元映像になるように画素を移動させ、その物体位置情報及び奥行き情報が抽出できる。」との記載がある。
特許文献1では、ユーザはHMDを装着する必要があり、装備が大掛かりになるという課題がある。更に背景画像がユーザの居る場所に限定されるという課題がある。また特許文献1、2には、複数のユーザが同じ背景画像を、同時に制御することの開示はない。
本発明は、2次元背景画像の奥行き情報を得る方法を適用して、上記課題を解決する3次元拡張現実処理システム、方法、及び3次元拡張現実処理システムのユーザインターフェースを提供することを目的とする。
上記課題を解決するために、本発明は、特許請求の範囲に記載の構成を備える。その一例をあげるならば、本発明は、背景画像に3次元拡張現実オブジェクトを配置して、合成する3次元拡張現実処理システムであって、ディスプレイ、ユーザの操作内容を示す操作信号を生成して出力する操作信号出力器、及び前記ディスプレイと前記操作信号出力器とのそれぞれに接続され、前記操作信号を取得して前記ディスプレイの表示制御を行うプロセッサを含み、前記プロセッサは、前記背景画像を読み込み、前記背景画像において被写体が撮像された領域からなる少なくとも1つ以上の現実オブジェクトを抽出すると共に、前記現実オブジェクトのそれぞれについての奥行き情報を解析した結果を読み込み、前記背景画像に合成される前記3次元拡張現実オブジェクトを読み込み、前記3次元拡張現実オブジェクトの奥行き情報を示すユーザの操作に基づいて前記操作信号出力器が生成した前記操作信号を取得し、前記操作信号が示す奥行き情報及び前記現実オブジェクトの奥行き情報を比較して、前記3次元拡張現実オブジェクト及び前記現実オブジェクトのオクルージョン処理を行って、前記背景画像に前記3次元拡張現実オブジェクトを合成し、前記3次元拡張現実オブジェクトが合成された前記背景画像を前記ディスプレイに表示する、ことを特徴とする。
本発明によれば、2次元背景画像の奥行き情報を得る方法を適用して、上記課題を解決する3次元拡張現実処理システム、方法、及び3次元拡張現実処理システムのユーザインターフェースを提供することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
以下、図面を参照しながら本発明の実施形態について説明する。以下の説明において同一の構成、ステップには同一の符号を付し、重複説明を省略する。
[第一の実施形態]
図1から図9で、第一の実施形態である3次元拡張現実処理システム、方法、及び3次元拡張現実処理システムのユーザインターフェース装置について説明する。
図1から図9で、第一の実施形態である3次元拡張現実処理システム、方法、及び3次元拡張現実処理システムのユーザインターフェース装置について説明する。
(システム構成と表示画面)
図1は、第一の実施形態に係る3次元拡張現実処理システム100の概要図である。
図1は、第一の実施形態に係る3次元拡張現実処理システム100の概要図である。
図1に示すように、3次元拡張現実処理システム100は、背景画像サービスサーバ5、画像解析サービスサーバ6、3次元拡張現実サービスサーバ(以下「3DARサービスサーバ」という)7、合成画像サービスサーバ8、及びユーザ1が操作する携帯情報デバイス2(ユーザインターフェース装置に相当する)、ユーザ1が視認するディスプレイ3のそれぞれが、ネットワーク4を介して互いに通信接続されて構成される。図1では、背景画像サービスサーバ5、画像解析サービスサーバ6、3DARサービスサーバ7、合成画像サービスサーバ8を別体に記載しているが、各機能を単一のハードウェアからなるサーバに搭載してもよいし、同一のプロセッサで各サービスサーバの機能を実行してもよい。
ユーザ1は、携帯情報デバイス2を操作して、背景画像サービスサーバ5、画像解析サービスサーバ6、3DARサービスサーバ7、合成画像サービスサーバ8にアクセスする。
携帯情報デバイス2は、背景画像サービスサーバ5から背景画像を、3DARサービスサーバ7からは3次元拡張現実オブジェクト(以下「3DARオブジェクト」と記載する)の画像を得て、背景画像及び3DARオブジェクトを合成画像サービスサーバ8に転送する。合成画像サービスサーバ8は、背景画像に3DARオブジェクトを合成し、ディスプレイ3に表示させる。
画像解析サービスサーバ6は背景画像を解析して、被写体(現実物体)が撮像された領域からなる現実オブジェクトの抽出と、抽出した現実オブジェクトの奥行き情報の推定を行う。ここでいう背景画像は必ずしも奥行き情報を有する画像でなくてもよく、単視点画像、すなわち奥行き情報を有していない画像でもよい。画像解析サービスサーバ6が単視点画像から奥行き情報を解析する手法は、特許文献2のような公知の技術を適宜用いればよい。
合成画像サービスサーバ8は、3DARオブジェクトと現実オブジェクトの奥行き情報を比較してオクルージョン処理を行う。ここでは、説明のために現実オブジェクトの抽出としたが、実際には現実オブジェクトに限定せず、奥行き情報が推定できるのであれば、仮想的な物体や拡張現実の物体を重畳(合成)してもよい。
図2Aは、ディスプレイ3と携帯情報デバイス2の表示画面とユーザ操作の例を示す図である。
ディスプレイ3では、画面全体に背景画像30が表示され、背景画像30には、背景とその前面の被写体、例えば複数の人物、車、建物、道路などの被写体像が映り込んでいる。背景画像30からは、背景が撮像された領域からなる背景オブジェクトと、背景よりも前面に撮像された被写体像からなる被写体オブジェクトとがある。従って背景画像30には、背景オブジェクトと被写体オブジェクトとの2種類の現実オブジェクトが含まれる。以下の説明において、現実オブジェクトという場合は、背景オブジェクトと被写体オブジェクトの双方を含む場合がある。ここでは、被写体オブジェクトのうちの一つである手前の人物31aに自転車の3DARオブジェクト71aが紐付けて表示されている。3DARオブジェクト71aは、現実オブジェクトの人物31aの奥、かつ、現実オブジェクトの建物32の前に配置されており、オクルージョン処理の結果、3DARオブジェクト71aの一部は人物31aに隠される。
携帯情報デバイス2の画面には、3DARオブジェクト70と、3DARサービスサーバ7へのアクセス釦20、背景画像サービスサーバ5へのアクセス釦21が表示されており、3DARオブジェクト70やディスプレイ3に表示する背景画像30の選択を行う。
また、図示しないが背景画像が動画の場合には、再生や一時停止、停止などの操作を行うボタンを備えても良い。
ユーザ1の指10は、携帯情報デバイス2に置かれ、携帯情報デバイス2の表示画面の下層にはタッチセンサ206(図3参照)を備え、タッチセンサ206上を動かし各種操作入力を行う。図2Aにて、携帯情報デバイス2に表示される3DARオブジェクト70とディスプレイ3に表示される3DARオブジェクト71aは同一のものであり、携帯情報デバイス2に読み出した3DARオブジェクト70を、ディスプレイ3で現実オブジェクトである人物31aに紐付けして配置し、表示させたものが3DARオブジェクト71aである。タッチセンサ206はユーザの操作入力を取得して操作内容を検出し、操作内容を示す操作信号を生成して出力するので操作信号出力器に相当する。
指10での制御の一例を動作説明22と部分拡大図23に記している。動作説明22は、指10の動きに対する制御の例の説明であり、例えば、ピッチアウトで3DARオブジェクトを拡大し、ピッチインで縮小する。スワイプでは、3DARオブジェクトを平行移動させ、指10で円弧を描くと、3DARオブジェクトが回転する。
部分拡大図23は、ピッチアウト、ピッチインで3DARオブジェクト72aを拡大72c、縮小72bさせる様子を示している。なお、一度3DARオブジェクト70を紐付けして背景画像30に表示させた後では、携帯情報デバイス2で行う3DARオブジェクト70の制御(表示位置、大きさ)は、ディスプレイ3上の3DARオブジェクト71aの表示にも直ちに反映される。3DARオブジェクト70の表示位置には、背景画像30における奥行き方向の位置も含む。
図2Bは、図2Aから少し時間が経過した時のディスプレイ3に表示されるシーンを示す図である。左車線の車両が画面の奥に進み、右車線の車両が近づいている。また、現実オブジェクトである人物31bは、図2Aの人物31aが移動したものであり、それに紐付けられている3DARオブジェクト71bも一緒に移動している。ここで、図2Aの人物31aの映像の中での奥行きを含めた位置を求め、その位置座標を(x0,y0,z0)とすると、図2Bでは時間が進んだことで、(x1,y1,z1)に移動している。ここでの人物31aの移動量は、(x1-x0,y1-y0、z1-z0)で表すことができる。そのため、現実オブジェクトからなる人物31aに紐付けれている3DARオブジェクト71aも、同じ距離を移動し、図2Bに示したように、人物31bの横に配置される。この時、人物31の大きさの変化量や、建物32の縮尺により、(x0,y0,z0)と(x1,y1,z1)の2点間での縮尺の変化も求めることができ、3DARオブジェクト71aの大きさも同じように変化させて合成して表示する。
(構成装置のブロック図と処理フロー)
図3は、第一の実施形態に係る携帯情報デバイス2のブロック図である。携帯情報デバイス2は、スマートフォン、タブレットPC等である。
図3は、第一の実施形態に係る携帯情報デバイス2のブロック図である。携帯情報デバイス2は、スマートフォン、タブレットPC等である。
図3にて、携帯情報デバイス2は、カメラ201、一体型ディスプレイ202、加速度センサ203a、ジャイロセンサ203b、方位センサ203cを含むセンサ群203、マイク204、スピーカ205、一体型ディスプレイ202に積層されるタッチセンサ206(入力デバイスの一例である)、ネットワーク4に接続するWifi(登録商標)に準拠した通信器やディスプレイ3と接続するBluetooth(登録商標)等の近接無線通信器を含む通信器207は、CPUやMPU、GPUなどのプロセッサ208、メモリとしてのRAM209、画像RAM210、フラッシュメモリ211を含み、これらが内部バス200により互いに通信接続される。
通信器207は、無線LAN、あるいはモバイル通信等の通信処理の中から適切な処理を選択して、ネットワーク4に接続する。
フラッシュメモリ211には、処理プログラムとして、基本動作プログラム212、3DAR制御アプリケーション(アプリと略す)213を含み、これら処理プログラムは、RAM209に展開されて、プロセッサ208で実行される。
更にフラッシュメモリ211には、処理プログラムを実行するのに必要なデータを保存データ214として保持する。フラッシュメモリ211は、フラッシュメモリ以外の不揮発性のメモリ媒体であっても良い。また一体型ディスプレイ202に表示する画像データは、画像RAM210に格納した後、読み出す。
図4は、第一の実施形態に係る3DAR制御アプリ213のフローチャートである。
S100で処理を開始する。プロセッサ208は、背景画像サービスサーバ5、画像解析サービスサーバ6、3DARサービスサーバ7、合成画像サービスサーバ8から提供される各種サービスにログインする(S101)。ログインは、各サーバに別々に行ってもよいが、図示はしていないログインサービスサーバにログインして、一括で行うようにしてもよい。
ユーザは、背景画像サービスサーバ5にアクセスして背景画像を選択する(S102)。
プロセッサ208は、タッチセンサ206から入力されたユーザ操作の内容を識別する(S103)。
ユーザ操作が3DARサービスサーバ7に対する新しい3DARオブジェクトの選択操作である場合(S103:3DARO選択)、3DARサービスサーバ7にオブジェクトの選択要求をプロセッサ208から送信する。3DARサービスサーバ7は、要求に応じて3DARオブジェクトを携帯情報デバイス2に送信し、携帯情報デバイス2が受信する(S105)。そして、プロセッサ208は次のユーザ操作を待つ。
ユーザ操作が選択済みの3DARオブジェクトの拡大縮小、平行移動、回転移動等の表示制御操作である場合(S103:表示制御操作)、ユーザ操作を3DARサービスサーバ7へ送信する(S104)。
3DARサービスサーバ7は、ユーザ操作に応じて3DARオブジェクトの拡大、縮小、平行移動、回転移動を行い、再描画した3DARオブジェクトを携帯情報デバイス2に返送し、携帯情報デバイス2が受信する(S105)。プロセッサ208は、受信した3DARオブジェクトを一体型ディスプレイ202に表示する。
ここでは、ユーザからの操作に応じた3DARオブジェクトへの拡大縮小や移動等の変換処理を3DARサービスサーバ7で行う例で示したが、携帯情報デバイス2に3DARオブジェクトのデータを取り込み、携帯情報デバイス2で同様の処理を行った後に、3DARサービスサーバ7もしくは合成画像サービスサーバ8に送っても良い。
ユーザ操作が終了すると(S103:終了)、ユーザは、背景画像に撮像された複数の被写体像の中から、3DARオブジェクトを紐付けたい被写体像を選択し、3DARオブジェクトと被写体像(現実オブジェクト)への紐付け操作を行う(S106)。プロセッサ208は、紐付けを規定した紐付け情報を合成画像サービスサーバ8に送信する。
プロセッサ208は、現実オブジェクトの移動を伴う3DARオブジェクトの移動が生じると移動量を検出する(S107:Yes)。移動量が検出される場合とは、例えば背景画像30が複数のフレームからなる動画像であり、そのうちの一フレームで現実オブジェクトと3DARオブジェクトとを紐付け、そのフレームとは異なる別のフレームに撮像された現実オブジェクトがフレーム間で移動している場合である。その場合、フレーム間での現実オブジェクトの移動量をプロセッサ208が算出する。
現実オブジェクトの移動は、平行移動だけでなく、回転移動もある。回転移動した場合には、現実オブジェクトに付随して回転移動する3DARオブジェクトの回転角度を検出する。また、現実オブジェクトが奥行き方向に移動した場合には、現実オブジェクトの移動距離を求め、移動距離に応じた3DARオブジェクトの拡大率、縮小率を決定する。
プロセッサ208は、通信器207を介して決定した3DARオブジェクトの移動量を3DARサービスサーバ7に送信する(S108)。
3DARサービスサーバ7は、受信した移動量に応じて3DARオブジェクトの画像データを変換し、携帯情報デバイス2に送信し、携帯情報デバイス2が受信する(S109)。そしてステップS107へ戻る。
現実オブジェクトの移動量を検出せず(S107:No)、3DAR制御アプリ213の終了操作が行われると(S110:Yes)、処理を終了する(S111)。
3DAR制御アプリ213の終了操作が行われなければ(S110:No)、ステップS102へ戻る。
図5は、第一の実施形態に係るサービスサーバ、より詳しくは背景画像サービスサーバ5、画像解析サービスサーバ6、3DARサービスサーバ7、及び合成画像サービスサーバ8のブロック図である。背景画像サービスサーバ5、画像解析サービスサーバ6、3DARサービスサーバ7、合成画像サービスサーバ8のハードウェア構成は同一であるので、図5を兼用して説明する。
背景画像サービスサーバ5、画像解析サービスサーバ6、3DARサービスサーバ7、合成画像サービスサーバ8のそれぞれは、ネットワーク4に通信接続するためのネットワークIF501、プロセッサ502、RAM503、ストレージ504を含み、これらが内部バス500を介して互いに接続されて構成される。
ストレージ504はフラッシュメモリのほか、ハードディスクドライブ等と組み合わせたものであってもよい。ストレージ504は、処理プログラムとして、基本動作プログラム505、サービスプログラム506を含み、プロセッサ502がRAM503にプログラムを展開して実行する。更に処理プログラムを実行するのに必要なデータを保存データ507として保持する。サービスプログラム506及び保存データ507は、背景画像サービスサーバ5、画像解析サービスサーバ6、3DARサービスサーバ7、及び合成画像サービスサーバ8の機能及び処理内容に合わせて各サーバによって異なる。
サービスプログラム506は、背景画像サービスプログラム、画像解析サービスプログラム、3DARサービスプログラム、及び合成画像サービスプログラムである。図1では、それぞれ異なるサービスサーバとして示したが、同じサーバ内で複数の処理プログラムを実行させることで全てを別のサーバで処理しなくてもよい。
図6は、第一の実施形態に係る3DARサービスサーバ7が提供する3DARサービスのフローチャートである。S200で処理を開始し、3DARサービスサーバ7が携帯情報デバイス2のログイン受付処理を行い(S201)、サービスの提供を開始する。
3DARサービスサーバ7は、携帯情報デバイス2の3DAR制御アプリ213から受信した受信信号、若しくは画像解析サービスサーバ6から受信した受信信号を識別する(S202)。
受信した信号が新しい3DARオブジェクトの選択を示す操作信号であれば(S202:3DAROの選択操作)、3DARサービスサーバ7は、選択操作が示す新たな3DARオブジェクトのデフォルト画像(等倍、回転角度0度の画像)の画像データを読み出し(S203)、携帯情報デバイス2と合成画像サービスサーバ8へ送信する(S205)。本例では、携帯情報デバイス2と合成画像サービスサーバ8へ送信するとしたが、携帯情報デバイス2のみに、又は合成画像サーバのみに送信してもよい。
受信した信号が、携帯情報デバイス2からの表示制御操作信号、又は、画像解析サービスサーバ6からの3DARオブジェクトに紐付けられた現実オブジェクトの移動量を示す移動量情報である場合は(S202:表示制御操作信号or移動量情報)、受信した表示制御操作信号又は移動量情報に基づき、選択済の3DARオブジェクトを拡大縮小、平行移動、回転移動等の再描画を行い(S204)携帯情報デバイス2と合成画像サービスサーバ8へ送信する(S205)。本例では、携帯情報デバイス2と合成画像サービスサーバ8へ送信するとしたが、携帯情報デバイス2のみ、又は合成画像サービスサーバ8のみに送信してもよい。表示制御操作信号は、3DARオブジェクトの配置位置や奥行き情報を含む配置データ、及び紐付ける現実オブジェクトを示す情報の少なくとも一つ以上を含む。
受信した信号が、携帯情報デバイス2からのサービスの終了を指示する終了操作信号である場合は(S202:終了操作信号)、ログアウトし、終了する(S206)。
また、図4の3DAR制御アプリ213の説明でも示したが、図6の処理を携帯情報デバイス2上で行っても良く、ユーザ操作もしくは3DARオブジェクトの移動情報に基づいて変換した画像を再描画したものを3DARサービスサーバ7と合成画像サービスサーバ8に送るようにしてもよい。
図7は、第一の実施形態に係る背景画像サービスサーバ5が提供する背景画像サービスのフローチャートである。S300で処理を開始し、携帯情報デバイス2のログイン受付処理を行い(S301)、サービスの提供を開始する。
携帯情報デバイス2から、もしくはユーザが合成画像サービスサーバ8を操作して背景画像を選択し、その背景画像の選択指示をして生成された選択信号を受信し(S302)、選択信号に応じて背景画像データを読み込み(S303)、読み込んだ背景画像データを画像解析サービスサーバ6に送信する(S304)。
背景画像サービスサーバ5は、画像解析サービスサーバ6から解析データを受信し(S305)、背景画像30のメタデータとして解析データを添付して背景画像30を更新すると共に、合成画像サービスサーバ8にメタデータを添付した背景画像データを送信する(S306)。
携帯情報デバイス2からの終了信号があるまでは(S307:No)、ステップS303へ戻り、背景画像30の読み込みを繰り返す。背景画像30が動画像である場合、この繰り返しは、動画像のフレーム周期、もしくはその整数倍の周期で行われるが、動画像の全体を読み込む場合もある。
携帯情報デバイス2からの終了信号があれば(S307:Yes)、ログアウトし、終了する(S308)。
図8は、第一の実施形態に係る画像解析サービスサーバ6が提供する画像解析サービスのフローチャートである。S400で処理を開始し、S401でログイン受付処理を行い、サービスの提供を開始する。画像解析サービスサーバ6は、背景画像サービスサーバ5から背景画像データを受信し(S402)、S403~S405の解析ステップで画像解析を行う。
画像解析サービスサーバ6は、背景画像の特徴点を抽出する(S403)。特徴点の抽出は、現実物体等の輪郭(エッジ)を抽出し、輪郭の変曲点や頂点を特徴点とする。
続いて画像解析サービスサーバ6は、輪郭を構成するこれら特徴点の集合から、現実オブジェクトが何であるかを認識する(S404)。
更に画像解析サービスサーバ6は、認識された現実オブジェクトの形状や大きさなどを参考に、特徴点の奥行きを推定し奥行き情報とする(S405)。これら解析結果を示す解析データは、背景画像サービスサーバ5に送信される(S406)。
3次元拡張現実オブジェクトを紐付けるオブジェクトは、現実物体に対応する現実オブジェクトでもよいし、仮想オブジェクトでもよい。また、現実オブジェクトは、背景に対応する背景オブジェクトと背景よりも前面に撮像された被写体オブジェクトでもよい。3次元拡張現実オブジェクトに更に3次元拡張現実オブジェクトを紐付ける場合は、複数の3次元拡張現実オブジェクトのそれぞれの奥行き情報を参照し、複数の3次元拡張現実オブジェクト間でオクルージョン処理を行い、更に背景画像の現実オブジェクトともオクルージョン処理を行って合成する。
携帯情報デバイス2からの終了信号があるまでは(S407:No)、ステップS402へ戻り、背景画像データの受信を繰り返す。背景画像が動画像である場合、この繰り返しは、動画像のフレーム周期、もしくはその整数倍の周期で行われるが、動画像の全体を受信する場合もある。
携帯情報デバイス2からの終了信号があれば(S407:Yes)、ログアウトし、終了する(S408)。
図9は、第一の実施形態に係る合成画像サービスサーバ8が提供する合成画像サービスのフローチャートである。S500で処理を開始し、S501で合成画像サービスサーバ8が携帯情報デバイス2のログイン受付処理を行い、サービスの提供を開始する。
合成画像サービスサーバ8は、背景画像サービスサーバ5から背景画像データと共にメタデータを受信し(S502)、3DARサービスサーバ7から3DARオブジェクトの画像と奥行き情報等の配置データを受信する(S503)。
合成画像サービスサーバ8は、背景画像の現実オブジェクトと3DARオブジェクトとをオクルージョン処理をして合成し(S504)、合成画像データをディスプレイ3に送信する(S505)。ステップS504のオクルージョン処理は、ユーザが複数の3DARオブジェクトを背景画像に配置する場合には、3DARオブジェクト間でも実行される。
携帯情報デバイス2から終了信号を受信するまでは(S506:No)、ステップS502へ戻り、背景画像データの受信に戻り、ステップS502以下の処理を繰り返す。これにより、背景画像が動画の場合には、紐付けされた現実オブジェクトの移動に合わせて、3DARオブジェクトの画像が変換されて合成されることになる。
携帯情報デバイス2から終了信号を受信すると(S506:Yes)、ログアウトし、終了する(S507)。
以上説明したように、第一の実施形態の3次元拡張現実処理システム100、方法、及び3次元拡張現実処理システムのユーザインターフェース装置によれば、ユーザはHMDを必要せず、また背景画像としてユーザの居る場所に限定されない蓄積された、あるいはライブ配信の2次元画像等を背景画像として3DARオブジェクトの画像をそれに合成して表示させることが可能となる。また蓄積された、あるいは複数のユーザにライブ配信される画像を背景画像として用いることができるので、複数のユーザのそれぞれが同時に同じ背景画像に対して3DARオブジェクトを合成することもできる。
更に、合成画像の3DARオブジェクトの画像は、配置位置、大きさ、視線方向を携帯情報デバイス2にて制御可能で、背景画像とオクルージョン処理が施される。これにより、奥行き感のあるコンテンツが提供できるという特徴を有する。
加えて、背景画像が動画の場合は、背景画像のいずれかのフレームで現実オブジェクトと3DARオブジェクトとを紐付けると、その前後のフレーム間で現実オブジェクトが移動しても、その移動に追従させて3DARオブジェクトを表示させることができる。
[第二の実施形態]
図10から図13で、第二の実施形態である3次元拡張現実処理システム100a、方法、及び3次元拡張現実処理システムのユーザインターフェース装置について説明する。
図10から図13で、第二の実施形態である3次元拡張現実処理システム100a、方法、及び3次元拡張現実処理システムのユーザインターフェース装置について説明する。
(システム構成)
図10は、第二の実施形態に係る3次元拡張現実処理システム100aの概要図である。図10にて、図1に示した第一の実施形態のシステムの概要図と同一のブロックには同一の番号を付与しており、重複する説明は省く。
図10は、第二の実施形態に係る3次元拡張現実処理システム100aの概要図である。図10にて、図1に示した第一の実施形態のシステムの概要図と同一のブロックには同一の番号を付与しており、重複する説明は省く。
図10と図1のシステム構成の違いは、複数のユーザ1a、1bのそれぞれが操作する携帯情報デバイス2a、2bがネットワーク4に接続されている。
ユーザ1a、1bは、それぞれ携帯情報デバイス2a、2bを操作し、それぞれの携帯情報デバイス2a、2bが背景画像サービスサーバ5から背景画像を、3DARサービスサーバ7から3DARオブジェクトの画像を得て、合成画像サービスサーバ8で2種の画像を合成し、ディスプレイ3に表示させる。この時、ユーザ1a、1bは、それぞれ独立に3DARオブジェクトを制御する。
(処理フローと表示画面)
図11は、第二の実施形態に係る3DARサービスサーバ7が提供する3DARサービスのフローチャートである。S601で処理を開始すると、3DARサービスサーバ7はログイン処理を行い(S602)、サービスの提供を開始する。3DARサービスサーバ7は、ユーザ数に応じて並行したプロセスを実行する。例えば、図11のプロセス1がユーザ1aに、プロセス2がユーザ1bに対応する。
図11は、第二の実施形態に係る3DARサービスサーバ7が提供する3DARサービスのフローチャートである。S601で処理を開始すると、3DARサービスサーバ7はログイン処理を行い(S602)、サービスの提供を開始する。3DARサービスサーバ7は、ユーザ数に応じて並行したプロセスを実行する。例えば、図11のプロセス1がユーザ1aに、プロセス2がユーザ1bに対応する。
それぞれのプロセスにおいて、S601で対応するユーザのログイン受付処理を行い、サービスの提供を開始する。
3DARサービスサーバ7は、携帯情報デバイス2の3DAR制御アプリから受信した受信信号を識別し、受信信号が3DARオブジェクトの選択操作信号であれば(S602:選択操作信号)、デフォルト画像を読み出す(S603)。受信信号が表示制御操作信号及び移動量情報であれば(S602:表示制御操作信号 or 移動量情報)、ユーザ操作が選択済みの3DARオブジェクトの拡大縮小、平行移動等の処理を行い、3DARオブジェクト画像を再描画する(S604)。
3DARサービスサーバ7は、3DARオブジェクトのデフォルト画像、もしくは再描画した画像データを携帯情報デバイス2の3DAR制御アプリと合成画像サービスサーバ8に送信する(S605)。その後S602へ戻る。
3DARサービスサーバ7は、受信信号が終了信号であれば(S602:終了操作信号)ログアウトする(S606)。そして、ユーザ全員がログアウトするまではログインしている携帯情報デバイス2の処理を行う。全員がログアウトしたことを確認すると(S607:Yes)、終了する(S608)。
図12は、第二の実施形態に係る合成画像サービスサーバ8が提供する合成画像サービスのフローチャートである。S700で処理を開始し、合成画像サービスサーバ8は、ログイン受付処理を行い(S701)、サービスの提供を開始する。S701のログイン受付処理のステップは、ユーザの数だけある。
合成画像サービスサーバ8は、背景画像サービスサーバ5から背景画像データと共にメタデータを受信する(S702)。
合成画像サービスサーバ8は、3DARサービスサーバ7から3DARオブジェクトの画像と奥行き情報等の配置データを受信する(S703)。
合成画像サービスサーバ8は、背景画像の現実オブジェクトと3DARオブジェクトとをオクルージョン処理で合成する(S704)。
合成画像サービスサーバ8は、ユーザ数を判定し、ユーザ数に応じた回数、S703とS704のステップを実行し、複数のユーザからの3DARオブジェクトを合成する(S705:No)。ユーザ数に応じた回数実行後(S705:Yes)、合成画像サービスサーバ8は、合成画像データをディスプレイ3に送信する(S706)。
ステップS704の合成(オクルージョン)処理は、現実オブジェクトと3DARオブジェクト間のみではなく、複数ユーザの3DARオブジェクト間でも行われる。また一人のユーザが複数の3DARオブジェクトを配置する場合でも、3DARオブジェクト間でのオクルージョン処理が行われる。
ステップS707では、合成画像サービスサーバ8は、例えば携帯情報デバイス2からの終了指示等で終了を判断し、終了と判断すると(S707:Yes)、ログアウトして終了する(S708)。まだ終了しない判断すると(S707:No)、ステップS702に戻り、背景画像データを受信する。
図13は、第二の実施形態に係るディスプレイ3と2つの携帯情報デバイス2a、2bの表示画面を示す図である。
ディスプレイ3では、画面全体に背景画像30が表示され、現実オブジェクト(ここでは手前の人物31)に紐付けされて、3DARオブジェクト71が表示されている。3DARオブジェクト71は、現実オブジェクトである人物31の奥に配置されている。もうひとつの3DARオブジェクト73は、現実オブジェクトの背景オブジェクト(画面上部の空35)に配置されている。
3DARオブジェクトを現実オブジェクトへ紐付けする場合、動画像のような背景画像の動き中で人物31が動く時には、人物31に紐付けされた3DARオブジェクト71も連動する。3DARオブジェクト73を背景オブジェクトの空35に紐付けた場合、背景画像の動きに関わらず、3DARオブジェクト73を貼り付けられた画面位置に留まったままとすることができる。この場合3DARオブジェクト73を動かすには、ユーザ操作で3DARオブジェクト73を移動させる。このように、現実オブジェクトに紐付けるか、背景オブジェクトに紐付けるかにより、3DARオブジェクトの動特性を異ならせることができ、多様な3DARオブジェクトの表現が可能となる。
携帯情報デバイス2a、2bのそれぞれの画面には、3DARオブジェクト70a、70bがそれぞれ表示されている。3DARオブジェクト70aは、ディスプレイ3上の3DARオブジェクト71であり、3DARオブジェクト70bは、ディスプレイ3上の3DARオブジェクト73である。これらの3DARオブジェクト70a、70bはユーザ1a、1bの指10a、10bで制御する。
以上説明したように、第二の実施形態の3次元拡張現実処理システム100b、方法、及び3次元拡張現実処理システムのユーザインターフェース装置によれば、第一の実施形態と同じ特徴を有すると共に、複数のユーザが同一の背景画像を用いて参加するコンテンツが実現できる。
[第三の実施形態]
図14と図15で、第三の実施形態ついて説明する。
図14と図15で、第三の実施形態ついて説明する。
図14は、第三の実施形態に係るディスプレイ3と携帯情報デバイス2の表示画面を示す図である。図2で示した表示画面と同一の要素には、同一の番号を付与している。図14が図2の場合と異なる点は、携帯情報デバイス2の画面にも、背景画像の一部が映し出されていることである。
携帯情報デバイス2の画面には、図2と同様、3DARオブジェクト70と、3DARサービスサーバ7へのアクセス釦20、背景画像サービスサーバ5へのアクセス釦21が表示されているが、背景画像30aも映し出される。背景画像30aは、3DARオブジェクト70の表示の大きさとのバランスから、全景ではなくともよく、3DARオブジェクト70を中心とした一部でもよいし、拡大縮小したり、スクロールすることで表示部分を変更したりすることができる。例えば、リモートサイトに居るユーザで、ディスプレイ3の画面を直接確認できない場合でも、ユーザは自身の携帯情報デバイス2でコンテンツに参加できる。特に、タブレットPCのような大きな画面サイズの携帯情報デバイス2には好適である。
図15は、第三の実施形態に係る合成画像サービスサーバ8が提供する合成画像サービスのフローチャートである。図9に示したフローチャートとの関係では、S500とS800、S501とS801、S502とS802、S503とS803、S504とS804、更にはS506とS806、S507とS807は対応し、同一のステップとみなすことができる。
図15のフローチャートのS805では、合成画像データをディスプレイ3と携帯情報デバイス2に送信する。
以上説明したように、第三の実施形態の3次元拡張現実処理システム、方法、及び3次元拡張現実処理システムのユーザインターフェース装置によれば、第一の実施形態、第二の実施形態と同じ特徴を有すると共に、リモートサイトのユーザが参加できるコンテンツが実現できる。
[第四の実施形態]
図16から図20で、第四の実施形態について説明する。
図16から図20で、第四の実施形態について説明する。
図16は、第四の実施形態に係る3次元拡張現実処理システム100bの概要図である。図1に示した第一の実施形態のシステムの概要図と同一の構成要素については、同一の番号を付与している。図1のシステム構成との違いは、ディスプレイ3が合成画像サービスサーバ8に直結されていることにある。
ディスプレイ3と合成画像サービスサーバ8は、例えばデスクトップ型のPCなどで実現される。合成画像サービスサーバ8がディスプレイ3と直接つながることで、合成画像サービスサーバ8は背景画像サービスサーバ5の画像を読み出し、画像解析サービスサーバ6の奥行き情報を解析した結果であるメタデータを受信し、携帯情報デバイス2から3DARオブジェクトの情報を受け取ることができる。
ユーザ1は、携帯情報デバイス2と、合成画像サービスサーバ8に接続されたディスプレイ3を見ながら直接操作を行うことができる。
図17は、第四の実施形態に係る合成画像サービスサーバ80のブロック図である。例えば、ノートPCが相当する。
図17にて、合成画像サービスサーバ80は、カメラ801、距離センサ803、スピーカ805、入力デバイス806、通信器807、プロセッサ808、RAM809、画像RAM810、フラッシュメモリ811が内部バス800により互いに接続されて構成される。さらに、合成画像サービスサーバ80に、外付けのディスプレイ3が接続される。
通信器807は、無線LAN、Bluetooth(登録商標)あるいはモバイル通信等の通信処理の中から適切な処理を選択して、ネットワーク4に接続する。
フラッシュメモリ811には、処理プログラムとして、基本動作プログラム812、合成画像アプリ813を含み、これら処理プログラムは、RAM809に展開して、プロセッサ808が実行する。更にフラッシュメモリ811には、処理プログラムを実行するのに必要なデータを保存データ814として保持する。フラッシュメモリ811は、フラッシュメモリ以外の不揮発性のメモリ媒体やハードディスクを含んでもよい。またディスプレイ3に映す画像データは、画像RAM810に格納した後、読み出す。サーバとしての機能は合成画像サービスサーバと同等の機能を備える。
図18は、第四の実施形態に係る合成画像サービスサーバ80と携帯情報デバイス2の関係図である。本実施形態では、合成画像サービスサーバ80と携帯情報デバイス2とで、ユーザ制御を実現させる。
図18にて、合成画像サービスサーバ80と携帯情報デバイス2は、近距離無線通信、例えばBluetooth(登録商標)信号807a、807bで繋がっている。
ここで二つのユーザ制御の方式について説明する。
一つ目の方式は、携帯情報デバイス2自体の移動や姿勢の変化を合成画像サービスサーバ80に送る方式である。背景画像が表示された合成画像サービスサーバ80に対して、ある位置を携帯情報デバイス2の初期位置とする。これは、ユーザが携帯情報デバイス2と合成画像サービスサーバ80の両方の画面を見える位置であるとする。
ユーザ1は、3DARオブジェクトを選択して携帯情報デバイス2の画面に表示させた後、3DARオブジェクトの向きやサイズを変更したり、携帯情報デバイス2の位置や姿勢を動かしたりして、3DARオブジェクトを合成画像サービスサーバ80の画面上の好きな位置や方向に配置する。(位置や姿勢の動かし方については図19、図20で説明する。)
初期位置に対して、携帯情報デバイス2がどのように移動したかは、携帯情報デバイス2内の加速度センサ203aやジャイロセンサ203b、方位センサ203cにて検出することができ、変化した距離や方向、変化後の携帯情報デバイス2の姿勢の情報を近距離無線にて合成画像サービスサーバ80に送る。本実施形態では、加速度センサ203aやジャイロセンサ203b、方位センサ203cのセンサ出力を、ユーザ1が携帯情報デバイス2を動かした方向や移動量といった操作内容を示す操作信号として用いるので、加速度センサ203aやジャイロセンサ203b、方位センサ203cは操作信号出力器に相当する。
合成画像サービスサーバ80は、携帯情報デバイス2の移動情報を受けて、その移動量に応じたように3DARオブジェクトの位置や向き、大きさなどを変化させて、背景画像と合成してディスプレイ3の画面に表示する。
ここで携帯情報デバイス2の初期位置を決める際に、携帯情報デバイス2上のボタンを押して設定するようにしても良い。そうすると携帯情報デバイス2の初期位置の情報を合成画像サービスサーバ80が受取ることができ、そこからの携帯情報デバイス2の移動量に対する3DARオブジェクトの変化量も容易に演算することができる。
また、背景画像が動画である場合、携帯情報デバイス2の初期位置による3DARオブジェクトの配置は、画像をいったん止めた静止画上(特定のフレーム上)で行い、その後、携帯情報デバイス2の再生ボタンの操作により、背景画像の再生を開始し、再生画像に合わせて、携帯情報デバイス2の位置や姿勢を変化させるようにユーザが操作する。
その操作に合わせて、携帯情報デバイス2の移動量が合成画像サービスサーバ80に送られ、その移動量に応じて3DARオブジェクトを変化させるように処理して、背景画像に合成する。携帯情報デバイス2が移動しない場合には、3DARオブジェクトは背景画像の中に合成された位置を変化させずに維持する。もし、携帯情報デバイス2が移動しなくても、背景画像の映像が変化すれば、3DARオブジェクトは映像に合成された位置に合わせて変化する。
二つ目の方式は、合成画像サービスサーバ80の距離センサ803を用い、携帯情報デバイス2との距離を測る方法である。携帯情報デバイス2の初期位置の設定と動画のスタートは、一つ目の方法と同様である。
携帯情報デバイス2は姿勢が変化するため、距離センサ803は携帯情報デバイス2の重心の位置を計測するとわかりやすい。測定された合成画像サービスサーバ80の画面からの距離により、3DARオブジェクトの表示画像の大きさを変える。
また、合成画像サービスサーバ80のカメラ801は、携帯情報デバイス2を撮影し、姿勢を認識し、その傾きにより3DARオブジェクトの姿勢方向を制御する。もしくは、携帯情報デバイス2の姿勢情報を携帯情報デバイス2内の加速度センサ203a、ジャイロセンサ203bなどのセンサ群203で検出し、そのセンサ出力を操作信号として合成画像サービスサーバ80が受取って、3DARオブジェクトの姿勢方向を制御した画像を処理しても良い。
図19A、図19Bは、第四の実施形態に係るユーザ制御の例を示す図であり、図2Aで説明したユーザ制御と異なる。
図19Aのユーザ制御は、携帯情報デバイス2本体をユーザが動かすことにより達成される。図19Aに示すように、携帯情報デバイス2を初期位置から合成画像サービスサーバ80の画面に対して前後に動かして(接近させたり遠ざけたりして)、3DARオブジェクトの表示画像75a、75b、75cのように背景画像に配置する奥行きの位置を変更する。すなわち、背景画像の奥行きの変化に合わせて3DARオブジェクトの表示画像の大きさを制御する。
ここで、携帯情報デバイス2の初期位置の時の背景画像の奥行きの位置を予め決めておくとわかりやすい。例えば、背景画像の奥行きが一定の処理の範囲内であるならば、その中間地点の距離を起点としても良いし、背景画像が無限遠のような場合には、最も手前の距離を起点と定めても良い。また、携帯情報デバイス2の移動により、合成画像サービスサーバ80の画面に接触しそうに近づいたり、ユーザの手前に近づき過ぎたりする場合には、携帯情報デバイス2の距離の移動に対して、背景画像の移動する距離の縮尺を変えるようにしても良い。
次に、図19Bに示すように、矢印24a、24b、24c、24dのように携帯情報デバイス2を自由に回転させて、3DARオブジェクトの表示画像75d、75e、75fのように、3DARオブジェクトの向き(姿勢)を制御することができるようにする。
携帯情報デバイス2には、加速度センサ203aやジャイロセンサ203b等のセンサ群203が備えられており、自身の姿勢を検出することが可能である。その情報を通信器807を介して合成画像サービスサーバ80に送っても良い。
また、図18で説明したように、携帯情報デバイス2の姿勢は、合成画像サービスサーバ80のカメラ801で検出が可能であり、携帯情報デバイス2の内部のセンサの検出結果(センサ出力)を無線通信で受け取って、3DARオブジェクトの変化の画像処理を行っても良い。
図20は、第四の実施形態に係る携帯情報デバイス2の位置と姿勢情報の例を示す図である。この図では、時間t1、t2、t3の経過に対して、(xt,yt,zt1)、(xt,yt,zt2)、(xt,yt,zt3)と座標が遷移する。すなわち、z軸の方向にのみ、携帯情報デバイス2が移動していることがわかる。
また、(図示していないが)携帯情報デバイス2の平行移動だけでなく、x、y、zの各軸に対する回転角度を内蔵するセンサによって検出することも可能である。例えば、(xα,yβ,zγ)のようにそれぞれの時間の姿勢情報も検出することができる。(ここでα、β、γはそれぞれx軸、y軸、z軸それぞれを中心軸とする回転角度を示す。)
これにより、それぞれの時間における携帯情報デバイス2の位置と姿勢の情報を検出し、合成画像サービスサーバ80に送ることが可能である。また、携帯情報デバイス2の位置や姿勢の情報は、合成画像サービスサーバ80のカメラ801を用いて、その画像を解析することでも検出は可能である。
以上説明したように、第四の実施形態の3次元拡張現実処理システム100bのユーザインターフェースによれば、第一の実施形態と同じ作用効果を奏すると共に、ユーザが携帯情報デバイス2の表示画面を見ずに、ディスプレイ3の表示だけを見ながら、3DARオブジェクトを制御できる。
また、第四の実施形態の3次元拡張現実処理システム、方法、及び3次元拡張現実処理システムのユーザインターフェース装置によれば、汎用のPCやタブレットPCの利用ができるという特徴がある。
本発明は、上記各実施形態に限定されるものではなく、ある実施形態の構成の一部を他の実施形態に置き換えることが可能である。また、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。これらは全て本発明の範疇に属するものであり、更に文中や図中に現れる数値やメッセージ等もあくまで一例であり、異なるものを用いても本発明の効果を損なうものでない。
また、発明の機能等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実装しても良い。また、マイクロプロセッサユニット、プロセッサ等が動作プログラムを解釈して実行することによりソフトウェアで実装しても良い。また、ソフトウェアの実装範囲を限定するものでなく、ハードウェアとソフトウェアを併用しても良い。
例えば上記各種サービスサーバと携帯情報デバイス2を一つのハードウェア(コンピュータ)で構成し、これにディスプレイ3を接続して、本発明に係る3次元拡張現実処理システムを構成してもよい。
1、1a、1b:ユーザ
2、2a、2b:携帯情報デバイス
3 :ディスプレイ
4 :ネットワーク
5 :背景画像サービスサーバ
6 :画像解析サービスサーバ
7 :3DARサービスサーバ
8 :合成画像サービスサーバ
10、10a、10b:指
20、21:アクセス釦
22 :動作説明
23 :部分拡大図
24a、24b、24c、24d:矢印
30、30a:背景画像
31、31a、31b:人物
32 :建物
35 :空
70、70a、70b、71、71a、71b、72a、73、701:3DARオブジェクト
72b :縮小
72c :拡大
75a、75b、75c、75d、75e、75f:表示画像
80 :合成画像サービスサーバ
100、100a、100b:3次元拡張現実処理システム
200、500、800:内部バス
201、801:カメラ
202 :一体型ディスプレイ
203 :センサ群
203a :加速度センサ
203b :ジャイロセンサ
203c :方位センサ
204 :マイク
205、805:スピーカ
206 :タッチセンサ
207、807:通信器
208、502、808:プロセッサ
209、503、809:RAM
210、810:画像RAM
211、811:フラッシュメモリ
212、505、812:基本動作プログラム
213 :3DAR制御アプリ
214、507、814:保存データ
501 :ネットワークIF
504 :ストレージ
506 :サービスプログラム
803 :距離センサ
806 :入力デバイス
807a、807b:信号
813 :合成画像アプリ
2、2a、2b:携帯情報デバイス
3 :ディスプレイ
4 :ネットワーク
5 :背景画像サービスサーバ
6 :画像解析サービスサーバ
7 :3DARサービスサーバ
8 :合成画像サービスサーバ
10、10a、10b:指
20、21:アクセス釦
22 :動作説明
23 :部分拡大図
24a、24b、24c、24d:矢印
30、30a:背景画像
31、31a、31b:人物
32 :建物
35 :空
70、70a、70b、71、71a、71b、72a、73、701:3DARオブジェクト
72b :縮小
72c :拡大
75a、75b、75c、75d、75e、75f:表示画像
80 :合成画像サービスサーバ
100、100a、100b:3次元拡張現実処理システム
200、500、800:内部バス
201、801:カメラ
202 :一体型ディスプレイ
203 :センサ群
203a :加速度センサ
203b :ジャイロセンサ
203c :方位センサ
204 :マイク
205、805:スピーカ
206 :タッチセンサ
207、807:通信器
208、502、808:プロセッサ
209、503、809:RAM
210、810:画像RAM
211、811:フラッシュメモリ
212、505、812:基本動作プログラム
213 :3DAR制御アプリ
214、507、814:保存データ
501 :ネットワークIF
504 :ストレージ
506 :サービスプログラム
803 :距離センサ
806 :入力デバイス
807a、807b:信号
813 :合成画像アプリ
Claims (11)
- 背景画像に3次元拡張現実オブジェクトを配置して、合成する3次元拡張現実処理システムであって、
ディスプレイ、ユーザの操作内容を示す操作信号を生成して出力する操作信号出力器、及び前記ディスプレイと前記操作信号出力器とのそれぞれに接続され、前記操作信号を取得して前記ディスプレイの表示制御を行うプロセッサを含み、
前記プロセッサは、
前記背景画像を読み込み、
前記背景画像において被写体が撮像された領域からなる少なくとも1つ以上の現実オブジェクトを抽出すると共に、前記現実オブジェクトのそれぞれについての奥行き情報を解析した結果を読み込み、
前記背景画像に合成される前記3次元拡張現実オブジェクトを読み込み、
前記3次元拡張現実オブジェクトの奥行き情報を示すユーザの操作に基づいて前記操作信号出力器が生成した前記操作信号を取得し、
前記操作信号が示す奥行き情報及び前記現実オブジェクトの奥行き情報を比較して、前記3次元拡張現実オブジェクト及び前記現実オブジェクトのオクルージョン処理を行って、前記背景画像に前記3次元拡張現実オブジェクトを合成し、
前記3次元拡張現実オブジェクトが合成された前記背景画像を前記ディスプレイに表示する、
ことを特徴とする3次元拡張現実処理システム。 - 請求項1に記載の3次元拡張現実処理システムであって、
前記プロセッサは、メモリに更に接続され、
前記3次元拡張現実オブジェクトを前記現実オブジェクトの一つに紐付けて前記メモリに記憶し、
前記背景画像内における前記現実オブジェクトの移動量に合わせて、前記3次元拡張現実オブジェクトの大きさ及び奥行き情報を変更し、
前記大きさ及び奥行き情報が変更された前記3次元拡張現実オブジェクトを前記背景画像に合成する、
ことを特徴とする3次元拡張現実処理システム。 - 請求項2に記載の3次元拡張現実処理システムであって、
前記背景画像は、複数のフレームを含んで構成される動画像であって、
前記プロセッサは、前記複数のフレームのうちの一フレームにおいて、前記3次元拡張現実オブジェクトと前記現実オブジェクトとの紐付けを行い、
前記紐付けを行ったフレームとは異なるフレーム間での前記現実オブジェクトの移動量に合わせて前記3次元拡張現実オブジェクトの大きさ及び前記3次元拡張現実オブジェクトの奥行き方向の前記異なるフレームにおける表示位置を変更する、
ことを特徴とする3次元拡張現実処理システム。 - 請求項3に記載の3次元拡張現実処理システムであって、
前記現実オブジェクトは、前記背景画像に撮像された背景オブジェクト、及び前記背景画像において前記背景オブジェクトよりも前に位置する被写体が撮像された被写体オブジェクトの少なくとも一つを含み、
前記3次元拡張現実オブジェクトが前記背景オブジェクトに紐付けられて前記異なるフレーム間で前記背景オブジェクトの移動量に変化がない場合は、前記異なるフレームに表示される前記3次元拡張現実オブジェクトは、前記一フレームにおいて表示された表示位置及び大きさから変化せず、
前記3次元拡張現実オブジェクトが前記被写体オブジェクトに紐付けられて前記異なるフレーム間で前記被写体オブジェクトの移動量に変化がある場合は、前記異なるフレームに表示される前記3次元拡張現実オブジェクトは、前記一フレームで表示された表示位置を基準として、前記被写体オブジェクトの移動量に合わせた大きさ及び前記奥行き方向の位置に変更され、移動した前記被写体オブジェクトの位置に追従した位置に合成される、
ことを特徴とする3次元拡張現実処理システム。 - 請求項1に記載の3次元拡張現実処理システムであって、
前記プロセッサを含むサーバと、前記操作信号出力器を含む携帯情報デバイスと、前記ディスプレイと、を通信接続して構成され、
前記携帯情報デバイスは、前記携帯情報デバイスに一体に形成された一体型ディスプレイ及び前記一体型ディスプレイに積層されたタッチセンサを含み、
前記操作信号出力器は、前記タッチセンサであって、
前記一体型ディスプレイに表示された前記3次元拡張現実オブジェクトの画像の大きさ、及び回転角度の少なくとも一つを変更する操作入力を前記タッチセンサが受け付けると、前記操作入力の内容を示す前記操作信号を生成し、
前記携帯情報デバイスから前記操作信号を前記サーバに送信し、
前記サーバは、前記操作信号を受信し、
前記プロセッサは、前記操作信号に基づいて、前記3次元拡張現実オブジェクトの大きさ及び回転角度を変更して前記ディスプレイに再描画する、
ことを特徴とする3次元拡張現実処理システム。 - 請求項5に記載の3次元拡張現実処理システムであって、
前記プロセッサは、前記一体型ディスプレイに、前記3次元拡張現実オブジェクトが合成された背景画像の一部を表示させる、
ことを特徴とする3次元拡張現実処理システム。 - 請求項1に記載の3次元拡張現実処理システムであって、
前記プロセッサを含むサーバと、前記操作信号出力器を含む携帯情報デバイスと、前記ディスプレイと、を通信接続して構成され、
前記操作信号出力器は、前記携帯情報デバイスに内蔵された加速度センサ、ジャイロセンサ、及び方位センサの一つ又は任意の組み合わせであり、
前記操作信号は、前記加速度センサ、前記ジャイロセンサ、及び前記方位センサのそれぞれから出力されたセンサ出力である、
ことを特徴とする3次元拡張現実処理システム。 - 請求項1に記載の3次元拡張現実処理システムであって、
前記プロセッサを含むサーバと、ユーザが操作する携帯情報デバイスと、前記ディスプレイと、を通信接続して構成され、
前記携帯情報デバイス又は前記ディスプレイの少なくとも一方は、前記携帯情報デバイス及び前記ディスプレイ間の距離を計測する距離センサを備え、
前記操作信号出力器は、前記距離センサであって、
前記距離センサが計測した前記携帯情報デバイス及び前記ディスプレイ間の距離に基づいて、前記3次元拡張現実オブジェクトの奥行き情報を示す操作信号が生成される、
ことを特徴とする3次元拡張現実処理システム。 - 請求項1に記載の3次元拡張現実処理システムであって、
前記プロセッサは、複数の前記3次元拡張現実オブジェクトのそれぞれの奥行き情報を参照し、前記3次元拡張現実オブジェクト毎の奥行き情報を比較してオクルージョン処理を行って、前記背景画像に前記複数の3次元拡張現実オブジェクトを合成する、
ことを特徴とする3次元拡張現実処理システム。 - 背景画像に3次元拡張現実オブジェクトを配置して、合成する3次元拡張現実処理方法であって、
前記背景画像を読み込むステップと、
前記背景画像を解析して、前記背景画像において被写体が撮像された領域からなる少なくとも1つ以上の現実オブジェクトを抽出すると共に、前記現実オブジェクトのそれぞれについての奥行き情報を解析した結果を読み込むステップと、
前記背景画像に合成される前記3次元拡張現実オブジェクトを読み込むステップと、
前記3次元拡張現実オブジェクトの奥行き情報を示すユーザの操作を示す操作信号を取得するステップと、
前記操作信号が示す奥行き情報及び前記現実オブジェクトの奥行き情報を比較して、前記3次元拡張現実オブジェクト及び前記現実オブジェクトのオクルージョン処理を行って、前記背景画像に前記3次元拡張現実オブジェクトを合成するステップと、
前記3次元拡張現実オブジェクトが合成された前記背景画像を提供するステップと、
を含むことを特徴とする3次元拡張現実処理方法。 - 3次元拡張現実オブジェクトと背景画像との合成画像を生成する3次元拡張現実処理システムのユーザインターフェース装置であって、
前記ユーザインターフェース装置に一体に形成された一体型ディスプレイ、前記一体型ディスプレイに積層されたタッチセンサ、及び前記一体型ディスプレイと前記タッチセンサとのそれぞれに接続されたプロセッサ、を含み、
前記プロセッサは、
前記一体型ディスプレイに表示された前記3次元拡張現実オブジェクトの画像の大きさ、及び回転角度の少なくとも一つを変更する操作入力を前記タッチセンサが受け付けると、前記操作入力に応じて再描画された前記3次元拡張現実オブジェクトを前記一体型ディスプレイに表示する、
ことを特徴とする3次元拡張現実処理システムのユーザインターフェース装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/038163 WO2022074791A1 (ja) | 2020-10-08 | 2020-10-08 | 3次元拡張現実処理システム、3次元拡張現実処理方法、及び3次元拡張現実処理システムのユーザインターフェース装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/038163 WO2022074791A1 (ja) | 2020-10-08 | 2020-10-08 | 3次元拡張現実処理システム、3次元拡張現実処理方法、及び3次元拡張現実処理システムのユーザインターフェース装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022074791A1 true WO2022074791A1 (ja) | 2022-04-14 |
Family
ID=81126363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/038163 WO2022074791A1 (ja) | 2020-10-08 | 2020-10-08 | 3次元拡張現実処理システム、3次元拡張現実処理方法、及び3次元拡張現実処理システムのユーザインターフェース装置 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2022074791A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220368880A1 (en) * | 2010-06-02 | 2022-11-17 | Maxell, Ltd. | Reception device, display control method, transmission device, and transmission method for program content type |
US11985291B2 (en) | 2010-06-02 | 2024-05-14 | Maxell, Ltd. | Reception device, display control method, transmission device, and transmission method for program content type |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107972A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | 複合現実感提示方法、複合現実感提示装置 |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
JP2012058968A (ja) * | 2010-09-08 | 2012-03-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2012212345A (ja) * | 2011-03-31 | 2012-11-01 | Sony Corp | 端末装置、オブジェクト制御方法及びプログラム |
JP2019532395A (ja) * | 2016-08-26 | 2019-11-07 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想現実および拡張現実ディスプレイシステムのための連続時間ワーピングおよび両眼時間ワーピングおよび方法 |
-
2020
- 2020-10-08 WO PCT/JP2020/038163 patent/WO2022074791A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107972A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | 複合現実感提示方法、複合現実感提示装置 |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
JP2012058968A (ja) * | 2010-09-08 | 2012-03-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2012212345A (ja) * | 2011-03-31 | 2012-11-01 | Sony Corp | 端末装置、オブジェクト制御方法及びプログラム |
JP2019532395A (ja) * | 2016-08-26 | 2019-11-07 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想現実および拡張現実ディスプレイシステムのための連続時間ワーピングおよび両眼時間ワーピングおよび方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220368880A1 (en) * | 2010-06-02 | 2022-11-17 | Maxell, Ltd. | Reception device, display control method, transmission device, and transmission method for program content type |
US11659152B2 (en) * | 2010-06-02 | 2023-05-23 | Maxell, Ltd. | Reception device, display control method, transmission device, and transmission method for program content type |
US11985291B2 (en) | 2010-06-02 | 2024-05-14 | Maxell, Ltd. | Reception device, display control method, transmission device, and transmission method for program content type |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020140832A1 (zh) | 人脸三维重建方法、装置、电子设备及存储介质 | |
JP5871345B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP5724543B2 (ja) | 端末装置、オブジェクト制御方法及びプログラム | |
KR101833253B1 (ko) | 증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치 | |
JP5709440B2 (ja) | 情報処理装置、情報処理方法 | |
US20120120113A1 (en) | Method and apparatus for visualizing 2D product images integrated in a real-world environment | |
WO2016120806A1 (en) | Method and system for providing virtual display of a physical environment | |
CN109564467B (zh) | 具有音频、视觉和运动分析的数码相机 | |
KR20160055177A (ko) | 깊이 센서들을 사용하는 구조적 모델링 | |
KR20150018468A (ko) | 하이브리드 비쥬얼 커뮤니케이션 | |
WO2020215858A1 (zh) | 基于虚拟环境的物体构建方法、装置、计算机设备及可读存储介质 | |
US20190026935A1 (en) | Method and system for providing virtual reality experience based on ultrasound data | |
KR101691034B1 (ko) | 3차원 그래픽 기반 단말기에서 객체 렌더링 시 부가정보 합성 장치 및 방법 | |
US10649615B2 (en) | Control interface for a three-dimensional graphical object | |
US10983661B2 (en) | Interface for positioning an object in three-dimensional graphical space | |
KR20110138715A (ko) | 이미지 조작 장치 및 방법 | |
WO2022052620A1 (zh) | 图像生成方法及电子设备 | |
JP2019008623A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
CN110568923A (zh) | 基于Unity3D的虚拟现实交互方法、装置、设备及存储介质 | |
CN111373347A (zh) | 虚拟现实内容的提供 | |
CN109829982A (zh) | 模型匹配方法、装置、终端设备及存储介质 | |
WO2022074791A1 (ja) | 3次元拡張現実処理システム、3次元拡張現実処理方法、及び3次元拡張現実処理システムのユーザインターフェース装置 | |
JP2023504803A (ja) | 画像合成方法、装置、およびストレージ媒体 | |
JP6726016B2 (ja) | 情報処理装置、情報処理方法 | |
JP2020509505A (ja) | 拡張現実を提供するための方法、装置及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20956738 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20956738 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |