JP2019133310A - 画像処理装置、画像処理プログラム及び画像処理方法 - Google Patents

画像処理装置、画像処理プログラム及び画像処理方法 Download PDF

Info

Publication number
JP2019133310A
JP2019133310A JP2018013662A JP2018013662A JP2019133310A JP 2019133310 A JP2019133310 A JP 2019133310A JP 2018013662 A JP2018013662 A JP 2018013662A JP 2018013662 A JP2018013662 A JP 2018013662A JP 2019133310 A JP2019133310 A JP 2019133310A
Authority
JP
Japan
Prior art keywords
image
omnidirectional
mesh shape
shape model
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018013662A
Other languages
English (en)
Other versions
JP6503098B1 (ja
Inventor
晴久 長谷川
Haruhisa Hasegawa
晴久 長谷川
泰祐 喜多
Taisuke Kita
泰祐 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Forgevision Inc
Original Assignee
Forgevision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Forgevision Inc filed Critical Forgevision Inc
Priority to JP2018013662A priority Critical patent/JP6503098B1/ja
Application granted granted Critical
Publication of JP6503098B1 publication Critical patent/JP6503098B1/ja
Publication of JP2019133310A publication Critical patent/JP2019133310A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】本発明は、より立体感のある全天球画像を提供することができ、仮想的な環境に全天球画像を提供するときに、より臨場感のある全天球画像を提供することができるようにする。【解決手段】本発明に係る画像処理装置は、立体感のある全天球画像を形成する画像処理装置であって、全天球画像の特徴に対応させた複数のメッシュ形状を組み合わせて3次元メッシュ形状モデルを形成するモデル形成手段と、3次元空間に設定した仮想基準点の座標値と、3次元メッシュ形状モデルの各画素の座標値とに基づいて、各画素の座標値を全天球画像の座標系に変換し、3次元メッシュ形状モデルに全天球画像をマッピングして全天球立体画像を形成する描画手段とを備えることを特徴とする。【選択図】 図1

Description

本発明は、画像処理装置、画像処理プログラム及び画像処理方法に関し、例えば、立体感のある全天球画像を形成する画像処理装置に適用し得るものである。
近年、360度の画像を撮像することができる全天球カメラ(又は、「全方位カメラ」、「360度カメラ」等とも呼ばれている。)がある。このような全天球カメラが撮像した画像は、例えば、「全天球画像」、「全方位画像」、「360度画像」等と呼ばれている。
従来、仮想空間に全天球画像を提供する技術として特許文献1及び2がある。
特許文献1には、ユーザが装着しているHMDの位置や傾きが変化すると、HMDセンサにより検知されたHMDの相対的な位置変化や傾き変化に連動させて、仮想空間上の視覚画像を変動させることが記載されている。
特許文献2には、ユーザが並進移動して視点位置が変わった場合に、その視点位置に合わせた画像を提供することが記載されている。より具体的に、特許文献2には、ワールド座標系で中心と半径とを決めた複数のパノラマ球を、パノラマ球間で方角を合わせてワールド座標系に配置させておき、ユーザの視点位置が現在のパノラマ球内になく、視点位置が別のパノラマ球内にある場合には、その別のパノラマ球に切り替えることが開示されている。
特開2017−201477号公報 特開2016−62486号公報
しかしながら、従来の全天球画像は、図2〜図4に例示するように、球体のメッシュ形状モデルを形成し(図3参照)、球体の中心から球体の内面に360度画像(図2参照)をマッピングしたものであり(図4参照)、ユーザは球体の内側から球体の内面に貼られた全天球画像を見ることになる。全天球画像は、球体の中心から球体内面に投影されたものであるため、視点からの距離感が一定であり、立体感が感じられないという問題がある。
また、特許文献1及び2等のように、例えばVR(仮想現実感)などの仮想的な環境に全天球画像を提供する場合、仮想空間を見ているユーザが、現実空間で上下方向、前後方向、左右方向に移動しても、仮想空間での視点が変動しないので、臨場感に掛けるという問題もある。
例えば、水平方向に地面があり、その地面の奥側に建物などが建っているような、立体視される全天球画像をHMDで見ているユーザが、現実空間で起立の姿勢からしゃがんだ姿勢に移動する場合を考える。このような場合に、現実空間での視点は地面に近づくように変動するので、仮想空間の視点も地面に近づいた位置に変動することが求められるが、従来の全天球画像は球体中心から球体内面に投影された画像であるため、視点が変動せず、地面に近づいた位置から見える画像とはならないという問題がある。
本発明は、上記課題に鑑み、より立体感のある全天球画像を提供することができ、仮想的な環境に全天球画像を提供するときに、より臨場感のある全天球画像を提供することができる画像処理装置、画像処理方法及び画像処理プログラムを提供しようとするものである。
かかる課題を解決するために、第1の本発明に係る画像処理装置は、立体感のある全天球画像を形成する画像処理装置であって、(1)全天球画像の特徴に対応させた複数のメッシュ形状を組み合わせて3次元メッシュ形状モデルを形成するモデル形成手段と、(2)3次元空間に設定した仮想基準点の座標値と、3次元メッシュ形状モデルの各画素の座標値とに基づいて、各画素の座標値を全天球画像の座標系に変換し、3次元メッシュ形状モデルに全天球画像をマッピングして全天球立体画像を形成する描画手段とを備えることを特徴とする。
第2の本発明に係る画像処理プログラムは、立体感のある全天球画像を形成する画像処理プログラムであって、コンピュータを、(1)全天球画像の特徴に対応させた複数のメッシュ形状を組み合わせて3次元メッシュ形状モデルを形成するモデル形成手段、(2)3次元空間に設定した仮想基準点の座標値と、3次元メッシュ形状モデルの各画素の座標値とに基づいて、各画素の座標値を全天球画像の座標系に変換し、3次元メッシュ形状モデルに前記全天球画像をマッピングして全天球立体画像を形成する描画手段として機能させることを特徴とする。
第3の本発明に係る画像処理方法は、立体感のある全天球画像を形成する画像処理方法であって、(1)モデル形成手段が、全天球画像の特徴に対応させた複数のメッシュ形状を組み合わせて3次元メッシュ形状モデルを形成し、(2)描画手段が、3次元空間に設定した仮想基準点の座標値と、3次元メッシュ形状モデルの各画素の座標値とに基づいて、各画素の座標値を全天球画像の座標系に変換し、3次元メッシュ形状モデルに全天球画像をマッピングして全天球立体画像を形成することを特徴とする。
本発明によれば、より立体感のある全天球画像を提供することができ、仮想的な環境に全天球画像を提供するときに、より臨場感のある全天球画像を提供することができる。
実施形態に係るメッシュ形状モデルに全天球画像をUVマッピングして得た全天球立体画像を示す図である。 全天球画像を示す画像図である。 従来の全天球画像を投影させる球体のモデルを示す図である。 従来の球体の内面にマッピングさせた全天球画像を示す図である。 実施形態に係る画像処理システムの全体構成を説明する説明図である。 実施形態に係る表示デバイスの内部構成を示す内部構成図である。 実施形態に係る画像処理装置の機能構成を示すブロック図である。 実施形態において、全天球画像に合わせて形成したメッシュ形状モデルを示す図である。 実施形態係るメッシュ形状モデルに全天球画像をUVマッピングする処理を説明する説明図である。 実施形態において、全天球画像上における各ピクセルのヨー角からU座標を算出する算出方法を説明する説明図である。 実施形態において、全天球画像上における各ピクセルのピッチ角からV座標を算出する算出方法を説明する説明図である。
(A)実施形態
以下では、本発明に係る画像処理装置、画像処理プログラム及び画像処理方法の実施形態を、図面を参照しながら詳細に説明する。
この実施形態では、本発明を利用して、全天球画像に合わせて、ポリゴンメッシュが関連付けられたモデル(以下では、「メッシュ形状モデル」とも呼ぶ。)を形成し、そのメッシュ形状モデルに全天球画像をマッピング(描画)して立体的な全天球画像(以下では、「全天球立体画像」とも呼ぶ。)を提供する場合を例示する。
なお、全天球画像は、全天球静止画、全天球動画のいずれであってもよいが、この実施形態では、全天球画像が全天球静止画である場合を例示する。また、以下では、説明を容易にするため、図2に例示する全天球画像を用いて説明するが、全天球画像は、少なくとも地面や床面や水面や天井等のように水平面を画像中に含んでいれば様々なものを用いることができる。
(A−1)実施形態の構成
(A−1−1)全体構成
図5は、実施形態に係る画像処理システムの全体構成を説明する説明図である。
図5において、実施形態に係る画像処理システム1は、表示デバイス100と、画像処理装置200とを有する。
画像処理装置200は、全天球画像に合わせてメッシュ形状モデルを形成し、仮想的な基準点(以下では、「仮想基準点」とも呼ぶ。)から、メッシュ形状モデルの各画素(ピクセル)までのベクトル方向を画素(ピクセル)毎に導出し、各画素のベクトル方向に基づいてメッシュ形状モデルの各画素に、対応する全天球画像の一部分をマッピングしていき全天球立体画像を形成する。画像処理装置200は、表示デバイス100と接続しており、形成した全天球立体画像を表示デバイス100に提供する。
また、画像処理装置200は、表示デバイス100から、表示デバイス100自体の姿勢情報(表示デバイス100の位置や傾きの相対的な変位に関する情報)を適宜取得しており、表示デバイス100の相対的な変位に連動させて、視点を仮想的な基準点から変位させて全天球立体画像を変化させる。
なお、表示デバイス100自体の位置・姿勢情報については、画像処理装置200が、表示デバイス100に搭載される姿勢センサ12から取得するようにしてもよいし、又はユーザの位置や姿勢を感知する外部デバイス(例えばポジショントラッキングシステム)を現実空間に配置し、その外部デバイスから姿勢情報を取得するようにしてもよい。また、表示デバイス100と画像処理装置200は有線接続であってもよいし、無線接続であってもよい。
画像処理装置200は、例えばGPU等のコンピュータ上に実装される3次元グラフィックス開発エンジン(ソフトウェア)を利用して実現することができる。なお、3次元グラフィック開発エンジンは、特に限定されるものではないが、例えば、UnityやUnrealEngine等の開発エンジンを適用することができる。
表示デバイス100は、画像処理装置200と接続しており、画像処理装置200により形成された全天球立体画像を取得し、その全天球立体画像を表示するものである。表示デバイス100には、表示デバイス100自身の姿勢情報を検知する姿勢センサ12(図2参照)が搭載されており、姿勢センサ12により得られた姿勢情報を画像処理装置200に適宜与える。これにより、表示デバイス100の相対的な変位に連動して、視点を変動させた全天球立体画像が表示される。
なお、この実施形態では、表示デバイス100が、ユーザの頭部に装着可能なヘッドマウントディスプレイ(HMD)である場合を例示する。しかし、表示デバイス100は、HMDに限定されるものではない。少なくとも全天球立体画像を表示可能なデバイスであればよく、例えば、スマートフォンやタブレット端末やパーソナルコンピュータ(PC)等のディスプレイや、全天球画像を表示する専用デバイス等としてもよい。
また、図5では、表示デバイス100としてのHMDがゴーグル型のHMDである場合を例示しているが、ゴーグル型に限定されるものではなく、HMDはメガネ型等のデバイスであってもよい。いずれにしても、表示デバイス100は、仮想環境や現実環境を拡張した画像等を表示することができるデバイスを広く適用できる。
図5において、表示デバイス100は、本体部110、本体部110の上部に設けられている前頭部接触部120、本体部110の両側端部に設けられている側頭部接触部130を有する。
本体部110には表示部15(図6参照)が搭載されており、又側頭部接触部130には音出力部16(図6参照)が搭載されている。これにより、表示デバイス100を装着したユーザは全天球立体画像を視聴することができる。この実施形態では、音出力部16が搭載されている表示デバイス100を例示するが、表示デバイス100は音出力部16が搭載されていないものであってもよく、例えばヘッドフォン端子がある表示デバイス100が、ヘッドフォン端子を通してヘッドフォンを接続できるものでもよい。
表示デバイス100は、図5に例示するHMDに限定されるものではなく、少なくとも全天球画像を表示するデバイスであればよく、例えば、スマートフォンやタブレット端末やパーソナルコンピュータ(PC)等のディスプレイや、全天球立体画像を表示する専用デバイス等としてもよい。また、図5では、表示デバイス100としてのHMDがゴーグル型のHMDである場合を例示しているが、ゴーグル型に限定されるものではなく、HMDはメガネ型等のデバイスであってもよい。いずれにしても、表示デバイス100は、仮想環境や現実環境を拡張した画像等を表示することができるデバイスを広く適用できる。
(A−1−2)表示デバイス100の内部構成
図6は、実施形態に係る表示デバイス100の内部構成を示す内部構成図である。
図6において、表示デバイス100は、制御部10、記憶部11、姿勢センサ12、外部入出力インタフェース部13、出力インタフェース部14、表示部15、音出力部16を有する。
制御部10は、表示デバイス100の機能を司るものである。例えばCPU等のプロセッサを適用できる。制御部10は、画像処理装置200からの全天球画像を表示するアプリケーションがインストールされており、外部入出力インタフェース部13を通じて画像処理装置200から取得した全天球立体画像を、出力インタフェース部14を通じて表示部15に表示する。また、制御部10は、姿勢情報を画像処理装置200に与えるため、姿勢センサ12により検知された姿勢情報を、外部入出力インタフェース部13を通じて画像処理装置200に与える。
記憶部11は、RAM、ROM、EEPROM等の記憶領域であり、処理プログラムや、処理に必要なデータやパラメータを一時的に記憶する。
姿勢センサ12は、表示デバイス100の本体部110の位置、傾き等の姿勢情報を検知する。例えば、姿勢センサ12は、ジャイロセンサ、加速度センサ、角加速度センサ、地磁気センサ等のいずれか又はこれらを組み合わせたものを適用できる。
外部入出力インタフェース部13は、画像処理装置200や周辺機器等と接続するためのインタフェースであり、例えばUSB(Universal Serial BUS)、HDMI(登録商標、High−Definition Multimedia Interface)等である。
出力インタフェース部14は、制御部10と、表示部15や音出力部16との間の接続インタフェースである。
表示部15は、例えば液晶ディスプレイや有機EL等を適用でき、音出力部16は、例えばスピーカ、ヘッドフォン、イヤホン等を適用できる。
(A−1−3)画像処理装置200の機能構成
図7は、実施形態に係る画像処理装置200の機能構成を示すブロック図である。
図7において、画像処理装置200は、描画モデル形成手段210、描画手段220、表示制御手段230、画像保持部300を有する。画像処理装置200のハードウェアは図示しないが例えばGPU等を適用できる。
画像保持部300は、全天球画像を保持するものである。全天球画像は、全天球カメラにより撮像された360度画像である。この実施形態では、特に、立体視され得る全天球画像とする。例えば、3次元空間で水平に伸びる地面や水平線、建物などの立体物などが撮像されている全天球画像とする。画像保持部300には、例えば、全天球カメラにより撮像された全天球画像であってもよいし、インターネットからダウンロードしたものであってもよい。
描画モデル形成手段210は、全天球画像に合わせたメッシュ形状モデルをモデリングする。描画モデル形成手段210は、上述したような3次元グラフィックス開発エンジンを利用してモデリングすることができる。描画モデル形成手段210の機能としては、オブジェクト作成・編集部211と、モデルレイアウト作成・編集部212とを有している。
オブジェクト作成・編集部211は、3次元空間に、モデルとしてのオブジェクトを作成したり、モデル表面にメッシュを関連付けたりして、メッシュ形状モデルを作成・編集する。モデル(ポリゴン)は、例えば、球体、平面形状、立方体、直方体、円柱形状など様々なものを選択したり、作成したりすることができる。またモデルの表面には三角形や四角形のメッシュを関連付けることもできる。これにより、全天球画像に対して、基本となる球体のメッシュ形状モデルを作成したり、全天球画像に立体感を持たせるために、全天球画像における地面の部分に相当する平面形状のモデルや、全天球画像に存在するオブジェクトに合わせたモデルなどを作成・編集したりすることができる。
モデルレイアウト作成・編集部212は、オブジェクト作成・編集部211で作成した複数のメッシュ形状モデルの位置などのレイアウトを作成・編集する。これにより、全天球画像の基本となる球体のメッシュ形状モデルに、1又は複数の他のオブジェクトのメッシュ形状モデルを重畳させたり、各オブジェクトのメッシュ形状モデルの位置関係を決めたりすることができる。
描画手段220は、3次元空間に仮想的な基準点(以下では、「仮想基準点」とも呼ぶ。)を設定し、仮想基準点からモデリングしたメッシュ形状モデルの各ピクセルの向きをピクセル毎に求め、各ピクセルの仮想基準点からの向きに基づいてUV座標を求めて、全天球画像をメッシュ形状モデルにマッピングする。描画手段220の機能としては、仮想基準点設定部221、ピクセル向き導出部222、マッピング部223、視点変動制御部224を有する。
仮想基準点設定部221は、描画モデル形成手段210の3次元空間において、仮想基準点を設定する。仮想基準点は、3次元空間上であれば任意の位置に設定することができる。
ピクセル向き導出部222は、仮想基準点から、描画モデル形成手段210でモデリングしたメッシュ形状モデルの各ピクセルの向きをピクセル毎に導出する。各ピクセルの向きは、仮想基準点から各ピクセルのヨー角及びピッチ角とする。
マッピング部223は、仮想基準点から各ピクセルを見たときのヨー角及びピッチ角に基づいてUV座標に変換し、3次元空間におけるメッシュ形状モデルの各ピクセルに対して全天球画像をUVマッピングする。
視点変動制御部224は、表示制御手段230の姿勢情報取得部232から表示デバイス100の姿勢情報としての相対的な変化量を取得すると、仮想基準点から上記相対的な変化量に相当する変化量だけ変位させた位置を視点とし、その視点から全天球立体画像を見たときの画像を出力する。これにより、表示デバイス100の位置が上下方向、前後方向、左右方向に移動したときに、表示デバイス100の移動に連動した、新たな視点から見える全天球立体画像を、表示デバイス100に提供することができる。
表示制御手段230は、画像出力部231、姿勢情報取得部232を有する。
画像出力部231は、表示デバイス100に全天球立体画像を提供するために、描画手段220により形成された全天球立体画像を表示デバイス100に出力する。
姿勢情報取得部232は、表示デバイス100から姿勢情報を取得し、その姿勢情報を描画手段220に与えるものである。表示デバイス100の相対的な変位に応じて視点の位置を変動させた全天球立体画像を形成させることができる。
(A−2)実施形態の動作
次に、実施形態に係る画像処理装置200における画像処理方法の動作を、図面を参照しながら詳細に説明する。
以下では、図2に例示する全天球画像を、メッシュ形状モデルにマッピングする場合を例示して説明する。
図2の全天球画像は、全天球カメラで撮像した360度画像である。この実施形態では、説明を容易にするために、白と黒のコントラストでなる画像としている。図2の全天球画像は、主として、地面の部分と、奥行き方向にある背景画像と、地面の上に立方体の箱が載置されているものとする。
(A−2−1)メッシュ形状モデルの形成処理
図8は、図2の全天球画像に合わせて形成したメッシュ形状モデル50を示す図である。
メッシュ形状モデルの形成処理は、主に、描画モデル形成手段210において行うことができるが、必要に応じて描画手段220と連携をとりながら行ってもよい。例えば、描画モデル形成手段210において、全天球画像に合わせてメッシュ形状モデルを形成する際に、全天球画像に最適なメッシュ形状のモデリングやモデルのレイアウトを行なうために、描画手段220で3次元空間に仮想基準点の設定をしたり、又は必要であれば仮想基準点の設定変更などをしたりして、一時的に形成したメッシュ形状モデルに対して全天球画像をマッピングさせながら、図2の全天球画像に最適なメッシュ形状モデルを形成するようにしてもよい。例えば、全天球画像を撮像した全天球カメラの位置を仮想基準点としてメッシュ形状モデルをモデリングするようにしてもよい。
描画モデル形成手段210は、3次元グラフィック開発エンジンを利用してメッシュ形成モデルをモデリングする。メッシュ形状モデルをモデリングする3次元空間は座標で表すことができる。
描画モデル形成手段210では、まず、オブジェクト作成・編集部211により、ワールド座標系の任意の位置を中心とする球体のモデルを形成する。そして、この球体の表面に三角形又は四角形の複数のポリゴンを形成(モデリング)して、ポリゴンがメッシュを形成して、球体のメッシュ形状モデル51を形成する。
次に、図2の全天球画像中には水平面に相当する地面の部分がある。この水平面の地面の部分に関してモデリングをするため、オブジェクト作成・編集部211では、平面形状のモデルを形成する。
オブジェクト作成・編集部211では、図2の全天球画像における地面に相当する部分のメッシュ形状モデルを形成するため、平面形状のモデルを形成し、この平面形状のモデルに複数のポリゴンを形成して、ポリゴンがメッシュを形成して、平面形状のメッシュ形状モデル52を作成する。ここで、平面形状のメッシュ形状モデル52では、立体感(遠近感)を持たせるために、仮想基準点からの透視投影等によりメッシュ形状モデル52を形成する。手前側のメッシュが奥側のメッシュよりも大きくなるようにしている。
さらに、モデルレイアウト作成・編集部212により、先に形成した球体のメッシュ形状モデル51に、平面形状のメッシュ形状モデル52を重畳させる。このとき、球体のメッシュ形状モデル51と、平面形状のメッシュ形状モデル52との交差部分(エッジ部分)では、メッシュの頂点を一致させることが望ましいが、必ずしもメッシュの頂点が一致していなくてもよい。
さらに、オブジェクト作成・編集部211では、図2の全天球画像に存在する立方体の箱の部分に相当するメッシュ形状モデルを形成するため、立方体のモデルを形成し、この立方体のモデルに複数のメッシュを関連付けて、立方体のメッシュ形状モデル53を作成する。そして、モデルレイアウト作成・編集部212により、平面形状のメッシュ形状モデル52若しくは球体のメッシュ形状モデル51に、立方体のメッシュ形状モデル53を重畳させる。
上記のようにして、球体のメッシュ形状モデル51、平面形状のメッシュ形状モデル52、立方体のメッシュ形状モデル53の複数のモデルのメッシュ形状を重畳させて(組み合わせて)、これらオブジェクトを結合させることにより、図2の全天球画像に合った最適なメッシュ形状モデル50を形成する。
なお、上記では、図2の全天球画像を一例としているため、球体、平面形状、立方体のモデルを使用してモデリングしているが、全天球画像の特徴に応じて、適宜、適切なモデル(ポリゴン)を選択したり又は作成したりしてもよい。
(A−2−2)全天球画像のマッピング処理
次に、描画モデル形成手段210で形成した、図2の全天球画像に合ったメッシュ形状モデル50に、図2の全天球画像をUVマッピングする処理を、図面を参照しながら説明する。
なお、全天球画像のUVマッピングは、主として描画手段220により実現することができる。
図9は、メッシュ形状モデル50に図2の全天球画像をUVマッピングする処理を説明する説明図である。
図1は、メッシュ形状モデル50に図2の全天球画像をUVマッピングして得た全天球立体画像を示す図である。
上述したように、メッシュ形状モデル50を形成した3次元空間はワールド座標で表され、図9に示すようにX座標、Y座標、Z座標とし、原点(0,0)とする。なお、図9では左手座標系で表しているが、これに限定されず、右手座標系で表してもよい。
また、描画手段220では、仮想基準点設定部221により、3次元空間の任意の位置に仮想基準点61を設定する。この仮想基準点61の位置は、3次元空間の任意の位置であれば特に限定されるものではない。図9の例のでは、球体のメッシュ形状モデル51の中心を通る法線上に仮想基準点61を設定する場合を例示する。すなわち、3次元の球体の中心を仮想基準点61と設定している。
描画手段220では、ピクセル向き導出部222が、メッシュ形状モデル50の各ピクセルについて、仮想基準点61から各ピクセルを見たときのヨー角及びピッチ角をピクセル毎に導出する。
そして、マッピング部223は、全天球画像上における、各ピクセルのヨー角に基づいてU座標、ピッチ角からV座標を求める。
これは、図2の全天球画像は2次元テクスチャ座標で表すことができる。つまり、全天球画像の各部分のベクトルを(U,V)で表される。マッピング部223が、メッシュ形状モデル50に全天球画像をUVマッピングする際、メッシュ形状モデル50の各ピクセルが全天球画像のどの部分に対応するかを示す情報として各ピクセルの2次元テクスチャ座標を使用する。従って、上記のように、マッピング部223は各ピクセルのヨー角及びピッチ角に基づいて、各ピクセルのUV座標を求めている。つまり、メッシュ形状モデル50の3次元座標を展開して、全天球画像の2次元座標(U,V)に対応付けをとる情報を出力している。
以下に、図10及び図11を参照して、全天球画像上における、各ピクセルのU座標及びV座標を算出する算出方法の一例を説明する。
なお、全天球画像上における各ピクセルのU座標及びV座標の算出方法は、特に限定されるものではない。
図10は、全天球画像上における各ピクセルのヨー角からU座標を算出する算出方法を説明する説明図である。なお、図10は、平面形状のメッシュ形状モデル52の平面図を示している。
図11は、全天球画像上における各ピクセルのピッチ角からV座標を算出する算出方法を説明する説明図である。なお、図11は、球体のメッシュ形状モデル51の正面図を示している。
仮想基準点61のワールド座標を(X0,Y0,Z0)とし、今回UV座標を算出するピクセルのワールド座標を(X1,Y1,Z1)としてマッピング部223に入力する。マッピング部223は、下記の(1)式〜(3)式に従って、仮想基準点から見た当該ピクセルのベクトル(dX,dY,dZ)を計算する。
dX=X1−X0 …(1)
dY=Y1−Y0 …(2)
dZ=Z1−Z0 …(3)
次に、マッピング部223は、下記(4)式、(5)式に、(dX,dY,dZ)を代入して、当該ピクセルのU座標、V座標を計算して、これを当該ピクセルのUV座標として出力する。
U=(1.0−atan2(dZ,dX)/2PI)%1.0 …(4)
V=atan2(dY,magnitude(dX,dZ))/PI …(5)
なお、(4)式における「%」は剰余算を示している。「atan2」は、dZとdXに対してdZ/dXのアークタンジェントを計算する関数であり、ベクトルの角度を求める関数である。PIはπを示す。(5)式における「magunitude」は、原点(0,0)からの直線距離を求める関数である。
上記例のようにして、メッシュ形状モデル50の各ピクセルのUV座標を求める。
そして、マッピング部223は、メッシュ形状モデル50の各ピクセルのUV座標と、全天球画像のUV座標との対応関係ができているため、メッシュ形状モデル50の各ピクセルに、全天球画像の対応する画像部分をマッピングする。これにより、図1に示すように、立体感のある全天球画像を形成することができる。
また、描画手段220により形成された立体感のある全天球立体画像は、表示制御手段230に与えられて、表示デバイス100に提供される。
(A−2−3)視点変位制御処理
次に、表示デバイス100の相対的な変位に基づいて、視点変動制御部224が、全天球立体画像の視点を変位させる処理を、図面を参照しながら詳細に説明する。
表示デバイス100には、表示デバイス100の位置や傾きの変位を検知する姿勢センサ12が設けられており、姿勢センサ12により検知された姿勢情報は、逐次、画像処理装置200に与えられている。
ここで、姿勢情報は、例えば、表示デバイス100の位置や傾きの相対的な変化量を示すベクトル情報若しくは、(X,Y,Z)の座標値としてもよい。としてもよい。例えば、表示デバイス100の位置情報については、表示デバイス100の位置が変位したとき、ワールド座標系における原点(若しくは初期の位置座標)を基準点とし、この基準点からの位置の変化量(ベクトル情報)としてもよい。また傾き情報については、ワールド座標系に平行なuvw視野座標系が設定されており、ワールド座標系のX軸、Y軸、Z軸がそのまま、uvw視野座標系のピッチ方向、ヨー方向、ロール方向に一致するようにする。そして、表示デバイス100の移動に応じて、uvw視野座標系の傾き(傾きの変化量)、すなわちピッチ角、ヨー角、ロール角としてもよい。また、姿勢情報には、表示デバイス100の移動速度、回転速度など相対移動に係る速度情報を含むようにしてもよい。
画像処理装置200では、表示デバイス100の姿勢情報が与えられると、姿勢情報が描画手段220に与えられる。
描画手段220では、視点変動制御部224が、姿勢情報取得部232から姿勢情報として、表示デバイス100の相対的な変化量を取得すると、仮想基準点61から相対的な変化量に相当する変化量だけ変位させた位置を新たな視点とする。
ここで、上述したように、3次元空間に形成されたメッシュ形状モデル50の各ピクセルには、全天球画像の対応する画像部分がUVマッピングされている。そのため、仮想基準点61から前後方向、左右方向、上下方向に移動させた位置を視点とし、この視点から見える全天球立体画像を形成する。視点変動制御部224は、視点の位置を変化させる際に、メッシュ形状モデル50を形成しているオブジェクトのメッシュを回転、移動、伸縮、傾斜させるようにトランスフォームするようにしてもよい。
このように表示デバイス100の相対的な変化量に基づいて視点の位置を変化させ、その視点から見える全天球立体画像を形成することができる。そのため、例えば、表示デバイス100を装着しているユーザが、現実空間で起立の姿勢からしゃがんだ場合に、仮想空間の視点も地面に近づいた位置に視点が変化し、その視点から見える全天球立体画像をユーザは見ることができる。
(A−3)実施形態の効果
以上のように、この実施形態によれば、全天球画像あったメッシュ形状モデルを形成し、3次元空間に設定した仮想基準点から見た各ピクセルのUV座標を求めて、各ピクセルに全天球画像の対応する部分をマッピングすることにより、立体感のある全天球画像を形成することができる。
また、この実施形態によれば、メッシュ形状モデルの各ピクセルに、全天球画像の対応する部分がマッピングされているため、表示デバイスの相対的な変化量に基づいて、仮想基準点から変化させた位置を視点とし、視点から見える全天球画像を提供することができる。
(B)他の実施形態
上述した実施形態においても本発明の種々の変形実施形態を言及したが、本発明は、以下の変形実施形態にも適用できる。
(B−1)上述した実施形態では、説明を容易にするために、1つの全天球画像に対して1つの全天球立体画像を形成する場合を例示した。複数の全天球画像に対して1つの全天球立体画像を形成するようにしてもよい。例えば、全天球立体画像の利用例として、例えば、複数に区分可能な建物内の全天球画像を区分毎に撮像しておき、また複数の区分された建物全体のメッシュ形状モデルを形成しておく。さらに、建物全体のメッシュ形状モデルの各区分には、対応する区分の全天球画像の特徴に合わせたメッシュ形状モデルを形成し、各メッシュ形状モデルに全天球画像をマッピングする。つまり、建物内で、連結している各区分の全天球立体画像を形成することができる。
(B−2)上述した実施形態では、3次元空間に設定する仮想基準点が1つである場合を例示したが、複数の仮想基準点を設定するようにしてもよい。例えば、全天球画像の特徴に合った複数のメッシュ形状のそれぞれについて、複数の仮想基準点のうち、各メッシュ形状への全天球画像のマッピングについては、最適な立体視を可能とする仮想基準点を選択できるようにしてもよい。これにより、各メッシュ形状に投影される画像が最適な形で映し出すことができる。例えば、複数の仮想基準点のうち、使用する仮想基準点を動的に切り替えて、切り替え前の仮想基準点からの投影した画像から、切り替え後の仮想基準点からの投影した画像にクロスフェードするようにしてもよい。
(B−3)上述した実施形態では、VR(仮想現実感)などの仮想空間に全天球画像を提供する場合を一例として説明した。しかし、VRに限定されるものではなく、AR、MR、XRなどで利用される現実環境、仮想環境において全て球画像を提供する場合にも本発明を適用することができる。
1…画像処理システム、100…表示デバイス、200…画像処理装置、
110…本体部、120…前頭部接触部、130…側頭部接触部、10…制御部、11…記憶部、12…姿勢センサ、13…外部入出力インタフェース部、14…出力インタフェース部、15…表示部、16…音出力部、
210…描画モデル形成手段、211…オブジェクト作成・編集部、212…モデルレイアウト作成・編集部、
220…描画手段、221…仮想基準点設定部、222…ピクセル向き導出部、223…マッピング部、224…視点変動制御部、
230…表示制御手段、231…画像出力部、232…姿勢情報取得部、300…画像保持部。
かかる課題を解決するために、第1の本発明に係る画像処理装置は、少なくとも水平面を含む空間を撮像した全天球画像を3次元メッシュ形状モデルにマッピングして全天球立体画像を形成する画像処理装置であって、(1)少なくとも、全天球画像に対応させて複数のメッシュ形状を形成させた球体メッシュ形状モデルと、全天球画像中の水平面に対応させて複数のメッシュ形状を形成させた平面メッシュ形状モデルとを組み合わせた3次元メッシュ形状モデルを形成するモデル形成手段と、(2)3次元空間に仮想基準点を設定し、仮想基準点を基準として、全天球画像の各画素のヨー角及びピッチ角をU座標値及びV座標値に変換して、全天球画像の各画素のUV座標値を導出し、全天球画像上の各画素を、3次元メッシュ形状モデル上の対応する各画素にUVマッピングして、全天球立体画像に形成する描画手段とを備えることを特徴とする。
第2の本発明に係る画像処理プログラムは、少なくとも水平面を含む空間を撮像した全天球画像を3次元メッシュ形状モデルにマッピングして全天球立体画像を形成する画像処理プログラムであって、コンピュータを、(1)少なくとも、全天球画像に対応させて複数のメッシュ形状を形成させた球体メッシュ形状モデルと、全天球画像中の水平面に対応させて複数のメッシュ形状を形成させた平面メッシュ形状モデルとを組み合わせた3次元メッシュ形状モデルを形成するモデル形成手段、(2)3次元空間に仮想基準点を設定し、仮想基準点を基準として、全天球画像の各画素のヨー角及びピッチ角をU座標値及びV座標値に変換して、全天球画像の各画素のUV座標値を導出し、全天球画像上の各画素を、3次元メッシュ形状モデル上の対応する各画素にUVマッピングして、全天球立体画像に形成する描画手段として機能させることを特徴とする。
第3の本発明に係る画像処理方法は、少なくとも水平面を含む空間を撮像した全天球画像を3次元メッシュ形状モデルにマッピングして全天球立体画像を形成する画像処理方法であって、(1)モデル形成手段が、少なくとも、全天球画像に対応させて複数のメッシュ形状を形成させた球体メッシュ形状モデルと、全天球画像中の水平面に対応させて複数のメッシュ形状を形成させた平面メッシュ形状モデルとを組み合わせた3次元メッシュ形状モデルを形成し、(2)描画手段が、3次元空間に仮想基準点を設定し、仮想基準点を基準として、全天球画像の各画素のヨー角及びピッチ角をU座標値及びV座標値に変換して、全天球画像の各画素のUV座標値を導出し、全天球画像上の各画素を、3次元メッシュ形状モデル上の対応する各画素にUVマッピングして、全天球立体画像に形成することを特徴とする。
上記例のようにして、全天球画像上における各ピクセルのUV座標を求める。

Claims (5)

  1. 立体感のある全天球画像を形成する画像処理装置であって、
    前記全天球画像の特徴に対応させた複数のメッシュ形状を組み合わせて3次元メッシュ形状モデルを形成するモデル形成手段と、
    3次元空間に設定した仮想基準点の座標値と、前記3次元メッシュ形状モデルの各画素の座標値とに基づいて、前記各画素の座標値を前記全天球画像の座標系に変換し、前記3次元メッシュ形状モデルに前記全天球画像をマッピングして全天球立体画像を形成する描画手段と
    を備えることを特徴とする画像処理装置。
  2. 前記描画手段が、前記仮想基準点から前記3次元メッシュ形状モデルの各画素に向けたベクトル情報に基づいて、前記各画素のUV座標値を求め、UV座標に基づいて、前記全天球画像の画像部分を対応する前記各画素にマッピングして全天球立体画像を形成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記全天球立体画像を表示する表示手段の相対的な変化量を取得する相対変化量取得手段を備え、
    前記描画手段が、前記相対的な変化量に基づいて、前記仮想基準点から変位させた位置を視点とし、前記視点に応じた全天球立体画像を形成する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 立体感のある全天球画像を形成する画像処理プログラムであって、
    コンピュータを、
    前記全天球画像の特徴に対応させた複数のメッシュ形状を組み合わせて3次元メッシュ形状モデルを形成するモデル形成手段、
    3次元空間に設定した仮想基準点の座標値と、前記3次元メッシュ形状モデルの各画素の座標値とに基づいて、前記各画素の座標値を前記全天球画像の座標系に変換し、前記3次元メッシュ形状モデルに前記全天球画像をマッピングして全天球立体画像を形成する描画手段
    として機能させることを特徴とする画像処理プログラム。
  5. 立体感のある全天球画像を形成する画像処理方法であって、
    モデル形成手段が、前記全天球画像の特徴に対応させた複数のメッシュ形状を組み合わせて3次元メッシュ形状モデルを形成し、
    描画手段が、3次元空間に設定した仮想基準点の座標値と、前記3次元メッシュ形状モデルの各画素の座標値とに基づいて、前記各画素の座標値を前記全天球画像の座標系に変換し、前記3次元メッシュ形状モデルに前記全天球画像をマッピングして全天球立体画像を形成する
    ことを特徴とする画像処理方法。
JP2018013662A 2018-01-30 2018-01-30 画像処理装置、画像処理プログラム及び画像処理方法 Active JP6503098B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018013662A JP6503098B1 (ja) 2018-01-30 2018-01-30 画像処理装置、画像処理プログラム及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018013662A JP6503098B1 (ja) 2018-01-30 2018-01-30 画像処理装置、画像処理プログラム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP6503098B1 JP6503098B1 (ja) 2019-04-17
JP2019133310A true JP2019133310A (ja) 2019-08-08

Family

ID=66166773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018013662A Active JP6503098B1 (ja) 2018-01-30 2018-01-30 画像処理装置、画像処理プログラム及び画像処理方法

Country Status (1)

Country Link
JP (1) JP6503098B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116310152A (zh) * 2023-05-24 2023-06-23 南京维赛客网络科技有限公司 基于unity平台的步进式虚拟场景搭建、漫游方法及虚拟场景

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2006191535A (ja) * 2004-12-30 2006-07-20 Microsoft Corp パノラマカメラのデッドゾーンを最小限に抑える方法とシステム
JP2014006880A (ja) * 2012-05-31 2014-01-16 Ricoh Co Ltd 通信端末、表示方法、及びプログラム
JP2014153802A (ja) * 2013-02-06 2014-08-25 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2016062486A (ja) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2017201477A (ja) * 2016-05-06 2017-11-09 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
JP2006191535A (ja) * 2004-12-30 2006-07-20 Microsoft Corp パノラマカメラのデッドゾーンを最小限に抑える方法とシステム
JP2014006880A (ja) * 2012-05-31 2014-01-16 Ricoh Co Ltd 通信端末、表示方法、及びプログラム
JP2014153802A (ja) * 2013-02-06 2014-08-25 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2016062486A (ja) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2017201477A (ja) * 2016-05-06 2017-11-09 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体

Also Published As

Publication number Publication date
JP6503098B1 (ja) 2019-04-17

Similar Documents

Publication Publication Date Title
US10096157B2 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
CN107564089B (zh) 三维图像处理方法、装置、存储介质和计算机设备
JP6153366B2 (ja) 画像生成システム及びプログラム
KR20170007102A (ko) 3차원 지도 생성 및 표시 장치 및 방법
CN110546951B (zh) 合成立体视觉图像内容捕获
JP2008287696A (ja) 画像処理方法と装置
KR20080055581A (ko) 3D 오브젝트의 셀프 셰도우(self-shadow)를만들기 위해 데이터를 미리-저장할 수 있는 장치, 방법,응용프로그램 및 컴퓨터 판독가능한 매체
JP6319804B2 (ja) 投影画像生成装置、投影画像生成方法および投影画像生成プログラム
JP2017091483A (ja) 画像処理装置、情報処理装置、および画像処理方法
JP2020052790A (ja) 情報処理装置、情報処理方法、およびプログラム
US10699372B2 (en) Image generation apparatus and image display control apparatus
JP6503098B1 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
TW200410155A (en) Image display method and image display device
CN108986228B (zh) 用于虚拟现实中界面显示的方法及装置
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
CN115311133A (zh) 一种图像处理方法、装置、电子设备及存储介质
Tschirschwitz et al. Interactive 3D visualisation of architectural models and point clouds using low-cost-systems
JP7370198B2 (ja) 処理システム、情報処理装置、プログラム及び処理方法
JP7030010B2 (ja) 立体映像奥行き圧縮装置および立体映像奥行き圧縮プログラム
JP2005173866A (ja) 3次元画像表示装置
JP7465133B2 (ja) 情報処理装置、情報処理方法
JP2003323636A (ja) 三次元モデル供給装置およびその方法、画像合成装置およびその方法、ユーザーインターフェース装置
JP6959682B1 (ja) 画像合成装置、画像合成方法、及びプログラム
US11202053B2 (en) Stereo-aware panorama conversion for immersive media
WO2024024479A1 (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180130

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190322

R150 Certificate of patent or registration of utility model

Ref document number: 6503098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250