JP2019013003A - 画像処理装置、画像処理プログラム、及び、画像処理方法 - Google Patents

画像処理装置、画像処理プログラム、及び、画像処理方法 Download PDF

Info

Publication number
JP2019013003A
JP2019013003A JP2018141215A JP2018141215A JP2019013003A JP 2019013003 A JP2019013003 A JP 2019013003A JP 2018141215 A JP2018141215 A JP 2018141215A JP 2018141215 A JP2018141215 A JP 2018141215A JP 2019013003 A JP2019013003 A JP 2019013003A
Authority
JP
Japan
Prior art keywords
eye
viewpoint
image
axis
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018141215A
Other languages
English (en)
Inventor
豪放 小倉
Toshiyuki Ogura
豪放 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2018141215A priority Critical patent/JP2019013003A/ja
Publication of JP2019013003A publication Critical patent/JP2019013003A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】ジオメトリパイプライン立体視画像生成処理により生成された立体視画像を利用者端末に表示させる場合に、利用者端末が正面方向から左右方向を向いたときに生じる、左眼対応カメラと右眼対応カメラとの間の視差の減少を抑制する。【解決手段】視点設定部56は、ユーザ端末16の向きに基づいて、ワールド座標系内の左眼対応立体モデルに対する左眼視点及びワールド座標系内の右眼対応立体モデルに対する右眼視点を設定する。これにより、左眼視点及び右眼視点それぞれに対して、視線方向をZ軸負方向、上方ベクトルの向きをY軸正方向、Z軸及びY軸に対して右手系を構成する向き方向をX軸正方向とするビュー座標系が定義される。視点補正部58は、左眼ビュー座標系におけるX軸負方向に左眼視点を移動させ、右眼ビュー座標系におけるX軸正方向に右眼視点を移動させる。【選択図】図5

Description

本発明は、画像処理装置、画像処理プログラム、及び、画像処理方法に関する。
人間の左右の眼は異なる位置にある(所定距離離れている)ため、左右の眼で得られる
像が僅かに異なる。この左右の眼で得られる像の差異によって、人間は立体感を得ること
ができる。左右の眼で得られる像の差異は、両眼視差と呼ばれる。
従来、両眼視差を模擬して、鑑賞者が立体感を得ることのできる画像(以下「立体視画
像」と記載する)を提供するシステムが提案されている(例えば特許文献1)。具体的に
は、左眼対応カメラと右眼対応カメラを所定距離離して設置し、左眼対応カメラで左眼対
応画像を撮像し、右眼対応カメラで右眼対応画像を撮像するシステムが提案されている。
両カメラ間の所定距離は人間の両眼の間隔に基づいて決定される。左眼対応カメラと右眼
対応カメラは所定距離離して設置されていることから、左眼対応カメラと右眼対応カメラ
との間に視差が生じ、その結果、左眼対応画像と右眼対応画像とでは、当該視差に応じて
僅かに異なる画像になる。そして、左眼対応画像と右眼対応画像とを結合して立体視画像
が生成される。立体視画像としては様々な態様が提案されている。例えば、左眼対応画像
と右眼対応画像が交互に表示されるもの、水平方向の1ラインおきに左眼対応画像と右眼
対応画像の各ラインが交互に配置されたもの、あるいは左眼対応画像と右眼対応画像が並
列に並べられたものなどである。このような立体視画像に対して、利用者は、左眼対応画
像を左眼で見るようにし、右眼対応画像を右眼で見るようにすることで、立体感を得るこ
とができる。
特開2002−232913号公報
左眼対応画像及び右眼対応画像に基づいて生成された立体視画像を、鑑賞者(利用者)
が利用する利用者端末に表示させるシステムが考えられる。利用者端末としては、例えば
、タブレット端末やHMD(Head Mounted Display)などが考えられる。このようなシス
テムによれば、例えば、アーティストのライブを左眼対応カメラ及び右眼対応カメラで撮
影し、得られた左眼対応画像及び右眼対応画像に基づく立体視画像であるライブ映像を利
用者端末に表示させることで、利用者は、当該アーティストのライブ映像を立体感を得な
がら観賞することができる。
このようなシステムにおいては、利用者がVR(Virtual Reality)をより感じられる
よう、以下のような処理が行うことが考えられる。まず、左眼対応カメラ及び右眼対応カ
メラで撮像された各画像が、一旦、ワールド座標系において定義される立体モデルに投影
される。これにより左眼対応画像と右眼対応画像にそれぞれ対応する2つの立体画像モデ
ルが生成される。その上で、ワールド座標系において、左眼対応の立体画像モデルに対す
る左眼視点が設定され、また、右眼対応の立体画像モデルに対する右眼視点が設定される
。ここで、各視点から各立体画像モデルへの視線方向は、利用者端末の向きに応じて設定
される。そして、設定された各視点及び視線方向に基づいて、各立体画像モデルが2次元
投影されることで、処理済の左眼対応画像と右眼対応画像が得られる。この処理済左眼対
応画像及び処理済右眼対応画像とに基づいて、立体視画像が生成される。本明細書では、
上記のような一連の処理を「ジオメトリパイプライン立体視画像生成処理」と呼ぶ。
ジオメトリパイプライン立体視画像生成処理によれば、利用者端末の向きに応じて、利
用者端末に表示される立体視画像を変化させることができる。例えば、利用者端末が正面
を向いているときは、各立体画像モデルの正面領域(つまり左眼対応カメラ及び右眼対応
カメラの正面方向からの入射光により撮像された画像領域)が表示され、利用者が利用者
端末を右側へ向けると、各立体画像モデルの右側領域(つまり左眼対応カメラ及び右眼対
応カメラの右側方向からの入射光により撮像された画像領域)が表示される。しかも、利
用者はそれらの画像を立体感を感じながら見ることができる。これにより、利用者は、あ
たかも画像が撮像された場所(例えばライブ会場)にいるような感覚を得ることができる
上述の通り、利用者が立体視画像から立体感を得られるのは、左眼対応カメラと右眼対
応カメラとの間に視差があるからである。しかしながら、ジオメトリパイプライン立体視
画像生成処理においては、利用者が左右方向に利用者端末を向けて、各立体画像モデルの
左右側領域を表示させた場合、左眼対応カメラと右眼対応カメラとの間の視差が小さくな
るという問題が生じる。これにより、左右側領域においては、利用者が得ることのできる
立体感が減少するという問題が生じる。図17を参照して、当該問題について説明する。
図17には、水平面であるxy平面において所定距離d離れて設置された左眼対応レン
ズと右眼対応レンズが示されている。上述のように、dは人間の左眼と右眼の間隔に基づ
いて設定される。図17に示される通り、各レンズから正面を見るときは、各レンズから
の視線方向が正面方向(x軸に平行)となる。このとき、左眼対応レンズと右眼対応レン
ズとの間の視差は、両レンズ間の間隔、すなわちdといえる。一方、利用者端末が左右方
向に向けられ、各立体画像モデルの左右側領域(これは左眼対応カメラ及び右眼対応カメ
ラの撮像領域の左右側領域でもある)が利用者端末に表示される場合を考えると、その場
合であっても、左眼対応レンズ及び右眼対応レンズの向きは一定(正面向き)であること
から、各レンズからの視線方向は、正面方向に対して角度を有することになる。例えば、
図17に示すように、各レンズから右側方向を見る場合、各レンズからの視線方向は正面
方向(x軸方向)から角度(90−φ)、真横方向(y軸方向)から角度φを持った方向
となる。これにより、図17に示される通り、左眼対応レンズと右眼対応レンズとの間の
視差は、両レンズ間の間隔dよりも小さいd’となってしまう。具体的には、d’=ds
inφとなる。このように、利用者が利用者端末を左右に向けて、各立体画像モデルの左
右側領域を見ようとすると、左眼対応レンズと右眼対応レンズとの間の視差が小さくなっ
てしまう。
本発明の目的は、ジオメトリパイプライン立体視画像生成処理により生成された立体視
画像を利用者端末に表示させる場合に、利用者端末が正面方向から左右方向を向いたとき
に生じる、左眼対応カメラと右眼対応カメラとの間の視差の減少を抑制することにある。
本発明は、所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼
対応カメラからの画像を処理して、利用者が利用する利用者端末に表示する画像を生成す
る画像処理装置であって、前記左眼対応カメラで撮像された左眼対応画像、及び、前記右
眼対応カメラで撮像された右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド
座標系において左眼対応立体モデル及び右眼対応立体モデルを構築するモデリング部と、
前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モデ
ルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、前
記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに基
づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位置
、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示す
右眼上方ベクトルの向きを設定する視点設定部と、前記利用者端末の向きが、キャリブレ
ーションにより定められる正面方向から左右方向に向けられた場合に、前記左眼視線方向
とは反対の方向をZVL軸正方向とし、前記左眼上方ベクトルの向きをYVL軸正方向と
し、前記ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向である左
眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、前記右眼視線方向と
は反対の方向をZVR軸正方向とし、前記右眼上方ベクトルの向きをYVR軸正方向とし
、前記ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向である右眼
ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させることで、前記左眼視点
及び前記右眼視点の位置を補正する視点補正部と、補正された前記左眼視点の位置、前記
左眼視線方向、及び前記左眼上方ベクトルの向きに基づいて、前記左眼対応立体モデルを
2次元投影することで処理済左眼対応画像を生成し、補正された前記右眼視点の位置、前
記右眼視線方向、及び前記右眼上方ベクトルの向きに基づいて、前記右眼対応立体モデル
を2次元投影することで処理済左眼対応画像を生成する投影変換部と、を備えることを特
徴とする画像処理装置である。
望ましくは、前記視点補正部は、前記所定距離と、前記利用者端末の向きに応じて演算
される前記左眼対応カメラと前記右眼対応カメラとの間の視差との差の半分である補正距
離に応じた距離分、前記左眼視点及び前記右眼視点の位置を移動させる、ことを特徴とす
る。
望ましくは、前記モデリング部は、前記左眼対応立体モデルにおける、前記左眼対応カ
メラの撮像対象の像が描画された描画領域のうち、前記左眼対応カメラの撮像対象の像が
描画されていない無描画領域側の境界領域において、当該無描画領域へ向かって描画像を
徐々に透過させる処理を行い、前記右眼対応立体モデルにおける、前記右眼対応カメラの
撮像対象の像が描画された描画領域のうち、前記右眼対応カメラの撮像対象の像が描画さ
れていない無描画領域側の境界領域において、当該無描画領域へ向かって描画像を徐々に
透過させる処理を行う、ことを特徴とする。
また、本発明は、所定距離離間して同じ方向を向くように設置された左眼対応カメラ及
び右眼対応カメラからの画像を処理して、利用者が利用する利用者端末に表示する画像を
生成するコンピュータを、前記左眼対応カメラで撮像された左眼対応画像、及び、前記右
眼対応カメラで撮像された右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド
座標系において左眼対応立体モデル及び右眼対応立体モデルを構築するモデリング部と、
前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モデ
ルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、前
記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに基
づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位置
、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示す
右眼上方ベクトルの向きを設定する視点設定部と、前記利用者端末の向きが、キャリブレ
ーションにより定められる正面方向から左右方向に向けられた場合に、前記左眼視線方向
とは反対の方向をZVL軸正方向とし、前記左眼上方ベクトルの向きをYVL軸正方向と
し、前記ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向である左
眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、前記右眼視線方向と
は反対の方向をZVR軸正方向とし、前記右眼上方ベクトルの向きをYVR軸正方向とし
、前記ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向である右眼
ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させることで、前記左眼視点
及び前記右眼視点の位置を補正する視点補正部と、補正された前記左眼視点の位置、前記
左眼視線方向、及び前記左眼上方ベクトルの向きに基づいて、前記左眼対応立体モデルを
2次元投影することで処理済左眼対応画像を生成し、補正された前記右眼視点の位置、前
記右眼視線方向、及び前記右眼上方ベクトルの向きに基づいて、前記右眼対応立体モデル
を2次元投影することで処理済左眼対応画像を生成する投影変換部と、として機能させる
ことを特徴とする画像処理プログラムである。
また、本発明は、所定距離離間して同じ方向を向くように設置された左眼対応カメラ及
び右眼対応カメラからの画像を処理して、利用者が利用する利用者端末に表示する画像を
生成する画像処理方法であって、前記左眼対応カメラで撮像された左眼対応画像、及び、
前記右眼対応カメラで撮像された右眼対応画像をそれぞれ立体モデルに投影変換して、ワ
ールド座標系において左眼対応立体モデル及び右眼対応立体モデルを構築するモデリング
ステップと、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼
対応立体モデルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方
向、及び、前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端
末の向きに基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右
眼視点の位置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の
上方向を示す右眼上方ベクトルの向きを設定する視点設定ステップと、前記利用者端末の
向きが、キャリブレーションにより定められる正面方向から左右方向に向けられた場合に
、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼上方ベクトルの向き
をYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を構成する向きがX
軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、
前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上方ベクトルの向きを
VR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構成する向きがXVR
軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させるこ
とで、前記左眼視点及び前記右眼視点の位置を補正する視点補正ステップと、補正された
前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向きに基づいて、
前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成し、補正され
た前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向きに基づいて
、前記右眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成する投影変
換ステップと、を備えることを特徴とする画像処理方法である。
本発明によれば、ジオメトリパイプライン立体視画像生成処理により生成された立体視
画像を利用者端末に表示させる場合に、利用者端末が正面方向から左右方向を向いたとき
に生じる、左眼対応カメラと右眼対応カメラとの間の視差の減少を抑制することができる
本実施形態に係る立体視画像提供システムの構成概略図である。 左眼対応カメラ及び右眼対応カメラの構成概略図である。 左眼対応カメラの魚眼レンズと右眼対応カメラの魚眼レンズとの間隔を示す図である。 画像配信サーバの構成概略図である。 ユーザ端末の構成概略図である。 ユーザ端末に立体視画像が表示される様子を示す図である。 球状立体モデルの例を示す概念図である。 魚眼レンズへの入射角と魚眼画像における位置との対応関係を示す図である。 球状立体モデルへの左眼対応画像の投影処理の様子を示す概念図である。 左眼対応立体モデルの描画領域に対する処理内容を示す概念図である。 ワールド座標系において設定された左眼視点を示す概念図である。 ユーザ端末が左右方向に向けられる様子を示す図である。 ユーザ端末が左右方向に向けられたときの視差補正距離Δdを示す図である。 左眼視点の位置が補正される様子を示す概念図である。 右眼視点の位置が補正される様子を示す概念図である。 本実施形態に係るユーザ端末の処理の流れを示すフローチャートである。 ユーザ端末が左右方向に向けられたときに両レンズ間の視差が減少する様子を示す図である。
以下、本発明の実施形態について説明する。
図1に、本実施形態に係る立体視画像提供システム10の構成概略図が示されている。
立体視画像提供システム10は、左眼対応カメラ12L、右眼対応カメラ12R、画像配
信サーバ14、及び利用者端末としてのユーザ端末16を含んで構成されている。左眼対
応カメラ12L及び右眼対応カメラ12Rと画像配信サーバ14との間、並びに、画像配
信サーバ14とユーザ端末16との間は、通信回線18を介して互いに通信可能に接続さ
れている。通信回線18は、例えばインターネット、ローカルエリアネットワーク(LA
N)、あるいは近距離無線通信などによって構成される。
立体視画像提供システム10においては、左眼対応カメラ12L及び右眼対応カメラ1
2Rで撮像した左眼対応画像及び右眼対応画像(動画含む)が一旦画像配信サーバ14へ
格納された後、ユーザ端末16からの要求に応じて、画像配信サーバ14から左眼対応画
像及び右眼対応画像がユーザ端末16へ送信される。そして、ユーザ端末16の表示部に
、左眼対応画像及び右眼対応画像に基づく立体視画像が表示される。これにより利用者と
してのユーザは立体感のある画像を閲覧することができる。詳細は後述するが、立体視画
像提供システム10において利用者に提供される立体視画像は、ジオメトリパイプライン
立体視画像生成処理によって生成される。なお、立体視画像提供システム10により提供
される立体視画像の内容(コンテンツ)は、例えばアーティストやアイドルのライブ映像
であるが、これらに限定されるものではない。
図2(a)には、左眼対応カメラ12Lの構成概略図が示されている。
左眼対応カメラ12Lは魚眼レンズ20Lを備えており、つまり左眼対応カメラ12L
は魚眼カメラである。魚眼レンズ20Lは、半球状の凸レンズを有しており、当該凸レン
ズによって、撮像対象を平面でなく球面で捕らえることを可能としたレンズである。魚眼
レンズは一般的に画角が広いため、1つのレンズで向きを固定した場合であっても撮像領
域を比較的広範囲とすることができる。本実施形態における魚眼レンズ20Lは、230
°の画角を有している。なお、魚眼レンズには、様々な射影方式が知られているが、本実
施形態における魚眼レンズ20Lは、等立体角射影が採用されたものである。ただし、魚
眼レンズ20Lとしては、その他の射影方式(例えば正射影、等距離射影、あるいは立体
射影)が採用されたものであってもよい。
撮像素子22Lは、例えばCCD(Charge Coupled Device)イメージセンサなどから
構成される。撮像素子22Lは、2次元配列された複数の受光素子を有している。複数の
受光素子は、生成される左眼対応画像の各画素に対応するものである。撮像素子22Lが
有する複数の受光素子は、魚眼レンズ20Lに入射した光を受けて、受けた光を電気信号
に変換する。魚眼レンズ20Lへの光の入射角に応じて、当該光を受信する受光素子が決
定される。本実施形態においては、撮像素子22Lの各受光素子は、光を受信することで
、当該光に応じてR(赤)、G(緑)、B(青)の各値を有する画素値に変換する。撮像
素子22Lにより上述の処理が行われることで、2次元画像である左眼対応画像が形成さ
れる。
通信部24Lは、例えばネットワークアダプタなどから構成される。通信部24Lはい
わゆる通信インターフェースであり、通信回線18を介して、画像配信サーバ14に左眼
対応画像を送信する機能を備えている。通信部24Lは、無線通信機能を備えた通信イン
ターフェースであってもよいし、有線通信機能を備えた通信インターフェースであっても
よい。
図2(b)には、右眼対応カメラ12Rの構成概略図が示されている。右眼対応カメラ
12Rは、右眼対応画像を生成して画像配信サーバ14へ送信するものである。右眼対応
カメラ12Rが有する各部の構成及び機能は、左眼対応カメラ12Lが有する各部と同様
であるため、説明は省略する。
図3には、左眼対応カメラ12Lが備える魚眼レンズ20Lと、右眼対応カメラ12R
が備える魚眼レンズ20Rの位置関係が示されている。図3は平面視であり、魚眼レンズ
20L及び20Rは、実空間座標系の水平面であるXR1R1平面において所定距離d
離して設置されている。詳しくは、所定距離dは、魚眼レンズ20Lの中心と、魚眼レン
ズ20Rの中心との間の距離である。所定距離dは、人間の左眼と右眼の間隔に基づいて
決定されており、本実施形態では64mmに設定されている。魚眼レンズ20L及び20
Rは同じ方向を向くように設置されている。本実施形態では、魚眼レンズ20L及び20
Rは、いずれもXR1軸に沿った水平方向に向けられている。本明細書においては、魚眼
レンズ20LからXR1軸正方向に向かう方向、及び魚眼レンズ20RからXR1軸正方
向に向かう方向を「正面方向」と記載する。また、YR1軸方向を「左右方向」と記載す
る。
上述の通り、魚眼レンズ20L及び20Rは画角が230°であるから、魚眼レンズ2
0Lの正面方向を中心とした左右、上下、及び斜め方向の230°が魚眼レンズ20Lの
撮像領域である。魚眼レンズ20Rについても同様である。
図4に、画像配信サーバ14の構成概略図が示されている。画像配信サーバ14は、以
下に説明する機能を発揮するコンピュータであればどのような装置であってもよい。
通信部30は、例えばネットワークアダプタなどから構成される。通信部30は、通信
回線18を介して、左眼対応カメラ12Lから左眼対応画像を、右眼対応カメラ12Rか
ら右眼対応画像をそれぞれ受信する機能を有する。また、通信部30は、通信回線18を
介して、ユーザ端末16から画像の配信要求情報を受信する機能を有する。さらに、通信
部30は、通信回線18を介して、左眼対応カメラ12L及び右眼対応カメラ12Rから
受信し記憶部32に記憶された左眼対応画像34L及び右眼対応画像34Rをユーザ端末
16に送信(配信)する機能を有する。このとき、左眼対応画像34L及び右眼対応画像
34Rは同時に一つの画像として送信(配信)されるのが好適である。
記憶部32は、ハードディスク、ROM(Read Only Memory)、あるいはRAM(Rand
om Access Memory)などを含んで構成される。記憶部32には、画像配信サーバ14の各
部を動作させるためのプログラムが記憶される。また、記憶部32には、左眼対応カメラ
12L及び右眼対応カメラ12Rから受信した左眼対応画像34L及び右眼対応画像34
Rが記憶される。
制御部36は、例えばCPU(Central Processing Unit)などから構成され、記憶部
32に記憶されたプログラムに従って、画像配信サーバ14の各部の動作を制御する。ま
た、制御部36は、ユーザ端末16から配信要求情報を受信すると、配信要求情報を送信
したユーザ端末16に対して、配信要求に係る左眼対応画像34L及び右眼対応画像34
Rを送信する制御を行う。
図5に、ユーザ端末16の構成概略図が示されている。本実施形態に係るユーザ端末1
6はスマートフォンなどのタブレット端末であるが、ユーザ端末16としては、以下に説
明する機能を発揮するコンピュータであればどのような装置であってもよい。例えば、ヘ
ッドマウントディスプレイ(HMD)などであってもよい。ユーザ端末16においては、
画像配信サーバ14から配信される左眼対応画像34L及び右眼対応画像34Rに基づく
立体視画像を閲覧するためのアプリケーションを動作させることが可能になっている。
本実施形態においては、ユーザ端末16が、画像配信サーバ14から受信した左眼対応
画像34L及び右眼対応画像34Rを処理して立体視画像を生成する。つまり、本実施形
態では、ユーザ端末16は利用者端末であると同時に画像処理装置としての機能を発揮す
る。
制御部40は、例えばCPUあるいはマイクロコントローラなどから構成され、後述の
記憶部48に記憶されたプログラムに従って、ユーザ端末16の各部の動作を制御する。
また、制御部40は、ユーザから画像の配信要求の送信指示を受け付けた場合は、画像配
信サーバ14に対して配信要求情報を送信する制御を行う。
通信部42は、例えばネットワークアダプタなどから構成される。通信部42は、通信
回線18を介して、画像配信サーバ14へ配信要求情報を送信する機能を有する。また、
通信部42は、通信回線18を介して、画像配信サーバ14から左眼対応画像34L及び
右眼対応画像34Rを受信する機能を有する。
表示部44は、例えば液晶パネルなどから構成される。表示部44には、ユーザが各種
操作を行うためのユーザインターフェース画面が表示される。また、表示部44には、画
像配信サーバ14から受信し左眼対応画像34L及び右眼対応画像34Rに基づいて生成
された立体視画像が表示される。本実施形態では、図6に示される通り、立体視画像は、
後述の画像処理部52によって処理された処理済左眼対応画像と処理済右眼対応画像とが
並列に並べられて生成されるものである。ユーザは、左眼で処理済左眼対応画像を、右眼
で処理済右眼対応画像を見るための特殊レンズなどの器具をユーザ端末16に取りつけた
上で当該立体視画像を見る。このようにすることで、ユーザは、表示部44に表示された
立体視画像を立体感を得ながら観賞することができる。
図5に戻り、入力部46は、例えばタッチパネルあるいはボタンなどから構成される。
入力部46は、ユーザの指示をユーザ端末16に入力するためのものである。
記憶部48は、例えばROMあるいはRAMなどを含んで構成される。記憶部48には
、ユーザ端末16の各部を動作させるためのプログラムが記憶される。また、記憶部48
には、後述の画像処理部52が有する各機能を発揮させるための画像処理プログラム、及
び、立体視画像を閲覧するためのアプリケーションが記憶される。その他、記憶部48に
は、各種の処理データなどが記憶される。
角速度センサ50は、例えばジャイロセンサなどを含んで構成される。角速度センサ5
0は、実空間座標系における3軸回り、すなわちXR2軸回り、YR2軸回り、ZR2
回りそれぞれにおけるユーザ端末16の回転速度(角速度)を計測する。また、角速度セ
ンサ50は、キャリブレーションを行った上で、計測した各軸周りの角速度をキャリブレ
ーション時点からの時間で積分することで、ユーザ端末16の各軸周りの角度、すなわち
向きを算出することができる。
画像処理部52は、例えばGPU(Graphics Processing Unit)などを含んで構成され
る。画像処理部52は、記憶部48に記憶された立体視画像生成プログラムとの協働によ
り、ジオメトリパイプライン立体視画像生成処理を行うものである。図5に示すように、
画像処理部52は、モデリング部54、視点設定部56、視点補正部58、投影変換部6
0、及び立体視画像生成部62の各機能ブロックを有している。以下、図7以降の参照し
ながら、画像処理部52が有する各機能ブロックについて説明する。
モデリング部54は、仮想空間座標系であるワールド座標系において定義された立体モ
デル(3次元モデル)に対して、画像配信サーバ14から受信した左眼対応画像34Lを
投影変換して、左眼対応立体モデルを構築する。同様に、モデリング部54は、ワールド
座標系において定義された立体モデルに対して、画像配信サーバ14から受信した右眼対
応画像34Rを投影変換して、左眼対応立体モデルを構築する。
本実施形態では、球状の立体モデルを使用する。図7に、本実施形態で使用する球状立
体モデル70が示されている。本実施形態では、ワールド座標系は、原点をOとする直
交座標系であるX軸、Y軸、及びZ軸で定義されている。ワールド座標系のスケー
ルは適宜設定されてよいが、本実施形態では実空間座標系と同じスケールが設定される。
球状立体モデル70は、原点Oを中心としており、その表面は複数の三角ポリゴン72
で形成されている。具体的には、球状立体モデル70の両極(Y座標の最大値及び最小
値)を繋ぐように経度方向に並ぶ複数の経度線と、当該球面の表面において各経度線に直
交し、緯度方向に並ぶ複数の緯度線とが定義され、複数の経度線と複数の緯度線との交点
が頂点として定義される。複数の頂点に対する複数の頂点座標を示す情報は予め記憶部4
8などに記憶され、モデリング部54が参照可能となっている。球状立体モデル70(の
表面)上に定義された複数の頂点のうち、隣接する3つの頂点によって1つの三角ポリゴ
ン72が定義される。
モデリング部54は、左眼対応画像34Lを球状立体モデル70に投影変換して、球状
立体モデル70が有する各三角ポリゴン72に対して描画処理を行う。これにより、球状
の左眼対応立体モデルが構築される。同様に、モデリング部54は、右眼対応画像34R
を球状立体モデル70に投影変換して、球状立体モデル70が有する各三角ポリゴン72
に対して描画処理を行う。これにより、球状の右眼対応立体モデルが構築される。
モデリング部54による投影変換について説明する前に、魚眼カメラである左眼対応カ
メラ12L及び右眼対応カメラ12Rで撮像された、魚眼画像である左眼対応画像34L
及び右眼対応画像34Rについて説明する。
図8に、魚眼レンズへの入射角と、魚眼画像における位置との対応関係を示す図が示さ
れている。なお、図8はモデル図であり、図8に示された魚眼レンズの画角は180°と
なっている。また、図8には、等立体角射影の場合の例が示されている。図8においては
、左側に魚眼レンズを正面から見た図と魚眼画像が重ねて示されており、右側に魚眼レン
ズを側面から見た図が示されている。また、図8に示された魚眼画像の各画素の座標は、
魚眼画像の左上隅を原点Oとする、水平(横)方向の位置を示すX軸座標と、垂直(
縦)方向の位置を示すY軸座標で表現されるものとする。
等立体角射影においては、魚眼レンズへの入射角θと、撮像素子における像高yは、次
式で与えられる。
y=2fsin(θ/2) ・・・ (式1)
ここで、入射角θとは、魚眼レンズの正面方向に対する入射光の角度であり、像高yと
は、撮像素子の中央からの物理的な距離であり、fは焦点距離である。
例えば、入射角θ=0°の場合、すなわち、魚眼レンズの正面方向からの入射光につい
ては、y=0となる。これは、撮像素子が有する2次元配列された受光素子のうち中央に
位置する受光素子が、入射角0°の入射光を受光することを表している。つまり、入射角
0°(魚眼レンズの正面方向から)の入射光に対応する魚眼画像における画素は、魚眼画
像の中心座標、すなわち、最大X座標がXPMAX、最大Y座標がYPMAXである
とすると座標(XPMAX/2,YPMAX/2)の画素となる。
次に、入射角θが0°ではない場合は、像高yがある値を持つことになる。例えば、入
射角θ=30°である場合は、像高y=fとなる。これは、入射角30°の入射光につい
ては、撮像素子の中央を中心とする半径y=fの円周上に位置する受光素子が受光するこ
とを表している。入射角30°の入射光に対応する魚眼画像における画素は、魚眼画像の
中心座標を中心とする半径y’の円周上に位置する画素となる。ここで、yは、あくまで
撮像素子上における物理的な距離であるため、魚眼画像における半径y’は、魚眼画像の
サイズ(XPMAX及びYPMAX)に基づいてyに対して変換処理をかけて取得される
なお、本実施形態では、魚眼レンズ20L及び20Rの射影方式が等立体角射影である
ために、像高yは式1で算出されたが、
魚眼レンズ20L及び20Rの射影方式が正射影である場合には、
y=fsinθ ・・・ (式2)で、
魚眼レンズ20L及び20Rの射影方式が等距離射影である場合には、
y=fθ ・・・ (式3)で、
魚眼レンズ20L及び20Rの射影方式が立体射影である場合には、
y=2ftan(θ/2) ・・・ (式4)で、
それぞれ像高yが求められる。
上述のように、魚眼画像においては、魚眼レンズへの入射角に応じて同心円周上の画素
に像が形成されるため、図8に示される通り、魚眼画像の四隅には像が形成されないのが
一般的である。以下、魚眼画像のうち、像が形成されない四隅の部分を「無画像領域」と
、それ以外の部分を「画像領域」と記載する。
図9には、モデリング部54によって左眼対応画像34Lが球状立体モデル70に対し
て投影変換される様子が示されている。図9に示される通り、概念的には、モデリング部
54は、球状立体モデル70よりもZ軸の負方向側のX平面と平行な面に、その
上側がY軸正方向となるように左眼対応画像34Lを配置した上で、球状立体モデル7
0を左眼対応画像34Lで包み込むようなイメージで、左眼対応画像34Lの各画素と球
状立体モデル70の各三角ポリゴン72を対応させた上で、左眼対応画像34Lの各画素
を対応する三角ポリゴン72に投影する。これにより、球状立体モデル70の各三角ポリ
ゴン72に対して描画処理を行う。
具体的には、モデリング部54は、描画対象の三角ポリゴン72とワールド座標系の原
点(球状立体モデル70の中心)Oとを結ぶ線分と、原点OからZ軸負方向へ伸び
る線が成す角(以下「対Z軸角」と記載する)に基づいて、当該描画対象の三角ポリゴ
ン72に投影する左眼対応画像34Lの画素を選択する。具体的には、対Z軸角がθ
である三角ポリゴン群に対しては、左眼対応画像34Lの画素のうち、当該対Z軸角と
同じ入射角θに対応する画素群(図9において左眼対応画像34L上に一点鎖線で示す
)が投影される。上述の通り、左眼対応画像34の中心座標からの距離y’は、入射角に
基づいて算出されるから、距離y’に基づいて、左眼対応画像34L上において、入射角
θに対応する画素群を特定することができる。なお、1つの三角ポリゴン72に対応す
る左眼対応画像34Lの画素が複数ある場合は、当該三角ポリゴン72に対しては、当該
複数の画素に基づいて描画処理が行われていてよい。その場合は、例えば、複数の画素が
有する複数の画素値の代表値(例えば平均値など)を用いて描画されてよい。
このように、球状立体モデル70に対して左眼対応画像34Lが投影されることで、2
次元画像であった左眼対応画像34Lが左眼対応立体モデルに変換される。
右眼対応画像34Rについても同様に、球状立体モデル70に対して右眼対応画像34
Rを投影変換することで、右眼対応立体モデルが構築される。
図10には、モデリング部54の投影処理により構築された左眼対応立体モデル74L
のX平面における断面図が示されている。上述の通り、本実施形態における魚眼レ
ンズ20Lの画角は230°であり、また、魚眼画像の四隅には無画像領域が存在してい
るから、図10に示される通り、左眼対応立体モデル74Lの後側(Z軸正方向側)に
位置する三角ポリゴン群は、左眼対応画像34Lが投影されなかった領域、及び、左眼対
応画像34Lの無画像領域が投影された領域を含む(すなわち左眼対応カメラ12Lの撮
像対象の像が描画されていない)無描画領域となっている。具体的には、Z軸の負方向
を真ん中とした中心角230°よりも後側に位置する三角ポリゴン群が無描画領域となっ
ている。なお、本実施形態では、無描画領域に含まれる三角ポリゴン群は黒一色となって
いる。一方、Z軸の負方向を真ん中とした中心角230°よりも前側(Z軸負方向側
)に位置する三角ポリゴン群は、左眼対応画像34Lの画像領域、すなわち、左眼対応カ
メラ12Lの撮像対象の像が投影されて描画された描画領域となっている。
ここで、モデリング部54は、描画領域のうち、Z軸の負方向を真ん中とした中心角
180°よりも後側に位置する三角ポリゴン群に描画された描画像を削除する。当該削除
処理により描画像が削除される領域を「描画像削除領域」と呼ぶ(図10参照)。これは
、図3に示された通り、左眼対応カメラ12Lの魚眼レンズ20Lと、右眼対応カメラ1
2Rの魚眼レンズ20Rとが左右方向に並べられて配置されているため、左眼対応立体モ
デル74Lの右側(X軸正方向側)にある描画像削除領域には、魚眼レンズ20Rの像
が描画されてしまう。同様に、右眼対応立体モデル74Rの左側(X軸負方向側)にあ
る描画像削除領域には、魚眼レンズ20Lの像が描画されてしまう。本実施形態では、描
画像削除領域を含む領域が2次元投影されることにより立体視画像が生成された場合(当
該2次元投影処理については詳細後述)に、ユーザに魚眼レンズ20L及び20Rが見え
てしまわないように、モデリング部54は、描画像削除領域において描画像を削除してい
る。描画像削除領域において描画像が削除されることにより、Z軸の負方向を真ん中と
した中心角180°よりも前側が描画領域となり、Z軸の負方向を真ん中とした中心角
180°よりも後側が無描画領域となる。
さらに、モデリング部54は、左眼対応立体モデル74Lの描画領域のうち、無描画領
域との境界領域(描画領域の左右両端の領域)において、無描画領域へ向かって描画像を
徐々に透過させる透過処理を行う。透過処理が行われる領域を「透過処理領域」と呼ぶ(
図10参照)。上述の通り、無描画領域には何も描画されておらず、本実施形態では黒一
色となっている。したがって、描画領域と無描画領域との境界を含む領域が2次元投影さ
れることにより立体視画像が生成された場合、当該立体視画像において突然無描画領域に
対応する画素が現れるようになってしまう。例えば、立体視画像上に境界線が現れ、当該
境界線の一方側は撮影された像に対応する画像があるのに、当該境界線を境に突然黒画素
で塗りつぶされた領域が出現するようになってしまう。これにより、ユーザが違和感を感
じてしまう場合が考えられる。
そこで、モデリング部54が透過処理領域に対して透過処理を行うことにより、描画領
域と無描画領域との境界を含む領域が2次元投影されて立体視画像が生成された場合であ
っても、当該立体視画像において、描画領域に対応する画素領域から無描画領域に対応す
る画素領域に行くにつれ徐々に画素が透過していくから、ユーザが感じる違和感を低減さ
せることができる。
モデリング部54は、右眼対応立体モデル74Rに対しても、描画像削除領域に対する
描画像削除処理及び透過処理領域に対する透過処理を行う。
視点設定部56は、ワールド座標系において、モデリング部54が構築した左眼対応立
体モデル74Lに対する左眼視点に関する設定、モデリング部54が構築した右眼対応立
体モデル74Rに対する右眼視点に関する設定を行う。具体的には、左眼視点の位置及び
右眼視点の位置、左眼視点からの視線方向である左眼視線方向及び右眼視点からの視線方
向である右眼視線方向、並びに、左眼視点の上方向を示す左眼上方ベクトルの向き及び右
眼視点の上方向を示す右眼上方ベクトルの向きを設定する。
視点設定部56は、ユーザ端末16の向きに応じて、左眼視点及び右眼視点の位置、左
眼視線方向及び右眼視線方向、並びに左眼上方ベクトルの向き及び右眼上方ベクトルの向
きを決定する。図11には水平面であるXR2R2平面上において、ユーザ端末16の
向きが右方向に変更される様子が示されている。本実施形態では、ユーザ端末16におい
て、立体視画像を閲覧するためのアプリケーションが起動したタイミングで、角速度セン
サ50がキャリブレーションを行う。キャリブレーションを行ったときのユーザ端末16
の向きが正面方向として設定される。図11においては、水平方向であってXR2軸正方
向が正面方向となっており、当該正面方向を向いたユーザ端末16が破線で示されている
。図11には、キャリブレーション後、ユーザによってユーザ端末16の向きが変更され
、正面方向から時計回り(右側方向)に(90−φ)°、すなわちY軸方向(真横方向
)に対して角度φの向きに、回転させられた様子が示されている。なお、当然ながら、ユ
ーザ端末16は、表示部44がユーザ側を向く状態が維持されながらその向きが変更され
る。
図12に、ワールド座標系において設定される左眼視点が示されている。図12は、図
10同様、左眼対応立体モデル74LのX平面における断面図である。本実施形態
では、左眼視点は、ワールド座標系の原点O、すなわち、球状の左眼対応立体モデル7
4Lの中心点から所定距離離れた位置に設定される。後述のように、左眼視点の位置は、
ユーザ端末16の向きに応じて変更され得るが、原点Oから左眼視点までの距離は不変
となっている。したがって、左眼視点の移動軌跡は、原点Oを中心とした球面上となる
左眼視点からの左眼視線方向は、左眼視点の位置から原点Oへ向かう方向である。し
たがって、左眼視点の位置が決定すると、それに従って左眼視線方向も決定するといえる
。また、本実施形態では、左眼対応立体モデル74Lに対しては、Y軸正方向と左眼対
応画像34Lの上側方向を一致させた上で、左眼対応画像34Lが球状立体モデル70に
投影されているから、左眼視点がX平面上にある場合は、左眼視点の上方ベクトル
の向きはY軸正方向となる。なお、左眼視線方向と左眼視点の上方ベクトルの向きとの
間の方向関係は、左眼視点の位置に関わらず一定(直交)に維持される。
ワールド座標系において構築された左眼対応立体モデル74Lにおいては、Z軸負方
向が正面方向に対応するため、視点設定部56は、ワールド座標系におけるZ軸負方向
に対する左眼視線方向が、正面方向に対するユーザ端末16の向きに一致するように左眼
視点の位置を設定する。
まず、ユーザ端末16が正面方向を向いているときは、視点設定部56は、左眼視線方
向がZ軸負方向を向くように、原点OからZ軸正方向の位置に左眼視点を設定する
。図12においては、当該位置が点VPLiniで示されている。この場合の左眼上方ベ
クトルの向きはY軸正方向である。
その後、図11に示すように、ユーザ端末16がXR2R2平面上において、正面方
向から右側方向に(90−φ)°回転させられた場合、視点設定部56は、左眼視点をそ
の移動軌跡上において移動させて、ワールド座標系における左眼視線方向を、原点O
らZ軸負方向へ延びる線との成す角が(90−φ)°となるように左眼視点の位置を設
定する。図12には、そのように設定された左眼視点の位置が点VPLで示されている
。なお、この例においては、左眼視点は、X平面上を移動しただけなので、左眼上
方ベクトルの向きはY軸正方向に維持される。
視点設定部56によって左眼視点の位置が設定されると、左眼視点を原点とした左眼ビ
ュー座標系が定義される。本実施形態における左眼ビュー座標系は、左眼視線方向とは反
対の方向をZVL軸正方向とし(つまり左眼視線方向がZVL軸負方向)、左眼上方ベク
トルの向きをYVL軸正方向とし、ZVL軸及びYVL軸に対して右手系を構成する向き
がXVL軸正方向に設定される。したがって、左眼視点の位置が変更されると、ワールド
座標系に対する左眼ビュー座標系の原点の位置、及び、XVL軸YVL軸ZVL軸各軸の
方向も変更されることになる。
なお、後述の視点補正部58により左眼視点の位置が補正されなかったとすると、後述
の投影変換部60によって、左眼視線方向を中心とした所定の視野角に含まれる左眼対応
立体モデル74Lの一部分、すなわち、図12において左眼対応立体モデル74L上で太
線で表された部分が2次元投影されて左眼に対応する2次元画像が生成される。つまり、
図12の太線部分に対応する2次元画像が表示部44に表示される(ユーザが見える)部
分である。
右眼対応立体モデル74Rに対する右眼視点についても、上記同様の処理によって設定
される。そして、右眼視点を原点とした右眼ビュー座標系が定義される。本実施形態にお
ける右眼ビュー座標系は、右眼視線方向とは反対の方向をZVR軸正方向とし(つまり右
眼視線方向がZVR軸負方向)、右眼上方ベクトルの向きをYVR軸正方向とし、ZVR
軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向に設定される。
視点補正部58は、ユーザ端末16が正面方向から左右方向に向けられた場合に、ユー
ザ端末16の向きに基づいて、設定された左眼視点の位置を左眼ビュー座標系上で移動さ
せ、設定された右眼視点の位置を右眼ビュー座標系上で移動させることで左眼視点及び右
眼視点の位置を補正する処理を行う。詳しくは、左眼対応カメラ12Lと右眼対応カメラ
12Rとの間の視差を拡げる方向に、左眼視点及び右眼視点の位置を移動させる。以下、
当該補正処理の詳細について説明する。
図17において示したのと同様に、本実施形態においても、ユーザがユーザ端末16を
左右方向に向けた場合、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差が小
さくなるという問題が生じる。当該問題が図13において改めて示されている。ここでも
、ユーザがユーザ端末16を正面方向から右側に(90−φ)°向けた場合、すなわち真
横方向から角度φとなる方向に向けた場合を考える。この場合、上述のように、投影変換
部60により生成される2次元画像は、左眼対応立体モデル74LのZ軸負方向(ワー
ルド座標系における正面方向)から右側方向に対応する画像となる。一方において、魚眼
レンズ20L及び20Rの向きは正面方向を向いたままであるため、実空間上で考えると
、魚眼レンズ20L及び20Rからの視線方向は、レンズの向き(正面方向)から右側に
(90−φ)°向いた状態となる。したがって、左眼対応カメラ12Lと右眼対応カメラ
12Rとの間の視差はd’となり、これは上述のようにd’=dsinφとなる。したが
って、視差d’は、魚眼レンズ20Lと20Rとの間の距離、すなわち、視線方向が魚眼
レンズ20Lと20Rから正面方向である場合の左眼対応カメラ12Lと右眼対応カメラ
12Rとの間の視差dよりも小さくなる。
ユーザ端末16が左右方向に向けられたときの、左眼対応カメラ12Lと右眼対応カメ
ラ12Rとの間の視差の減少を抑制するには、魚眼レンズ20Lの現在の視点LPL
び魚眼レンズ20Rの現在の視点LPRを、それぞれ、視差が広がる方向に移動させれ
ばよい。視差を正確にdに維持するならば、視線方向が正面のときの視差dと現在の視差
d’との差分を算出し、魚眼レンズ20Lの視点及び魚眼レンズ20Rの視点を当該差分
の半分であるΔdづつ、視差が広がる方向に移動させればよいことになる。
ここで、d’=dsinφであるから、補正距離Δdは、
Δd={d(1−sinφ)}/2 ・・・ (式5)
で与えられる。
したがって、仮に、魚眼レンズ20Lの視点を視線方向に直交する方向であって視差が
広がる方向に距離Δdだけ移動させて、当該視点を図13における点LPLで示される
位置にし、同様に、魚眼レンズ20Rの視点を視線方向に直交する方向であって視差が広
がる方向に距離Δdだけ移動させて、当該視点を図13における点LPRで示される位
置にすることで、ユーザ端末16が左右方向に向けられたときに生じ得る視差の減少を解
消することができると考えられる。
本実施形態では、このような実空間上における視点の移動がワールド座標系上で実現さ
れるように、視点補正部58は、ワールド座標系において設定された左眼視点及び右眼視
点の位置を移動させる。
図14には、左眼視点の位置が補正される様子が示されている。図14には、図12な
どと同様、左眼対応立体モデル74LのX平面における断面図である。視点設定部
56により左眼視点が点VPLの位置に設定された状態から考える。左眼対応カメラ1
2Lと右眼対応カメラ12Rとの間の視差を拡げるための、左眼視点の移動方向は、左眼
上方ベクトルの向きを上にして、左眼視点から左眼視線方向を向いたときの左側方向であ
る。これは、左眼視線方向とは反対の方向をZVL軸正方向とし、左眼上方ベクトルの向
きをYVL軸正方向とし、ZVL軸及びYVL軸に対して右手系を構成する向きがXVL
軸正方向である左眼ビュー座標系におけるXVL軸負方向であるといえる。換言すれば、
左眼視点方向をZ軸正方向とし、左眼上方ベクトルの向きをY軸正方向としたときに、当
該Z軸とY軸に対して右手系を構成するX軸正方向の方向であるといえる。また、左眼視
点の位置を移動させるにあたり、左眼視線方向及び左眼上方ベクトルの向きは維持される
左眼視点方向及び左眼上方ベクトルの向きを維持しつつ、左眼ビュー座標系におけるX
VL軸負方向に左眼視点を移動させることは、図13に示した、実座標系における魚眼レ
ンズ20Lの視点を、その視線方向及び魚眼レンズ20Lの上側方向を維持しながら点L
PLから点LPL方向へ移動させることに相当する。したがって、左眼視点をXVL
軸負方向に移動させることで左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差
の減少を抑制することができる。
図15には、右眼視点の位置が補正される様子が示されている。図15には、右眼対応
立体モデル74RのX平面における断面図である。左眼対応カメラ12Lと右眼対
応カメラ12Rとの間の視差を拡げるための、右眼視点の移動方向は、右眼上方ベクトル
の向きを上にして、右眼視点から右眼視線方向を向いたときの右側方向である。これは、
右眼視線方向とは反対の方向をZVR軸正方向とし、右眼上方ベクトルの向きをYVR
正方向とし、ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向であ
る右眼ビュー座標系におけるXVR軸正方向であるといえる。換言すれば、右眼視点方向
をZ軸正方向とし、右眼上方ベクトルの向きをY軸正方向としたときに、当該Z軸とY軸
に対して左手系を構成するX軸正方向の方向であるといえる。また、右眼視点の位置を移
動させるにあたっても、右眼視線方向及び右眼上方ベクトルの向きは維持される。
右眼視点方向及び右眼上方ベクトルの向きを維持しつつ、右眼ビュー座標系におけるX
VR軸正方向に右眼視点を移動させることは、図13に示した、実座標系における魚眼レ
ンズ20Rの視点を、その視線方向及び魚眼レンズ20Rの上側方向を維持しながら点L
PRから点LPR方向へ移動させることに相当する。したがって、右眼視点をXVR
軸正方向に移動させることで左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差
の減少を抑制することができる。
また、左眼視点及び右眼視点を補正することにより、左眼対応カメラ12Lと右眼対応
カメラ12Rとの間の視差がdに一致するのが好ましい。視差をdに一致させるため、視
点補正部58は、左眼視点及び右眼視点の補正距離を算出する。
ここでも、図11に示されるように、ユーザ端末16が正面方向から右側方向(90−
φ)°傾けられ、図14の点VPLが示す位置に設定された左眼視点の位置を補正する
場合を考える。視点補正部58は、魚眼レンズ20Lと魚眼レンズ20Rとの間の距離d
と、角速度センサ50が演算したユーザ端末16の向きを示す角度φを用いて、上述の式
5に基づいて、補正距離Δdを算出する。なお、距離dは予め計測されて、距離dを示す
上方が記憶部48に記憶されていてよい。
視点補正部58は、左眼視点を上述の方向に算出した補正距離Δd移動させる。同様に
、右眼視点を上述の方向に補正距離Δd移動させる。これにより、ユーザ端末16がいず
れの向きを向いていても、魚眼レンズ20Lと魚眼レンズ20Rとの間の視差を常にdと
することができる。なお、本実施形態においては、ワールド座標系と実空間座標系とのス
ケールが同じとなっているので、左眼視点及び右眼視点を補正距離Δd移動させたが、ワ
ールド座標系と実空間座標系のスケールが異なる場合は、算出した補正距離Δdに両座標
系のスケールを考慮した補正をかけた上で補正後の距離分だけ左眼視点及び右眼視点を移
動させるようにしてもよい。
投影変換部60は、視点設定部56により設定され、必要に応じて視点補正部58によ
り補正された左眼視点、左眼視線方向、及び左眼上方ベクトルの向きに基づいて、左眼対
応立体モデル74Lを2次元投影することで、2次元画像である処理済左眼対応画像を生
成する。図14に示すように、補正後の左眼視点の位置である点VPLから左眼視線方
向を中心とした所定の視野角の範囲内に含まれる左眼対応立体モデル74Lの一部である
投影対象領域80Lが2次元投影の対象となる。具体的には、補正後の左眼視点を基準と
した左眼ビュー座標系において定義された2次元スクリーン上に、投影対象領域80Lに
含まれる三角ポリゴン群の描画像が投影されて処理済左眼対応画像が生成される。本実施
形態として、2次元投影の方法として透視投影変換が用いられるが、その他の変換方法が
用いられてもよい。
投影変換部60は、同様に、視点設定部56により設定され、必要に応じて視点補正部
58により補正された右眼視点、右眼視線方向、及び右眼上方ベクトルの向きに基づいて
、右眼対応立体モデル74Rを2次元投影することで、2次元画像である処理済右眼対応
画像を生成する。図15に示すように、補正後の右眼視点の位置である点VPRから右
眼視線方向を中心とした所定の視野角の範囲内に含まれる右眼対応立体モデル74Rの一
部である投影対象領域80Rが2次元投影の対象となる。2次元投影の方法は、左眼対応
立体モデル74Lの投影方法と同様であってよい。
立体視画像生成部62は、投影変換部60により生成された処理済左眼対応画像及び処
理済右眼対応画像に基づいて、立体視画像を生成する。図6に示される通り、本実施形態
における立体視画像は、処理済左眼対応画像及び処理済右眼対応画像が並列に並べられた
画像である。もちろん、立体視画像としては、処理済左眼対応画像をユーザの左眼で見る
ことができ、処理済右眼対応画像をユーザの右眼で見ることができる限りにおいてその他
の態様であってもよい。
また、立体視画像生成部62は、表示部44のサイズに応じて、生成した立体視画像の
サイズを変更するビューポート変換を行う。これにより、表示部44のサイズに適した立
体視画像が生成される。
生成された立体視画像は、制御部40により表示部44に表示される。
本実施形態に係る立体視画像提供システム10の構成は以上の通りである。立体視画像
提供システム10によれば、ジオメトリパイプライン立体視画像生成処理によって立体視
画像が生成されるにあたり、ユーザ端末16が正面方向から左右方向に向けられた場合に
、視点補正部58によって、ワールド座標系において設定された左眼視点及び右眼視点の
位置がユーザ端末16の向きに応じて、左眼対応カメラ12Lと右眼対応カメラ12Rと
の間の視差が拡がる方向に移動される。これにより、ユーザ端末16が左右方向を向けら
れたときに生じる、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差の減少が
抑制される。その結果、ユーザ端末16が左右方向に向けられた場合であっても、ユーザ
に対して好適に立体感を感じることができる立体視画像を提供することができる。
好適には、ユーザ端末の向きに応じて算出された補正距離Δdに応じた距離だけ、左眼
視点及び右眼視点が移動されるから、ユーザ端末16がどの向きを向いていたとしても、
左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差はdに維持される。これによ
り、より好適に立体感を感じることのできる立体視画像を提供することが可能になると共
に、ユーザ端末16の向きに応じて表示部44に表示される立体視画像が刻々変化する場
合に、ユーザに与える違和感を低減することができる。
上述の実施形態においては、画像処理部52、すなわち、モデリング部54、視点設定
部56、視点補正部58、投影変換部60、及び立体視画像生成部62はユーザ端末16
が有していたが、これらの各部が画像配信サーバ14が有する態様を取ることもできる。
その場合は、画像配信サーバ14が立体視画像生成装置として機能する。画像配信サーバ
14において立体視画像が生成される場合、生成された立体視画像がユーザ端末16に配
信される。なお、この態様を採用する場合は、ユーザ端末16の角速度センサ50の計測
値は逐次画像配信サーバ14へ送信される。
以下、図16に示されたフローチャートに従って、本実施形態に係るユーザ端末16の
処理の流れを説明する。
ステップS10において、ユーザの指示に応じて、ユーザ端末16から画像配信サーバ
14に対して画像の配信要求情報が送信される。ユーザ端末16は、それを受けた画像配
信サーバ14から左眼対応画像34L及び右眼対応画像34Rを受信する。
ステップS12において、モデリング部54は、受信した左眼対応画像34Lをワール
ド座標系において定義された球状立体モデル70に投影変換して左眼対応立体モデル74
Lを構築する。同様に、モデリング部54は、受信した右眼対応画像34Rをワールド座
標系において定義された球状立体モデル70に投影変換して右眼対応立体モデル74Rを
構築する。
ステップS14において、角速度センサ50は、ユーザ端末16の向きを取得する。
ステップS16において、視点設定部56は、ステップS14において取得されたユー
ザ端末16の向きに基づいて、ワールド座標系において、左眼対応立体モデル74Lに対
する左眼視点、左眼視線方向、及び左眼上方ベクトルの向きを設定する。同様に、視点設
定部56は、ステップS14において取得されたユーザ端末16の向きに基づいて、ワー
ルド座標系において、右眼対応立体モデル74Rに対する右眼視点、右眼視線方向、及び
右眼上方ベクトルの向きを設定する。
ステップS18において、視点補正部58は、ステップS14で取得したユーザ端末1
6の向きに基づいて、補正距離Δdを算出する。
ステップS20において、視点補正部58は、ステップS18で算出した補正距離Δd
に応じた距離分、左眼視点及び右眼視点をそれぞれのビュー座標系上で移動させる。上述
の通り、左眼視点の移動方向は、左眼ビュー座標系のXVL軸負方向であり、右眼視点の
移動方向は、右眼ビュー座標系のXVR軸正方向である。
ステップS22において、投影変換部60は、ステップS20で補正された左眼視点の
位置、左眼視線方向、及び左眼上方ベクトルの向きに基づいて、左眼対応立体モデル74
Lを2次元投影することで、処理済左眼対応画像を生成する。同様に、投影変換部60は
、ステップS20で補正された右眼視点の位置、右眼視線方向、及び右眼上方ベクトルの
向きに基づいて、右眼対応立体モデル74Rを2次元投影することで、処理済右眼対応画
像を生成する。
ステップS24において、立体視画像生成部62は、ステップS22で生成された処理
済左眼対応画像及び処理済右眼対応画像を並列に並べることにより、立体視画像を生成す
る。
ステップS26において、制御部40は、ステップS24で生成された立体視画像を表
示部44に表示させる。
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものでは
なく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
10 立体視画像提供システム、12L 左眼対応カメラ、12R 右眼対応カメラ、
14 画像配信サーバ、16 ユーザ端末、18 通信回線、20L,20R 魚眼レン
ズ、22L,22R 撮像素子、24L,24R,30,42 通信部、32,48 記
憶部、34L 左眼対応画像、34R 右眼対応画像、36,40 制御部、44 表示
部、46 入力部、50 角速度センサ、52 画像処理部、54 モデリング部、56
視点設定部、58 視点補正部、60 投影変換部、62 立体視画像生成部。

Claims (5)

  1. 所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼対応カメラ
    からの画像を処理して、利用者が利用する利用者端末に表示する画像を生成する画像処理
    装置であって、
    前記左眼対応カメラで撮像された左眼対応画像、及び、前記右眼対応カメラで撮像され
    た右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド座標系において左眼対応
    立体モデル及び右眼対応立体モデルを構築するモデリング部と、
    前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モ
    デルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、
    前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに
    基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位
    置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示
    す右眼上方ベクトルの向きを設定する視点設定部と、
    前記利用者端末の向きが、キャリブレーションにより定められる正面方向から左右方向
    に向けられた場合に、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼
    上方ベクトルの向きをYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を
    構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左
    眼視点を移動させ、前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上
    方ベクトルの向きをYVR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構
    成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼
    視点を移動させることで、前記左眼視点及び前記右眼視点の位置を補正する視点補正部と

    補正された前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向き
    に基づいて、前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成
    し、補正された前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向
    きに基づいて、前記右眼対応立体モデルを2次元投影することで処理済左眼対応画像を生
    成する投影変換部と、
    を備えることを特徴とする画像処理装置。
  2. 前記視点補正部は、前記所定距離と、前記利用者端末の向きに応じて演算される前記左
    眼対応カメラと前記右眼対応カメラとの間の視差との差の半分である補正距離に応じた距
    離分、前記左眼視点及び前記右眼視点の位置を移動させる、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記モデリング部は、前記左眼対応立体モデルにおける、前記左眼対応カメラの撮像対
    象の像が描画された描画領域のうち、前記左眼対応カメラの撮像対象の像が描画されてい
    ない無描画領域側の境界領域において、当該無描画領域へ向かって描画像を徐々に透過さ
    せる処理を行い、前記右眼対応立体モデルにおける、前記右眼対応カメラの撮像対象の像
    が描画された描画領域のうち、前記右眼対応カメラの撮像対象の像が描画されていない無
    描画領域側の境界領域において、当該無描画領域へ向かって描画像を徐々に透過させる処
    理を行う、
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼対応カメラ
    からの画像を処理して、利用者が利用する利用者端末に表示する画像を生成するコンピュ
    ータを、
    前記左眼対応カメラで撮像された左眼対応画像、及び、前記右眼対応カメラで撮像され
    た右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド座標系において左眼対応
    立体モデル及び右眼対応立体モデルを構築するモデリング部と、
    前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モ
    デルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、
    前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに
    基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位
    置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示
    す右眼上方ベクトルの向きを設定する視点設定部と、
    前記利用者端末の向きが、キャリブレーションにより定められる正面方向から左右方向
    に向けられた場合に、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼
    上方ベクトルの向きをYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を
    構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左
    眼視点を移動させ、前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上
    方ベクトルの向きをYVR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構
    成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼
    視点を移動させることで、前記左眼視点及び前記右眼視点の位置を補正する視点補正部と

    補正された前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向き
    に基づいて、前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成
    し、補正された前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向
    きに基づいて、前記右眼対応立体モデルを2次元投影することで処理済左眼対応画像を生
    成する投影変換部と、
    として機能させることを特徴とする画像処理プログラム。
  5. 所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼対応カメラ
    からの画像を処理して、利用者が利用する利用者端末に表示する画像を生成する画像処理
    方法であって、
    前記左眼対応カメラで撮像された左眼対応画像、及び、前記右眼対応カメラで撮像され
    た右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド座標系において左眼対応
    立体モデル及び右眼対応立体モデルを構築するモデリングステップと、
    前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モ
    デルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、
    前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに
    基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位
    置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示
    す右眼上方ベクトルの向きを設定する視点設定ステップと、
    前記利用者端末の向きが、キャリブレーションにより定められる正面方向から左右方向
    に向けられた場合に、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼
    上方ベクトルの向きをYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を
    構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左
    眼視点を移動させ、前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上
    方ベクトルの向きをYVR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構
    成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼
    視点を移動させることで、前記左眼視点及び前記右眼視点の位置を補正する視点補正ステ
    ップと、
    補正された前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向き
    に基づいて、前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成
    し、補正された前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向
    きに基づいて、前記右眼対応立体モデルを2次元投影することで処理済左眼対応画像を生
    成する投影変換ステップと、
    を備えることを特徴とする画像処理方法。
JP2018141215A 2018-07-27 2018-07-27 画像処理装置、画像処理プログラム、及び、画像処理方法 Pending JP2019013003A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018141215A JP2019013003A (ja) 2018-07-27 2018-07-27 画像処理装置、画像処理プログラム、及び、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018141215A JP2019013003A (ja) 2018-07-27 2018-07-27 画像処理装置、画像処理プログラム、及び、画像処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017032281A Division JP6378794B1 (ja) 2017-02-23 2017-02-23 画像処理装置、画像処理プログラム、及び、画像処理方法

Publications (1)

Publication Number Publication Date
JP2019013003A true JP2019013003A (ja) 2019-01-24

Family

ID=65227473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141215A Pending JP2019013003A (ja) 2018-07-27 2018-07-27 画像処理装置、画像処理プログラム、及び、画像処理方法

Country Status (1)

Country Link
JP (1) JP2019013003A (ja)

Similar Documents

Publication Publication Date Title
KR101313740B1 (ko) 원소스 멀티유즈 스테레오 카메라 및 스테레오 영상 컨텐츠제작방법
JP6732617B2 (ja) 情報処理装置および画像生成方法
US11960086B2 (en) Image generation device, head-mounted display, and image generation method
TWI788739B (zh) 3d顯示設備、3d圖像顯示方法
KR20120030005A (ko) 화상 처리 장치 및 방법과 입체 화상 표시 장치
CN108881893A (zh) 基于人眼跟踪的裸眼3d显示方法、装置、设备和介质
CN113454685A (zh) 基于云的相机标定
US20220113543A1 (en) Head-mounted display and image display method
JP2007318754A (ja) 仮想環境体験表示装置
WO2019064399A1 (ja) 情報処理システムおよび対象物情報取得方法
JP2019029721A (ja) 画像処理装置、画像処理方法およびプログラム
JPH1074269A (ja) 立体cg動画像生成装置
JP6378794B1 (ja) 画像処理装置、画像処理プログラム、及び、画像処理方法
CN110060349B (zh) 一种扩展增强现实头戴式显示设备视场角的方法
JP2011211551A (ja) 画像処理装置および画像処理方法
US20220113794A1 (en) Display device and image display method
Hasmanda et al. The modelling of stereoscopic 3D scene acquisition
CN114513646B (zh) 一种三维虚拟场景中全景视频的生成方法及设备
JP2842735B2 (ja) 複数視点3次元画像入力装置、画像合成装置、及びその画像出力装置
JP2019013003A (ja) 画像処理装置、画像処理プログラム、及び、画像処理方法
CN115311133A (zh) 一种图像处理方法、装置、电子设备及存储介质
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
WO2019026388A1 (ja) 画像生成装置および画像生成方法
TWI766316B (zh) 可透光顯示系統及其圖像輸出方法與處理裝置
KR100893381B1 (ko) 실시간 입체영상 생성방법