JP2019102828A - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents
画像処理装置、画像処理方法、及び画像処理プログラム Download PDFInfo
- Publication number
- JP2019102828A JP2019102828A JP2017227987A JP2017227987A JP2019102828A JP 2019102828 A JP2019102828 A JP 2019102828A JP 2017227987 A JP2017227987 A JP 2017227987A JP 2017227987 A JP2017227987 A JP 2017227987A JP 2019102828 A JP2019102828 A JP 2019102828A
- Authority
- JP
- Japan
- Prior art keywords
- image
- gaze
- depth
- difference
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000009499 grossing Methods 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 19
- 230000004438 eyesight Effects 0.000 abstract description 3
- 230000008447 perception Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 38
- 238000006243 chemical reaction Methods 0.000 description 31
- 238000009877 rendering Methods 0.000 description 14
- 238000013500 data storage Methods 0.000 description 10
- 230000006866 deterioration Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000002093 peripheral effect Effects 0.000 description 7
- 230000007423 decrease Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000005043 peripheral vision Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
【課題】画像内でユーザが注視している対象と、画像内の他の対象との間の奥行きの差に基づいて遠近感が付与された画像を表示させる。【解決手段】観察位置からの眺めを表す二次元画像と、観察位置から二次元画像の各箇所で表される対象までの奥行きを示す奥行き情報と、を取得する画像取得手段と、ユーザの視線を検出する検出手段による検出結果に基づいて、画像取得手段により取得された二次元画像内でユーザが注視する注視箇所を特定する特定手段と、画像取得手段により取得された奥行き情報に基づいて、特定手段により特定された注視箇所と、二次元画像内において注視箇所以外の非注視箇所と、の間の奥行きの差を取得する差取得手段と、差取得手段により取得された奥行きの差に基づいて、非注視箇所の画質を低下させる低下手段と、低下手段により非注視箇所の画質が低下させられた二次元画像を画像表示装置に出力する出力手段と、を備える。【選択図】図2
Description
本発明は、遠近感を演出する画像を表示させるための方法の技術分野に関する。
従来、遠近感のある画像を表示させるための方法として、例えばヘッドマウントディスプレイ、三次元ディスプレイ等により、視差を有する別々の画像を表示する方法が知られている。また、例えば4K、8K等の高解像度の大画面により高精細な画像を表示することによって、間接的に遠近感を演出することができる場合もある。
ところで、現実においては、ユーザが或る対象物を注視している場合、その対象物の位置を基準として被写界深度の範囲内にある物はシャープに見え、被写界深度の範囲外にある物はぼやけて見える。すなわち、ユーザの位置からユーザが注視している対象物までの奥行きと、ユーザの位置から他の物までの奥行きとの差に応じて、他の物の見え方が変わる。このような現象も、遠近感を感じさせる要素となり得る。
しかしながら、従来の技術においては、ユーザが画像内のどれを注視しているかにかかわらず、画像全体がシャープに表示されるので、遠近感が十分に演出されていない。
上述した点に関連して、非特許文献1には、視線追跡機能を有するヘッドマウントディスプレイに表示される画像において、ユーザが注視している部分及びその近辺の領域(中心視野)については細部にわたってレンダリングし、その外周部分(周辺視野)については画質を低下させてレンダリングすることにより、レンダリングのパフォーマンスを向上させる技術が開示されている。この技術は、人間の視野は、はっきり見える中心視野とぼやけて見える周辺視野により構成されているという考え方に基づく。
Nvidia Corporation、" NVIDIA Partners with SMI on Innovative Rendering Technique That Improves VR"、[online]、[平成28年11月28日検索]、インターネット<URL: https://blogs.nvidia.com/blog/2016/07/21/rendering-foveated-vr/>
しかしながら、非特許文献1に開示された技術では、中心視野と定められた範囲内にある物であれば、画像により表現されている三次元空間においてユーザが注視している対象との間の奥行きの差が相等に大きくても、その物は、細部にわたってレンダリングされてしまう。そのため、現実世界であればぼやけて見える物がシャープに見えてしまうため、ユーザが違和感を覚えることとなる。
本発明は、以上の点に鑑みてなされたものであり、画像内でユーザが注視している対象と、画像内の他の対象との間の奥行きの差に基づいて遠近感が付与された画像を表示させることが可能な画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
上記課題を解決するために、請求項1に記載の発明は、観察位置からの眺めを表す二次元画像と、前記観察位置から前記二次元画像の各箇所で表される対象までの奥行きを示す奥行き情報と、を取得する画像取得手段と、ユーザの視線を検出する検出手段による検出結果に基づいて、前記画像取得手段により取得された前記二次元画像内で前記ユーザが注視する注視箇所を特定する特定手段と、前記画像取得手段により取得された前記奥行き情報に基づいて、前記特定手段により特定された前記注視箇所と、前記二次元画像内において前記注視箇所以外の非注視箇所と、の間の奥行きの差を取得する差取得手段と、前記差取得手段により取得された前記奥行きの差に基づいて、前記非注視箇所の画質を低下させる低下手段と、前記低下手段により前記非注視箇所の画質が低下させられた前記二次元画像を画像表示装置に出力する出力手段と、を備えることを特徴とする。
この発明によれば、二次元画像においてユーザが注視している注視箇所で表される対象と、ユーザが注視していない非注視箇所で表される対象と、の間の観察位置からの奥行きの差に基づいて、非注視箇所の画質が低下する。そのため、遠近感が付与された画像を表示させることが可能となる。
請求項2に記載の発明は、請求項1に記載の画像処理装置において、前記低下手段は、前記非注視箇所の画像を平滑化することを特徴とする。
この発明によれば、注視箇所で表される対象と非注視箇所で表される対象との間の奥行きの差に基づいて、非注視箇所の画質を自然にぼかすことができる。
請求項3に記載の発明は、請求項2に記載の画像処理装置において、前記低下手段は、前記差取得手段により取得された前記奥行きの差と、前記二次元画像上での前記注視箇所と前記非注視箇所との間の距離と、に基づいて、前記非注視箇所の画像を平滑化することを特徴とする。
この発明によれば、更に二次元画像上での注視箇所と非注視箇所との間の距離に基づいて非注視箇所の画像が平滑化されるので、中心視野にある対象及び周辺視野にある対象の見え方を再現することができる。
請求項4に記載の発明は、請求項1に記載の画像処理装置において、前記低下手段は、前記非注視箇所の画像をピクセル化することを特徴とする。
この発明によれば、非注視箇所の画質を低下させるための処理速度を向上させることができる。
請求項5に記載の発明は、請求項4に記載の画像処理装置において、前記低下手段は、前記差取得手段により取得された前記奥行きの差に基づいて、前記非注視箇所の画像をピクセル化し、且つ、前記二次元画像上での前記注視箇所と前記非注視箇所との間の距離に基づいて、前記非注視箇所の画像を平滑化することを特徴とする。
この発明によれば、更に二次元画像上での注視箇所と非注視箇所との間の距離に基づいて非注視箇所の画像が平滑化されるので、中心視野にある対象及び周辺視野にある対象の見え方を再現することができる。
請求項6に記載の発明は、請求項1乃至5の何れか1項に記載の画像処理装置において、前記低下手段は、前記差取得手段により取得された前記奥行きの差に基づいて、前記非注視箇所の画質を低下させ、且つ、前記二次元画像上での前記注視箇所と前記非注視箇所との間の距離に基づいて、前記非注視箇所の画像の彩度を低下させることを特徴とする。
この発明によれば、更に二次元画像上での注視箇所と非注視箇所との間の距離に基づいて非注視箇所の画像の彩度が低下されるので、周辺視野では色彩の情報が認識しにくいという現象を再現することができる。
請求項7に記載の発明は、請求項1乃至6の何れか1項に記載の画像処理装置において、前記画像取得手段は、互いに視差のある2つの二次元画像を取得し、前記低下手段は、前記2つの二次元画像それぞれについて、前記奥行きの差に基づいて、前記非注視箇所の画質を低下させ、前記出力手段は、前記非注視箇所の画質が低下させられた前記2つの二次元画像を前記画像表示装置に出力することを特徴とする。
この発明によれば、互いに視差のある2つの二次元画像が表示されてユーザの頭の中で合成されることで、遠近感のある映像をユーザが認識することができる。更に、これらの二次元画像のそれぞれについて、注視箇所で表される対象と非注視箇所で表される対象との間の奥行きの差に基づいて、非注視箇の画質が低下するので、更に遠近感を演出することができる。
請求項8に記載の発明は、請求項1乃至7の何れか1項に記載の画像処理装置において、前記ユーザの位置及び向きの少なくとも一方を検出する第2検出手段による検出結果に基づいて、仮想三次元空間における視野範囲を特定する特定手段を更に備え、前記画像取得手段は、動画を構成する各静止画像として、前記特定手段により特定された前記視野範囲に対応する前記二次元画像を、三次元コンピュータグラフィックスを用いて生成することを特徴とする。
この発明によれば、ユーザが自分の位置及び向きを変えることで仮想三次元空間における視野範囲が変化し、この視野範囲に対応した各静止画像が生成される。各静止画像について、注視箇所で表される対象と非注視箇所で表される対象との間の奥行きの差に基づいて、非注視箇所の画質が低下する。非注視箇の画質が低下させられた静止画像が順次表示されることで、ユーザの位置及び向きの少なくとも一方の変化に応じて視野が変化する動画が表示されるので、遠近感且つ臨場感のある画像を表示させることができる。
請求項9に記載の発明は、コンピュータにより実行される画像処理方法において、観察位置からの眺めを表す二次元画像と、前記観察位置から前記二次元画像の各箇所で表される対象までの奥行きを示す奥行き情報と、を取得する画像取得ステップと、ユーザの視線を検出する検出手段による検出結果に基づいて、前記画像取得ステップにより取得された前記二次元画像内で前記ユーザが注視する注視箇所を特定する特定ステップと、前記画像取得ステップにより取得された前記奥行き情報に基づいて、前記特定ステップにより特定された前記注視箇所と、前記二次元画像内において前記注視箇所以外の非注視箇所と、の間の奥行きの差を取得する差取得ステップと、前記差取得ステップにより取得された前記奥行きの差に基づいて、前記非注視箇所の画質を低下させる低下ステップと、前記低下ステップにより前記非注視箇所の画質が低下させられた前記二次元画像を画像表示装置に出力する出力ステップと、を含むことを特徴とする。
請求項10に記載の発明は、コンピュータに、観察位置からの眺めを表す二次元画像と、前記観察位置から前記二次元画像の各箇所で表される対象までの奥行きを示す奥行き情報と、を取得する画像取得手段と、ユーザの視線を検出する検出手段による検出結果に基づいて、前記画像取得手段により取得された前記二次元画像内で前記ユーザが注視する注視箇所を特定する特定手段と、前記画像取得手段により取得された前記奥行き情報に基づいて、前記特定手段により特定された前記注視箇所と、前記二次元画像内において前記注視箇所以外の非注視箇所と、の間の奥行きの差を取得する差取得手段と、前記差取得手段により取得された前記奥行きの差に基づいて、前記非注視箇所の画質を低下させる低下手段と、前記低下手段により前記非注視箇所の画質が低下させられた前記二次元画像を画像表示装置に出力する出力手段と、として機能させることを特徴とする。
本発明によれば、二次元画像においてユーザが注視している注視箇所で表される対象と、ユーザが注視していない非注視箇所で表される対象と、の間の観察位置からの奥行きの差に基づいて、非注視箇所の画質が低下する。そのため、遠近感が付与された画像を表示させることが可能となる。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、以下に説明する実施の形態は、画像に遠近感を付与するためにその画像を変換して表示する空間表現システムに対して本発明を適用した場合の実施形態である。
[1.空間表現システムの構成]
先ず、図1を参照して、空間表現システムSの構成について説明する。図1は、本実施形態に係る空間表現システムSの構成例を示す図である。図1に示すように、空間表現システムSは、空間表現装置1、空間データ記憶装置2、視線追跡装置3、入力装置4、及び画像表示装置5を含んで構成されている。空間データ記憶装置2〜画像表示装置5は、空間表現装置1に接続される。なお、空間データ記憶装置2〜画像表示装置5のうち少なくとも1つは、空間表現装置1に備えられてもよい。
先ず、図1を参照して、空間表現システムSの構成について説明する。図1は、本実施形態に係る空間表現システムSの構成例を示す図である。図1に示すように、空間表現システムSは、空間表現装置1、空間データ記憶装置2、視線追跡装置3、入力装置4、及び画像表示装置5を含んで構成されている。空間データ記憶装置2〜画像表示装置5は、空間表現装置1に接続される。なお、空間データ記憶装置2〜画像表示装置5のうち少なくとも1つは、空間表現装置1に備えられてもよい。
空間表現システムSは、三次元コンピュータグラフィックスにより二次元の平面画像を生成及び変換して表示してもよいし、予め生成又は記憶されている平面画像を変換して表示してもよい。また、空間表現システムSは、単一の平面画像を表示してもよいし、互いに視差を有する2つの平面画像を所定の方式で表示することで、ユーザに三次元映像を認識させてもよい。また、表示される画像は動画であってもよいし静止画(但し、ユーザの視線の移動に伴って静止画内の各部分の画質が変化する)であってもよい。空間表現システムSの用途は特に限定されないが、用途の例として、バーチャルリアリティ、テレビゲーム、建造物の仮想的な内覧等が挙げられる。
空間データ記憶装置2は、例えば、ハードディスクドライブ又は不揮発性メモリ等により構成されている。空間データ記憶装置2には、空間データが記憶されている。空間データは、仮想三次元空間の様子を示す。例えば、三次元コンピュータグラフィックスを用いて平面画像が生成される場合、空間データは、仮想三次元空間内に存在し又は配置されたオブジェクト(例えば、仮想の建造物、家具、車、人間、動物等)の位置及び向きを示すワールド座標データ、各オブジェクトの形状を示す形状データ等を含んでもよい。もし仮想三次元空間内でオブジェクトが動く場合、ワールド座標データは随時更新される。空間表現装置1がワールド座標データを更新してもよいし、他の図示せぬコンピュータ等がワールド座標データを更新してもよい。或いは、空間データは、平面画像データ及び奥行きデータを含んでもよい。平面画像のデータは、仮想三次元空間において所定の観察位置から所定の観察方向(視線方向)に見える眺めを表す二次元の平面画像のデータである。観察位置は、仮想の観察者の眼の位置である。観察方向は、仮想の観察者の視線が向く方向である。平面画像は、その全体が画面に表示される通常の画像であってもよいし、一部のみが画面に表示されるパノラマ画像や全方位画像であってもよい。奥行きデータは、観察位置から平面画像内の各箇所の画像で表される仮想三次元空間上の対象までの奥行き(距離)を示すデータである。奥行きデータは、例えば、平面画像を所定の複数の分割領域に分けた場合において、観察位置から各分割領域内の画像が表す対象までの奥行きを示すデータであってもよい。各分割領域は1以上のピクセルで構成される。各分割領域の形状は、正方形や矩形であってもよいし、他の多角形等であってもよい。また、全分割領域の形状及び大きさは同一であってもよいし、異なってもよい。また、これらの分割領域は格子状に配列されてもよいし、他の態様で配列されてもよい。奥行きデータの一例として、距離画像データが挙げられる。距離画像データは、各ピクセルの値が、観察位置からの距離を示す。この場合、各ピクセルが分割領域に相当する。
視線追跡装置3は、ユーザの視線を追跡し、視線の方向を検出する。視線追跡装置3は、検出された視線の方向を示す視線情報を空間表現装置1へ送信する。例えば、視線追跡装置3は、赤外線をユーザの眼に照射するLED、ユーザの眼を撮影する赤外線カメラ等で構成されてもよい。或いは、視線追跡装置3は、ユーザの眼又は顔全体を撮影する可視光カメラで構成されてもよい。視線追跡装置3は、カメラにより撮影された画像を視線情報として空間表現装置1へ送信してもよい。或いは、視線追跡装置3は、撮影された画像を解析することにより、ユーザの両眼それぞれの視線の方向を示す角度情報を計算し、角度情報を視線情報として空間表現装置1へ送信してもよい。視線追跡装置3は、ヘッドマウントディスプレイに組み込まれてもよいし、画像表示装置5の近辺に配置されてもよい。
入力装置4は、ユーザによる操作を受け付け、操作内容に対応する信号を空間表現装置1へ入力するための装置である。入力装置4の例として、キーボード、マウス、ゲームコントローラ、リモートコントローラ等が挙げられる。入力装置4は、現実の三次元空間におけるユーザの位置及びユーザの顔が向く方向の少なくとも何れか一方を空間表現装置1へ入力するためのセンサを含んでもよい。センサにより検出されるユーザの位置及び向きは、絶対的な位置及び向きであってもよいし、ゲームやバーチャルリアリティ開始時等におけるユーザの位置及び向きからの相対的な位置及び向きであってもよい。ユーザの位置及び向きを検出するため、入力装置4は、例えば加速度センサ、ジャイロセンサ、速度センサ、重力センサ、磁気センサ、GPS(Global Positioning System)センサ等の少なくとも1つを含んでもよい。これらのセンサはユーザに装着されてもよい。入力装置4は、センサにより検出されたユーザの位置及び向きの少なくとも一方を示す身体データを空間表現装置1へ送信する。
画像表示装置5は、空間表現装置1から出力される映像信号に基づいて、画像を表示する。表示される画像は静止画であってもよいし動画であってもよい。画像表示装置5は、例えば二次元画像を表示するディスプレイ、プロジェクタ、ヘッドマウントディスプレイ等であってもよいし、互いに視差のある2つの平面画像を表示するディスプレイ、プロジェクタ、ヘッドマウントディスプレイ等であってもよい。ディスプレイの例として、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイ、有機EL(Electro Luminescence)ディスプレイ等が挙げられる。三次元映像の表示方式の例として、眼鏡式、裸眼式、HMD(Head Mounted Display)式等が挙げられる。
ヘッドマウントディスプレイを利用する場合、このヘッドマウントディスプレイに、視線追跡装置3、入力装置4の少なくとも一部、及び画像表示装置5が組み込まれる。
空間表現装置1は、システム制御部11、記憶部12、インターフェース部13、及び表示制御部14を含んで構成されている。システム制御部11〜表示制御部14はシステムバスを介して互いに接続される。
システム制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成されている。システム制御部11は、ROMや記憶部12に記憶されたプログラムに従った処理を実行する。
記憶部12は、例えば、ハードディスクドライブ又はデータの書き換えが可能な不揮発性メモリ等により構成されている。記憶部12には、OSや各種プログラムが記憶されている。
インターフェース部13は、システム制御部11と、空間データ記憶装置2〜入力装置4との間のインターフェース処理を行う。
表示制御部14は、例えばGPU(Graphics Processing Unit)、VRAM(Video RAM)等により構成されている。表示制御部14は、システム制御部11によりVRAMに書き込まれた画像データに対応する映像信号を画像表示装置5へ出力する。
[2.システム制御部の機能概要]
次に、図2〜図4を参照して、システム制御部11の機能概要を説明する。図2は、システム制御部11の機能ブロックの一例を示す図である。システム制御部11は、CPUが、記憶部12に記憶されたプログラムを読み出し実行することにより、図2に示すように、空間データ読取部101、平面画像変換部102、視線情報読取部103、注視箇所照合部104、注視箇所奥行きデータ取得部105、非注視箇所奥行きデータ取得部106、奥行き差データ取得部107、表示品質変更部108、表示画像出力部109等として機能する。
次に、図2〜図4を参照して、システム制御部11の機能概要を説明する。図2は、システム制御部11の機能ブロックの一例を示す図である。システム制御部11は、CPUが、記憶部12に記憶されたプログラムを読み出し実行することにより、図2に示すように、空間データ読取部101、平面画像変換部102、視線情報読取部103、注視箇所照合部104、注視箇所奥行きデータ取得部105、非注視箇所奥行きデータ取得部106、奥行き差データ取得部107、表示品質変更部108、表示画像出力部109等として機能する。
空間データ読取部101は、空間データ記憶装置102から空間データを取得してRAMに記憶させる。仮想三次元空間内でオブジェクトが動く様子を表す動画を画像表示装置5に表示させる場合、空間データ読取部101は、動画のフレームレートに従ったタイミングで空間データを取得する。
平面画像変換部102は、空間データ読取部101により取得された空間データに基づいて、平面画像データ及び奥行きデータを生成する。三次元コンピュータグラフィックスの場合、平面画像変換部102は、仮想三次元空間における視野範囲を特定する。視野範囲は、例えば仮想三次元空間における観察位置及び観察方向で定められる。例えば、観察位置及び観察方向の少なくとも何れか一方は予め定められていてもよい。或いは、平面画像変換部102は、入力装置4に対するユーザの入力に基づいて、観察位置及び観察方向の少なくとも何れか一方を特定してもよい。或いは、平面画像変換部102は、入力装置4に含まれるセンサにより検出されたユーザの位置及び方向の少なくとも何れか一方に基づいて、観察位置及び観察方向の少なくとも何れか一方を特定してもよい。平面画像変換部102は、観察位置から観察方向に、観察方向と垂直な投影面を設定する。平面画像変換部102は、空間データに含まれるワールド座標データ、形状データ等に基づいてレンダリングを行うことにより、仮想空間上のオブジェクトの各部位のワールド座標(仮想空間における三次元座標)をウインドウ座標(投影面における二次元座標)に変換し、投影面に投影された映像のデータを、観察位置からの眺めを表す平面画像データとして生成する。動画を表示する場合、平面画像変換部102は、動画を構成する各静止画像のデータとして平面画像データを生成する。また、平面画像変換部102は、平面画像にける分割領域ごとに、投影面においてその分割領域に投影された対象の、観察位置からの距離を計算する。平面画像変換部102は、計算された距離を含む奥行きデータを生成する。平面画像変換部102は、生成した平面画像データ及び奥行きデータをRAMに記憶させる。
三次元コンピュータグラフィックスを用いて互いに視差を有する2つの平面画像データを生成して表示する場合、平面画像変換部102は、観察位置を基準として仮想の両眼の位置を決定して、両眼それぞれの視野範囲を特定する。仮想の両眼は、それぞれ観察位置から等距離離れ、且つ、観察方向に対して垂直に配置される。平面画像変換部102は、両眼それぞれの位置から観察方向にそれぞれ投影面を設定して、レンダリングを行う。両眼の観察方向は平行であってもよいし、各眼の観察方向が他方の眼に向かって所定角度傾いていてもよい。また、平面画像変換部102は、2つの平面画像データそれぞれについて、奥行きデータを生成する。
空間データが平面画像データ及び奥行きデータである場合、平面画像変換部102は、これらのデータをそのまま注視箇所奥行きデータ取得部105、非注視箇所奥行きデータ取得部106及び表示品質変更部108に引き渡してもよい。平面画像データがパノラマ画像又は全方位画像である場合、平面画像変換部102は、例えば、入力装置4に対するユーザの入力に基づいて、観察方向を特定してもよい。平面画像変換部102は、パノラマ画像又は全方位画像から観察方向に対応する範囲を抜き出して、この後の処理に用いられる平面画像データを生成してもよい。また、平面画像変換部102は、奥行きデータから、観察方向に対応する範囲のデータを抜き出して、この後の処理に用いられる奥行きデータを生成してもよい。
図3(a)は、平面画像の一例を示す図である。この平面画像は、或る室内の様子を表す。図3(b)は、奥行きデータの一例を示す図である。図3(b)の例では、分割領域が格子状に配列されている。横方向の分割領域の数は12であり、縦方向の分割領域の数は6である。図3(b)において、観察位置から最も近い対象が表現されている分割領域の奥行きは0.5であり、最も遠い対象が表現されている分割領域の奥行きは10である。
視線情報読取部103は、視線追跡装置3から視線情報を取得して、視線情報に基づいて注視点の座標を取得する。注視点は、画面表示装置5の画面においてユーザが注視しているポイントである。視線情報読取部103は、視線情報読取部103が備えるカメラ、ユーザの眼、及び画面の位置関係と、ユーザの両眼それぞれの視線の方向とに基づいて、注視点の座標を計算する。単一の画面に単一の平面画像を表示する方式の場合、又は単一の画面に視差を有する2つの平面画像を表示する方式の場合、視線情報読取部103は、単一の画面における注視点の座標を計算する。ヘッドマウントディスプレイ等、2つの画面に視差を有する2つの平面画像を表示する方式の場合、視線情報読取部103は、両眼それぞれの視線に基づいて、2つの画面のそれぞれにおける注視点の座標を計算する。
注視箇所照合部104は、視線情報読取部103により計算された注視点の座標に基づいて、平面画像変換部102により生成された平面画像データが表す平面画像内でユーザが注視する注視箇所を特定する。また、注視箇所照合部104は、平面画像内において注視箇所以外の箇所を、非注視箇所として特定する。本実施形態において、注視箇所照合部104は、平面画像を分けてなる複数の分割領域のそれぞれの座標と、注視点の座標とを照合して、複数の分割領域のうち、注視点が位置する注視領域を特定するとともに、注視領域以外の分割領域を、非注視領域として特定する。2つの平面画像を表示する方式の場合、注視箇所照合部104は、2つの平面画像それぞれについて注視領域を特定する。このとき、注視箇所照合部104は、2つの平面画像で互いに座標が同一である分割領域を、注視領域として特定する。
注視箇所奥行きデータ取得部105は、平面画像変換部102により生成された奥行きデータのうち、注視領域に対応するデータを、注視箇所奥行きデータとして取得する。そして、注視箇所奥行きデータ取得部105は、各平面画像について注視箇所奥行きデータを取得する。2つの平面画像を表示する方式の場合、注視箇所奥行きデータ取得部105は、各平面画像について注視箇所奥行きデータを取得する。
非注視箇所奥行きデータ取得部106は、平面画像変換部102により生成された奥行きデータのうち、各非注視領域に対応するデータを、非注視箇所奥行きデータとして取得する。2つの平面画像を表示する方式の場合、非注視箇所奥行きデータ取得部106は、各平面画像について非注視箇所奥行きデータを取得する。
奥行き差データ取得部107は、注視箇所奥行きデータ及び非注視箇所奥行きデータに基づいて、非注視領域ごとに、注視領域に対応する奥行きと非注視領域に対応する奥行きとの差を計算して、奥行き差データを取得する。2つの平面画像を表示する方式の場合、奥行き差データ取得部107は、各平面画像について奥行き差データを取得する。
図4(a)は、奥行き差データの一例を示す図である。図4(a)の例では、分割領域(7、4)が注視領域である。分割領域(a、b)とは、x座標がaであり、y座標がbである分割領域を示す。図3(b)に示すように、分割領域(7、4)の奥行きは2である。図4(b)は、奥行き差データの他の例を示す図である。図4(b)の例では、分割領域(5、2)が注視領域である。分割領域(5、2)の奥行きは6である。
表示品質変更部108は、奥行き差データ取得部107により取得された奥行き差データに基づいて、平面画像変換部102により生成された平面画像データにおいて、非注視領域の画質を低下させる。互いに視差を有する2つの平面画像を表示する方式の場合、表示品質変更部108は、2つの平面画像それぞれについて、非注視領域の画質を低下させる。画質を低下させるとは、例えば画像をぼかすこと、輪郭、形状又は色の濃淡の境目をはっきりさせないことである。現実世界において、ユーザが注視している第1の対象はシャープに見える。また、ユーザの位置からユーザが注視している第1の対象までの奥行きと、ユーザの位置から他の第2の対象までの奥行きとの差が相対的に小さい場合、第2の対象は比較的シャープに見える。一方、ユーザの位置からユーザが注視している第1の対象までの奥行きと、ユーザの位置から他の第3の対象までの奥行きとの差が相対的に大きい場合、第3の対象はぼやけて見える。表示品質変更部108は、この現象を再現する。
例えば、表示品質変更部108は、奥行きの差が大きいほど、画質の低下度合いを大きくしてもよい。或いは、表示品質変更部108は、奥行きの差が所定値未満の非注視領域については画質を低下させず、奥行きの差が所定値以上の非注視領域について画質を低下させてもよい。この場合、表示品質変更部108は、画質を低下させる全ての非注視領域について、奥行きの差の大小にかかわらずの同一の低下度合いで画質を低下させてもよいし、奥行きの差が大きいほど、画質の低下度合いを大きくしてもよい。
図4(a)及び図4(b)は、奥行きの差が1以下である非注視領域については画質を低下させず、奥行きの差が1を超える非注視領域について画質を低下させる場合の例を示す。図4(a)の例では、平面画像は大別して領域201と領域202に分けられる。領域201は、画質が低下しない領域(シャープに見える領域)であり、領域202は、画質が低下する領域(ぼやけて見える領域)である。ここで、分割領域(8、3)及び分割領域(6、5)は、注視領域(7、4)に隣接しているものの、奥行きの差がそれぞれ2及び1.5であるので、画質が低下される。上述した非特許文献1に開示された技術では、これらの分割領域)は中心視野に入るため、画質が低下しない。図4(b)の例では、平面画像は大別して領域203と領域204に分けられる。領域203は、画質が低下しない領域であり、領域204は、画質が低下する領域である。ここで、分割領域(4、1)分割領域(5、3)及び分割領域(6、3)は、注視領域(5、2)に隣接しているものの、奥行きの差がそれぞれ2、3及び3であるので、画質が低下される。上述した非特許文献1に開示された技術では、これらの分割領域)は中心視野に入るため、画質が低下しない。図4(a)及び図4(b)に示すように、ユーザが注視する箇所の奥行きに応じて、画質が低下する箇所が変化する。
画質を低下させる方法及びアルゴリズムは種々考えられる。例えば、表示品質変更部108は、非注視領域の画像を平滑化してもよい。本実施形態において、画像の平滑化は、対象の画素から所定範囲内にある画素が有する輝度値の平均値を、画質低下後のその対象の画素の輝度値として計算し、この処理を非注視領域内の全画素について行うことである。平滑化であれば、画像を自然にぼかすことができる。平滑化に用いられるフィルタの例として、移動平均フィルタ、ガウシアンフィルタ等が挙げられる。表示品質変更部108は、奥行きの差が大きいほど、フィルタが適用される画素の範囲を広くしてもよい。すなわち、奥行きの差が大きいほど、対象の画素からより遠い画素の輝度値が考慮して平滑化が行われる。ガウシアンフィルタを用いる場合、表示品質変更部108は、奥行きの差が大きいほど、ガウス関数の分散の値を大きくしてもよい。すなわち、奥行きの差が大きいほど、対象の画素から相対的に遠い画素の輝度値の重みが大きくなる。記憶部12又はシステム制御部11のRAMにテーブルが記憶され、このテーブルに、奥行きの差と、フィルタが適用される画素の範囲又は分散の値とが対応付けて記憶されてもよい。表示品質変更部108は、このテーブルを参照して、フィルタが適用される画素の範囲又は分散の値を決定してもよい。或いは、表示品質変更部108は、奥行きの差を用いて所定の計算を行うことにより、フィルタが適用される画素の範囲又は分散の値を計算してもよい。
表示品質変更部108は、非注視領域の画像をピクセル化してもよい。これにより、非注視領域の画像の解像度が外見上低くなる。例えば、表示品質変更部108は、非注視領域を、それぞれ複数の画素で構成される複数の正方形状の疑似ピクセル領域に分割する。隣接する非注視領域間で、注視領域に対する奥行きの差が同一である場合、表示品質変更部108は、それらの非注視領域を1つの非注視領域と見做して、その非注視領域を疑似ピクセル領域に分割してもよい。表示品質変更部108は、各疑似ピクセル領域について、疑似ピクセル領域内の全画素の輝度値の平均値又は代表となる画素の輝度値を、その疑似ピクセル領域内の全画素の輝度値として設定する。ピクセル化は、平滑化よりも処理速度が速い。表示品質変更部108は、奥行きの差が大きいほど、疑似ピクセル領域のサイズ(一つの疑似ピクセル領域あたりのピクセル数)をより大きくしてもよい。すなわち、奥行きの差が大きいほど、外見上の解像度がより低くなる。記憶部12又はシステム制御部11のRAMにテーブルが記憶され、このテーブルに、奥行きの差と、疑似ピクセル領域のサイズ(または解像度の低下度合い)とが対応付けて記憶されてもよい。表示品質変更部108は、このテーブルを参照して、疑似ピクセル領域のサイズを決定してもよい。或いは、表示品質変更部108は、奥行きの差を用いて所定の計算を行うことにより、疑似ピクセル領域のサイズを計算してもよい。
表示品質変更部108は、奥行きの差に加えて、平面画像上における注視領域と非注視領域との間の距離に基づいて、非注視領域の画質を低下させてもよい。これにより、中心視野にある物ははっきり見え、周辺視野にある物はぼやけて見えるという現象を再現することができる。表示品質変更部108は、注視領域からの距離が長いほど、画質の低下度合いを大きくしてもよい。或いは、表示品質変更部108は、注視領域からの距離が所定値未満の非注視領域については画質を低下させず、注視領域からの距離が所定値以上の非注視領域について画質を低下させてもよい。この場合、表示品質変更部108は、画質を低下させる全ての非注視領域について、注視領域からの距離の長短にかかわらずの同一の低下度合いで画質を低下させてもよいし、距離が長いほど、画質の低下度合いを大きくしてもよい。一例として、図6(a)において、注視領域(7、4)に隣接する9個の分割領域については、注視領域と非注視領域との間の距離に基づいては画質を低下させず、他の分割領域については画質を低下させること等も可能である。但し、上述したように、注視領域(7、4)に隣接する9個の分割領域も、注視領域との間の奥行きの差に基づいて画質が低下する場合はある。
表示品質変更部108は、奥行きの差及び注視領域からの距離に基づいて、平滑化を行ってもよい。表示品質変更部108は、注視領域からの距離が長いほど、フィルタが適用される画素の範囲を広くしてもよいし、ガウス関数の分散の値を大きくしてもよい。表示品質変更部108は、奥行きの差に基づいて平滑化を行うとともに、これとは別に注視領域からの距離に基づいて更に平滑化を行ってもよい。この場合、奥行きの差に基づく平滑化と、注視領域からの距離に基づく平滑化のうち、先に実行される平滑化は何れであってもよい。或いは、表示品質変更部108は、奥行きの差及び注視領域からの距離の両方に基づいて、平滑化を1回行ってもよい。この場合、表示品質変更部108は、奥行きの差及び注視領域からの距離の両方を勘案して、フィルタが適用される画素の範囲、又はガウス関数の分散の値を決定してもよい。或いは、表示品質変更部108は、奥行きの差に基づいて平滑化を行うとともに、注視領域からの距離に基づいてピクセル化を行ってもよい。この場合、平滑化とピクセル化のうち、先に実行される処理は何れであってもよい。表示品質変更部108は、注視領域からの距離が長いほど、疑似ピクセル領域のサイズを大きくしてもよい。
表示品質変更部108は、奥行きの差に基づいてピクセル化を行うとともに、注視領域からの距離に基づいて平滑化を行ってもよい。この場合、ピクセル化と平滑化のうち、先に実行される処理は何れであってもよい。或いは、表示品質変更部108は、奥行きの差及び視領域からの距離の両方に基づいて、ピクセル化を行ってもよい。この場合、表示品質変更部108は、奥行きの差及び注視領域からの距離の両方を勘案して、疑似ピクセル領域のサイズを決定する。
表示品質変更部108は、奥行きの差に基づいて注視領域の画質を低下させるとともに、平面画像上における注視領域と非注視領域との間の距離に基づいて、非注視領域の画像の彩度を低下させてもよい。これにより、周辺視野にある物の色彩の情報を認識し難いという現象を再現することができる。彩度を低下させるアルゴリズムとしては、如何なるアルゴリズムが用いられてもよい。例えば、各画素の値を、HSI色空間、CIELAB色空間、HSV色空間等の画素値に変換した上で、彩度を低下させること等が挙げられる。奥行きの差に基づく画質の低下及び注視領域からの距離に基づく彩度の低下のうち、先に実行される処理は何れであってもよい。表示品質変更部108は、注視領域からの距離が長いほど、彩度の低下度合いを大きくしてもよい。或いは、表示品質変更部108は、注視領域からの距離が所定値未満の非注視領域については彩度を低下させず、注視領域からの距離が所定値以上の非注視領域について彩度を低下させてもよい。この場合、表示品質変更部108は、彩度を低下させる全ての非注視領域について、注視領域からの距離の長短にかかわらずの同一の低下度合いで彩度を低下させてもよいし、距離が長いほど、彩度の低下度合いを大きくしてもよい。また、表示品質変更部108は、彩度を低下させる全ての非注視領域について、彩度をゼロにしてもよい(グレースケール画像に変換してもよい)。表示品質変更部108は、面画像上における注視領域と非注視領域との間の距離に基づいて、非注視領域の画質を低下させるとともに、非注視領域の画像の彩度を低下させてもよい。
表示画像出力部109は、表示品質変更部108により非注視領域の画質が低下させられた平面画像データを画像表示装置5へ出力する。具体的に、表示画像出力部109は、表示制御部14のVRAMに平面画像データを書き込む。表示制御部14は、VRAMに記憶された平面画像データに対応した映像信号を画像表示装置5へ出力する。互いに視差を有する2つの平面画像を表示する方式の場合、表示画像出力部109は、2つの平面画像データをVRAMに書き込む。表示制御部14は、視差を有する画像の表示方式に応じた映像信号を画像表示装置5へ出力する。
[3.空間表現装置の動作」
次に、図5及び図6を参照して、空間表現装置1の動作を説明する。図5は、本実施形態に係る空間表現装置1のシステム制御部11による処理例を示すフローチャートである。例えば、ユーザが入力装置4に対して画像の表示を指示する操作を行ったときに、システム制御部11は、図5に示す処理を実行する。
次に、図5及び図6を参照して、空間表現装置1の動作を説明する。図5は、本実施形態に係る空間表現装置1のシステム制御部11による処理例を示すフローチャートである。例えば、ユーザが入力装置4に対して画像の表示を指示する操作を行ったときに、システム制御部11は、図5に示す処理を実行する。
先ず、空間データ読取部101は、空間データ記憶装置2から空間データを取得してRAMに記憶させる(ステップS1)。次いで、平面画像変換部102は、空間データ、観察位置及び観察方向に基づいて、レンダリングを行うことにより、平面画像データを生成するとともに、奥行きデータを生成する(ステップS2)。ここで、平面画像変換部102は、例えば入力装置4に含まれるセンサにより検出されたユーザの位置及び向きの少なくとも何れか一方に基づいて、観察位置及び観察方向の少なくとも何れか一方を決定してもよい。或いは、平面画像変換部102は、入力装置4に対するユーザの操作に基づいて、観察位置及び観察方向の少なくとも何れか一方を決定してもよい。三次元映像を表示するために、互いに視差のある2つの平面画像データを生成する場合、平面画像変換部102は、観察位置を基準として仮想の両眼の位置を決定し、両眼の位置それぞれに対応する2つの平面画像データを生成するとともに、2つの奥行きデータを生成する。なお、空間データ記憶装置2から取得された空間データが平面画像データ及び奥行きデータである場合、ステップS2の処理は不要である。
次いで、視線情報読取部103は、視線追跡装置3から視線情報を取得して、視線情報に基づいて、画面表示装置5の画面における注視点の座標を取得する(ステップS3)。次いで、注視箇所照合部104は、注視点の座標に基づいて、平面画像変換部102により生成された平面画像データが表す平面画像内でユーザが注視する注視領域を特定する(ステップS4)。次いで、注視箇所奥行きデータ取得部105は、平面画像変換部102により生成された奥行きデータのうち、注視領域に対応するデータを、注視箇所奥行きデータとして取得する(ステップS5)。次いで、非注視箇所奥行きデータ取得部106は、平面画像変換部102により生成された奥行きデータのうち、各非注視領域に対応するデータを、非注視箇所奥行きデータとして取得する(ステップS6)。次いで、奥行き差データ取得部107は、注視箇所奥行きデータ及び非注視箇所奥行きデータに基づいて、非注視領域ごとに、注視領域に対応する奥行きと非注視領域に対応する奥行きとの差を計算して、奥行き差データを取得する(ステップS7)。
次いで、表示品質変更部108は、表示品質変更処理を実行する(ステップS8)。図6(a)は、非注視領域の画像を平滑化する場合の表示品質変更処理の一例を示すフローチャートである。図6(a)に示すように、表示品質変更部108は、奥行き差データに基づいて、平面画像変換部102により生成された平面画像データが表す平面画像の各非注視領域について、注視領域と非注視領域との間の奥行きの差に応じた度合いで、非注視領域内の画像の平滑化する(ステップS11)。表示品質変更部108は、奥行きの差が大きいほど、平滑化に用いられるフィルタが適用される画素の範囲を広くしてもよいし、ガウス関数の分散の値を大きくしてもよい。次いで、表示品質変更部108は、ステップS11で非注視領域の画像が平滑化させられた平面画像データが表す平面画像の各非注視領域について、注視領域と非注視領域との間の距離に応じた度合いで、非注視領域の画像を平滑化する(ステップS12)。これにより、表示品質変更部108は、非注視領域の画像が更に平滑化させられた平面画像データを、表示用の平面画像データとして生成して、表示品質変更処理を終了させる。
図6(b)は、非注視領域をピクセル化する場合の表示品質変更処理の一例を示すフローチャートである。図6(b)に示すように、表示品質変更部108は、奥行き差データに基づいて、平面画像変換部102により生成された平面画像データが表す平面画像の各非注視領域について、注視領域と非注視領域との間の奥行きの差に応じた度合いで、非注視領域をピクセル化する(ステップS21)。表示品質変更部108は、奥行きの差が大きいほど、疑似ピクセル領域のサイズをより大きくしてもよい。次いで、表示品質変更部108は、非注視領域の画像がピクセル化させられた平面画像データが表す平面画像の各非注視領域について、注視領域と非注視領域との間の距離に応じた度合いで、非注視領域の画像を平滑化する(ステップS22)。これにより、表示品質変更部108は、非注視領域の画像が更に平滑化させられた平面画像データを、表示用の平面画像データとして生成して、表示品質変更処理を終了させる。
表示品質変更処理が終了すると、図5に示すように、表示画像出力部109は、表示品質変更処理で生成された表示用の平面画像データを表示制御部14のVRAMに書き込むことにより、表示用の平面画像データに対応する映像信号を表示制御部14から画像表示装置5へ出力させる(ステップS9)。これにより、1の平面画像が画像表示装置5に表示される。
次いで、表示画像出力部109は、画像の表示を終了させるか否かを判定する(ステップS10)。例えば、ユーザが入力装置4に対して画像の表示を終了させる操作を行ったとき、表示画像出力部109は、画像の表示を終了させると判定する(ステップS10:YES)。この場合、表示画像出力部109は、図5に示す処理を終了させる。表示画像出力部109は、画像の表示を終了させないと判定した場合には(ステップS10:NO)、処理をステップS1に進める。こうしてステップS1〜S10が繰り返されて、次々と新たな表示用の平面画像データがVRAMに書き込まれていくことにより、画像表示装置5に動画が表示される。
なお、空間表現装置1に記憶された空間データが変化しないシステムの場合(例えば、仮想空間内のオブジェクトが動かない場合)、2回目以降、表示用の平面画像データに対応する映像信号を出力するときにおいては、ステップS1の処理は不要である。最初に空間表現装置1から取得されてRAMに記憶された空間データを用いてステップS2〜S10が実行されればよい。また、空間表現装置1に記憶された空間データが変化せず、且つ観察位置及び観察方向の何れも固定であるシステムの場合、2回目以降、表示用の平面画像データに対応する映像信号を出力するときにおいては、ステップS1及びS2の処理は不要である。最初に生成された平面画像データ及び奥行きデータを用いてステップS3〜S10が実行されればよい。
以上説明したように、本実施形態によれば、空間表現装置1が、観察位置からの眺めを表す平面画像と、観察位置から平面画像の各箇所で表される対象までの奥行きを示す奥行きデータと、を取得する。また、空間表現装置1が、ユーザの視線を検出するセンサによる検出結果に基づいて、取得された平面画像内でユーザが注視する注視箇所を特定する。また、空間表現装置1が、取得された奥行きデータに基づいて、特定された注視箇所と、平面画像内において注視箇所以外の非注視箇所と、の間の奥行きの差を取得する。また、空間表現装置1が、取得された奥行きの差に基づいて、非注視箇所の画質を低下させる。また、空間表現装置1が、非注視箇所の画質が低下させられた平面画像を画像表示装置5に出力する。従って、遠近感が付与された画像を表示させることが可能となる。
また、空間表現装置1が、非注視箇所の画像を平滑化してもよい。この場合、注視箇所で表される対象と非注視箇所で表される対象との間の奥行きの差に基づいて、非注視箇所の画質を自然にぼかすことができる。
また、空間表現装置1が、奥行きの差と、平面画像上での注視箇所と非注視箇所との間の距離と、に基づいて、非注視箇所の画像を平滑化してもよい。この場合、更に平面画像上での注視箇所と非注視箇所との間の距離に基づいて非注視箇所の画像が平滑化されるので、中心視野にある対象及び周辺視野にある対象の見え方を再現することができる。
また、空間表現装置1が、非注視箇所の画像をピクセル化してもよい。この場合、非注視箇所の画質を低下させるための処理速度を向上させることができる。
また、空間表現装置1が、奥行きの差に基づいて、非注視箇所の画像をピクセル化し、且つ、平面画像上での注視箇所と非注視箇所との間の距離に基づいて、非注視箇所の画像を平滑化してもよい。この場合、更に平面画像上での注視箇所と非注視箇所との間の距離に基づいて非注視箇所の画像が平滑化されるので、中心視野にある対象及び周辺視野にある対象の見え方を再現することができる。
また、空間表現装置1が、奥行きの差に基づいて、非注視箇所の画質を低下させ、且つ、平面画像上での注視箇所と非注視箇所との間の距離に基づいて、非注視箇所の画像のサイドを低下させてもよい。この場合、更に平面元画像上での注視箇所と非注視箇所との間の距離に基づいて非注視箇所の画像の彩度が低下されるので、周辺視野では色彩の情報が認識しにくいという現象を再現することができる。
また、空間表現装置1が、互いに視差のある2つの平面画像を取得してもよい。また、空間表現装置1が、2つの平面画像それぞれについて、奥行きの差に基づいて、非注視箇所の画質を低下させてもよい。また、空間表現装置1が、非注視箇所の画質が低下させられた2つの平面画像を画像表示装置5に出力してもよい。この場合、互いに視差のある2つの平面画像が表示されてユーザの頭の中で合成されることで、遠近感のある映像をユーザが認識することができる。更に、これらの平面画像のそれぞれについて、注視箇所で表される対象と非注視箇所で表される対象との間の奥行きの差に基づいて、非注視箇の画質が低下するので、更に遠近感を演出することができる。
また、空間表現装置1が、ユーザの位置及び向きの少なくとも一方を検出するセンサによる検出結果に基づいて、仮想三次元空間における視野範囲を特定してもよい。また、空間表現装置1が、動画を構成する各静止画像として、特定された視野範囲に対応する平面画像を、三次元コンピュータグラフィックスを用いて生成してもよい。この場合、ユーザが自分の位置及び向きを変えることで仮想三次元空間における視野範囲が変化し、この視野範囲に対応した各静止画像が生成される。各静止画像について、注視箇所で表される対象と非注視箇所で表される対象との間の奥行きの差に基づいて、非注視箇の画質が低下する。非注視箇の画質が低下させられた静止画像が順次表示されることで、ユーザの位置及び向きの少なくとも一方の変化に応じた動画が表示されるので、遠近感且つ臨場感のある画像を表示させることができる。
S 空間表現システム
1 空間表現装置
2 空間データ記憶装置
3 視線追跡装置
4 入力装置
5 画像表示装置
11 システム制御部
12 記憶部
13 インターフェース部
14 表示制御部
1 空間表現装置
2 空間データ記憶装置
3 視線追跡装置
4 入力装置
5 画像表示装置
11 システム制御部
12 記憶部
13 インターフェース部
14 表示制御部
Claims (10)
- 観察位置からの眺めを表す二次元画像と、前記観察位置から前記二次元画像の各箇所で表される対象までの奥行きを示す奥行き情報と、を取得する画像取得手段と、
ユーザの視線を検出する検出手段による検出結果に基づいて、前記画像取得手段により取得された前記二次元画像内で前記ユーザが注視する注視箇所を特定する特定手段と、
前記画像取得手段により取得された前記奥行き情報に基づいて、前記特定手段により特定された前記注視箇所と、前記二次元画像内において前記注視箇所以外の非注視箇所と、の間の奥行きの差を取得する差取得手段と、
前記差取得手段により取得された前記奥行きの差に基づいて、前記非注視箇所の画質を低下させる低下手段と、
前記低下手段により前記非注視箇所の画質が低下させられた前記二次元画像を画像表示装置に出力する出力手段と、
を備えることを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置において、
前記低下手段は、前記非注視箇所の画像を平滑化することを特徴とする画像処理装置。 - 請求項2に記載の画像処理装置において、
前記低下手段は、前記差取得手段により取得された前記奥行きの差と、前記二次元画像上での前記注視箇所と前記非注視箇所との間の距離と、に基づいて、前記非注視箇所の画像を平滑化することを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置において、
前記低下手段は、前記非注視箇所の画像をピクセル化することを特徴とする画像処理装置。 - 請求項4に記載の画像処理装置において、
前記低下手段は、前記差取得手段により取得された前記奥行きの差に基づいて、前記非注視箇所の画像をピクセル化し、且つ、前記二次元画像上での前記注視箇所と前記非注視箇所との間の距離に基づいて、前記非注視箇所の画像を平滑化することを特徴とする画像処理装置。 - 請求項1乃至5の何れか1項に記載の画像処理装置において、
前記低下手段は、前記差取得手段により取得された前記奥行きの差に基づいて、前記非注視箇所の画質を低下させ、且つ、前記二次元画像上での前記注視箇所と前記非注視箇所との間の距離に基づいて、前記非注視箇所の画像の彩度を低下させることを特徴とする画像処理装置。 - 請求項1乃至6の何れか1項に記載の画像処理装置において、
前記画像取得手段は、互いに視差のある2つの二次元画像を取得し、
前記低下手段は、前記2つの二次元画像それぞれについて、前記奥行きの差に基づいて、前記非注視箇所の画質を低下させ、
前記出力手段は、前記非注視箇所の画質が低下させられた前記2つの二次元画像を前記画像表示装置に出力することを特徴とする画像処理装置。 - 請求項1乃至7の何れか1項に記載の画像処理装置において、
前記ユーザの位置及び向きの少なくとも一方を検出する第2検出手段による検出結果に基づいて、仮想三次元空間における視野範囲を特定する特定手段を更に備え、
前記画像取得手段は、動画を構成する各静止画像として、前記特定手段により特定された前記視野範囲に対応する前記二次元画像を、三次元コンピュータグラフィックスを用いて生成することを特徴とする画像処理装置。 - コンピュータにより実行される画像処理方法において、
観察位置からの眺めを表す二次元画像と、前記観察位置から前記二次元画像の各箇所で表される対象までの奥行きを示す奥行き情報と、を取得する画像取得ステップと、
ユーザの視線を検出する検出手段による検出結果に基づいて、前記画像取得ステップにより取得された前記二次元画像内で前記ユーザが注視する注視箇所を特定する特定ステップと、
前記画像取得ステップにより取得された前記奥行き情報に基づいて、前記特定ステップにより特定された前記注視箇所と、前記二次元画像内において前記注視箇所以外の非注視箇所と、の間の奥行きの差を取得する差取得ステップと、
前記差取得ステップにより取得された前記奥行きの差に基づいて、前記非注視箇所の画質を低下させる低下ステップと、
前記低下ステップにより前記非注視箇所の画質が低下させられた前記二次元画像を画像表示装置に出力する出力ステップと、
を含むことを特徴とする画像処理方法。 - コンピュータに、
観察位置からの眺めを表す二次元画像と、前記観察位置から前記二次元画像の各箇所で表される対象までの奥行きを示す奥行き情報と、を取得する画像取得手段と、
ユーザの視線を検出する検出手段による検出結果に基づいて、前記画像取得手段により取得された前記二次元画像内で前記ユーザが注視する注視箇所を特定する特定手段と、
前記画像取得手段により取得された前記奥行き情報に基づいて、前記特定手段により特定された前記注視箇所と、前記二次元画像内において前記注視箇所以外の非注視箇所と、の間の奥行きの差を取得する差取得手段と、
前記差取得手段により取得された前記奥行きの差に基づいて、前記非注視箇所の画質を低下させる低下手段と、
前記低下手段により前記非注視箇所の画質が低下させられた前記二次元画像を画像表示装置に出力する出力手段と、
として機能させることを特徴とする画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017227987A JP2019102828A (ja) | 2017-11-28 | 2017-11-28 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017227987A JP2019102828A (ja) | 2017-11-28 | 2017-11-28 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019102828A true JP2019102828A (ja) | 2019-06-24 |
Family
ID=66977212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017227987A Pending JP2019102828A (ja) | 2017-11-28 | 2017-11-28 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019102828A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021245930A1 (ja) * | 2020-06-05 | 2021-12-09 | 日本電信電話株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
WO2022091757A1 (ja) * | 2020-10-27 | 2022-05-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2024122191A1 (ja) * | 2022-12-06 | 2024-06-13 | キヤノン株式会社 | 画像処理装置及び方法、プログラム、記憶媒体 |
-
2017
- 2017-11-28 JP JP2017227987A patent/JP2019102828A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021245930A1 (ja) * | 2020-06-05 | 2021-12-09 | 日本電信電話株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
WO2022091757A1 (ja) * | 2020-10-27 | 2022-05-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2024122191A1 (ja) * | 2022-12-06 | 2024-06-13 | キヤノン株式会社 | 画像処理装置及び方法、プログラム、記憶媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11709545B2 (en) | Gaze detection method and apparatus | |
JP5996814B1 (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
JP6058184B1 (ja) | ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム | |
US9721385B2 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
JP2022504475A (ja) | 再投影フレームのモーションスムージング | |
JP6558839B2 (ja) | 媒介現実 | |
JP6619871B2 (ja) | 媒介現実コンテンツの共有 | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
CN110915211A (zh) | 虚拟现实中的物理输入设备 | |
JP2020003898A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2019102828A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
EP3236306A1 (en) | A method for rendering a 3d virtual reality and a virtual reality equipment for implementing the method | |
US20230367386A1 (en) | Systems and Methods for Providing Observation Scenes Corresponding to Extended Reality (XR) Content | |
JP6963399B2 (ja) | プログラム、記録媒体、画像生成装置、画像生成方法 | |
CN114026603A (zh) | 渲染计算机生成现实文本 | |
Bruder et al. | Going with the flow: Modifying self-motion perception with computer-mediated optic flow | |
KR101947372B1 (ko) | Hmd에 위치 보정 영상을 제공하는 방법 및 hmd에 위치 보정 영상을 표시하는 방법, 그리고 이를 이용한 위치 보정 영상을 표시하는 hmd | |
CN113552947A (zh) | 虚拟场景的显示方法、装置和计算机可读存储介质 | |
WO2017191703A1 (ja) | 画像処理装置 | |
KR101817952B1 (ko) | 투과형 헤드 마운티드 디스플레이 장치 및 상기 장치에서의 화면 심도 제어 방법 | |
CN115202475A (zh) | 显示方法、装置、电子设备及计算机可读存储介质 | |
KR101733519B1 (ko) | 3차원 디스플레이 장치 및 방법 | |
JP6996450B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP6613099B2 (ja) | 仮想現実空間を立体的に表示するためのプログラム、コンピュータ及びヘッドマウントディスプレイシステム | |
JP6544719B2 (ja) | 動画像生成システム、動画像生成装置、動画像生成方法、及びコンピュータプログラム |