JP2014230027A - 画像表示装置に表示する画像を制御する装置、方法及びプログラム - Google Patents

画像表示装置に表示する画像を制御する装置、方法及びプログラム Download PDF

Info

Publication number
JP2014230027A
JP2014230027A JP2013107135A JP2013107135A JP2014230027A JP 2014230027 A JP2014230027 A JP 2014230027A JP 2013107135 A JP2013107135 A JP 2013107135A JP 2013107135 A JP2013107135 A JP 2013107135A JP 2014230027 A JP2014230027 A JP 2014230027A
Authority
JP
Japan
Prior art keywords
image
viewpoint
observer
dimensional
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013107135A
Other languages
English (en)
Inventor
谷岡 宏
Hiroshi Tanioka
宏 谷岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013107135A priority Critical patent/JP2014230027A/ja
Publication of JP2014230027A publication Critical patent/JP2014230027A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】多視点画像データに係る被写体を3次元の形状として認識させるにはそのための3D画像表示器が必要であり、一般的な2D画像表示器では被写体を立体的な形状として認識することはできない。
【解決手段】画像表示装置に表示する画像を制御する装置であって、観察者の視点を検出する検出手段と、複数の2次元画像で構成される多視点画像の中から、前記検出手段で検出された観察者の視点に応じた2次元画像を、前記画像表示装置に表示する画像として選択する選択手段と、を備えたことを特徴とする。
【選択図】図6

Description

本発明は、観察者の視点に応じた画像を表示するための装置、方法及びプログラムに関する。
現在、両眼視差を利用して観察者に立体像を知覚させる3D画像表示技術が普及している。この技術は、被写体に関して両眼の視差の分だけ見え方の異なる2次元画像(視差画像)を左右それぞれの眼に別個に提示することにより立体像を知覚させる技術である。このような3D画像表示技術では、同一の被写体を複数の視点から撮像した互いに視差のある画像群のデータ(多視点画像データ)を3次元表示器に表示にすることにより、人物や図形等の被写体を立体的な形状として観察者に認識させることができる。
特開2009-6968号公報
3D画像表示技術などの普及に伴い、上述した多視点画像データが広く流通することが予想される。しかしながら、多視点画像データに係る被写体を3次元の形状として認識させるにはそのための3D画像表示器が必要であり、一般的な2D画像表示器では被写体を立体的な形状として認識することはできない。
この点に関連し、例えば、観察者の視点を検出した上で、当該検出された特定の視点位置から立体モデルを仮想カメラで撮像した表示画像を生成することで、違和感のない2次元画像を表示する技術も提案されている(特許文献1)。
しかしながら、特許文献1の技術では、観察者の視点を検出し、該検出された視点から見た立体モデルを仮想カメラで撮像するという手順を踏むため、観察者の視点の変化に速やかに追従させた表示を行うことは困難である。
本発明に係る装置は、画像表示装置に表示する画像を制御する装置であって、観察者の視点を検出する検出手段と、複数の2次元画像で構成される多視点画像の中から、前記検出手段で検出された観察者の視点に応じた2次元画像を、前記画像表示装置に表示する画像として選択する選択手段と、を備えたことを特徴とする。
本発明によれば、多視点画像データを一般的な画像表示装置で表示する場合において、観察者が本来知覚するであろう感覚に近い感覚で、画像を表示することができる。
実施例1に係る画像処理を実行する画像処理システムの構成の一例を示すブロック図である。 2D画像表示器の上面図である。 (a)は3D画像表示器の上面図であり、(b)は(a)に示す上面図の一部を拡大した図である。 観察者の視点によって異なる画素が観察者の目に映ることを説明する図である。 実施例1における多視点画像の概念を説明する図である。 実施例1に係る画像処理システムにおける画像処理の流れを示すフローチャートである。 実施例1における多視点画像の一例を示す図である。 多視点画像の中から観察者視点に応じた1の2次元画像を選択する処理の詳細を示すフローチャートである。 観察者視点に応じた2次元画像を多視点画像の中から選択する様子を説明する図である。 実施例1における観察者視点と多視点画像を構成する各2次元画像との対応関係を示すテーブルの一例である。 観察者が正面から見た場合と左斜め約40度から見た場合の見え方の違いを説明する図である。 実施例2における、2D画像表示器の表示画面を角度θの視点から見た際の見え方を説明する図である。 実施例2における、表示領域と拡大率の関係を示すテーブルの一例である。 実施例2に係る画像処理システムにおける画像処理の流れを示すフローチャートである。 加工処理の結果の一例を示す図である。 実施例3における多視点画像の概念を説明する図である。 実施例3における観察者視点と多視点画像を構成する各2次元画像との対応関係を示すテーブルの一例である。
最初に、本実施例の前提となる技術事項について簡単に説明する。
まず、3D画像表示技術における多視点3D画像は、被写体を異なる位置から撮影した互いに視差のある複数の2次元画像で構成される。例えば、左目用の画像と右目用の画像とからなる一対の2次元画像を既定の表示素子で表示し、それを左右それぞれの目で見ることで被写体が立体的に認識される。各2次元画像における、被写体と撮影手段との相対的な位置関係を画定する角度を視角と呼ぶ。
<実施例1>
図1は、本実施例に係る画像処理を実行する画像処理システムの構成の一例を示すブロック図である。
図1で示す画像処理システムは、パーソナルコンピュータ(PC)100、プリンタ110、2D画像表示器120、及び3D画像表示器130で構成され、各装置がネットワーク140を介して接続されている。
PC100は、CPU101、ROM102、RAM103、記憶手段104、入力手段105、ネットワークI/F106で構成される。CPU101は、ROM102のプログラム用ROMに記憶された、或いはハードディスク等の記憶手段105からRAM103にロードされたOSやアプリケーション等のプログラムを実行する。なお、OSとはコンピュータ上で稼動するオペレーティングシステムの略語である。RAM103は、CPU101の主メモリ、ワークエリア等として機能する。また、RAM103には、2D画像表示器120及び3D画像表示器130に画像を表示させるためのビデオRAM(VRAM)も含まれる。入力手段105は、ユーザの入力操作を受け付けるためのキーボードやマウスであり、タッチパネル。ネットワークI/F106は、ネットワーク140に接続された他の機器との通信制御を行う。
2D画像表示器120は、被写体を2次元で表示する液晶モニタ等の画像表示装置である。本実施例に係る2D画像表示器120は、その表示面がいわゆるタッチパネルとなっており、画面上をユーザが直接タッチすることで各種入力操作をできるように(PC100の入力手段105としても機能するように)構成される。また、2D画像表示機120は、観察者の位置(視点位置)や動作を認識する為の撮像手段121を備えている。図2は、2D画像表示器120の上面図であり、液晶表示部201、液晶表示部201の前面に配置されたタッチパネル202、観察者を画面の中央上部から撮影する撮像手段121してのCCDカメラ203が示されている。本実施例では、入力された多視点3D画像の中から観察者の視点に最も近い視点で撮像された2次元画像が選択されて表示される。
3D画像表示器130は、被写体を立体的に表示する液晶モニタ等の画像表示装置であり、本実施例では、専用の眼鏡を必要としない裸眼方式のうちレンチキュラ方式の画像表示装置であるとする。図3の(a)は、3D画像表示器130の上面図であって、レンチキュラレンズ301と液晶表示部300とが示されている。図3の(b)は、図3の(a)に示す上面図の一部を拡大した図であり、レンチキュラレンズ301を構成する凸レンズ1個当たり8つの表示素子(画素)302が対応付けて配置されている様子が示されている。本実施例では、このようにレンチキュラレンズ301を構成する凸レンズの各々に対して8つの表示素子302を対応付けることで、観察者がこの3D画像表示器130を7つの異なる方向(視点)から見た場合の3次元画像の表示を可能にしている。そして、1つの「視点」から見ている観察者の目には右目用の画像と左目用の画像とがそれぞれ届けられる。なお、本実施例における3D画像表示器130は、説明を簡略化する為、カラー表示ではなくモノクロ表示とし、液晶表示素子や画素の並びを1次元で表現するものとする。
図4は、観察者の視点によって異なる画素が観察者の目に映ることを説明する図であり、(a)は斜め45度から見た場合、(b)は正面から見た場合にそれぞれ対応している。図4の(a)の場合、レンチキュラレンズ301の光学特性に依って、観察者の右目には番号2の画素のみが見え、左目には番号1の画素のみが見えることが分かる。同様に、図4の(b)の場合には、観察者の右目には番号5の画素のみが見え、左目には番号4の画素のみが見えることが分かる。レンチキュラレンズによる3次元画像の表示は公知の原理であり、本明細書では更なる説明を省略する。
図5は、本実施例における多視点画像の概念を説明する図であり、7つの異なる視点(視点1〜視点7)と各視点に対応する2次元画像(3次元画像を表示する為に撮影された画像1から画像8の8種類の撮影画像)との関係を示している。図5における被写体は、互いに接する太さの違う2本の円柱(太い円柱500と細い円柱501)である。視点1〜視点7の各視点では、観察者の左右それぞれの眼で見た画像に相当する一対の2次元画像が撮影される。なお、3D画像表示器130が有する光学特性に従って連続的に各視点における2次元画像を得る為、8種類の撮影画像の中で隣り合う画像の視角の中心と7つの視点の位置は略一致することになる。これは、視点N(Nは1〜7のいずれかの整数)において、観察者の左目に届けられる画像Nは、視点N−1における観察者の右目に届けられる画像と同じであることを意味している。
図6は、本実施例に係る画像処理システムにおける画像処理の流れを示すフローチャートである。なお、この一連の処理は、以下に示す手順を記述したコンピュータ実行可能なプログラムを、PC100の記憶手段104等からRAM103上に読み込んだ後に、CPU101によって該プログラムを実行することによって実施される。
ステップ601において、PC100は、同一の被写体を複数の視点から撮像した互いに視差のある画像群のデータ(多視点画像データ)を、ネットワーク140等を介して取得する。ここでは、図5における2本の円柱の代わりにデジタル1眼レフカメラを被写体とした画像1〜画像8の計8枚の2次元画像で構成される多視点画像データが取得されるものとする(図7を参照)。図7において、例えば画像1は観察者が視点1からカメラを見た場合の左目に表示される画像、画像2は観察者が同じく視点1からカメラを見た場合の右目に表示される画像である。同時に画像2は、観察者が視点2からカメラを見た場合の左目に表示される画像でもある。取得された多視点画像データは、記憶手段104に格納される。例えば、図7に示す各2次元画像の視角は、画像1:-37.8度、画像2:-27.0度、画像3:-16.2度、画像4:-5.4度、画像5:5.4度、画像6:16.2度、画像7:27.0度、画像8:37.8度である。なお、多視点画像データが業界標準等の所与の規格に従っている場合には、各2次元画像の視角は既知なものとして扱うことができる。多視点画像データが所与の規格に従っておらず、各2次元画像の視角が既知でない場合は、多視点画像データの付帯情報の一部に、各2次元画像の視角情報を含めておくこと等が考えられる。
ステップ602において、PC100は、2D画像表示器120に対向している観察者を撮影した画像を取得する。詳細には、まず、2D画像表示器120に設けられた撮像手段121に対し、2D画像表示器120の正面の空間(観察者のいる空間)の撮影指示を行う。撮像手段121で撮影された画像はPC100に転送され、PC100のRAM103に一時的に格納される。
ステップ603において、PC100は、多視点画像の中から観察者視点に応じた1の2次元画像を選択する。詳細には、観察者を撮影した画像に対して顔認識処理を行って観察者視点を検出し、検出された観察者視点に最も近い視点で生成された2次元画像を、記憶手段104に格納されている多視点画像の各2次元画像の中から選択する。
図8は、多視点画像の中から観察者視点に応じた1の2次元画像を選択する処理の詳細を示すフローチャートである。
ステップ801において、PC100は、観察者を撮影した画像に対して顔認識処理を行って、撮像画像内の観察者の位置を特定する。顔認識処理としては公知のパターンマッチング技術などがある。一般に、人の顔認識は横に並ぶ1対の目の存在に着目して容易にその重心位置を把握することができる。
ステップ802において、PC100は、顔認識処理の結果に基づいて、観察者の位置Pと2D画像表示器120の画面中央を通る垂線(基線)とのズレLmを算出して、観察者が画面を見ている角度(観察者視点)を検出する。一般に観察者は、画像表示装置から所定の距離離れた位置で表示された画像を良好に見ることができる。そこで、本実施例では、2D画像表示器120からこの所定距離離れた位置Pに観察者が存在しているものと推定して、上述のズレLmを算出する。なお、所定距離は、2D画像表示器120の画面サイズに応じて予め定まる(例えば、画面の対角線の3倍)ものであり、記憶手段104等に記憶されている。そして、観察者の両目の間隔を、例えば成人の場合は標準的に8cmとして、上述のズレLmは、以下の式(1)で算出する。
Lm=8(cm)×Y÷X ・・・式(1)
上記式(1)において、Xは撮影された画像上での観察者の両眼の間隔に対応する画素数、Yは両眼の中心の画面中央からのズレに対応する画素数である。
図9は、観察者視点に応じた2次元画像を多視点画像の中から選択する様子を説明する図である。図9において、2D画像表示器120から所定の距離だけ離れた位置を示す仮想のライン900上の点Pに観察者が存在するとすれば、点Pから2D画像表示器120の中央を結ぶ直線と基線との成す角度が、観察者が画面を見ている角度となる。このようにして、観察者が2D画像表示器120の表示面をどの角度から見ているのかが特定される。
なお、予め所定の距離だけ離れた位置にいる人物の顔を撮影しておくことで、撮影された画像から得られる両目の間隔の画素数を用いて、2D画像表示器120から観察者までの距離をより正確に求めることが可能である。
続くステップ803〜ステップ817において、2D画像表示器120を点Pの位置から見た場合、入力された多視点画像を構成する各2次元画像のうちどの視角で撮影された画像が最も近いかを判定することで、観察者に提示すべき1の2次元画像を選択する。以下では、前述の図7に示すような、画像1〜画像8の計8つの2次元画像で構成される多視点画像の中から、観察者視点に最も近い1の2次元画像を選択する場合の処理について、詳しく説明する。なお、多視点画像を構成する2次元画像の数等に応じて、選択する処理の内容が適宜変わることは言うまでもない。
まず、ステップ803において、PC100は、ステップ802で算出されたズレLmの値が0以上(Lmが正の値或いは0)かどうかを判定する。算出されたズレLmの値が0以上であると判定された場合はステップ804に進む。一方、算出されたズレLmの値が0より小さいと判定された場合(Lmが負の値の場合)はステップ811に進む。これにより以降の処理において、ズレLmが正の値であれば画像5〜画像8のいずれかが選択され、ズレLmが負の値であれば画像1〜4のいずれかが選択されることになる。なお、ズレLmの値が0であった場合に、本実施例ではステップ804に進むようにしているが、ステップ811に進むようにしてもよい。
ステップ804において、PC100は、画像5〜画像8のうち視角が最も大きい画像8を、選択される2次元画像として設定する。
ステップ805において、PC100は、ズレLmの値が閾値L1より大きいかどうかを判定する。ズレLmの値が閾値L1より大きい場合はステップ807に進む。一方、ズレLmの値が閾値L1より小さい場合はステップ806に進む。なお、図9から明らかなように、閾値L1は画像5と画像6とを選り分けるための閾値である。
ステップ806において、PC100は、画像5〜画像8のうち視角が最も小さい画像5を、上記画像8に代えて、選択される2次元画像として設定する。
ステップ807において、PC100は、ズレLmの値が閾値L2より大きいかどうかを判定する。ズレLmの値が閾値L2より大きい場合はステップ809に進む。一方、ズレLmの値が閾値L2より小さい場合はステップ808に進む。なお、図9から明らかなように、閾値L2は画像6と画像7とを選り分けるための閾値である。
ステップ808において、PC100は、画像5〜画像8のうち視角が2番目に小さい画像6を、上記画像8に代えて、選択される2次元画像として設定する。
ステップ809において、PC100は、ズレLmの値が閾値L3より大きいかどうかを判定する。ズレLmの値が閾値L3より大きい場合は本処理を抜ける。すなわち、これにより画像8が観察者に表示される2次元画像として決定されることになる。一方、ズレLmの値が閾値L3より小さい場合はステップ810に進む。なお、図9から明らかなように、閾値L3は画像7と画像8とを選り分けるための閾値である。
ステップ810において、PC100は、画像5〜画像8のうち視角が2番目に大きい画像7を、上記画像8に代えて、選択される2次元画像として設定する。
ステップ811において、PC100は、画像1〜画像4のうち視角が最も大きい画像1を、選択される2次元画像として設定する。
ステップ812において、PC100は、ズレLmの値が閾値-L1より小さいかどうか(Lmの絶対値が-L1の絶対値より大きいかどうか)を判定する。ズレLmの値が閾値-L1より小さい場合はステップ814に進む。一方、ズレLmの値が閾値-L1より大きい場合はステップ813に進む。なお、図9から明らかなように、閾値-L1は画像3と画像4とを選り分けるための閾値である。
ステップ813において、PC100は、画像1〜画像4のうち視角が最も小さい画像4を、上記画像1に代えて、選択される2次元画像として設定する。
ステップ814において、PC100は、ズレLmの値が閾値-L2より小さいかどうかを判定する。ズレLmの値が閾値-L2より小さい場合はステップ816に進む。一方、ズレLmの値が閾値-L2より大きい場合はステップ815に進む。なお、図9から明らかなように、閾値-L2は画像2と画像3とを選り分けるための閾値である。
ステップ815において、PC100は、画像1〜画像4のうち視角が2番目に小さい画像3を、上記画像1に代えて、選択される2次元画像として設定する。
ステップ816において、PC100は、ズレLmの値が閾値-L3より小さいかどうかを判定する。ズレLmの値が閾値-L3より小さい場合は本処理を抜ける。すなわち、これにより画像1が観察者に表示される2次元画像として決定されることになる。一方、ズレLmの値が閾値-L3より大きい場合はステップ817に進む。なお、図9から明らかなように、閾値-L3は画像1と画像2とを選り分けるための閾値である。
ステップ817において、PC100は、画像1〜画像4のうち視角が2番目に大きい画像2を、上記画像1に代えて、選択される2次元画像として設定する。
なお、上記L1〜L3及び-L1〜-L3の各閾値は、ライン800と各閾値を挟む2つの画像(L1であれば、画像5と画像6)の視角を示す2本の破線とが交わる位置の中間点である。つまり、上述の所定距離をDとすれば、各閾値は、
L1=(Dtan5.4度+Dtan16.2度)/2
L2=(Dtan27度+Dtan16.2度)/2
L3=(Dtan27度+Dtan37.8度)/2
といった値になる。
上述のとおり、推定された観察者の位置Pと、多視点画像の各2次元画像の視角を示す破線が上述の仮想ライン900と交わる位置とを比較することにより、観察者の位置Pに最も近い視角の2次元画像が求められる。こうして求められた1つの2次元画像が、観察者が今見ている視点に最も近い視点で生成された画像として決定されることになる。図10は、本実施例における観察者視点と多視点画像を構成する各2次元画像との対応関係を示すテーブルの一例である。このテーブルから、例えば、最も視角の小さい画像5が選択されるのは、観察者視点が0度以上10.8度未満の場合であることが分かる。なお、図10に示す対応関係は一例であり、多視点画像を構成する2次元画像の数や視角θに応じて、上記閾値の数やその値(すなわち、観察者視点の範囲)が変化するのはいうまでもない。
このようにして、入力された多視点画像の各2次元画像のうち、観察者視点に応じた1の2次元画像が選択される。
図6のフローチャートの説明に戻る。
ステップ604において、PC100は、ステップ603で選択された2次元画像のデータをVRAMに書き込む。そして、VRAMに書き込まれた2次元画像のデータが一定の周期で読み出され、2D画像表示器120に表示される。
ステップ605において、PC100は、ユーザから表示を終了する旨の指示があるか否かを判定する。表示終了の指示がなければ、ステップ602に戻り、ステップ602〜ステップ604の処理を繰り返す。すなわち、観察者の撮影が再びなされ、観察者の視点位置が変化していれば、当該変化した視点位置に応じた2次元画像が改めて選択され、2D画像表示器120に表示されることになる。一方、表示終了の指示があれば、本処理を終える。
以上のような処理により、入力された多視点画像の中の1の2次元画像が、2D画像表示器120に対する観察者の視点に応じて表示される。
なお、本実施例では、2D画像表示器に設けられた撮像手段121で観察者を撮影してその視点を検出していたが、観察者の視点を検出する方法はこれに限られない。例えば、赤外線センサを用いて、2D画像表示装置に対向している観察者の位置を検知することによって、観察者の位置(視点)を検出するようにしてもよい。
このように本実施例によれば、入力された多視点画像を構成する各2次元画像の中から、観察者視点に応じた画像が選択され表示される。従来例と異なり、3次元モデルから観察者視点に応じた表示画像を生成することを要しない為、観察者の視点の変化に速やかに追従して表示することができる。これにより、観察者がその位置を変更したとしても、それに追従して遅滞なく表示画像を切り替えることができる。このため、例えば2D画像表示器の前を観察者が左右に移動すれば、その時々の視点に応じた2次元画像が瞬時に表示されるので、3D画像表示器で表示される立体像を見たときと同じような感覚で被写体を見ることができる。
<実施例2>
実施例1では、入力された多視点画像の中から観察者視点に応じた2次元画像を選択し、それをそのまま2D画像表示器に表示していた。次に、選択された2次元画像に対して観察者視点に応じた加工を施した上で2D画像表示器に表示する態様を、実施例2として説明する。なお、実施例1と共通する部分は省略ないしは簡略化し、ここでは差異点を中心に説明するものとする。
最初に、本実施例の前提となる、観察者の視点の違いによる被写体の見え方について説明する。
図11は、前述の図5における2本の円柱500及び501を撮影した画像を2D画像表示器120で表示し、それを観察者が正面から見た場合(視点4)と左斜め約40度から見た場合(視点1)の見え方の違いを説明する図である。視点4から見た場合の図11の(a)では、太い円柱500は2D画像表示器120の画面1100において、両矢印1101で示す直径で表示され、観察者にはそのまま円柱500の直径として、すなわち、両矢印1103で示す太さに見える。一方、視点1から見た場合の図11の(b)では、同じ円柱500の直径が、それに対して約80%(cos40度)に縮んで、すなわち、両矢印1104で示す太さに見える。
図12は、2D画像表示器120の表示画面1100を角度θの視点から見た際の見え方を説明する図である。地面に対して垂直な表示画面1100に表示された2次元画像を観察者が角度θの視点で見た場合において、表示画面1100の中心と視点とが地面に対して平行な平面上にある場合、被写体は横方向にcosθに縮んで見える。従って、同じ視点からその被写体を実際に見ているかの様に、本来と同じサイズで観察者が知覚できるようにするには、被写体を横方向に1/cosθ倍に拡大して表示してやればよい。なお、2D画像表示器120の表示画面内に収めるため、本実施例では選択された2次元画像の横方向の中央部からcosθ分の画像領域が表示領域となるように拡大し、その他の領域をトリミングしている。
図13は、前述の図7の画像1〜画像8をどの視点から見ても本来のサイズで知覚されるようにするための表示領域と拡大率の関係を示すテーブルの一例であり、予め作成されたこのようなテーブルが記憶手段104等に記憶される。例えば、最も視角θが大きい画像1や画像8の場合、表示領域は79.0%とした上で127%に拡大表示すればよいことが分かる。
図14は、本実施例に係る画像処理システムにおける画像処理の流れを示すフローチャートである。
ステップ1401〜ステップ1403は、実施例1に係る図6のフローチャートのステップ601〜ステップ603と同じである。
すなわち、多視点画像データが取得されると(ステップ1401)、観察者の撮影がなされる(ステップ1402)。そして、観察者を撮像した画像に対する顔認識処理によって視点が検出され、検出された視点に最も近い位置に対応する2次元画像が選択される(ステップ1403)。
ステップ1404において、PC100は、選択された1の2次元画像に応じた表示領域と拡大率を、上述のテーブルを参照して決定する。例えば、前述の図7で示した多視点3D画像の中の画像1が選択された場合、表示領域の中央部79%の部分が127%に拡大されることになる。
ステップ1405において、PC100は、ステップ1403で選択された2次元画像を、ステップ1404で決定された表示領域及び拡大率に基づいて加工する処理を行う。仮に、2D画像表示器120が、横1920画素*縦1080画素の表示素子を持つとする。この場合、上述の図7の画像1或いは画像8であれば、画像の中央部1517画素*1080画素に対して横方向に例えば線形補間処理によって127倍に拡大処理し、横1920画素*縦1080画素の画像データに加工する。図15は、加工処理の結果の一例を示す図であり、(a)は図7の画像1の拡大処理結果、同(b)は図7の画像2の拡大処理結果、同(c)は図3の拡大処理結果をそれぞれ示している。こうして加工された画像データVRAMに書き込まれ、2D画像表示器120に表示される。
なお、本実施例は、選択された画像の横方向中央部を中心とした表示領域の下で拡大処理をする例について説明したが、これに限られない。例えば、画像1〜画像4は画像の右端を基準に、画像5〜画像8は画像の左端を基準とした表示領域にして拡大処理を行うようにしてもよい。さらには、ユーザが任意の表示領域を選択或いは設定するようにしてもよい。
本実施例によれば、本来の3D表示と同じようなサイズ感で観察者は被写体を見ることができる。
<実施例3>
実施例1における多視点画像データは、両眼の視差を利用して観察者に立体像を知覚させる3D画像表示技術で用いるための画像データで、被写体を中心として視点を異ならせた複数の2次元画像で構成されるものであった。次に、撮影手段を中心として視点を異ならせた複数の2次元画像で構成される多視点画像、すなわち、カメラを軸に回転させて一定の角度間隔で風景等を撮影する、所謂パノラマ画像を入力画像とする態様について、実施例3として説明する。なお、実施例1とは、被写体と撮影手段との関係が逆になっているのみで、本質的な内容は同じであるため、以下では差異点について説明するものとする。
図16は、本実施例において入力される多視点画像(パノラマ画像)の概念を説明する図であり、8つの異なる視点(視点1〜視点8)と各視点に対応する2次元画像との関係を示している。図16に示されるように、パノラマ画像は、図示されるような視角で各画像が撮影される。例えば、バイブレータ機能を有するカメラ付き携帯端末であれば、該バイブレータによって携帯端末の本体を震動させて一定方向に回転させながら一定の視角で被写体を撮影することで、パノラマ画像を容易に得ることができる。また、ジャイロセンサ等を搭載し、自らの姿勢を検知しながら撮影出来るビデオカメラ等で撮影した動画も、各シーン撮影時の視角情報或いはシーン間の相対視角情報を用いることで、同様に本発明を適用できる。
このようにして撮影された多視点画像データが入力された場合において、実施例1と同様、観察者の視点に応じた2次元画像を選択して表示することで、あたかもパノラマ画像を見ているような感覚を実現することができる。なお、この場合の観察者視点の情報は、観察者自身の頭部に装着したモーションセンサ等によって取得されることになる。
図17は、本実施例における観察者視点と多視点画像を構成する各2次元画像との対応関係を示すテーブルの一例である。このテーブルから、例えば、最も視角の小さい画像5が選択されるのは、観察者視点が0度以上18度未満の場合であることが分かる。
(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (11)

  1. 画像表示装置に表示する画像を制御する装置であって、
    観察者の視点を検出する検出手段と、
    複数の2次元画像で構成される多視点画像の中から、前記検出手段で検出された観察者の視点に応じた2次元画像を、前記画像表示装置に表示する画像として選択する選択手段と、
    を備えたことを特徴とする装置。
  2. 前記多視点画像は、被写体を中心として視点を異ならせた複数の2次元画像で構成されることを特徴とする請求項1に記載の装置。
  3. 前記多視点画像は、撮像手段を中心として視点を異ならせた複数の2次元画像で構成されることを特徴とする請求項1に記載の装置。
  4. 前記検出手段は、前記画像表示装置の表示面に対向している観察者を撮影した画像に対して顔認識処理を行うことにより、当該観察者の視点を検出することを特徴とする請求項1又は2に記載の装置。
  5. 前記検出手段は、前記画像表示装置の表示面に対向している観察者を赤外線センサで検知することにより、当該観察者の視点を検出することを特徴とする請求項1乃至3のいずれか1又は2に記載の装置。
  6. 前記検出手段は、前記画像表示装置の表示面に対向している観察者が装着したモーションセンサにより、当該観察者の視点を検出することを特徴とする請求項3に記載の装置。
  7. 前記選択手段は、前記多視点画像を構成する複数の2次元画像の中から、前記検出手段で検出された観察者の視点に最も近い視点で生成された2次元画像を、前記画像表示装置に表示する画像として選択することを特徴とする請求項1乃至6のいずれか1項に記載の装置。
  8. 前記選択手段で選択された2次元画像の一部を拡大処理する拡大処理手段をさらに備えたことを特徴とする請求項1、2、4、5、7のいずれか1項に記載の装置。
  9. 前記拡大処理手段は、前記検出手段で検出された観察者の視点に応じて、前記拡大処理における拡大率を異ならせることを特徴とする請求項8に記載の装置。
  10. 画像表示装置に表示する画像を制御する方法であって、
    観察者の視点を検出する検出ステップと、
    複数の2次元画像で構成される多視点画像の中から、前記検出ステップで検出された観察者の視点に応じた2次元画像を、前記画像表示装置に表示する画像として選択する選択ステップと、
    を含むことを特徴とする方法。
  11. コンピュータを、請求項1乃至9のいずれか1項に記載の装置として機能させるためのプログラム。
JP2013107135A 2013-05-21 2013-05-21 画像表示装置に表示する画像を制御する装置、方法及びプログラム Pending JP2014230027A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013107135A JP2014230027A (ja) 2013-05-21 2013-05-21 画像表示装置に表示する画像を制御する装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013107135A JP2014230027A (ja) 2013-05-21 2013-05-21 画像表示装置に表示する画像を制御する装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2014230027A true JP2014230027A (ja) 2014-12-08

Family

ID=52129519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013107135A Pending JP2014230027A (ja) 2013-05-21 2013-05-21 画像表示装置に表示する画像を制御する装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2014230027A (ja)

Similar Documents

Publication Publication Date Title
US8768043B2 (en) Image display apparatus, image display method, and program
EP2988497B1 (en) Image processing method and apparatus
US20170078651A1 (en) Stereo rendering system
JP5849811B2 (ja) 裸眼立体視用映像データ生成方法
KR20150096529A (ko) 피드백 기반 3차원 비디오를 위한 제로 디스패리티 평면
CN211128024U (zh) 3d显示设备
US10074343B2 (en) Three-dimensional image output apparatus and three-dimensional image output method
TWI788739B (zh) 3d顯示設備、3d圖像顯示方法
CN112929639A (zh) 人眼追踪装置、方法及3d显示设备、方法和终端
US20140254008A1 (en) Image display device and image display method
US20130106843A1 (en) Information processing apparatus, display control method, and program
KR20190027079A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
JP6649010B2 (ja) 情報処理装置
JP2011141381A (ja) 立体画像表示装置及び立体画像表示方法
CN107592520A (zh) Ar设备的成像装置及成像方法
JP2015037282A (ja) 画像処理装置、画像処理方法及びプログラム
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
JP2012105172A (ja) 画像生成装置、画像生成方法、コンピュータプログラムおよび記録媒体
CN114513646A (zh) 一种三维虚拟场景中全景视频的生成方法及设备
TWI508526B (zh) 產生視角平移影像之方法及其可攜式電子設備
US8928586B2 (en) Stereoscopic display device
JP2014230027A (ja) 画像表示装置に表示する画像を制御する装置、方法及びプログラム
JP5868055B2 (ja) 画像処理装置および画像処理方法
JP2017073620A (ja) 画像処理装置、画像処理方法および画像処理用プログラム
US9964772B2 (en) Three-dimensional image display apparatus, methods and systems