JP6308513B2 - 立体画像表示装置、画像処理装置及び立体画像処理方法 - Google Patents

立体画像表示装置、画像処理装置及び立体画像処理方法 Download PDF

Info

Publication number
JP6308513B2
JP6308513B2 JP2013089532A JP2013089532A JP6308513B2 JP 6308513 B2 JP6308513 B2 JP 6308513B2 JP 2013089532 A JP2013089532 A JP 2013089532A JP 2013089532 A JP2013089532 A JP 2013089532A JP 6308513 B2 JP6308513 B2 JP 6308513B2
Authority
JP
Japan
Prior art keywords
image
stereoscopic
eye
crosstalk
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013089532A
Other languages
English (en)
Other versions
JP2014045473A (ja
Inventor
長谷川 雄史
雄史 長谷川
幸治 重村
幸治 重村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianma Japan Ltd
Original Assignee
Tianma Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianma Japan Ltd filed Critical Tianma Japan Ltd
Priority to JP2013089532A priority Critical patent/JP6308513B2/ja
Priority to CN201310326072.0A priority patent/CN103595988B/zh
Priority to CN201710090451.2A priority patent/CN107071382B/zh
Priority to CN201710090813.8A priority patent/CN107105213B/zh
Priority to US13/955,275 priority patent/US9280951B2/en
Priority to EP13178737.6A priority patent/EP2693759B1/en
Publication of JP2014045473A publication Critical patent/JP2014045473A/ja
Application granted granted Critical
Publication of JP6308513B2 publication Critical patent/JP6308513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • H04N13/125Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Description

本発明は、立体画像表示技術、特に観察者が移動した際にも違和感を与えない立体画像に変換する立体画像表示装置等に関する。
近年、立体画像を視聴可能なテレビジョンが一般市場で販売されている。これに伴って立体画像用コンテンツの量も増加しており、立体画像を視聴する環境は整備されつつある。立体画像用テレビジョンは、一般的に観察者が立体画像表示用の眼鏡をかけることにより、左右の眼に視差の異なる画像を投影して観察者へ立体画像を視聴させている。しかし、立体画像表示用の眼鏡をかけることに不快感を持つ観察者は多く、眼鏡が不要である立体画像表示装置が望まれている。また、眼鏡式の立体画像表示装置をモバイル用途として利用する際には、外出先に立体画像表示装置と立体画像表示用の眼鏡を持ち運ぶ必要があって不便であり、モバイル用途ではなおさら眼鏡が不要な立体画像表示装置が望まれている。
立体画像表示用の眼鏡が不要な立体画像表示装置は、立体画像を投影する空間領域を分割し、分割した空間領域ごとに視差の異なる画像を投影することで、観察者の左右の眼に視差の異なる画像を投影する方式が一般的である。立体画像表示装置の立体表示パネルにレンチキュラレンズやパララックスバリアを備えることで、分割した空間領域ごとに視差の異なる画像を投影している。
これらの方式の立体画像表示装置は、立体画像表示用の眼鏡を装着する必要がなく、煩わしさがない点で優れており、特にモバイル用途での利用が期待されている。しかし、これらの方式では視差の異なる画像は空間的に分離して投影されるため、観察者が正常に立体画像を視認できる空間領域は限定される。観察者が正常に立体画像を視認できる空間領域は、観察者の左眼の位置が左眼用画像の投影される空間領域内にあり、観察者の右眼の位置が左眼用画像の投影される空間領域内にある場合となる。観察者の左右の眼の位置がこの空間領域から外れると、左眼用画像と右眼用画像が重なり、二重像となった映像が観察者へ投影されるという問題がある。
ここで、立体表示パネルによって分割される空間領域について図を参照し説明する。はじめに、立体表示パネルにパララックスバリアを用いたときの空間領域について説明する。図84に、パララックスバリア方式の立体画像表示装置において、観察者の左右の眼に視差の異なる画像を投影する光学モデルの一例を示す。図84は、観察者の頭上から見た断面図であり、観察者の両眼(右眼55Rと左眼55L)が表示装置の表示面より最適観察距離ODほど離れた観察面30に位置し、かつ観察者の両眼中心と表示パネルの中心とが一致する位置関係となっている。
画像表示パネル(図示なし)は、マトリックス状に配列された画素となる光変調素子群から構成されており(例えば液晶パネル)、図84には、交互に並ぶ右眼用画素4Rと左眼用画素4Lのうち、画像表示パネル両端と中心との各画素のみを図示している。空間領域を分割して画像を投影する手段として機能するパララックスバリア6は、観察者から見て表示パネルの奥に配置されている。パララックスバリア6は、細い縦縞状の多数のスリット6aが形成されたバリア(遮光板)であり、画像表示パネルの左眼用画素4Lと右眼用画素4Rとが並ぶ方向に対して、バリアの長手方向が直交するように配置されている。パララックスバリアの更に奥には光源(図示なし:いわゆるバックライト)が設置され、光源から出た光はスリット6aを通過し、画像表示パネル内の画素において強度が変調され観察者に向けて投影される。右眼用画素4R及び左眼用画素4Lの投影方向は、スリット6aの存在により制限される。
ここで、各々のスリット6aから出た光のうち最も近い画素を通る光の軌跡を光線20として図示すると、全ての右眼用画素4Rの投影像が重なる右眼領域70R(右眼用画像の投影される空間領域)と、全ての左眼用画素4Lの投影像が重なる左眼領域70L(左眼用画像の投影される空間領域)とが得られる。右眼領域70Rでは右眼用画素4Rからの投影像しか観察できず、また左眼領域70Lでは左眼用画素4Lからの投影像しか観察できない。そのため、観察者の右眼55Rが右眼領域70R内に位置し、左眼55Lが左眼領域70L内に位置しているとき、左右の眼に視差画像を投影すると観察者は立体画像として視認する。逆にいえば、観察者は、右眼55Rが右眼領域70R内に位置し、かつ左眼55Lが左眼領域70L内に位置しているときに所望の立体画像を観察できる。
図84の表示装置は、観察面30において、右眼領域70R及び左眼領域70Lの幅が最大になるように、各右眼用画素4R及び左眼用画素4L(幅P)の最適観察距離ODにおける投影像(幅P')が全て重なるように設計されている。この投影像の幅P'は、主にスリット6aと画素との距離h、画素ピッチP、最適観察距離ODにより決定できる。幅P'を広げれば、右眼領域70R及び左眼領域70Lの幅は広がるが、観察者の両眼は各々を任意の位置に置くことは不可能なので、立体画像を視認できる立体視域は必ずとも広がるわけではない。両眼の間隔をeとすると、幅P'は両眼間隔eと等しくなるように設計することが好ましい。幅P'が両眼間隔eよりも小さな場合には、立体視が行える領域は幅P'に制限される。また、幅P'が両眼間隔eよりも大きな場合においては、両方の眼が右眼領域70R又は左眼領域70Lに位置する領域が増えるだけである。なお、図84には、遠隔観察距離FD、近接観察距離ND、スリット幅Sが記載されている。
また、図85に、パララックスバリア6が、観察者から見て表示パネルの手前に配置されている場合の光学モデルを示す。観察者の表示パネルの奥に配置されている例と同様に、観察者は最適観察距離ODに位置し、観察面30において、左右各画素(幅P)の投影像(幅P')は重なるように設計されている。各々の画素から出た光のうち最も近いスリット6aを通る光の軌跡を光線20として図示することで、全ての右眼用画素4Rの投影像が重なる右眼領域70Rと、全ての左眼用画素4Lの投影像が重なる左眼領域70Lとが得られる。
次に、パララックスバリアの代わりにレンチキュラレンズを用いたときに分割される空間領域を、図86に示す。図86は、図85においてパララックスバリア6がレンチキュラレンズ3へ代わっただけである。なお、図86には、シリンドリカルレンズ幅Lが記載されている。
次に、レンチキュラレンズ方式の光学モデルを用いて、観察者が正常に立体画像を視認できる領域(正視領域)から外れて3Dクロストーク領域に位置する場合について考察する。図87は、観察者が右に移動したため、右眼55Rが右眼領域70Rと左眼領域72Lとの境目に位置し、左眼55Lが右眼領域70Rと左眼領域70Lとの境目に位置したときの、観察者の頭上から見た断面図である。
このとき、観察者の右眼55Rの位置には、右眼用画素4Rから出た光の中で、最も近いシリンドリカルレンズ3aの主点(頂点)を通る光線20と、左眼用画素4Lから出た光の中で2番目に近いシリンドリカルレンズ3bの主点(頂点)を通る光線21との、両方が投影される。つまり、図87においては、観察者は右眼55Rで右眼用画素4Rと左眼用画素4Lとの両方からの投影像を観察することになり、立体画像を観察すると右眼用画素4Rと左眼用画素4Lが重なって二重像となり(いわゆる3Dクロストーク)所望の立体画像を視認できない。ここで、右眼領域70Rと左眼領域72Lとの境目領域、及び、右眼領域70Rと左眼領域70Lとの境目領域が、3Dクロストーク領域となる。
以上より、立体画像表示用の眼鏡が不要である立体画像表示装置は、観察者の観察位置によっては3Dクロストークによる二重像の問題が発生するため、観察者へ違和感を与えてしまい、立体画像表示装置の普及を妨げる原因となっていた。
上記の問題を解決するために、時分割式の立体画像表示装置において、液晶の遅れによって発生する3Dクロストークにより、立体画像コンテンツの左眼用画像(L画像)及び右眼用画像(R画像)内の輝度値が変化する画像範囲に対して、黒側補正データや白側補正データを追加することで3Dクロストークの影響を軽減する方法が提案されている。また、黒側補正データ及び白側補正データにローパスフィルタ等の画像ぼかし処理を施して、なだらかな補正データを追加することで、人間の眼に二重像が視認されにくいようにして、3Dクロストークによる二重像の影響を軽減する方法が提案されている(特許文献1)。
また、立体画像コンテンツの基の画像データから、3Dクロストークにより混入する画像成分を減算した画像データを生成し、その画像データを表示することで、3Dクロストークによる二重像の影響を軽減する方法が提案されている(特許文献2、3)。3DクロストークによりL画像にR画像の画像成分がα%だけ混入する場合には、式(1)により、画像データの補正処理を実施している。
(x,y)=L(x,y)−α×R(x,y) 式(1)
ここで、L(x,y)は、補正処理後のL画像の輝度値を示す。L(x,y)は,元データとなる立体画像コンテンツのL画像の輝度値を示す。αは3Dクロストーク量(混入する画像成分の割合)を、R(x,y)は元データとなる立体画像コンテンツのR画像の輝度値を、それぞれ示す。
また、3Dクロストークによる二重像が投影される観察位置では、2視点の画像データの内、どちらか一方の画像データを黒色画像に変換して、他方の画像データだけを投影することで、3Dクロストークによる二重像の影響を軽減する方法が提案されている(特許文献4)。
また、観察者の観察位置を計測し、その観察位置に応じて、多視点の視差画像を生成するサブピクセル内の輝度調整処理を実施することで、3Dクロストークによる二重像を軽減する立体画像表示装置が提案されている(非特許文献1)。
また、液晶シャッタ眼鏡方式の立体画像表示装置において、視差量に基づいて立体画像コンテンツの左眼用画像(L画像)と右眼用画像(R画像)とにローパスフィルタ等で画像ぼかし処理を実施して、眼鏡のシャッタ切替時の遅れによって発生する3Dクロストークの二重像の影響を軽減する方法が提案されている(特許文献5)。
また、液晶シャッタ眼鏡方式の立体画像表示装置において、メガネシャッタのタイミング、液晶パネルのタイミング、バックライトのタイミングのずれ(変化スピード)により生じる3Dクロストークの二重像の影響を軽減するために、画像データの輝度値のダイナミックレンジを広げて、3Dクロストークによる二重像が表示される時間を短縮する方法が提案されている(非特許文献2)。
また、立体画像表示装置の表示方式(液晶シャッタ眼鏡、偏光式眼鏡)に合わせて、3Dクロストークによる二重像の影響を軽減する画像データへ切替えることで、様々な表示方式の立体画像表示装置を使用しても3Dクロストークの二重像の影響を軽減する方法が提案されている(特許文献6)。
また、同じ視差の立体画像コンテンツを表示しても、立体画像表示装置と観察者の観察位置との距離によって、観察者が観察する立体画像コンテンツの視差は変化する。立体画像表示装置と観察者の観察位置との距離が近すぎると、立体画像コンテンツの視差が大きくなり、立体画像を視認できなくなる問題を解決するために、立体画像表示装置と観察者の観察位置との距離に応じて、立体画像コンテンツの視差を調整して立体画像を表示する方法が提案されている(特許文献7)。
また、立体画像表示装置は、飛び出し表示される立体画像コンテンツが画枠に隠れて、部分的に表示されると、観察者へ画枠歪みと呼ばれる違和感を与える。平面画像表示の場合では、画枠より画像コンテンツが後方にあるため、観察者はコンテンツの全景が見えていないと視認できるが、立体画像表示の場合では、画枠より立体画像コンテンツが前方に表示されていても、画枠によって部分的に立体画像コンテンツが隠れて表示されるので、観察者へ違和感を与える。そこで、多眼方式の立体画像表示装置において画枠歪みの問題を解決するために、画枠歪みの原因となる立体表示領域外に表示される立体画像コンテンツを透明にして非表示化する方法が提案されている(特許文献8)。
また、立体画像の閲覧による疲労を軽減するために、立体画像となる画像データをぼかし処理する方法が提案されている(特許文献9)。
また、人間の眼では、それが持つピント機能により、遠くにある物体を見るとボケが発生する。しかし、立体画像表示装置で立体画像を表示する場合には、同一平面上のパネルから立体画像を投影するために、人間の眼が持つピント機能によるボケが発生しない。この状態を軽減するために、観察者の観察位置を計測して、立体画像となる画像データのぼかし処理を実施する方法が提案されている(特許文献10)。
特開2011−166744号公報 特開2001−298754号公報 特開2002−095010号公報 特開2008−089787号公報 特開2011−040946号公報 特開2012−039592号公報 特開2012−044308号公報 特開2005−252459号公報 特開2011−082829号公報 特開2011−244349号公報
立体画像表示用の眼鏡が不要な裸眼の立体画像表示装置は、観察者の観察位置によっては3Dクロストークによる二重像の影響が大きく発生するため、観察者へ違和感を与えてしまうだけでなく、低画質の立体画像表示装置の場合には映像酔いや眼精疲労など生理的な不安定感を招く1つの要因となり、裸眼の立体画像表示装置の普及を妨げる原因となっていた。
これらの問題を解決する方法として、特許文献1が提案されているが、特許文献1は観察者の観察位置を考慮して画像データのぼかし量を調整していないため、観察者の観察位置が移動すると、3Dクロストークによる二重像の影響を軽減する画像ぼかし処理が実施できないという課題を有する。
また、特許文献2、3は、画像データから3Dクロストークにより混入する画像成分を減算して、3Dクロストークによる二重像の影響を軽減しているが、減算による画像処理方法では3Dクロストーク量が小さく、混入する画像成分がわずかなときにしか適用できない。3Dクロストーク量が大きいと基の画像データから混入する画像成分を減算できずに、混入する画像成分を完全に除去できない画像範囲が現れる。したがって、観察者の観察位置が移動して、3Dクロストーク量が大きくなると、3Dクロストークによる二重像の影響を軽減できないという課題を有する。
また、特許文献4では、片方の画像データを黒色画像に変換することで、3Dクロストークによる二重像の影響は除去できるが、もう片方の画像データだけが観察者に投影されるため、観察者に投影される画像データの輝度値が低下するという課題を有する。更に、特許文献4には、輝度値低下の対策としてバックライトの出力を増加することが記載されているが、消費電力が多くなること及びバックライトの寿命が短くなること等の課題を有する。また、2視点の画像データ(右眼用画像と左眼用画像)を観察者へ投影する立体画像表示装置では、片方の画像データを黒色画像に変換すると、観察者のもう片方の眼に黒色画像のみが投影される可能性があるため、特許文献4の画像処理方法は適用できないという課題を有する。
また、非特許文献1では、観察者の観察位置を計測し、その観察位置に応じて、多視点の視差画像を生成するサブピクセルの輝度調整処理を実施することで、3Dクロストークによる二重像を軽減できるが、サブピクセルオーダーでの輝度調整処理が必要となり、処理が煩雑になるという課題を有する。また、特許文献4と同様に、2視点の画像データ(右眼用画像と左眼用画像)を観察者へ投影する立体画像表示装置では、サブピクセルの輝度調整処理によって輝度値が低下すると、観察者のもう片方の眼に輝度値が低下したサブピクセルのみが投影される可能性があるため、非特許文献1の画像処理方法は適用できないという課題を有する。
また、特許文献5と非特許文献2では、液晶シャッタ眼鏡式の立体画像表示装置における3Dクロストークの二重像の影響を軽減できるが、裸眼式の立体画像表示装置における3Dクロストークの対策を考慮しておらず、観察者の観察位置を考慮して画像データのぼかし量を調整していないため、観察者の観察位置が移動すると、3Dクロストークによる二重像の影響を軽減する画像ぼかし処理が実施できないという課題を有する。
また、特許文献6では、立体画像表示装置の表示方式に合わせて、3Dクロストークの影響を軽減する画像データへ切替えて表示する方法が開示されているが、裸眼式の立体画像表示装置の表示方式を考慮していないため、裸眼式の立体画像表示装置では、3Dクロストークによる二重像の影響を軽減できないという課題を有する。
また、特許文献7では、立体画像表示装置と観察者の観察位置との距離に応じて、立体画像コンテンツを視差調整処理する方法が提案されているが、レンチキュラレンズやパララックスバリアを使用して右眼用画像と左眼用画像とを空間的に分離して投影する裸眼式の立体画像表示装置において出現する3Dクロストークによる二重像の影響を軽減する画像フィルタ処理方法(視差調整量の算出方法)が考慮されていないため、3Dクロストークによる二重像の影響を軽減できないという課題を有する。
また、特許文献8では、画枠歪みの原因となる立体表示領域外に表示される立体画像コンテンツを透明にして非表示化する方法を提案しているが、レンチキュラレンズやパララックスバリアを使用して右眼用画像と左眼用画像とを空間的に分離して投影する裸眼式の立体画像表示装置において出現する3Dクロストークによる二重像の影響を軽減する画像フィルタ処理方法(透明化による非表示化方法)が考慮されていないために、3Dクロストークによる二重像の影響を軽減できないという課題を有する。
また、特許文献9では、立体画像となる画像データをぼかし処理する方法が提案されているが、レンチキュラレンズやパララックスバリアを使用して右眼用画像と左眼用画像とを空間的に分離して投影する裸眼式の立体画像表示装置において出現する3Dクロストークによる2重像の影響を軽減する画像フィルタ処理方法(画像ぼかし)が考慮されていないため、3Dクロストークによる2重像の影響を軽減できないという課題を有する。
また、特許文献10では、観察者の観察位置を計測して、立体画像となる画像データのぼかし処理を方法が提案されているが、レンチキュラレンズやパララックスバリアを使用して右眼用画像と左眼用画像とを空間的に分離して投影する裸眼式の立体画像表示装置において出現する3Dクロストークによる2重像の影響を軽減する画像フィルタ処理方法(画像ぼかし)が考慮されていないため、3Dクロストークによる2重像の影響を軽減できないという課題を有する。
そこで、本発明は、上述した問題を解決し、裸眼式の立体画像表示装置であっても、3Dクロストークによる二重像の影響を軽減して、観察者の観察位置が移動しても観察者へ違和感を与えない立体画像表示装置等を提供することを目的とする。
本発明に係る立体画像表示装置は、
少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
観察者の観察位置を計測する観察者位置計測部と、
計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出するものであって、前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する画像フィルタ値算出部と、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えたことを特徴とする。
本発明に係る画像処理装置は、
少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルへ、
画像データを出力する画像処理装置において、
前記観察者の観察位置に対する前記立体表示パネルの相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出するものであって、前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する画像フィルタ値算出部と、
前記画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えたものである。
本発明に係る立体画像処理方法は、
少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルを、
用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察位置に対する前記立体表示パネルの相対位置を算出し、
この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出し、このとき前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与し、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施し、
この画像フィルタ処理を実施された前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする。
本発明によれば、観察者の観察位置が移動しても、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる効果がある。
実施形態1の立体画像表示装置の構成図 立体画像表示装置の外観図 観察者の観測位置と立体表示パネルとの相対位置の座標系を示す図 立体画像表示装置の3Dクロストーク特性データを示す図 3Dクロストーク特性データと光学モデルとの関係図 3Dクロストーク特性データと光学モデルとの関係図 光学モデルの拡大図 正視領域・逆視領域・3Dクロストーク領域の領域幅と視野角の関係図 ガウスフィルタ形状を示す図 画像フィルタ(ガウスフィルタ)を示す図 画像フィルタ(ガウスフィルタ)を示す図 視野角に対する画像フィルタの窓幅値を示す図 3Dクロストーク量に対する各種値の関係表を示す図 視野角に対する画像フィルタの窓幅値を示す図 立体画像表示装置の3Dクロストーク特性データを示す図 視野角に対する画像フィルタの窓幅値を示す図 立体画像表示装置の3Dクロストーク特性データを示す図 視野角に対する画像フィルタの窓幅値を示す図 画像データ保管部内に保管される画像データの図 立体画像処理方法のフローチャート図 立体画像表示装置の外観図 画像処理装置の構成図 8視点での光学モデル図 4視点での光学モデル図
実施形態2の立体画像表示装置の構成図 3Dデバイス特性データのうち立体画像表示装置の輝度特性データを示す図 3Dデバイス特性データのうち立体画像表示装置の3Dクロストーク特性データを示す図 R画像の視野角に対する画像フィルタの窓幅値を示す図 L画像の視野角に対する画像フィルタの窓幅値を示す図 3Dクロストーク量に対する各種値の関係表を示す図 R画像の視野角に対する画像フィルタの窓幅値を示す図 L画像の視野角に対する画像フィルタの窓幅値を示す図 観察者の両眼の相対位置に対応した画像フィルタ値の算出条件表を示す図 R画像の視野角に対する画像フィルタの窓幅値を示す図 L画像の視野角に対する画像フィルタの窓幅値を示す図 3Dクロストークによる二重像の画像表示状態を示す図 実施形態1の画像フィルタ処理により二重像を軽減した画像表示状態を示す図 実施形態2の画像フィルタ処理により二重像を軽減した画像表示状態を示す図 立体画像処理方法のフローチャート図
実施形態3の立体画像表示装置の構成図 相対位置における二重像が現れる画像範囲を示す図 画像フィルタ処理の実施判定表を示す図 観察者の右眼・左眼に投影される画像表示状態を示す図 立体画像コンテンツの画像表示状態を示し、左眼・右眼にそれぞれ投影される画像表示状態を示す図 立体画像コンテンツの画像表示状態を示し、L画像及びR画像に適用するフィルタ処理内容を示す図 立体画像コンテンツの画像表示状態を示し、左眼・右眼にそれぞれ投影されるフィルタ処理後の画像表示状態を示す図 観察者の右眼・左眼に投影される画像表示状態を示す図 画像表示状態と3Dクロストーク特性データの関係図 立体画像処理方法のフローチャート図
実施形態4の立体画像表示装置の構成図 温度低下による光学モデルの変化を示す図 温度上昇による光学モデルの変化を示す図 低温時の立体画像表示装置の3Dクロストーク特性データを示す図 温度低下による光学モデルの変化を示す図 低温時の光学モデルの拡大図 正視領域・逆視領域・3Dクロストーク領域と視野角の関係図 立体画像処理方法のフローチャート図
実施形態5の立体画像表示装置の構成図 視差画像と視差値の関係図 視差値とLR画像の関係図 視差画像から算出した重み付け値を示す図 立体画像処理方法のフローチャート図
実施形態6の立体画像表示装置の構成図 立体画像の中央部に球物体が飛び出し表示される場合のL画像とR画像を示す図 図61のL画像とR画像の混合により発生した3Dクロストークによる二重像を示す図 L画像に適用する画像フィルタ形状を示す図 R画像に適用する画像フィルタ形状を示す図 L画像に適用する画像フィルタ値を示す図 R画像に適用する画像フィルタ値を示す図 L画像に適用する画像フィルタ値を示す図 左右非対称な画像フィルタ処理を適用したL画像とR画像を示す図 図68のL画像とR画像の混合により発生した3Dクロストークによる二重像を示す図 左右対称な画像フィルタ処理を適用したL画像とR画像を示す図 図70のL画像とR画像の混合により発生した3Dクロストークによる二重像を示す図 シフトセンサによる仮想カメラの設置図 トーインによる仮想カメラの設置図 L画像に適用する画像フィルタ形状を示す図 R画像に適用する画像フィルタ形状を示す図 立体画像処理方法のフローチャート図
実施形態7の立体画像表示装置の構成図 視野角に対する視差許容値を示す図 3Dクロストーク量に対する各種値の関係表を示す図 視野角に対する視差許容値を示す図 視野角に対するコンテンツの視差最大値を示す図 視野角に対する視差調整処理後の視差最大値を示す図 視差調整量により変更された視差画像データ群の図 画素移動によって生成したR'画像の図 立体画像処理方法のフローチャート図
パララックスバリアの光学モデル図 パララックスバリアの光学モデル図 レンチキュラレンズの光学モデル図 3Dクロストーク領域を説明する光学モデル図 実施形態8の立体画像表示装置の構成図 視野角に対する仮想的なカメラの視点位置を示す図 立体画像コンテンツと仮想的なカメラの視点位置との概念図 立体画像表示装置と視野角との概念図 視野角に対する仮想的なカメラの視点位置を示す図 視野角に対する画像フィルタの窓幅値を示す図 視野角に対する仮想的なカメラの視点位置の概念図 視野角に対する仮想的なカメラの視点位置の概念図 視野角に対する4視点の仮想的なカメラの視点位置を示す図 立体画像処理方法のフローチャート図 視野角に対する仮想的なカメラの視点位置を示す図 視野角に対する画像フィルタの窓幅値を示す図 視野角に対する仮想的なカメラの視点位置を示す図 視野角に対する仮想的なカメラの視点位置を示す図
以下、添付図面を参照しながら、本発明を実施するための形態(以下「実施形態」という。)について説明する。
[実施形態1]
実施形態1の立体画像表示装置の構成について下記に説明する。図1は立体画像表示装置11の構成図である。立体画像表示装置11は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107とを備えるものである。また、相対位置算出部102、画像フィルタ値算出部104、画像フィルタ処理部106を統合した処理部を、画像処理部151とする。
図2に、立体画像表示装置11の外観図を示す。図3に、観察者10の観測位置と立体表示パネル107aとの相対位置の座標系を示す。立体表示パネル107aは立体表示パネル部107の一部であり、カメラ101aは観察者位置計測部101の一部である。立体画像表示装置11は、立体表示パネル107aの上部にカメラ101aが設置されており、カメラ101aによって観察者10を撮影することで観察者10の観察位置を計測する。また、カメラ101aと立体表示パネル107aの設置位置は固定されているため、カメラ101aで観察者10を撮影することで、観察者10の観察位置と立体表示パネル107aとの相対的な位置を算出できる。
立体表示パネル107aは、少なくとも第1視点用のサブ画像を表示するサブ画素及び第2視点用の画像を表示するサブ画素を含む画素がマトリクス上に複数に配列された電気光学手段としての表示パネルと、前記それぞれの画像を所定の異なる方向に分離可能な光線分離手段から構成される。一例として、電気光学手段としての表示パネルは、液晶方式、有機EL方式、プラズマ方式などを用いることができ、光線分離手段としてレンチキュラレンズ、パララックスバリア、液晶レンズなどを用いることができる。本実施形態では表示パネル2とレンチキュラレンズ3との組合せを用いて説明することとする(図5参照)。なお、特許請求の範囲に記載の「第1の方向」の一例が図3におけるX軸方向であり、同じく「光学手段」の一例が前述の光線分離手段である。
また、立体表示パネル107aの後方部には、画像処理部151、デバイス特性データ保管部103、画像データ保管部105の機能を実現する計算機器150が設置されている。
以下に、立体画像表示装置11に含まれる各部の機能を説明する。
観察者位置計測部101は、立体表示パネル107aに表示する立体画像コンテンツを観察している観察者の位置を計測する機能を有する。観察者位置計測は立体表示パネル107aの上部に設置されたカメラ101aで観察者を撮影することで、観察者10の右眼と左眼の位置を計測する。観察者10の観察位置の計測はカメラ101aの撮像面に水平方向(X軸、Y軸)の位置だけでなく、カメラ101aに対して奥行き方向(Z軸)の位置も計測する。カメラ101aに対して奥行き方向の距離を計測する方式は多数提案されている。
その一つ目は、光パタン投影方式であり、カメラとは異なる視点から観察者へ赤外線等の光パタンを投影して、その変位量から三角測量の原理によって奥行き距離を計測するものである。光パタン投影方式を採用した計測機器は、近年、家庭用ゲーム機やPC周辺機器として製品化されている。
その二つ目は、TOF(Time of Flight)方式であり、カメラから観察者へ近赤外線の正弦波光を照射し、観察者から反射された正弦波光がカメラまでに到達する光飛行の時間差から、奥行き距離を計測するものである。近年、TOFセンサの性能向上は目覚しく、小型で安価なカメラにより奥行き距離が計測できるようになりつつある。
その三つ目は、多眼カメラ方式であり、異なる視点にカメラを2台以上設置する。奥行き距離の計測は、任意視点の画像から観察者の特徴点を検出し、異なる視点の画像から特徴点に対応する点を探索して三角測量の原理から奥行き距離を算出する。
その四つ目は、レンズの焦点情報を利用した方式であり、被写界深度の異なる光学系レンズを利用して様々な焦点で撮影した多焦点画像群から観察者の奥行き距離を計測する。
以上、奥行き距離の計測方式を4つ挙げたが、本実施形態1はいずれの方式も採用できる。また、これ以外の計測方式でも良く、例えば、観察者の顔のサイズを予め保存しておき、カメラで撮影された観察者の顔画像サイズと比較することで奥行き距離を計測しても良い。
撮影画像から観察者の顔を検出する処理は、予め顔画像の特徴量(目や鼻、口、顎など)からテンプレートデータを生成しておき、撮影画像とテンプレートデータをマッチングすることで観察者の顔を検出する。テンプレートデータは、観察者の顔画像からサポートベクターマシン(SVM)やベクトル量子化などの機械学習手法を利用して生成する。これらの顔検出機能は、汎用のソフトウェアを利用することも可能である。また、顔検出機能ソフトウェアは、奥行き情報を使用することで、顔の向きを考慮した顔検出処理も実現できるため、検出精度はさらに向上する。
以上の処理により、観察者10の顔を検出して、右眼・左眼の位置を計測する。その他の例としては、カメラを利用せずに、加速度センサやジャイロセンサを利用しても良い。予め立体画像表示装置11に各種のセンサを設置しておき、センサから得られる位置情報を参照することで、観察者10の観察位置を計測する。
相対位置算出部102は、立体表示パネル107aから観察者10の観察位置までの相対位置を算出する機能を有する。図3に示すように、相対位置は立体表示パネル107aの中心を原点として、立体表示パネル107a面上の横方向をX軸、立体表示パネル107a面上の縦方向をY軸、立体表示パネル107a面上に垂直な方向をZ軸とおき、観察者10の観察位置までの相対位置を算出する。この相対位置は、観察者位置計測部101で計測された観察者の右眼・左眼の位置から、カメラ101aの設置位置から立体表示パネル107aの設置位置までの距離を引算して算出する。また、視野角θは相対位置(X軸、Y軸、Z軸の座標値)から算出する。視野角θとX軸、Y軸、Z軸の座標値との関係式は式(2)となるので、視野角θは式(3)より算出される。
tanθ=X/Z 式(2)
θ=tan−1(X/Z) 式(3)
デバイス特性データ保管部103は、立体表示パネル107aの視野角に対する3Dクロストーク特性データを保管する機能を有する。図4に3Dクロストーク特性データの一例を示す。3Dクロストーク特性データの横軸は視野角θを、縦軸は3Dクロストーク量を表す。3Dクロストーク量は、右眼用画像(R画像)に左眼用画像(L画像)が混合する割合を表す(逆の混合も表す:L画像にR画像が混合する割合)。3Dクロストーク特性データは、立体表示パネル107aのデバイス特性によって異なる値をとり、立体表示パネル107aの設計条件及び製造条件に基づき算出することが可能である。また、3Dクロストーク用の評価装置で立体表示パネル107aを計測しても3Dクロストーク特性データを得ることができる。この場合、立体表示パネル107aの中心であるX軸原点だけでなく(図3の座標系参照)、パネル外側の所定の±X(後述の図5における距離WP)のポイントで算出又は測定することが望ましい。本明細書では以降、3Dクロストーク特性データの図面を活用して説明するが、便宜上X軸原点の図面をベースに説明することとする。
立体画像表示装置11では、3Dクロストーク特性データに依存して右眼領域・左眼領域・3Dクロストーク領域が決定される。一例として、観察者10が立体画像を正常に視認できる3Dクロストーク量の閾値をβ以下と定義すれば、視野角θ〜θの領域が右眼領域、視野角θ〜θの領域が3Dクロストーク領域、視野角θ〜θの領域が左眼領域となる。
この場合の立体画像表示装置11における観察者10の左右両眼に右眼用画像と左眼用画像を投影する光学モデルを、図5に示す。図5では、視野角θ〜θの部分が3Dクロストーク領域となるため、図86と比較すると右眼領域70R及び左眼領域70Lは狭まる。右眼55Rにとっては、右眼領域70Rが正視領域であり、左眼領域70Lと72Lが逆視領域で、それ以外の領域が3Dクロストーク領域となる。なお、図5には、最適観察距離OD、遠隔観察距離FD、近接観察距離ND、シリンドリカルレンズ幅L、画素の幅P、立体表示パネルの中心画素の位置から両端画素の位置までの幅WPなどが記載されている。
その他の一例として、上記3Dクロストーク量の閾値をβ以下と定義すれば、図4より視野角θ〜θの領域が3Dクロストーク領域となり、それ以外の視野角は右眼領域・左眼領域となる。この場合の立体画像表示装置11の光学モデルを、図6に示す。図6では視野角θ〜θの部分が3Dクロストーク領域となるため、図5よりも一段と右眼領域70R及び左眼領域70Lは狭まる。右眼55Rにとっては、図5と同様に右眼領域70Rが正視領域、左眼領域70L,72Lが逆視領域であり、それ以外の領域が3Dクロストーク領域となる。以上より、3Dクロストーク特性データに依存して、正視領域・逆視領域・3Dクロストーク領域が決定されることを示した。
なお、3Dクロストーク量の閾値については、立体画像表示装置11の光学測定と主観評価から決定することができる。3Dクロストークを光学的に測定できる装置としては、例えばコノスコープ方式やゴニオメータ方式やフーリエ方式など各種あり、これらの方式を備えた測定装置で視野角度に対する輝度分布を測定し、以下の式(4)より3Dクロストーク量(3DCT(θ))を算出することができる。
3DCT(θ)=(Y(LBRW)−Y(LBRB))/(Y(LWRB)−Y(LBRB)) 式(4)
ここで、Y(LBRW)は左眼画像を黒とし、右眼画像を白としたときの輝度、Y(LBRB)は左眼画像を黒とし、右眼画像を黒としたときの輝度、Y(LWRB)は左眼画像を白とし、右眼画像を黒としたときの輝度である。
上記した、いずれの測定装置で測定しても定性的な結果には大きな差は見られないが、定量的な数値については測定方式や装置仕様によって異なる。一般的な測定結果と主観的な立体視域の評価結果とを照合すると、3Dクロストーク量が概ね10%以下であれば立体視は可能であり、この値を上記3Dクロストーク量の閾値として用いることができる。
図7に、図6における領域80の拡大図を示す。Z軸上の任意の値であるZとZにおける右眼領域70R・左眼領域72L・3Dクロストーク領域の領域幅は異なる。Z軸の位置に依存して正視領域・逆視領域・3Dクロストーク領域の領域幅は変化する。
また、図8に、Z軸上の任意の値Zにおける正視領域・逆視領域・3Dクロストーク領域の領域幅と視野角の関係図を示す。右眼55Rを基準にすると、視野角θ〜θの領域が逆視領域に、視野角θ〜θの領域が3Dクロストーク領域に、視野角θ〜θの領域が正視領域となる。また、視野角θの位置で最も3Dクロストーク量が大きくなり、視野角θ〜θの領域は図4より3Dクロストーク量がβ以上の領域となる。
画像フィルタ値算出部104は、前記デバイス特性データに基づき視野角に対して立体画像表示に適した画像フィルタ値を算出する機能を有する。画像フィルタ値には、立体画像コンテンツの画像データのぼかし処理(平滑化処理、ローパスフィルタ処理などとも呼ばれる。)を実施するためのフィルタ形状を適用する。画像ぼかし処理を実施する代表的なフィルタ形状としては、平均化フィルタ、メディアンフィルタ、ガウシアンフィルタ等が挙げられる。以下の一例では、ガウシアンフィルタを使用する例を記載する。
図9に、立体画像コンテンツの画像データに適用するガウシアンフィルタ形状を示す。図9は、2次元のガウシアンフィルタ形状を示し、X軸は画像データの横軸方向に、Y軸は画像データの縦軸方向に対応する。ガウシアンフィルタは、ガウス分布関数の式(4)から算出する。ここで分散値σは任意の値であり、σの値が大きいとガウシアンフィルタの形状は、なだらかになり、画像ぼかし処理の効果も増大する。
Figure 0006308513
式(5)
画像フィルタ値はガウシアンフィルタを離散化した値となる。画像フィルタ値を形成する各画素の位置(x,y)に、式(5)より算出した値f(x,y)を代入することで画像フィルタ値を算出する。
図10及び図11に、ガウシアンフィルタから生成された画像フィルタ値の例を示す。画像フィルタの窓幅についてX軸方向の値をWxとし、Y軸の方向の窓幅についてWyとすると、図10は画像フィルタの窓幅を3×3画素(Wx=3、Wy=3)にした例であり、図11は画像フィルタの窓幅を5×5画素(Wx=5、Wy=5)にした例である。以下の説明では便宜上W(W=Wx=Wy)とする。画像フィルタの窓幅値Wが大きいと、画像ぼかし処理の効果も増大する。
このように画像ぼかし処理にガウシアンフィルタを使用する場合には、ガウス分布関数の分散値σの値と、画像フィルタの窓幅値Wとによって、画像フィルタ値が特定される。従って、画像フィルタ値算出部104では、分散値σの値と、画像フィルタの窓幅値Wと、を算出すれば良い。ここで、画像フィルタ値の算出では、分散値σの値は任意の定数とおき(例えばσ=1とおく)、画像フィルタの窓幅値Wだけを算出するようにしても良い。以下に、前記デバイス特性データに基づき視野角に対する画像フィルタ値を算出する例として、ガウス分布関数の分散値σの値を1とおき、画像フィルタの窓幅値Wだけを算出する例を記載する。
図12に、立体画像表示装置11のデバイス特性データ(図4参照)に基づき、観察者10の観察位置がZ上の位置にある場合の、視野角θに対する画像フィルタの窓幅値W(θ)を算出した結果を示す。図12では、図4で前述した3Dクロストーク量の閾値をβとしたときの画像フィルタの窓幅値W(θ)が、逆視領域θ〜θ及び正視領域θ〜θと、3Dクロストーク領域θ〜θとでは、異なる値になることを示している。
図13は、この3Dクロストーク量に対する二重像の発生・3Dクロストークによる立体画像への影響・視野角範囲・領域名(逆視領域、3Dクロストーク領域、正視領域)・画像フィルタの窓幅値W(θ)の関係を示した表である。以下、図12及び図13を用いて正視領域θ〜θ、逆視領域θ〜θ、3Dクロストーク領域θ〜θの各領域に対する画像フィルタの窓幅値W(θ)について説明する。
正視領域θ〜θにおける画像フィルタの窓幅値W(θ)には、1を代入する。観察者が正視領域にいる際には、3Dクロストークによる二重像の影響は出現せず、立体画像コンテンツを正常に視認できるため、画像フィルタによるぼかし処理は実施しなくて良い。画像フィルタの窓幅値W(θ)が1であれば、ガウシアンフィルタによる画像フィルタ処理をしても立体画像コンテンツの画像データは変化しない。当然ながら、画像フィルタ処理による計算量を削減するため、画像フィルタの窓幅値W(θ)に1を代入せずに、画像フィルタ処理の実施を中止する命令値を代入しても良い。
逆視領域θ〜θにおける画像フィルタの窓幅値W(θ)にも、1を代入する。逆視領域では、立体画像コンテンツの視差値が反転して表示される逆視の影響が生じる。このため、逆視領域では、L画像とR画像を入れ替えて表示することで、逆視の影響を解決しても良い。L画像とR画像を入れ替えることで、逆視領域θ〜θにおいても正視領域θ〜θと同様に立体画像コンテンツを正常に視認できる。
3Dクロストーク領域θ〜θにおいては、3Dクロストーク量に応じて画像フィルタの窓幅値W(θ)が細分化されている。3Dクロストーク量がβ〜β(視野角範囲θ〜θ)の範囲では、軽度な二重像が発生し、観察者へ違和感を与えるものの立体画像は視認可能である。これに対して3Dクロストーク量がβ以上(視野角範囲θ〜θ)の範囲では、二重像の影響が増大し、観察者が立体画像を視認することはほぼ不可能となる。したがって、二重像の影響の大きさに従い、画像フィルタの窓幅値W(θ)の設定を行うことが望ましい。
具体的には、図4のデバイス特性データから3Dクロストーク量を参照して、その量に適した画像フィルタの窓幅値W(θ)を設定する。図12及び図13の画像フィルタの窓幅値W(θ)は、3Dクロストーク量が閾値β以上の場合では画像フィルタの窓幅値W(θ)を任意に定めた窓幅値W以下とし、3Dクロストーク量が閾値β以上の場合では画像フィルタの窓幅値W(θ)を任意に定めた視差値W以下とする条件で算出している。
なお、画像フィルタの窓幅値W(θ)の算出条件となる窓幅値W,Wは、多くの観察者に対する主観評価によって特定することが一般的であるが、観察者の好みに応じて任意に設定することもできる。例えば、観察者が特定されるモバイル機器等の立体画像表示装置では、観察者が初めてモバイル機器を利用する際に、窓幅値W,Wを観察者の好みに応じて設定できるようにしても良い。画像フィルタの窓幅値W(θ)が大きいと、画像ぼかし処理の効果が増大するため、3Dクロストークによる二重像の影響は軽減されるが、立体画像コンテンツの画像品質は低下する。また反対に、画像フィルタの窓幅値W(θ)が小さいと、画像ぼかし処理の効果が減少するため、立体画像コンテンツの画像品質は保たれるが、3Dクロストークによる二重像の影響は軽減されない。したがって、窓幅値W,Wを特定する主観評価実験では、評価者へ様々な種類の立体画像コンテンツ(視差値、コントラスト、明るさ、色味の空間周波数の異なる立体画像コンテンツ)を提示して、主観評価によって得られる結果を集計することが望ましい。また、立体画像表示の安全性を高めるために、窓幅値Wを主観評価の集計値よりも若干大きな値に設定しても良い。観察者に対する主観評価の実験結果は、様々な文献に示されており、これらの文献から窓幅値W,Wを特定しても良い。
3Dクロストーク領域の画像フィルタの窓幅値W(θ)は、視野角θにおける窓幅値が1である点と、視野角θにおける窓幅値Wの点と、3Dクロストーク領域の中心位置となる視野角θにおける窓幅値Wの点と、視野角θにおける窓幅値Wの点と、視野角θにおける窓幅値が1である点と、を通るように線で補間して繋ぐことで各々の視野角θに対する画像フィルタの窓幅値W(θ)を算出する。点群同士を補間する線については、図12のように2次補間(多項式補間)を使用しても良いし、図14ように線形補間を使用しても良い。また、画像フィルタの窓幅値W(θ)は整数であることが望ましいので、小数値を四捨五入することで整数値に近似しても良い。
図12、図13及び図14では、画像フィルタの窓幅値W(θ)の算出条件として3Dクロストーク量の閾値β,βを設定した例を示したが、3Dクロストーク量の閾値は二つだけに限定されずに、より多くの閾値を設定しても良い。
図15及び図16に、3Dクロストーク量の閾値β,βに新たな閾値βを追加した例を示す。図15は3Dクロストーク特性データを示し、閾値β,βの間に閾値βを追加している。ここで、閾値βに対応する3Dクロストーク特性データの視野角はθ,θとなる。図16は視野角θに対する画像フィルタの窓幅値W(θ)を示し、画像フィルタの窓幅W(θ)の算出条件に視野角θ,θにおける窓幅値Wを追加している。図16の画像フィルタの窓幅値W(θ)は新たに追加された窓幅値Wの点を加えて、点群同士を線で補間して繋ぐことで各々の視野角θに対する画像フィルタの窓幅値W(θ)を算出する。
その他の例として、図17及び図18に、図4で示した3Dクロストーク量の閾値をβだけに変更した例を示す。図17は3Dクロストーク特性データを示し、閾値βに対応する3Dクロストーク特性データの視野角はθ,θになる。図18は視野角θに対する画像フィルタの窓幅値W(θ)を示し、画像フィルタの窓幅値W(θ)の算出条件は視野角θにおける窓幅値Wのみとなる。これより、視野角θにおける窓幅値が1である点と、視野角θにおける窓幅値Wの点と、視野角θにおける窓幅値が1である点と、を通るように線で補間して繋ぐと、画像フィルタの窓幅値W(θ)は図18のように直線となる。
また、上記の例では観察者の観察位置がZ上の位置にある場合の画像フィルタの窓幅値W(θ)の算出方法を示したが、上記の算出方法は観察者の観察位置がZ上の位置にある場合のみに限定されるものではなく、観察者の観察位置がその他の位置(例えばZ)にいる場合についても同様の算出方法が使用できる。以上より、画像フィルタ値算出部104は、視野角に対する画像フィルタの窓幅値W(θ)を、デバイス特性データに基づく閾値の算出条件から算出することで、立体画像表示装置11に適した画像フィルタ値を算出する。
また、上記の例では、W=Wx=Wyとして正方形型の画像フィルタを使用した例を示したが、Wyは必ずしもWxと同じ値でなくても良い。3Dクロストークによる二重像の影響はX軸方向に顕著に現れるため、Wx>Wyとした長方形型の画像フィルタを使用しても良い。なお、Wyの値は立体画像コンテンツの画像データに応じて変更することも可能である。
また、上記の例では、ガウシアンフィルタの分散値σ=1とし、画像フィルタの窓幅値W(θ)を算出して画像フィルタ値を特定する方法を示したが、反対に画像フィルタの窓幅値W(θ)を定数(例えば20×20画素)とおき、ガウシアンフィルタの分散値σを算出して画像フィルタ値を特定しても良い。σの算出方法は、画像フィルタの窓幅値W(θ)と同様に、観察者の主観評価実験により、3Dクロストーク量の閾値β1,βに対応するσ,σを特定し、σ,σから視野角θに対する分散値σ(θ)を算出する。これより、3Dクロストーク量が大きくなるにつれて分散値σの値を大きくし、画像ぼかしの効果を増大させる。また、当然ながら、ガウスフィルタの分散値σと画像フィルタの窓幅値Wとの両方を変数とおき、両方の値を算出して画像フィルタ値を特定しても良い。この算出方法の一例としては、初めに分散値σ(θ)の値を固定して、画像フィルタの窓幅値W(θ)を算出し、次に算出した画像フィルタの窓幅値W(θ)に適した分散値σ(θ)を上記と同様の方法で算出する。
画像データ保管部105は、画像データを保存又は受信する機能を有する。図19に、画像データ保管部105に保管する画像データの一例を示す。図19には、立体画像コンテンツの画像データとしてL画像及びR画像が保管されている。L画像は左眼領域に投影される左眼用画像であり、R画像は右眼領域に投影される右眼用画像である。LR画像(L画像とR画像)の各画素値には輝度値(RGB値)が保持されており、このLR画像が立体表示パネル107a上に表示される。
また、画像データ保管部105には、予めに様々な画像フィルタ値で、画像フィルタ処理された後のLR画像の画像データ群を保管しておいても良い。立体画像表示処理時に画像データ保管部105から画像フィルタ処理された後の画像データを取得することで、立体画像表示処理時の画像フィルタ処理時間を短縮する。
画像フィルタ処理部106は、画像フィルタ値算出部104で算出した画像フィルタ値に従って、画像データ保管部105に保管されている画像データへ、画像フィルタ処理を実施する機能を有する。画像フィルタ処理では、画像データの各画素に、画像フィルタ値をコンボリューションする。これより、立体画像コンテンツの画像データであるL画像及びR画像から、画像フィルタ処理された後の立体画像コンテンツの画像データとなるL画像及びR画像を生成する。
立体表示パネル部107は、画像フィルタ処理された画像データを前記相対位置に応じて右眼・左眼に投影する機能を有する。立体表示パネル部107では、画像フィルタ処理されたL画像及びR画像を取得して、立体表示パネル107aによりL画像及びR画像を投影することで、立体画像コンテンツを表示する。
本実施形態1の立体画像表示装置11における立体画像処理方法のフローチャートについて、図20を参照して説明する。
ステップS101は、観察者位置計測部101を使用して観察者の観察位置を計測する。
ステップS102は、相対位置算出部102を使用して観察者10の観察位置と立体表示パネル107aとの相対位置を算出する。ステップS102では、相対位置として、立体表示パネル107aの中心位置を原点とした際の観察者10の観察位置(Z軸方向の距離Zpと視野角θp)を算出する。
ステップS103は、ステップS102で算出した距離Zpと視野角θpに対応する3Dクロストーク特性データと3Dクロストーク特性データの閾値β,βとを、デバイス特性データ保管部103から取得する(一例として図4参照)。また、3Dクロストーク特性データの閾値βに対応する画像フィルタの窓幅の最大値Wと、閾値βに対応する画像フィルタの窓幅の最大値Wとを取得する(一例として図13参照)。
ステップS104は、画像フィルタ値算出部104を使用して、ステップS103で取得した3Dクロストーク特性データから、ステップS102で算出した相対位置となる視野角θpに対する画像フィルタの窓幅値Wpを算出する。
一例として図12を参照して算出方法を記す。最初に、ステップS103で取得した3Dクロストークデータの閾値β,βから、正視領域の視野角範囲θ〜θと、逆視領域の視野角範囲θ〜θと、3Dクロストーク領域の視野角範囲θ〜θとを特定する。次に、正視領域の視野角範囲θ〜θ及び逆視領域の視野角範囲θ〜θにおける画像フィルタの窓幅値W(θ)を1とする。その次に、3Dクロストーク領域の視野角範囲θ〜θにおける画像フィルタの窓幅値W(θ)を決定する。具体的には、視野角θ及び視野角θにおける画像フィルタの窓幅値が1である点と、視野角θ及び視野角θにおける画像フィルタの窓幅値がWの点と、視野角θにおける画像フィルタの窓幅値がWの点と、を線で補間して繋ぐことで、視野角範囲θ〜θにおける画像フィルタの窓幅値W(θ)を決定する。以上のように、視野角範囲θ〜θにおける画像フィルタの窓幅値W(θ)をあらかじめ求めた上で、ステップS102で算出した相対位置となる視野角θpに対する画像フィルタの窓幅値Wpを算出する。次に、画像ぼかし処理を実施する任意の画像フィルタ形状(ガウシアンフィルタ等)を適用して、算出した画像フィルタの窓幅値Wpから画像フィルタ値を算出する。
ステップS105は、画像データ保管部105から立体画像コンテンツである画像データを取得する(一例として図19を参照)。
ステップS106は、画像フィルタ処理部106を使用して、ステップS104で算出した画像フィルタ値に従って、ステップS105で取得した画像データに画像フィルタ処理を実施する。ステップS106の画像フィルタ処理では、画像データの各画素に、画像フィルタ値をコンボリューションして、画像フィルタ処理後の画像データを生成する。
ステップS107は、立体表示パネル部107を使用して、ステップS106で画像フィルタ処理した画像データを立体表示パネル107a上に立体画像表示する。
ステップS108は、立体画像表示処理を中止するか、連続的に実行するかを設定する。立体画像表示装置11の電源がOFFされたときや、観察者10によって立体画像表示の中断が指示されたときには、立体画像表示処理を中止する。立体画像表示処理を中止するイベントが無ければ、立体画像表示処理を連続的に実行する。ステップS108で立体画像表示処理が中止された場合は、立体画像表示処理を終了する。ステップS108で立体画像表示処理が連続的に実行される場合は、ステップS101の処理に戻り、ステップS101〜ステップS108までの処理を繰り返して実行する。
以上より、観察者10の観察位置とデバイス特性データに基づき算出された画像フィルタ値に従って、画像データの画像フィルタ処理を実施することにより、3Dクロストークによる二重像の影響を軽減して、観察者10の観察位置が移動しても観察者10へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。
また上記のフローチャートでは、立体画像表示処理時に観察者10の観察位置と立体表示パネル107aの相対位置、すなわち、立体表示パネル107aの中心位置を原点とした際の観察者10の観察位置(Z軸方向の距離Zpと視野角θp)を算出し、視野角θpに対する画像データの画像フィルタの窓幅値Wpを算出して、画像データの画像フィルタ処理を実施する例を記載したが、予め画像フィルタの窓幅値Wpによって画像フィルタ処理された画像データ群を用意しておくことで、立体画像表示処理時の計算時間を短縮しても良い。複数の画像フィルタの窓幅値W(θ)を用いて画像フィルタ処理された画像データ群を予め用意することも可能である。
この場合には、立体画像表示処理前に予めステップS103〜ステップS106の処理を実施しておき、画像フィルタ処理された視野角範囲θ〜θにおける画像データ群を、画像データ保管部105に保存しておく。立体画像表示処理時には、ステップS102より相対位置となる視野角θpを算出した後に、画像データ保管部105の視野角範囲θ〜θにおける画像データ群の中から相対位置視野角θpと関連する画像データを取得する。次に、取得した画像データをステップS107と同様に立体表示パネル107a上に立体画像表示する。これより、画像フィルタ値の算出処理と画像データの画像フィルタ処理との計算時間を大幅に短縮することができ、観察者10の観察位置の変化が頻繁に発生する場合には好適である。
ただし、この立体画像処理方法を実現するには、立体画像表示処理前に画像データが取得できること、画像データ保管部105の記録容量が大きいこと、が必要条件となる。したがって、立体画像表示装置11の使用状況に応じて、立体画像表示の処理方法を選択しても良い。
本実施形態1の外観図(図2)では、画像処理部151、観察者位置計測部101、画像データ保管部105及び立体表示パネル部107が一つの立体画像表示装置11内に存在する例を示したが、これらの部位をアプリケーションに応じて分離し、分離した個々の装置を統合することで立体画像表示装置11の機能を実現しても良い。
図21に、立体画像表示装置11を三つの装置に分離した例を示す。一番目は立体表示パネル部107の装置であり、二番目は観察者位置計測部101と画像処理部151とデバイス特性データ保管部103を統合した画像処理装置160であり、三番目は画像データ保管部105の装置である。三つの装置をHDMI(登録商標)やDVIなどの画像入出力ケーブル163、又はUSBやLANなどのデータ通信ケーブル若しくはW−LANなどの無線通信で接続し、各種のデータを送受信することで、立体画像表示装置11の機能を実現できる。
図22に、画像処理装置160の構成図を示す。画像処理装置160は、観察者位置計測部101、相対位置算出部102、デバイス特性データ保管部103、画像フィルタ値算出部104、画像フィルタ処理部106、画像データ受信部161及び画像データ送信部162を備えるものである。ここで、観察者位置計測部101、相対位置算出部102、デバイス特性データ保管部103、画像フィルタ値算出部104、画像フィルタ処理部106は、前述の立体画像処理装置11の各構成部と同様の機能を有する。
画像データ受信部161は、画像処理装置160の外部にある画像データ保管部105から送信される画像データを受信して、画像フィルタ処理部106に送信する機能を有する。また、画像データ送信部162は、画像フィルタ処理部106から送信される画像データを立体表示パネル部107へ送信する機能を有する。画像データ受信部161及び画像データ送信部162の一例としては、HDMIやDVIケーブル等により、画像処理装置160へ画像データを送受信するための接続端子とデータ転送機器となる。
上記は三つの装置に分離した例を示したが、分離形態はこれに限定されるものではない。本実施形態1は、3Dクロストークによる二重像の影響を軽減する画像処理部151に特徴があるため、画像処理部151と観察者位置計測部101との組み合わせで上述したような単独の画像処理装置160として提供することができる。
本実施形態1の立体画像表示装置11の光学モデル図(図5)では、立体表示パネル107aから二つの異なる視点の画像(L画像、R画像)を投影する例を示したが、視点数は二つに限定されるものではなく、多視点の画像を立体表示パネルから投影しても良い。多視点の画像を投影する場合には、観察者が両眼で観察している隣接視点画像全てに画像フィルタ処理を実施してもよいし、逆視が発生する画像同士だけを選択して画像フィルタ処理を実施してもよい。また、これらの画像フィルタ処理の選択に際しては、立体画像表示装置の視点数や隣接視点画像の視差量の大きさに応じて選択することができる。
図23に、多視点の一例として8視点の立体画像表示装置を示す。3Dクロストークは、正視領域内における70V画像−70V画像間、70V画像−70V画像間、70V画像−70V画像間、・・・、70V画像−70V画像間の7組、及び、逆視領域となる72V画像−70V画像、71V画像−70V画像の2組で発生する。一般的に8視点に用いる画像は、ある程度の運動視差を踏まえた画像群となるため、隣接視点画像間の視差量は小さいコンテンツが多い。視差量が小さくなると3Dクロストークによる二重像の影響は弱まる。したがって、このような場合は、正視領域内の7組には画像フィルタ処理を実施せずに、観察者の左眼又は右眼が上記2組の逆視領域にある場合にのみ画像フィルタ処理を施すことが望ましい。
ただし、8視点であっても、正視領域内の隣接視点画像間の視差量が大きいコンテンツを観察する場合や、隣接視点画像間の視差量がさほど大きくない場合でも、観察者の観察距離に応じて隣接視点画像間に画像フィルタ処理を実施することが望ましい。特に、観察者の観察距離によっては、左眼に70V画像、右眼に70V画像といった第1隣接視点画像を観察するのではなくて、左眼に70V画像、右眼に70V画像といった第2隣接視点画像、又は、第3隣接視点画像若しくは第4隣接視点画像を観察する状況が生じる。このときに、第2隣接、第3隣接、第4隣接と次数が大きくなるについて、両眼間に入力される画像の視差量が大きくなり、3Dクロストークに対する影響が強くなる。このように、観察者の観察位置を計測することで、どの視点画像が観察者の左眼と右眼に位置するかが検出できるため、対象とする次数の視点画像間に対して画像フィルタ処理を実施すれば良い。
図24に、多視点の他の一例として4視点の立体画像表示装置を示す。3Dクロストークは、正視領域内における70V画像−70V画像間、70V画像−70V画像間、70V画像−70V画像間の3組、及び、逆視領域となる72V画像−70V画像間、71V画像−70V画像間の2組で発生する。一般的に4視点の画像は、視点間の視差量が大きいコンテンツも少なくなく、視点間移動時にいわゆるフリッピング効果が発生する。したがって、このような場合には、フリッピング抑制効果も兼ねて、観察者の左眼が上記3Dクロストーク領域内にあるときは左眼に投影される画像データに対して画像フィルタ処理を実施し、観察者の右眼が上記3Dクロストーク領域内にあるときは右眼に投影される画像データに対して画像フィルタ処理を実施することが望ましい。ただし、4視点でも視差量が小さいコンテンツではこの限りでは無く、逆視領域のみに画像フィルタ処理をすれば良いことは言うまでもない。
その他の例としては、観察者の左眼が70V画像と70V画像との3Dクロストーク領域にあり、右眼が70V画像の正視領域にある場合は、70V画像及び70V画像だけを画像フィルタ処理して画像をぼかし、3Dクロストークによる二重像の影響を軽減する。この画像フィルタ処理を実施すると、観察者の左眼に投影される画像フィルタ処理後の70V画像及び70V画像は画像フィルタ処理によって画像がぼけてしまうが、観察者の右眼に投影される70V画像は画像ぼけが生じない。したがって、画像フィルタ処理によって3Dクロストークによる二重像の影響を軽減しても、観察者の片方の眼では、画像ぼけが無く、画像品質が保たれた状態で立体画像コンテンツを鑑賞できる。
なお、図23及び図24の両方又は一方には、視点1の領域70V、視点2の領域70V、視点3の領域70V、視点4の領域70V、視点5の領域70V、視点6の領域70V、視点7の領域70V、視点8の領域70V、視点1の領域72V、視点8の領域71V、視点4の領域71V、視点1用画素4V、視点2用画素4V、視点3用画素4V、視点4用画素4V、視点5用画素4V、視点6用画素4V、視点7用画素4V、視点8用画素4Vが記載されている。
また、上記した画像フィルタ処理は多視点方式に限らず、インテグラル方式や超多眼方式など様々な裸眼立体方式に適用できるのは言うまでもない。ここで、理想的なインテグラル方式では、逆視領域が存在しないが、この場合でも隣接視点間の視差量が所定値より大きい場合には、正視領域内の隣接視点画像間で画像フィルタ処理を実施することが有効となる。
換言すると、本実施形態1の立体画像表示装置は、観察者の観察位置を計測する観察者位置計測部と、観察者の観察位置と立体表示パネル位置の相対位置を算出する相対位置算出部と、立体表示パネルの視野角に対するデバイス特性データを保管するデバイス特性データ保管部と、前記デバイス特性データに基づき視野角に対して立体画像表示に適した画像フィルタ値を算出する画像フィルタ値算出部と、画像データを保存又は受信する画像データ保管部と、前記画像フィルタ値に従って前記画像データの画像フィルタ処理を実施する画像フィルタ処理部と、画像フィルタ処理された画像データを前記相対位置に応じて右眼・左眼に投影する立体表示パネル部を備えるものである。
本実施形態1によれば、観察者の観察位置とデバイス特性データに基づき算出された画像フィルタ値に従って、画像データの画像フィルタ処理を実施することにより、3Dクロストークによる二重像の影響を軽減して、観察者の観察位置が移動しても観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供し、課題を解決する。
[実施形態2]
本実施形態2では、立体画像コンテンツの画像データごとに異なる画像フィルタ値を算出することで、画像フィルタ処理によって立体画像コンテンツの画像データがぼけても、観察者が視認する立体画像コンテンツの画像品質の低下を抑制する画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
図25に、立体画像表示装置12の構成図を示す。立体画像表示装置12は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107とを備えるものである。また、相対位置算出部102、画像フィルタ値算出部104、画像フィルタ処理部106を統合した処理部を、画像処理部152とする。
以下に、立体画像表示装置12に含まれる各部の機能を説明する。観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像データ保管部105と、立体表示パネル部107とは、実施形態1と同様である。
画像フィルタ値算出部104は、前記デバイス特性データに基づき、視野角に対して立体画像表示に適した画像フィルタ値を算出する機能を有する。実施形態1では、立体画像コンテンツの画像データであるL画像とR画像に対して同一の画像フィルタ値を算出したが、本実施形態2では立体画像コンテンツの画像データごとに異なる画像フィルタ値を算出する。
以下の画像フィルタ値算出部104では、ガウシアンフィルタの分散値σを定数とおき、画像フィルタの窓幅値Wを算出する例を記載する。図26に、デバイス特性データ保管部103に保管されている3Dデバイス特性データを示す。図26Aは、視野角θに対する左眼用画像と右眼用画像の輝度特性データを示す。図26Bは、この輝度特性データから式(4)にて算出した、視野角θに対する3Dクロストーク特性データを示す。なお、デバイス特性データには、3Dクロストーク特性データのみを保管しても良い。
図27に、3Dクロストーク特性データ(図26B)に基づき、立体画像コンテンツのR画像における視野角θに対する画像フィルタの窓幅値W(θ)を算出した結果を示す。また、図28に、3Dクロストーク特性データ(図26B)に基づき、立体画像コンテンツのL画像における視野角θに対する画像フィルタの窓幅値W(θ)を算出した結果を示す。ここで、図27及び図28においては、画像フィルタの窓幅値が輝度特性データ(又は3Dクロストーク特性データ)と対応することを示すために、図26Aに示した輝度特性データを併せて示す。
図29は、この3Dクロストーク量に対する二重像の発生・3Dクロストークによる立体画像への影響・視野角範囲・領域名(逆視領域、3Dクロストーク領域、正視領域)・L画像における画像フィルタの窓幅値W(θ)・R画像における画像フィルタの窓幅値W(θ)の関係を示した表である。
以下、図27、図28及び図29を用いて、正視領域θ〜θ、逆視領域θ〜θ、3Dクロストーク領域θ〜θの各領域に対するL画像及びR画像における画像フィルタの窓幅値W(θ),W(θ)について説明する。なお、図29に示す正視領域θ〜θ、逆視領域θ〜θは、右眼を基準した場合の領域名であり、左眼を基準とした場合には、正視領域がθ〜θとなり、逆視領域がθ〜θとなる。このため、正視領域と逆視領域を便宜上、非3Dクロストーク領域としても良い。
正視領域θ〜θと逆視領域θ〜θにおける画像フィルタの窓幅値W(θ),W(θ)には、実施形態1と同様に1を代入する。当然ながら、画像フィルタ処理による計算量を削減するために、画像フィルタの窓幅値に1を代入せずに、画像フィルタ処理の実施を中止する命令値を代入しても良い。
3Dクロストーク領域θ〜θにおいては、3Dクロストーク量に応じて画像フィルタの窓幅値W(θ),W(θ)が細分化されている。3Dクロストーク量がβ〜β(視野角範囲θ〜θ,θ〜θ)の範囲では、軽度な二重像が発生し、観察者へ違和感を与えるものの立体画像は視認可能である。これに対して、3Dクロストーク量がβ以上(視野角範囲θ〜θ,θ〜θ)の範囲では、二重像の影響が増大し、観察者が立体画像を視認することはほぼ不可能となる。したがって、二重像の影響の大きさに従い、画像フィルタの窓幅値W(θ),W(θ)の設定を行うことが望ましい。
具体的には、図26Bの3Dクロストーク特性データからの3Dクロストーク量を参照して、その量に適した画像フィルタの窓幅値W(θ),W(θ)を設定する。図26Bの3Dクロストーク特性データより、視野角範囲θ〜θでは、観察者へ投影される画像データの主体がL画像であり、R画像の画像成分が少しだけ混入している。このため、R画像にだけ画像フィルタ処理を実施してR画像を少量ぼかし、L画像は画像品質を保つために画像フィルタ処理を実施せずにそのまま保存する。したがって、図27のR画像における画像フィルタの窓幅値W(θ)は、Y(LWRB)のカーブに対応するように1から窓幅値Wまでの値を代入し、図28のL画像における画像フィルタの窓幅値W(θ)は、1の値を代入する。
視野角範囲θ〜θでは、観察者へ投影される画像データの主体がL画像であり、R画像の画像成分が多く混入し、L画像とR画像の画像成分がほぼ同等になる。このため、L画像とR画像に画像フィルタ処理を実施して画像をぼかして保存する。したがって、図27のR画像における画像フィルタの窓幅値W(θ)と、図28のL画像における画像フィルタの窓幅値W(θ)とには、窓幅値W〜Wの値が代入される。
視野角範囲θ〜θでは、観察者へ投影される画像データの主体がR画像であり、L画像の画像成分が多く混入し、L画像とR画像の画像成分がほぼ同等になる。このため、R画像とL画像に画像フィルタ処理を実施して画像をぼかして保存する。したがって、図27のR画像における画像フィルタの窓幅値W(θ)と、図28のL画像における画像フィルタの窓幅値W(θ)とには、窓幅値W〜Wの値が代入される。
視野角範囲θ〜θでは、観察者へ投影される画像データの主体がR画像であり、L画像の画像成分が少しだけ混入している。このため、L画像にだけ画像フィルタ処理を実施して画像を少しぼかし、R画像は画像品質を保つために画像フィルタ処理を実施せずにそのまま保存する。したがって、図27のR画像における画像フィルタの窓幅値W(θ)には窓幅値1の値が代入され、図28のL画像における画像フィルタの窓幅値W(θ)には、Y(LBRW)のカーブに対応するように1〜Wの値が代入される。なお、画像フィルタの窓幅値W(θ),W(θ)の算出条件となる窓幅値W,Wは、実施形態1と同様に観察者に対する主観評価結果から特定する。
R画像における3Dクロストーク領域の画像フィルタの窓幅値W(θ)は、視野角θにおける窓幅値が1である点と、視野角θにおける窓幅値がWである点と、3Dクロストーク領域の中心位置となる視野角θにおける窓幅値がWである点と、視野角θにおける窓幅値がWの点と、視野角θにおける窓幅値が1である点と、視野角θにおける窓幅値が1である点とを、線で補間して繋ぐことで各々の視野角θに対する画像フィルタの窓幅値W(θ)を算出する。L画像に対しても同様の方法で、視野角θに対する画像フィルタの窓幅値W(θ)を算出する。
上記の例では、視野角範囲θ〜θではL画像における画像フィルタの窓幅値W(θ)に窓幅値W〜Wの値を代入したが、画像データの画像品質を保つために画像フィルタの窓幅値W(θ)に1の値を代入して、L画像への画像フィルタ処理は実施せずにそのまま保存しても良い。これより、3Dクロストークの影響を軽減する効果は弱まるが、視野角範囲θ〜θにおいても画像品質を保った状態で立体画像コンテンツを表示できる。この場合におけるR画像の視野角に対する画像フィルタの窓幅値W(θ)を図30に、L画像の視野角に対する画像フィルタの窓幅値W(θ)を図31に示す。
また、上記の例では、輝度特性データ又は3Dクロストーク特性データを参照して、画像フィルタの窓幅値W(θ),W(θ)を算出する例を示したが、この特性データに加えて、観察者の右眼と左眼それぞれの相対位置を考慮して、画像フィルタの窓幅値W(θ),W(θ)を算出しても良い。観察者の右眼と左眼それぞれの相対位置を考慮せずに、3Dクロストーク特性データだけを参照すると、3Dクトストークによる二重像の影響を軽減する処理が優先して実施されるため、右眼と左眼それぞれの観察位置から算出された画像フィルタの窓幅値を比較して、大きくなる方の窓幅値が画像フィルタ値として適用される。
この際の画像フィルタの窓幅値W(θ),W(θ)を算出する例を、図32に示す。観察者の左眼が視野角範囲θ〜θ(3Dクロストーク領域)にあり、右眼が視野角範囲θ〜θ(正視領域)にある場合に、3Dクロストークによる二重像の影響を軽減するため、R画像に対して画像ぼかしが実施される。観察者の右眼では、3Dクロストークによる二重像の影響が軽減され、L画像を主体とする画像データが観察者へ投影されるが、観察者の右眼には、画像がぼけて画像品質が低下したR画像が投影されてしまう。このような問題を解決するために、3Dクロストーク特性データだけでなく、観察者の両眼の相対位置も考慮して、画像フィルタ値を算出する。
例えば、観察者の左眼が視野角範囲θ〜θ(3Dクロストーク領域)にあり、右眼が視野角範囲θ〜θ(正視領域)にある場合には、右眼の相対位置を考慮して、R画像には画像フィルタ処理を実施せず、その代わりにL画像に画像フィルタ処理を実施して、L画像だけをぼかすことで、3Dクロストークによる二重像の影響を軽減する。
図32に、観察者の両眼の相対位置を考慮して画像フィルタ値を算出するための条件表を示す。
観察者の左眼が3Dクロストーク領域にあり、右眼が正視領域にあるときは、L画像だけをぼかすため、R画像の窓幅値W(θ)を1とおき、L画像の窓幅値W(θ)を1〜Wの値となるように画像フィルタ値を算出する。
ここで、Wは、図27及び図28に示すWより大きい値に設定する。これは、両眼の相対位置を考慮するために、R画像よりもL画像の方が輝度値の高い3Dクロストーク画像となっても、輝度値の高いL画像のみをぼかして、3Dクロストークによる二重像の影響を軽減することに起因する。
観察者の左眼が3Dクロストーク領域にあり、右眼が逆視領域にあるときは、R画像だけをぼかすため、L画像の窓幅値W(θ)を1とおき、R画像の窓幅値W(θ)を1〜Wの値となるように画像フィルタ値を算出する。
観察者の左眼が正視領域にあり、右眼が3Dクロストーク領域にあるときは、R画像だけをぼかすため、L画像の窓幅値W(θ)を1とおき、R画像の窓幅値W(θ)を1〜Wの値となるように画像フィルタ値を算出する。
観察者の左眼が逆視領域にあり、右眼が3Dクロストーク領域にあるときは、L画像だけをぼかすため、R画像の窓幅値W(θ)を1とおき、L画像の窓幅値W(θ)を1〜Wの値となるように画像フィルタ値を算出する。
観察者の左眼と右眼が3Dクロストーク領域にあるときは、L画像とR画像のどちらか一方の画像を選択して、画像ぼかしを実施するため、R画像の窓幅値W(θ)又はL画像の窓幅値W(θ)のどちらか一方の窓幅値を1〜Wの値となるように画像フィルタ値を算出する。
図32の条件表におけるR画像の視野角θに対する画像フィルタの窓幅値W(θ)を図33に、L画像の視野角θに対する画像フィルタの窓幅値W(θ)を図34に示す。
観察者の左眼が視野角範囲θ〜θにあっても、右眼が正視領域にあってR画像が投影されている場合には、R画像はそのまま保存し、L画像だけに画像ぼかしを実施する。視野角範囲θ〜θではL画像を主体とした画像が投影されるため、L画像の画像フィルタの窓幅値W(θ)を広くし、画像ぼかし効果を高めることで、3Dクロストークによる二重像の影響を軽減する。
ここで、図33の視野角θ及び図34の視野角θにおける画像フィルタの窓幅値Wと、図33の視野角θ及び図34の視野角θにおける画像フィルタの窓幅値Wとは、実施形態1と同様に観察者に対する主観評価によって特定することが一般的である。主観評価以外の特定方法としては、画像フィルタの窓幅値W,Wを、画像フィルタの窓幅値W,Wを参照して、式(11)及び式(12)から算出しても良い。
=W+W−W 式(11)
=W+W−1 式(12)
画像フィルタ処理部106は、画像フィルタ値算出部104で算出した画像フィルタ値に従って、画像データ保管部105に保管されている画像データに画像フィルタ処理を実施する機能を有する。図35に、3DクロストークによりL画像とR画像が混合した二重像の画像表示状態を示す。図36に、実施形態1の画像フィルタ処理により、L画像とR画像の両方に画像フィルタ処理を実施して、3Dクトストークによる二重像の影響を軽減した画像表示状態を示す。図37に、本実施形態2の画像フィルタ処理により、R画像だけに画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減した画像表示状態を示す。
実施形態1の画像フィルタ処理を実施した場合には、画像フィルタ処理によるぼかし効果が大きくなるに従って、3Dクロストークによる二重像の影響は軽減できるが、立体画像コンテンツの画像品質が低下する。しかし、本実施形態2の画像フィルタ処理を適用した場合には、画像フィルタ処理によるぼかし効果が大きくなっても、立体画像コンテンツの画像品質の低下が少なく、3Dクロストークによる二重像の影響を軽減した画像データを観察者へ投影できる。
以上より、立体画像コンテンツの画像データごとに画像フィルタ値を算出し、異なる画像フィルタ値を適用することで、立体画像コンテンツの片一方の画像データにおける画像品質を保った状態で3Dクロストークによる二重像の影響を軽減して、観察者の観察位置が移動しても観察者へ違和感を与えない、立体画像表示装置を提供できる。
なお、本実施形態2においても、実施形態1と同様に多視点方式やインテグラル方式等の様々な裸眼立体方式の立体画像表示装置に適用できる。また、本実施形態2の画像処理部152を単独の画像処理装置として提供し、立体表示パネル部107等と組み合わせて立体画像表示装置の機能を実現できることは言うまでもない。
本実施形態2の立体画像表示装置12における立体画像処理方法のフローチャートについて、図38を参照して説明する。
ステップS201〜ステップS203は、実施形態1と同様である。
ステップS204は、画像フィルタ値算出部104を使用して、ステップS202で取得した観察者の両眼の位置関係から、画像フィルタ値の算出条件を判定する。算出条件は図32の算出条件表を参照して、画像フィルタ処理を実施する画像をL画像又はR画像にするか否かを判定する。
ステップS205は、画像フィルタ値算出部104を使用することにより、ステップS204の判定結果を参照して、ステップS203で取得した3Dクロストーク特性データから、ステップS202で算出した相対位置となる視野角θpに対する、画像フィルタの窓幅値W,Wを算出する。
図33を参照して算出方法の一例を示す。最初に、ステップS203で取得した3Dクロストークデータの閾値β,βから、正視領域の視野角範囲θ〜θと逆視領域の視野角範囲θ〜θと3Dクロストーク領域の視野角範囲θ〜θとを特定する。次に、正視領域の視野角範囲θ〜θと逆視領域の視野角範囲θ〜θとにおける画像フィルタの窓幅値Wを1とする。その次に、3Dクロストーク領域の視野角範囲θ〜θにおける画像フィルタの窓幅値W(θ)を決定する。具体的には、視野角θにおける画像フィルタの窓幅値が1である点と、視野角θにおける画像フィルタの窓幅値がWの点と、視野角θにおける画像フィルタの窓幅値がWの点と、視野角θにおける画像フィルタの窓幅値がWの点と、視野角θにおける画像フィルタの窓幅値がWの点とを、線で補間して繋ぐことで、視野角範囲θ〜θにおけるR画像に対する画像フィルタの窓幅値W(θ)を決定する。同様にして、視野角範囲θ〜θにおけるL画像に対する画像フィルタの窓幅値W(θ)を決定する。以上のように、視野角範囲θ〜θにおける画像フィルタの窓幅値W(θ)及び窓幅値W(θ)をあらかじめ求めた上で、ステップS202で算出した相対位置となる視野角θpに対する、画像フィルタの窓幅値W,Wを算出する。次に、ステップS204の判定結果を参照して、画像フィルタの窓幅値W,Wのどちらか一方の窓幅値を1の値に変更する。
ステップS205からステップS209は、実施形態1のステップS104からステップS108と同様の処理を実施する。
以上より、立体画像コンテンツの画像データごとに画像フィルタ値を算出することで、画像フィルタ処理によって立体画像コンテンツの画像データがぼけても、観察者が視認する立体画像コンテンツの画像品質の低下を少なくする画像フィルタ処理を実現して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。
換言すると、本実施形態2の立体画像表示装置は、観察者の観察位置を計測する観察者位置計測部と、観察者の観察位置と立体表示パネル位置の相対位置を算出する相対位置算出部と、立体表示パネルの視野角に対するデバイス特性データを保存するデバイス特性データ保管部と、前記デバイス特性データに基づき視野角に対して立体画像表示に適した画像フィルタ値を画像データごとに算出する画像フィルタ値算出部と、画像データを保存又は受信する画像データ保管部と、前記画像フィルタ値に従って前記画像データの画像フィルタ処理を実施する画像フィルタ処理部と、画像フィルタ処理された画像データを前記相対位置に応じて右眼・左眼に投影する立体表示パネル部を備えるものである。
本実施形態2によれば、画像データごとに画像フィルタ値を算出し、異なる画像フィルタ値を適用することで、立体画像コンテンツの片一方の画像データにおける画像品質を保った状態で、3Dクロストークによる二重像の影響を軽減して、観察者の観察位置が移動しても観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供し、課題を解決する。つまり、片一方の画像データだけ画像フィルタ処理を実施することにより、もう片一方の画像データの画像品質を保った状態にする。
[実施形態3]
本実施形態3では、3Dクロストークによる二重像の影響が現れる画像範囲だけに画像フィルタ処理を適用することで、その他の画像範囲は画像フィルタ処理による画像ぼけが無い表示状態で、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
図39に、立体画像表示装置13の構成図を示す。立体画像表示装置13は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107と、3Dクロストーク画像範囲算出部110と、を備えるものである。また、相対位置算出部102、画像フィルタ値算出部104、画像フィルタ処理部106、3Dクロストーク画像範囲算出部110を統合した処理部を、画像処理部153とする。
以下に、立体画像表示装置13に含まれる各部の機能を説明する。観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、立体表示パネル部107とは、実施形態1と同様である。
3Dクロストーク画像範囲算出部110は、3Dクロストークによる二重像が現れる画像範囲を算出する機能を有する。3Dクロストークによる二重像が現れる画像範囲は、観察者の観察位置と立体表示パネルの相対位置によって変化する。任意の相対位置における二重像が現れる画像範囲は、デバイス特性データ保管部103に保管されている3Dクロストーク特性データと光学モデルから決定される。
図40に、任意の相対位置における二重像が現れる画像範囲の一例を示す。図40は、3Dクロストーク領域内で、X軸方向(図3を参照)とZ軸方向に相対位置が移動した場合に、その相対位置へ投影される画像表示状態を示す。相対位置がX軸方向に移動すると、それに応じて二重像が現れる画像範囲もX軸方向に移動する。また、相対位置がZ軸方向に移動すると、それに応じて二重像が現れる画像範囲が広がっていく。
画像フィルタ処理部106は、3Dクロストーク画像範囲算出部110で算出された画像範囲に従って画像フィルタ処理を実施する。相対位置算出部102から得られる観察者の右眼と左眼の位置情報と、3Dクロストーク画像範囲算出部110で算出された画像範囲情報とから、観察者の右眼と左眼に投影される画像データの任意の画像範囲に、R画像が投影されるか、L画像が投影されるか、3Dクロストークによる二重像(以下、CT画像と記載する)が投影されるかを判定する。
図41に、観察者の右眼と左眼に投影される画像の種類(L画像、R画像、CT画像)に対応した画像フィルタ処理の実施判定表を示す。左眼にL画像が投影され、右眼にR画像が投影されている画像範囲は、画像フィルタ処理を適用せずにそのままにする。右眼にR画像が投影され、左眼にCT画像が投影されている画像範囲は、L画像だけに画像フィルタ処理を適用する。右眼と左眼にR画像が投影されている画像範囲と、右眼と左眼にL画像が投影されている画像範囲とは、画像フィルタ処理を適用せずにそのままにする。右眼にCT画像が投影され、左眼にL画像が投影されている画像範囲は、R画像だけに画像フィルタ処理を適用する。右眼にL画像が投影され、左眼にR画像が投影されている画像範囲では、画像フィルタ処理は適用せずに、R画像とL画像を入れ替える。右眼にL画像が投影され、左眼にCT画像が投影されている場合は、R画像だけに画像フィルタ処理を適用して、R画像とL画像を入れ替える。右眼にCT画像が投影され、左眼にR画像が投影されている画像範囲では、L画像だけに画像フィルタ処理を適用して、R画像とL画像を入れ替える。右眼と左眼にCT画像が投影されている画像範囲では、L画像とR画像に画像フィルタ処理を適用する。また、右眼と左眼にCT画像が投影されている画像範囲では、CT画像に混入している画像成分が少ない方の画像(R画像又はL画像)だけに画像フィルタ処理を適用しても良い。
図42に、観察者の右眼・左眼に投影される画像表示状態の一例を示す。図42では、観察者の左眼に対して、画像の左側範囲にL画像、中間範囲にCT画像、右側範囲にR画像となった画像データが投影され、観察者の右眼に対して、画像の右側範囲にR画像、中間範囲にCT画像、左側範囲にL画像となった画像データが投影されている。
図43Aに図42と同様の画像表示状態を示し、図43Bに図42の画像データに適用する画像フィルタ処理内容を示し、図43Cに画像フィルタ処理後に観察者へ投影される画像表示状態を示す。
画像の左側範囲(図43BのA領域)は、観察者の左眼にL画像、右眼にR画像が投影されるため、画像フィルタ処理は実施しない。画像の左側中央範囲(図43BのB領域)は、観察者の左眼にL画像、右眼にCT画像が投影されるため、R画像に画像フィルタ処理を実施する。画像の中央範囲(図43BのC領域)は観察者の右眼と左眼にCT画像が投影されるため、L画像とR画像に画像フィルタ処理を適用する。画像の右側中央範囲(図43BのD領域)は左眼にCT画像、右眼にL画像が投影されるため、R画像に画像フィルタ処理を実施した後で、L画像とR画像を入れ替える。画像の右側範囲(図43BのE領域)は左眼にR画像、右眼にL画像が投影されるため、L画像とR画像を入れ替える。
以上の画像フィルタ処理を実施すると、観察者の左眼に対してL画像の中央範囲(図43CのC領域)で画像ぼけした画像データが投影され、観察者の右眼に対してR画像の左側中央範囲と中央範囲と右側中央範囲(図43CのB、C、D領域)で画像ぼけした画像データが投影される。したがって、3Dクロストークによる二重像の影響が現れる画像範囲だけに画像フィルタ処理を適用することで、その他の画像範囲は画像フィルタ処理による画像ぼけが無い表示状態で立体画像を表示し、かつ、3Dクロストークによる二重像の影響を軽減できる。
また、実際の立体表示パネル107aでは、電気光学手段である表示パネル2と光学分離手段であるレンチキュラレンズ3との位置関係に、所定精度内の位置ズレが発生する(例えば図5参照)。このような場合には、図44に示すような斜め成分の3Dクロストーク画像範囲が発現する。
図45に、電気光学手段と光線分離手段との間に回転ズレが発生した場合における画像表示状態と3Dクロストーク特性データとの関係図を示す。図45[A]は、斜め成分の3Dクロストーク画像範囲が発現した画像表示状態を示す。図45[B]は、図45[A]のy1線上の位置での、X軸方向の位置に対する3Dクロストーク特性データを示す。図45[C]は、図45[A]のy2線上の位置での、X軸方向の位置に対する3Dクロストーク特性データを示す。図45[B]と図45[C]より、Y軸方向の位置によっても、3Dクロストーク特性データは変化する。
画像フィルタ値の算出では、次の第一乃至第三の処理を実行する。第一の処理として、立体表示パネルの上端(図45[A]のy線上)、中央(図45[A]のy線上)、下端(図45[A]のy線上)の3つの線上で3Dクロストーク量が最大値となるX軸方向の位置を検出し(図45[A]のy線上であればx2の位置となり、図45[A]のy2線上であればx1の位置となる。)、検出したX軸方向の位置から斜め成分の3Dクロストーク画像範囲の傾きを算出する。
第二の処理として、立体表示パネルの中央(図45[A]のy線上)における3Dクロストーク特性データから、実施形態1と同様の算出方法により、X軸方向の位置に対する画像フィルタ値を算出する。ここで、実施形態1では視野角に対する画像フィルタ値を算出したが、この第二の処理では視野角の代わりにX軸方向の位置に対する画像フィルタ値を算出する。
第三の処理として、立体表示パネルの中央以外(図45[A]のy線上以外)の画像フィルタ値を、第一の処理で算出した3Dクロストーク画像範囲の傾きを参照して、第二の処理で算出した画像フィルタ値をX軸方向へシフトすることで算出する。以上の処理により、表示パネルとレンチキュラレンズとの位置ズレが発生した場合でも、立体表示パネル面上のすべての位置に対する画像フィルタ値を算出して、3Dクロストーク画像範囲に適切な画像フィルタ値を実施することができる。
なお、本実施形態3においても、実施形態1と同様に多視点方式やインテグラル方式等の様々な裸眼立体方式の立体表示装置に適用できる。また、本実施形態3の画像処理部153を単独の画像処理装置として提供し、立体表示パネル部107等と組み合わせて立体画像表示装置13の機能を実現できることは言うまでもない。
本実施形態3の立体画像表示装置13における立体画像処理方法のフローチャートについて、図46を参照して説明する。
ステップS301〜ステップS305は、実施形態1と同様である。
ステップS306は、3Dクロストーク画像範囲算出部110を使用して、ステップS302で算出した相対位置とステップS303で取得したデバイス特性データとから、観察者の右眼と左眼にCT画像が投影される画像範囲(3Dクロストーク画像範囲)を算出する。
ステップS307は、画像フィルタ処理部106を使用することにより、ステップS306で算出した画像範囲から、図41に示す画像フィルタ処理の実施判定表を参照して、画像フィルタ処理を実施する画像範囲を判定する。次に、判定した画像範囲に対して、ステップS304で算出した画像フィルタ値を参照し、ステップS305で取得した画像データの画像フィルタ処理を実施する。ステップS307の画像フィルタ処理では、画像範囲内にある画像データの各画素に、画像フィルタ値をコンボリューションして、画像フィルタ処理後の画像データを生成する。
ステップS308及びステップS309は、実施形態1のステップS107及びステップS108と同様である。
上記の処理を適用することで、3Dクロストークによる二重像の影響が現れる画像範囲だけに画像フィルタ処理を適用することで、その他の画像範囲は画像フィルタ処理による画像ぼけが無い表示状態で、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。
換言すると、本実施形態3の立体画像表示装置は、観察者の観察位置を計測する観察者位置計測部と、観察者の観察位置と立体表示パネル位置の相対位置を算出する相対位置算出部と、立体表示パネルの視野角に対するデバイス特性データを保存するデバイス特性データ保管部と、デバイス特性データから3Dクロストークによる二重像が現れる画像範囲を算出する3Dクロストーク画像範囲算出部と、前記デバイス特性データに基づき視野角に対して立体画像表示に適した画像フィルタ値を算出する画像フィルタ値算出部と、画像データを保存又は受信する画像データ保管部と、前記画像フィルタ値と前記3Dクロストークの画像範囲に従って前記画像データの画像フィルタ処理を実施する画像フィルタ処理部と、画像フィルタ処理された画像データを前記相対位置に応じて右眼・左眼に投影する立体表示パネル部を備えるものである。
本実施形態3によれば、3Dクロストークによる二重像の影響が現れる画像範囲だけに、画像フィルタ処理を適用することで、その他の画像範囲は画像データの画像品質を保った状態で、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供し、課題を解決する。
[実施形態4]
本実施形態4では、立体画像表示装置を使用する環境温度が変化しても、その温度に適切な画像フィルタ処理を行い、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
図47に、立体画像表示装置14の構成図を示す。立体画像表示装置14は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107と、温度計測部114とを備えるものである。また、相対位置算出部102、画像フィルタ値算出部104、画像フィルタ処理部106を統合した処理部を、画像処理部154とする。
以下に、立体画像表示装置14に含まれる各部の機能を説明する。観察者位置計測部101と、相対位置算出部102と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107とは、実施形態1と同様である。
温度計測部114は、立体画像表示装置14の温度を計測する機能を有する。レンチキュラレンズはガラス等の無機材で作られることも可能であるが、製品コストの関係によりポリメチルメタクリレート(PMMA)、シクロポリオレフィン(COP)、ポリカーボネート(PC)に代表されるエンジニアリングプラスチック等の有機材で作られることが多い。このため、立体画像表示装置14を使用する環境温度が変化すると、プラスチック材で作成されたレンチキュラレンズと、一般的にガラス基板を用いる表示パネルとの材料の違い、すなわちプラスチック材料とガラス材料の熱膨張係数差により、レンチキュラレンズと表示パネルの位置関係が変動する。
図48に、温度の下降につれてレンチキュラレンズが移動し、立体表示パネルの光学モデルが変化した図を示す。環境温度が下降すると、レンチキュラレンズは表示パネル中心部へ収縮する。このため、図48の左眼用画素4L及び右眼用画素4Rからレンチキュラレンズ3(シリンドリカルレンズ3a,3b)を通って観察者へ投光される光線20,21の傾きは、常温時よりも減少する。図48の光学モデル図より、環境温度が常温である場合の右眼領域70R及び左眼領域70Lと、環境温度が下降した場合の右眼領域70R及び左眼領域70Lの空間の位置を比較すると、環境温度が下降するに従って、右眼領域及び左眼領域は立体表示パネルへ近づくことが確認できる。
図49に、温度の上昇につれてレンチキュラレンズが移動し、立体表示パネルの光学モデルが変化した図を示す。環境温度が上昇すると、レンチキュラレンズ3は表示パネルの両端部へ伸長する。このため、図49の左眼用画素4L及び右眼用画素4Rからレンチキュラレンズ3(シリンドリカルレンズ3a,3b)を通って観察者へ投光される光線20,21の傾きは、常温時よりも増大する。図49の光学モデル図より、環境温度が常温である場合の右眼領域70R及び左眼領域70Lと、環境温度が上昇した場合の右眼領域70R及び左眼領域70Lの空間の位置を比較すると、環境温度が上昇するに従って、右眼領域及び左眼領域は立体表示パネルから遠ざかることが確認できる。
本実施形態4では、環境温度の変化に伴って立体表示パネルの光学モデルが変化する影響を考慮して、画像フィルタ処理を実施する。温度計測部114は、立体表示パネル付近の温度を計測することで、温度変化による立体表示パネルの光学モデルの状態を把握する。温度計測には汎用の抵抗温度計などが使用でき、この温度計を立体画像表示装置14に設置することで、立体表示パネルの環境温度を計測する。
図47に示すデバイス特性データ保管部103は、立体画像表示装置14を使用する環境温度に対応する3Dクロストーク特性データを予め保存する。環境温度に対応する特性データに関しては以下に述べる。
図50に、環境温度が低温である場合の3Dクロストーク特性データの一例を示す。立体画像表示装置14では、3Dクロストーク特性データに依存して右眼領域・左眼領域・3Dクロストーク領域が決定される。一例として、立体視領域を3Dクロストーク量のβ31%以下とすれば、図50より視野角θ31°〜θ35°の領域までが3Dクロストーク領域となり、それ以外の視野角は右眼領域・左眼領域となる。
この場合の立体画像表示装置14の光学モデルを図51に示す。図51では視野角θ31°〜θ35°の部分が3Dクロストーク領域となるため、図48よりも一段と右眼領域70R及び左眼領域70Lの領域は狭まる。右眼55Rにとっては、図48と同様に右眼領域70Rが正視領域であり、左眼領域70L,72Lが逆視領域で、それ以外の領域が3Dクロストーク領域となる。
図52に、図51における領域81の拡大図を示す。Z軸上の任意の値であるZとZにおける右眼領域70R・左眼領域72L・3Dクロストーク領域の領域幅は異なり、またZ軸の位置に依存して正視領域・逆視領域・3Dクロストーク領域の領域幅は変化することがわかる。
また、図53に、Z軸上の任意の値Zにおける正視領域・逆視領域・3Dクロストーク領域の領域幅と図50で示した視野角との関係図を示す。右眼55Rを基準にすると、視野角θ30°〜θ31°の領域が逆視領域に、θ31°〜θ35°の領域が3Dクロストーク領域に、θ35°〜θ36°の領域が正視領域となる。また、視野角θ33°の位置で最も3Dクロストーク量が大きくなり、視野角θ32°〜θ34°の領域は、図50より、3Dクロストーク量がβ32以上の領域となる。
以上、環境温度に対応する特性データに関して述べたが、このデータの一例として、環境温度が−20℃〜60℃の範囲で5℃おきの3Dクロストーク特性データを用いるといったように、立体画像表示装置14の使用に応じて任意の内容が適用可能である。また、3Dクロストーク特性データを算出するのに必要なパラメータを保管しておき、環境温度に応じて3Dクロストーク特性データを求めるプログラムを備えることも可能である。ここで、パラメータの一例として、表示パネルに具備されたレンチキュラレンズの実効的な線膨張係数、パネルサイズ、パネル解像度などを用いることができる。
図47に示す画像フィルタ値算出部104は、温度計測部114で計測した温度に対応する3Dクロストーク特性データを前述したデバイス特性データ保管部103から取得し、その3Dクロストーク特性データに基づき視野角に対して立体画像表示に適した画像フィルタ値を算出する。画像フィルタ値の算出処理と、その後の画像フィルタ処理とは、実施形態1と同様に実施する。これより、立体画像表示装置14を使用する環境温度に適切な画像フィルタ処理が実施できる。
なお、本実施形態4においても、実施形態1と同様に多視点方式やインテグラル方式等の様々な裸眼立体方式の立体表示装置に適用できる。また、本実施形態4の画像処理部154を単独の画像処理装置として提供し、立体表示パネル部107等と組み合わせて立体画像表示装置14の機能を実現できることは言うまでもない。
本実施形態4の立体画像表示装置14における立体画像処理方法のフローチャートについて、図54を参照して説明する。
ステップS401からステップS402は、実施形態1と同様の処理を実施する。
ステップS403は、温度計測部114で立体表示パネル付近の温度を計測する。
ステップS404は、デバイス特性データ保管部103から、ステップS403で計測した温度に対応するデバイス特性データを取得する。
ステップS405からステップS409は、実施形態1のステップS104からステップS108と同様の処理を実施する。
以上より、立体画像表示装置14を使用する環境温度が変化しても、その温度に適切な画像フィルタ処理を行い、3Dクロストークによる二重像や逆視の問題を解決して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。
換言すると、本実施形態4の立体画像表示装置置は、観察者の観察位置を計測する観察者位置計測部と、観察者の観察位置と立体表示パネル位置の相対位置を算出する相対位置算出部と、立体表示パネルの視野角に対するデバイス特性データを保存するデバイス特性データ保管部と、前記デバイス特性データに基づき視野角に対して立体画像表示に適した画像フィルタ値を算出する画像フィルタ値算出部と、画像データを保存又は受信する画像データ保管部と、前記画像フィルタ値に従って前記画像データの画像フィルタ処理を実施する画像フィルタ処理部と、画像フィルタ処理された画像データを前記相対位置に応じて右眼・左眼に投影する立体表示パネル部と、使用環境温度を計測する温度計測部を備えるものである。
本実施形態4によれば、観察者の観察位置とデバイス特性データに加えて、使用環境温度と立体表示パネルの温度特性データを考慮して画像フィルタ値を算出することにより、立体画像表示装置を使用する環境温度に対して、適切な画像フィルタ処理を実現する。これより、立体画像表示装置を使用する環境温度が変化しても、その温度に適切な画像フィルタ処理を行い、3Dクロストークによる二重像の影響を解決して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供し、課題を解決する。
[実施形態5]
本実施形態5では、デバイス特性データだけでなく、立体画像コンテンツの視差値を参照して、画像フィルタ値を算出することにより、立体画像コンテンツの視差値に適した画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することが目的となる。
図55に、立体画像表示装置15の構成図を示す。立体画像表示装置15は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107と、視差値検出部115とを備えるものである。また、相対位置算出部102、画像フィルタ値算出部104、画像フィルタ処理部106、視差値検出部115を統合した処理部を、画像処理部155とする。
以下に、立体画像表示装置15に含まれる各部の機能を説明する。観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107とは、実施形態1と同様である。
視差値検出部115は、画像データ保管部105に保管されている立体画像コンテンツの視差値を検出する。画像データ保管部に立体画像コンテンツの視差画像が保管されている場合には、視差画像から各画素における視差値を検出する。
図56に視差画像と視差値の関係図を示す。図56の右図は、視差画像(図56の左図)からY軸上の任意値Yの画素列を取り出し、その画素列に対する視差値uを表した図である。ここで、視差値はL画像を基準にとり、L画像の画素値に対応するR画像の画素値の位置ずれ量を示す。
具体例として図57に視差値とLR画像の関係図を示す。視差画像の位置(x,y)の視差値は、L画像の位置(x,y)と、これに対応するR画像の画素値の位置(x,y)との差分値となる(式(10))。
視差値u=x−x 式(10)
これより、視差画像の画素値を参照することで、各画素における視差値を検出できる。また、画像データ保管部105に視差画像が保管されていない場合には、立体画像コンテンツの画像データであるL画像とR画像から視差値を算出して視差画像を生成する。視差値の算出では、画像の輝度値情報を使用してL画像内にある特徴点を検出し、R画像内から特徴点に対応する対応点を探索し、L画像の特徴点の位置とR画像の対応点の位置との位置ずれ量から、視差値を算出する。これより、画像データ保管部105に視差画像が保管されていない場合であっても各画素の視差値を検出できる。
画像フィルタ値算出部104は、視差値検出部115で検出した立体画像コンテンツの視差値を参照して、画像フィルタ値を算出する。3Dクロストークによる二重像の影響は、視差値が大きい場合に強くなり、視差値が小さい場合に弱くなる。したがって、視差値が大きい画像内の画素では画像ぼかし効果の高い画像フィルタ値を適用して画像フィルタ処理を実施し、視差値が小さい画像内の画素では画像ぼかし効果の低い画像フィルタ値を適用して画像フィルタ処理を実施することで、立体画像コンテンツの視差値に適した画像フィルタ処理を実施できる。
立体画像コンテンツの視差値に適した画像フィルタ値の算出方法の一例としては、視差値によって、画像フィルタの窓幅値Wpに重み付けすることで、立体画像コンテンツの画像内にある画素ごとに画像フィルタの窓幅値Wp(x,y)の値を変更する。以下に画像フィルタの窓幅値Wp(x,y)の算出方法を示す。
初めに、実施形態1と同様にして、すべての視野角範囲θ〜θ(正視領域、逆視領域、3Dクロストーク領域)に対する画像フィルタの窓幅値W(θ)を算出する。次に、相対位置算出部102で算出した観察者の観察位置となる視野角θpでの、画像フィルタの窓幅値Wpを取得する。次に、立体画像コンテンツの視差値から、画像フィルタの窓幅値Wpへの重み付け値αを算出する。
図58に、視差画像より重み付け値αを算出した例を示す。立体画像コンテンツの画像内にある画素ごとの重み付け値α(x,y)は、立体画像コンテンツの視差画像の各画素に保管された視差値u(x,y)から視差画像の視差最大値umaxを割算して算出する。(式(11))。ここで、u(x,y)は視差画像の画素位置(x,y)に保持される視差値を示す。
α(x,y)=u(x,y)/umax 式(11)
次に、算出した重み付け値α(x,y)を画像フィルタの窓幅値Wpに乗算して、立体画像コンテンツの画像内にある画素ごとに画像フィルタの窓幅値Wp(x,y)を算出する(式(12))。
Wp(x,y)=Wp×α(x,y) 式(12)
以上より、画像フィルタの窓幅値Wp(x,y)を算出できる。なお、画像フィルタの窓幅値Wp(x,y)は、整数であることが望ましいので、小数値を四捨五入することで整数値に近似しても良い。算出した画像フィルタの窓幅値Wp(x,y)に、任意のフィルタ形状(ガウシアンフィルタ等)を適用して画像フィルタ値を算出する。
画像フィルタ処理部106は、画像フィルタ値算出部104で算出した画像フィルタ値に従って、画像データ保管部105に保管されている画像データに対して画像フィルタ処理を実施する。画像フィルタ値算出部104で算出した画像フィルタ値は、立体画像コンテンツの画像データの視差値に応じて、画像データの画素ごとに異なる値となっているため、実施形態1と同様に、画像データの各画素に、画像フィルタ値をコンボリューションすることで画像フィルタ処理を実施する。
これより、デバイス特性データだけでなく、立体画像コンテンツの視差値を参照して、画像フィルタ値を算出することにより、立体画像コンテンツの視差値に適した画像フィルタ処理を実施できる。なお、本実施形態5においても、実施形態1と同様に多視点方式やインテグラル方式等の様々な裸眼立体方式の立体表示装置に適用できる。また、本実施形態5の画像処理部155を単独の画像処理装置として提供し、立体表示パネル部107等と組み合わせて立体画像表示装置15の機能を実現できることは言うまでもない。
本実施形態5の立体画像表示装置15における立体画像処理方法のフローチャートについて、図59を参照して説明する。
ステップS501からステップS505は、実施形態1と同様の処理を実施する。
ステップS506は、画像データ保管部105に保管された画像データの視差値を算出する。
ステップS507は、ステップS506で算出した画像データの視差値を参照して、画像データの各画素に対する画像フィルタ値の重み付け値α(x,y)を算出する。
ステップS508は、ステップS504で算出した画像フィルタ値Wpに重み付け値α(x,y)を乗算することで、画像データの視差値に適した画像フィルタ値Wp(x,y)へ変更する。
ステップS509は、画像フィルタ処理部106を使用して、ステップS508で変更した画像フィルタ値Wp(x,y)に従って、ステップS505で取得した画像データに画像フィルタ処理を実施する。ステップS509の画像フィルタ処理では、画像データの各画素に、画像フィルタ値をコンボリューションして、画像フィルタ処理後の画像データに変換する。
ステップS510は、立体表示パネル部107を使用して、ステップS509で画像フィルタ処理した画像データを立体表示パネル上に立体画像表示する。
ステップS511は、立体画像表示処理を中止するか、連続的に実行するかを設定する。立体画像表示装置15の電源がOFFされたときや、観察者によって立体画像表示の中断が指示されたときには、立体画像表示処理を中止する。立体画像表示処理を中止するイベントが無ければ、立体画像表示処理を連続的に実行する。ステップS511で立体画像表示処理が中止された場合は、立体画像表示処理を終了する。ステップS511で立体画像表示処理が連続的に実行される場合は、ステップS501の処理に戻り、ステップS501〜ステップS511までの処理を繰り返して実行する。
以上より、デバイス特性データだけでなく、立体画像コンテンツの視差値を参照して、画像フィルタ値を算出することにより、立体画像コンテンツの視差値に適した画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。
換言すると、本実施形態5の立体画像表示装置は、観察者の観察位置を計測する観察者位置計測部と、観察者の観察位置と立体表示パネル位置の相対位置を算出する相対位置算出部と、立体表示パネルの視野角に対するデバイス特性データを保存するデバイス特性データ保管部と、画像データを保存又は受信する画像データ保管部と、前記画像データの視差値を検出する視差値検出部と、前記画像データの視差値と前記デバイス特性データに基づき視野角に対して立体画像表示に適した画像フィルタ値を算出する画像フィルタ値算出部と、前記画像フィルタ値に従って前記画像データの画像フィルタ処理を実施する画像フィルタ処理部と、画像フィルタ処理された画像データを前記相対位置に応じて右眼・左眼に投影する立体表示パネル部と、を備えるものである。
本実施形態5によれば、観察者の観察位置とデバイス特性データに加えて、立体画像コンテンツの画像データの視差値を考慮して、画像フィルタ値を算出することにより、立体画像コンテンツの画像データの視差値に適した画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供し、課題を解決する。
[実施形態6]
本実施形態6では、画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性を考慮して、画像フィルタ値を算出することにより、画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性に適した画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
図60に、立体画像表示装置16の構成図を示す。立体画像表示装置16は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107と、を備えるものである。また、相対位置算出部102、画像フィルタ値算出部104、画像フィルタ処理部106を統合した処理部を、画像処理部156とする。
以下に、立体画像表示装置16に含まれる各部の機能を説明する。観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像データ保管部105と、立体表示パネル部107とは、実施形態1と同様である。
画像フィルタ値算出部104は、画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性を考慮して、前記デバイス特性データに基づき視野角に対して立体画像表示に適した画像フィルタ値を算出する機能を有する。実施形態1では、画像フィルタ値にフィルタ形状が左右対称であるガウシアンフィルタを適用して画像フィルタ値を算出したが、本実施形態6では画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性を考慮して、フィルタ形状が左右非対称な固有のフィルタ形状を使用して画像フィルタ値を算出する。
3Dクロストークによる二重像は、L画像とR画像との混合により発生するため、二重像が出現する画像範囲の方向を特定できる。図61に、立体画像コンテンツとして中央部に球物体が飛び出し表示される場合のL画像とR画像を示す。図62に、3Dクロストークにより図61のL画像とR画像が混合された二重像の一例を示す。図62の3Dクロストークによる二重像は、L画像が基準となり、R画像の画像成分が50%(L画像を100%としたとき)ほど混合している画像である。3Dクロストークでは、L画像の球物体は右側に、R画像の球物体は左側に表示されて、二重像となる。したがって、L画像であるか、R画像であるかによって、3Dクロストークによる二重像が出現する画像範囲が右側であるか、左側であるかを特定できる。
これより、L画像の画像フィルタ値には図63に示す画像フィルタ形状を使用し、R画像の画像フィルタ値には図64に示す画像フィルタ形状を使用する。図63の画像フィルタ形状は、X軸の値が負の位置では画像フィルタ値を0とおき、X軸の値が0の位置では画像フィルタ値を最大値とし、X軸の値が上昇するに従って画像フィルタ値を減少させたフィルタ形状である。図64の画像フィルタ形状は、反対にX軸の値が正の位置では画像フィルタ値を0とおき、X軸の値が0の位置では画像フィルタ値を最大値とし、X軸の値が降下するに従って画像フィルタ値を減少させたフィルタ形状である。
図65及び図66に、画像フィルタ形状が図63及び図64であり、画像フィルタの窓幅値が5(5×5画素)である場合の、画像フィルタ値の一例を示す。図65に示したL画像に適用する画像フィルタ値に従って、画像フィルタ処理を実施すると、画像データを左側にシフトしたように画像ぼかし処理が実施される。一方、図66に示したR画像に適用する画像フィルタ値に従って、画像フィルタ処理を実施すると、画像データを右側にシフトしたように画像ぼかし処理が実施される。このような左右非対称な画像フィルタ値に従って画像フィルタ処理を実施すると、画像データを任意の方向にシフトするように画像ぼかし処理が実施されるので、画像データごとに、3Dクロストークによる二重像が出現する画像範囲の方向性に適した画像フィルタ処理が実施できる。
なお、図65に示した画像フィルタ値は、Y軸の値が0以外の位置では、画像フィルタ値に0を代入した一例を示したが、図67のようにY軸の値が0以外の位置でも画像フィルタ値に任意の値を代入しても良い。
画像フィルタ処理部106は、画像フィルタ値算出部104で算出した画像フィルタ値に従って、画像データ保管部105に保管されている画像データに対して画像フィルタ処理を実施する機能を有する。
図68に、画像フィルタ値算出部104で算出した左右非対称な画像フィルタ値に従って、画像フィルタ処理を実施して変換された画像データの一例を示す。また、図69に、3Dクロストークにより図68のL画像とR画像が混合した二重像の一例を示す。図70には、左右対称な画像フィルタ値に従って、画像フィルタ処理を実施して変換された画像データの一例を示す。図71に、3Dクロストークにより図70のL画像とR画像が混合した二重像の一例を示す。図69と図71との比較により、左右非対称な画像フィルタ値を適用すると、3Dクロストークによる二重像が出現する画像範囲の方向だけに画像ぼかし処理が実施されるため、3Dクロストークによる二重像の影響を効率的に低減することを示した。
上記の一例では、立体画像コンテンツ内の物体が3Dディスプレイより前方に飛び出して表示される例について示したが、3Dディスプレイより後方の奥行き方向へ表示される場合にも左右非対称な画像フィルタ値を適用しても良い。奥行き方向に表示される物体は、立体画像コンテンツの撮影条件(仮想カメラの設置条件)によっては、3Dクロストークによる二重像が出現する画像範囲の方向が反対方向になる可能性がある。
図72にシフトセンサによる仮想カメラの設置図を、図73にトーインによる仮想カメラの設置図を示す。
シフトセンサによる仮想カメラの設置は、L画像用の仮想カメラ41とR画像用の仮想カメラ42とを平行に設置するため、立体画像コンテンツ内の物体43が無限遠方に置かれた場合に、L画像内の物体43とR画像内の物体43とが同じ位置に表示される。したがって、物体43が3Dディスプレイより後方の奥行き方向へ表示される場合であっても、物体43は、L画像では右寄りに、R画像では左寄りに表示される。
一方、トーインによる仮想カメラの設置は、L画像用の仮想カメラ41とR画像用の仮想カメラ42との光軸中心を立体画像コンテンツ内の物体43の中心位置に合わせて設置する。そのため、立体画像コンテンツ内の物体43が3Dディスプレイ面上と同じ位置に置かれた場合に、L画像内の物体43とR画像内の物体43とが同じ位置に表示される。したがって、物体43は、飛び出し方向に表示された場合には、L画像では右寄りに、R画像では左寄りに表示されるが、奥行き方向に表示された場合には、反対となり、L画像では左寄りに、R画像では右寄りに表示される。
このため、トーインによる仮想カメラの設置条件で撮影された立体画像コンテンツに画像フィルタ処理を実施する場合には、立体画像コンテンツ内にある物体が飛び出し表示か奥行き表示であるかを判定し、その判定結果に合わせて、画像フィルタ形状を変更する必要がある。
具体的には、立体画像コンテンツ内にある物体が飛び出し表示の場合には、図63及び図64に示す画像フィルタ形状を適用し、奥行き表示の場合には、図74及び図75に示す画像フィルタ形状を適用する。なお、図74及び図75の画像フィルタ形状は、図63及び図64のフィルタ形状をX軸方向に反転させた形状である。
また、立体画像コンテンツ内にある物体の表示状態は、立体画像コンテンツの視差値を参照して、飛び出し表示か奥行き表示であるかを判定する。立体画像コンテンツに視差値情報が保存されていない場合には、実施形態5に記載した視差値検出部115を使用して立体画像コンテンツの視差値を検出する。検出した結果、奥行き表示される画像データの画像範囲には、X軸方向の向きに反転した画像フィルタ値を適用し、画像フィルタ処理を実施する。
本実施形態6の立体画像表示装置16における立体画像処理方法のフローチャートについて、図76を参照して説明する。
ステップS601〜ステップS603は、実施形態1のフローチャートと同様である。
ステップS604は、実施形態1のフローチャートのステップS105と同様である。
ステップS605は、ステップS604で取得した画像データごとに、3Dクロストークによる二重像が出現する画像範囲の方向を判定する。立体画像コンテンツの撮影がシフトセンサによる仮想カメラの設置条件であれば、L画像は立体画像コンテンツ内の物体が右寄りになるために物体の右側が3Dクロストークによる二重像に影響する画像範囲と判定し、R画像は立体画像コンテンツ内の物体が左寄りになるために物体の左側が3Dクロストークによる二重像に影響する画像範囲と判定する。トーインによる仮想カメラの設置条件であれば、飛び出し表示される物体は、シフトセンサによる仮想カメラの設置条件と同じ判定結果となるが、奥行き表示される物体では、判定結果が反対方向になる。
ステップS606は、ステップS605で判定した3Dクロストークによる二重像に影響する画像範囲の結果を参照して、デバイス特性データから左右非対称な画像フィルタ値を算出する。画像フィルタ値の算出では、初めに第一の実施形態と同様にして、画像フィルタの窓幅値Wpを算出する。次に、ステップS605で判定した画像範囲の結果を参照して、立体画像コンテンツ内の物体の右側が3Dクロストークによる二重像に影響する画像範囲と判定された場合には、左方向へシフトするように画像ぼかし処理を実施する画像フィルタ形状(図63)を適用し、立体画像コンテンツ内の物体の左側が3Dクロストークによる二重像に影響する画像範囲と判定された場合には、右方向へシフトするように画像ぼかし処理を実施する画像フィルタ形状(図64)を適用する。最後に、画像フィルタの窓幅値Wpと画像フィルタ形状とから、画像フィルタ値を算出する。
ステップS607からステップS609は、実施形態1のステップS106からステップS108と同様の処理を実施する。
以上より、画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性を考慮して、画像フィルタ値を算出することにより、画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性に適した画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。
なお、本実施形態6においても、実施形態1と同様に多視点方式やインテグラル方式等の様々な裸眼立体方式の立体画像表示装置に適用できる。また、本実施形態6の画像処理部156を単独の画像処理装置として提供し、立体表示パネル部107等と組み合わせて立体画像表示装置16の機能を実現できることは言うまでもない。
換言すると、本実施形態6の立体画像表示装置は、観察者の観察位置を計測する観察者位置計測部と、観察者の観察位置と立体表示パネル位置の相対位置を算出する相対位置算出部と、立体表示パネルの視野角に対するデバイス特性データを保存するデバイス特性データ保管部と、画像データを保存又は受信する画像データ保管部と、画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性を考慮して、画像フィルタ形状を設定し、前記デバイス特性データに基づき視野角に対して立体画像表示に適した画像フィルタ値を算出する画像フィルタ値算出部と、前記画像フィルタ値に従って前記画像データの画像フィルタ処理を実施する画像フィルタ処理部と、画像フィルタ処理された画像データを前記相対位置に応じて右眼・左眼に投影する立体表示パネル部と、を備えるものである。
本実施形態6によれば、観察者の観察位置とデバイス特性データに加えて、画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性を考慮して、画像フィルタ値を算出することにより、画像データごとに3クロストークによる二重像が出現する画像範囲の方向性に適した画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供し、課題を解決する。
[実施形態7]
本実施形態7では、画像フィルタ処理に加えて、視差調整処理を実施することで、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
図77に、立体画像表示装置17の構成図を示す。立体画像表示装置17は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107と、視差調整量算出部120と、視差調整処理部121と、を備えるものである。また、相対位置算出部102、画像フィルタ値算出部104、画像フィルタ処理部106、視差調整量算出部120、視差調整処理部121を統合した処理部を、」画像処理部157とする。
以下に、立体画像表示装置17に含まれる各部の機能を説明する。観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像データ保管部105と、立体表示パネル部107とは、実施形態1と同様である。
視差調整量算出部120は、デバイス特性データ保管部103に保管されたデバイス特性データに基づき、視野角に対して立体画像表示に適した視差調整量を算出する機能を有する。例えば、視差調整量算出部120は、立体画像が表示可能である視差の限界値(視差許容値uth)を算出する。図78に、デバイス特性データ(図4参照)に基づき、観察者の観察位置がZ上の位置にある場合の視野角θに対する視差許容値uthを算出した結果を示す。ここで、uthは視野角θの関数uth(θ)であるが、便宜上uthとする。図78は、3Dクロストーク量の閾値をβ(図4参照)とした場合において、逆視領域θ〜θ、3Dクロストーク領域θ〜θ及び正視領域θ〜θに対して、視差許容値uthが異なる値をとることを示している。
図79は、この3Dクロストーク量と、二重像の発生、立体画像への影響、視野角範囲、領域名(逆視領域、3Dクロストーク領域、正視領域)、及び、視差許容値の絶対値|uth|との関係を示した表である。以下、図78と図79を用いて正視領域θ〜θ、逆視領域θ〜θ、3Dクロストーク領域θ〜θの各領域に対する視差許容値uthについて説明する。
正視領域θ〜θにおける視差許容値uthには、右眼領域に投影される右眼用画像(R画像)が観察者の右眼へ正常に投影され、左眼領域に投影される左眼用画像(L画像)が観察者の左眼へ正常に投影された場合に、観察者がL画像とR画像(LR画像)を融像すること(脳の中で右眼・左眼で観察したLR画像を融合して、一つの立体画像として視認すること)が可能であり、観察者に違和感を与えない安全性を保った視差の最大値γを設定する。この視差の最大値γに関しては、様々な団体から安全基準値が提案されている。一例としては、3Dコンソーシアムの3DC安全ガイドラインに記載されている快適視差範囲の最大値を、視差の最大値γとして正視領域の視差許容値uthに代入しても良い。
逆視領域θ〜θにおける視差許容値uthは、逆視対策用に視差値を反転させるため、正視領域の視差許容値uthを反転させた値−γを逆視領域の視差許容値uthに代入する。3Dクロストーク領域θ〜θにおいては、3Dクロストーク量に応じて視差許容値|uth|が細分化されている。3Dクロストーク量がβ〜β(視野角範囲θ〜θ)の範囲では、軽度な二重像が発生し、観察者へ違和感を与えるものの立体画像は視認可能である。これに対して、3Dクロストーク量がβ以上(視野角範囲θ〜θ)の範囲では、二重像の影響が増大するため、観察者が立体画像を視認することはほぼ不可能となる。したがって、二重像の影響の大きさに従い、視差許容値の設定を行うことが望ましい。
具体的には、図4のデバイス特性データから3Dクロストーク量を参照して、その量に適した視差許容値uthを設定する。図78及び図79の視差許容値uthは、3Dクロストーク量が閾値β以上の場合では視差許容値の絶対値|uth|をγ(正視領域の視差許容値uth)以下とし、3Dクロストーク量が閾値β以上の場合では視差許容値の絶対値|uth|を任意に定めた視差値γ以下とする条件で算出している。なお、視差許容値uthの算出条件となる視差値γは、観察者の好みに応じて任意に設定することもでき、また観察者に対する主観評価によって特定することもできる。観察者に対する主観評価の実験結果は、様々な文献に示されており、これらの文献から視差値γを特定しても良い。
また、3Dクロストーク領域の視差許容値uthは、視野角θにおける視差値γの点と、視野角θにおける視差値γの点と、3Dクロストーク領域の中心位置となる視野角θにおける視差値0の点と、視野角θにおける視差値−γの点と、視野角θにおける視差値−γの点とを通るように線で補間して繋ぐことで、各々の視野角に対する視差許容値uthを算出する。点群同士を補間する線については、2次補間(多項式補間)を使用しても良いし、線形補間を使用しても良い。
図78及び図79では、視差許容値uthの算出条件として3Dクロストーク量の閾値β,βを設定した例を示したが、3Dクロストーク量の閾値は2つだけに限定されずに、より多くの閾値を設定しても良い。
視差調整処理部121は、視差調整量算出部120で算出した視差調整量に従って、画像データ保管部105に保管された画像データの視差調整処理を実施する機能を有する。例えば、視差調整処理部121は、視差調整量算出部120で算出した視差許容値uthに従って画像データの視差調整処理を実施する機能を有する。図80に、視差調整処理により視野角に対する立体画像コンテンツが持つ視差の最大値uを算出した結果を示す。視差調整処理では、視差調整処理後に立体画像コンテンツが持つ視差最大値uを算出するため、視差調整量算出部120で算出した視差許容値uthの条件(図80A)と、画像データ保管部105に保管された立体画像コンテンツが持つ視差最大値uの条件(図80B)との、両条件(式(15))を満たす視差最大値u(図80C)を算出する。
(u<=uth) AND (u<=u) 式(15)
視差調整処理後の視差最大値uが立体画像コンテンツの視差最大値uよりも大きい場合には、立体画像コンテンツの視差値を変化させずに、そのままのLR画像を画像フィルタ処理部106に送信する。視差調整処理後の視差最大値uが立体画像コンテンツの視差最大値uよりも小さい場合には、式(16)より視差調整量κ(uとuの比)を算出し、立体画像コンテンツの視差値を変更させてから、LR画像を画像フィルタ処理部106に送信する。
=κu 式(16)
なお、上記の例では、視差調整量の算出処理を視差調整処理部121が実施するように記載したが、視差調整量の算出処理は視差調整量算出部120が実施しても良い。ただし、視差調整量算出部120は、画像データ保管部105より立体画像コンテンツの視差最大値uを取得する必要がある。
算出した視差調整量κより、立体画像コンテンツの視差値を変更する処理の一例を記載する。視差値の変更処理では、初めに立体画像コンテンツの視差画像の視差値に視差調整量κを乗算して視差画像を変更する。図81に、視差調整量κにより変更された視差画像群を示す。図81の最上部にある視差画像は立体画像コンテンツが元々保持していた視差値を持つ視差画像を表し、図81の最下部にある視差画像はすべての視差値が0である視差画像を表す。図81の中間部分にある視差画像群は、最上部の視差画像の視差値に、視差調整量κを乗算して変更した視差画像である。最上部から2番目の視差画像は視差調整量κを0.75とし、最上部から3番目の視差画像は視差調整量κを0.50とし、最上部から4番目の視差画像は視差調整量κを0.25とし、最下部の視差画像は視差調整量κを0とした際の視差画像である。立体画像コンテンツが元々保持していた視差値をu(x,y)とおくと、視差調整処理後の立体画像コンテンツの視差値u(x,y)は式(17)になる。
(x,y)=κu(x,y) 式(17)
ここで、u(x,y)は、視差画像の画素位置(x,y)における視差値を示す。
次に、変更した視差画像を参照して立体画像コンテンツのLR画像から視差調整処理後のLR画像を生成する。LR画像の生成処理では、L画像を基準にし、視差画像の視差値に応じてL画像の各画素をX軸方向に移動してR画像を生成する。図82に、画素移動によって生成したR画像を示す。画素移動では、各画素の位置における視差値の違いによって、R画像には画素の輝度値(RGB値)が無い空白部分51が出現する。この空白部分51を埋めるために、空白部分51の近隣にある画素の輝度値から画像補間処理を実施する。
画像補間処理方法としては、線形補間や平均値補間を使用することができる。空白部分の範囲が広い場合には、高品質な画像補間処理を実施するために、各種の画像修復(Inpainting)手法を適用しても良い。画像修復手法としては、空白部分の近隣にある輝度値パタンと類似する輝度値パタンを画像情報内からパタンマッチングにより探索して空白領域の画像修復する手法や、Shift‐Map法などが挙げられる。また、空白部分の画像補間処理では、L画像の輝度値だけでなく、R画像の輝度値を参照しても良い。以上より、視差調整量κを参照して視差調整処理後のLR画像を生成することで、立体画像コンテンツの視差値を変更できる。
画像フィルタ値算出部104は、前記デバイス特性データに基づき、視野角に対して立体画像表示に適した画像フィルタ値を算出する機能を有する。画像フィルタ値の算出方法は、実施形態1と同様の処理であり、画像フィルタの窓幅値Wpを算出し、画像フィルタ値を算出する。本実施形態7では、画像フィルタ処理だけでなく、視差調整処理も適用するので、画像フィルタ値を実施形態1で算出した値よりも小さな値にしても良い。
具体的には、画像フィルタの窓幅値W(θ)の算出条件となる窓幅値W,Wの値を変更し、画像フィルタの窓幅値W(θ)を小さくすることで、画像フィルタ値を小さな値にする。ここで、窓幅値Wは3Dクロストーク量の閾値βに対して任意に定めた画像フィルタの窓幅値であり、窓幅値Wは3Dクロストーク量の閾値βに対して任意に定めた画像フィルタの窓幅値である。
画像フィルタ処理部106は、画像フィルタ値算出部104で算出した画像フィルタ値に従って、視差調整処理部121で視差調整処理された後の画像データに画像フィルタ処理を実施する。画像フィルタ処理は、実施形態1と同様に、画像データに画像フィルタ値をコンボリューションして処理する。
なお、本実施形態7においても、実施形態1と同様に多視点方式やインテグラル方式等の様々な裸眼立体方式の立体画像表示装置に適用できる。また、本実施形態7の画像処理部157を単独の画像処理装置として提供し、立体表示パネル部107等と組み合わせて立体画像表示装置17の機能を実現できることは言うまでもない。
本実施形態7の立体画像表示装置17における立体画像処理方法のフローチャートについて、図83を参照して説明する。
ステップS701〜ステップS703は、実施形態1のフローチャートと同様の処理を実施する。
ステップS704は、視差調整量算出部120を使用して、ステップS703で取得した3Dクロストーク特性データから、ステップS702で算出した相対位置となる視野角θpに対する視差調整量を算出する。
ステップS705は、画像フィルタ値算出部104を使用して、ステップS703で取得した3Dクロストーク特性データから、ステップS702で算出した相対位置となる視野角θpに対する、画像フィルタの窓幅値Wpを求めて、画像フィルタ値を算出する。
ステップS706は、実施形態1のフローチャートのステップS105と同様の処理を実施する。
ステップS707は、ステップS706で取得した画像データに対して、ステップS704で算出した視差調整量に従って、視差調整処理を実施する。
ステップS708は、ステップS707で視差調整処理された画像データに対して、ステップS705で算出した画像フィルタ値に従って、画像フィルタ処理を実施する。
ステップS709及びステップS710は、実施形態1のステップS107及びステップS108と同様の処理を実施する。
以上より、画像フィルタ処理に加えて、視差調整処理を実施することで、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。また、視差調整処理により視差値が低下するのに伴って、画像フィルタ処理による画像ぼかし量が調整されるため、観察者へ視差調整処理によって立体画像コンテンツの視差値が低下していることを通知する機能を有する立体画像表示装置及び立体画像処理方法を提供できる。
換言すると、本実施形態7の立体画像表示装置は、観察者の観察位置を計測する観察者位置計測部と、観察者の観察位置と立体表示パネル位置の相対位置を算出する相対位置算出部と、立体表示パネルの視野角に対するデバイス特性データを保存するデバイス特性データ保管部と、前記デバイス特性データに基づき視野角に対して立体画像表示に適した視差調整値を算出する視差調整値算出部と、前記視差調整値から画像フィルタ値を算出する画像フィルタ算出部と、画像データを保存又は受信する画像データ保管部と、前記視差調整値に従って前記画像データの視差調整処理を実施する視差調整処理部と、前記画像フィルタ値に従って前記画像データの画像フィルタ処理を実施する画像フィルタ処理部と、画像フィルタ処理された画像データを前記相対位置に応じて右眼・左眼に投影する立体表示パネル部と、を備えるものである。
本実施形態7の立体画像表示装置及び立体画像処理方法によれば、画像フィルタ処理に加えて、視差調整処理を実施することで、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供し、課題を解決する。
[実施形態8](優先権としての追記内容)
本実施形態8では、観察者の観察位置と立体表示パネルとの相対位置に応じた任意視点画像生成処理と画像フィルタ処理を組合せることにより、3Dクロストークによる2重像を軽減するだけでなく、相対位置の移動に応じて運動視差も提示する立体画像表示装置を提供することが目的となる。
図88に、立体画像表示装置100の構成図を示す。立体画像表示装置100は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107と、任意視点画像生成部190とを備えるものである。また、相対位置算出部102、画像フィルタ値算出部104、画像フィルタ処理部106、任意視点画像生成部190を統合した処理部を画像処理部150とする。
以下に、立体画像表示装置100に含まれる各部の機能を説明する。観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107とは、実施形態1と同様である。
任意視点画像生成部190は、観察者の観察位置と立体表示パネルとの相対位置を参照して、仮想的なカメラの視点位置を算出し、画像データ保管部105から取得した立体画像コンテンツに対して、このカメラ視点位置から撮影した画像データを生成する機能を有する。画像フィルタ処理部106は、画像フィルタ値算出部104で算出された画像フィルタ値に従って該画像データを画像フィルタ処理し、処理後の画像データを表示対象とする。
ここで、まず運動視差と任意視点画像生成との関係について説明する。
運動視差とは、立体物を閲覧している観察者の観察位置が移動した際に、立体物が一定方向へ規則的に変化して視認されることを示す。観察者と立体物が近距離の場合には観察位置の移動に伴う立体物の見え方の変化が増大し、観察者と立体物が遠距離の場合には立体物の見え方の変化が減少する。これより、観察者は観察位置の移動に伴う立体物の見え方の変化から観察者と立体物との距離感を知覚する。
一般に立体画像表示装置では、観察者の左右の眼へ異なる視差の画像データを投影して両眼視差を提示する。多視点方式やインテグラル方式のような複数視点の画像を空間投影する方式では、両眼視差に加えて観察者が移動することで運動視差を認知することができる。一方で、両眼視差が無い場合、言い換えると観察者の左右の眼へ同一視差の画像データを投影する場合においても、観察者の動きに応じた画像データを表示することで運動視差を提示することも可能である。この場合の仮想的なカメラの視点位置と視野角との関係を図89に示す。この図89の縦軸は立体画像コンテンツから画像データを取得する際に設定される仮想的なカメラの視点位置を表し、横軸は観察者の観察位置と立体表示パネルとの相対位置から算出された視野角を表す。縦軸のVθ〜Vθ、横軸のθ〜θについては後述する。
仮想的なカメラの視点位置について概念図を図90に示す。この図90の中心部には立体画像コンテンツが存在し、その周囲に仮想的なカメラが設置されている。仮想的なカメラを設置した視点位置(Vθ,Vθ,Vθ,Vθ,Vθ)から立体画像コンテンツを撮影することで、任意視点位置における画像データを取得する。この仮想的なカメラの視点位置情報は画像データの属性情報として画像データへ付加しても良い。
図90では、立体画像コンテンツの周囲へ円状に仮想的なカメラを設置した例を示したが、仮想的なカメラは球状に設置しても良く、また立体画像コンテンツと仮想的なカメラとの距離を任意に変更しても良い。このように仮想的なカメラを設置することで、立体画像コンテンツを3次元空間上の任意視点位置から撮影した画像データが取得できる。図90の仮想カメラの視点位置は、X軸-Z軸平面上の角度Vθと、Y軸-Z軸平面上の角度Vφと、仮想的なカメラの視点位置から立体表示パネルの中心位置までの距離VRと表記する。
観察者の観察位置と立体画像表示装置の立体表示パネルとの相対位置の概念図を図91に示す。図91の立体表示パネル面上には、図90の立体画像コンテンツを表示している。ここで相対位置は実施形態1と同様にしてX軸-Z軸平面上の相対位置の角度を視野角θで表記する。また、Y軸-Z軸平面上の角度を視野角φ、観察者の観察位置から立体表示パネルの中心位置までの長さを距離Rと表記する。
立体表示パネル面上に表示した立体画像コンテンツと立体表示パネルとの位置関係から図90と図91との座標軸を一致させて、図90の仮想カメラの視点位置(Vθ,Vθ,Vθ,Vθ,Vθ)と図91の相対位置(θ,θ,θ,θ,θ)との位置関係を対応付ける。図89はこの関係性を示したものである。図89では、相対位置の視野角θに対してX軸-Z軸平面上の角度Vθの例を示しているが、相対位置の視野角φに対するY軸-Z軸平面上の角度Vφ、相対位置の距離Rに対する仮想的なカメラの視点位置から立体表示パネルの中心位置までの距離VRについても同様の関係で示すことができる。
これより、相対位置が移動した際に、観察者は実際の立体物の見え方の変化を再現する画像データを視認するため、運動視差を知覚する。Y-Z軸面上の視野角φにおける運動視差の提示方法も、X-Z軸面上の視野角θと同様である。また、観察者の観察位置から立体表示パネルの中心位置までの距離Rの変化に伴って、仮想的なカメラの視点位置から立体表示パネルの中心位置までの距離VRを変更することで(画像データに表示される立体画像コンテンツの表示倍率を変更しても良い)、相対位置の距離変化に伴う運動視差も提示できる。図89の関係図から運動視差の提示方法を示したが、図89の提示方法では、観察者の左右の眼に同一視差の画像データを表示しているため、両眼視差は提示できない。
以上が、運動視差と任意視点画像生成との関係の説明である。
本実施形態8では、観察者へ両眼視差と運動視差を提示する構成を示すものである。
立体画像表示装置における両眼視差の提示は、実施形態1と同様にして、観察者の左右の眼に異なる視差の画像データである左眼用画像と右眼用画像を表示する。
具体的には、図89で示した視野角に対する仮想的なカメラの視点位置の関係に対して、観察者の両眼間隔を考慮して、右眼用画像データを撮影した仮想的なカメラの視点位置と左眼用画像データを撮影した仮想的案カメラの視点位置に分離すると、図92に示すような両眼視差を考慮した視野角に対する仮想的なカメラ視点位置の関係が得られる。図92の黒線は観察者の左眼用画像データを撮影した際の仮想的なカメラの視点位置を表し、一点鎖線は観察者の右眼用画像データを撮影した際の仮想的なカメラの視点位置を表す。ここで、左眼用と右眼用の仮想的なカメラの視点位置の差は、画像データの視差値と等しくなるように調整する。
また、図93に実施形態1の図12に示した視野角に対する画像フィルタの窓幅値の算出結果を示す。本実施形態8の画像フィルタ処理部106では、図92に示した仮想的なカメラの視点位置で撮影した画像データに対し、図93に示した画像フィルタの窓幅値に従って、画像フィルタ処理を実施する。図92と図93では、3Dクロストーク量が大きくなる視野角θでは画像フィルタの窓幅値をWに設定して画像フィルタ処理を実施し、3Dクロストーク量が若干大きくなる視野角θとθでは画像フィルタの窓幅値Wに設定して画像フィルタ処理を実施する。これより、実施形態1と同様に3Dクロストーク量に応じて、画像ぼかし量を調整し、3Dクロストークによる2重像の影響を軽減できる。
実施形態1で説明した通り、立体表示パネル部の逆視領域では、右眼用画像と左眼用画像とを入れ替えて表示することで、逆視の影響を解決しても良い。従って、図92は逆視領域における左眼用と右眼用の仮想的なカメラの視点位置が、正視領域における左眼用と右眼用の仮想的なカメラの視点位置を入れ替えたものとなる。
図94に仮想的なカメラの視点位置と視野角との関係の概念図を示す。図94の灰色のカメラは観察者の左眼用画像データを撮影した際の仮想的なカメラの視点位置を表し、白色のカメラは観察者の右眼用画像データを撮影した際の仮想的なカメラの視点位置を表す。ここで、逆視領域となる視野角θと視野角θにおける左眼用と右眼用との仮想的なカメラの視点位置は、正視領域となる視野角θと視野角θにおける左眼用と右眼用との仮想的なカメラの視点位置を入れ替えたものとなる。
また、左眼用の仮想的なカメラの視点位置と右眼用の仮想的なカメラの視点位置との差が画像データの視差値となる。
図94では、図88の任意視点画像生成部190において、立体表示パネルの逆視領域となる視野角範囲で左眼用と右眼用との仮想的なカメラの視点位置を入れ替えたが、これに限定されない。例えば、図95に示すように左眼用と右眼用との仮想的なカメラの視点位置を入れ替えずに画像を生成することも可能である。この場合は、画像フィルタ処理部106において、立体表示パネルの逆視領域となる視野角範囲では、左眼用画像と右眼用画像を入れ替えれば良い。
両眼視差を考慮した視野角に対する仮想的なカメラ視点位置の関係を示す図92では各視点位置に2台の仮想的なカメラを用いた例を示しているが、仮想的なカメラの数はこれに限定されず3台以上の仮想的なカメラでも同様に適用できる。
仮想的なカメラの数は、立体表示パネルの視点領域の数に対応する。一般的に裸眼式の立体画像表示装置は、立体表示パネルにより立体画像を投影する空間領域を分割し、分割した空間領域ごとに視差の異なる画像を投影することで、観察者の左右の眼に視差の異なる画像を投影する。この立体表示パネルによって分割された空間領域を視点領域と呼ぶ。実施形態1においては、2視点の立体表示パネルの例として、図5で説明したように右眼領域と左眼領域の、計2つの視点領域を有する。また、4視点の立体表示パネルは図24で説明したように第1視点と第2視点と第3視点と第4視点用画像を表示する視点領域の、計4つの視点領域を有する。
図96は、4台の仮想的なカメラを用いた場合における視野角に対する仮想的なカメラ視点位置を示す。
また、観察者と立体表示パネルとの相対位置を示す視野角を参照して、N視点の仮想的なカメラの中から観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動することで、逆視を防止しても良い。例えば、図96の視野角θ13では、第1視点画像用の仮想的なカメラで撮影した画像は観察者へ投影されないため、視野角θ13において第1視点画像用の仮想的なカメラの視点位置を大幅に変更し、非連続的に仮想的なカメラ視点位置を移動している。このように仮想的なカメラの視点位置を非連続的に移動することで、第1視点と第2視点、第2と第3、第3と第4はもちろん、第4視点と第1視点においても、逆視の無い立体画像を表示できる。
図88との関係を踏まえてまとめると、この場合の特徴は次の通りとなる。
任意視点画像生成部190は、相対位置算出部102で算出した相対位置を参照して、N視点の仮想的なカメラの中から観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動することで、観察者への逆視画像の投影を防止する。
以上より、上記実施形態8では、前述した実施形態1と同様に観察者の観察位置と立体表示パネルとの相対位置の視野角に応じ、仮想的なカメラの視点位置を変更した画像データを表示することで両眼視差と運動視差を提示できる。
本実施形態8の立体画像表示装置における立体画像処理方法のフローチャートについて、図97を参照して説明する。ここで、図97のフローチャートにおけるステップ1〜ステップ5は実施形態1と同様の処理を実施する。
ステップ6は、任意視点画像生成部190を使用して、ステップ2で算出した相対位置を参照して、運動視差量として立体画像コンテンツから画像データを取得した際の仮想的なカメラの視点位置を算出する。
ステップ7は、ステップ6で算出した仮想的なカメラの視点位置で撮影された画像データに対して、ステップ4で算出した画像フィルタ値に従って、画像フィルタ処理を実施する。
ステップ8〜ステップ9は実施形態1のステップ7〜ステップ8と同様の処理を実施する。
図92では、相対位置の視野角θに対してX軸-Z軸平面上の角度Vθの例を示したが、相対位置の視野角φに対するY軸-Z軸平面上の角度Vφについても同様である。水平視差のみの立体表示装置においても、水平垂直視差画像Vφを用いることで水平垂直視差の実現が容易となる。
以上より、観察者の観察位置と立体表示パネルとの相対位置に応じて、任意視点位置の画像データを表示することにより、3Dクロストークによる2重像を軽減するだけでなく、相対位置の移動に応じた立体画像コンテンツの運動視差と両眼視差を提示する立体画像表示装置を提供できる。
前記の実施形態の一例では、立体画像コンテンツの周囲に仮想的なカメラを設置し、立体画像コンテンツを任意視点位置から撮影した画像データを使用する例を示したが、立体画像コンテンツの撮影環境によっては、左眼用画像の1視点と右眼用画像の1視点との計2視点の画像データしか使用できない場合もある。
この場合には、画像データの任意視点画像生成部190によって、計2視点の画像データを使用して、2視点間の範囲内にある視点位置から撮影した画像データは生成できるが、2視点間の範囲外にある視点位置から撮影した画像データの生成は困難となる。従って、計2視点の画像データしか使用できない場合には、2視点間の範囲内で撮影した画像データのみを使用して運動視差を提示する必要がある。
全ての任意視点位置の画像データが使用可能な場合における仮想的なカメラの視点位置と視野角の関係を図98に、画像フィルタの窓幅値と視野角との関係を図99に示す。図98と図99の視野角範囲θからθの関係図は、図92と図93の関係図と同様である。図98の視野角範囲θからθでは、仮想的なカメラの視点位置の角度VθからVθの画像データを、視野角範囲θからθ17では視点位置の角度VθからVθ17の画像データを、視野角範囲θ17からθ27では視点位置の角度Vθ17からVθ27の画像データを表示する。
次に計2視点の画像データしか使用できない場合における仮想的なカメラの視点位置と視野角の関係を図100に示す。ここで、2視点の画像データにおける仮想的なカメラの視点位置はVθとVθとする。2視点の画像データから、仮想的なカメラの視点位置範囲VθからVθまでの画像データは生成できるので、この視点間の範囲内の画像データを使用して運動視差を提示する。
図100の視野角範囲θからθと視野角範囲θ17からθ27では、仮想的なカメラの視点位置範囲VθからVθまでの画像データを表示する。視野角範囲θからθ17では、仮想的なカメラの視点位置をVθから視点位置Vθへ移動する。視点位置の移動は、視野角範囲θからθ17の中央部にある視野角範囲θ11からθ16のみで実施しても良い。なお、視差値が急激に変化する場合には、視点位置の移動を実施する視野角範囲を拡張しても良い。
視点位置の移動を実施する視野角範囲θ11からθ16では、相対位置の変化に対する運動視差が反対方向となるが、視野角範囲θからθと視野角範囲θ17からθ27では観察者へ運動視差を提示できる。以上のように、2視点間内にある任意視点画像の画像データを繰返し表示することで、計2視点の画像データしか使用できない場合においても、多くの視野角範囲において観察者へ運動視差を提示できる。
また、図100では、視野角範囲θからθと視野角範囲θ17からθ27で画像データを繰返し表示する例を記載したが、繰返し表示する視野角範囲は、任意に変更しても良い。繰返し表示する視野角範囲を変更した際の仮想的なカメラの視点位置と視野角の関係を図101に示す。この図101では、立体表示パネル部の正視領域となる視野角範囲θからθと視野角範囲θ13からθ17と視野角範囲θ23からθ27で、仮想的なカメラの視点位置範囲VθからVθの画像データを繰返し表示して運動視差を提示する。
図88との関係を踏まえてまとめると、この場合の特徴は次の通りとなる。任意視点画像生成部190は、画像データ保管部105に保管された左眼用画像データと右眼用画像データを参照して、各々の画像データを撮影した際の仮想的なカメラの視点位置を検出し、その仮想的なカメラの視点位置間の範囲内で撮影される画像データを生成する。次に、相対位置算出部102で算出した相対位置を参照して、生成した画像データを繰返し表示することで、左眼用画像データと右眼用画像データしか使用できない場合であっても観察者へ運動視差を提示する。
以上より、計2視点の画像データしか使用できない場合においても、2視点間内にある任意視点位置の画像データを繰返し表示することで、多くの視野角範囲において、3Dクロストークによる2重像を軽減するだけでなく、相対位置の移動に応じた立体画像コンテンツの運動視差と両眼視差を提示する立体画像表示装置が提供できる。
[その他の実施形態]
上記全ての実施形態における画像フィルタ値算出部104では、デバイス特性データ保管部103に保管されたデバイス特性データを使用して、画像フィルタ値を算出する例について記載したが、デバイス特性データが取得できない状況においても、画像フィルタ処理が実現できるようにデバイス特性データを使用せずに画像フィルタ値を算出しても良い。
この場合、デバイス特性データを使用した場合の画像フィルタ処理と比べて画像フィルタ値の精度は低下するものの、3Dクロストーク量が小さく正視領域幅が大きい立体表示特性を有する立体表示パネルを用いることで、観察者が移動した場合であっても3Dクロストークによる二重像の影響を軽減する画像フィルタ処理が実用可能なレベルで実施できる。
デバイス特性データを使用せずに画像フィルタ値を算出する一例として、観察者自身が主観的に画像フィルタ値を設定する例が挙げられる。観察者は、第一の設定として、立体画像表示装置の立体表示パネルから投影される立体画像を観察しながら、観察位置(観察距離Zと視野角θ)に応じて正視領域と3Dクロストーク領域と逆視領域を設定する。ここで、本設定における観察位置は、画像フィルタ値の精度向上のために、複数の位置で実施されることが望ましい。また、設定に際しては、立体画像表示装置に具備されたキーボードやタッチパネル等の入力装置を用いることができる。
第二の設定として、3Dクロストーク領域の中心位置と最端位置において、観察者が最適に立体画像コンテンツを視認できる画像フィルタ値(画像フィルタの窓幅値)を設定する。また、第三の設定として、3Dクロストーク領域の中心位置と最端位置(3Dクロストーク領域と正視領域との境界位置)との中間位置近傍においても、観察者が最適に立体画像コンテンツを視認できる画像フィルタ値(画像フィルタの窓幅値)を設定しても良い。画像フィルタ値算出部104は、第一、第二及び第三の設定値を用いて、3Dクロストーク領域の最端位置、観察者が画像フィルタ値を設定した3Dクロストーク領域の中心位置、3Dクロストーク領域の中心位置と最端位置との中間位置における画像フィルタ値を繋ぐことで、すべての視野角に対する画像フィルタ値を算出する。なお、図8において、前述の中心位置61、最端位置62,63及び中間位置64,65を示す。
なお、上記した第一及び第二の設定のみを用いて正視領域と3Dクロストーク領域と逆視領域の画像フィルタ値を繋いて、すべての視野角に対する画像フィルタ値を算出することも可能である。さらに、第一、第二及び第三の設定値は、デバイス特性データ保管部103に保管しておくことも可能であるし、デバイス特性データ保管部103を無くして、画像フィルタ値算出部104に記憶させることも可能である。
その他の画像フィルタ値を算出する一例としては、立体画像コンテンツを表示する立体画像表示装置の立体表示パネル部107のデバイス特性データが未知な場合でも、予め立体表示パネルの画面サイズや最適視聴距離等の仕様データと関連させて、複数の立体表示パネルのデバイス特性データをデバイス特性データ保管部103に保管しておき、立体画像コンテンツを表示する際に、表示する立体表示パネルの仕様データと類似する仕様データと関連付けされたデバイス特性データをデバイス特性データ保管部103から取得して、画像フィルタ値を算出する。
以上より、立体画像表示装置の立体表示パネル部107のデバイス特性データが未知な場合であっても、画像フィルタ値を算出し、画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。
ここで、各実施形態の効果について総括する。実施形態1〜7によれば、観察者の観察位置が移動しても、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。これに加え、実施形態1、2、3、4、6によれば、立体画像コンテンツの視差値を使用しなくても、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供できる。また、実施形態7によれば、視差調整処理によって立体画像コンテンツの視差値が低下するに伴って、画像フィルタ処理を適用して立体画像コンテンツの画像ぼかしを実施することで、観察者へ視差調整処理によって立体画像コンテンツの視差値が低下したことを通知する立体画像表示装置及び立体画像処理方法を提供できる。
以上、上記各実施形態を参照して本発明を説明したが、本発明は上記各実施形態に限定されるものではない。本発明の構成や詳細については、当業者が理解し得るさまざまな変更を加えることができる。また、本発明には、上記各実施形態の構成の一部又は全部を相互に適宜組み合わせたものも含まれる。
上記の実施形態の一部又は全部は以下の付記のようにも記載され得るが、本発明は以下の構成に限定されるものではない。
[付記1]少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
観察者の観察位置を計測する観察者位置計測部と、
計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えたことを特徴とする立体画像表示装置。
[付記2]前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
前記画像データを保存又は受信する画像データ保管部と、
を更に備え、
前記画像フィルタ値算出部は、
前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出する、付記1記載の立体画像表示装置。
[付記3]前記相対位置は、前記観察者の観察位置と前記立体表示パネル部の表示面との視野角である、
付記2記載の立体画像表示装置。
[付記4]前記デバイス特性データは、3Dクロストーク特性データであり、
前記画像フィルタ値は、前記3Dクロストーク特性データを基準にして算出される、
付記2又は3記載の立体画像表示装置。
[付記5]前記3Dクロストーク特性データのうち、3Dクロストーク量が所定値を超える領域を3Dクロストーク領域、3Dクロストーク量が前記所定値以下の領域を非3Dクロストーク領域と定義した場合に、
前記3Dクロストーク領域の前記画像フィルタ値が前記非3Dクロストーク領域の前記画像フィルタ値よりも大きい、付記4記載の立体画像表示装置。
[付記6]前記画像フィルタ値算出部は、画像フィルタ処理による画像品質の低下を抑制するように、前記画像データごとに異なる前記画像フィルタ値を算出する、付記1乃至5のいずれか一つに記載の立体画像表示装置。
[付記7]前記相対位置及び前記デバイス特性データに基づき3Dクロストーク画像範囲を算出する3Dクロストーク画像範囲算出部を更に備え、
前記画像フィルタ処理部は、前記画像フィルタ値に従って前記画像データのうち前記3Dクロストーク画像範囲に対して前記画像フィルタ処理を実施する、付記2乃至6のいずれか一つに記載の立体画像表示装置。
[付記8]環境温度を計測する温度計測部を更に備え、
前記画像フィルタ値算出部は、前記相対位置及び前記温度計測部で計測した環境温度に対応する前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出する、付記2乃至7のいずれか一つに記載の立体画像表示装置。
[付記9]前記画像フィルタ値算出部は、前記相対位置、前記デバイス特性データ及び前記画像データが保有する視差値に基づき、立体画像表示に適した前記画像フィルタ値を算出する、付記2乃至8のいずれか一つに記載の立体画像表示装置。
[付記10]前記画像フィルタ値算出部は、3Dクロストークによる二重像が出現する画像範囲の方向性に適した左右非対称な画像フィルタ形状を用いて、前記画像フィルタ値を算出する、付記1乃至9のいずれか一つに記載の立体画像表示装置。
[付記11]前記画像フィルタ値算出部は、前記画像データが保有する視差値を参照して、飛出し表示される画像範囲と奥行き表示される画像範囲とで、前記画像フィルタ形状の左右の方向が反対となる左右非対称な画像フィルタ形状を用いて、前記画像フィルタ値を算出する、付記10記載の立体画像表示装置。
[付記12]前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した視差調整値を算出する視差調整値算出部と、
前記視差調整値に従って前記画像データの視差調整処理を実施する視差調整処理部と、
を更に備えた、付記2乃至11のいずれか一つに記載の立体画像表示装置。
[付記13]前記画像フィルタ値算出部は、
前記相対位置に応じて、前記左眼に左眼用の立体画像及び前記右眼に右眼用の立体映像が投影される正視領域と、前記左眼に右眼用の立体映像及び前記右眼に左眼用の立体映像が投影される逆視領域と、前記左眼に右眼用及び左眼用の立体映像又は前記右眼に左眼用及び右眼用の立体映像が投影される3Dクロストーク領域とに分類し、
前記観察者が前記正視領域から前記逆視領域に移動する際の前記3Dクロストーク領域において、前記画像データに対して前記正視領域又は前記逆視領域よりも大きい画像フィルタ値を付与する付記1乃至12のいずれか一つに記載の立体画像表示装置。
[付記14]少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、
観察者の両眼に視点の異なる画像がそれぞれ投影されることにより立体画像を表示する正視領域のみが存在する立体表示パネル部を備えるとともに、
前記観察者の観察位置を計測する観察者位置計測部と、
前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
前記画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、を備えたことを特徴とする立体画像表示装置。
[付記15]前記相対位置は、前記観察者の観察位置と前記立体表示パネル部の表示面との視野角である、付記14記載の立体画像表示装置。
[付記16]前記画像フィルタ値算出部は、画像フィルタ処理による画像品質の低下を抑制するように、前記画像データごとに異なる前記画像フィルタ値を算出する、付記14又は15に記載の立体画像表示装置。
[付記17]環境温度を計測する温度計測部を更に備え、
前記画像フィルタ値算出部は、前記相対位置及び前記温度計測部で計測した環境温度に対応し、立体画像表示に適した前記画像フィルタ値を算出する、付記14乃至16のいずれか一つに記載の立体画像表示装置。
[付記18]前記画像フィルタ値算出部は、前記相対位置及び前記画像データが保有する視差値に基づき、立体画像表示に適した前記画像フィルタ値を算出する、付記14乃至17のいずれか一つに記載の立体画像表示装置。
[付記19]前記画像フィルタ値算出部は、前記画像データが保有する視差値を参照して、飛出し表示される画像範囲と奥行き表示される画像範囲とで、前記画像フィルタ形状の左右の方向が反対となる左右非対称な画像フィルタ形状を用いて、前記画像フィルタ値を算出する、付記14乃至18のいずれか一つに記載の立体画像表示装置。
[付記20]前記相対位置に基づき、立体画像表示に適した視差調整値を算出する視差調整値算出部と、
前記視差調整値に従って前記画像データの視差調整処理を実施する視差調整処理部と、
を更に備えた、
付記14乃至18のいずれか一つに記載の立体画像表示装置。
[付記21](※実施形態8に対応)(優先権としての追記内容)
付記1乃至20のいずれか一つに記載の立体画像表示装置において、
前記相対位置算出部で算出した相対位置を参照して、2台以上の仮想的なカメラの視点位置を算出する機能を備えた任意視点画像生成部を有し、
前記画像フィルタ処理部は、前記画像フィルタ値算出部で算出された画像フィルタ値に従って該カメラから撮影した画像データを画像フィルタ処理し、処理後の画像データを表示対象とすることを特徴とする立体画像表示装置。
[付記22](※実施形態8に対応-図96)(優先権としての追記内容)
付記21に記載の立体画像表示装置はN視点(Nは3以上)であり、
前記任意視点画像生成部は、前記相対位置算出部で算出した相対位置を参照して、N視点の仮想的なカメラの中から観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動することを特徴とする立体画像表示装置。
[付記23](※実施形態8に対応)(優先権としての追記内容)
付記21に記載の立体画像表示装置の任意視点画像生成部は、
前記画像データ保管部に保管された複数の画像データから視点位置を参照し、視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。
[付記24](※実施形態8に対応-2視点間)(優先権としての追記内容)
付記23に記載の立体画像表示装置は、
前記画像データ保管部に保管された画像データが右眼用画像データと左眼用画像データとの計2視点の画像データであり、
前記任意視点画像生成部は、前記右眼用画像データと前記左眼用画像データから計2つの視点位置を参照し、2視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。
[付記25](※実施形態8に対応-図101)(優先権としての追記内容)
付記24に記載の立体画像表示装置の任意視点画像生成部は、
前記立体表示パネル部の正視領域において、前記相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。
[付記26]少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影されるクロストーク領域と、
が存在する立体表示パネルへ、
画像データを出力する画像処理装置において、
前記観察者の観察位置に対する前記立体表示パネルの相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
前記画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えた画像処理装置。
[付記27]前記観察者の観察位置を計測する観察者位置計測部と、
前記画像フィルタ処理を実施する前の前記画像データを受信する画像データ受信部と、
前記画像フィルタ処理を実施された前記画像データを出力する画像データ送信部と、
を更に備えた付記26記載の画像処理装置。
[付記28]前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部を更に備え、
前記画像フィルタ値算出部は、前記デバイス特性データ及び前記相対位置に基づき前記画像フィルタ値を算出する、
付記26又は27記載の画像処理装置。
[付記29]少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影されるクロストーク領域と、
が存在する立体表示パネルを、
用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察位置に対する前記立体表示パネルの相対位置を算出し、
この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出し、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施し、
この画像フィルタ処理を実施された前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする立体画像処理方法。
[付記30]前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを取得し、
前記画像フィルタ値を算出する際に、前記相対位置に加えて前記デバイス特性データに基づき前記画像フィルタ値を算出し、
前記画像フィルタ処理を実施する前に前記画像データを取得し、
前記画像データに画像フィルタ処理を実施する際に、取得した前記画像データに前記画像フィルタ処理を実施する、付記29記載の立体画像処理方法。
[付記31]前記相対位置及び前記デバイス特性データに基づき3Dクロストーク画像範囲を算出し、
前記画像データに前記画像フィルタ処理を実施する際に、前記画像データのうち前記3Dクロストーク画像範囲に対して前記画像フィルタ処理を実施する、付記30記載の立体画像処理方法。
本発明は、立体画像表示装置に立体画像コンテンツを表示する機能を有する立体画像処理システム並びに立体画像表示システムに適用される。なお、本発明は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
10 観察者
11〜17 立体画像表示装置
101 観察者位置計測部
101a カメラ
102 相対位置算出部
103 デバイス特性データ保管部
104 画像フィルタ値算出部
105 画像データ保管部
106 画像フィルタ処理部
107 立体表示パネル部
107a 立体表示パネル
110 3Dクロストーク画像範囲算出部
114 温度計測部
115 視差値検出部
120 視差調整量算出部
121 視差調整処理部
150 計算機器
151〜157 画像処理部
160 画像処理装置
161 画像データ受信部
162 画像データ送信部
41,42 仮想カメラ
43 物体
51 空白部分
61 中心位置
62,63 最端位置
64,65 中間位置
80,81 領域
70R 右眼領域
70L,72L 左眼領域
70V 視点1の領域
70V 視点2の領域
70V 視点3の領域
70V 視点4の領域
70V 視点5の領域
70V 視点6の領域
70V 視点7の領域
70V 視点8の領域
72V 視点1の領域
71V 視点8の領域
71V 視点4の領域
55L 左眼
55R 右眼
P 画素の幅
P' 投影面での画素の幅
e 両眼間隔
OD 最適観察距離
FD 遠隔観察距離
ND 近接観察距離
h スリット(又はシリンドリカルレンズ)と画素との距離
S スリット幅
L シリンドリカルレンズ幅
4R 右眼用画素
4L 左眼用画素
4V 視点1用画素
4V 視点2用画素
4V 視点3用画素
4V 視点4用画素
4V 視点5用画素
4V 視点6用画素
4V 視点7用画素
4V 視点8用画素
6 パララックスバリア
6a スリット
2 表示パネル
3 レンチキュラレンズ
3a,3b シリンドリカルレンズ
20,21 光線
30 観察面
WP 立体表示パネルの中心画素の位置から両端画素の位置までの幅

Claims (24)

  1. 少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
    観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
    前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
    前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
    が存在する立体表示パネル部を備えるとともに、
    観察者の観察位置を計測する観察者位置計測部と、
    計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
    前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出するものであって、前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する画像フィルタ値算出部と、
    この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
    を備えことを特徴とする立体画像表示装置。
  2. 前記立体表示パネル部の前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
    前記画像データを保存又は受信する画像データ保管部と、
    を更に備え、
    前記画像フィルタ値算出部は、
    前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出する、
    請求項1記載の立体画像表示装置。
  3. 前記相対位置は、前記観察者の観察位置と前記立体表示パネル部の表示面との視野角である、
    請求項2記載の立体画像表示装置。
  4. 前記デバイス特性データは、3Dクロストーク特性データであり、
    前記画像フィルタ値は、前記3Dクロストーク特性データを基準にして算出される、
    請求項2又は3記載の立体画像表示装置。
  5. 少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
    観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
    前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
    前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
    が存在する立体表示パネル部を備えるとともに、
    観察者の観察位置を計測する観察者位置計測部と、
    計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
    この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
    この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
    前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
    前記画像データを保存又は受信する画像データ保管部と、
    を備え、
    前記画像フィルタ値算出部は、前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出し、
    前記デバイス特性データは、3Dクロストーク特性データであり、
    前記3Dクロストーク特性データのうち、3Dクロストーク量が所定値を超える領域を3Dクロストーク領域、3Dクロストーク量が前記所定値以下の領域を非3Dクロストーク領域と定義した場合に、
    前記3Dクロストーク領域の前記画像フィルタ値が前記非3Dクロストーク領域の前記画像フィルタ値よりも大きい、
    ことを特徴とする立体画像表示装置。
  6. 前記画像フィルタ値算出部は、画像フィルタ処理による画像品質の低下を抑制するように、前記画像データごとに異なる前記画像フィルタ値を算出する、
    請求項2乃至5のいずれか一つに記載の立体画像表示装置。
  7. 少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
    観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
    前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
    前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
    が存在する立体表示パネル部を備えるとともに、
    観察者の観察位置を計測する観察者位置計測部と、
    計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
    この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
    この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
    前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
    前記画像データを保存又は受信する画像データ保管部と、
    前記相対位置及び前記デバイス特性データに基づき3Dクロストーク画像範囲を算出する3Dクロストーク画像範囲算出部と、
    を備え、
    前記画像フィルタ値算出部は、前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出し、
    前記画像フィルタ処理部は、前記画像フィルタ値に従って前記画像データのうち前記3Dクロストーク画像範囲に対して前記画像フィルタ処理を実施する、
    ことを特徴とする立体画像表示装置。
  8. 環境温度を計測する温度計測部を更に備え、
    前記画像フィルタ値算出部は、前記相対位置及び前記温度計測部で計測した環境温度に対応する前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出する、
    請求項2乃至7のいずれか一つに記載の立体画像表示装置。
  9. 前記画像フィルタ値算出部は、前記相対位置、前記デバイス特性データ及び前記画像データが保有する視差値に基づき、立体画像表示に適した前記画像フィルタ値を算出する、
    請求項2乃至8のいずれか一つに記載の立体画像表示装置。
  10. 前記画像フィルタ値算出部は、3Dクロストークによる二重像が出現する画像範囲の方向性に適した左右非対称な画像フィルタ形状を用いて、前記画像フィルタ値を算出する、
    請求項2乃至9のいずれか一つに記載の立体画像表示装置。
  11. 前記画像フィルタ値算出部は、前記画像データが保有する視差値を参照して、飛出し表示される画像範囲と奥行き表示される画像範囲とで、前記画像フィルタ形状の左右の方向が反対となる左右非対称な画像フィルタ形状を用いて、前記画像フィルタ値を算出する、
    請求項10記載の立体画像表示装置。
  12. 前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した視差調整値を算出する視差調整値算出部と、
    前記視差調整値に従って前記画像データの視差調整処理を実施する視差調整処理部と、
    を更に備えた、
    請求項2乃至11のいずれか一つに記載の立体画像表示装置。
  13. 前記画像フィルタ値算出部は、前記観察者が前記正視領域から前記逆視領域に移動する際の前記3Dクロストーク領域において、前記画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する、
    請求項2乃至12のいずれか一つに記載の立体画像表示装置。
  14. 請求項2乃至12のいずれか一つに記載の立体画像表示装置において、
    前記相対位置算出部で算出した相対位置を参照して、2台以上の仮想的なカメラの視点位置を算出する機能を備えた任意視点画像生成部を有し、
    前記画像フィルタ処理部は、前記画像フィルタ値算出部で算出された画像フィルタ値に従って該カメラから撮影した画像データを画像フィルタ処理し、処理後の画像データを表示対象とすることを特徴とする立体画像表示装置。
  15. 請求項14に記載の立体画像表示装置はN視点(Nは3以上)であり、
    前記任意視点画像生成部は、前記相対位置算出部で算出した相対位置を参照して、N視点の仮想的なカメラの中から観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動することを特徴とする立体画像表示装置。
  16. 請求項2、5又は7記載の立体画像表示装置において、
    前記相対位置算出部で算出した相対位置を参照して、2台以上の仮想的なカメラの視点位置を算出する機能を備えた任意視点画像生成部を有し、
    前記画像フィルタ処理部は、前記画像フィルタ値算出部で算出された画像フィルタ値に従って該カメラから撮影した画像データを画像フィルタ処理し、処理後の画像データを表示対象とし、
    前記任意視点画像生成部は、
    前記画像データ保管部に保管された複数の画像データから視点位置を参照し、視点位置間内にある任意視点位置を特定し、
    前記相対位置算出部で算出した相対位置に応じて、視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。
  17. 請求項16に記載の立体画像表示装置は、
    前記画像データ保管部に保管された画像データが右眼用画像データと左眼用画像データとの計2視点の画像データであり、
    前記任意視点画像生成部は、前記右眼用画像データと前記左眼用画像データから計2つの視点位置を参照し、2視点位置間内にある任意視点位置を特定し、
    前記相対位置算出部で算出した相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。
  18. 請求項17に記載の立体画像表示装置の任意視点画像生成部は、
    前記立体表示パネル部の正視領域において、前記相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。
  19. 少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
    観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
    前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
    前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
    が存在する立体表示パネルへ、
    画像データを出力する画像処理装置において、
    前記観察者の観察位置に対する前記立体表示パネルの相対位置を算出する相対位置算出部と、
    前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出するものであって、前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する画像フィルタ値算出部と、
    前記画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
    を備えた画像処理装置。
  20. 前記観察者の観察位置を計測する観察者位置計測部と、
    前記画像フィルタ処理を実施する前の前記画像データを受信する画像データ受信部と、
    前記画像フィルタ処理を実施された前記画像データを出力する画像データ送信部と、
    を更に備えた請求項19記載の画像処理装置。
  21. 前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部を更に備え、
    前記画像フィルタ値算出部は、前記デバイス特性データ及び前記相対位置に基づき前記画像フィルタ値を算出する、
    請求項19又は20記載の画像処理装置。
  22. 少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
    観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
    前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
    前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
    が存在する立体表示パネルを、
    用いた立体画像処理方法において、
    前記観察者の観察位置を計測し、
    この観察位置に対する前記立体表示パネルの相対位置を算出し、
    この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出し、このとき前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与し、
    この画像フィルタ値に従って画像データに画像フィルタ処理を実施し、
    この画像フィルタ処理を実施された前記画像データを前記立体表示パネルへ出力する、
    ことを特徴とする立体画像処理方法。
  23. 前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを取得し、
    前記画像フィルタ値を算出する際に、前記相対位置に加えて前記デバイス特性データに基づき前記画像フィルタ値を算出し、
    前記画像フィルタ処理を実施する前に前記画像データを取得し、
    前記画像データに画像フィルタ処理を実施する際に、取得した前記画像データに前記画像フィルタ処理を実施する、
    請求項22記載の立体画像処理方法。
  24. 少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
    観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
    前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
    前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
    が存在する立体表示パネルを、
    用いた立体画像処理方法において、
    前記観察者の観察位置を計測し、
    この観察位置に対する前記立体表示パネルの相対位置を算出し、
    前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを取得し、
    前記相対位置及び前記デバイス特性データに応じて、画像ぼかし量を調整する画像フィルタ値を算出し、
    前記相対位置及び前記デバイス特性データに基づき3Dクロストーク画像範囲を算出し、
    画像データのうち前記3Dクロストーク画像範囲に対して前記画像フィルタ値に従って画像フィルタ処理を実施し、
    この画像フィルタ処理を実施された前記画像データを前記立体表示パネルへ出力する、
    ことを特徴とする立体画像処理方法。
JP2013089532A 2012-07-31 2013-04-22 立体画像表示装置、画像処理装置及び立体画像処理方法 Active JP6308513B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013089532A JP6308513B2 (ja) 2012-07-31 2013-04-22 立体画像表示装置、画像処理装置及び立体画像処理方法
CN201310326072.0A CN103595988B (zh) 2012-07-31 2013-07-30 立体图像显示装置、图像处理装置及图像处理方法
CN201710090451.2A CN107071382B (zh) 2012-07-31 2013-07-30 立体图像显示装置
CN201710090813.8A CN107105213B (zh) 2012-07-31 2013-07-30 立体图像显示装置
US13/955,275 US9280951B2 (en) 2012-07-31 2013-07-31 Stereoscopic image display device, image processing device, and stereoscopic image processing method
EP13178737.6A EP2693759B1 (en) 2012-07-31 2013-07-31 Stereoscopic image display device, image processing device, and stereoscopic image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012170645 2012-07-31
JP2012170645 2012-07-31
JP2013089532A JP6308513B2 (ja) 2012-07-31 2013-04-22 立体画像表示装置、画像処理装置及び立体画像処理方法

Publications (2)

Publication Number Publication Date
JP2014045473A JP2014045473A (ja) 2014-03-13
JP6308513B2 true JP6308513B2 (ja) 2018-04-11

Family

ID=48914095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013089532A Active JP6308513B2 (ja) 2012-07-31 2013-04-22 立体画像表示装置、画像処理装置及び立体画像処理方法

Country Status (4)

Country Link
US (1) US9280951B2 (ja)
EP (1) EP2693759B1 (ja)
JP (1) JP6308513B2 (ja)
CN (3) CN103595988B (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201334510A (zh) * 2012-02-07 2013-08-16 Wintek Corp 裸眼與眼鏡可切換式立體顯示裝置
JP6213812B2 (ja) * 2012-07-31 2017-10-18 Tianma Japan株式会社 立体画像表示装置及び立体画像処理方法
CN103414912B (zh) * 2013-07-31 2016-03-02 京东方科技集团股份有限公司 一种评价裸眼立体显示串扰的方法及装置
CN103763540B (zh) * 2014-01-08 2017-01-04 深圳超多维光电子有限公司 立体显示方法和立体显示装置
CN105578171B (zh) * 2014-04-01 2017-07-11 青岛海信电器股份有限公司 一种图像信号处理方法及装置
US10063829B2 (en) * 2014-04-18 2018-08-28 Canon Kabushiki Kaisha Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
JP6516234B2 (ja) 2014-04-24 2019-05-22 Tianma Japan株式会社 立体画像表示装置
FR3021489A1 (fr) * 2014-05-22 2015-11-27 Orange Procede de telechargement adaptatif de contenus numeriques pour plusieurs ecrans
JP6397698B2 (ja) 2014-08-28 2018-09-26 任天堂株式会社 情報処理端末、情報処理プログラム、情報処理端末システム、および情報処理方法
US10448005B2 (en) * 2015-01-22 2019-10-15 Nlt Technologies, Ltd. Stereoscopic display device and parallax image correcting method
JP6677385B2 (ja) * 2015-01-22 2020-04-08 天馬微電子有限公司 立体表示装置及び視差画像補正方法
CN104639934B (zh) * 2015-01-22 2017-11-21 深圳超多维光电子有限公司 立体图像反视处理方法及显示装置
CN104809995A (zh) * 2015-04-28 2015-07-29 京东方科技集团股份有限公司 一种图像处理方法及系统
JP6588840B2 (ja) * 2016-02-04 2019-10-09 株式会社ジャパンディスプレイ 表示装置
CN107643603B (zh) * 2016-07-21 2021-04-09 天马微电子股份有限公司 立体显示装置及控制方法
JP7038981B2 (ja) * 2016-07-21 2022-03-22 天馬微電子有限公司 立体表示装置及び制御方法
KR102025473B1 (ko) * 2017-05-23 2019-11-04 최해용 공간 분리 영상 장치
KR102411661B1 (ko) 2017-07-31 2022-06-21 삼성전자주식회사 영상 처리 방법 및 디바이스
WO2020004275A1 (ja) * 2018-06-26 2020-01-02 京セラ株式会社 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
JP7154877B2 (ja) * 2018-08-22 2022-10-18 キヤノン株式会社 画像投射装置、画像投射装置の制御方法、および、プログラム
TWI692241B (zh) * 2018-09-10 2020-04-21 宏碁股份有限公司 立體顯示裝置與立體顯示方法
US10854171B2 (en) 2018-12-31 2020-12-01 Samsung Electronics Co., Ltd. Multi-user personal display system and applications thereof
EP3958247B1 (en) * 2019-03-21 2023-12-13 BOE Technology Group Co., Ltd. Display apparatus, electronic device, and driving method of display apparatus
CN112929634A (zh) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 多视点裸眼3d显示设备和3d图像显示方法
JP2021141423A (ja) * 2020-03-04 2021-09-16 富士フイルムビジネスイノベーション株式会社 表示システム、表示制御装置及びプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11155154A (ja) * 1997-11-19 1999-06-08 Toshiba Corp 立体映像処理装置
JP2000098299A (ja) * 1998-09-18 2000-04-07 Sanyo Electric Co Ltd 立体映像表示装置
JP2001298754A (ja) 2000-04-11 2001-10-26 Tomohiko Hattori 立体画像におけるクロストーク消去方式および装置
US6618054B2 (en) 2000-05-16 2003-09-09 Sun Microsystems, Inc. Dynamic depth-of-field emulation based on eye-tracking
JP2002095010A (ja) 2000-09-18 2002-03-29 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP4125252B2 (ja) 2004-03-02 2008-07-30 株式会社東芝 画像生成装置、画像生成方法、及び画像生成プログラム
JP4403162B2 (ja) 2006-09-29 2010-01-20 株式会社東芝 立体画像表示装置および立体画像の作製方法
KR20120052365A (ko) * 2009-07-29 2012-05-23 톰슨 라이센싱 3차원(3d) 프로젝션의 누화 보정 방법
JP2011040946A (ja) * 2009-08-10 2011-02-24 Sony Corp 画像処理装置及びプログラム
JP5476910B2 (ja) * 2009-10-07 2014-04-23 株式会社ニコン 画像生成装置、画像生成方法、および、プログラム
JP5615136B2 (ja) 2010-01-12 2014-10-29 三菱電機株式会社 立体画像補正方法、立体表示装置、および立体画像生成装置
JP2011176800A (ja) * 2010-01-28 2011-09-08 Toshiba Corp 画像処理装置、立体表示装置及び画像処理方法
JP2011244349A (ja) * 2010-05-20 2011-12-01 Nikon Corp 表示装置および表示方法
JP5235976B2 (ja) 2010-05-31 2013-07-10 株式会社ソニー・コンピュータエンタテインメント 映像再生方法、および映像再生装置
JP5494283B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
JP2012044308A (ja) 2010-08-16 2012-03-01 Sharp Corp 3d画像出力装置及び3d画像表示装置
US20120062551A1 (en) 2010-09-13 2012-03-15 Lg Electronics Inc. Image display apparatus and method for operating image display apparatus
JP5269027B2 (ja) * 2010-09-30 2013-08-21 株式会社東芝 三次元画像表示装置および画像処理装置
TWI448146B (zh) * 2011-10-14 2014-08-01 Au Optronics Corp 可改善鬼影現象之立體影像處理方法及其立體顯示裝置
JP6213812B2 (ja) 2012-07-31 2017-10-18 Tianma Japan株式会社 立体画像表示装置及び立体画像処理方法

Also Published As

Publication number Publication date
CN107105213B (zh) 2018-11-30
CN103595988A (zh) 2014-02-19
CN103595988B (zh) 2017-04-12
CN107105213A (zh) 2017-08-29
CN107071382A (zh) 2017-08-18
EP2693759B1 (en) 2016-09-21
EP2693759A3 (en) 2014-08-06
EP2693759A2 (en) 2014-02-05
CN107071382B (zh) 2019-04-26
JP2014045473A (ja) 2014-03-13
US9280951B2 (en) 2016-03-08
US20140035907A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
JP6308513B2 (ja) 立体画像表示装置、画像処理装置及び立体画像処理方法
JP6380881B2 (ja) 立体画像表示装置、画像処理装置及び立体画像処理方法
JP6213812B2 (ja) 立体画像表示装置及び立体画像処理方法
JP6443654B2 (ja) 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム
EP3350989B1 (en) 3d display apparatus and control method thereof
CN102404592B (zh) 图像处理设备和方法以及立体图像显示设备
JP5625979B2 (ja) 表示装置および表示方法ならびに表示制御装置
KR20120075829A (ko) 적응적 부화소 렌더링 장치 및 방법
KR20140073584A (ko) 화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램
JP2013013055A (ja) 裸眼立体ディスプレイ装置及び視点調整方法
KR100751290B1 (ko) 헤드 마운티드 디스플레이용 영상 시스템
US20130162630A1 (en) Method and apparatus for displaying stereoscopic image contents using pixel mapping
CN102970498A (zh) 菜单立体显示的显示方法及显示装置
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
KR100893381B1 (ko) 실시간 입체영상 생성방법
JP6604493B2 (ja) 立体画像表示装置及び端末装置
Lu Computational Photography
KR101173640B1 (ko) 3차원 헤드 마운티드 디스플레이 장치
Hasegawa et al. 55.4: Optimized Parallax Control of Arbitrary Viewpoint Images with Motion Parallax on Autostereoscopic Displays

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R150 Certificate of patent or registration of utility model

Ref document number: 6308513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250