JP6308513B2 - 立体画像表示装置、画像処理装置及び立体画像処理方法 - Google Patents
立体画像表示装置、画像処理装置及び立体画像処理方法 Download PDFInfo
- Publication number
- JP6308513B2 JP6308513B2 JP2013089532A JP2013089532A JP6308513B2 JP 6308513 B2 JP6308513 B2 JP 6308513B2 JP 2013089532 A JP2013089532 A JP 2013089532A JP 2013089532 A JP2013089532 A JP 2013089532A JP 6308513 B2 JP6308513 B2 JP 6308513B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- stereoscopic
- eye
- crosstalk
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 293
- 238000003672 processing method Methods 0.000 title claims description 66
- 238000004364 calculation method Methods 0.000 claims description 201
- 238000000034 method Methods 0.000 claims description 179
- 230000008569 process Effects 0.000 claims description 114
- 238000013500 data storage Methods 0.000 claims description 103
- 238000001914 filtration Methods 0.000 claims description 62
- 230000003287 optical effect Effects 0.000 claims description 48
- 238000005259 measurement Methods 0.000 claims description 38
- 230000007613 environmental effect Effects 0.000 claims description 25
- 230000007423 decrease Effects 0.000 claims description 14
- 238000009529 body temperature measurement Methods 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 67
- 230000006870 function Effects 0.000 description 47
- 230000033001 locomotion Effects 0.000 description 33
- 230000004888 barrier function Effects 0.000 description 20
- 230000000694 effects Effects 0.000 description 20
- 239000011521 glass Substances 0.000 description 17
- 230000008859 change Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 14
- 238000011156 evaluation Methods 0.000 description 14
- 238000009434 installation Methods 0.000 description 12
- 239000004973 liquid crystal related substance Substances 0.000 description 9
- 238000012937 correction Methods 0.000 description 7
- 230000001965 increasing effect Effects 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 238000002156 mixing Methods 0.000 description 5
- 239000006185 dispersion Substances 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000005315 distribution function Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 229920003229 poly(methyl methacrylate) Polymers 0.000 description 2
- 239000004417 polycarbonate Substances 0.000 description 2
- 229920000515 polycarbonate Polymers 0.000 description 2
- 239000004926 polymethyl methacrylate Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 229920006351 engineering plastic Polymers 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 229910010272 inorganic material Inorganic materials 0.000 description 1
- 239000011147 inorganic material Substances 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 239000011368 organic material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
- H04N13/125—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/002—Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Description
Lf(x,y)=Lc(x,y)−α×Rc(x,y) 式(1)
ここで、Lf(x,y)は、補正処理後のL画像の輝度値を示す。Lc(x,y)は,元データとなる立体画像コンテンツのL画像の輝度値を示す。αは3Dクロストーク量(混入する画像成分の割合)を、Rc(x,y)は元データとなる立体画像コンテンツのR画像の輝度値を、それぞれ示す。
少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
観察者の観察位置を計測する観察者位置計測部と、
計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出するものであって、前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する画像フィルタ値算出部と、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えたことを特徴とする。
少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルへ、
画像データを出力する画像処理装置において、
前記観察者の観察位置に対する前記立体表示パネルの相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出するものであって、前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する画像フィルタ値算出部と、
前記画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えたものである。
少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルを、
用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察位置に対する前記立体表示パネルの相対位置を算出し、
この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出し、このとき前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与し、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施し、
この画像フィルタ処理を実施された前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする。
実施形態1の立体画像表示装置の構成について下記に説明する。図1は立体画像表示装置11の構成図である。立体画像表示装置11は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、画像フィルタ値算出部104と、画像データ保管部105と、画像フィルタ処理部106と、立体表示パネル部107とを備えるものである。また、相対位置算出部102、画像フィルタ値算出部104、画像フィルタ処理部106を統合した処理部を、画像処理部151とする。
tanθ=X/Z 式(2)
θ=tan−1(X/Z) 式(3)
3DCT(θ)=(Y(LBRW)−Y(LBRB))/(Y(LWRB)−Y(LBRB)) 式(4)
ここで、Y(LBRW)は左眼画像を黒とし、右眼画像を白としたときの輝度、Y(LBRB)は左眼画像を黒とし、右眼画像を黒としたときの輝度、Y(LWRB)は左眼画像を白とし、右眼画像を黒としたときの輝度である。
本実施形態2では、立体画像コンテンツの画像データごとに異なる画像フィルタ値を算出することで、画像フィルタ処理によって立体画像コンテンツの画像データがぼけても、観察者が視認する立体画像コンテンツの画像品質の低下を抑制する画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
W4=W2+W2−W1 式(11)
W5=W2+W2−1 式(12)
本実施形態3では、3Dクロストークによる二重像の影響が現れる画像範囲だけに画像フィルタ処理を適用することで、その他の画像範囲は画像フィルタ処理による画像ぼけが無い表示状態で、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
本実施形態4では、立体画像表示装置を使用する環境温度が変化しても、その温度に適切な画像フィルタ処理を行い、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
本実施形態5では、デバイス特性データだけでなく、立体画像コンテンツの視差値を参照して、画像フィルタ値を算出することにより、立体画像コンテンツの視差値に適した画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することが目的となる。
視差値u=x1−x2 式(10)
α(x,y)=u(x,y)/umax 式(11)
Wp(x,y)=Wp×α(x,y) 式(12)
本実施形態6では、画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性を考慮して、画像フィルタ値を算出することにより、画像データごとに3Dクロストークによる二重像が出現する画像範囲の方向性に適した画像フィルタ処理を実施して、3Dクロストークによる二重像の影響を軽減し、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
本実施形態7では、画像フィルタ処理に加えて、視差調整処理を実施することで、3Dクロストークによる二重像の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することを目的とする。
(uf<=uth) AND (uf<=uc) 式(15)
uf=κuc 式(16)
uf(x,y)=κuc(x,y) 式(17)
ここで、uc(x,y)は、視差画像の画素位置(x,y)における視差値を示す。
本実施形態8では、観察者の観察位置と立体表示パネルとの相対位置に応じた任意視点画像生成処理と画像フィルタ処理を組合せることにより、3Dクロストークによる2重像を軽減するだけでなく、相対位置の移動に応じて運動視差も提示する立体画像表示装置を提供することが目的となる。
任意視点画像生成部190は、観察者の観察位置と立体表示パネルとの相対位置を参照して、仮想的なカメラの視点位置を算出し、画像データ保管部105から取得した立体画像コンテンツに対して、このカメラ視点位置から撮影した画像データを生成する機能を有する。画像フィルタ処理部106は、画像フィルタ値算出部104で算出された画像フィルタ値に従って該画像データを画像フィルタ処理し、処理後の画像データを表示対象とする。
運動視差とは、立体物を閲覧している観察者の観察位置が移動した際に、立体物が一定方向へ規則的に変化して視認されることを示す。観察者と立体物が近距離の場合には観察位置の移動に伴う立体物の見え方の変化が増大し、観察者と立体物が遠距離の場合には立体物の見え方の変化が減少する。これより、観察者は観察位置の移動に伴う立体物の見え方の変化から観察者と立体物との距離感を知覚する。
以上が、運動視差と任意視点画像生成との関係の説明である。
立体画像表示装置における両眼視差の提示は、実施形態1と同様にして、観察者の左右の眼に異なる視差の画像データである左眼用画像と右眼用画像を表示する。
また、左眼用の仮想的なカメラの視点位置と右眼用の仮想的なカメラの視点位置との差が画像データの視差値となる。
仮想的なカメラの数は、立体表示パネルの視点領域の数に対応する。一般的に裸眼式の立体画像表示装置は、立体表示パネルにより立体画像を投影する空間領域を分割し、分割した空間領域ごとに視差の異なる画像を投影することで、観察者の左右の眼に視差の異なる画像を投影する。この立体表示パネルによって分割された空間領域を視点領域と呼ぶ。実施形態1においては、2視点の立体表示パネルの例として、図5で説明したように右眼領域と左眼領域の、計2つの視点領域を有する。また、4視点の立体表示パネルは図24で説明したように第1視点と第2視点と第3視点と第4視点用画像を表示する視点領域の、計4つの視点領域を有する。
また、観察者と立体表示パネルとの相対位置を示す視野角を参照して、N視点の仮想的なカメラの中から観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動することで、逆視を防止しても良い。例えば、図96の視野角θ13では、第1視点画像用の仮想的なカメラで撮影した画像は観察者へ投影されないため、視野角θ13において第1視点画像用の仮想的なカメラの視点位置を大幅に変更し、非連続的に仮想的なカメラ視点位置を移動している。このように仮想的なカメラの視点位置を非連続的に移動することで、第1視点と第2視点、第2と第3、第3と第4はもちろん、第4視点と第1視点においても、逆視の無い立体画像を表示できる。
任意視点画像生成部190は、相対位置算出部102で算出した相対位置を参照して、N視点の仮想的なカメラの中から観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動することで、観察者への逆視画像の投影を防止する。
ステップ7は、ステップ6で算出した仮想的なカメラの視点位置で撮影された画像データに対して、ステップ4で算出した画像フィルタ値に従って、画像フィルタ処理を実施する。
ステップ8〜ステップ9は実施形態1のステップ7〜ステップ8と同様の処理を実施する。
図92では、相対位置の視野角θに対してX軸-Z軸平面上の角度Vθの例を示したが、相対位置の視野角φに対するY軸-Z軸平面上の角度Vφについても同様である。水平視差のみの立体表示装置においても、水平垂直視差画像Vφを用いることで水平垂直視差の実現が容易となる。
この場合には、画像データの任意視点画像生成部190によって、計2視点の画像データを使用して、2視点間の範囲内にある視点位置から撮影した画像データは生成できるが、2視点間の範囲外にある視点位置から撮影した画像データの生成は困難となる。従って、計2視点の画像データしか使用できない場合には、2視点間の範囲内で撮影した画像データのみを使用して運動視差を提示する必要がある。
上記全ての実施形態における画像フィルタ値算出部104では、デバイス特性データ保管部103に保管されたデバイス特性データを使用して、画像フィルタ値を算出する例について記載したが、デバイス特性データが取得できない状況においても、画像フィルタ処理が実現できるようにデバイス特性データを使用せずに画像フィルタ値を算出しても良い。
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
観察者の観察位置を計測する観察者位置計測部と、
計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えたことを特徴とする立体画像表示装置。
前記画像データを保存又は受信する画像データ保管部と、
を更に備え、
前記画像フィルタ値算出部は、
前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出する、付記1記載の立体画像表示装置。
付記2記載の立体画像表示装置。
前記画像フィルタ値は、前記3Dクロストーク特性データを基準にして算出される、
付記2又は3記載の立体画像表示装置。
前記3Dクロストーク領域の前記画像フィルタ値が前記非3Dクロストーク領域の前記画像フィルタ値よりも大きい、付記4記載の立体画像表示装置。
前記画像フィルタ処理部は、前記画像フィルタ値に従って前記画像データのうち前記3Dクロストーク画像範囲に対して前記画像フィルタ処理を実施する、付記2乃至6のいずれか一つに記載の立体画像表示装置。
前記画像フィルタ値算出部は、前記相対位置及び前記温度計測部で計測した環境温度に対応する前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出する、付記2乃至7のいずれか一つに記載の立体画像表示装置。
前記視差調整値に従って前記画像データの視差調整処理を実施する視差調整処理部と、
を更に備えた、付記2乃至11のいずれか一つに記載の立体画像表示装置。
前記相対位置に応じて、前記左眼に左眼用の立体画像及び前記右眼に右眼用の立体映像が投影される正視領域と、前記左眼に右眼用の立体映像及び前記右眼に左眼用の立体映像が投影される逆視領域と、前記左眼に右眼用及び左眼用の立体映像又は前記右眼に左眼用及び右眼用の立体映像が投影される3Dクロストーク領域とに分類し、
前記観察者が前記正視領域から前記逆視領域に移動する際の前記3Dクロストーク領域において、前記画像データに対して前記正視領域又は前記逆視領域よりも大きい画像フィルタ値を付与する付記1乃至12のいずれか一つに記載の立体画像表示装置。
観察者の両眼に視点の異なる画像がそれぞれ投影されることにより立体画像を表示する正視領域のみが存在する立体表示パネル部を備えるとともに、
前記観察者の観察位置を計測する観察者位置計測部と、
前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
前記画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、を備えたことを特徴とする立体画像表示装置。
前記画像フィルタ値算出部は、前記相対位置及び前記温度計測部で計測した環境温度に対応し、立体画像表示に適した前記画像フィルタ値を算出する、付記14乃至16のいずれか一つに記載の立体画像表示装置。
前記視差調整値に従って前記画像データの視差調整処理を実施する視差調整処理部と、
を更に備えた、
付記14乃至18のいずれか一つに記載の立体画像表示装置。
付記1乃至20のいずれか一つに記載の立体画像表示装置において、
前記相対位置算出部で算出した相対位置を参照して、2台以上の仮想的なカメラの視点位置を算出する機能を備えた任意視点画像生成部を有し、
前記画像フィルタ処理部は、前記画像フィルタ値算出部で算出された画像フィルタ値に従って該カメラから撮影した画像データを画像フィルタ処理し、処理後の画像データを表示対象とすることを特徴とする立体画像表示装置。
付記21に記載の立体画像表示装置はN視点(Nは3以上)であり、
前記任意視点画像生成部は、前記相対位置算出部で算出した相対位置を参照して、N視点の仮想的なカメラの中から観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動することを特徴とする立体画像表示装置。
付記21に記載の立体画像表示装置の任意視点画像生成部は、
前記画像データ保管部に保管された複数の画像データから視点位置を参照し、視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。
付記23に記載の立体画像表示装置は、
前記画像データ保管部に保管された画像データが右眼用画像データと左眼用画像データとの計2視点の画像データであり、
前記任意視点画像生成部は、前記右眼用画像データと前記左眼用画像データから計2つの視点位置を参照し、2視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。
付記24に記載の立体画像表示装置の任意視点画像生成部は、
前記立体表示パネル部の正視領域において、前記相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影されるクロストーク領域と、
が存在する立体表示パネルへ、
画像データを出力する画像処理装置において、
前記観察者の観察位置に対する前記立体表示パネルの相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
前記画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えた画像処理装置。
前記画像フィルタ処理を実施する前の前記画像データを受信する画像データ受信部と、
前記画像フィルタ処理を実施された前記画像データを出力する画像データ送信部と、
を更に備えた付記26記載の画像処理装置。
前記画像フィルタ値算出部は、前記デバイス特性データ及び前記相対位置に基づき前記画像フィルタ値を算出する、
付記26又は27記載の画像処理装置。
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影されるクロストーク領域と、
が存在する立体表示パネルを、
用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察位置に対する前記立体表示パネルの相対位置を算出し、
この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出し、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施し、
この画像フィルタ処理を実施された前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする立体画像処理方法。
前記画像フィルタ値を算出する際に、前記相対位置に加えて前記デバイス特性データに基づき前記画像フィルタ値を算出し、
前記画像フィルタ処理を実施する前に前記画像データを取得し、
前記画像データに画像フィルタ処理を実施する際に、取得した前記画像データに前記画像フィルタ処理を実施する、付記29記載の立体画像処理方法。
前記画像データに前記画像フィルタ処理を実施する際に、前記画像データのうち前記3Dクロストーク画像範囲に対して前記画像フィルタ処理を実施する、付記30記載の立体画像処理方法。
11〜17 立体画像表示装置
101 観察者位置計測部
101a カメラ
102 相対位置算出部
103 デバイス特性データ保管部
104 画像フィルタ値算出部
105 画像データ保管部
106 画像フィルタ処理部
107 立体表示パネル部
107a 立体表示パネル
110 3Dクロストーク画像範囲算出部
114 温度計測部
115 視差値検出部
120 視差調整量算出部
121 視差調整処理部
150 計算機器
151〜157 画像処理部
160 画像処理装置
161 画像データ受信部
162 画像データ送信部
41,42 仮想カメラ
43 物体
51 空白部分
61 中心位置
62,63 最端位置
64,65 中間位置
80,81 領域
70R 右眼領域
70L,72L 左眼領域
70V1 視点1の領域
70V2 視点2の領域
70V3 視点3の領域
70V4 視点4の領域
70V5 視点5の領域
70V6 視点6の領域
70V7 視点7の領域
70V8 視点8の領域
72V1 視点1の領域
71V8 視点8の領域
71V4 視点4の領域
55L 左眼
55R 右眼
P 画素の幅
P' 投影面での画素の幅
e 両眼間隔
OD 最適観察距離
FD 遠隔観察距離
ND 近接観察距離
h スリット(又はシリンドリカルレンズ)と画素との距離
S スリット幅
L シリンドリカルレンズ幅
4R 右眼用画素
4L 左眼用画素
4V1 視点1用画素
4V2 視点2用画素
4V3 視点3用画素
4V4 視点4用画素
4V5 視点5用画素
4V6 視点6用画素
4V7 視点7用画素
4V8 視点8用画素
6 パララックスバリア
6a スリット
2 表示パネル
3 レンチキュラレンズ
3a,3b シリンドリカルレンズ
20,21 光線
30 観察面
WP 立体表示パネルの中心画素の位置から両端画素の位置までの幅
Claims (24)
- 少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
観察者の観察位置を計測する観察者位置計測部と、
計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出するものであって、前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する画像フィルタ値算出部と、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えことを特徴とする立体画像表示装置。 - 前記立体表示パネル部の前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
前記画像データを保存又は受信する画像データ保管部と、
を更に備え、
前記画像フィルタ値算出部は、
前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出する、
請求項1記載の立体画像表示装置。 - 前記相対位置は、前記観察者の観察位置と前記立体表示パネル部の表示面との視野角である、
請求項2記載の立体画像表示装置。 - 前記デバイス特性データは、3Dクロストーク特性データであり、
前記画像フィルタ値は、前記3Dクロストーク特性データを基準にして算出される、
請求項2又は3記載の立体画像表示装置。 - 少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
観察者の観察位置を計測する観察者位置計測部と、
計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
前記画像データを保存又は受信する画像データ保管部と、
を備え、
前記画像フィルタ値算出部は、前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出し、
前記デバイス特性データは、3Dクロストーク特性データであり、
前記3Dクロストーク特性データのうち、3Dクロストーク量が所定値を超える領域を3Dクロストーク領域、3Dクロストーク量が前記所定値以下の領域を非3Dクロストーク領域と定義した場合に、
前記3Dクロストーク領域の前記画像フィルタ値が前記非3Dクロストーク領域の前記画像フィルタ値よりも大きい、
ことを特徴とする立体画像表示装置。 - 前記画像フィルタ値算出部は、画像フィルタ処理による画像品質の低下を抑制するように、前記画像データごとに異なる前記画像フィルタ値を算出する、
請求項2乃至5のいずれか一つに記載の立体画像表示装置。 - 少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
観察者の観察位置を計測する観察者位置計測部と、
計測された前記観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出する画像フィルタ値算出部と、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
前記画像データを保存又は受信する画像データ保管部と、
前記相対位置及び前記デバイス特性データに基づき3Dクロストーク画像範囲を算出する3Dクロストーク画像範囲算出部と、
を備え、
前記画像フィルタ値算出部は、前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出し、
前記画像フィルタ処理部は、前記画像フィルタ値に従って前記画像データのうち前記3Dクロストーク画像範囲に対して前記画像フィルタ処理を実施する、
ことを特徴とする立体画像表示装置。 - 環境温度を計測する温度計測部を更に備え、
前記画像フィルタ値算出部は、前記相対位置及び前記温度計測部で計測した環境温度に対応する前記デバイス特性データに基づき、立体画像表示に適した前記画像フィルタ値を算出する、
請求項2乃至7のいずれか一つに記載の立体画像表示装置。 - 前記画像フィルタ値算出部は、前記相対位置、前記デバイス特性データ及び前記画像データが保有する視差値に基づき、立体画像表示に適した前記画像フィルタ値を算出する、
請求項2乃至8のいずれか一つに記載の立体画像表示装置。 - 前記画像フィルタ値算出部は、3Dクロストークによる二重像が出現する画像範囲の方向性に適した左右非対称な画像フィルタ形状を用いて、前記画像フィルタ値を算出する、
請求項2乃至9のいずれか一つに記載の立体画像表示装置。 - 前記画像フィルタ値算出部は、前記画像データが保有する視差値を参照して、飛出し表示される画像範囲と奥行き表示される画像範囲とで、前記画像フィルタ形状の左右の方向が反対となる左右非対称な画像フィルタ形状を用いて、前記画像フィルタ値を算出する、
請求項10記載の立体画像表示装置。 - 前記相対位置及び前記デバイス特性データに基づき、立体画像表示に適した視差調整値を算出する視差調整値算出部と、
前記視差調整値に従って前記画像データの視差調整処理を実施する視差調整処理部と、
を更に備えた、
請求項2乃至11のいずれか一つに記載の立体画像表示装置。 - 前記画像フィルタ値算出部は、前記観察者が前記正視領域から前記逆視領域に移動する際の前記3Dクロストーク領域において、前記画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する、
請求項2乃至12のいずれか一つに記載の立体画像表示装置。 - 請求項2乃至12のいずれか一つに記載の立体画像表示装置において、
前記相対位置算出部で算出した相対位置を参照して、2台以上の仮想的なカメラの視点位置を算出する機能を備えた任意視点画像生成部を有し、
前記画像フィルタ処理部は、前記画像フィルタ値算出部で算出された画像フィルタ値に従って該カメラから撮影した画像データを画像フィルタ処理し、処理後の画像データを表示対象とすることを特徴とする立体画像表示装置。 - 請求項14に記載の立体画像表示装置はN視点(Nは3以上)であり、
前記任意視点画像生成部は、前記相対位置算出部で算出した相対位置を参照して、N視点の仮想的なカメラの中から観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動することを特徴とする立体画像表示装置。 - 請求項2、5又は7記載の立体画像表示装置において、
前記相対位置算出部で算出した相対位置を参照して、2台以上の仮想的なカメラの視点位置を算出する機能を備えた任意視点画像生成部を有し、
前記画像フィルタ処理部は、前記画像フィルタ値算出部で算出された画像フィルタ値に従って該カメラから撮影した画像データを画像フィルタ処理し、処理後の画像データを表示対象とし、
前記任意視点画像生成部は、
前記画像データ保管部に保管された複数の画像データから視点位置を参照し、視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。 - 請求項16に記載の立体画像表示装置は、
前記画像データ保管部に保管された画像データが右眼用画像データと左眼用画像データとの計2視点の画像データであり、
前記任意視点画像生成部は、前記右眼用画像データと前記左眼用画像データから計2つの視点位置を参照し、2視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。 - 請求項17に記載の立体画像表示装置の任意視点画像生成部は、
前記立体表示パネル部の正視領域において、前記相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示することを特徴とする立体画像表示装置。 - 少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルへ、
画像データを出力する画像処理装置において、
前記観察者の観察位置に対する前記立体表示パネルの相対位置を算出する相対位置算出部と、
前記相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出するものであって、前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与する画像フィルタ値算出部と、
前記画像フィルタ値に従って画像データに画像フィルタ処理を実施する画像フィルタ処理部と、
を備えた画像処理装置。 - 前記観察者の観察位置を計測する観察者位置計測部と、
前記画像フィルタ処理を実施する前の前記画像データを受信する画像データ受信部と、
前記画像フィルタ処理を実施された前記画像データを出力する画像データ送信部と、
を更に備えた請求項19記載の画像処理装置。 - 前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部を更に備え、
前記画像フィルタ値算出部は、前記デバイス特性データ及び前記相対位置に基づき前記画像フィルタ値を算出する、
請求項19又は20記載の画像処理装置。 - 少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルを、
用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察位置に対する前記立体表示パネルの相対位置を算出し、
この相対位置に応じて画像ぼかし量を調整する画像フィルタ値を算出し、このとき前記相対位置に応じて前記正視領域と前記逆視領域と前記3Dクロストーク領域とに分類し、前記3Dクロストーク領域における画像データに対して前記正視領域又は前記逆視領域よりも大きい前記画像フィルタ値を付与し、
この画像フィルタ値に従って画像データに画像フィルタ処理を実施し、
この画像フィルタ処理を実施された前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする立体画像処理方法。 - 前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを取得し、
前記画像フィルタ値を算出する際に、前記相対位置に加えて前記デバイス特性データに基づき前記画像フィルタ値を算出し、
前記画像フィルタ処理を実施する前に前記画像データを取得し、
前記画像データに画像フィルタ処理を実施する際に、取得した前記画像データに前記画像フィルタ処理を実施する、
請求項22記載の立体画像処理方法。 - 少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間に前記右眼及び左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルを、
用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察位置に対する前記立体表示パネルの相対位置を算出し、
前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを取得し、
前記相対位置及び前記デバイス特性データに応じて、画像ぼかし量を調整する画像フィルタ値を算出し、
前記相対位置及び前記デバイス特性データに基づき3Dクロストーク画像範囲を算出し、
画像データのうち前記3Dクロストーク画像範囲に対して前記画像フィルタ値に従って画像フィルタ処理を実施し、
この画像フィルタ処理を実施された前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする立体画像処理方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013089532A JP6308513B2 (ja) | 2012-07-31 | 2013-04-22 | 立体画像表示装置、画像処理装置及び立体画像処理方法 |
CN201310326072.0A CN103595988B (zh) | 2012-07-31 | 2013-07-30 | 立体图像显示装置、图像处理装置及图像处理方法 |
CN201710090451.2A CN107071382B (zh) | 2012-07-31 | 2013-07-30 | 立体图像显示装置 |
CN201710090813.8A CN107105213B (zh) | 2012-07-31 | 2013-07-30 | 立体图像显示装置 |
US13/955,275 US9280951B2 (en) | 2012-07-31 | 2013-07-31 | Stereoscopic image display device, image processing device, and stereoscopic image processing method |
EP13178737.6A EP2693759B1 (en) | 2012-07-31 | 2013-07-31 | Stereoscopic image display device, image processing device, and stereoscopic image processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012170645 | 2012-07-31 | ||
JP2012170645 | 2012-07-31 | ||
JP2013089532A JP6308513B2 (ja) | 2012-07-31 | 2013-04-22 | 立体画像表示装置、画像処理装置及び立体画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014045473A JP2014045473A (ja) | 2014-03-13 |
JP6308513B2 true JP6308513B2 (ja) | 2018-04-11 |
Family
ID=48914095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013089532A Active JP6308513B2 (ja) | 2012-07-31 | 2013-04-22 | 立体画像表示装置、画像処理装置及び立体画像処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9280951B2 (ja) |
EP (1) | EP2693759B1 (ja) |
JP (1) | JP6308513B2 (ja) |
CN (3) | CN103595988B (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201334510A (zh) * | 2012-02-07 | 2013-08-16 | Wintek Corp | 裸眼與眼鏡可切換式立體顯示裝置 |
JP6213812B2 (ja) * | 2012-07-31 | 2017-10-18 | Tianma Japan株式会社 | 立体画像表示装置及び立体画像処理方法 |
CN103414912B (zh) * | 2013-07-31 | 2016-03-02 | 京东方科技集团股份有限公司 | 一种评价裸眼立体显示串扰的方法及装置 |
CN103763540B (zh) * | 2014-01-08 | 2017-01-04 | 深圳超多维光电子有限公司 | 立体显示方法和立体显示装置 |
CN105578171B (zh) * | 2014-04-01 | 2017-07-11 | 青岛海信电器股份有限公司 | 一种图像信号处理方法及装置 |
US10063829B2 (en) * | 2014-04-18 | 2018-08-28 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium |
JP6516234B2 (ja) | 2014-04-24 | 2019-05-22 | Tianma Japan株式会社 | 立体画像表示装置 |
FR3021489A1 (fr) * | 2014-05-22 | 2015-11-27 | Orange | Procede de telechargement adaptatif de contenus numeriques pour plusieurs ecrans |
JP6397698B2 (ja) | 2014-08-28 | 2018-09-26 | 任天堂株式会社 | 情報処理端末、情報処理プログラム、情報処理端末システム、および情報処理方法 |
US10448005B2 (en) * | 2015-01-22 | 2019-10-15 | Nlt Technologies, Ltd. | Stereoscopic display device and parallax image correcting method |
JP6677385B2 (ja) * | 2015-01-22 | 2020-04-08 | 天馬微電子有限公司 | 立体表示装置及び視差画像補正方法 |
CN104639934B (zh) * | 2015-01-22 | 2017-11-21 | 深圳超多维光电子有限公司 | 立体图像反视处理方法及显示装置 |
CN104809995A (zh) * | 2015-04-28 | 2015-07-29 | 京东方科技集团股份有限公司 | 一种图像处理方法及系统 |
JP6588840B2 (ja) * | 2016-02-04 | 2019-10-09 | 株式会社ジャパンディスプレイ | 表示装置 |
CN107643603B (zh) * | 2016-07-21 | 2021-04-09 | 天马微电子股份有限公司 | 立体显示装置及控制方法 |
JP7038981B2 (ja) * | 2016-07-21 | 2022-03-22 | 天馬微電子有限公司 | 立体表示装置及び制御方法 |
KR102025473B1 (ko) * | 2017-05-23 | 2019-11-04 | 최해용 | 공간 분리 영상 장치 |
KR102411661B1 (ko) | 2017-07-31 | 2022-06-21 | 삼성전자주식회사 | 영상 처리 방법 및 디바이스 |
WO2020004275A1 (ja) * | 2018-06-26 | 2020-01-02 | 京セラ株式会社 | 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体 |
JP7154877B2 (ja) * | 2018-08-22 | 2022-10-18 | キヤノン株式会社 | 画像投射装置、画像投射装置の制御方法、および、プログラム |
TWI692241B (zh) * | 2018-09-10 | 2020-04-21 | 宏碁股份有限公司 | 立體顯示裝置與立體顯示方法 |
US10854171B2 (en) | 2018-12-31 | 2020-12-01 | Samsung Electronics Co., Ltd. | Multi-user personal display system and applications thereof |
EP3958247B1 (en) * | 2019-03-21 | 2023-12-13 | BOE Technology Group Co., Ltd. | Display apparatus, electronic device, and driving method of display apparatus |
CN112929634A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 多视点裸眼3d显示设备和3d图像显示方法 |
JP2021141423A (ja) * | 2020-03-04 | 2021-09-16 | 富士フイルムビジネスイノベーション株式会社 | 表示システム、表示制御装置及びプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11155154A (ja) * | 1997-11-19 | 1999-06-08 | Toshiba Corp | 立体映像処理装置 |
JP2000098299A (ja) * | 1998-09-18 | 2000-04-07 | Sanyo Electric Co Ltd | 立体映像表示装置 |
JP2001298754A (ja) | 2000-04-11 | 2001-10-26 | Tomohiko Hattori | 立体画像におけるクロストーク消去方式および装置 |
US6618054B2 (en) | 2000-05-16 | 2003-09-09 | Sun Microsystems, Inc. | Dynamic depth-of-field emulation based on eye-tracking |
JP2002095010A (ja) | 2000-09-18 | 2002-03-29 | Canon Inc | 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体 |
JP4125252B2 (ja) | 2004-03-02 | 2008-07-30 | 株式会社東芝 | 画像生成装置、画像生成方法、及び画像生成プログラム |
JP4403162B2 (ja) | 2006-09-29 | 2010-01-20 | 株式会社東芝 | 立体画像表示装置および立体画像の作製方法 |
KR20120052365A (ko) * | 2009-07-29 | 2012-05-23 | 톰슨 라이센싱 | 3차원(3d) 프로젝션의 누화 보정 방법 |
JP2011040946A (ja) * | 2009-08-10 | 2011-02-24 | Sony Corp | 画像処理装置及びプログラム |
JP5476910B2 (ja) * | 2009-10-07 | 2014-04-23 | 株式会社ニコン | 画像生成装置、画像生成方法、および、プログラム |
JP5615136B2 (ja) | 2010-01-12 | 2014-10-29 | 三菱電機株式会社 | 立体画像補正方法、立体表示装置、および立体画像生成装置 |
JP2011176800A (ja) * | 2010-01-28 | 2011-09-08 | Toshiba Corp | 画像処理装置、立体表示装置及び画像処理方法 |
JP2011244349A (ja) * | 2010-05-20 | 2011-12-01 | Nikon Corp | 表示装置および表示方法 |
JP5235976B2 (ja) | 2010-05-31 | 2013-07-10 | 株式会社ソニー・コンピュータエンタテインメント | 映像再生方法、および映像再生装置 |
JP5494283B2 (ja) * | 2010-06-24 | 2014-05-14 | ソニー株式会社 | 立体表示装置及び立体表示装置の制御方法 |
KR101729556B1 (ko) * | 2010-08-09 | 2017-04-24 | 엘지전자 주식회사 | 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치 |
JP2012044308A (ja) | 2010-08-16 | 2012-03-01 | Sharp Corp | 3d画像出力装置及び3d画像表示装置 |
US20120062551A1 (en) | 2010-09-13 | 2012-03-15 | Lg Electronics Inc. | Image display apparatus and method for operating image display apparatus |
JP5269027B2 (ja) * | 2010-09-30 | 2013-08-21 | 株式会社東芝 | 三次元画像表示装置および画像処理装置 |
TWI448146B (zh) * | 2011-10-14 | 2014-08-01 | Au Optronics Corp | 可改善鬼影現象之立體影像處理方法及其立體顯示裝置 |
JP6213812B2 (ja) | 2012-07-31 | 2017-10-18 | Tianma Japan株式会社 | 立体画像表示装置及び立体画像処理方法 |
-
2013
- 2013-04-22 JP JP2013089532A patent/JP6308513B2/ja active Active
- 2013-07-30 CN CN201310326072.0A patent/CN103595988B/zh active Active
- 2013-07-30 CN CN201710090451.2A patent/CN107071382B/zh active Active
- 2013-07-30 CN CN201710090813.8A patent/CN107105213B/zh active Active
- 2013-07-31 EP EP13178737.6A patent/EP2693759B1/en active Active
- 2013-07-31 US US13/955,275 patent/US9280951B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107105213B (zh) | 2018-11-30 |
CN103595988A (zh) | 2014-02-19 |
CN103595988B (zh) | 2017-04-12 |
CN107105213A (zh) | 2017-08-29 |
CN107071382A (zh) | 2017-08-18 |
EP2693759B1 (en) | 2016-09-21 |
EP2693759A3 (en) | 2014-08-06 |
EP2693759A2 (en) | 2014-02-05 |
CN107071382B (zh) | 2019-04-26 |
JP2014045473A (ja) | 2014-03-13 |
US9280951B2 (en) | 2016-03-08 |
US20140035907A1 (en) | 2014-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6308513B2 (ja) | 立体画像表示装置、画像処理装置及び立体画像処理方法 | |
JP6380881B2 (ja) | 立体画像表示装置、画像処理装置及び立体画像処理方法 | |
JP6213812B2 (ja) | 立体画像表示装置及び立体画像処理方法 | |
JP6443654B2 (ja) | 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム | |
EP3350989B1 (en) | 3d display apparatus and control method thereof | |
CN102404592B (zh) | 图像处理设备和方法以及立体图像显示设备 | |
JP5625979B2 (ja) | 表示装置および表示方法ならびに表示制御装置 | |
KR20120075829A (ko) | 적응적 부화소 렌더링 장치 및 방법 | |
KR20140073584A (ko) | 화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램 | |
JP2013013055A (ja) | 裸眼立体ディスプレイ装置及び視点調整方法 | |
KR100751290B1 (ko) | 헤드 마운티드 디스플레이용 영상 시스템 | |
US20130162630A1 (en) | Method and apparatus for displaying stereoscopic image contents using pixel mapping | |
CN102970498A (zh) | 菜单立体显示的显示方法及显示装置 | |
KR101192121B1 (ko) | 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치 | |
KR100893381B1 (ko) | 실시간 입체영상 생성방법 | |
JP6604493B2 (ja) | 立体画像表示装置及び端末装置 | |
Lu | Computational Photography | |
KR101173640B1 (ko) | 3차원 헤드 마운티드 디스플레이 장치 | |
Hasegawa et al. | 55.4: Optimized Parallax Control of Arbitrary Viewpoint Images with Motion Parallax on Autostereoscopic Displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160229 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180306 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6308513 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |