WO2013089249A1 - 表示装置、表示制御装置、表示制御プログラム、およびプログラム - Google Patents
表示装置、表示制御装置、表示制御プログラム、およびプログラム Download PDFInfo
- Publication number
- WO2013089249A1 WO2013089249A1 PCT/JP2012/082567 JP2012082567W WO2013089249A1 WO 2013089249 A1 WO2013089249 A1 WO 2013089249A1 JP 2012082567 W JP2012082567 W JP 2012082567W WO 2013089249 A1 WO2013089249 A1 WO 2013089249A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- display
- displayed
- edge
- display device
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/388—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
- H04N13/395—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume with depth sampling, i.e. the volume being constructed from a stack or sequence of 2D image planes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/40—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images giving the observer of a single two-dimensional [2D] image a perception of depth
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/13—Projectors for producing special effects at the edges of picture, e.g. blurring
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B35/00—Stereoscopic photography
- G03B35/18—Stereoscopic photography by simultaneous viewing
- G03B35/24—Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/02—Composition of display devices
- G09G2300/023—Display panel composed of stacked panels
Abstract
本発明の表示装置は、第1の画像を表示する第1表示部と、第1の画像が表示される奥行き位置とは異なる奥行き位置に、第1の画像内のエッジ部分を示すエッジ画像を含む第2の画像を表示する第2表示部とを備える。
Description
本発明は、表示装置、表示制御装置、表示制御プログラム、およびプログラムに関する。
本願は、2011年12月15日に出願された特願2011-274326号、2011年12月28日に出願された特願2011-287349号、2012年2月15日に出願された特願2012-030553号、2012年10月5日に出願された特願2012-223584号、2012年12月14日に出願された特願2012-272934号、2012年12月14日に出願された特願2012-272935号、及び2012年12月14日に出願された特願2012-272936号に基づき優先権を主張し、その内容をここに援用する。
本願は、2011年12月15日に出願された特願2011-274326号、2011年12月28日に出願された特願2011-287349号、2012年2月15日に出願された特願2012-030553号、2012年10月5日に出願された特願2012-223584号、2012年12月14日に出願された特願2012-272934号、2012年12月14日に出願された特願2012-272935号、及び2012年12月14日に出願された特願2012-272936号に基づき優先権を主張し、その内容をここに援用する。
近年、例えば、立体像(3次元画像)の奥行き位置に応じた画素値(例えば、明るさ、輝度、色相、彩度)の比を付けた複数の画像(2次元画像)を、奥行き位置の異なる複数の表示面に表示させることによって、これら複数の画像を観察した観察者が立体像を認識することができる表示方法が知られている(例えば、特許文献1を参照)。
しかしながら、上記のような表示方法は、立体像(3次元画像)を自然に表示することができないという問題があった。
本発明の一態様である表示装置は、第1の画像を表示する第1表示部と、前記第1の画像が表示される奥行き位置とは異なる奥行き位置に、前記第1の画像内のエッジ部分を示すエッジ画像を含む第2の画像を表示する第2表示部と、を備えることを特徴とする。
本発明の他の態様である表示制御装置は、第1表示部によって表示されている第1の画像内のエッジ部分と、前記第1の画像が表示される奥行き位置とは異なる奥行き位置に第2表示部が表示する第2の画像に含まれる前記第1の画像内のエッジ部分を示すエッジ画像とが、対応して視認されるように前記第1表示部および前記第2表示部のうち少なくとも一方に画像を表示させる表示制御部を備えることを特徴とする。
本発明の他の態様である表示制御プログラムは、コンピュータに、第1表示部によって表示されている第1の画像内のエッジ部分と、前記第1の画像が表示される奥行き位置とは異なる奥行き位置に第2表示部が表示する第2の画像に含まれる前記第1の画像内のエッジ部分を示すエッジ画像とが、対応して視認されるように前記第1表示部および前記第2表示部のうち少なくとも一方を制御する表示制御ステップを実行させる。
本発明の他の態様である表示装置は、第1表示面及び第2表示面がそれぞれ表示する画像情報の両眼視差により立体表示される表示対象の奥行き位置に基づいて、前記第1表示面が有する2次元に配列された複数の画素のうち、前記表示対象の輪郭部を表示する輪郭画素の画素値を補正する輪郭補正部を備えることを特徴とする。
本発明の他の態様である表示装置は、第1の画像情報を表示する第1表示部と、第2の画像情報を表示する第2表示部と、前記第1表示部が表示する前記第1の画像情報と、前記第2表示部が表示する前記第2の画像情報との両眼視差により立体表示される前記表示対象の奥行き位置に基づいて、前記第1表示部が有する2次元に配列された複数の画素のうち、前記表示対象の輪郭部を表示する輪郭画素の画素値を補正する輪郭補正部とを備えることを特徴とする。
本発明の他の態様であるプログラムは、コンピュータに、第1表示面及び第2表示面に表示される表示対象が、両眼視差により立体表示される前記表示対象の奥行き位置に基づいて、前記第1表示面が有する2次元に配列された複数の画素のうち、前記表示対象の輪郭部を表示する輪郭画素の画素値を補正する輪郭補正手順を実行させる。
本発明の他の態様であるプログラムは、コンピュータに、表示対象を示す第1の画像情報を表示する第1表示手順と、前記表示対象を示す第2の画像情報を表示する第2表示手順と、前記第1表示手順によって表示される前記第1の画像情報、および前記第2表示手順によって表示される前記第2の画像情報が示す前記表示対象が、両眼視差により立体表示される前記表示対象の奥行き位置に基づいて、前記第1の画像情報を構成する2次元に配列された複数の画素のうち、前記表示対象の輪郭部を表示する輪郭画素の画素値を補正する輪郭補正手順とを実行させる。
本発明の他の態様である表示装置は、第1の画像を表示する第1表示部と、前記第1の画像が表示される奥行き位置とは異なる奥行き位置に、前記第1の画像に対応する第2の画像を表示する第2表示部と、を備え、前記第1表示部または前記第2表示部のうちのいずれか一方は、多視点画像を表示可能であることを特徴とする。
本発明の他の態様である表示装置は、第1画像を表示する第1表示部と、前記第1画像が表示される奥行き位置とは異なる奥行き位置に、前記第1画像内のエッジ部分を示すエッジ画像を含む第2画像を表示する第2表示部と、前記第1表示部が表示する前記第1画像と前記第2表示部が表示する前記第2画像とによって表示される立体像の状態を示す立体像情報に基づいて、前記第2表示部が表示する前記第2画像に含まれる前記エッジ画像を生成する生成部と、を備えることを特徴とする。
本発明の態様によれば、立体像(3次元画像)を自然に表示することができる。
[第1の実施形態]
以下、図面を参照して、本発明の第1の実施形態を説明する。
図1は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
本実施形態の表示システム100は、画像情報供給装置2と、表示装置10とを備えている。
以下、各図の説明においてはXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。表示装置10が画像を表示している方向をZ軸の正の方向とし、Z軸方向に垂直な平面上の直交方向をそれぞれX軸方向及びY軸方向とする。ここでは、X軸方向は、表示装置10の水平方向とし、Y軸方向は表示装置10の鉛直方向とする。
画像情報供給装置2は、表示装置10に第1の画像情報と第2の画像情報とを供給する。ここで、第1の画像情報は、表示装置10によって表示される第1の画像P11を表示するための情報である。
第2の画像情報は、表示装置10によって表示される第2の画像P12を表示するための情報であり、例えば、第1の画像情報に基づいて生成されているエッジ画像PEの画像情報である。このエッジ画像PEは、第1の画像P11内のエッジ部分Eを示す画像である。このエッジ画像PEについては、図2を参照して後述する。
以下、図面を参照して、本発明の第1の実施形態を説明する。
図1は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
本実施形態の表示システム100は、画像情報供給装置2と、表示装置10とを備えている。
以下、各図の説明においてはXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。表示装置10が画像を表示している方向をZ軸の正の方向とし、Z軸方向に垂直な平面上の直交方向をそれぞれX軸方向及びY軸方向とする。ここでは、X軸方向は、表示装置10の水平方向とし、Y軸方向は表示装置10の鉛直方向とする。
画像情報供給装置2は、表示装置10に第1の画像情報と第2の画像情報とを供給する。ここで、第1の画像情報は、表示装置10によって表示される第1の画像P11を表示するための情報である。
第2の画像情報は、表示装置10によって表示される第2の画像P12を表示するための情報であり、例えば、第1の画像情報に基づいて生成されているエッジ画像PEの画像情報である。このエッジ画像PEは、第1の画像P11内のエッジ部分Eを示す画像である。このエッジ画像PEについては、図2を参照して後述する。
表示装置10は、第1表示部11と第2表示部12とを備えており、画像情報供給装置2から取得した第1の画像情報に基づいて、第1の画像P11を表示するとともに、画像情報供給装置2から取得した第2の画像情報に基づいて、第2の画像P12を表示する。この画像情報供給装置2とは、表示制御装置の一例である。
本実施形態の第1表示部11及び第2表示部12は、(+Z)方向に第2表示部12、第1表示部11の順に配置されている。つまり、第1表示部11と、第2表示部12とは、異なる奥行き位置に配置されている。ここで、奥行き位置とは、Z軸方向の位置である。
第2表示部12は、(+Z)方向に向けて画像を表示する第2表示面120を備えており、画像情報供給装置2から取得した第2の画像情報に基づいて、第2の画像P12を第2表示面120に表示する。第2表示面120に表示された第2の画像P12から発せられる第2光線(光束)R12は、光学像として観察者1に視認される。
第1表示部11は、(+Z)方向に向けて画像を表示する第1表示面110を備えており、画像情報供給装置2から取得した(供給される)第1の画像情報に基づいて、第1の画像P11を第1表示面110に表示する。
第1表示面110に表示された第1の画像P11から発せられる、第1光線(光束)R11は、光学像として観察者1に視認される。第1表示面は、第1の画像P11としての第1光束を発する。
本実施形態の第1表示部11及び第2表示部12は、(+Z)方向に第2表示部12、第1表示部11の順に配置されている。つまり、第1表示部11と、第2表示部12とは、異なる奥行き位置に配置されている。ここで、奥行き位置とは、Z軸方向の位置である。
第2表示部12は、(+Z)方向に向けて画像を表示する第2表示面120を備えており、画像情報供給装置2から取得した第2の画像情報に基づいて、第2の画像P12を第2表示面120に表示する。第2表示面120に表示された第2の画像P12から発せられる第2光線(光束)R12は、光学像として観察者1に視認される。
第1表示部11は、(+Z)方向に向けて画像を表示する第1表示面110を備えており、画像情報供給装置2から取得した(供給される)第1の画像情報に基づいて、第1の画像P11を第1表示面110に表示する。
第1表示面110に表示された第1の画像P11から発せられる、第1光線(光束)R11は、光学像として観察者1に視認される。第1表示面は、第1の画像P11としての第1光束を発する。
第2表示面120は、第2の画像P12としての第2光束R12を(-Z)方向、つまり第1表示部11の方向に発する。
ここで、本実施形態の第1表示部11は、第2表示部12によって表示されている第2の画像P12に応じた第2光線(光束)R12(光)を透過することが可能な透過型表示部11aである。つまり、第1表示面110は、第1の画像P11を表示するとともに、第2表示部12によって表示される第2の画像P12の第2光線(光束)R12を透過させる。
したがって、第2表示面120から発せられる第2光束R12は、第1表示面110から発せられる第1光束R11とともに、光学像として観察者1に観察される。
すなわち、表示装置10は、観察者1によって、第1の画像P11と第2の画像P12とが重なるように視認されるようにして、第1の画像P11と第2の画像P12とを表示する。このように、第2表示部12は、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に、第1の画像P11内のエッジ部分を示す第2の画像P12を表示する。
換言すれば、表示装置10は、観察者1から見て第2の画像P12と第1の画像P11とが重なるようにして、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に第2の画像P12を表示する。
ここで、本実施形態の第1表示部11は、第2表示部12によって表示されている第2の画像P12に応じた第2光線(光束)R12(光)を透過することが可能な透過型表示部11aである。つまり、第1表示面110は、第1の画像P11を表示するとともに、第2表示部12によって表示される第2の画像P12の第2光線(光束)R12を透過させる。
したがって、第2表示面120から発せられる第2光束R12は、第1表示面110から発せられる第1光束R11とともに、光学像として観察者1に観察される。
すなわち、表示装置10は、観察者1によって、第1の画像P11と第2の画像P12とが重なるように視認されるようにして、第1の画像P11と第2の画像P12とを表示する。このように、第2表示部12は、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に、第1の画像P11内のエッジ部分を示す第2の画像P12を表示する。
換言すれば、表示装置10は、観察者1から見て第2の画像P12と第1の画像P11とが重なるようにして、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に第2の画像P12を表示する。
次に、図2A及び図2Bを参照して、本実施形態の第1の画像P11と第2の画像P12を説明する。ここで、以下の図面において画像を示す場合には、便宜上、画像の明るさ(例えば、輝度)が明るい(例えば、輝度が高い)部分を薄く示し、画像の明るさが暗い(例えば、輝度が低い)部分を濃く示している。
図2Aは、本実施形態における第1の画像P11の一例を示す模式図である。
図2Bは、本実施形態における第2の画像P12の一例を示す模式図である。
本実施形態の第1の画像P11は、例えば、図2Aに示すように四角形のパターンを示す画像である。ここで、第1の画像P11が示す四角形のパターンにおいては、四角形を構成する4辺がそれぞれエッジ部分Eになりうるが、以下の説明においては、便宜上、四角形の左辺を示す左辺エッジ部分E1及び右辺を示す右辺エッジ部分E2をエッジ部分Eとして説明する。
ここで、エッジ部分E(単にエッジ、又はエッジ領域と表現してもよい)とは、例えば、画像内において隣接する又は近傍の画素の明るさ(例えば、輝度)が急変する部分である。
第1の画像P11において、エッジ部分Eは、図2Aに示す四角形の4辺の、幅が無い理論的な線分を示すとともに、例えば、第1表示部11の解像度に応じた有限の幅を有するエッジ周囲の領域をも示している。
図2Bは、本実施形態における第2の画像P12の一例を示す模式図である。第2の画像P12は、エッジ画像PEを含む画像である。このエッジ画像PEには、図2Aの第1の画像P11が示す四角形のパターンのうちの、左辺エッジ部分E1を示す左辺エッジ画像PE1と右辺エッジ部分E2を示す右辺エッジ画像PE2とが含まれている。
例えば、エッジ部分Eは、第2表示部12の解像度に応じた有限の幅を有するエッジ周囲の領域をも示している。
図2Aは、本実施形態における第1の画像P11の一例を示す模式図である。
図2Bは、本実施形態における第2の画像P12の一例を示す模式図である。
本実施形態の第1の画像P11は、例えば、図2Aに示すように四角形のパターンを示す画像である。ここで、第1の画像P11が示す四角形のパターンにおいては、四角形を構成する4辺がそれぞれエッジ部分Eになりうるが、以下の説明においては、便宜上、四角形の左辺を示す左辺エッジ部分E1及び右辺を示す右辺エッジ部分E2をエッジ部分Eとして説明する。
ここで、エッジ部分E(単にエッジ、又はエッジ領域と表現してもよい)とは、例えば、画像内において隣接する又は近傍の画素の明るさ(例えば、輝度)が急変する部分である。
第1の画像P11において、エッジ部分Eは、図2Aに示す四角形の4辺の、幅が無い理論的な線分を示すとともに、例えば、第1表示部11の解像度に応じた有限の幅を有するエッジ周囲の領域をも示している。
図2Bは、本実施形態における第2の画像P12の一例を示す模式図である。第2の画像P12は、エッジ画像PEを含む画像である。このエッジ画像PEには、図2Aの第1の画像P11が示す四角形のパターンのうちの、左辺エッジ部分E1を示す左辺エッジ画像PE1と右辺エッジ部分E2を示す右辺エッジ画像PE2とが含まれている。
例えば、エッジ部分Eは、第2表示部12の解像度に応じた有限の幅を有するエッジ周囲の領域をも示している。
次に、図3を参照して、本実施形態の表示装置10が、第1の画像P11と第2の画像P12とを対応させて表示する構成について説明する。
図3は、本実施形態における表示装置10によって表示される画像の一例を示す模式図である。
本実施形態において、第1表示部11は、第1の画像P11を観察者1に視認されるように表示する。また、第2表示部12は、第2の画像P12を観察者1に視認されるように表示する。そして、第2の画像P12は、第1の画像P11が表示される位置からZ軸方向に所定の距離Lpだけ離れている位置に表示される。
上述したように本実施形態の第1表示部11は、光を透過させる透過型表示部11aである。このため、第1表示部11に表示される第1の画像P11と第2表示部12に表示される第2の画像P12とは、重なるように観察者1によって視認される。
ここで、所定の距離Lpとは、第1の画像P11が表示されている位置と、第2の画像P12が表示されている位置の間の距離である。本実施形態の所定の距離Lpは、例えば、第1の画像P11が表示されている位置と、観察者1の位置とに基づいて予め定められる。
図3は、本実施形態における表示装置10によって表示される画像の一例を示す模式図である。
本実施形態において、第1表示部11は、第1の画像P11を観察者1に視認されるように表示する。また、第2表示部12は、第2の画像P12を観察者1に視認されるように表示する。そして、第2の画像P12は、第1の画像P11が表示される位置からZ軸方向に所定の距離Lpだけ離れている位置に表示される。
上述したように本実施形態の第1表示部11は、光を透過させる透過型表示部11aである。このため、第1表示部11に表示される第1の画像P11と第2表示部12に表示される第2の画像P12とは、重なるように観察者1によって視認される。
ここで、所定の距離Lpとは、第1の画像P11が表示されている位置と、第2の画像P12が表示されている位置の間の距離である。本実施形態の所定の距離Lpは、例えば、第1の画像P11が表示されている位置と、観察者1の位置とに基づいて予め定められる。
また、図3に示すように、表示装置10は、第1表示部11によって表示されている第1の画像P11内の左辺エッジ部分E1と、このエッジ部分に対応している左辺エッジ画像PE1とが、対応して視認されるように第1の画像P11および第2の画像P12を表示する。
同様に、表示装置10は、第1表示部11によって表示されている第1の画像P11内の右辺エッジ部分E2と、このエッジ部分に対応している右辺エッジ画像PE2とが、対応して視認されるように第1の画像P11および第2の画像P12を表示する。
このとき、例えば、表示装置10は、観察者1の左眼Lに、第1の画像P11によって示される四角形の左辺エッジ部分E1の(-X)側(つまり、四角形の外側)に、左辺エッジ部分E1と左辺エッジ画像PE1とが重なって視認されるように各画像を表示する。また、表示装置10は、観察者1の左眼Lに、第1の画像P11によって示される四角形の右辺エッジ部分E2の(-X)側(つまり、四角形の内側)に、右辺エッジ部分E2と右辺エッジ画像PE2とが重なって視認されるように各画像を表示する。
同様に、例えば、表示装置10は、観察者1の右眼Rに、第1の画像P11によって示される四角形の右辺エッジ部分E2の(+X)側(つまり、四角形の外側)に、右辺エッジ部分E2と右辺エッジ画像PE2とが重なって視認されるように各画像を表示する。
また、表示装置10は、観察者1の右眼Rに、第1の画像P11によって示される四角形の左辺エッジ部分E1の(+X)側(つまり、四角形の内側)に、左辺エッジ部分E1と左辺エッジ画像PE1が重なって視認されるように各画像を表示する。
同様に、表示装置10は、第1表示部11によって表示されている第1の画像P11内の右辺エッジ部分E2と、このエッジ部分に対応している右辺エッジ画像PE2とが、対応して視認されるように第1の画像P11および第2の画像P12を表示する。
このとき、例えば、表示装置10は、観察者1の左眼Lに、第1の画像P11によって示される四角形の左辺エッジ部分E1の(-X)側(つまり、四角形の外側)に、左辺エッジ部分E1と左辺エッジ画像PE1とが重なって視認されるように各画像を表示する。また、表示装置10は、観察者1の左眼Lに、第1の画像P11によって示される四角形の右辺エッジ部分E2の(-X)側(つまり、四角形の内側)に、右辺エッジ部分E2と右辺エッジ画像PE2とが重なって視認されるように各画像を表示する。
同様に、例えば、表示装置10は、観察者1の右眼Rに、第1の画像P11によって示される四角形の右辺エッジ部分E2の(+X)側(つまり、四角形の外側)に、右辺エッジ部分E2と右辺エッジ画像PE2とが重なって視認されるように各画像を表示する。
また、表示装置10は、観察者1の右眼Rに、第1の画像P11によって示される四角形の左辺エッジ部分E1の(+X)側(つまり、四角形の内側)に、左辺エッジ部分E1と左辺エッジ画像PE1が重なって視認されるように各画像を表示する。
すなわち、表示装置10は、表示制御装置としての画像情報供給装置2から第1の画像情報および第2の画像情報を取得する。
この画像情報供給装置2は、第1表示部11によって表示されている第1の画像P11内のエッジ部分と、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に第2表示部12が表示する第2の画像P12に含まれる第1の画像P11内のエッジ部分を示すエッジ画像とが、対応して視認されるように第1表示部11および第2表示部12のうち少なくとも一方を制御する。
この画像情報供給装置2は、第1表示部11によって表示されている第1の画像P11内のエッジ部分と、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に第2表示部12が表示する第2の画像P12に含まれる第1の画像P11内のエッジ部分を示すエッジ画像とが、対応して視認されるように第1表示部11および第2表示部12のうち少なくとも一方を制御する。
次に、観察者1によって、第1の画像P11と第2の画像P12とから立体像(3次元画像)が認識される仕組みについて説明する。
まず、観察者1が第1の画像P11と、第1の画像P11のエッジ部分Eに対応するエッジ画像PEとを重なる位置で観察すると、第1の画像P11とエッジ画像PEとの輝度比に合わせて表示面間内の奥行き位置(例えば、Z軸方向の位置)に像を知覚する。
換言すれば、第1表示面110を見ている観察者1は、第1の画像P11のエッジ部分Eとエッジ画像PEとが重なることによって、第1の画像P11とエッジ画像PEとの輝度比に応じた表示面間内の奥行き位置(例えば、Z軸方向の位置)に像を知覚する。
例えば、四角形のパターンを観察したとき、観察者1の網膜像上では認識できないくらいの微小な輝度の段差ができる。このような場合においては、明るさ(例えば、輝度)の段差間に仮想的なエッジを知覚して1つの物体として認識する。このとき、左眼Lと右眼Rとで少しだけ仮想的なエッジに、ずれが生じて両眼視差として知覚して奥行き位置が変化する。
換言すれば、例えば、観察者1が、図2Aに示す四角形のエッジ部分Eと図2Bに示すエッジ画像PEとを重ねて見たとき、四角形のエッジ部分Eにおいて、観察者1の網膜像上では認識できないくらいの微小な輝度の段差ができる。
この仕組みについて、図4から図6を参照して、詳細に説明する。
まず、観察者1が第1の画像P11と、第1の画像P11のエッジ部分Eに対応するエッジ画像PEとを重なる位置で観察すると、第1の画像P11とエッジ画像PEとの輝度比に合わせて表示面間内の奥行き位置(例えば、Z軸方向の位置)に像を知覚する。
換言すれば、第1表示面110を見ている観察者1は、第1の画像P11のエッジ部分Eとエッジ画像PEとが重なることによって、第1の画像P11とエッジ画像PEとの輝度比に応じた表示面間内の奥行き位置(例えば、Z軸方向の位置)に像を知覚する。
例えば、四角形のパターンを観察したとき、観察者1の網膜像上では認識できないくらいの微小な輝度の段差ができる。このような場合においては、明るさ(例えば、輝度)の段差間に仮想的なエッジを知覚して1つの物体として認識する。このとき、左眼Lと右眼Rとで少しだけ仮想的なエッジに、ずれが生じて両眼視差として知覚して奥行き位置が変化する。
換言すれば、例えば、観察者1が、図2Aに示す四角形のエッジ部分Eと図2Bに示すエッジ画像PEとを重ねて見たとき、四角形のエッジ部分Eにおいて、観察者1の網膜像上では認識できないくらいの微小な輝度の段差ができる。
この仕組みについて、図4から図6を参照して、詳細に説明する。
図4は、本実施形態における光学像IMの一例を示す模式図である。ここで、光学像IMとは、第1の画像P11及び第2の画像P12が観察者1によって視認される画像である。
まず、観察者の左眼Lに視認される光学像IMLについて説明する。
図4に示すように、観察者の左眼Lにおいては、左眼Lに視認される第1の画像P11Lと、左眼Lに視認される第2の画像(左眼第2画像)P12Lとが合成された光学像IMLが結像する。
例えば、図3を参照して説明したように、左眼Lにおいては、第1の画像P11によって示される四角形の左辺エッジ部分E1の(-X)側(つまり、四角形の外側)に、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1とが合成された光学像IMLが結像する。
また、左眼Lにおいては、第1の画像P11によって示される四角形の右辺エッジ部分E2の(-X)側(つまり、四角形の内側)に、右辺エッジ部分E2を示す画像と右辺エッジ画像PE2とが合成された光学像IMLが結像する。
まず、観察者の左眼Lに視認される光学像IMLについて説明する。
図4に示すように、観察者の左眼Lにおいては、左眼Lに視認される第1の画像P11Lと、左眼Lに視認される第2の画像(左眼第2画像)P12Lとが合成された光学像IMLが結像する。
例えば、図3を参照して説明したように、左眼Lにおいては、第1の画像P11によって示される四角形の左辺エッジ部分E1の(-X)側(つまり、四角形の外側)に、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1とが合成された光学像IMLが結像する。
また、左眼Lにおいては、第1の画像P11によって示される四角形の右辺エッジ部分E2の(-X)側(つまり、四角形の内側)に、右辺エッジ部分E2を示す画像と右辺エッジ画像PE2とが合成された光学像IMLが結像する。
図4の場合において、左眼Lに視認されている光学像IMLの明るさの分布を図5に示す。
図5は、本実施形態における光学像IMの明るさの分布の一例を示すグラフである。図5において、X座標X1~X6は、光学像IMの明るさの変化点に対応するX座標である。なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。
図5に示すように、左眼Lに視認される第1の画像P11Lの明るさは、X座標X1~X2において、ここではゼロとして説明する。また、第1の画像P11Lの明るさは、X座標X2~X6において輝度値BR2である。
なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。左眼Lに視認される第2の画像P12Lの明るさは、X座標X1~X2及びX座標X4~X5において輝度値BR1であり、X座標X2~X4においてゼロである。
したがって、左眼Lに視認される光学像IMLの明るさ(例えば、輝度)は、X座標X1~X2において輝度値BR1になる。また、光学像IMLの明るさは、X座標X2~X4及びX座標X5~X6において、輝度値BR2になり、X座標X4~X5において輝度値BR1と輝度値BR2とが合成された明るさである輝度値BR3になる。
図5は、本実施形態における光学像IMの明るさの分布の一例を示すグラフである。図5において、X座標X1~X6は、光学像IMの明るさの変化点に対応するX座標である。なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。
図5に示すように、左眼Lに視認される第1の画像P11Lの明るさは、X座標X1~X2において、ここではゼロとして説明する。また、第1の画像P11Lの明るさは、X座標X2~X6において輝度値BR2である。
なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。左眼Lに視認される第2の画像P12Lの明るさは、X座標X1~X2及びX座標X4~X5において輝度値BR1であり、X座標X2~X4においてゼロである。
したがって、左眼Lに視認される光学像IMLの明るさ(例えば、輝度)は、X座標X1~X2において輝度値BR1になる。また、光学像IMLの明るさは、X座標X2~X4及びX座標X5~X6において、輝度値BR2になり、X座標X4~X5において輝度値BR1と輝度値BR2とが合成された明るさである輝度値BR3になる。
次に、観察者1の左眼Lにエッジ部分Eが視認される仕組みについて説明する。
図6は、本実施形態における左眼Lと右眼Rとに生じる両眼視差の一例を示すグラフである。
左眼Lの網膜上に結像された光学像IMLによって、観察者1に認識される画像の明るさの分布は、図6の波形WLのようになる。ここで、観察者1は、例えば、視認される画像の明るさの変化が最大になる(つまり、波形WL及び波形WRの傾きが最大になる)X軸上の位置を、視認している物体のエッジ部分であると認識する。
本実施形態の場合、観察者1は、例えば、左眼L側の波形WLについて、図6に示すXELの位置(つまり、X軸の原点Oから距離LELの位置)を視認している四角形の左辺側のエッジ部分Eであると認識する。
図6は、本実施形態における左眼Lと右眼Rとに生じる両眼視差の一例を示すグラフである。
左眼Lの網膜上に結像された光学像IMLによって、観察者1に認識される画像の明るさの分布は、図6の波形WLのようになる。ここで、観察者1は、例えば、視認される画像の明るさの変化が最大になる(つまり、波形WL及び波形WRの傾きが最大になる)X軸上の位置を、視認している物体のエッジ部分であると認識する。
本実施形態の場合、観察者1は、例えば、左眼L側の波形WLについて、図6に示すXELの位置(つまり、X軸の原点Oから距離LELの位置)を視認している四角形の左辺側のエッジ部分Eであると認識する。
ここまで、観察者の左眼Lに視認される光学像IMLについて説明した。
次に、観察者の右眼Rに視認される光学像IMRについての、光学像IMLとの相違点を説明し、その相違点によって立体像(3次元画像)を認識する仕組みについて説明する。
図4に示すように、観察者の右眼Rにおいては、右眼Rに視認される第1の画像P11Rと、右眼Rに視認される第2の画像(右眼第2画像)P12Rとが合成された光学像IMRが結像する。
また、図5に示すように、右眼Rに視認される光学像IMRの明るさ(例えば、輝度)は、X座標X1~X3及びX座標X4~X6において、左眼Lに視認される光学像IMLの明るさと相違している。
右眼Rの網膜上に合成された光学像IMRによって、観察者1に認識される画像の明るさの分布は、図6の波形WRのようになる。ここで、観察者1は、例えば、右眼R側の波形WRについて、図6に示すXERの位置(つまり、X軸の原点Oから距離LERの位置)を視認している四角形のエッジ部分Eであると認識する。
これにより、観察者1は、左眼Lが視認する四角形のエッジ部分Eの位置XELと、右眼Rが視認する四角形のエッジ部分Eの位置XERとを両眼視差として認識する。そして、観察者1は、エッジ部分Eの両眼視差に基づいて四角形の画像を立体像(3次元画像)として認識する。
次に、観察者の右眼Rに視認される光学像IMRについての、光学像IMLとの相違点を説明し、その相違点によって立体像(3次元画像)を認識する仕組みについて説明する。
図4に示すように、観察者の右眼Rにおいては、右眼Rに視認される第1の画像P11Rと、右眼Rに視認される第2の画像(右眼第2画像)P12Rとが合成された光学像IMRが結像する。
また、図5に示すように、右眼Rに視認される光学像IMRの明るさ(例えば、輝度)は、X座標X1~X3及びX座標X4~X6において、左眼Lに視認される光学像IMLの明るさと相違している。
右眼Rの網膜上に合成された光学像IMRによって、観察者1に認識される画像の明るさの分布は、図6の波形WRのようになる。ここで、観察者1は、例えば、右眼R側の波形WRについて、図6に示すXERの位置(つまり、X軸の原点Oから距離LERの位置)を視認している四角形のエッジ部分Eであると認識する。
これにより、観察者1は、左眼Lが視認する四角形のエッジ部分Eの位置XELと、右眼Rが視認する四角形のエッジ部分Eの位置XERとを両眼視差として認識する。そして、観察者1は、エッジ部分Eの両眼視差に基づいて四角形の画像を立体像(3次元画像)として認識する。
以上、説明したように、本実施形態の表示装置10は、第1の画像P11を表示する第1表示部11と、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に、第1の画像P11内のエッジ部分を示すエッジ画像PEを含む第2の画像P12を表示する第2表示部12とを備えている。
これにより、表示装置10は、第1の画像P11と第2の画像P12とのエッジ画像PE(つまり、エッジ部分)を重ねて表示することができる。
つまり、本実施形態の表示装置10は、第1表示部11に表示されているエッジ部以外の画像には、第2表示部12に表示されている画像(つまり、エッジ画像PE)の影響を与えることなく、画像を表示することができる。
これにより、表示装置10は、第1の画像P11と第2の画像P12とのエッジ画像PE(つまり、エッジ部分)を重ねて表示することができる。
つまり、本実施形態の表示装置10は、第1表示部11に表示されているエッジ部以外の画像には、第2表示部12に表示されている画像(つまり、エッジ画像PE)の影響を与えることなく、画像を表示することができる。
ここで、仮に、第1表示部11と第2表示部12とに、明るさ(例えば、輝度)の比を設定した画像をそれぞれ表示した場合には、第1表示部11と第2表示部12との表示条件のばらつきが、立体像(3次元画像)の表示精度に影響を及ぼす可能性がある。
また、この場合、高精度に立体像(3次元画像)を表示するためには、第1表示部11と第2表示部12との表示条件(例えば、表示される画像の明るさや色彩)のばらつきを低減させて、表示条件を一致させる必要が生じる。
また、この場合、高精度に立体像(3次元画像)を表示するためには、第1表示部11と第2表示部12との表示条件(例えば、表示される画像の明るさや色彩)のばらつきを低減させて、表示条件を一致させる必要が生じる。
一方、本実施形態の表示装置10は、第2表示部12にエッジ画像PEを表示するため、第1表示部11と第2表示部12との表示条件にばらつきがあっても、第1表示部11に表示されているエッジ部以外の画像に影響を与えることがない。
これにより、第1表示部11と第2表示部12との表示条件を厳密に一致させなくても、立体像(3次元画像)を高精度に表示することができる。つまり、本実施形態の表示装置10は、立体像(3次元画像)を高精度に表示することができる。
これにより、第1表示部11と第2表示部12との表示条件を厳密に一致させなくても、立体像(3次元画像)を高精度に表示することができる。つまり、本実施形態の表示装置10は、立体像(3次元画像)を高精度に表示することができる。
また、本実施形態の表示装置10は、第2表示部12にエッジ画像PEのみを表示させればよいため、第2表示部12にエッジ画像PE以外の画像をも表示する場合に比べて、消費電力を抑えることができる。
また、図6に示すように、観察者1は画像の明るさ(例えば、輝度)の段階的な変化を波形WL及び波形WRのように滑らかな明るさ(例えば、輝度)の変化として認識する。このため、本実施形態の表示装置10は、エッジ画像PEの精細度が低い場合であっても、観察者1に立体像(3次元画像)を認識させることができる。ここで、精細度とは、例えば、画像を構成する画素の数である。
これにより、本実施形態の表示装置10は、第1表示部11の精細度に比べて第2表示部12の精細度を低減することができる。つまり、本実施形態の表示装置10は、第2表示部12を安価な表示デバイスによって構成することができる。
これにより、本実施形態の表示装置10は、第1表示部11の精細度に比べて第2表示部12の精細度を低減することができる。つまり、本実施形態の表示装置10は、第2表示部12を安価な表示デバイスによって構成することができる。
また、本実施形態の表示装置10は、第1表示部11によって表示されている第1の画像P11内のエッジ部分と、エッジ画像PEとが、対応して視認されるように第1の画像P11および第2の画像P12を表示する。これにより、本実施形態の表示装置10が表示する各画像は、第1の画像P11内のエッジ部分と、エッジ画像PEとが、観察者1によって分離しないように視認される。
したがって、本実施形態の表示装置10は、立体像(3次元画像)を高精度に表示することができる。
したがって、本実施形態の表示装置10は、立体像(3次元画像)を高精度に表示することができる。
また、本実施形態の表示装置10の第1表示部11および第2表示部12のうちの少なくとも1つは、他方の表示部に表示される画像に応じた光を透過可能な透過型表示部である。これにより、実施形態の表示装置10は、第1表示部11と第2表示部12とを重ねた状態にして構成することができ、表示装置10を小型化することができる。
なお、図7に示すように、表示装置10の第2表示部12は、第1表示部11よりも観察者1に近い奥行き位置にあってもよい。
図7は、本実施形態における表示装置10の構成の一例を示す構成図である。
ここで、例えば、第2表示部12は、画像が表示される位置の方向に光を透過可能な第2表示部(透過型表示部)12aであってもよい。すなわち、第2表示部12は、他方の表示部(例えば、第1表示部11)に表示される画像に応じた光を透過可能な第2表示部(透過型表示部)12aであってもよい。
これにより、本実施形態の表示装置10は、第2表示部12を着脱可能な構成にして、例えば、立体像(3次元画像)による表示が不要な場合には、第2表示部12を取り外すことが可能な構成にすることができる。また、本実施形態の表示装置10は、既存の第1表示部11に対して、第2表示部12を取り付けることが可能な構成にすることができる。
図7は、本実施形態における表示装置10の構成の一例を示す構成図である。
ここで、例えば、第2表示部12は、画像が表示される位置の方向に光を透過可能な第2表示部(透過型表示部)12aであってもよい。すなわち、第2表示部12は、他方の表示部(例えば、第1表示部11)に表示される画像に応じた光を透過可能な第2表示部(透過型表示部)12aであってもよい。
これにより、本実施形態の表示装置10は、第2表示部12を着脱可能な構成にして、例えば、立体像(3次元画像)による表示が不要な場合には、第2表示部12を取り外すことが可能な構成にすることができる。また、本実施形態の表示装置10は、既存の第1表示部11に対して、第2表示部12を取り付けることが可能な構成にすることができる。
[第2の実施形態]
以下、図面を参照して、本発明の第2の実施形態を説明する。なお、上述した第1の実施形態と同様である構成及び動作については、説明を省略する。
図8は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
画像情報供給装置2は、表示装置10に画像情報を供給する。ここで、画像情報は、表示装置10によって表示される第1の画像P11を表示するための情報である。
以下、図面を参照して、本発明の第2の実施形態を説明する。なお、上述した第1の実施形態と同様である構成及び動作については、説明を省略する。
図8は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
画像情報供給装置2は、表示装置10に画像情報を供給する。ここで、画像情報は、表示装置10によって表示される第1の画像P11を表示するための情報である。
本実施形態の表示装置10は、エッジ画像生成部(生成部)14を備えている。
エッジ画像生成部14は、画像情報供給装置2から、第1の画像P11の奥行き位置を示す位置情報が含まれている画像情報を取得する。そして、エッジ画像生成部14は、取得した画像情報からエッジ部分を抽出する。そして、エッジ画像生成部14は、抽出したエッジ部分を示すエッジ画像PEを生成して、生成したエッジ画像PEを含む第2の画像P12を第2表示部12に供給する。
ここで、本実施形態のエッジ画像生成部14は、例えば、取得した画像情報に対して、例えば、ラプラシアンフィルタなどの微分フィルタを適用することによって、エッジ部分を抽出する。
エッジ画像生成部14は、画像情報供給装置2から、第1の画像P11の奥行き位置を示す位置情報が含まれている画像情報を取得する。そして、エッジ画像生成部14は、取得した画像情報からエッジ部分を抽出する。そして、エッジ画像生成部14は、抽出したエッジ部分を示すエッジ画像PEを生成して、生成したエッジ画像PEを含む第2の画像P12を第2表示部12に供給する。
ここで、本実施形態のエッジ画像生成部14は、例えば、取得した画像情報に対して、例えば、ラプラシアンフィルタなどの微分フィルタを適用することによって、エッジ部分を抽出する。
このエッジ画像生成部14とは、表示制御装置が備える表示制御部の一例である。すなわち、表示装置10は、表示制御装置を含んでおり、表示制御部としてのエッジ画像生成部14を備えている。
具体的には、表示装置10は、第1表示部11によって表示されている第1の画像P11内のエッジ部分と、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に第2表示部12が表示する第2の画像P12に含まれる第1の画像P11内のエッジ部分を示すエッジ画像とが、対応して視認されるように第1表示部11および第2表示部12のうち少なくとも一方に画像を表示させる表示制御部としてのエッジ画像生成部14を備えている。
具体的には、表示装置10は、第1表示部11によって表示されている第1の画像P11内のエッジ部分と、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に第2表示部12が表示する第2の画像P12に含まれる第1の画像P11内のエッジ部分を示すエッジ画像とが、対応して視認されるように第1表示部11および第2表示部12のうち少なくとも一方に画像を表示させる表示制御部としてのエッジ画像生成部14を備えている。
次に、図9を参照して、本実施形態における表示装置10の動作について説明する。
図9は、本実施形態における表示装置10の動作の一例を示すフローチャートである。
まず、表示装置10の第1表示部11は、画像情報供給装置2から画像情報を取得する(ステップS110)。また、表示装置10の第2表示部12は、画像情報供給装置2から画像情報を取得する(ステップS120)。
本実施形態の第1表示部11は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。また、本実施形態の第2表示部12は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。
ここで、本実施形態の画像情報供給装置2は、立体画像(3次元画像)の画像情報を生成する。この画像情報には、第1の画像P11の奥行き位置を示す位置情報が含まれている。
ここで、第1の画像P11の奥行き位置を示す位置情報とは、第1の画像P11が観察者1に立体画像として認識されるために画像情報に付加される情報であって、例えば、左眼Lと右眼Rとの両眼視差を設定するための情報である。
また、ここで、第1の画像P11の奥行き位置とは、例えば、図3のZ軸方向の位置のうちの、第1の画像P11が観察者1に立体画像として認識されている、第1の画像P11の各画素の仮想的な位置である。
例えば、第1の画像P11の奥行き位置が第1の画像P11が表示されている位置(Z軸の原点Oの位置)から奥方向(-Z方向)に設定される場合には、Z軸の原点Oの位置の両眼視差に比べて、両眼視差が大きくなるような位置情報が、画像情報に付加されている。
図9は、本実施形態における表示装置10の動作の一例を示すフローチャートである。
まず、表示装置10の第1表示部11は、画像情報供給装置2から画像情報を取得する(ステップS110)。また、表示装置10の第2表示部12は、画像情報供給装置2から画像情報を取得する(ステップS120)。
本実施形態の第1表示部11は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。また、本実施形態の第2表示部12は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。
ここで、本実施形態の画像情報供給装置2は、立体画像(3次元画像)の画像情報を生成する。この画像情報には、第1の画像P11の奥行き位置を示す位置情報が含まれている。
ここで、第1の画像P11の奥行き位置を示す位置情報とは、第1の画像P11が観察者1に立体画像として認識されるために画像情報に付加される情報であって、例えば、左眼Lと右眼Rとの両眼視差を設定するための情報である。
また、ここで、第1の画像P11の奥行き位置とは、例えば、図3のZ軸方向の位置のうちの、第1の画像P11が観察者1に立体画像として認識されている、第1の画像P11の各画素の仮想的な位置である。
例えば、第1の画像P11の奥行き位置が第1の画像P11が表示されている位置(Z軸の原点Oの位置)から奥方向(-Z方向)に設定される場合には、Z軸の原点Oの位置の両眼視差に比べて、両眼視差が大きくなるような位置情報が、画像情報に付加されている。
次に、第2表示部12は、ステップS120において取得した画像情報に基づいて、第1の画像P11内のエッジ部分Eを示すエッジ画像PEを含む第2の画像P12を生成する(ステップS122)。
次に、第1表示部11は、ステップS110において取得した画像情報に基づいて、第1の画像P11を生成し、生成した第1の画像P11を表示して、処理を終了する(ステップS113)。
また、第2表示部12は、ステップS122において生成した第2の画像P12を表示して、処理を終了する(ステップS123)。
また、第2表示部12は、ステップS122において生成した第2の画像P12を表示して、処理を終了する(ステップS123)。
以上説明したように、本実施形態の表示装置10は、エッジ画像生成部14を備えている。これにより、本実施形態の表示装置10は、画像情報供給装置2からエッジ画像PEの供給を受けることなく、立体像(3次元画像)を表示することができる。
なお、エッジ画像生成部14は、第2表示部12又は画像情報供給装置2に備えられていてもよい。この場合、表示装置10は、エッジ画像生成部14を独立して備えなくてもよいため、表示装置10の構成を簡略化することができる。
なお、本実施形態の表示装置10の第2表示部12は、立体像の奥行き位置を示す位置情報に基づいて、エッジ画像PEを表示してもよい。
この場合において、例えば、エッジ画像生成部14は、画像情報供給装置2から、第1の画像P11を立体像(3次元画像)として表示するZ軸方向の位置(奥行き位置)を示す位置情報が含まれている画像情報を取得する。
ここで、位置情報とは、第1の画像P11が観察者1に立体像(3次元画像)として認識されるために画像情報に付加される情報であって、例えば、左眼Lと右眼Rとの視差を設定するための情報である。
例えば、第1の画像P11の奥行き位置が第1の画像P11が表示されている位置(Z軸の原点Oの位置)から奥方向(-Z方向)に設定される場合には、Z軸の原点Oの位置の視差に比べて、視差が大きくなるような位置情報が、画像情報に付加されている。
そして、エッジ画像生成部14は、第2の画像P12の画素ごとに、取得した画像情報に含まれている位置情報に応じた明るさ(例えば、輝度)に設定したエッジ画像PEを生成する。
すなわち、本実施形態の第2表示部12は、立体像の奥行き位置を示す位置情報に基づいて、エッジ画像PEを表示する。これにより、本実施形態の表示装置10は、第1表示部11に表示される第1の画像P11の立体像の奥行き位置を設定することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を可変にすることができる。
この場合において、例えば、エッジ画像生成部14は、画像情報供給装置2から、第1の画像P11を立体像(3次元画像)として表示するZ軸方向の位置(奥行き位置)を示す位置情報が含まれている画像情報を取得する。
ここで、位置情報とは、第1の画像P11が観察者1に立体像(3次元画像)として認識されるために画像情報に付加される情報であって、例えば、左眼Lと右眼Rとの視差を設定するための情報である。
例えば、第1の画像P11の奥行き位置が第1の画像P11が表示されている位置(Z軸の原点Oの位置)から奥方向(-Z方向)に設定される場合には、Z軸の原点Oの位置の視差に比べて、視差が大きくなるような位置情報が、画像情報に付加されている。
そして、エッジ画像生成部14は、第2の画像P12の画素ごとに、取得した画像情報に含まれている位置情報に応じた明るさ(例えば、輝度)に設定したエッジ画像PEを生成する。
すなわち、本実施形態の第2表示部12は、立体像の奥行き位置を示す位置情報に基づいて、エッジ画像PEを表示する。これにより、本実施形態の表示装置10は、第1表示部11に表示される第1の画像P11の立体像の奥行き位置を設定することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を可変にすることができる。
また、本実施形態の第2表示部12は、位置情報に応じた明るさに設定されているエッジ画像PEを表示する。これにより、本実施形態の表示装置10は、第2表示部12によって表示される第2の画像P12の明るさ(例えば、輝度)を設定することによって、観察者1に認識される立体像の奥行き位置を可変にすることができる。
つまり、本実施形態の表示装置10は、第1の画像P11と第2の画像P12との距離Lpを変化させることなく、観察者1に認識される立体像の奥行き位置を可変に設定することができる。
つまり、本実施形態の表示装置10は、第1の画像P11と第2の画像P12との距離Lpを変化させることなく、観察者1に認識される立体像の奥行き位置を可変に設定することができる。
また、本実施形態の表示装置10の第2表示部12は、第2の画像P12の画素ごとに、位置情報に応じた明るさを設定する。これにより、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を画素ごとに可変にすることができる。つまり、本実施形態の表示装置10は、立体像(3次元画像)を高精度に表示することができる。
なお、本実施形態の表示装置10の第1表示部11は、第2表示部12によって表示される第2の画像P12の明るさに基づいて、第1の画像P11の明るさを設定してもよい。
ここで、表示装置10は、第1の画像P11と第2の画像P12とを重ねて表示するため、第1の画像P11と第2の画像P12とを重ねた画像(つまり、光学像IM)が明るくなりすぎることがある。この場合、光学像IMは、エッジ部分が目立って観察者1に視認されることになるため、立体像として認識されにくくなることがある。
そこで、第1表示部11は、第2表示部12によって表示される第2の画像P12の明るさに基づいて、第1の画像P11の明るさを設定する。本実施形態の第1表示部11は、例えば、第2の画像P12の明るさを示す値と、第1の画像P11の明るさを示す値との和が、所定のしきい値を超える場合には、第1の画像P11の明るさを減じるように設定する。
これにより、本実施形態の表示装置10は、エッジ部分のみが目立つことによる観察者1の違和感を低減することができ、立体像(3次元画像)を高精度に表示することができる。
ここで、表示装置10は、第1の画像P11と第2の画像P12とを重ねて表示するため、第1の画像P11と第2の画像P12とを重ねた画像(つまり、光学像IM)が明るくなりすぎることがある。この場合、光学像IMは、エッジ部分が目立って観察者1に視認されることになるため、立体像として認識されにくくなることがある。
そこで、第1表示部11は、第2表示部12によって表示される第2の画像P12の明るさに基づいて、第1の画像P11の明るさを設定する。本実施形態の第1表示部11は、例えば、第2の画像P12の明るさを示す値と、第1の画像P11の明るさを示す値との和が、所定のしきい値を超える場合には、第1の画像P11の明るさを減じるように設定する。
これにより、本実施形態の表示装置10は、エッジ部分のみが目立つことによる観察者1の違和感を低減することができ、立体像(3次元画像)を高精度に表示することができる。
[第3の実施形態]
以下、図面を参照して、本発明の第3の実施形態を説明する。なお、上述した第1の実施形態及び第2の実施形態と同様である構成及び動作については、説明を省略する。
図10は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
本実施形態の表示システム100は、検出部21と、表示装置10と、上述した画像情報供給装置2とを備えている。
検出部21は、第1の画像P11が視認されている方向を検出する。本実施形態の検出部21は、例えば、観察者1の顔の方向を検出する顔検出センサを備えており、検出した観察者1の顔の方向を示す情報を検出結果として出力する。
本実施形態の表示装置10は、設定部13を備えている。
設定部13は、第1の画像P11が視認されている方向が検出された検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。
本実施形態の設定部13は、例えば、検出部21によって検出された検出結果(例えば、観察者1の顔の方向を示す情報)を検出部21から取得する。また、本実施形態の設定部13は、例えば、画像情報供給装置2から取得した画像情報と、検出部21から取得した検出結果とに基づいて、図11に示すように、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。
以下、図面を参照して、本発明の第3の実施形態を説明する。なお、上述した第1の実施形態及び第2の実施形態と同様である構成及び動作については、説明を省略する。
図10は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。
本実施形態の表示システム100は、検出部21と、表示装置10と、上述した画像情報供給装置2とを備えている。
検出部21は、第1の画像P11が視認されている方向を検出する。本実施形態の検出部21は、例えば、観察者1の顔の方向を検出する顔検出センサを備えており、検出した観察者1の顔の方向を示す情報を検出結果として出力する。
本実施形態の表示装置10は、設定部13を備えている。
設定部13は、第1の画像P11が視認されている方向が検出された検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。
本実施形態の設定部13は、例えば、検出部21によって検出された検出結果(例えば、観察者1の顔の方向を示す情報)を検出部21から取得する。また、本実施形態の設定部13は、例えば、画像情報供給装置2から取得した画像情報と、検出部21から取得した検出結果とに基づいて、図11に示すように、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。
図11は、本実施形態における設定部13の設定の一例を示す模式図である。
本実施形態の表示装置10の設定部13は、例えば、検出部21から取得した検出結果(例えば、観察者1の顔の方向を示す情報)に基づいて、第2の画像P12に含まれているエッジ画像PEの位置と、エッジ画像PEの画像変換(例えば、射影変換やアフィン変換)の方法とを設定する。
すなわち、表示状態には、第1の画像P11とエッジ画像PEとの相対位置が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、相対位置を設定する。
また、表示状態には、エッジ画像PEの画像変換(例えば、射影変換やアフィン変換)が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEの画像変換の方法を設定する。
本実施形態の表示装置10の設定部13は、例えば、検出部21から取得した検出結果(例えば、観察者1の顔の方向を示す情報)に基づいて、第2の画像P12に含まれているエッジ画像PEの位置と、エッジ画像PEの画像変換(例えば、射影変換やアフィン変換)の方法とを設定する。
すなわち、表示状態には、第1の画像P11とエッジ画像PEとの相対位置が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、相対位置を設定する。
また、表示状態には、エッジ画像PEの画像変換(例えば、射影変換やアフィン変換)が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEの画像変換の方法を設定する。
例えば、図11に示すように、表示装置10に表示されている第1の画像P11が、図3において示した位置よりも(-X)側から観察者1によって視認されている場合には、設定部13は、第2の画像P12に含まれているエッジ画像を、図3において示した位置よりも(+X)側に移動させる。
すなわち、設定部13は、エッジ画像PEの位置を、観察者1によって第1の画像P11が視認されている方向に基づいて、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。
すなわち、設定部13は、エッジ画像PEの位置を、観察者1によって第1の画像P11が視認されている方向に基づいて、第1の画像P11とエッジ画像PEとが対応して表示されるように、表示状態を設定する。
また、例えば、図12A及び図12Bに示すように、設定部13は、第2の画像P12に含まれているエッジ画像PEのうちの、四角形の右辺部分を示すエッジ画像PE1と、四角形の左辺部分を示すエッジ画像PE2との間隔を変更するように画像変換する。
図12Aは、本実施形態における第1の画像P11の一例を示す模式図である。
図12Bは、本実施形態における第2の画像P12の一例を示す模式図である。
例えば、図11に示すように、第1の画像P11がZ軸に対して斜めの方向から観察者1によって視認されている場合、設定部13は、第1の画像P11とエッジ画像PEとが対応して視認されるように画像変換して表示状態を設定する。
例えば、設定部13は、図12Bに示すように、第2の画像P12に含まれるエッジ画像PEについて、図12Aの四角形の左辺を示すエッジ画像PE1と、右辺を示すエッジ画像PE2との間隔(つまり、長さLw2)を変更するように画像変換する。ここで、設定部13は、例えば、長さLw2を第1の画像P11に表示されている四角形の左右(幅)方向の長さLw1よりも長くなるように画像変換する。
すなわち、表示状態には、エッジ画像PEの画像変換の方法が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEを画像変換して表示状態を設定する。
図12Aは、本実施形態における第1の画像P11の一例を示す模式図である。
図12Bは、本実施形態における第2の画像P12の一例を示す模式図である。
例えば、図11に示すように、第1の画像P11がZ軸に対して斜めの方向から観察者1によって視認されている場合、設定部13は、第1の画像P11とエッジ画像PEとが対応して視認されるように画像変換して表示状態を設定する。
例えば、設定部13は、図12Bに示すように、第2の画像P12に含まれるエッジ画像PEについて、図12Aの四角形の左辺を示すエッジ画像PE1と、右辺を示すエッジ画像PE2との間隔(つまり、長さLw2)を変更するように画像変換する。ここで、設定部13は、例えば、長さLw2を第1の画像P11に表示されている四角形の左右(幅)方向の長さLw1よりも長くなるように画像変換する。
すなわち、表示状態には、エッジ画像PEの画像変換の方法が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEを画像変換して表示状態を設定する。
次に、図13を参照して本実施形態の表示装置10の動作について説明する。
図13は、本実施形態における表示装置10の動作の一例を示すフローチャートである。
まず、表示装置10の設定部13は、画像情報供給装置2から画像情報を取得する(ステップS200)。本実施形態の設定部13は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。
ここで、第1の実施形態と同様に、本実施形態の画像情報供給装置2は、立体画像(3次元画像)の画像情報を生成する。この画像情報には、第1の画像P11の奥行き位置を示す位置情報が含まれている。
図13は、本実施形態における表示装置10の動作の一例を示すフローチャートである。
まず、表示装置10の設定部13は、画像情報供給装置2から画像情報を取得する(ステップS200)。本実施形態の設定部13は、画像情報供給装置2が生成した画像情報を、通信線を介して画像情報供給装置2から取得する。
ここで、第1の実施形態と同様に、本実施形態の画像情報供給装置2は、立体画像(3次元画像)の画像情報を生成する。この画像情報には、第1の画像P11の奥行き位置を示す位置情報が含まれている。
次に、表示装置10の設定部13は、検出部21によって検出された第1の画像P11が観察者1によって視認されている方向を示す情報を検出結果として取得する(ステップS210)。本実施形態の設定部13は、例えば、検出部21が備える顔センサによって検出された観察者1の視線の方向を示す情報を検出部21から取得する。
次に、設定部13は、ステップS200において取得した画像情報から、位置情報を抽出する(ステップS220)。本実施形態の設定部13は、画像情報供給装置2から取得した立体画像(3次元画像)の画像情報に含まれている立体像の奥行き位置を示す位置情報を抽出する。
次に、設定部13は、ステップS200において取得した画像情報に基づいて、エッジ部分を示すエッジ画像PEを生成し、ステップS220において抽出した位置情報に応じて、生成したエッジ画像の各画素の明るさを設定する(ステップS230)。
次に、設定部13は、ステップS210において取得した検出結果に基づいて、ステップS230において生成したエッジ画像PEを変換する(ステップS240)。
本実施形態の設定部13は、例えば、取得した検出結果が示す観察者1の顔の方向に応じて設定した画像変換に基づいて、エッジ画像PEの表示位置を変換する。つまり、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、相対位置を設定する。
本実施形態の設定部13は、例えば、取得した検出結果が示す観察者1の顔の方向に応じて設定した画像変換に基づいて、エッジ画像PEの表示位置を変換する。つまり、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、相対位置を設定する。
次に、表示装置10の第1表示部11は、設定部13から画像情報を取得する。そして、第1表示部11は、取得した画像情報に基づいて第1の画像P11を生成し、生成した第1の画像P11を表示して、処理を終了する。
また、第2表示部12は、設定部13から画像情報を取得する。そして、第2表示部12は、取得した画像情報に基づいて第2の画像P12を生成し、生成した第2の画像P12を表示して、処理を終了する(ステップS250)。
また、第2表示部12は、設定部13から画像情報を取得する。そして、第2表示部12は、取得した画像情報に基づいて第2の画像P12を生成し、生成した第2の画像P12を表示して、処理を終了する(ステップS250)。
以上、説明したように、本実施形態の表示装置10は、第1の画像P11が視認されている方向が検出された検出結果に基づいて、第1の画像P11および第2の画像P12の表示状態を設定する設定部13を備えている。
これにより、本実施形態の表示装置10は、表示装置10の正面の位置にいる観察者1だけでなく、表示装置10の正面以外の位置にいる観察者1に対しても、立体像(3次元画像)を表示することができる。つまり、本実施形態の表示装置10は、広範囲に立体像(3次元画像)を表示することができる。
これにより、本実施形態の表示装置10は、表示装置10の正面の位置にいる観察者1だけでなく、表示装置10の正面以外の位置にいる観察者1に対しても、立体像(3次元画像)を表示することができる。つまり、本実施形態の表示装置10は、広範囲に立体像(3次元画像)を表示することができる。
また、本実施形態の表示装置10の表示状態には、第1の画像P11と第2の画像P12との相対位置が含まれており、表示装置10の設定部13は、検出結果に基づいて、相対位置を設定する。
これにより、本実施形態の表示装置10は、表示装置10の正面以外の位置にいる観察者1に対して、第1の画像P11と、エッジ画像PEとを対応させて表示することができる。つまり、本実施形態の表示装置10は、広範囲に立体像(3次元画像)を表示することができる。
これにより、本実施形態の表示装置10は、表示装置10の正面以外の位置にいる観察者1に対して、第1の画像P11と、エッジ画像PEとを対応させて表示することができる。つまり、本実施形態の表示装置10は、広範囲に立体像(3次元画像)を表示することができる。
また、本実施形態の表示装置10の表示状態には、エッジ画像PEの画像変換が含まれ、設定部13は、検出結果に基づいて、第1の画像P11とエッジ画像PEとが対応して視認されるように、エッジ画像PEの画像変換の方法を設定する。
これにより、本実施形態の表示装置10は、第1の画像P11に対応するエッジ画像PEが、歪んで視認される位置にいる観察者1に対しても、第1の画像P11と、エッジ画像PEとを対応させて表示することができる。つまり、本実施形態の表示装置10は、広範囲に立体像(3次元画像)を表示することができる。
これにより、本実施形態の表示装置10は、第1の画像P11に対応するエッジ画像PEが、歪んで視認される位置にいる観察者1に対しても、第1の画像P11と、エッジ画像PEとを対応させて表示することができる。つまり、本実施形態の表示装置10は、広範囲に立体像(3次元画像)を表示することができる。
[第4の実施形態]
以下、図面を参照して、本発明の第4の実施形態を説明する。なお、上述した第1の実施形態から第3の実施形態までと同様である構成及び動作については、説明を省略する。
図14は、本実施形態における第2表示部12としての立体表示部12bを備える表示装置10の構成の一例を示す構成図である。
本実施形態の表示装置10は、第2表示部12としての立体表示部12bを備えている。
立体表示部(第2表示部)12bは、入力される画像情報に応じた奥行き位置に立体像を表示する。例えば、本実施形態の立体表示部12bは、第2の画像P12に含まれているエッジ画像PEを観察者1に立体視させる(立体表示する)ことができる。
つまり、表示装置10は、立体表示(3次元表示)されたエッジ画像PEを、そのエッジ画像PEに対応している第1表示部11によって表示されている第1の画像P11内のエッジ部分と対応して視認されるように表示することができる。
これにより、本実施形態の表示装置10は、エッジ画像PEを、例えば、図3のX軸方向だけでなく、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
以下、図面を参照して、本発明の第4の実施形態を説明する。なお、上述した第1の実施形態から第3の実施形態までと同様である構成及び動作については、説明を省略する。
図14は、本実施形態における第2表示部12としての立体表示部12bを備える表示装置10の構成の一例を示す構成図である。
本実施形態の表示装置10は、第2表示部12としての立体表示部12bを備えている。
立体表示部(第2表示部)12bは、入力される画像情報に応じた奥行き位置に立体像を表示する。例えば、本実施形態の立体表示部12bは、第2の画像P12に含まれているエッジ画像PEを観察者1に立体視させる(立体表示する)ことができる。
つまり、表示装置10は、立体表示(3次元表示)されたエッジ画像PEを、そのエッジ画像PEに対応している第1表示部11によって表示されている第1の画像P11内のエッジ部分と対応して視認されるように表示することができる。
これにより、本実施形態の表示装置10は、エッジ画像PEを、例えば、図3のX軸方向だけでなく、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
なお、本実施形態における表示装置10は、第1表示部11としての立体表示部11bを備えていてもよい。立体表示部(第1表示部)11bは、入力される画像情報に応じた奥行き位置に立体像を表示する。例えば、本実施形態の立体表示部11bは、第1の画像P11を立体表示することができる。
つまり、表示装置10は、立体表示(3次元表示)された第1の画像P11内のエッジ部分と、そのエッジ部分に対応しているエッジ画像PEとが、対応して視認されるように表示することができる。
これにより、本実施形態の表示装置10は、第1の画像P11を、例えば、図3のX軸方向だけでなく、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
つまり、表示装置10は、立体表示(3次元表示)された第1の画像P11内のエッジ部分と、そのエッジ部分に対応しているエッジ画像PEとが、対応して視認されるように表示することができる。
これにより、本実施形態の表示装置10は、第1の画像P11を、例えば、図3のX軸方向だけでなく、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
なお、本実施形態における表示装置10は、第1表示部11としての立体表示部11bと、第2表示部12としての立体表示部12bとを備えていてもよい。
上述したように、これにより、本実施形態の表示装置10は、第1の画像P11を、例えば、Z軸方向にも移動させて表示することができるとともに、エッジ画像PEを、例えば、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
上述したように、これにより、本実施形態の表示装置10は、第1の画像P11を、例えば、Z軸方向にも移動させて表示することができるとともに、エッジ画像PEを、例えば、Z軸方向にも移動させて表示することができる。つまり、本実施形態の表示装置10は、観察者1に認識される立体像の奥行き位置を広範囲に設定することができる。
なお、上述した実施形態において、第2の画像P12は、例えば、図2Bに示すような画像であるが、これに限られない。
例えば、図15に示すように、第2の画像P12は、第1の画像P11の左右のエッジ部分に加えて上下のエッジ部分を示すエッジ画像PEaを含む第2の画像P12aであってもよい。
図15は、第1の画像P11の左右及び上下のエッジ部分を含む第2の画像P12aの一例を示す模式図である。例えば、第2の画像P12aは、第1の画像P11が示す四角形の各辺をエッジ部分とする、エッジ部分を示す画像であってもよい。
また、図16に示すように第2の画像P12は、エッジ部分を例えば、破線状に示すエッジ画像PEbを含む画像(第2の画像P12b)であってもよい。
図16は、破線状にエッジ部分を示す第2の画像P12bの一例を示す模式図である。
また、図17に示すように第2の画像P12は、エッジ部分を例えば、主観的輪郭状に示すエッジ画像PEcを含む画像(第2の画像P12c)であってもよい。ここで、主観的輪郭とは、例えば、輪郭線が存在しないにもかかわらず、輪郭線が存在するように観察者1に認識される輪郭である。
図17は、主観的輪郭状にエッジ部分を示す第2の画像P12cの一例を示す模式図である。
これにより、表示装置10の第2表示部12は、エッジ部分を示す画像のすべてを表示する必要がなくなり、すべてのエッジ部分を示す画像を表示している場合に比べて消費電力を低減することができる。
また、図18に示すように第2の画像P12は、エッジ部分の内部を所定の明るさ(例えば、輝度)にして表示されるものであってもよい。
図18は、エッジ部分の内部を所定の明るさにした第2の画像P12dの一例を示す模式図である。
これにより、表示装置10は、第1の画像P11を変化させることなく、第1の画像P11の明るさを明るくすることができる。
例えば、図15に示すように、第2の画像P12は、第1の画像P11の左右のエッジ部分に加えて上下のエッジ部分を示すエッジ画像PEaを含む第2の画像P12aであってもよい。
図15は、第1の画像P11の左右及び上下のエッジ部分を含む第2の画像P12aの一例を示す模式図である。例えば、第2の画像P12aは、第1の画像P11が示す四角形の各辺をエッジ部分とする、エッジ部分を示す画像であってもよい。
また、図16に示すように第2の画像P12は、エッジ部分を例えば、破線状に示すエッジ画像PEbを含む画像(第2の画像P12b)であってもよい。
図16は、破線状にエッジ部分を示す第2の画像P12bの一例を示す模式図である。
また、図17に示すように第2の画像P12は、エッジ部分を例えば、主観的輪郭状に示すエッジ画像PEcを含む画像(第2の画像P12c)であってもよい。ここで、主観的輪郭とは、例えば、輪郭線が存在しないにもかかわらず、輪郭線が存在するように観察者1に認識される輪郭である。
図17は、主観的輪郭状にエッジ部分を示す第2の画像P12cの一例を示す模式図である。
これにより、表示装置10の第2表示部12は、エッジ部分を示す画像のすべてを表示する必要がなくなり、すべてのエッジ部分を示す画像を表示している場合に比べて消費電力を低減することができる。
また、図18に示すように第2の画像P12は、エッジ部分の内部を所定の明るさ(例えば、輝度)にして表示されるものであってもよい。
図18は、エッジ部分の内部を所定の明るさにした第2の画像P12dの一例を示す模式図である。
これにより、表示装置10は、第1の画像P11を変化させることなく、第1の画像P11の明るさを明るくすることができる。
なお、図15から図18に記載のエッジ部分を示す各画像は、第2の画像P12の一例であり、図示する構成に限られない。例えば、第2の画像P12とは、図15から図18に記載のエッジ部分を示す画像のうち、一部のエッジ部分を間引いて表示した画像であってもよい。
観察者1から第1の画像P11と第2の画像P12とを重ねて見た場合に、エッジが強調されすぎると、観察者1が表示される画像に対して不自然さを認識することがある。この場合には、表示される立体像の立体感が低減したり、立体感が消失したりすることがある。
上述のように一部のエッジ部分を間引いて表示することにより、表示装置10は、エッジが強調されすぎないようにして第1の画像P11と第2の画像P12とを表示することができる。これにより、表示装置10は、表示される立体像の立体感が低減または消失する程度を、低減することができる。
観察者1から第1の画像P11と第2の画像P12とを重ねて見た場合に、エッジが強調されすぎると、観察者1が表示される画像に対して不自然さを認識することがある。この場合には、表示される立体像の立体感が低減したり、立体感が消失したりすることがある。
上述のように一部のエッジ部分を間引いて表示することにより、表示装置10は、エッジが強調されすぎないようにして第1の画像P11と第2の画像P12とを表示することができる。これにより、表示装置10は、表示される立体像の立体感が低減または消失する程度を、低減することができる。
また、図15には、第1の画像P11が示す四角形の各辺のエッジ部分を示す画像(第2の画像P12a)が2値画像である場合が記載されているが、これに限られない。
エッジ部分を示す画像は、四角形の各辺のうち、縦方向(Y軸方向)の辺については多階調画像にしてエッジ部分をぼかすとともに、横方向(X軸方向)の辺については2値画像にしてエッジ部分を強調する画像としてもよい。
ここで2値画像とは、表示対象に明部と暗部とを有する場合に、各画素の明るさの階調値を、明部を示す所定値と暗部を示す所定値との2値にして表示される画像である。ここで、明部を示す所定値とは、例えば、明るさの階調値が255であり、暗部を示す所定値とは、例えば、明るさの階調値が0(ゼロ)である。
具体的には、2値画像とは、例えば表示する画像が白黒画像である場合には、明部を白(例えば、階調値が255)、暗部を黒(例えば、階調値が0)の2値によって表示する画像である。また、多階調画像とは、表示対象に明部と暗部とを有する場合に、各画素の明るさの階調値を、最も明るい部分を示す所定値と、最も暗い部分を示す所定値との間の値にして表示される画像である。
ここで、最も明るい部分を示す所定値とは、例えば、明るさの階調値が255であり、最も暗い部分を示す所定値とは、例えば、明るさの階調値が0(ゼロ)である。また、最も明るい部分を示す所定値と、最も暗い部分を示す所定値との間の値とは、例えば、明るさの階調値が0(ゼロ)~255のいずれかの値である。
具体的には、多階調画像とは、例えば表示する画像が白黒画像である場合には、最も明るい部分を白(例えば、階調値が255)、最も暗い部分を黒(例えば、階調値が0)とし、その中間の明るさの部分を灰色(例えば、階調値が1~254)によって表示する画像である。
これにより、表示装置10は、縦方向のエッジ部分が強調されすぎないようにしつつ、横方向のエッジ部分を強調して、立体像(3次元画像)を表示することができる。
また、縦横を入れ替えて、エッジ部分を示す画像は、横方向(X軸方向)の辺については多階調画像にしてエッジ部分をぼかすとともに、縦方向(Y軸方向)の辺については2値画像にしてエッジ部分を強調してもよい。
また、エッジ部分を示す画像は、斜め方向(XY平面上のX軸およびY軸のいずれにも平行でない方向)に階調変化を有する画像にしてエッジ部分をぼかすとともに、この方向に交わる方向(例えば、直交する方向)に対しては2値画像にしてエッジ部分を強調してもよい。
さらにエッジ部分を示す画像は、上述したように、ある1つの方向に階調変化を有する画像にしてエッジ部分のぼけ方向を変化させるだけでなく、複数の方向に階調変化を有する画像にしてもよい。例えば、エッジ部分を示す画像は、縦方向(Y軸方向)と横方向(X軸方向)とに階調変化を有する画像にしてもよい。
このように、エッジ部分を示す画像について、所定の方向に画像をぼかすことによって、表示装置10は、この所定の方向にエッジが強調されすぎないようにした画像を表示することができる。よって、このように構成しても、表示装置10は、表示される立体像の立体感が低減または消失する程度を、低減することができる。
なお、ここでは2値画像および多階調画像が、白黒画像である場合を例に説明したが、これに限られない。2値画像および多階調画像は、カラー画像であってもよい。
エッジ部分を示す画像は、四角形の各辺のうち、縦方向(Y軸方向)の辺については多階調画像にしてエッジ部分をぼかすとともに、横方向(X軸方向)の辺については2値画像にしてエッジ部分を強調する画像としてもよい。
ここで2値画像とは、表示対象に明部と暗部とを有する場合に、各画素の明るさの階調値を、明部を示す所定値と暗部を示す所定値との2値にして表示される画像である。ここで、明部を示す所定値とは、例えば、明るさの階調値が255であり、暗部を示す所定値とは、例えば、明るさの階調値が0(ゼロ)である。
具体的には、2値画像とは、例えば表示する画像が白黒画像である場合には、明部を白(例えば、階調値が255)、暗部を黒(例えば、階調値が0)の2値によって表示する画像である。また、多階調画像とは、表示対象に明部と暗部とを有する場合に、各画素の明るさの階調値を、最も明るい部分を示す所定値と、最も暗い部分を示す所定値との間の値にして表示される画像である。
ここで、最も明るい部分を示す所定値とは、例えば、明るさの階調値が255であり、最も暗い部分を示す所定値とは、例えば、明るさの階調値が0(ゼロ)である。また、最も明るい部分を示す所定値と、最も暗い部分を示す所定値との間の値とは、例えば、明るさの階調値が0(ゼロ)~255のいずれかの値である。
具体的には、多階調画像とは、例えば表示する画像が白黒画像である場合には、最も明るい部分を白(例えば、階調値が255)、最も暗い部分を黒(例えば、階調値が0)とし、その中間の明るさの部分を灰色(例えば、階調値が1~254)によって表示する画像である。
これにより、表示装置10は、縦方向のエッジ部分が強調されすぎないようにしつつ、横方向のエッジ部分を強調して、立体像(3次元画像)を表示することができる。
また、縦横を入れ替えて、エッジ部分を示す画像は、横方向(X軸方向)の辺については多階調画像にしてエッジ部分をぼかすとともに、縦方向(Y軸方向)の辺については2値画像にしてエッジ部分を強調してもよい。
また、エッジ部分を示す画像は、斜め方向(XY平面上のX軸およびY軸のいずれにも平行でない方向)に階調変化を有する画像にしてエッジ部分をぼかすとともに、この方向に交わる方向(例えば、直交する方向)に対しては2値画像にしてエッジ部分を強調してもよい。
さらにエッジ部分を示す画像は、上述したように、ある1つの方向に階調変化を有する画像にしてエッジ部分のぼけ方向を変化させるだけでなく、複数の方向に階調変化を有する画像にしてもよい。例えば、エッジ部分を示す画像は、縦方向(Y軸方向)と横方向(X軸方向)とに階調変化を有する画像にしてもよい。
このように、エッジ部分を示す画像について、所定の方向に画像をぼかすことによって、表示装置10は、この所定の方向にエッジが強調されすぎないようにした画像を表示することができる。よって、このように構成しても、表示装置10は、表示される立体像の立体感が低減または消失する程度を、低減することができる。
なお、ここでは2値画像および多階調画像が、白黒画像である場合を例に説明したが、これに限られない。2値画像および多階調画像は、カラー画像であってもよい。
また、図16には、破線状にエッジ部分を示す画像(第2の画像P12b)が、図17には、主観的輪郭状にエッジ部分を示す画像(第2の画像P12c)が、それぞれ記載されているが、これに限られない。
例えば、図16、および図17において、エッジ部分を示す画像は、上述した2値画像であるとして説明したが、必ずしも2値画像でなくてもよく、多階調画像によってエッジ部分を示すものであってもよい。一例として、このエッジ部分を示す画像は、複数の明部どうしをガウス分布に基づいた階調によってつなぎ合わせた多階調画像によってエッジ部分を示すものであってもよい。
このように多階調画像によってエッジ部分を示すことにより、表示装置10は、エッジが強調されすぎないようにした画像を表示することができる。よって、このように構成しても、表示装置10は、表示される立体像の立体感が低減または消失する程度を、低減することができる。
例えば、図16、および図17において、エッジ部分を示す画像は、上述した2値画像であるとして説明したが、必ずしも2値画像でなくてもよく、多階調画像によってエッジ部分を示すものであってもよい。一例として、このエッジ部分を示す画像は、複数の明部どうしをガウス分布に基づいた階調によってつなぎ合わせた多階調画像によってエッジ部分を示すものであってもよい。
このように多階調画像によってエッジ部分を示すことにより、表示装置10は、エッジが強調されすぎないようにした画像を表示することができる。よって、このように構成しても、表示装置10は、表示される立体像の立体感が低減または消失する程度を、低減することができる。
また、破線状にエッジ部分を示す画像において、縦方向(Y軸方向)の破線については多階調画像にしてエッジ部分をぼかすとともに、横方向(X軸方向)の破線については2値画像にしてエッジ部分を強調することもできる。これにより、表示装置10は、縦方向のエッジ部分が強調されすぎないようにしつつ、横方向のエッジ部分を強調して、立体像(3次元画像)を表示することができる。
また、上述したエッジ部分を示す各画像の明るさは、第1の画像P11のうち、第1の画像P11が示すエッジ部分の周囲の明るさに応じて設定されてもよい。これにより、表示装置10は、エッジ部分を示す画像の明るさが、第1の画像P11のエッジ部分の画像に対して強調されすぎないようにして、第2の画像P12を表示することができる。
よって、このように構成しても、表示装置10は、表示される立体像の立体感が低減または消失する程度を、低減することができる。
よって、このように構成しても、表示装置10は、表示される立体像の立体感が低減または消失する程度を、低減することができる。
なお、上述した実施形態において、表示装置10において第1表示部11は、第2表示部12と平行に配置されているが、これに限られない。例えば、図19に示すように、表示装置10は、第1表示部11が表示する第1の画像P11が観察者1に視認されるように、第1の画像P11を反射するハーフミラーHMを備えていてもよい。
図19は、ハーフミラーHMを備えている表示装置10の構成の一例を示す図である。
これにより、第1表示部11が光を透過させる透過度によらず、第2表示部12が表示する第2の画像P12と、第1の画像P11とを重ねた状態にして観察者1に視認させる(表示する)ことができる。
図19は、ハーフミラーHMを備えている表示装置10の構成の一例を示す図である。
これにより、第1表示部11が光を透過させる透過度によらず、第2表示部12が表示する第2の画像P12と、第1の画像P11とを重ねた状態にして観察者1に視認させる(表示する)ことができる。
ここで、観察者1がハーフミラーHMを見た場合、虚像としての第1の画像P11を見ることになる。すなわち、ここでは第1の画像P11とは、虚像である。
また、図19に示す構成は一例であって、第1表示部11と第2表示部12との位置が図19に示す構成と入れ替わっていたとしても、第2表示部12が表示する第2の画像P12と、第1の画像P11とを重ねた状態にして観察者1に視認させることができる。つまり、第2表示部12は、虚像としての第2の画像P12を表示していてもよい。
また、第1の画像P11と第2の画像P12とがいずれも虚像であってもよい。すなわち、第1の画像P11および第2の画像P12のうち少なくとも一方の画像は、虚像であり、第1表示部11および第2表示部12のうち少なくとも一方は、虚像を表示する虚像表示部であってもよい。
このように構成しても、表示装置10は、第2表示部12が表示する第2の画像P12と、第1の画像P11とを重ねた状態にして観察者1に視認させることができる。
また、図19に示す構成は一例であって、第1表示部11と第2表示部12との位置が図19に示す構成と入れ替わっていたとしても、第2表示部12が表示する第2の画像P12と、第1の画像P11とを重ねた状態にして観察者1に視認させることができる。つまり、第2表示部12は、虚像としての第2の画像P12を表示していてもよい。
また、第1の画像P11と第2の画像P12とがいずれも虚像であってもよい。すなわち、第1の画像P11および第2の画像P12のうち少なくとも一方の画像は、虚像であり、第1表示部11および第2表示部12のうち少なくとも一方は、虚像を表示する虚像表示部であってもよい。
このように構成しても、表示装置10は、第2表示部12が表示する第2の画像P12と、第1の画像P11とを重ねた状態にして観察者1に視認させることができる。
なお、例えば、図20に示すように、表示装置10は、第1表示部11が透過型表示部11aであり、第2表示部12が透過型表示部12aであって、バックライト15を備えている構成であってもよい。
図20は、バックライト15を備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、第1表示部(透過型表示部)11aと、第2表示部(透過型表示部)12aとの特性を揃えることができ、観察者1に視認される画像(第1の画像P11及び第2の画像P12)の明るさを揃えることが容易になる。つまり、観察者1に認識される立体画像(3次元画像)の奥行き位置をさらに高精度に設定することができる。
図20は、バックライト15を備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、第1表示部(透過型表示部)11aと、第2表示部(透過型表示部)12aとの特性を揃えることができ、観察者1に視認される画像(第1の画像P11及び第2の画像P12)の明るさを揃えることが容易になる。つまり、観察者1に認識される立体画像(3次元画像)の奥行き位置をさらに高精度に設定することができる。
なお、例えば、図21に示すように、表示装置10の第1表示部11は、第1半透過スクリーン11cと、第1プロジェクタ11dとを備えており、第1半透過スクリーン11cに第1プロジェクタ11dが第1の画像P11を投射する構成であってもよい。
図21は、半透過スクリーン11cを備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、第1の画像P11の表示領域(表示面)としての第1半透過スクリーン11cを、例えば、液晶表示装置などを用いる場合に比べて薄くすることができる。
図21は、半透過スクリーン11cを備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、第1の画像P11の表示領域(表示面)としての第1半透過スクリーン11cを、例えば、液晶表示装置などを用いる場合に比べて薄くすることができる。
なお、例えば、図22に示すように、表示装置10の第1表示部11は、第1半透過スクリーン11cと、第1プロジェクタ11dとを備えており、第2表示部12は、第2半透過スクリーン12cと、第2プロジェクタ12dとを備えている構成であってもよい。
この場合に、第1プロジェクタ11dが第1半透過スクリーン11cに第1の画像P11を投射するとともに、第2プロジェクタ12dが第2半透過スクリーン12cに第2の画像P12を投射する構成であってもよい。
図22は、第1半透過スクリーン11c及び第2半透過スクリーン12cを備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、例えば、表示領域を大型化することができる。また、表示装置10は、例えば、表面と裏面との2面に立体画像(3次元画像)を表示することができる。
この場合に、第1プロジェクタ11dが第1半透過スクリーン11cに第1の画像P11を投射するとともに、第2プロジェクタ12dが第2半透過スクリーン12cに第2の画像P12を投射する構成であってもよい。
図22は、第1半透過スクリーン11c及び第2半透過スクリーン12cを備える表示装置10の構成の一例を示す構成図である。
これにより、表示装置10は、例えば、表示領域を大型化することができる。また、表示装置10は、例えば、表面と裏面との2面に立体画像(3次元画像)を表示することができる。
また、上述した各実施形態において、第2の画像P12が、第1の画像P11内のエッジ部分Eを示すエッジ画像PEである場合について説明したが、これに限られない。第1の画像P11内のエッジ部分Eと、このエッジ部分Eに対応する第2の画像P12内のエッジ部分が重なって表示されればよく、例えば、第2の画像P12とは、第1の画像P11と同一の画像であってもよい。
このように第1の画像P11、および第2の画像P12を構成しても、表示装置10は、立体像(3次元画像)を表示することができる。
このように第1の画像P11、および第2の画像P12を構成しても、表示装置10は、立体像(3次元画像)を表示することができる。
また、上述した実施形態において、表示装置10の第1表示部11は、画像情報供給装置2から取得した第1の画像情報に基づいて、第1の画像P11を第1表示面110に表示する表示部であるとして説明したが、これに限られない。
例えば、第1表示部11は、第2表示部12と重なっていればよく、単なる絵(静止画)が描かれた壁面またはパネルであってもよい。この場合には、第2表示部12は、第1表示部11としての壁面に描かれた絵のエッジ部分を示す画像を表示する。このように構成しても、表示装置10は、立体像(3次元画像)を表示することができる。
例えば、第1表示部11は、第2表示部12と重なっていればよく、単なる絵(静止画)が描かれた壁面またはパネルであってもよい。この場合には、第2表示部12は、第1表示部11としての壁面に描かれた絵のエッジ部分を示す画像を表示する。このように構成しても、表示装置10は、立体像(3次元画像)を表示することができる。
[第5の実施形態]
以下、図面を参照して、本発明の第5の実施形態を説明する。
以下の説明において、上述の実施形態と同一又は同等の構成部分については同一の符号を付し、その説明を簡略若しくは省略する。
図23は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。本実施形態の表示システム100は、画像情報供給装置2と、表示装置10とを備えている。
以下、図面を参照して、本発明の第5の実施形態を説明する。
以下の説明において、上述の実施形態と同一又は同等の構成部分については同一の符号を付し、その説明を簡略若しくは省略する。
図23は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。本実施形態の表示システム100は、画像情報供給装置2と、表示装置10とを備えている。
画像情報供給装置2は、第1画像信号(画像情報)と第2画像信号(画像情報)とを表示装置10に供給する。ここで、第1画像信号とは、表示装置10が第1の画像情報(第1の画像)P11を表示するための情報である。また、第2画像信号とは、表示装置10が第2の画像情報(第2の画像)P12を表示するための情報である。
表示装置10は、第1表示部11と、第2表示部12と、輪郭補正部213とを備えている。まず、第2表示部12について説明する。
第2表示部12は、(+Z)方向に光を透過させる透過型表示部である。第2表示部12は、第1表示部11の第1表示面110に表示される画像情報の光束(第1光束(第1光線)R11)を(+Z)方向に透過させる。
また、第2表示部12は、(+Z)方向に向けて画像情報を表示する第2表示面120を備えている。この第2表示面120の構成の一例について、図24を参照して説明する。
第2表示部12は、(+Z)方向に光を透過させる透過型表示部である。第2表示部12は、第1表示部11の第1表示面110に表示される画像情報の光束(第1光束(第1光線)R11)を(+Z)方向に透過させる。
また、第2表示部12は、(+Z)方向に向けて画像情報を表示する第2表示面120を備えている。この第2表示面120の構成の一例について、図24を参照して説明する。
図24は、本実施形態の第2表示部12が備える第2表示面120の構成の一例を示す模式図である。この第2表示面120は、X軸方向およびY軸方向に2次元に配列された画素を有している。一例として、この第2表示面120は、X軸方向に8画素、Y軸方向に8画素の2次元に配列された画素を有している。
なお、第2表示面120が有する画素の配列の構成はこれに限られない。例えば、第2表示面120は、X軸方向に1920画素、Y軸方向に1080画素の2次元に配列された画素を有していてもよい。
なお、第2表示面120が有する画素の配列の構成はこれに限られない。例えば、第2表示面120は、X軸方向に1920画素、Y軸方向に1080画素の2次元に配列された画素を有していてもよい。
第2表示面120は、観察者1が(-Z)方向に第2表示面120を見込んだ状態における左上隅の画素を原点Oにして、原点Oから(+Y)方向に画素Px211~画素Px218を有する。
また、第2表示面120は、原点Oから(+X)方向に1画素分だけずれた位置から(+Y)方向に画素Px221~画素Px228を有する。同様にして、第2表示面120は、画素Px231~画素Px288を有する。
また、第2表示面120は、原点Oから(+X)方向に1画素分だけずれた位置から(+Y)方向に画素Px221~画素Px228を有する。同様にして、第2表示面120は、画素Px231~画素Px288を有する。
再び、図23を参照して、第2表示部12の説明を続ける。
この第2表示部12は、画像情報供給装置2から供給される第2画像信号を取得する。
第2表示面120は、第2表示部12が取得した第2画像信号に基づいて、第2の画像情報P12を表示する。この第2画像信号には、第2表示面120の各画素の画素値を示す第2画素値情報が含まれている。第2表示面120は、取得された第2画像信号に含まれる第2画素値情報に基づいて、各画素の画素値を制御して第2の画像情報P12を表示する。
この第2の画像情報P12を表示する第2表示面120から発せられる第2光束(第2光線)R12は、所定の位置にいる観察者1に第2の画像情報P12の光学像として観察される。この第2表示面120が表示する第2の画像情報P12の一例について、図25を参照して説明する。
この第2表示部12は、画像情報供給装置2から供給される第2画像信号を取得する。
第2表示面120は、第2表示部12が取得した第2画像信号に基づいて、第2の画像情報P12を表示する。この第2画像信号には、第2表示面120の各画素の画素値を示す第2画素値情報が含まれている。第2表示面120は、取得された第2画像信号に含まれる第2画素値情報に基づいて、各画素の画素値を制御して第2の画像情報P12を表示する。
この第2の画像情報P12を表示する第2表示面120から発せられる第2光束(第2光線)R12は、所定の位置にいる観察者1に第2の画像情報P12の光学像として観察される。この第2表示面120が表示する第2の画像情報P12の一例について、図25を参照して説明する。
図25は、本実施形態の第2表示面120が表示する第2の画像情報P12の一例を示す模式図である。上述したように、第2表示面120は第2の画像情報P12を表示する。
この第2の画像情報P12には、表示対象OBJ2の画像情報が含まれている。以下の図面において画像を示す場合には、各画素の位置を明示するため、格子状の実線によって画素の境界を示す。
この第2の画像情報P12には、表示対象OBJ2の画像情報が含まれている。以下の図面において画像を示す場合には、各画素の位置を明示するため、格子状の実線によって画素の境界を示す。
ここで、表示対象OBJ2とは、例えば、四角形のパターンである。この四角形のパターンとは、具体的には、画素Px233、画素Px236、画素Px266、および画素Px263を頂点にした4辺によって囲まれる領域を示すパターンである。
第2表示部12は、これらの4辺によって囲まれる領域、つまり表示対象OBJ2の表示領域に含まれる画素の明るさを、第2表示面120が有する画素のうち、表示対象OBJ2の表示領域に含まれない画素の明るさよりも明るくして、表示対象OBJ2を表示する。この第2表示面120が表示する表示対象OBJ2を示す第2画素値情報の一例について、図26を参照して説明する。
第2表示部12は、これらの4辺によって囲まれる領域、つまり表示対象OBJ2の表示領域に含まれる画素の明るさを、第2表示面120が有する画素のうち、表示対象OBJ2の表示領域に含まれない画素の明るさよりも明るくして、表示対象OBJ2を表示する。この第2表示面120が表示する表示対象OBJ2を示す第2画素値情報の一例について、図26を参照して説明する。
図26は、本実施形態の第2表示部12が取得する第2画素値情報の一例を示す表である。上述したように、第2画像信号には、第2表示面120が有する各画素の画素値(例えば、明るさ)を示す第2画素値情報が含まれている。
例えば、第2画素値情報が示す画素値は、表示対象OBJ2が表示される、画素Px233、画素Px236、画素Px266、および画素Px263を頂点にした4辺によって囲まれる領域の画素値が、他の領域の画素値よりも大きく(例えば、明るく)して設定されている。
具体的には、第2画素値情報が示す画素値は、画素Px233、画素Px236、画素Px266、および画素Px263を頂点にした4辺によって囲まれる領域の画素値がそれぞれ「63」に、他の領域の画素値が「0」に設定されている。
第2表示面120は、取得した第2画像信号に含まれる第2画素値情報が示す画素値が「255」の場合、その画素値に対応付けられている画素の明るさを最大にして、画像情報を表示する。一方、第2表示面120は、取得した第2画像信号に含まれる第2画素値情報が示す画素値が「0」の場合、その画素値に対応付けられている画素の明るさを最小にして、画像情報を表示する。
また、第2表示面120は、取得した第2画像信号が示す画素値が「1」から「254」の場合には、その画素値に対応付けられている画素の明るさを最小から最大の間の画素値に対応する明るさにして、画像情報を表示する。このようにして第2表示面120は、図26に示す四角形のパターンを示す第2画素値情報に基づいて、上述した図25に示す四角形のパターンを表示する。
例えば、第2画素値情報が示す画素値は、表示対象OBJ2が表示される、画素Px233、画素Px236、画素Px266、および画素Px263を頂点にした4辺によって囲まれる領域の画素値が、他の領域の画素値よりも大きく(例えば、明るく)して設定されている。
具体的には、第2画素値情報が示す画素値は、画素Px233、画素Px236、画素Px266、および画素Px263を頂点にした4辺によって囲まれる領域の画素値がそれぞれ「63」に、他の領域の画素値が「0」に設定されている。
第2表示面120は、取得した第2画像信号に含まれる第2画素値情報が示す画素値が「255」の場合、その画素値に対応付けられている画素の明るさを最大にして、画像情報を表示する。一方、第2表示面120は、取得した第2画像信号に含まれる第2画素値情報が示す画素値が「0」の場合、その画素値に対応付けられている画素の明るさを最小にして、画像情報を表示する。
また、第2表示面120は、取得した第2画像信号が示す画素値が「1」から「254」の場合には、その画素値に対応付けられている画素の明るさを最小から最大の間の画素値に対応する明るさにして、画像情報を表示する。このようにして第2表示面120は、図26に示す四角形のパターンを示す第2画素値情報に基づいて、上述した図25に示す四角形のパターンを表示する。
次に、第1表示部11について説明する。第1表示部11は、上述した図23に示すように、(+Z)方向に向けて画像情報を表示する第1表示面110を備えている。この第1表示面110の構成の一例について、図27を参照して説明する。
図27は、本実施形態の第1表示部11が備える第1表示面110の構成の一例を示す模式図である。上述した第2表示面120と同様に、この第1表示面110はX軸方向およびY軸方向に2次元に配列された画素を有している。一例として、この第1表示面110は、X軸方向に8画素、Y軸方向に8画素の2次元に配列された画素を有している。
なお、第1表示面110が有する画素の配列の構成はこれに限られない。例えば、第1表示面110は、X軸方向に1920画素、Y軸方向に1080画素の2次元に配列された画素を有していてもよい。
なお、第1表示面110が有する画素の配列の構成はこれに限られない。例えば、第1表示面110は、X軸方向に1920画素、Y軸方向に1080画素の2次元に配列された画素を有していてもよい。
第1表示面110は、(-Z)方向に見た左上隅の画素を原点Oにして、原点Oから(+Y)方向に画素Px111~画素Px118を有する。また、第1表示面110は、原点Oから(+X)方向に1画素分だけずれた位置から(+Y)方向に画素Px121~画素Px128を有する。
同様にして、第1表示面110は、画素Px131~画素Px188を有する。第1表示面110は、輪郭補正部213から出力される第3画像信号に基づく画像情報を表示する。以下、これら輪郭補正部213および第3画像信号について説明する。
同様にして、第1表示面110は、画素Px131~画素Px188を有する。第1表示面110は、輪郭補正部213から出力される第3画像信号に基づく画像情報を表示する。以下、これら輪郭補正部213および第3画像信号について説明する。
再び、図23を参照して、輪郭補正部213について説明する。
輪郭補正部213は、画像情報供給装置2から供給される第1画像信号を取得する。この第1画像信号には、第1表示面110の各画素の画素値(例えば、明るさ)を示す第1画素値情報が含まれている。
さらに、第1画像信号には、第1表示面110及び第2表示面120に表示する表示対象を両眼視差により所定の位置に立体表示するための、表示対象の輪郭部を示す輪郭部情報と、奥行き位置情報(例えば、デプスマップ)とが含まれている。これら第1画素値情報、両眼視差、所定の位置、輪郭部情報、および奥行き位置情報については、後述する。
輪郭補正部213は、画像情報供給装置2から供給される第1画像信号を取得する。この第1画像信号には、第1表示面110の各画素の画素値(例えば、明るさ)を示す第1画素値情報が含まれている。
さらに、第1画像信号には、第1表示面110及び第2表示面120に表示する表示対象を両眼視差により所定の位置に立体表示するための、表示対象の輪郭部を示す輪郭部情報と、奥行き位置情報(例えば、デプスマップ)とが含まれている。これら第1画素値情報、両眼視差、所定の位置、輪郭部情報、および奥行き位置情報については、後述する。
次に、輪郭補正部213は、取得した第1画像信号に基づいて、第3画像信号を生成し、生成した第3画像信号を第1表示部11に供給する。ここで、第3画像信号とは、第1画像信号に含まれる第1画素値情報のうち、表示対象OBJ1の輪郭部に対応する画素の画素値を示す第1画素値情報を補正した画像信号である。
すなわち、輪郭補正部213は、取得した第1画像信号に含まれる第1画素値情報と、奥行き位置情報と、輪郭部情報とに基づいて、表示対象OBJ1の輪郭部を表示する第1表示部11の各画素の画素値を補正する。
この奥行き位置情報とは、表示対象を立体表示する奥行き位置を示す情報である。また、輪郭部情報とは、表示対象OBJ1の輪郭部を示す情報である。まず、第1画素値情報について、図28を参照して説明する。
すなわち、輪郭補正部213は、取得した第1画像信号に含まれる第1画素値情報と、奥行き位置情報と、輪郭部情報とに基づいて、表示対象OBJ1の輪郭部を表示する第1表示部11の各画素の画素値を補正する。
この奥行き位置情報とは、表示対象を立体表示する奥行き位置を示す情報である。また、輪郭部情報とは、表示対象OBJ1の輪郭部を示す情報である。まず、第1画素値情報について、図28を参照して説明する。
図28は、本実施形態の輪郭補正部213が取得する第1画素値情報の一例を示す表である。ここで、表示対象OBJ1とは、表示対象OBJ2と同様に、例えば、四角形のパターンである。この四角形のパターンとは、具体的には、画素Px133、画素Px136、画素Px166、および画素Px163を頂点にした4辺によって囲まれる領域を示すパターンである。
この第1画素値情報が示す画素値は、表示対象OBJ1が表示される、画素Px133、画素Px136、画素Px166、および画素Px163を頂点にした4辺によって囲まれる領域の画素値が、他の領域の画素値よりも大きく(例えば、明るく)して設定されている。
具体的には、第1画素値情報が示す画素値は、画素Px133、画素Px136、画素Px166、および画素Px163を頂点にした4辺によって囲まれる領域の画素値がそれぞれ「63」に、他の領域の画素値が「0」に設定されている。
この第1画素値情報が示す画素値は、表示対象OBJ1が表示される、画素Px133、画素Px136、画素Px166、および画素Px163を頂点にした4辺によって囲まれる領域の画素値が、他の領域の画素値よりも大きく(例えば、明るく)して設定されている。
具体的には、第1画素値情報が示す画素値は、画素Px133、画素Px136、画素Px166、および画素Px163を頂点にした4辺によって囲まれる領域の画素値がそれぞれ「63」に、他の領域の画素値が「0」に設定されている。
次に、奥行き位置情報について、図29を参照して説明する。
図29は、本実施形態の輪郭補正部213が取得する奥行き位置情報の一例を示す表である。同図に示すように、奥行き位置情報には、表示対象が立体表示される位置である奥行き位置を示す値が、第1表示面110の各画素の位置に関連付けられて設定されている。
具体的には、表示対象の奥行き位置は、画素Px133、画素Px136、画素Px166、および画素Px163を頂点にした4辺によって囲まれる領域の奥行き位置がそれぞれ「値D0」(このD0は、0~255の値。)に、他の領域の奥行き位置が「0」に設定されている。次に、この奥行き位置について、図30を参照して説明する。
図29は、本実施形態の輪郭補正部213が取得する奥行き位置情報の一例を示す表である。同図に示すように、奥行き位置情報には、表示対象が立体表示される位置である奥行き位置を示す値が、第1表示面110の各画素の位置に関連付けられて設定されている。
具体的には、表示対象の奥行き位置は、画素Px133、画素Px136、画素Px166、および画素Px163を頂点にした4辺によって囲まれる領域の奥行き位置がそれぞれ「値D0」(このD0は、0~255の値。)に、他の領域の奥行き位置が「0」に設定されている。次に、この奥行き位置について、図30を参照して説明する。
図30は、本実施形態の表示装置10が表示する表示対象の奥行き位置の一例について示す構成図である。上述したように、第1表示面110は、第1の画像情報P11を表示する。この第1表示面110は、第1の画像情報P11に基づく第1光束R11を発する。第1表示面110から発せられた第1光束R11は、所定の位置にいる観察者1に第1の画像情報P11の光学像として観察される。
同様に、第2表示面120は、第2の画像情報P12を表示する。この第2表示面120は、第2の画像情報P12に基づく第2光束R12を発する。第2表示面120から発せられた第2光束R12は、所定の位置にいる観察者1に第2の画像情報P12の光学像として観察される。
観察者1は、所定の位置において、第1光束R11と第2光束R12とを同時に観察することにより、表示対象が立体表示された立体像SIを認識する。この観察者1が立体像SIを認識する仕組みについては、後述する。
同様に、第2表示面120は、第2の画像情報P12を表示する。この第2表示面120は、第2の画像情報P12に基づく第2光束R12を発する。第2表示面120から発せられた第2光束R12は、所定の位置にいる観察者1に第2の画像情報P12の光学像として観察される。
観察者1は、所定の位置において、第1光束R11と第2光束R12とを同時に観察することにより、表示対象が立体表示された立体像SIを認識する。この観察者1が立体像SIを認識する仕組みについては、後述する。
ここで、表示対象の奥行き位置とは、観察者1が認識する立体像SIのZ軸方向(つまり、奥行き方法)の位置である。
具体的には、奥行き位置は、第1表示面110のZ軸方向の位置を基準位置として、(+Z)方向の距離によって示される。この奥行き位置は、基準位置を「0」とし、表示装置10が立体像SIを表示可能な位置であって、基準位置から最も離れた(+Z)方向の位置を「255」として、(+Z)方向に256段階に設定される。
例えば、立体像SIの奥行き位置が「値D0」に設定されている表示対象を表示装置10が表示した場合、所定の位置から観察する観察者1は、図30に示すように、基準位置「0」と、奥行き位置「255」との中間の位置である、奥行き位置「値D0」に立体像SIを認識する。
具体的には、奥行き位置は、第1表示面110のZ軸方向の位置を基準位置として、(+Z)方向の距離によって示される。この奥行き位置は、基準位置を「0」とし、表示装置10が立体像SIを表示可能な位置であって、基準位置から最も離れた(+Z)方向の位置を「255」として、(+Z)方向に256段階に設定される。
例えば、立体像SIの奥行き位置が「値D0」に設定されている表示対象を表示装置10が表示した場合、所定の位置から観察する観察者1は、図30に示すように、基準位置「0」と、奥行き位置「255」との中間の位置である、奥行き位置「値D0」に立体像SIを認識する。
次に、輪郭部情報について、図31を参照して説明する。
図31は、本実施形態の輪郭補正部213が取得する輪郭部情報の一例を示す表である。同図に示すように、輪郭部情報には、表示対象の輪郭部を示す値が、第1表示面110の各画素の位置に関連付けられて設定されている。ここで、表示対象の輪郭部を示す値とは、第1表示面110に表示される画像情報のうち、輪郭部が「1」に、輪郭部以外の非輪郭部が「0」に設定される値である。
具体的には、表示対象の輪郭部を示す値は、画素Px133、画素Px136、画素Px166、および画素Px163を頂点にした4辺を含む領域が「1」に、他の領域が「0」に設定されている。
つまり、輪郭部情報は、輪郭補正部213が取得する第1画素値情報によって示される四角形のパターンの各辺に対応する画素の位置が「1」に設定されている。すなわち、輪郭部情報とは、第1表示面110に表示される表示対象の輪郭部(エッジ部分、稜線部分)を示す情報である。
ここで、輪郭部とは、(単に輪郭、又は輪郭領域と表現してもよい)とは、例えば、画像情報内において隣接する又は近傍の画素の明るさ(例えば、輝度)が急変する部分である。例えば、輪郭部は、図25に示す四角形のパターンの各辺の、幅が無い理論的な線分を示すとともに、例えば、第1表示面110の解像度に応じた有限の幅を有する輪郭周囲の領域をも示している。
図31は、本実施形態の輪郭補正部213が取得する輪郭部情報の一例を示す表である。同図に示すように、輪郭部情報には、表示対象の輪郭部を示す値が、第1表示面110の各画素の位置に関連付けられて設定されている。ここで、表示対象の輪郭部を示す値とは、第1表示面110に表示される画像情報のうち、輪郭部が「1」に、輪郭部以外の非輪郭部が「0」に設定される値である。
具体的には、表示対象の輪郭部を示す値は、画素Px133、画素Px136、画素Px166、および画素Px163を頂点にした4辺を含む領域が「1」に、他の領域が「0」に設定されている。
つまり、輪郭部情報は、輪郭補正部213が取得する第1画素値情報によって示される四角形のパターンの各辺に対応する画素の位置が「1」に設定されている。すなわち、輪郭部情報とは、第1表示面110に表示される表示対象の輪郭部(エッジ部分、稜線部分)を示す情報である。
ここで、輪郭部とは、(単に輪郭、又は輪郭領域と表現してもよい)とは、例えば、画像情報内において隣接する又は近傍の画素の明るさ(例えば、輝度)が急変する部分である。例えば、輪郭部は、図25に示す四角形のパターンの各辺の、幅が無い理論的な線分を示すとともに、例えば、第1表示面110の解像度に応じた有限の幅を有する輪郭周囲の領域をも示している。
次に、輪郭補正部213が第1画像信号に基づいて、第3画像信号を生成する構成について、図32A~32Cを参照して説明する。
図32A~32Cは、本実施形態の輪郭補正部213が第3画像情報を生成する構成の一例を示す表である。輪郭補正部213は、取得した第1画像信号に含まれる、第1画素値情報と、奥行き位置情報と、輪郭部情報とに基づいて、第3画像情報を生成する。
具体的には、まず輪郭補正部213は、取得した第1画像信号から輪郭部情報と、奥行き位置情報とを抽出する。次に、輪郭補正部213は、抽出した輪郭部情報と、抽出した奥行き位置情報とに基づいて所定の演算を行い、所定の演算結果としての補正情報を生成する。
図32A~32Cは、本実施形態の輪郭補正部213が第3画像情報を生成する構成の一例を示す表である。輪郭補正部213は、取得した第1画像信号に含まれる、第1画素値情報と、奥行き位置情報と、輪郭部情報とに基づいて、第3画像情報を生成する。
具体的には、まず輪郭補正部213は、取得した第1画像信号から輪郭部情報と、奥行き位置情報とを抽出する。次に、輪郭補正部213は、抽出した輪郭部情報と、抽出した奥行き位置情報とに基づいて所定の演算を行い、所定の演算結果としての補正情報を生成する。
例えば、輪郭補正部213は、抽出した輪郭部情報と、抽出した奥行き位置情報との論理積演算を行って、奥行き位置情報のうち、輪郭部の奥行き位置情報が設定されている輪郭部の奥行き位置情報を生成する(図32A)。
次に、輪郭補正部213は、生成した輪郭部の奥行き位置情報に所定の演算をした補正情報(ここでは、一例として、値d0)を生成する。例えば、輪郭補正部213は、生成した輪郭部の奥行き位置情報(値D0)に所定の係数を乗算して、補正情報(値d0)を生成する(図32B)。
次に、輪郭補正部213は、生成した輪郭部の奥行き位置情報に所定の演算をした補正情報(ここでは、一例として、値d0)を生成する。例えば、輪郭補正部213は、生成した輪郭部の奥行き位置情報(値D0)に所定の係数を乗算して、補正情報(値d0)を生成する(図32B)。
次に、輪郭補正部213は、取得した第1画像信号から第1画素値情報を抽出して、抽出した第1画素値情報(値63)と、生成した補正情報(値d0)とを演算(例えば、値63から値d0を減算)して、輪郭補正情報を生成する(図32C)。ここで、輪郭補正部213は、輪郭補正情報が示す各画素値が0~255の整数になるように、例えば、演算の結果の小数点以下を切り捨てる。
すなわち、輪郭補正部213は、所定の位置に立体表示される表示対象の奥行き位置に基づいて、第1表示部11が有する2次元に配列された複数の画素のうち、表示対象の輪郭部を表示する輪郭画素の画素値を補正する。輪郭補正部213は、このようにして生成した輪郭補正情報を含む第3画像信号を生成する。
すなわち、輪郭補正部213は、所定の位置に立体表示される表示対象の奥行き位置に基づいて、第1表示部11が有する2次元に配列された複数の画素のうち、表示対象の輪郭部を表示する輪郭画素の画素値を補正する。輪郭補正部213は、このようにして生成した輪郭補正情報を含む第3画像信号を生成する。
次に、輪郭補正部213が生成した第3画像信号に基づいて、第1表示部11が表示する構成について説明する。
第1表示部11は、輪郭補正部213が生成した第3画像信号を取得する。第1表示部11は、取得した第3画像信号に含まれる第3画素値情報が示す画素値が「255」の場合、その画素値に対応付けられている画素の明るさを最大にして、画像情報を表示する。
一方、第1表示部11は、取得した第3画像信号に含まれる第3画素値情報が示す画素値が「0」の場合、その画素値に対応付けられている画素の明るさを最小にして、画像情報を表示する。
また、第1表示部11は、取得した第3画像信号が示す画素値が「1」から「254」の場合には、その画素値に対応付けられている画素の明るさを最小から最大の間の画素値に対応する明るさにして、画像情報を表示する。この第1表示部11が表示する第1の画像情報P11について、図33を参照して説明する。
第1表示部11は、輪郭補正部213が生成した第3画像信号を取得する。第1表示部11は、取得した第3画像信号に含まれる第3画素値情報が示す画素値が「255」の場合、その画素値に対応付けられている画素の明るさを最大にして、画像情報を表示する。
一方、第1表示部11は、取得した第3画像信号に含まれる第3画素値情報が示す画素値が「0」の場合、その画素値に対応付けられている画素の明るさを最小にして、画像情報を表示する。
また、第1表示部11は、取得した第3画像信号が示す画素値が「1」から「254」の場合には、その画素値に対応付けられている画素の明るさを最小から最大の間の画素値に対応する明るさにして、画像情報を表示する。この第1表示部11が表示する第1の画像情報P11について、図33を参照して説明する。
図33は、本実施形態の第1表示部11が表示する第1の画像情報P11の一例を示す模式図である。同図に示すように、第1表示部11は、第2表示部12が表示する四角形のパターンに対応する四角形のパターンであって、その輪郭部の明るさが四角形のパターンの内部に比して暗く設定されている四角形のパターンを、第1表示面110に表示する。
次に、図34~図37を参照して、表示装置10が、表示対象を立体像SIとして立体表示する構成について説明する。まず、図34を参照して、第1表示面110が表示する第1の画像情報P11の位置と、第2表示面120が表示する第2の画像情報P12の位置と、観察者1がこれらの画像情報を観察する所定の位置との関係について説明する。
図34は、本実施形態における第1表示面110と、第2表示面120との位置関係の一例を示す模式図である。
第1表示部11の第1表示面110は、第1の画像情報P11を表示する。第2表示部12の第2表示面120は、第1の画像情報P11が表示される位置から(+Z)方向に所定の距離Lpだけ離れている位置に第2の画像情報P12を表示する。
上述したように第2表示部12は、Z軸方向に光を透過させる透過型表示部である。このため、第1の画像情報P11を表示する第1表示面110から発せられる光束(第1光束R11)は、第2表示部12を透過して、観察者1に観察される。
また、第2の画像情報P12を表示する第2表示面120から発せられる光束(第2光束R12)は、そのまま観察者1に観察される。つまり、観察者1は、第1の画像情報P11と第2の画像情報P12とを重ねて観察する。
ここで、所定の距離Lpとは、第1の画像情報P11が表示されているZ軸方向の位置と、第2の画像情報P12が表示されているZ軸方向の位置の間の距離である。
この所定の距離Lpは、例えば、第1の画像情報P11が表示されているZ軸方向の位置と、観察者1の所定の位置とに基づいて予め定められる。
第1表示部11の第1表示面110は、第1の画像情報P11を表示する。第2表示部12の第2表示面120は、第1の画像情報P11が表示される位置から(+Z)方向に所定の距離Lpだけ離れている位置に第2の画像情報P12を表示する。
上述したように第2表示部12は、Z軸方向に光を透過させる透過型表示部である。このため、第1の画像情報P11を表示する第1表示面110から発せられる光束(第1光束R11)は、第2表示部12を透過して、観察者1に観察される。
また、第2の画像情報P12を表示する第2表示面120から発せられる光束(第2光束R12)は、そのまま観察者1に観察される。つまり、観察者1は、第1の画像情報P11と第2の画像情報P12とを重ねて観察する。
ここで、所定の距離Lpとは、第1の画像情報P11が表示されているZ軸方向の位置と、第2の画像情報P12が表示されているZ軸方向の位置の間の距離である。
この所定の距離Lpは、例えば、第1の画像情報P11が表示されているZ軸方向の位置と、観察者1の所定の位置とに基づいて予め定められる。
また、図34に示すように、表示装置10は、第1表示面110が表示する第1の画像情報P11内の輪郭部RL1Lと、第2表示面120が表示する第2の画像情報P12内の、輪郭部RL1Lに対応している輪郭部RL2Lとが、観察者1に対応して観察されるように、第1の画像情報P11および第2の画像情報P12を表示する。
同様に、表示装置10は、第1表示面110が表示する第1の画像情報P11内の輪郭部RL1Rと、第2表示面120が表示する第2の画像情報P12内の、輪郭部RL1Rに対応している輪郭部RL2Rとが、観察者1に対応して観察されるように、第1の画像情報P11および第2の画像情報P12を表示する。
同様に、表示装置10は、第1表示面110が表示する第1の画像情報P11内の輪郭部RL1Rと、第2表示面120が表示する第2の画像情報P12内の、輪郭部RL1Rに対応している輪郭部RL2Rとが、観察者1に対応して観察されるように、第1の画像情報P11および第2の画像情報P12を表示する。
このとき、表示装置10は、観察者1の左眼Lに、第1の画像情報P11によって示される四角形の輪郭部RL2Lの(-X)側(つまり、四角形の外側)に、輪郭部RL2Lと輪郭部RL1Lとが重なって観察されるように各画像を表示する。
また、表示装置10は、観察者1の左眼Lに、第1の画像情報P11によって示される四角形の輪郭部RL2Rの(-X)側(つまり、四角形の内側)に、輪郭部RL2Rと輪郭部RL1Rとが重なって観察されるように各画像を表示する。
同様に、例えば、表示装置10は、観察者1の右眼Rに、第1の画像情報P11によって示される四角形の輪郭部RL2Rの(+X)側(つまり、四角形の外側)に、輪郭部RL2Rと輪郭部RL1Rとが重なって観察されるように各画像を表示する。
また、表示装置10は、観察者1の右眼Rに、第1の画像情報P11によって示される四角形の輪郭部RL2Lの(+X)側(つまり、四角形の内側)に、輪郭部RL2Lと輪郭部RL1Lが重なって観察されるように各画像を表示する。
また、表示装置10は、観察者1の左眼Lに、第1の画像情報P11によって示される四角形の輪郭部RL2Rの(-X)側(つまり、四角形の内側)に、輪郭部RL2Rと輪郭部RL1Rとが重なって観察されるように各画像を表示する。
同様に、例えば、表示装置10は、観察者1の右眼Rに、第1の画像情報P11によって示される四角形の輪郭部RL2Rの(+X)側(つまり、四角形の外側)に、輪郭部RL2Rと輪郭部RL1Rとが重なって観察されるように各画像を表示する。
また、表示装置10は、観察者1の右眼Rに、第1の画像情報P11によって示される四角形の輪郭部RL2Lの(+X)側(つまり、四角形の内側)に、輪郭部RL2Lと輪郭部RL1Lが重なって観察されるように各画像を表示する。
次に、観察者1によって、第1の画像情報P11と第2の画像情報P12とから立体像SI(3次元画像)が認識される仕組みについて説明する。まず、観察者1が、第1の画像情報P11が表示する表示対象OBJ1の輪郭部と、第2の画像情報P12が表示する表示対象OBJ2の輪郭部とが対応する(重なる)所定の位置において、これらの画像情報を観察する。
そうすると、観察者1は、第1の画像情報P11が表示する表示対象OBJ1の輪郭部と、第2の画像情報P12が表示する表示対象OBJ2の輪郭部との明るさの比(例えば、輝度比)に応じた奥行き位置に表示対象の光学像IMを知覚する。
このとき、表示対象(例えば、四角形のパターン)を観察したとき、観察者1の網膜像上では認識できないくらいの微小な輝度の段差ができる。このような場合においては、明るさ(例えば、輝度)の段差間に仮想的な輪郭(エッジ)を知覚して1つの物体として認識する。
このとき、左眼Lと右眼Rとで仮想的な輪郭に少しだけずれが生じて両眼視差として知覚して奥行き位置が変化する。この仕組みについて、図35~図37を参照して、詳細に説明する。
そうすると、観察者1は、第1の画像情報P11が表示する表示対象OBJ1の輪郭部と、第2の画像情報P12が表示する表示対象OBJ2の輪郭部との明るさの比(例えば、輝度比)に応じた奥行き位置に表示対象の光学像IMを知覚する。
このとき、表示対象(例えば、四角形のパターン)を観察したとき、観察者1の網膜像上では認識できないくらいの微小な輝度の段差ができる。このような場合においては、明るさ(例えば、輝度)の段差間に仮想的な輪郭(エッジ)を知覚して1つの物体として認識する。
このとき、左眼Lと右眼Rとで仮想的な輪郭に少しだけずれが生じて両眼視差として知覚して奥行き位置が変化する。この仕組みについて、図35~図37を参照して、詳細に説明する。
図35は、本実施形態における光学像IMの一例を示す模式図である。ここで、光学像IMとは、第1の画像情報P11及び第2の画像情報P12が観察者1によって観察される画像である。まず、観察者の左眼Lに観察される光学像IMLについて説明する。
図35に示すように、観察者の左眼Lにおいては、第1の画像情報(第1の画像)P11Lと、第2の画像情報(第2の画像)P12Lとが合成された光学像IMLが結像する。
ここで、第1の画像情報P11Lとは、第1の画像情報P11のうち、観察者1の左眼Lに観察される画像情報である。また、第2の画像情報P12Lとは、第2の画像情報P12のうち、観察者1の左眼Lに観察される画像情報である。
図34を参照して説明したように、左眼Lにおいては、第1の画像情報P11によって示される四角形の輪郭部RL2Lの(-X)側(つまり、四角形の外側)に、輪郭部RL2Lを示す画像と輪郭部RL1Lとが合成された光学像IMLが結像する。
また、左眼Lにおいては、第1の画像情報P11によって示される四角形の輪郭部RL2Rの(-X)側(つまり、四角形の内側)に、輪郭部RL2Rを示す画像と輪郭部RL1Rとが合成された光学像IMLが結像する。
ここで、第1の画像情報P11Lとは、第1の画像情報P11のうち、観察者1の左眼Lに観察される画像情報である。また、第2の画像情報P12Lとは、第2の画像情報P12のうち、観察者1の左眼Lに観察される画像情報である。
図34を参照して説明したように、左眼Lにおいては、第1の画像情報P11によって示される四角形の輪郭部RL2Lの(-X)側(つまり、四角形の外側)に、輪郭部RL2Lを示す画像と輪郭部RL1Lとが合成された光学像IMLが結像する。
また、左眼Lにおいては、第1の画像情報P11によって示される四角形の輪郭部RL2Rの(-X)側(つまり、四角形の内側)に、輪郭部RL2Rを示す画像と輪郭部RL1Rとが合成された光学像IMLが結像する。
次に、図35の場合において、左眼Lに観察されている光学像IMLの明るさの分布について、図36を参照して説明する。
図36は、本実施形態における光学像IMの明るさの分布の一例を示すグラフである。
図36において、X座標X1~X6は、光学像IMの明るさの変化点に対応するX座標である。画像情報の画素値の一例として、輝度値BRの場合について説明する。また、左眼Lに観察される第2の画像情報P12Lの明るさは、X座標X1~X2において、ここではゼロとして説明する。
また、第2の画像情報P12Lの明るさは、X座標X2~X6において輝度値BR2(例えば、「63」)である。左眼Lに観察される第1の画像情報P11Lの明るさは、X座標X1~X2及びX座標X4~X5において輝度値BR1(例えば、「61」)であり、X座標X2~X4において輝度値BR2である。
したがって、左眼Lに観察される光学像IMLの明るさ(例えば、輝度)は、X座標X1~X2において輝度値BR1になる。また、光学像IMLの明るさは、X座標X2~X4において輝度値BR4(例えば、「126」)になる。
また、光学像IMLの明るさは、X座標X4~X5において輝度値BR1と輝度値BR2とが合成された明るさである輝度値BR3(例えば、「124」)になり、X座標X5~X6において、輝度値BR2になる。
図36は、本実施形態における光学像IMの明るさの分布の一例を示すグラフである。
図36において、X座標X1~X6は、光学像IMの明るさの変化点に対応するX座標である。画像情報の画素値の一例として、輝度値BRの場合について説明する。また、左眼Lに観察される第2の画像情報P12Lの明るさは、X座標X1~X2において、ここではゼロとして説明する。
また、第2の画像情報P12Lの明るさは、X座標X2~X6において輝度値BR2(例えば、「63」)である。左眼Lに観察される第1の画像情報P11Lの明るさは、X座標X1~X2及びX座標X4~X5において輝度値BR1(例えば、「61」)であり、X座標X2~X4において輝度値BR2である。
したがって、左眼Lに観察される光学像IMLの明るさ(例えば、輝度)は、X座標X1~X2において輝度値BR1になる。また、光学像IMLの明るさは、X座標X2~X4において輝度値BR4(例えば、「126」)になる。
また、光学像IMLの明るさは、X座標X4~X5において輝度値BR1と輝度値BR2とが合成された明るさである輝度値BR3(例えば、「124」)になり、X座標X5~X6において、輝度値BR2になる。
次に、観察者1の左眼Lに輪郭部が観察される仕組みについて説明する。
図37は、本実施形態における左眼Lと右眼Rとに生じる両眼視差の一例を示すグラフである。左眼Lの網膜上に結像された光学像IMLによって、観察者1に認識される画像の明るさの分布は、図37の波形WLのようになる。
ここで、観察者1は、例えば、観察される画像の明るさの変化が最大になる(つまり、波形WL及び波形WRの傾きが最大になる)X軸上の位置を、観察している物体の輪郭部であると認識する。本実施形態の場合、観察者1は、例えば、左眼L側の波形WLについて、図37に示すXELの位置(つまり、X軸の原点Oから距離LELの位置)を観察している四角形の左辺側の輪郭部であると認識する。
図37は、本実施形態における左眼Lと右眼Rとに生じる両眼視差の一例を示すグラフである。左眼Lの網膜上に結像された光学像IMLによって、観察者1に認識される画像の明るさの分布は、図37の波形WLのようになる。
ここで、観察者1は、例えば、観察される画像の明るさの変化が最大になる(つまり、波形WL及び波形WRの傾きが最大になる)X軸上の位置を、観察している物体の輪郭部であると認識する。本実施形態の場合、観察者1は、例えば、左眼L側の波形WLについて、図37に示すXELの位置(つまり、X軸の原点Oから距離LELの位置)を観察している四角形の左辺側の輪郭部であると認識する。
次に、観察者の右眼Rに観察される光学像IMRについての、光学像IMLとの相違点を説明し、その相違点によって立体像(3次元画像)を認識する仕組みについて説明する。
図35に示すように、観察者の右眼Rにおいては、右眼Rに観察される第1の画像情報P11Rと、右眼Rに観察される第2の画像情報P12Rとが合成された光学像IMRが結像する。
また、図36に示すように、右眼Rに観察される光学像IMRの明るさ(例えば、輝度)は、X座標X1~X3及びX座標X4~X6において、左眼Lに観察される光学像IMLの明るさと相違している。
右眼Rの網膜上に合成された光学像IMRによって、観察者1に認識される画像の明るさの分布は、図37の波形WRのようになる。ここで、観察者1は、例えば、右眼R側の波形WRについて、図37に示すXERの位置(つまり、X軸の原点Oから距離LERの位置)を観察している四角形の輪郭部であると認識する。
これにより、観察者1は、左眼Lが観察する四角形の輪郭部の位置XELと、右眼Rが観察する四角形の輪郭部の位置XERとを両眼視差として認識する。そして、観察者1は、輪郭部の両眼視差に基づいて四角形の画像を立体像SI(3次元画像)として認識する。
図35に示すように、観察者の右眼Rにおいては、右眼Rに観察される第1の画像情報P11Rと、右眼Rに観察される第2の画像情報P12Rとが合成された光学像IMRが結像する。
また、図36に示すように、右眼Rに観察される光学像IMRの明るさ(例えば、輝度)は、X座標X1~X3及びX座標X4~X6において、左眼Lに観察される光学像IMLの明るさと相違している。
右眼Rの網膜上に合成された光学像IMRによって、観察者1に認識される画像の明るさの分布は、図37の波形WRのようになる。ここで、観察者1は、例えば、右眼R側の波形WRについて、図37に示すXERの位置(つまり、X軸の原点Oから距離LERの位置)を観察している四角形の輪郭部であると認識する。
これにより、観察者1は、左眼Lが観察する四角形の輪郭部の位置XELと、右眼Rが観察する四角形の輪郭部の位置XERとを両眼視差として認識する。そして、観察者1は、輪郭部の両眼視差に基づいて四角形の画像を立体像SI(3次元画像)として認識する。
次に、表示装置10の動作について、図38を参照して説明する。
図38は、本実施形態の表示装置10の動作の一例を示すフローチャートである。まず、輪郭補正部213は、画像情報供給装置2から第1画像信号を取得する(ステップS10)。
図38は、本実施形態の表示装置10の動作の一例を示すフローチャートである。まず、輪郭補正部213は、画像情報供給装置2から第1画像信号を取得する(ステップS10)。
次に、輪郭補正部213は、取得した第1画像信号から輪郭部情報を抽出する(ステップS20)。次に、輪郭補正部213は、取得した第1画像信号から奥行き位置情報を抽出する(ステップS30)。
次に、輪郭補正部213は、抽出した輪郭部情報と、抽出した奥行き位置情報との論理積演算を行って、奥行き位置情報のうち、輪郭部の奥行き位置情報が設定されている輪郭部の奥行き位置情報を生成する(ステップS40)。
次に、輪郭補正部213は、生成した輪郭部の奥行き位置情報に所定の演算をした補正情報を生成する(ステップS50)。
次に、輪郭補正部213は、取得した第1画像信号から第1画素値情報を抽出して、抽出した第1画素値情報と、生成した補正情報とを演算(例えば、減算)して、輪郭補正情報を生成する(ステップS60)。
次に、第1表示部11は、ステップS60において、輪郭補正部213が生成した輪郭補正情報を含む第3画像信号を取得する。また、第2表示部12は、画像情報供給装置2から第2画像信号を取得する。次に、第1表示部11および第2表示部12は、取得した各画像信号に基づいて、画像情報を表示する(ステップS70)。
以上、説明したように、本実施形態の表示装置10は、輪郭補正部213を備えている。
この輪郭補正部213は、所定の位置に立体表示される表示対象の奥行き位置に基づいて、第1表示部11(または、第1表示部11が備える第1表示面110)が有する2次元に配列された複数の画素のうち、表示対象の輪郭部を表示する輪郭画素の画素値を補正する。
ここで、第1の画像情報P11とは、第1表示部11及び第2表示部12に表示する表示対象を両眼視差により所定の位置に立体表示する画像情報のうち第1表示部11に表示させる画像情報である。
一般に表示装置は第1表示面110が表示対象を表示するすべての画素の画素値を、表示対象の奥行き位置に基づいて設定することによっても、観察者1が表示対象を立体像SIとして観察することができる画像情報を表示することができる。
しかしながら、このように第1表示面110が表示対象を表示するすべての画素の画素値と、第2表示面120が表示対象を表示するすべての画素の画素値とを精密に対応させなければ、観察者1が表示対象を立体像SIとして観察することができないことがある。
この輪郭補正部213は、所定の位置に立体表示される表示対象の奥行き位置に基づいて、第1表示部11(または、第1表示部11が備える第1表示面110)が有する2次元に配列された複数の画素のうち、表示対象の輪郭部を表示する輪郭画素の画素値を補正する。
ここで、第1の画像情報P11とは、第1表示部11及び第2表示部12に表示する表示対象を両眼視差により所定の位置に立体表示する画像情報のうち第1表示部11に表示させる画像情報である。
一般に表示装置は第1表示面110が表示対象を表示するすべての画素の画素値を、表示対象の奥行き位置に基づいて設定することによっても、観察者1が表示対象を立体像SIとして観察することができる画像情報を表示することができる。
しかしながら、このように第1表示面110が表示対象を表示するすべての画素の画素値と、第2表示面120が表示対象を表示するすべての画素の画素値とを精密に対応させなければ、観察者1が表示対象を立体像SIとして観察することができないことがある。
一方、表示装置10は、第1表示面110が表示対象を表示するすべての画素の画素値ではなく、表示対象の輪郭部を表示する画素の画素値を補正する。したがって、表示装置10は、第1表示面110の輪郭部の画素の画素値と、第2表示面120の輪郭部に対応する表示対象を表示する画素の画素値とを対応させればよい。
つまり、表示装置10は、第1表示面110が表示対象を表示するすべての画素の画素値を補正する場合に比して、補正する画素値を少なくすることができる。したがって、表示装置10は、第1表示面110が表示対象を表示するすべての画素の画素値を補正する場合に比して、表示対象を立体表示するための画素値の補正を簡易にすることができる。
つまり、表示装置10は、第1表示面110が表示対象を表示するすべての画素の画素値を補正する場合に比して、補正する画素値を少なくすることができる。したがって、表示装置10は、第1表示面110が表示対象を表示するすべての画素の画素値を補正する場合に比して、表示対象を立体表示するための画素値の補正を簡易にすることができる。
また、本実施形態の表示装置10において、画素値とは、画素の輝度値であって、輪郭補正部213は、立体表示される表示対象の奥行き位置に基づいて、輪郭画素の輝度値を補正する。画素値には、輝度値の他に、画素の色相や彩度など様々なパラメータが含まれている。
表示装置10は、この様々なパラメータの中の輝度値を補正することによって、立体表示される表示対象の奥行き位置を設定することができる。これにより、表示装置10は、輪郭画素の画素値を、様々なパラメータをそれぞれ補正する場合に比して、簡易な構成によって補正することができる。
表示装置10は、この様々なパラメータの中の輝度値を補正することによって、立体表示される表示対象の奥行き位置を設定することができる。これにより、表示装置10は、輪郭画素の画素値を、様々なパラメータをそれぞれ補正する場合に比して、簡易な構成によって補正することができる。
また、本実施形態の表示装置10が備える輪郭補正部213は、立体表示される表示対象の各部の奥行き位置に基づいて、表示対象の各部に対応する輪郭画素の画素毎に画素値を補正する。ここで、上述したように、輪郭画素の画素値とは、その輪郭画素が表示する画像情報が立体像SIとして観察者1に観察される奥行き位置を設定する値である。
例えば、輪郭画素の明るさが明るいほど、その輪郭画素が表示する画像情報による立体像SIの奥行き位置が(+Z)方向に変位する。一方、輪郭画素の明るさが暗いほど、その輪郭画素が表示する画像情報による立体像SIの奥行き位置が(-Z)方向に変位する。
つまり、輪郭画素の明るさに応じて、その輪郭画素が表示する画像情報による立体像SIの奥行き位置が変位する。したがって、輪郭補正部213は、表示対象の各部に対応する輪郭画素の画素毎に画素値を補正することによって、各画素の奥行き位置を画素毎に設定することができる。
これにより、表示装置10は、輪郭画素のすべての画素値を一律に補正する場合に比して、立体表示される表示対象の奥行き位置を精密に設定することができる。
例えば、輪郭画素の明るさが明るいほど、その輪郭画素が表示する画像情報による立体像SIの奥行き位置が(+Z)方向に変位する。一方、輪郭画素の明るさが暗いほど、その輪郭画素が表示する画像情報による立体像SIの奥行き位置が(-Z)方向に変位する。
つまり、輪郭画素の明るさに応じて、その輪郭画素が表示する画像情報による立体像SIの奥行き位置が変位する。したがって、輪郭補正部213は、表示対象の各部に対応する輪郭画素の画素毎に画素値を補正することによって、各画素の奥行き位置を画素毎に設定することができる。
これにより、表示装置10は、輪郭画素のすべての画素値を一律に補正する場合に比して、立体表示される表示対象の奥行き位置を精密に設定することができる。
また、本実施形態の表示装置10が備える輪郭補正部213は、輪郭画素の明るさを、第1の画像情報P11を構成する各画素のうち輪郭画素以外の非輪郭画素の明るさよりも暗くして、輪郭画素の画素値を補正する。ここで、非輪郭画素の明るさに対して輪郭画素が明るく表示されると、輪郭部と非輪郭部とが分離して観察者1に観察されることがある。
つまり、第1表示部11によって非輪郭画素の明るさに対して輪郭画素が明るく表示されると、輪郭部が目立ってしまい、観察者1が表示対象を立体像SIとして観察されにくくなる場合がある。一方、非輪郭画素の明るさに対して輪郭画素が暗く表示されると、輪郭部と非輪郭部とが分離せずに観察者1に観察される結果、観察者1が表示対象を立体像SIとして観察されやすくなる。
つまり、表示装置10は、輪郭画素の明るさを、非輪郭画素の明るさよりも暗くして輪郭画素の画素値を補正することにより、表示対象OBJが立体像SIとして観察されにくくなる程度を低減することができる。
また、表示装置10は、画素の明るさが明るくなることに応じて消費電力が上昇するため、非輪郭画素の明るさよりも暗くして輪郭画素の画素値を補正することにより、消費電力を低減することができる。
つまり、第1表示部11によって非輪郭画素の明るさに対して輪郭画素が明るく表示されると、輪郭部が目立ってしまい、観察者1が表示対象を立体像SIとして観察されにくくなる場合がある。一方、非輪郭画素の明るさに対して輪郭画素が暗く表示されると、輪郭部と非輪郭部とが分離せずに観察者1に観察される結果、観察者1が表示対象を立体像SIとして観察されやすくなる。
つまり、表示装置10は、輪郭画素の明るさを、非輪郭画素の明るさよりも暗くして輪郭画素の画素値を補正することにより、表示対象OBJが立体像SIとして観察されにくくなる程度を低減することができる。
また、表示装置10は、画素の明るさが明るくなることに応じて消費電力が上昇するため、非輪郭画素の明るさよりも暗くして輪郭画素の画素値を補正することにより、消費電力を低減することができる。
なお、本実施形態において、輪郭補正部213が、第1画素値情報と、奥行き位置情報と、輪郭部情報とに基づいて、表示対象OBJ1の輪郭部を表示する第1表示部11の各画素の画素値を補正する例について説明したが、これに限られない。
例えば、輪郭補正部213は、輪郭画素の明るさと、第1の画像情報P11を構成する各画素のうち輪郭画素以外の非輪郭画素の明るさとに基づいて、輪郭画素の画素値を補正してもよい。具体的には、輪郭補正部213は、取得した輪郭部情報に基づいて、第1表示面110を構成する画素のうち、輪郭部を表示する画素(輪郭画素)と、非輪郭部を表示する画素(非輪郭画素)とを識別する。
次に、輪郭補正部213は、取得した第1画素値情報に基づいて、識別した輪郭画素の明るさ(例えば、輝度値)を算出する。次に、輪郭補正部213は、取得した第1画素値情報に基づいて、識別した非輪郭画素の明るさ(例えば、輝度値)を算出する。
次に、輪郭補正部213は、算出した輪郭画素の明るさと、非輪郭画素の明るさとの差に基づいて、上述した構成によって生成した輪郭補正情報をさらに補正した第2の輪郭補正情報を生成する。そして、輪郭補正部213は、生成した第2の輪郭補正情報を、輪郭補正情報として含む第3画像信号を生成する。
例えば、輪郭補正部213は、輪郭画素の明るさと、第1の画像情報P11を構成する各画素のうち輪郭画素以外の非輪郭画素の明るさとに基づいて、輪郭画素の画素値を補正してもよい。具体的には、輪郭補正部213は、取得した輪郭部情報に基づいて、第1表示面110を構成する画素のうち、輪郭部を表示する画素(輪郭画素)と、非輪郭部を表示する画素(非輪郭画素)とを識別する。
次に、輪郭補正部213は、取得した第1画素値情報に基づいて、識別した輪郭画素の明るさ(例えば、輝度値)を算出する。次に、輪郭補正部213は、取得した第1画素値情報に基づいて、識別した非輪郭画素の明るさ(例えば、輝度値)を算出する。
次に、輪郭補正部213は、算出した輪郭画素の明るさと、非輪郭画素の明るさとの差に基づいて、上述した構成によって生成した輪郭補正情報をさらに補正した第2の輪郭補正情報を生成する。そして、輪郭補正部213は、生成した第2の輪郭補正情報を、輪郭補正情報として含む第3画像信号を生成する。
これにより、表示装置10は、輪郭画素と非輪郭画素との明るさ(例えば、輝度)の差を、立体表示が可能な適正な範囲にして(例えば、明るさの差を小さくして)輪郭画素を補正した画僧情報を表示することができる。したがって、表示装置10は、輪郭画素が非輪郭画素に対して目立たないようにして画像情報を表示することができる。
なお、輪郭補正部213は、輪郭画素および非輪郭画素のうち、互いに隣接する輪郭画素および非輪郭画素の明るさに基づいて、輪郭画素の画素値を補正してもよい。この場合には、輪郭画素と非輪郭画素との明るさ(例えば、輝度)の差をさらに小さくして輪郭画素を補正した画僧情報を表示することができる。
したがって、表示装置10は、輪郭画素が非輪郭画素に対して、さらに目立たないようにして画像情報を表示することができる。
なお、輪郭補正部213は、輪郭画素および非輪郭画素のうち、互いに隣接する輪郭画素および非輪郭画素の明るさに基づいて、輪郭画素の画素値を補正してもよい。この場合には、輪郭画素と非輪郭画素との明るさ(例えば、輝度)の差をさらに小さくして輪郭画素を補正した画僧情報を表示することができる。
したがって、表示装置10は、輪郭画素が非輪郭画素に対して、さらに目立たないようにして画像情報を表示することができる。
なお、本実施形態において、輪郭補正部213が、輪郭画素の明るさを、第1の画像情報P11を構成する各画素のうち輪郭画素以外の非輪郭画素の明るさよりも暗くして、輪郭画素の画素値を補正する例について説明したが、これに限られない。
具体的には、輪郭補正部213は、輪郭画素の明るさを、第1の画像情報P11を構成する各画素のうち輪郭画素以外の非輪郭画素の明るさよりも明るくして、輪郭画素の画素値を補正してもよい。これにより、輪郭補正部213は、輪郭画素の明るさを非輪郭画素の明るさよりも暗くして設定するだけの場合に比して、輪郭画素の明るさを広範囲に設定することができる。
ここで、輪郭画素の明るさは、立体表示させる表示対象の奥行き位置を設定する要素である。したがって、表示装置10は、輪郭画素の明るさを広範囲に設定することにより、立体表示させる表示対象の奥行き位置を広範囲に設定することができる。
つまり、表示装置10は、輪郭画素の明るさを非輪郭画素の明るさよりも暗くして設定するだけの場合に比して、立体表示させる表示対象の奥行き位置を広範囲に設定することができる。
具体的には、輪郭補正部213は、輪郭画素の明るさを、第1の画像情報P11を構成する各画素のうち輪郭画素以外の非輪郭画素の明るさよりも明るくして、輪郭画素の画素値を補正してもよい。これにより、輪郭補正部213は、輪郭画素の明るさを非輪郭画素の明るさよりも暗くして設定するだけの場合に比して、輪郭画素の明るさを広範囲に設定することができる。
ここで、輪郭画素の明るさは、立体表示させる表示対象の奥行き位置を設定する要素である。したがって、表示装置10は、輪郭画素の明るさを広範囲に設定することにより、立体表示させる表示対象の奥行き位置を広範囲に設定することができる。
つまり、表示装置10は、輪郭画素の明るさを非輪郭画素の明るさよりも暗くして設定するだけの場合に比して、立体表示させる表示対象の奥行き位置を広範囲に設定することができる。
また、本実施形態において、輪郭補正部213は、輪郭画素が表示されないようにして、輪郭画素の画素値を補正してもよい。例えば、輪郭補正部213は、輪郭画素が表示されないように、輪郭画素の明るさを最も暗い値(例えば、ゼロ)に補正してもよい。また、この場合、輪郭補正部213は、輪郭画素のうち、一部の画素について輪郭画素が表示されないように、輪郭画素の明るさを最も暗い値(例えば、ゼロ)に補正してもよい。
これにより、輪郭補正部213は、輪郭画素の明るさをゼロよりも大きい値だけに設定する場合に比して、輪郭画素の明るさを広範囲に設定することができる。
これにより、輪郭補正部213は、輪郭画素の明るさをゼロよりも大きい値だけに設定する場合に比して、輪郭画素の明るさを広範囲に設定することができる。
また、本実施形態の表示装置10が備える輪郭補正部213は、第1の画像情報P11を補正する例について説明したが、これに限られない。具体的には、輪郭補正部213は、第1の画像情報P11に加えて、第2の画像情報P12を補正してもよい。
すなわち、輪郭補正部213は、所定の位置に立体表示される表示対象の奥行き位置に基づいて、第1の画像情報P11を構成する各画素のうち表示対象の輪郭部に対応する輪郭画素の画素値を補正する。また、輪郭補正部213は、第2の画像情報P12を構成する各画素のうち表示対象の輪郭部に対応する輪郭画素の画素値を補正する。
ここで、第2の画像情報P12とは、表示対象を両眼視差により所定の位置に立体表示する画像情報のうち第2表示部12に表示させる画像情報である。ここで、本実施形態の表示装置10とは、第1表示面110が表示する第1の画像情報P11と、第2表示面120が表示する第2の画像情報P12とが観察者1によって重ねて観察される表示装置である。
つまり、観察者1は、第1表示面110の明るさと、第2表示面120の明るさとを加算した明るさの画像情報を観察する。したがって、第1表示面110の画素の明るさと、第2表示面120の画素の明るさとをそれぞれ設定することにより、第1表示面110の画素の明るさのみを設定する場合に比して、観察者1が観察する画像情報の明るさを広範囲に設定することができる。
ここで、輪郭補正部213は、第1の画像情報P11に加えて、第2の画像情報P12を補正することにより、第1の画像情報P11のみを補正する場合に比して、輪郭部の明るさを広範囲に設定することができる。すなわち、表示装置10は、輪郭画素の明るさを広範囲に設定することにより、立体表示させる表示対象の奥行き位置を広範囲に設定することができる。
つまり、表示装置10は、第1の画像情報P11のみを補正する場合に比して、立体表示させる表示対象の奥行き位置を広範囲に設定することができる。
すなわち、輪郭補正部213は、所定の位置に立体表示される表示対象の奥行き位置に基づいて、第1の画像情報P11を構成する各画素のうち表示対象の輪郭部に対応する輪郭画素の画素値を補正する。また、輪郭補正部213は、第2の画像情報P12を構成する各画素のうち表示対象の輪郭部に対応する輪郭画素の画素値を補正する。
ここで、第2の画像情報P12とは、表示対象を両眼視差により所定の位置に立体表示する画像情報のうち第2表示部12に表示させる画像情報である。ここで、本実施形態の表示装置10とは、第1表示面110が表示する第1の画像情報P11と、第2表示面120が表示する第2の画像情報P12とが観察者1によって重ねて観察される表示装置である。
つまり、観察者1は、第1表示面110の明るさと、第2表示面120の明るさとを加算した明るさの画像情報を観察する。したがって、第1表示面110の画素の明るさと、第2表示面120の画素の明るさとをそれぞれ設定することにより、第1表示面110の画素の明るさのみを設定する場合に比して、観察者1が観察する画像情報の明るさを広範囲に設定することができる。
ここで、輪郭補正部213は、第1の画像情報P11に加えて、第2の画像情報P12を補正することにより、第1の画像情報P11のみを補正する場合に比して、輪郭部の明るさを広範囲に設定することができる。すなわち、表示装置10は、輪郭画素の明るさを広範囲に設定することにより、立体表示させる表示対象の奥行き位置を広範囲に設定することができる。
つまり、表示装置10は、第1の画像情報P11のみを補正する場合に比して、立体表示させる表示対象の奥行き位置を広範囲に設定することができる。
また、本実施形態の表示装置10は、(+Z)方向に第1表示部11、第2表示部12の順に、第1表示部11と第2表示部12が配置されるが、これに限られない。具体的には、表示装置10は、(+Z)方向に第2表示部12、第1表示部11の順に、第1表示部11と第2表示部12が配置されてもよい。
このように構成しても、表示装置10は、表示対象の立体像SIを表示することができる。つまり、このように構成しても、表示装置10は、第1表示面110が表示対象を表示するすべての画素の画素値を補正する場合に比して、表示対象を立体表示するための画素値の補正を簡易にすることができる。
このように構成しても、表示装置10は、表示対象の立体像SIを表示することができる。つまり、このように構成しても、表示装置10は、第1表示面110が表示対象を表示するすべての画素の画素値を補正する場合に比して、表示対象を立体表示するための画素値の補正を簡易にすることができる。
また、本実施形態の表示装置10は、画像情報供給装置2から供給される第1画像信号と第2画像信号とに基づいて、各画像情報を表示するとして説明したが、これに限られない。
具体的には、表示装置10は、画像情報供給装置2から供給される第1画像情報から、第2画像情報を生成して、供給された第1画像信号と、生成した第2各画像信号とに基づいて、各画像情報を表示してもよい。ここで、第1画像情報と、第2画像情報とは対応する画像情報であるから、表示装置10は、第1画像情報に含まれる第1画素値情報に基づいて、第2画素値情報を生成することができる。
具体的には、表示装置10は、画像情報供給装置2から供給される第1画像情報から、第2画像情報を生成して、供給された第1画像信号と、生成した第2各画像信号とに基づいて、各画像情報を表示してもよい。ここで、第1画像情報と、第2画像情報とは対応する画像情報であるから、表示装置10は、第1画像情報に含まれる第1画素値情報に基づいて、第2画素値情報を生成することができる。
また、上述した表示装置10において、第1表示部11と、第2表示部12とが平行に配置されている構成を一例として説明したが、これに限られない。
例えば、表示装置10は、第2表示面120が表示する第2の画像情報P12による第2光束R12を透過させるとともに、第1表示面110が表示する第1の画像情報P11による第1光束R11を反射する光学系(例えば、ハーフミラー)を備えていてもよい。
これにより、第2表示部12が光を透過させる透過度によらず、第1の画像情報P11と、第2の画像情報P12とを重ねた状態にしてZ軸方向に表示することができる。つまり、表示装置10は、第2表示部12を透過型表示部にする必要がなくなるため、第1表示面110および第2表示面120を同じ表示面によって構成することができる。
これにより、表示装置10は、第1表示面110および第2表示面120の特性を一致させやすくすることができ、立体表示するための画素値の設定をより簡易にすることができる。また、これにより、表示装置10は、表示対象を立体表示させる奥行き位置を高精度に設定することができる。
例えば、表示装置10は、第2表示面120が表示する第2の画像情報P12による第2光束R12を透過させるとともに、第1表示面110が表示する第1の画像情報P11による第1光束R11を反射する光学系(例えば、ハーフミラー)を備えていてもよい。
これにより、第2表示部12が光を透過させる透過度によらず、第1の画像情報P11と、第2の画像情報P12とを重ねた状態にしてZ軸方向に表示することができる。つまり、表示装置10は、第2表示部12を透過型表示部にする必要がなくなるため、第1表示面110および第2表示面120を同じ表示面によって構成することができる。
これにより、表示装置10は、第1表示面110および第2表示面120の特性を一致させやすくすることができ、立体表示するための画素値の設定をより簡易にすることができる。また、これにより、表示装置10は、表示対象を立体表示させる奥行き位置を高精度に設定することができる。
また、表示装置10は、第1表示部11と第2表示部12がいずれも透過型表示部であり、第1表示部11の(-Z)方向側にバックライトを備えている構成であってもよい。
これにより、表示装置10は、第1表示面110および第2表示面120の特性を一致させやすくすることができ、立体表示するための画素値の設定をより簡易にすることができる。また、これにより、表示装置10は、表示対象を立体表示させる奥行き位置を高精度に設定することができる。
これにより、表示装置10は、第1表示面110および第2表示面120の特性を一致させやすくすることができ、立体表示するための画素値の設定をより簡易にすることができる。また、これにより、表示装置10は、表示対象を立体表示させる奥行き位置を高精度に設定することができる。
また、表示装置10の第2表示部12は、第2表示面120としての半透過スクリーンに、第2の画像情報P12をプロジェクタから投射する構成であってもよい。これにより、表示装置10は、第2表示面120を、例えば、液晶表示装置などを用いる場合に比して薄くすることができる。
また、表示装置10の第1表示部11も同様に、第1表示面110としてのスクリーンに、第1の画像情報P11をプロジェクタから投射する構成であってもよい。これにより、表示装置10は、第1表示面110および第2表示面120を容易に大型化することができる。
また、表示装置10の第1表示部11も同様に、第1表示面110としてのスクリーンに、第1の画像情報P11をプロジェクタから投射する構成であってもよい。これにより、表示装置10は、第1表示面110および第2表示面120を容易に大型化することができる。
また、表示装置10は、第1表示部11と第2表示部12とがいずれも実像としての光学像を表示する構成について説明したが、これに限られない。
例えば、第1表示部11は、虚像としての画像を表示する構成であってもよい。ここで、実像とは、観察者が表示面を見た場合に、表示面の奥行き位置に表示される像である。また、虚像とは、観察者が表示面を見た場合に、表示面の奥行き位置以外の位置(例えば、観察者と表示面との間の奥行き位置)に表示される像である。
これにより、表示装置10は、第1表示部11の位置に制約されずに第1の画像情報P11の光学像の位置を設定することができる。よって、表示装置10は、第1表示部11の位置に制約されずに観察者が認識する立体像SIの位置を設定することができる。
また、例えば、第2表示部12が、虚像としての画像を表示する構成であってもよく、第1表示部11の場合と同様にして、第2表示部12の位置に制約されずに観察者が認識する立体像SIの位置を設定することができる。
例えば、第1表示部11は、虚像としての画像を表示する構成であってもよい。ここで、実像とは、観察者が表示面を見た場合に、表示面の奥行き位置に表示される像である。また、虚像とは、観察者が表示面を見た場合に、表示面の奥行き位置以外の位置(例えば、観察者と表示面との間の奥行き位置)に表示される像である。
これにより、表示装置10は、第1表示部11の位置に制約されずに第1の画像情報P11の光学像の位置を設定することができる。よって、表示装置10は、第1表示部11の位置に制約されずに観察者が認識する立体像SIの位置を設定することができる。
また、例えば、第2表示部12が、虚像としての画像を表示する構成であってもよく、第1表示部11の場合と同様にして、第2表示部12の位置に制約されずに観察者が認識する立体像SIの位置を設定することができる。
なお、上述した表示装置10において、輪郭補正部213は、第1画素値情報と補正情報とを演算(例えば、減算)して輪郭補正情報を生成する構成を一例として説明したが、これに限られない。輪郭補正部213は、不図示の記憶部に予め記憶されている様々な奥行き位置に応じた輪郭補正情報を、奥行き位置に基づいて記憶部から取得してもよい。
このように構成することにより、表示装置10は、表示対象を立体表示するための画素値の設定を、さらに簡易にすることができる。
このように構成することにより、表示装置10は、表示対象を立体表示するための画素値の設定を、さらに簡易にすることができる。
以上説明したように、本実施形態の表示装置10によれば、表示対象を立体表示するための画素値の設定を簡易にすることができる。
[第6の実施形態]
以下、図面を参照して、本発明の第6の実施形態を説明する。
以下の説明において、上述の実施形態と同一又は同等の構成部分については同一の符号を付し、その説明を簡略若しくは省略する。
本実施形態では、図1に示す表示装置10における第2の画像情報には、図40A~40Cを参照して後述するように、第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとが含まれている。
以下、図面を参照して、本発明の第6の実施形態を説明する。
以下の説明において、上述の実施形態と同一又は同等の構成部分については同一の符号を付し、その説明を簡略若しくは省略する。
本実施形態では、図1に示す表示装置10における第2の画像情報には、図40A~40Cを参照して後述するように、第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとが含まれている。
また、本実施形態の第2表示部12は、図39を参照して後述するように、方向設定部3121を備えており、互いに異なる位置を視点とする多視点画像を表示可能である。ここで、視点とは、画像の表示面に表示されている画像が観察者1によって、例えば、立体像(3次元画像)として認識される位置である。
本実施形態の方向設定部3121は、例えば、レンチキュラーレンズを有しており、第2表示面120に表示される第2の画像P12から発せられる第2光束R12の出射方向を設定する。
なお、方向設定部3121は、例えば、スリットアレイシートを用いるパララックス方式などの多視点が設定できる方式であってもよい。また、ここで、多視点画像とは、互いに異なる位置を視点とする画像である。
本実施形態の方向設定部3121は、例えば、レンチキュラーレンズを有しており、第2表示面120に表示される第2の画像P12から発せられる第2光束R12の出射方向を設定する。
なお、方向設定部3121は、例えば、スリットアレイシートを用いるパララックス方式などの多視点が設定できる方式であってもよい。また、ここで、多視点画像とは、互いに異なる位置を視点とする画像である。
次に、図39を参照して、本実施形態における表示装置10が出射する光束の一例について説明する。
図39は、本実施形態における表示装置10が出射する光束の一例を示す模式図である。
ここでは、一例として、3つの位置において観察者によって立体像(3次元画像)が視認されている場合を説明する。上述したように、本実施形態の第2表示部12は、表示面120の(+Z)方向の位置に方向設定部3121を備えている。
また、上述したように、本実施形態の表示装置10が備える第2表示部12は、画像情報供給装置2から供給される第2の画像情報に基づいて、第2の画像P12を表示する。また、上述したように、画像情報供給装置2から供給される第2の画像情報には、第1視点画像P12Aの情報と、第2視点画像P12Bの情報と、第3視点画像P12Cの情報とが含まれている。
本実施形態の方向設定部3121は、例えば、レンチキュラーレンズを有しており、第1の視点VP1に第1視点画像P12Aが表示されるように第2の画像P12から発せられる第2光束R12の出射方向を設定する。
同様に、方向設定部3121は、第2の視点VP2に第2視点画像P12Bが表示されるように第2光束R12の出射方向を設定し、第3の視点VP3に第3視点画像P12Cが表示されるように第2光束R12の出射方向を設定する。
これにより、例えば、第1の視点VP1にいる観察者1Aによって、第1視点画像P12Aが視認され、第2の視点VP2にいる観察者1Bによって、第2視点画像P12Bが視認され、第3の視点VP3にいる観察者1Cによって、第3視点画像P12Cが視認される。
図39は、本実施形態における表示装置10が出射する光束の一例を示す模式図である。
ここでは、一例として、3つの位置において観察者によって立体像(3次元画像)が視認されている場合を説明する。上述したように、本実施形態の第2表示部12は、表示面120の(+Z)方向の位置に方向設定部3121を備えている。
また、上述したように、本実施形態の表示装置10が備える第2表示部12は、画像情報供給装置2から供給される第2の画像情報に基づいて、第2の画像P12を表示する。また、上述したように、画像情報供給装置2から供給される第2の画像情報には、第1視点画像P12Aの情報と、第2視点画像P12Bの情報と、第3視点画像P12Cの情報とが含まれている。
本実施形態の方向設定部3121は、例えば、レンチキュラーレンズを有しており、第1の視点VP1に第1視点画像P12Aが表示されるように第2の画像P12から発せられる第2光束R12の出射方向を設定する。
同様に、方向設定部3121は、第2の視点VP2に第2視点画像P12Bが表示されるように第2光束R12の出射方向を設定し、第3の視点VP3に第3視点画像P12Cが表示されるように第2光束R12の出射方向を設定する。
これにより、例えば、第1の視点VP1にいる観察者1Aによって、第1視点画像P12Aが視認され、第2の視点VP2にいる観察者1Bによって、第2視点画像P12Bが視認され、第3の視点VP3にいる観察者1Cによって、第3視点画像P12Cが視認される。
この、本実施形態の第2表示部12が各視点に表示する第1視点画像P12A、第2視点画像P12B及び第3視点画像P12Cについて、図40A~40Cを参照して説明する。
なお、便宜上、第1視点画像P12A、第2視点画像P12B及び第3視点画像P12Cはそれぞれ別の画像として説明するが、本実施形態の第2表示部12は、表示面120にこれらの画像を第2の画像P12として、例えば、同時に表示する。
なお、便宜上、第1視点画像P12A、第2視点画像P12B及び第3視点画像P12Cはそれぞれ別の画像として説明するが、本実施形態の第2表示部12は、表示面120にこれらの画像を第2の画像P12として、例えば、同時に表示する。
図40Aは、本実施形態における第1視点画像P12Aの一例を示す模式図である。
図40Aに示すように、第1視点画像P12Aは、例えば、図2Aに示す四角形のパターンのエッジ部分Eを示すエッジ画像PEを含む画像である。本実施形態の第1視点画像P12Aは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1A及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Aを含む画像である。
また、本実施形態の方向設定部3121は、例えば、この第1視点画像P12Aの左辺エッジ画像PE1Aが、第1の視点VP1にいる観察者1Aの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。
同様に、方向設定部3121は、例えば、この第1視点画像P12Aの右辺エッジ画像PE2Aが、第1の視点VP1にいる観察者1Aの位置から、図2Aに示す四角形のパターンの右辺エッジ部分E2と重なって視認されるように視点を設定する。
このようにして、本実施形態の方向設定部3121は、第1の視点VP1に第1視点画像P12Aが表示されるように視点を設定する。
図40Aに示すように、第1視点画像P12Aは、例えば、図2Aに示す四角形のパターンのエッジ部分Eを示すエッジ画像PEを含む画像である。本実施形態の第1視点画像P12Aは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1A及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Aを含む画像である。
また、本実施形態の方向設定部3121は、例えば、この第1視点画像P12Aの左辺エッジ画像PE1Aが、第1の視点VP1にいる観察者1Aの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。
同様に、方向設定部3121は、例えば、この第1視点画像P12Aの右辺エッジ画像PE2Aが、第1の視点VP1にいる観察者1Aの位置から、図2Aに示す四角形のパターンの右辺エッジ部分E2と重なって視認されるように視点を設定する。
このようにして、本実施形態の方向設定部3121は、第1の視点VP1に第1視点画像P12Aが表示されるように視点を設定する。
図40Bは、本実施形態における第2視点画像P12Bの一例を示す模式図である。
図40Bに示すように、第2視点画像P12Bは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1B及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Bを含む画像である。
ここで、図40Bに示すように、本実施形態の第2表示部12は、左辺エッジ画像PE1Bと右辺エッジ画像PE2Bとを、第1視点画像P12Aのエッジ画像PE(例えば、左辺エッジ画像PE1A及び右辺エッジ画像PE2A)の表示位置から距離LABだけ(+X)方向に離れた位置に表示する。
また、本実施形態の方向設定部3121は、例えば、この第2視点画像P12Bの左辺エッジ画像PE1Bが、第2の視点VP2にいる観察者1Bの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。
同様に、方向設定部3121は、例えば、この第2視点画像P12Bの右辺エッジ画像PE2Bが、第2の視点VP2にいる観察者1Bの位置から、図2Aに示す四角形のパターンの右辺エッジ部分E2と重なって視認されるように視点を設定する。
このようにして、本実施形態の方向設定部3121は、第2の視点VP2に第2視点画像P12Bが表示されるように視点を設定する。
図40Bに示すように、第2視点画像P12Bは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1B及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Bを含む画像である。
ここで、図40Bに示すように、本実施形態の第2表示部12は、左辺エッジ画像PE1Bと右辺エッジ画像PE2Bとを、第1視点画像P12Aのエッジ画像PE(例えば、左辺エッジ画像PE1A及び右辺エッジ画像PE2A)の表示位置から距離LABだけ(+X)方向に離れた位置に表示する。
また、本実施形態の方向設定部3121は、例えば、この第2視点画像P12Bの左辺エッジ画像PE1Bが、第2の視点VP2にいる観察者1Bの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。
同様に、方向設定部3121は、例えば、この第2視点画像P12Bの右辺エッジ画像PE2Bが、第2の視点VP2にいる観察者1Bの位置から、図2Aに示す四角形のパターンの右辺エッジ部分E2と重なって視認されるように視点を設定する。
このようにして、本実施形態の方向設定部3121は、第2の視点VP2に第2視点画像P12Bが表示されるように視点を設定する。
図40Cは、本実施形態における第3視点画像P12Cの一例を示す模式図である。
図40Cに示すように、第3視点画像P12Cは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1C及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Cを含む画像である。
ここで、図40Cに示すように、本実施形態の第2表示部12は、左辺エッジ画像PE1Cと右辺エッジ画像PE2Cとを、第1視点画像P12Aのエッジ画像PE(例えば、左辺エッジ画像PE1A及び右辺エッジ画像PE2A)の表示位置から距離LACだけ(-X)方向に離れた位置に表示する。
また、本実施形態の方向設定部3121は、例えば、この第3視点画像P12Cの左辺エッジ画像PE1Cが、第3の視点VP3にいる観察者1Cの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。
このようにして、本実施形態の方向設定部3121は、第3の視点VP3に第3視点画像P12Cが表示されるように視点を設定する。
図40Cに示すように、第3視点画像P12Cは、例えば、四角形のパターンの左辺エッジ部分E1を示す左辺エッジ画像PE1C及び、右辺エッジ部分E2を示す右辺エッジ画像PE2Cを含む画像である。
ここで、図40Cに示すように、本実施形態の第2表示部12は、左辺エッジ画像PE1Cと右辺エッジ画像PE2Cとを、第1視点画像P12Aのエッジ画像PE(例えば、左辺エッジ画像PE1A及び右辺エッジ画像PE2A)の表示位置から距離LACだけ(-X)方向に離れた位置に表示する。
また、本実施形態の方向設定部3121は、例えば、この第3視点画像P12Cの左辺エッジ画像PE1Cが、第3の視点VP3にいる観察者1Cの位置から、図2Aに示す四角形のパターンの左辺エッジ部分E1と重なって視認されるように視点を設定する。
このようにして、本実施形態の方向設定部3121は、第3の視点VP3に第3視点画像P12Cが表示されるように視点を設定する。
以上、説明したように、本実施形態の表示装置10は、第1の画像P11を表示する第1表示部11と、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に、第1の画像P11内に対応する第2の画像P12を表示する第2表示部12とを備えており、第1表示部11または第2表示部12のうちのいずれか一方は、互いに異なる位置を視点とする多視点画像を表示可能である。
これにより、表示装置10は、複数の視点VPにおいて、第1の画像P11と第2の画像P12とが、観察者1によって重ねて視認されるように、第1の画像P11と第2の画像P12とを表示することができる。これにより、本実施形態の表示装置10は、異なる視点VPにいる複数の観察者によって同時に立体像(3次元画像)として視認される画像を表示することができる。
これにより、表示装置10は、複数の視点VPにおいて、第1の画像P11と第2の画像P12とが、観察者1によって重ねて視認されるように、第1の画像P11と第2の画像P12とを表示することができる。これにより、本実施形態の表示装置10は、異なる視点VPにいる複数の観察者によって同時に立体像(3次元画像)として視認される画像を表示することができる。
ここで、第2表示部12は、第1の画像P11内に対応する第2の画像P12の画像として、第1の画像P11内のエッジ部分を示すエッジ画像PEを含む第2の画像P12を表示する。
これにより、表示装置10は、複数の視点VPにおいて、第1の画像P11のエッジ部分と第2の画像P12のエッジ画像PEとが(つまり、エッジ部分が)、観察者1によって重ねて視認されるように、第1の画像P11と第2の画像P12とを表示することができる。
これにより、本実施形態の表示装置10は、異なる視点VPにいる複数の観察者によって同時に立体像(3次元画像)として視認される画像を表示することができる。なお、ここで、第2表示部12が表示するエッジ画像PEは、第1の画像P11内のエッジ部分のみならず、エッジ部分に囲まれる領域を含む画像であってもよい。
これにより、表示装置10は、複数の視点VPにおいて、第1の画像P11のエッジ部分と第2の画像P12のエッジ画像PEとが(つまり、エッジ部分が)、観察者1によって重ねて視認されるように、第1の画像P11と第2の画像P12とを表示することができる。
これにより、本実施形態の表示装置10は、異なる視点VPにいる複数の観察者によって同時に立体像(3次元画像)として視認される画像を表示することができる。なお、ここで、第2表示部12が表示するエッジ画像PEは、第1の画像P11内のエッジ部分のみならず、エッジ部分に囲まれる領域を含む画像であってもよい。
また、本実施形態の表示装置10は、第2の画像P12がエッジ画像PEであり、観察者1によって重ねて視認される第1の画像P11の精細度への影響が少ない。ここで、精細度とは、例えば、画像を構成する画素の数である。
したがって、本実施形態の表示装置10は、第2の画像P12を多視点画像とした場合には、1視点あたりの画像の精細度が第2の画像P12を単一の視点の画像とした場合に比べて低下するが、第1の画像P11の精細度が低下することを低減することができる。
したがって、本実施形態の表示装置10は、第2の画像P12を多視点画像とした場合には、1視点あたりの画像の精細度が第2の画像P12を単一の視点の画像とした場合に比べて低下するが、第1の画像P11の精細度が低下することを低減することができる。
さらに、本実施形態の表示装置10は、例えば、複数の視点VPの間を観察者1が移動する場合においても、観察者1によって立体像(3次元画像)が継続して認識されるように画像を表示することができる。一般に、立体像(3次元画像)の運動視差が観察者1に認識されると、この立体像(3次元画像)の立体感を高めることができる。
本実施形態の表示装置10は、観察者1が複数の視点VPの間を移動する場合に、画像の運動視差が観察者1に認識されるように設定されている第1視点画像P12A、第2視点画像P12B及び第3視点画像P12Cを表示させることにより、表示する立体像(3次元画像)の立体感を高めることができる。
本実施形態の表示装置10は、観察者1が複数の視点VPの間を移動する場合に、画像の運動視差が観察者1に認識されるように設定されている第1視点画像P12A、第2視点画像P12B及び第3視点画像P12Cを表示させることにより、表示する立体像(3次元画像)の立体感を高めることができる。
また、本実施形態の表示装置10は、立体像(3次元画像)を表示する視点VPと、立体像(3次元画像)を表示しない視点VPとを、視点VP毎に設定することもできる。一例として、表示装置10は、第1視点画像P12Aと、第2視点画像P12Bとを第2表示部12にそれぞれ表示するとともに、第3視点画像P12Cを第2表示部12に表示しないようにすることができる。
この場合には、第1の視点VP1にいる観察者1A、および第2の視点VP2にいる観察者1Bには、立体像(3次元画像)がそれぞれ視認できるようにし、第3の視点VP3にいる観察者1Cには、立体像(3次元画像)が視認できないようにすることができる。
すなわち、表示装置10は、立体像(3次元画像)が視認できる視点VPと、立体像(3次元画像)が視認できない視点VPとを、1つの表示装置によって設定することができる。
この場合には、第1の視点VP1にいる観察者1A、および第2の視点VP2にいる観察者1Bには、立体像(3次元画像)がそれぞれ視認できるようにし、第3の視点VP3にいる観察者1Cには、立体像(3次元画像)が視認できないようにすることができる。
すなわち、表示装置10は、立体像(3次元画像)が視認できる視点VPと、立体像(3次元画像)が視認できない視点VPとを、1つの表示装置によって設定することができる。
より具体的には、表示装置10が映画館における映画の上映装置であり、映画の観客が視点VPとしての観客席に座っている場合には、映画の画像を立体視できる観客席と、立体視できない観客席とを、1つの表示装置10によって振り分けて設定することができる。
また、一例として、これらの観客席に立体視のオン・オフを設定する切換えスイッチが備えられている場合には、表示装置10を次のように構成することもできる。
すなわち、表示装置10は、観客席に備えられている切り換えスイッチがオンの場合には、この観客席に対応する視点画像を表示して立体視できるようにする。また、表示装置10は、観客席に備えられている切り換えスイッチがオフの場合には、この観客席に対応する視点画像を表示せず、立体視できないようにする。
このように構成することによって、表示装置10は、映画館の観客席毎に立体視のオン・オフを設定することができる。さらに、表示装置10は、映画館の観客席に座る観客による切り換えスイッチの操作に基づいて、立体視のオン・オフを設定することができる。
また、一例として、これらの観客席に立体視のオン・オフを設定する切換えスイッチが備えられている場合には、表示装置10を次のように構成することもできる。
すなわち、表示装置10は、観客席に備えられている切り換えスイッチがオンの場合には、この観客席に対応する視点画像を表示して立体視できるようにする。また、表示装置10は、観客席に備えられている切り換えスイッチがオフの場合には、この観客席に対応する視点画像を表示せず、立体視できないようにする。
このように構成することによって、表示装置10は、映画館の観客席毎に立体視のオン・オフを設定することができる。さらに、表示装置10は、映画館の観客席に座る観客による切り換えスイッチの操作に基づいて、立体視のオン・オフを設定することができる。
また、より具体的には、表示装置10が家庭用のテレビであり、テレビを視聴している視聴者が視点VPの座席に座っている場合に、テレビに表示されている映像を立体視とするか立体視としないかをオン・オフ可能に設定してもよい。
なお、立体視のオン・オフを切替える方法としては、テレビ番組を変更するためのリモコンにオン・オフを切替えるためのスイッチを備えてもよいし、また携帯電話等の電子機器のリモコン機能に立体視のオン・オフの切替えスイッチを設け、立体視のオン・オフを切替えるようにしてもよい。なお、携帯電話等の電子機器を操作する操作部材としては、既存の技術である、タッチパネルなどが挙げられる。
なお、立体視のオン・オフを変更する領域の設定方法としては、リモコンから照射された光がどの方向からきたかを検出し、光を検出した方向に基づいて、立体視のオン・オフを変更する領域を設定してもよい。
なお、立体視のオン・オフを切替える方法としては、テレビ番組を変更するためのリモコンにオン・オフを切替えるためのスイッチを備えてもよいし、また携帯電話等の電子機器のリモコン機能に立体視のオン・オフの切替えスイッチを設け、立体視のオン・オフを切替えるようにしてもよい。なお、携帯電話等の電子機器を操作する操作部材としては、既存の技術である、タッチパネルなどが挙げられる。
なお、立体視のオン・オフを変更する領域の設定方法としては、リモコンから照射された光がどの方向からきたかを検出し、光を検出した方向に基づいて、立体視のオン・オフを変更する領域を設定してもよい。
次に、図9を参照して、本実施形態における表示装置10の動作について説明する。なお、以下の説明において、上述の実施形態と同一又は同等の構成部分については同一の符号を付し、その説明を簡略若しくは省略する。
本実施形態の第2表示部12は、ステップ122において、複数の視点画像を生成する点が、上記の実施形態と異なる。
具体的には、本実施形態の第2表示部12は、例えば、画像情報供給装置2が生成した画像情報に含まれている、第1視点画像P12Aの情報から第1視点画像P12Aを生成する。同様に、第2表示部12は、例えば、第2視点画像P12Bの情報から、第2視点画像P12Bを、第3視点画像P12Cの情報から第3視点画像P12Cを、それぞれ生成する。
本実施形態の第2表示部12は、ステップ122において、複数の視点画像を生成する点が、上記の実施形態と異なる。
具体的には、本実施形態の第2表示部12は、例えば、画像情報供給装置2が生成した画像情報に含まれている、第1視点画像P12Aの情報から第1視点画像P12Aを生成する。同様に、第2表示部12は、例えば、第2視点画像P12Bの情報から、第2視点画像P12Bを、第3視点画像P12Cの情報から第3視点画像P12Cを、それぞれ生成する。
本実施形態の第2表示部12は、ステップS123において、例えば、生成した第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとを、それぞれ表示して、処理を終了する。
次に、図11を参照して、本実施形態における設定部13の設定の一例を説明する。なお、以下の説明において、上述の実施形態と同一又は同等の構成部分については同一の符号を付し、その説明を簡略若しくは省略する。
本実施形態の設定部13は、複数の視点について画像変換の方法を設定する点が、上記の実施形態と異なる。
本実施形態の設定部13は、エッジ画像PEとしての第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとについての画像変換の方法をそれぞれ設定する。
なお、これらの画像についての具体的な画像変換の方法は、上述の実施形態において説明したエッジ画像PEの画像変換の方法と同様であり、その説明を省略する。
本実施形態の設定部13は、複数の視点について画像変換の方法を設定する点が、上記の実施形態と異なる。
本実施形態の設定部13は、エッジ画像PEとしての第1視点画像P12Aと、第2視点画像P12Bと、第3視点画像P12Cとについての画像変換の方法をそれぞれ設定する。
なお、これらの画像についての具体的な画像変換の方法は、上述の実施形態において説明したエッジ画像PEの画像変換の方法と同様であり、その説明を省略する。
また、図13を参照して説明した表示装置10の動作は、第1視点画像P12A、第2視点画像P12B及び第3視点画像P12Cについても、上述の説明と同様であり、その説明を省略する。
本実施形態の表示装置10は、検出された観察者1の位置が移動した場合には、検出結果に基づいて、移動後の位置にいる観察者1に対して、第1の画像P11と、エッジ画像PEとを対応させて表示することができる。つまり、本実施形態の表示装置10は、移動する観察者1の位置に追従して立体像(3次元画像)を表示することができる。
以上説明したように、本実施形態の表示装置10によれば、観察者によって立体像(3次元画像)が認識される範囲を広範囲にして表示することができる。
[第7の実施形態]
以下、図面を参照して、本発明の第7の実施形態を説明する。
図8は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。なお、上述した第2の実施形態と同様である構成及び動作については、説明を省略する。
以下、図面を参照して、本発明の第7の実施形態を説明する。
図8は、本実施形態における表示装置10を含む表示システム100の構成の一例を示す構成図である。なお、上述した第2の実施形態と同様である構成及び動作については、説明を省略する。
画像情報供給装置2は、表示装置10に第1画像情報を供給する。ここで、第1画像情報とは、表示装置10によって表示される第1の画像P11(第1画像)を表示するための情報である。また、第1画像情報には、表示装置10が表示する立体像の状態を示す立体像情報が含まれている。立体像および立体像情報については、後述する。
表示装置10は、第1表示部11と第2表示部12と生成部(エッジ画像生成部)14とを備えており、画像情報供給装置2から供給される第1画像情報に基づいて、第1の画像P11と第2の画像P12(第2画像)とを表示する。
生成部14は、画像情報供給装置2から供給される第1画像情報に基づいて、第2画像情報を生成する。ここで、第2画像情報とは、表示装置10によって表示される第2の画像P12を表示するための情報である。
第2表示部12は、(+Z)方向に向けて画像を表示する第2表示面120を備えており、生成部14が生成する第2画像情報に基づいて、第2の画像P12を第2表示面120に表示する。
次に、生成部14が第2の画像P12に含まれるエッジ画像PEを生成する具体的な構成について説明する。生成部14は、第1の画像P11を表示するための画像情報として画像情報供給装置2から供給されている第1画像情報を取得する。この第1画像情報には、立体像の奥行き位置を示す位置情報が、立体像の状態を示す立体像情報として含まれている。
ここで、立体像の奥行き位置を示す位置情報とは、第1の画像P11と第2の画像P12とを観察する観察者1が、立体像を認識することができるように第1画像情報に付加される立体像情報であって、例えば、左眼Lと右眼Rとの両眼視差を設定するための情報である。
また、立体像の奥行き位置とは、図8のZ軸方向の位置のうちの、第1の画像P11と第2の画像P12とを観察する観察者1に立体像として認識されている、第1の画像P11の各画素の仮想的な位置である。
ここで、第1の画像P11が表示されているZ軸方向の位置をZ軸の原点Oの位置として説明する。立体像の奥行き位置がZ軸の原点Oから奥方向(-Z方向)に設定される場合には、Z軸の原点Oの位置の両眼視差に比べて、両眼視差が大きくなるような位置情報が立体像情報として第1画像情報に付加されている。
ここで、立体像の奥行き位置を示す位置情報とは、第1の画像P11と第2の画像P12とを観察する観察者1が、立体像を認識することができるように第1画像情報に付加される立体像情報であって、例えば、左眼Lと右眼Rとの両眼視差を設定するための情報である。
また、立体像の奥行き位置とは、図8のZ軸方向の位置のうちの、第1の画像P11と第2の画像P12とを観察する観察者1に立体像として認識されている、第1の画像P11の各画素の仮想的な位置である。
ここで、第1の画像P11が表示されているZ軸方向の位置をZ軸の原点Oの位置として説明する。立体像の奥行き位置がZ軸の原点Oから奥方向(-Z方向)に設定される場合には、Z軸の原点Oの位置の両眼視差に比べて、両眼視差が大きくなるような位置情報が立体像情報として第1画像情報に付加されている。
そして、生成部14は、取得した第1画像情報に対してラプラシアンフィルタなどの既知のエッジ抽出フィルタを適用して、第1画像情報に含まれる第1の画像P11内の各画素のうちの、エッジ部分Eを示す画素の位置を取得する。
ここでは、生成部14は、第1の画像P11内の左辺エッジ部分E1を示す画素の位置を取得したとする。そして、生成部14は、取得した左辺エッジ部分E1を示す画素の位置に基づいて、左辺エッジ部分E1を示す左辺エッジ画像PE1を生成する。
ここで、生成部14は、生成した左辺エッジ画像PE1と左辺エッジ部分E1とが対応する位置に表示されるように左辺エッジ画像PE1の表示位置を設定して、左辺エッジ画像PE1を含む第2の画像P12を示す第2画像情報を生成する。
このとき、生成部14は、立体像情報としての立体像の奥行き位置を示す位置情報と、後述する距離Lp及び距離Lvとに基づいて、左辺エッジ部分E1と左辺エッジ画像PE1とが対応する左辺エッジ画像PE1の位置を算出する。また、生成部14は、立体像の奥行き位置を示す位置情報に応じて左辺エッジ画像PE1の各画素の輝度を設定する。
そして、生成部14は、算出した画素の位置と画素の輝度とに基づいて、第2の画像P12内における左辺エッジ画像PE1の表示位置と輝度とを設定する。このようにして、生成部14は、第1の画像P11と立体像情報とに基づいて、第2の画像P12に含まれる左辺エッジ画像PE1を生成する。
次に、図3を参照して、生成部14が、左辺エッジ画像PE1の表示位置を設定する構成について説明する。
ここでは、生成部14は、第1の画像P11内の左辺エッジ部分E1を示す画素の位置を取得したとする。そして、生成部14は、取得した左辺エッジ部分E1を示す画素の位置に基づいて、左辺エッジ部分E1を示す左辺エッジ画像PE1を生成する。
ここで、生成部14は、生成した左辺エッジ画像PE1と左辺エッジ部分E1とが対応する位置に表示されるように左辺エッジ画像PE1の表示位置を設定して、左辺エッジ画像PE1を含む第2の画像P12を示す第2画像情報を生成する。
このとき、生成部14は、立体像情報としての立体像の奥行き位置を示す位置情報と、後述する距離Lp及び距離Lvとに基づいて、左辺エッジ部分E1と左辺エッジ画像PE1とが対応する左辺エッジ画像PE1の位置を算出する。また、生成部14は、立体像の奥行き位置を示す位置情報に応じて左辺エッジ画像PE1の各画素の輝度を設定する。
そして、生成部14は、算出した画素の位置と画素の輝度とに基づいて、第2の画像P12内における左辺エッジ画像PE1の表示位置と輝度とを設定する。このようにして、生成部14は、第1の画像P11と立体像情報とに基づいて、第2の画像P12に含まれる左辺エッジ画像PE1を生成する。
次に、図3を参照して、生成部14が、左辺エッジ画像PE1の表示位置を設定する構成について説明する。
図3は、本実施形態における表示装置10によって表示される画像の一例を示す模式図である。第1表示面110と第2表示面120とは、第1表示面110のZ軸方向の位置と第2表示面120のZ軸方向の位置とが、Z軸方向に距離Lpだけ離されて配置されている。
ここで、距離Lpとは、第1の画像P11が表示されている位置と、第2の画像P12が表示されている位置の間の距離である。この距離Lpは、第1の画像P11が表示されている位置から観察者1の位置までの(+Z)方向の距離Lvに基づいて予め定められている。
このようにして、表示装置10は、第1の画像P11を表示する位置(つまり、第1表示面110の位置)から(-Z)方向に距離Lpだけ離れている位置(つまり、第2表示面120の位置)に第2の画像P12を表示する。
上述したように、第1表示部11は、光を透過させる透過型表示部であるため、第2表示部12が左辺エッジ画像PE1を表示することにより第2表示部12が発する光束は、第1表示部11を透過して観察者1の左眼L及び右眼Rに届く。
ここで、生成部14は、観察者1の左眼Lに対して、第1の画像P11の左辺エッジ部分E1の外側(つまり、-X方向)に左辺エッジ画像PE1が表示されるように、第2の画像P12内の左辺エッジ画像PE1の表示位置を設定する。
また、生成部14は、観察者1の右眼Rに対して、第1の画像P11の左辺エッジ部分E1の内側(つまり、+X方向)に左辺エッジ画像PE1が表示されるように、第2の画像P12内の左辺エッジ画像PE1の表示位置を設定する。
ここで、距離Lpとは、第1の画像P11が表示されている位置と、第2の画像P12が表示されている位置の間の距離である。この距離Lpは、第1の画像P11が表示されている位置から観察者1の位置までの(+Z)方向の距離Lvに基づいて予め定められている。
このようにして、表示装置10は、第1の画像P11を表示する位置(つまり、第1表示面110の位置)から(-Z)方向に距離Lpだけ離れている位置(つまり、第2表示面120の位置)に第2の画像P12を表示する。
上述したように、第1表示部11は、光を透過させる透過型表示部であるため、第2表示部12が左辺エッジ画像PE1を表示することにより第2表示部12が発する光束は、第1表示部11を透過して観察者1の左眼L及び右眼Rに届く。
ここで、生成部14は、観察者1の左眼Lに対して、第1の画像P11の左辺エッジ部分E1の外側(つまり、-X方向)に左辺エッジ画像PE1が表示されるように、第2の画像P12内の左辺エッジ画像PE1の表示位置を設定する。
また、生成部14は、観察者1の右眼Rに対して、第1の画像P11の左辺エッジ部分E1の内側(つまり、+X方向)に左辺エッジ画像PE1が表示されるように、第2の画像P12内の左辺エッジ画像PE1の表示位置を設定する。
右辺エッジ画像PE2についても、左辺エッジ画像PE1と同様である。すなわち、生成部14は、画像情報供給装置2から供給される第1画像情報を取得し、取得した第1画像情報に対してエッジ抽出フィルタを適用して、第1画像情報が示す第1の画像P11内の右辺エッジ部分E2を抽出する。そして、生成部14は、抽出した右辺エッジ部分E2に基づいて、右辺エッジ部分E2を示す右辺エッジ画像PE2を生成する。
そして、生成部14は、観察者1の左眼Lに対して、第1の画像P11の右辺エッジ部分E2の外側(つまり、+X方向)に右辺エッジ画像PE2が表示されるように、第2の画像P12内の右辺エッジ画像PE2の表示位置を設定する。
また、生成部14は、観察者1の右眼Rに対して、第1の画像P11の右辺エッジ部分E2の内側(つまり、-X方向)に右辺エッジ画像PE2が表示されるように、第2の画像P12内の右辺エッジ画像PE2の表示位置を設定する。
このようにして、生成部14は、第2の画像P12内のエッジ画像PE(左辺エッジ画像PE1及び右辺エッジ画像PE2)の表示位置を設定して、第2の画像P12を生成する。
そして、生成部14は、観察者1の左眼Lに対して、第1の画像P11の右辺エッジ部分E2の外側(つまり、+X方向)に右辺エッジ画像PE2が表示されるように、第2の画像P12内の右辺エッジ画像PE2の表示位置を設定する。
また、生成部14は、観察者1の右眼Rに対して、第1の画像P11の右辺エッジ部分E2の内側(つまり、-X方向)に右辺エッジ画像PE2が表示されるように、第2の画像P12内の右辺エッジ画像PE2の表示位置を設定する。
このようにして、生成部14は、第2の画像P12内のエッジ画像PE(左辺エッジ画像PE1及び右辺エッジ画像PE2)の表示位置を設定して、第2の画像P12を生成する。
上述の第2の実施形態では、エッジ画像PEが、図2Bに示すような均一な鮮鋭度を有する線分であるとして、観察者1が立体像を認識する仕組みについて説明した。本実施形態では、生成部14が、エッジ画像PEの鮮鋭度(ぼけ)を変化させたエッジ画像PEfを生成する構成について説明する。
ここで、鮮鋭度とは、画像の明瞭さを表す指標である。エッジ画像PEの鮮鋭度が高い場合には、エッジを示す線分が明瞭に表示され、エッジ画像PEの鮮鋭度が低い場合には、エッジを示す線分が不明瞭に表示される。
ここで、鮮鋭度とは、画像の明瞭さを表す指標である。エッジ画像PEの鮮鋭度が高い場合には、エッジを示す線分が明瞭に表示され、エッジ画像PEの鮮鋭度が低い場合には、エッジを示す線分が不明瞭に表示される。
生成部14は、図41に示すようなエッジ画像PEfを生成(設定)する。図41は、本実施形態の生成部14が生成するエッジ画像PEfの一例を示す模式図である。
生成部14は、左辺エッジ部分E1及び右辺エッジ部分E2を示す線分がX軸方向及びY軸方向に拡散して不明瞭になるように設定された(つまり、鮮鋭度がエッジ画像PEに比べて低く設定された)エッジ画像PEf(左辺エッジ画像PE1f、右辺エッジ画像PE2f)を生成する。
生成部14は、左辺エッジ部分E1及び右辺エッジ部分E2を示す線分がX軸方向及びY軸方向に拡散して不明瞭になるように設定された(つまり、鮮鋭度がエッジ画像PEに比べて低く設定された)エッジ画像PEf(左辺エッジ画像PE1f、右辺エッジ画像PE2f)を生成する。
具体的には、生成部14は、次のようにエッジ画像PEfを生成する。
上述したように、画像情報供給装置2から供給される第1画像情報には、表示装置10が表示する立体像の状態を示す立体像情報が含まれている。この立体像情報には、ここまで説明した、立体像の奥行き位置を示す奥行き情報に加えて、第1表示部11と第2表示部12とによって立体像が表示可能な視点の位置を示す情報が含まれている。
ここで、視点とは、観察者1が立体像を認識できる場所である。また、第1表示部11と第2表示部12とによって立体像が表示可能な視点の位置とは、第1の画像P11と第2の画像P12とを観察している観察者1が場所を移動した場合において、第1の画像P11と第2の画像P12とが立体像として認識できる場所の範囲である。
生成部14は、第1画像情報に含まれる立体像が表示可能な視点の位置を示す情報に基づいて、エッジ画像PEfの鮮鋭度を設定して、設定した鮮鋭度のエッジ画像PEfを生成する。ここで、表示装置10が表示する第1の画像P11と第2の画像P12とが、観察者1に立体像として認識できる場所の範囲は、エッジ画像PEfの鮮鋭度に依存している。
そこで、生成部14は、狭い範囲を視点とするように、視点の位置を示す情報が示す場合には、エッジ画像PEfの鮮鋭度を高く設定して、エッジ画像PEfを生成する。一方、生成部14は、広く範囲を視点とするように、視点の位置を示す情報が示す場合には、エッジ画像PEfの鮮鋭度を低く設定して、エッジ画像PEfを生成する。
上述したように、画像情報供給装置2から供給される第1画像情報には、表示装置10が表示する立体像の状態を示す立体像情報が含まれている。この立体像情報には、ここまで説明した、立体像の奥行き位置を示す奥行き情報に加えて、第1表示部11と第2表示部12とによって立体像が表示可能な視点の位置を示す情報が含まれている。
ここで、視点とは、観察者1が立体像を認識できる場所である。また、第1表示部11と第2表示部12とによって立体像が表示可能な視点の位置とは、第1の画像P11と第2の画像P12とを観察している観察者1が場所を移動した場合において、第1の画像P11と第2の画像P12とが立体像として認識できる場所の範囲である。
生成部14は、第1画像情報に含まれる立体像が表示可能な視点の位置を示す情報に基づいて、エッジ画像PEfの鮮鋭度を設定して、設定した鮮鋭度のエッジ画像PEfを生成する。ここで、表示装置10が表示する第1の画像P11と第2の画像P12とが、観察者1に立体像として認識できる場所の範囲は、エッジ画像PEfの鮮鋭度に依存している。
そこで、生成部14は、狭い範囲を視点とするように、視点の位置を示す情報が示す場合には、エッジ画像PEfの鮮鋭度を高く設定して、エッジ画像PEfを生成する。一方、生成部14は、広く範囲を視点とするように、視点の位置を示す情報が示す場合には、エッジ画像PEfの鮮鋭度を低く設定して、エッジ画像PEfを生成する。
以上説明したように、表示装置10は、第1表示部11と、第2表示部12と、生成部14とを備えている。この第1表示部11は、第1の画像P11を表示する。また、第2表示部12は、第1の画像P11が表示される奥行き位置とは異なる奥行き位置に、第1の画像P11内のエッジ部分Eを示すエッジ画像PEfを含む第2の画像P12を表示する。
また、生成部14は、第1表示部11が表示する第1の画像P11と第2表示部12が表示する第2の画像P12とによって表示される立体像の状態を示す立体像情報に基づいて、第2表示部12が表示する第2の画像P12に含まれるエッジ画像PEfを生成する。
これにより、表示装置10は、観察者1に観察される第1の画像P11に応じた立体像について、奥行き位置や解像感などの立体像の状態を可変にして表示することができる。
また、生成部14は、第1表示部11が表示する第1の画像P11と第2表示部12が表示する第2の画像P12とによって表示される立体像の状態を示す立体像情報に基づいて、第2表示部12が表示する第2の画像P12に含まれるエッジ画像PEfを生成する。
これにより、表示装置10は、観察者1に観察される第1の画像P11に応じた立体像について、奥行き位置や解像感などの立体像の状態を可変にして表示することができる。
また、表示装置10において、立体像情報には、第1表示部11と第2表示部12とによって立体像が表示可能な視点の位置を示す情報が含まれ、生成部14は、視点の位置を示す情報に基づいたエッジ画像PEfの鮮鋭度によって、エッジ画像PEfを生成する。
これにより、表示装置10は、エッジ画像PEfをぼかして表示することによって、観察者1の位置が変化しても、第1の画像P11のエッジ部分Eとエッジ画像PEfとが分離しないようにして、これらの画像を表示することができる。つまり、表示装置10は、観察者1が立体像を観察することができる視点の範囲を、鮮鋭度を変化させない場合に比して拡張することができる。
これにより、表示装置10は、エッジ画像PEfをぼかして表示することによって、観察者1の位置が変化しても、第1の画像P11のエッジ部分Eとエッジ画像PEfとが分離しないようにして、これらの画像を表示することができる。つまり、表示装置10は、観察者1が立体像を観察することができる視点の範囲を、鮮鋭度を変化させない場合に比して拡張することができる。
また、表示装置10において、立体像情報には、立体像の奥行き位置を示す奥行き情報が含まれ、生成部14は、奥行き情報に基づいて、エッジ画像PEfを生成する。これにより、表示装置10は、第1表示部11や第2表示部12の位置を変えることなく、観察者1によって観察される立体像の奥行き位置を可変にして表示することができる。
なお、表示装置10において、生成部14は、奥行き情報に基づいたエッジ画像PEfの鮮鋭度によって、エッジ画像PEfを生成してもよい。
ここで、観察者1によって観察される立体像の奥行き位置は、エッジ画像PEfを構成する各画素の輝度と、エッジ画像PEfの位置とによって変化する。つまり、エッジ画像PEfを構成する各画素の輝度を設定することによって、観察者1によって観察される立体像の奥行き位置を設定することができる。
しかしながら、エッジ画像PEfを構成する各画素の輝度を高く設定すると、エッジ画像PEfが目立ってしまうことがあるため、この場合には、設定できる立体像の奥行き位置が限定されてしまうことがある。
また、エッジ部分Eからずれた位置にエッジ画像PEfの位置を設定すると、エッジ画像PEfとエッジ部分Eとが分離して観察されることがあるため、この場合には、設定できる立体像の奥行き位置が限定されてしまうことがある。
一方、第1の画像P11に含まれるエッジ部分Eの外縁部分の鮮鋭度を変えることによって、第1の画像P11を観察する観察者1が感じるエッジ画像PEfの位置を変化させることができる。したがって、表示装置10は、エッジ画像PEfの鮮鋭度を変化させることによって、観察者1によって観察される立体像の奥行き位置を変化させることができる。
これにより、表示装置10は、エッジ画像PEfの輝度や位置を変えることなく、観察者1によって観察される立体像の奥行き位置を変化させることができる。つまり、表示装置10は、エッジ画像PEfを目立たせないようにして、観察者1によって観察される立体像の奥行き位置を可変にして表示することができる。
ここで、観察者1によって観察される立体像の奥行き位置は、エッジ画像PEfを構成する各画素の輝度と、エッジ画像PEfの位置とによって変化する。つまり、エッジ画像PEfを構成する各画素の輝度を設定することによって、観察者1によって観察される立体像の奥行き位置を設定することができる。
しかしながら、エッジ画像PEfを構成する各画素の輝度を高く設定すると、エッジ画像PEfが目立ってしまうことがあるため、この場合には、設定できる立体像の奥行き位置が限定されてしまうことがある。
また、エッジ部分Eからずれた位置にエッジ画像PEfの位置を設定すると、エッジ画像PEfとエッジ部分Eとが分離して観察されることがあるため、この場合には、設定できる立体像の奥行き位置が限定されてしまうことがある。
一方、第1の画像P11に含まれるエッジ部分Eの外縁部分の鮮鋭度を変えることによって、第1の画像P11を観察する観察者1が感じるエッジ画像PEfの位置を変化させることができる。したがって、表示装置10は、エッジ画像PEfの鮮鋭度を変化させることによって、観察者1によって観察される立体像の奥行き位置を変化させることができる。
これにより、表示装置10は、エッジ画像PEfの輝度や位置を変えることなく、観察者1によって観察される立体像の奥行き位置を変化させることができる。つまり、表示装置10は、エッジ画像PEfを目立たせないようにして、観察者1によって観察される立体像の奥行き位置を可変にして表示することができる。
なお、表示装置10において、立体像情報には、表示される立体像のエッジ部分Eの鮮鋭度を示す情報が含まれることとし、生成部14は、立体像のエッジ部分Eの鮮鋭度を示す情報に基づいたエッジ画像PEfの鮮鋭度によって、エッジ画像PEfを生成してもよい。
これにより、表示装置10は、生成部14が第1画像情報に含まれる立体像情報からエッジ画像PEfの鮮鋭度を算出することなく、エッジ画像PEfの鮮鋭度を設定することができる。つまり、表示装置10は、生成部14を簡易に構成することができる。
これにより、表示装置10は、生成部14が第1画像情報に含まれる立体像情報からエッジ画像PEfの鮮鋭度を算出することなく、エッジ画像PEfの鮮鋭度を設定することができる。つまり、表示装置10は、生成部14を簡易に構成することができる。
なお、表示装置10において、生成部14は、図42に示すようにエッジの内側のみ鮮鋭度を低下させたエッジ画像PEg(左辺エッジ画像PE1g、右辺エッジ画像PE2g)を生成してもよい。
図42は、本実施形態の生成部が生成する鮮鋭度を低下させたエッジ画像の一例を示す模式図である。これにより、表示装置10は、第1の画像P11に含まれるエッジ部分Eの外縁部分の鮮鋭度を低下させずに、視点を広くした立体像を表示することができる。
この第1の画像P11に含まれるエッジ部分Eの外縁部分の鮮鋭度は、第1の画像P11を観察する観察者1が感じる第1の画像P11の解像感に影響する。
具体的には、エッジ部分Eの外縁部分の鮮鋭度が低い場合には、第1の画像P11を観察する観察者1が感じる第1の画像P11の解像感が低くなる。逆に、エッジ部分Eの外縁部分の鮮鋭度が高い場合には、第1の画像P11を観察する観察者1が感じる第1の画像P11の解像感が高くなる。
したがって、表示装置10は、第1の画像P11を観察する観察者1が感じる解像感を低下させずに、視点を広くした立体像を表示することができる。
図42は、本実施形態の生成部が生成する鮮鋭度を低下させたエッジ画像の一例を示す模式図である。これにより、表示装置10は、第1の画像P11に含まれるエッジ部分Eの外縁部分の鮮鋭度を低下させずに、視点を広くした立体像を表示することができる。
この第1の画像P11に含まれるエッジ部分Eの外縁部分の鮮鋭度は、第1の画像P11を観察する観察者1が感じる第1の画像P11の解像感に影響する。
具体的には、エッジ部分Eの外縁部分の鮮鋭度が低い場合には、第1の画像P11を観察する観察者1が感じる第1の画像P11の解像感が低くなる。逆に、エッジ部分Eの外縁部分の鮮鋭度が高い場合には、第1の画像P11を観察する観察者1が感じる第1の画像P11の解像感が高くなる。
したがって、表示装置10は、第1の画像P11を観察する観察者1が感じる解像感を低下させずに、視点を広くした立体像を表示することができる。
なお、表示装置10において、生成部14は、エッジの外側のみ鮮鋭度を低下させたエッジ画像PEを生成してもよい。これにより、表示装置10は、第1の画像P11を観察する観察者1が感じるエッジ部分を目立たないようにして、視点を広くした立体像を表示することができる。
また、これまで、四角形の左辺を示す左辺エッジ部分E1及び右辺を示す右辺エッジ部分E2をエッジ部分Eとして説明したが、これに限られない。表示装置10において、生成部14は、四角形の上下辺を示すエッジ部分Eに対応する位置に、鮮鋭度を低下させたエッジ画像PEを生成してもよい。
これにより、表示装置10は、第1の画像P11の左右方向のみならず、上下方向についても、視点を広くした立体像を表示することができる。
これにより、表示装置10は、第1の画像P11の左右方向のみならず、上下方向についても、視点を広くした立体像を表示することができる。
以上説明したように、本実施形態の表示装置10によれば、表示される立体像の奥行き位置や視点などの立体像の状態を可変にして表示することができる。
[第8の実施形態]
以下、図面を参照して、本発明の第8の実施形態を説明する。なお、上述した第7の実施形態と同様である構成については、同一の符号を付して説明を省略する。
本実施形態の表示装置10は、生成部14cを備えている。生成部14cは、奥行き情報に基づいた第2表示部12に表示されるエッジ画像PEhの表示位置によって、エッジ画像PEhを含む第2の画像P12hを生成する。以下、図43及び図44を参照して、第2の画像P12hによって、両眼視差が知覚され、立体像の奥行き位置が変化する仕組みについて説明する。
以下、図面を参照して、本発明の第8の実施形態を説明する。なお、上述した第7の実施形態と同様である構成については、同一の符号を付して説明を省略する。
本実施形態の表示装置10は、生成部14cを備えている。生成部14cは、奥行き情報に基づいた第2表示部12に表示されるエッジ画像PEhの表示位置によって、エッジ画像PEhを含む第2の画像P12hを生成する。以下、図43及び図44を参照して、第2の画像P12hによって、両眼視差が知覚され、立体像の奥行き位置が変化する仕組みについて説明する。
図43は、本発明の第8の実施形態に係る表示装置10によるエッジ画像PEhをエッジ部分Eの外側に移動させた場合の光学像IMhの一例を示す模式図である。図43に示すように、観察者の左眼Lにおいては、左眼Lに視認される第1の画像P11Lと、左眼Lに視認される第2の画像P12hLとが合成された光学像IMhLが結像する。
ここで、左眼Lにおいては、第1の画像P11によって示される四角形の左辺エッジ部分E1の(-X)側(つまり、四角形の外側)に、かつ左辺エッジ部分E1と離れた位置に、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1hとが合成された光学像IMhLが結像する。
また、左眼Lにおいては、第1の画像P11によって示される四角形の右辺エッジ部分E2の(-X)側(つまり、四角形の内側)に、右辺エッジ部分E2を示す画像と右辺エッジ画像PE2hとが合成された光学像IMhLが結像する。
同様に、観察者の右眼Rにおいても、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1hとが合成された光学像IMhR、及び右辺エッジ部分E2を示す画像と右辺エッジ画像PE2hとが合成された光学像IMhRが結像する。
ここで、左眼Lにおいては、第1の画像P11によって示される四角形の左辺エッジ部分E1の(-X)側(つまり、四角形の外側)に、かつ左辺エッジ部分E1と離れた位置に、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1hとが合成された光学像IMhLが結像する。
また、左眼Lにおいては、第1の画像P11によって示される四角形の右辺エッジ部分E2の(-X)側(つまり、四角形の内側)に、右辺エッジ部分E2を示す画像と右辺エッジ画像PE2hとが合成された光学像IMhLが結像する。
同様に、観察者の右眼Rにおいても、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1hとが合成された光学像IMhR、及び右辺エッジ部分E2を示す画像と右辺エッジ画像PE2hとが合成された光学像IMhRが結像する。
図43の場合において、左眼Lに視認されている光学像IMhLの明るさの分布を図44に示す。図44は、本実施形態におけるエッジを外側に移動させた場合の、光学像IMhの明るさの分布と左眼L及び右眼Rに生じる両眼視差との関係の一例を示すグラフである。
この図44において、X座標X0~X7は、光学像IMhの明るさの変化点に対応するX座標である。なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。また、光学像IMの明るさは、X座標X1~X2の輝度値を基準値(つまり、輝度値ゼロ)にして説明する。
図44に示すように、左眼Lに視認される光学像IMhLの明るさは、X座標X0~X1において、輝度値BR1である。また、光学像IMhLの明るさは、X座標X1~X2において、輝度値ゼロである。また、光学像IMhLの明るさは、X座標X2~X5において輝度値BR2である。
ここで、輝度値BR1から輝度値BR2に変化するまでのX座標X1~X2の距離は、人が見てもほとんど離れていると識別することができない距離となっており、輝度値BR1と輝度値BR2とは分離して識別することができない程度の距離としている。また、光学像IMhLの明るさは、X座標X5~X6において輝度値BR3である。
一方、右眼Rに視認される光学像IMhRの明るさは、X座標X1~X2において輝度値BR3であり、X座標X2~X5において輝度値BR2であり、X座標X5~X6においてゼロであり、X座標X6~X7において輝度値BR1である。
この図44において、X座標X0~X7は、光学像IMhの明るさの変化点に対応するX座標である。なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。また、光学像IMの明るさは、X座標X1~X2の輝度値を基準値(つまり、輝度値ゼロ)にして説明する。
図44に示すように、左眼Lに視認される光学像IMhLの明るさは、X座標X0~X1において、輝度値BR1である。また、光学像IMhLの明るさは、X座標X1~X2において、輝度値ゼロである。また、光学像IMhLの明るさは、X座標X2~X5において輝度値BR2である。
ここで、輝度値BR1から輝度値BR2に変化するまでのX座標X1~X2の距離は、人が見てもほとんど離れていると識別することができない距離となっており、輝度値BR1と輝度値BR2とは分離して識別することができない程度の距離としている。また、光学像IMhLの明るさは、X座標X5~X6において輝度値BR3である。
一方、右眼Rに視認される光学像IMhRの明るさは、X座標X1~X2において輝度値BR3であり、X座標X2~X5において輝度値BR2であり、X座標X5~X6においてゼロであり、X座標X6~X7において輝度値BR1である。
次に、観察者1の左眼L及び右眼Rによって、エッジ部分Eが視認される仕組みについて説明する。左眼Lの網膜上に結像された光学像IMhLによって、観察者1に認識される画像の明るさの分布は、図44の波形WLhのようになる。
したがって、観察者1は、左眼L側の波形WLhについて、図44に示すXELhの位置(つまり、X軸の原点Oから距離LELhの位置)を視認している四角形の左辺側のエッジ部分Eであると認識する。
同様にして、右眼Rの網膜上に結像された光学像IMhRによって、観察者1に認識される画像の明るさの分布は、図44の波形WRhのようになる。したがって、観察者1は、右眼R側の波形WRhについて、図44に示すXERhの位置(つまり、X軸の原点Oから距離LERhの位置)を視認している四角形の左辺側のエッジ部分Eであると認識する。
これにより、観察者1は、左眼Lが視認する四角形のエッジ部分Eの位置XELhと、右眼Rが視認する四角形のエッジ部分Eの位置XERhとを両眼視差として認識する。
そして、観察者1は、エッジ部分Eの両眼視差に基づいて四角形の画像を立体像として認識する。
したがって、観察者1は、左眼L側の波形WLhについて、図44に示すXELhの位置(つまり、X軸の原点Oから距離LELhの位置)を視認している四角形の左辺側のエッジ部分Eであると認識する。
同様にして、右眼Rの網膜上に結像された光学像IMhRによって、観察者1に認識される画像の明るさの分布は、図44の波形WRhのようになる。したがって、観察者1は、右眼R側の波形WRhについて、図44に示すXERhの位置(つまり、X軸の原点Oから距離LERhの位置)を視認している四角形の左辺側のエッジ部分Eであると認識する。
これにより、観察者1は、左眼Lが視認する四角形のエッジ部分Eの位置XELhと、右眼Rが視認する四角形のエッジ部分Eの位置XERhとを両眼視差として認識する。
そして、観察者1は、エッジ部分Eの両眼視差に基づいて四角形の画像を立体像として認識する。
ここで、第7の実施形態において説明した、左眼Lが視認する四角形のエッジ部分の位置XELに比して、エッジ部分の位置XELhは(-X)方向にずれている。つまり、生成部14cが生成した左辺エッジ画像PE1h及び右辺エッジ画像PE2hによれば、第7の実施形態におけるエッジ部分Eの両眼視差に比して、大きな両眼視差が生じる。
以上説明したように、表示装置10の生成部14cは、奥行き情報に基づいた第2表示部12に表示されるエッジ画像PEh(左辺エッジ画像PE1h及び右辺エッジ画像PE2h)の表示位置によって、エッジ画像PEhを生成する。つまり、生成部14cは、生成部14が生成するエッジ画像PEよりも大きな両眼視差を生じるエッジ画像PEhを生成する。
これにより、表示装置10は、エッジ画像PEを表示する場合に比して、観察者1によって観察される立体像の奥行き位置を拡大して表示することができる。
これにより、表示装置10は、エッジ画像PEを表示する場合に比して、観察者1によって観察される立体像の奥行き位置を拡大して表示することができる。
なお、図43及び図44を参照して、エッジ画像PEをエッジ部分Eの外側に移動させた場合の両眼視差によって、観察者1によって観察される立体像の奥行き位置を拡大して表示する場合について説明したが、表示装置10は、エッジ画像PEをエッジ部分Eの内側に表示して両眼視差を生じさせてもよい。
図45は、本実施形態におけるエッジ画像PEiをエッジ部分Eの内側に移動させた場合の光学像IMiの一例を示す模式図である。
図45に示すように、観察者の左眼Lにおいては、左眼Lに視認される第1の画像P11Lと、左眼Lに視認される第2の画像P12iLとが合成された光学像IMiLが結像する。
ここで、左眼Lにおいては、第1の画像P11によって示される四角形の左辺エッジ部分E1の(+X)側(つまり、四角形の内側)に、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1iとが合成された光学像IMiLが結像する。
また、左眼Lにおいては、第1の画像P11によって示される四角形の右辺エッジ部分E2の(-X)側(つまり、四角形の内側)に、右辺エッジ部分E2を示す画像と右辺エッジ画像PE2iとが合成された光学像IMiLが結像する。
同様に、観察者の右眼Rにおいても、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1iとが合成された光学像IMiR、及び右辺エッジ部分E2を示す画像と右辺エッジ画像PE2iとが合成された光学像IMiRが結像する。
図45は、本実施形態におけるエッジ画像PEiをエッジ部分Eの内側に移動させた場合の光学像IMiの一例を示す模式図である。
図45に示すように、観察者の左眼Lにおいては、左眼Lに視認される第1の画像P11Lと、左眼Lに視認される第2の画像P12iLとが合成された光学像IMiLが結像する。
ここで、左眼Lにおいては、第1の画像P11によって示される四角形の左辺エッジ部分E1の(+X)側(つまり、四角形の内側)に、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1iとが合成された光学像IMiLが結像する。
また、左眼Lにおいては、第1の画像P11によって示される四角形の右辺エッジ部分E2の(-X)側(つまり、四角形の内側)に、右辺エッジ部分E2を示す画像と右辺エッジ画像PE2iとが合成された光学像IMiLが結像する。
同様に、観察者の右眼Rにおいても、左辺エッジ部分E1を示す画像と左辺エッジ画像PE1iとが合成された光学像IMiR、及び右辺エッジ部分E2を示す画像と右辺エッジ画像PE2iとが合成された光学像IMiRが結像する。
図45の場合において、左眼Lに視認されている光学像IMiLの明るさの分布を図46に示す。図46は、本実施形態におけるエッジを内側に移動させた場合の、光学像IMiの明るさの分布と左眼L及び右眼Rに生じる両眼視差との関係の一例を示すグラフである。
この図46において、X座標X1~X6は、光学像IMiの明るさの変化点に対応するX座標である。なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。また、光学像IMの明るさは、X座標X1~X2の輝度値を基準値(つまり、輝度値ゼロ)にして説明する。
図46に示すように、左眼Lに視認される光学像IMiLの明るさは、X座標X1~X2において、輝度値ゼロである。また、光学像IMiLの明るさは、X座標X2~X3、及びX座標X4~X5において、輝度値BR3である。また、光学像IMiLの明るさは、X座標X3~X4、及びX座標X5~X6において輝度値BR2である。
一方、右眼Rに視認される光学像IMiRの明るさは、X座標X1~X2、及びX座標X3~X4において輝度値BR2であり、X座標X2~X3、及びX座標X4~X5において輝度値BR3であり、X座標X5~X6においてゼロである。
この図46において、X座標X1~X6は、光学像IMiの明るさの変化点に対応するX座標である。なお、ここでは、画像の明るさの一例として、輝度値BRの場合について説明する。また、光学像IMの明るさは、X座標X1~X2の輝度値を基準値(つまり、輝度値ゼロ)にして説明する。
図46に示すように、左眼Lに視認される光学像IMiLの明るさは、X座標X1~X2において、輝度値ゼロである。また、光学像IMiLの明るさは、X座標X2~X3、及びX座標X4~X5において、輝度値BR3である。また、光学像IMiLの明るさは、X座標X3~X4、及びX座標X5~X6において輝度値BR2である。
一方、右眼Rに視認される光学像IMiRの明るさは、X座標X1~X2、及びX座標X3~X4において輝度値BR2であり、X座標X2~X3、及びX座標X4~X5において輝度値BR3であり、X座標X5~X6においてゼロである。
左眼Lの網膜上に結像された光学像IMiLによって、観察者1に認識される画像の明るさの分布は、図44に示す場合と同様にして、図46の波形WLiのようになる。したがって、観察者1は、左眼L側の波形WLiについて、図46に示すXELiの位置(つまり、X軸の原点Oから距離LELiの位置)を視認している四角形の左辺側のエッジ部分Eであると認識する。
同様にして、右眼Rの網膜上に結像された光学像IMiRによって、観察者1に認識される画像の明るさの分布は、図46の波形WRiのようになる。したがって、観察者1は、右眼R側の波形WRiについて、図46に示すXERiの位置(つまり、X軸の原点Oから距離LERiの位置)を視認している四角形の左辺側のエッジ部分Eであると認識する。
これにより、観察者1は、左眼Lが視認する四角形のエッジ部分Eの位置XELiと、右眼Rが視認する四角形のエッジ部分Eの位置XERiとを両眼視差として認識する。そして、観察者1は、エッジ部分Eの両眼視差に基づいて四角形の画像を立体像として認識する。
同様にして、右眼Rの網膜上に結像された光学像IMiRによって、観察者1に認識される画像の明るさの分布は、図46の波形WRiのようになる。したがって、観察者1は、右眼R側の波形WRiについて、図46に示すXERiの位置(つまり、X軸の原点Oから距離LERiの位置)を視認している四角形の左辺側のエッジ部分Eであると認識する。
これにより、観察者1は、左眼Lが視認する四角形のエッジ部分Eの位置XELiと、右眼Rが視認する四角形のエッジ部分Eの位置XERiとを両眼視差として認識する。そして、観察者1は、エッジ部分Eの両眼視差に基づいて四角形の画像を立体像として認識する。
ここで、第7の実施形態において説明した、左眼Lが視認する四角形のエッジ部分の位置XELに比して、エッジ部分の位置XELiは(+X)方向にずれている。つまり、生成部14cが生成したエッジ画像PEiによれば、第7の実施形態におけるエッジ部分Eの両眼視差に比して、大きな両眼視差が生じる。
これにより、表示装置10は、図43及び図44を参照して説明した場合と同様に、エッジ画像PEを表示する場合に比して、観察者1によって観察される立体像の奥行き位置を拡大して表示することができる。
これにより、表示装置10は、図43及び図44を参照して説明した場合と同様に、エッジ画像PEを表示する場合に比して、観察者1によって観察される立体像の奥行き位置を拡大して表示することができる。
なお、表示装置10は、左辺エッジ画像PE1をエッジ部分Eの外側に、右辺エッジ画像PE2をエッジ部分Eの内側に移動させて表示してもよい。
また、表示装置10は、左辺エッジ画像PE1をエッジ部分Eの内側に、右辺エッジ画像PE2をエッジ部分Eの外側に移動させて表示してもよい。これにより表示装置10は、観察者1によって観察される立体像の奥行き位置を拡大して表示することができる。
また、表示装置10は、左辺エッジ画像PE1をエッジ部分Eの内側に、右辺エッジ画像PE2をエッジ部分Eの外側に移動させて表示してもよい。これにより表示装置10は、観察者1によって観察される立体像の奥行き位置を拡大して表示することができる。
[第9の実施形態]
以下、図面を参照して、本発明の第9の実施形態を説明する。なお、上述した各実施形態と同様である構成については、同一の符号を付して説明を省略する。
本実施形態の表示装置10は、生成部14dを備えている。生成部14dは、図47に示すような、第1の画像P11内のエッジ部分Eの形状が奥行き情報に基づいて変形されたエッジ部分Eの形状を示すエッジ画像PEeを生成する。図47は、本発明の第9の実施形態に係る表示装置10による第2の画像の一例を示す模式図である。
以下、図面を参照して、本発明の第9の実施形態を説明する。なお、上述した各実施形態と同様である構成については、同一の符号を付して説明を省略する。
本実施形態の表示装置10は、生成部14dを備えている。生成部14dは、図47に示すような、第1の画像P11内のエッジ部分Eの形状が奥行き情報に基づいて変形されたエッジ部分Eの形状を示すエッジ画像PEeを生成する。図47は、本発明の第9の実施形態に係る表示装置10による第2の画像の一例を示す模式図である。
生成部14dは、奥行き情報に基づいて、第1の画像P11としての、図2Aに示す四角形の左辺エッジ部分E1に対して、図47に示す左辺エッジ部分E1を示す左辺エッジ画像PE1eを生成する。
同様に、生成部14dは、奥行き情報に基づいて、第1の画像P11としての、図2Aに示す四角形の右辺エッジ部分E2に対して、図47に示す右辺エッジ部分E2を示す右辺エッジ画像PE2eを生成する。
同様に、生成部14dは、奥行き情報に基づいて、第1の画像P11としての、図2Aに示す四角形の右辺エッジ部分E2に対して、図47に示す右辺エッジ部分E2を示す右辺エッジ画像PE2eを生成する。
以上説明したように、表示装置10の生成部14dは、第1の画像P11内のエッジ部分Eの形状が奥行き情報に基づいて変形されたエッジ部分Eの形状を示すエッジ画像PEを生成する。これにより、表示装置10は、第1の画像P11を傾斜させた形状の立体像を表示することができる。つまり、表示装置10は、表示することができる立体像の奥行き位置を可変にして表示することができる。
[第10の実施形態]
以下、図面を参照して、本発明の第10の実施形態を説明する。なお、上述した各実施形態と同様である構成については、同一の符号を付して説明を省略する。本実施形態の表示装置10は、第2表示部12eと、生成部14eとを備えている。
以下、図面を参照して、本発明の第10の実施形態を説明する。なお、上述した各実施形態と同様である構成については、同一の符号を付して説明を省略する。本実施形態の表示装置10は、第2表示部12eと、生成部14eとを備えている。
第2表示部12eは、方向設定部4121を備えており、図48に示すように、観察者1の左眼Lと右眼Rとに、それぞれ互いに異なる画像を表示可能である。図48は、本発明の第10の実施形態に係る表示装置を含む表示システムの構成の一例を示す構成図である。
方向設定部4121は、例えば、レンチキュラーレンズを有しており、第2表示面120に表示される第2の画像P12から発せられる第2光束R12の出射方向を設定する。
なお、方向設定部4121は、例えば、スリットアレイシートを用いるパララックス方式などの多視点が設定できる方式であってもよい。また、この出射方向は予め設定されていてもよく、観察者1の位置に応じて設定されてもよい。
このようにして、方向設定部4121は、第2光束R12のうちの左眼光束R12Lが視点にいる観察者1の左眼Lの方向に、右眼光束R12Rが右眼Rの方向にそれぞれ出射されるように出射方向を設定する。
なお、方向設定部4121は、例えば、スリットアレイシートを用いるパララックス方式などの多視点が設定できる方式であってもよい。また、この出射方向は予め設定されていてもよく、観察者1の位置に応じて設定されてもよい。
このようにして、方向設定部4121は、第2光束R12のうちの左眼光束R12Lが視点にいる観察者1の左眼Lの方向に、右眼光束R12Rが右眼Rの方向にそれぞれ出射されるように出射方向を設定する。
生成部14eは、画像情報供給装置2から供給される第1画像情報に基づいて、第2画像情報を生成する。具体的には、生成部14eは、第1の画像P11を表示するための画像情報として画像情報供給装置2から供給されている第1画像情報を取得する。この第1画像情報には、第1の画像P11内の画像の動きを示す動き情報が、立体像の状態を示す立体像情報として含まれている。
そして、生成部14eは、取得した第1画像情報に対してラプラシアンフィルタなどの既知のエッジ抽出フィルタを適用して、第1画像情報に含まれる第1の画像P11内の各画素のうちの、エッジ部分Eを示す画素の位置を取得する。
そして、生成部14eは、取得したエッジ部分Eを示す画素の位置に基づいて、エッジ部分Eを示す左眼エッジ画像PEeL及び右眼エッジ画像PEeRを生成する。
そして、生成部14eは、取得した第1画像情報に対してラプラシアンフィルタなどの既知のエッジ抽出フィルタを適用して、第1画像情報に含まれる第1の画像P11内の各画素のうちの、エッジ部分Eを示す画素の位置を取得する。
そして、生成部14eは、取得したエッジ部分Eを示す画素の位置に基づいて、エッジ部分Eを示す左眼エッジ画像PEeL及び右眼エッジ画像PEeRを生成する。
ここで、生成部14eは、第1画像情報に含まれている第1の画像P11内の画像の動きを示す動き情報に基づいて、左眼エッジ画像PEeL及び右眼エッジ画像PEeRを生成する。この第1の画像P11内の画像の動きを示す動き情報は、図49に示すように第1の画像P11内の各画素における動きベクトルの方向及び大きさを示す情報である。
図49は、動き情報を含む第1画像情報が示す第1の画像P11の一例を示す模式図である。ここでは、図49に示すように、第1の画像P11内の画素Pmにおける動きベクトルが動きベクトルMVであるとして説明する。
図49は、動き情報を含む第1画像情報が示す第1の画像P11の一例を示す模式図である。ここでは、図49に示すように、第1の画像P11内の画素Pmにおける動きベクトルが動きベクトルMVであるとして説明する。
具体的には、生成部14eは、取得した第1画像情報に含まれている第1の画像P11内の画像の動きを示す動き情報から、エッジ部分Eを示す画素Pmにおける動きベクトルMVの方向及び大きさを取得する。
そして、生成部14eは、第1の画像P11内のエッジ部分に対して、左眼エッジ画像PEeL及び右眼エッジ画像PEeRが、取得した画素Pmにおける動きベクトルMVの方向に、動きベクトルMVの大きさに比例する量だけずれるように、左眼エッジ画像PEeL及び右眼エッジ画像PEeRを生成する。
そして、生成部14eは、第1の画像P11内のエッジ部分に対して、左眼エッジ画像PEeL及び右眼エッジ画像PEeRが、取得した画素Pmにおける動きベクトルMVの方向に、動きベクトルMVの大きさに比例する量だけずれるように、左眼エッジ画像PEeL及び右眼エッジ画像PEeRを生成する。
第2表示部12eは、このようにして生成された左眼エッジ画像PEeLを観察者1の左眼Lに表示するとともに、右眼エッジ画像PEeRを観察者1の右眼Rに表示する。
すなわち、第2表示部12eは、観察者1の左眼Lには右眼エッジ画像PEeRが観察できないようにして、右眼Rには左眼エッジ画像PEeLが観察できないようにして、左眼エッジ画像PEeLと右眼エッジ画像PEeRとを表示する。
すなわち、第2表示部12eは、観察者1の左眼Lには右眼エッジ画像PEeRが観察できないようにして、右眼Rには左眼エッジ画像PEeLが観察できないようにして、左眼エッジ画像PEeLと右眼エッジ画像PEeRとを表示する。
以上説明したように、表示装置10において、立体像情報には、第1の画像P11内の画像の動きを示す動き情報が含まれており、第2の画像P12には、互いに両眼視差を有する左眼第2画像P12L(左眼画像)と右眼第2画像P12R(右眼画像)とが含まれている。
また、表示装置10の第2表示部12eは、第2表示部12eを観察する観察者の左眼Lに、左眼第2画像P12Lが視認されるように、かつ観察者の右眼Rに右眼第2画像P12Rが視認されるように第2の画像P12を表示する。
また、表示装置10の生成部14eは、動き情報に基づいた左眼第2画像P12L内のエッジ画像PEの表示位置と動き情報に基づいた右眼第2画像P12R内のエッジ画像PEの表示位置とによって、エッジ画像PEを生成する。
これにより、表示装置10は、観察者1の左眼Lには右眼エッジ画像PEeRが観察できないようにして、右眼Rには左眼エッジ画像PEeLが観察できないようにして、左眼エッジ画像PEeLと右眼エッジ画像PEeRとを表示することができる。
したがって、表示装置10は、第1の画像P11内のエッジ部分Eに対してずらして表示するエッジ画像PEが、観察者1に両眼視差として認識されることを防止することができる。
つまり、表示装置10は、第1の画像P11内のエッジ部分Eに対してエッジ画像PEをずらして表示することができる。また、表示装置10は、第1の画像P11内のエッジ部分Eに対してエッジ画像PEをずらす方向と大きさとを、第1の画像P11内の各画素における動きベクトルの方向及び大きさに応じて設定することができる。
したがって、表示装置10は、第1の画像P11と第2の画像P12eとによって表示される立体像を、観察者1が感じる速度感を高めて表示することができる。つまり、表示装置10は、観察者1が表示される立体像から感じる速度感を可変にして立体像を表示することができる。
また、表示装置10の第2表示部12eは、第2表示部12eを観察する観察者の左眼Lに、左眼第2画像P12Lが視認されるように、かつ観察者の右眼Rに右眼第2画像P12Rが視認されるように第2の画像P12を表示する。
また、表示装置10の生成部14eは、動き情報に基づいた左眼第2画像P12L内のエッジ画像PEの表示位置と動き情報に基づいた右眼第2画像P12R内のエッジ画像PEの表示位置とによって、エッジ画像PEを生成する。
これにより、表示装置10は、観察者1の左眼Lには右眼エッジ画像PEeRが観察できないようにして、右眼Rには左眼エッジ画像PEeLが観察できないようにして、左眼エッジ画像PEeLと右眼エッジ画像PEeRとを表示することができる。
したがって、表示装置10は、第1の画像P11内のエッジ部分Eに対してずらして表示するエッジ画像PEが、観察者1に両眼視差として認識されることを防止することができる。
つまり、表示装置10は、第1の画像P11内のエッジ部分Eに対してエッジ画像PEをずらして表示することができる。また、表示装置10は、第1の画像P11内のエッジ部分Eに対してエッジ画像PEをずらす方向と大きさとを、第1の画像P11内の各画素における動きベクトルの方向及び大きさに応じて設定することができる。
したがって、表示装置10は、第1の画像P11と第2の画像P12eとによって表示される立体像を、観察者1が感じる速度感を高めて表示することができる。つまり、表示装置10は、観察者1が表示される立体像から感じる速度感を可変にして立体像を表示することができる。
なお、表示装置10の生成部14eは、動き情報に基づいた左眼第2画像P12L内のエッジ画像PEの鮮鋭度と、動き情報に基づいた右眼第2画像P12R内のエッジ画像PEの鮮鋭度とによって、エッジ画像PEを生成してもよい。
この場合、表示装置10は、第1の画像P11内のエッジ部分Eに対してエッジ画像PEの鮮鋭度を変化させる方向と大きさとを、第1の画像P11内の各画素における動きベクトルの方向及び大きさに応じて設定してもよい。
このようにすることで、表示装置10は、第1の画像P11と第2の画像P12eとによって表示される立体像を、観察者1が感じる速度感を高めて表示することができる。つまり、表示装置10は、観察者1が表示される立体像から感じる速度感を可変にして立体像を表示することができる。
また、表示装置10は、左眼第2画像P12L内のエッジ画像PEの鮮鋭度と右眼第2画像P12R内のエッジ画像PEの鮮鋭度とを異なる鮮鋭度にしてエッジ画像PEを生成してもよい。
この場合、表示装置10は、左眼第2画像P12L内のエッジ画像PEの鮮鋭度を高く設定(例えば、ぼけのないシャープな画像に設定)するとともに、右眼第2画像P12R内のエッジ画像PEの鮮鋭度を低く設定(例えば、最小限のぼけを含む画像に設定)して、エッジ画像PEを生成してもよい。
これにより、表示装置10は、左眼第2画像P12L内のエッジ画像PE及び右眼第2画像P12R内のエッジ画像PEのいずれの鮮鋭度も低下させる場合に比して、観察者1が感じる解像感(つまり、観察者1が感じる画像のぼかし表現の精度)を低下させないようにしつつ、観察者1が表示される立体像から感じる速度感を可変にして立体像を表示することができる。
この場合、表示装置10は、第1の画像P11内のエッジ部分Eに対してエッジ画像PEの鮮鋭度を変化させる方向と大きさとを、第1の画像P11内の各画素における動きベクトルの方向及び大きさに応じて設定してもよい。
このようにすることで、表示装置10は、第1の画像P11と第2の画像P12eとによって表示される立体像を、観察者1が感じる速度感を高めて表示することができる。つまり、表示装置10は、観察者1が表示される立体像から感じる速度感を可変にして立体像を表示することができる。
また、表示装置10は、左眼第2画像P12L内のエッジ画像PEの鮮鋭度と右眼第2画像P12R内のエッジ画像PEの鮮鋭度とを異なる鮮鋭度にしてエッジ画像PEを生成してもよい。
この場合、表示装置10は、左眼第2画像P12L内のエッジ画像PEの鮮鋭度を高く設定(例えば、ぼけのないシャープな画像に設定)するとともに、右眼第2画像P12R内のエッジ画像PEの鮮鋭度を低く設定(例えば、最小限のぼけを含む画像に設定)して、エッジ画像PEを生成してもよい。
これにより、表示装置10は、左眼第2画像P12L内のエッジ画像PE及び右眼第2画像P12R内のエッジ画像PEのいずれの鮮鋭度も低下させる場合に比して、観察者1が感じる解像感(つまり、観察者1が感じる画像のぼかし表現の精度)を低下させないようにしつつ、観察者1が表示される立体像から感じる速度感を可変にして立体像を表示することができる。
なお、生成部14(生成部14c、14d、14eを含む。以下の説明において同じ)は、第2表示部12(第2表示部12eを含む。以下の説明において同じ。)又は画像情報供給装置2に備えられていてもよい。この場合、表示装置10は、生成部14を独立して備えなくてもよいため、表示装置10の構成を簡略化することができる。
以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
なお、上記の実施形態における第1表示部11、第2表示部12、設定部13、輪郭補正部213、及び生成部14(以下、これらを総称して制御部CONTと記載する)又はこの制御部CONTが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
なお、この制御部CONTが備える各部は、メモリおよびCPU(中央演算装置)により構成され、制御部CONTが備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
また、制御部CONTが備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部CONTが備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。
また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。
また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1…観察者、2…画像情報供給装置(表示制御装置)、10…表示装置、11…第1表示部、11a…第1表示部(透過型表示部)、12…第2表示部、12a…第2表示部(透過型表示部)、13…設定部、110…第1表示面、120…第2表示面、213…輪郭補正部、14生成部。
Claims (45)
- 第1の画像を表示する第1表示部と、
前記第1の画像が表示される奥行き位置とは異なる奥行き位置に、前記第1の画像内のエッジ部分を示すエッジ画像を含む第2の画像を表示する第2表示部と、
を備えることを特徴とする表示装置。 - 前記第1表示部によって表示されている前記第1の画像内のエッジ部分と、前記エッジ画像とが、対応して視認されるように前記第1の画像および前記第2の画像が表示される
ことを特徴とする請求項1に記載の表示装置。 - 前記第1表示部および前記第2表示部のうちの少なくとも1つは、
他方の表示部に表示される画像に応じた光を透過可能な透過型表示部である
ことを特徴とする請求項1または請求項2に記載の表示装置。 - 前記第2表示部は、
立体像の奥行き位置を示す位置情報に基づいて、前記エッジ画像を表示する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の表示装置。 - 前記第2表示部は、
前記位置情報に応じた明るさに設定されている前記エッジ画像を表示する
ことを特徴とする請求項4に記載の表示装置。 - 前記第2表示部は、
前記エッジ画像の画素ごとに前記位置情報に応じた明るさに設定されている前記エッジ画像を表示する
ことを特徴とする請求項5に記載の表示装置。 - 前記第1の画像が視認されている方向が検出された検出結果に基づいて、前記第1の画像と前記エッジ画像とが対応して表示されるように、前記第1表示部および前記第2表示部の表示状態を設定する設定部を備える
ことを特徴とする請求項1から請求項6のいずれか一項に記載の表示装置。 - 前記表示状態を設定することには、前記第1の画像と前記エッジ画像との間の相対位置を設定することが含まれ、
前記設定部は、
前記検出結果に基づいて、前記第1の画像と前記エッジ画像とが対応して視認されるように、前記相対位置を設定する
ことを特徴とする請求項7に記載の表示装置。 - 前記表示状態を設定することには、前記エッジ画像の画像変換の方法を設定することが含まれ、
前記設定部は、
前記検出結果に基づいて、前記第1の画像と前記エッジ画像とが対応して視認されるように、前記エッジ画像の前記画像変換の方法を設定する
ことを特徴とする請求項7または請求項8に記載の表示装置。 - 前記第1表示部は、
立体視が可能となるように前記第1の画像を表示する
ことを特徴とする請求項1から請求項9のいずれか一項に記載の表示装置。 - 前記第2表示部は、
立体視が可能となるように前記第2の画像を表示する
ことを特徴とする請求項1から請求項10のいずれか一項に記載の表示装置。 - 前記第1表示部は、
前記第2表示部によって表示される前記第2の画像の明るさに基づいて、前記第1の画像の明るさを設定する
ことを特徴とする請求項1から請求項11のいずれか一項に記載の表示装置。 - 前記第1の画像および前記第2の画像のうち少なくとも一方の画像は、虚像であり、
前記第1表示部および前記第2表示部のうち少なくとも一方は、虚像を表示する虚像表示部である
ことを特徴とする請求項1から請求項12のいずれか一項に記載の表示装置。 - 第1表示部によって表示されている第1の画像内のエッジ部分と、前記第1の画像が表示される奥行き位置とは異なる奥行き位置に第2表示部が表示する第2の画像に含まれる前記第1の画像内のエッジ部分を示すエッジ画像とが、対応して視認されるように前記第1表示部および前記第2表示部のうち少なくとも一方に画像を表示させる表示制御部
を備えることを特徴とする表示制御装置。 - コンピュータに、
第1表示部によって表示されている第1の画像内のエッジ部分と、前記第1の画像が表示される奥行き位置とは異なる奥行き位置に第2表示部が表示する第2の画像に含まれる前記第1の画像内のエッジ部分を示すエッジ画像とが、対応して視認されるように前記第1表示部および前記第2表示部のうち少なくとも一方に画像を表示させる表示制御ステップ
を実行させるための表示制御プログラム。 - 第1表示面及び第2表示面がそれぞれ表示する画像情報の両眼視差により立体表示される表示対象の奥行き位置に基づいて、前記第1表示面が有する2次元に配列された複数の画素のうち、前記表示対象の輪郭部を表示する輪郭画素の画素値を補正する輪郭補正部
を備えることを特徴とする表示装置。 - 前記画素値とは、前記画素の輝度値であって、
前記輪郭補正部は、
立体表示される前記表示対象の奥行き位置に基づいて、前記輪郭画素の輝度値を補正する
ことを特徴とする請求項16に記載の表示装置。 - 前記輪郭補正部は、
立体表示される前記表示対象の各部の奥行き位置に基づいて、前記表示対象の各部に対応する前記輪郭画素の画素毎に前記画素値を補正する
ことを特徴とする請求項16または請求項17に記載の表示装置。 - 前記輪郭補正部は、
前記輪郭画素の明るさと、前記第1表示面が有する各画素のうち前記輪郭画素以外の非輪郭画素の明るさとに基づいて、前記輪郭画素の画素値を補正する
ことを特徴とする請求項16から請求項18のいずれか一項に記載の表示装置。 - 前記輪郭補正部は、
前記輪郭画素の明るさを、前記第1表示面が有する各画素のうち前記輪郭画素以外の非輪郭画素の明るさよりも暗くして、前記輪郭画素の画素値を補正する
ことを特徴とする請求項19に記載の表示装置。 - 前記輪郭補正部は、
前記輪郭画素の明るさを、前記第1表示面が有する各画素のうち前記輪郭画素以外の非輪郭画素の明るさよりも明るくして、前記輪郭画素の画素値を補正する
ことを特徴とする請求項19に記載の表示装置。 - 前記輪郭補正部は、
立体表示される前記表示対象の奥行き位置に基づいて、前記第1表示面が有する各画素のうち前記表示対象の輪郭部に対応する輪郭画素の画素値を補正するとともに、前記第2表示面が有する各画素のうち前記表示対象の輪郭部に対応する輪郭画素の画素値を補正する
ことを特徴とする請求項16から請求項21のいずれか一項に記載の表示装置。 - 第1の画像情報を表示する第1表示部と、
第2の画像情報を表示する第2表示部と、
前記第1表示部が表示する前記第1の画像情報と、前記第2表示部が表示する前記第2の画像情報との両眼視差により立体表示される前記表示対象の奥行き位置に基づいて、前記第1表示部が有する2次元に配列された複数の画素のうち、前記表示対象の輪郭部を表示する輪郭画素の画素値を補正する輪郭補正部と
を備えることを特徴とする表示装置。 - コンピュータに、
第1表示面及び第2表示面に表示される表示対象が、両眼視差により立体表示される前記表示対象の奥行き位置に基づいて、前記第1表示面が有する2次元に配列された複数の画素のうち、前記表示対象の輪郭部を表示する輪郭画素の画素値を補正する輪郭補正手順
を実行させるためのプログラム。 - コンピュータに、
表示対象を示す第1の画像情報を表示する第1表示手順と、
前記表示対象を示す第2の画像情報を表示する第2表示手順と、
前記第1表示手順によって表示される前記第1の画像情報、および前記第2表示手順によって表示される前記第2の画像情報が示す前記表示対象が、両眼視差により立体表示される前記表示対象の奥行き位置に基づいて、前記第1の画像情報を構成する2次元に配列された複数の画素のうち、前記表示対象の輪郭部を表示する輪郭画素の画素値を補正する輪郭補正手順と
を実行させるためのプログラム。 - 第1の画像を表示する第1表示部と、
前記第1の画像が表示される奥行き位置とは異なる奥行き位置に、前記第1の画像と対応する第2の画像を表示する第2表示部と、
を備え、
前記第1表示部または前記第2表示部のうちのいずれか一方は、多視点画像を表示可能である
ことを特徴とする表示装置。 - 前記第1表示部によって表示されている前記第1の画像内のエッジ部分と、前記第1の画像内のエッジ部分を示すエッジ画像とが、対応して視認されるように前記第1の画像および前記第2の画像が表示される
ことを特徴とする請求項26に記載の表示装置。 - 前記第2表示部は、
多視点画像を表示可能である
ことを特徴とする請求項26または請求項27に記載の表示装置。 - 前記第1表示部は、
前記第2表示部に表示される画像に応じた光を透過可能な透過型表示部である
ことを特徴とする請求項26から請求項28のいずれか一項に記載の表示装置。 - 前記第2表示部は、
立体像の奥行き位置を示す位置情報に基づいて、前記第2の画像を表示する
ことを特徴とする請求項26から請求項29のいずれか一項に記載の表示装置。 - 前記第2表示部は、
前記位置情報に応じた明るさに設定されている前記第2の画像を表示する
ことを特徴とする請求項30に記載の表示装置。 - 前記第1の画像が視認されている方向が検出された検出結果に基づいて、前記第1の画像と前記第2の画像とが対応して表示されるように、前記第1表示部および前記第2表示部の表示状態を設定する設定部を備える
ことを特徴とする請求項26から請求項31のいずれか一項に記載の表示装置。 - 前記表示状態を設定することには、前記第1の画像と前記第2の画像との間の相対位置を設定することが含まれ、
前記設定部は、
前記検出結果に基づいて、前記第1の画像と前記第2の画像とが対応して視認されるように、前記相対位置を設定する
ことを特徴とする請求項32に記載の表示装置。 - 前記表示状態を設定することには、前記第2の画像の画像変換の方法を設定することが含まれ、
前記設定部は、
前記検出結果に基づいて、前記第1の画像と前記第2の画像とが対応して視認されるように、前記第2の画像の前記画像変換の方法を設定する
ことを特徴とする請求項32または請求項33に記載の表示装置。 - 前記第1表示部は、
立体視が可能となるように前記第1の画像を表示する
ことを特徴とする請求項26から請求項34のいずれか一項に記載の表示装置。 - 前記第2表示部は、
立体視が可能となるように前記第2の画像を表示する
ことを特徴とする請求項26から請求項35のいずれか一項に記載の表示装置。 - 前記第1表示部は、
前記第2表示部によって表示される前記第2の画像の明るさに基づいて、前記第1の画像の明るさを設定する
ことを特徴とする請求項26から請求項36のいずれか一項に記載の表示装置。 - 第1画像を表示する第1表示部と、
前記第1画像が表示される奥行き位置とは異なる奥行き位置に、前記第1画像内のエッジ部分を示すエッジ画像を含む第2画像を表示する第2表示部と、
前記第1表示部が表示する前記第1画像と前記第2表示部が表示する前記第2画像とによって表示する立体像の状態を示す立体像情報に基づいて、前記第2表示部が表示する前記第2画像に含まれる前記エッジ画像を生成する生成部と、
を備えることを特徴とする表示装置。 - 前記立体像情報には、前記第1表示部と前記第2表示部とによって前記立体像が表示可能な視点の位置を示す情報が含まれ、
前記生成部は、
前記視点の位置を示す情報に基づいた前記エッジ画像の鮮鋭度によって、前記エッジ画像を生成する
ことを特徴とする請求項38に記載の表示装置。 - 前記立体像情報には、
表示される前記立体像のエッジ部分の鮮鋭度を示す情報が含まれ、
前記生成部は、
前記立体像のエッジ部分の鮮鋭度を示す情報に基づいた前記エッジ画像の鮮鋭度によって、前記エッジ画像を生成する
ことを特徴とする請求項38または請求項39に記載の表示装置。 - 前記立体像情報には、
前記立体像の奥行き位置を示す奥行き情報が含まれ、
前記生成部は、
前記奥行き情報に基づいて、前記エッジ画像を生成する
ことを特徴とする請求項38から請求項40のいずれか一項に記載の表示装置。 - 前記生成部は、
前記奥行き情報に基づいた前記エッジ画像の鮮鋭度によって、前記エッジ画像を生成する
ことを特徴とする請求項41に記載の表示装置。 - 前記生成部は、
前記奥行き情報に基づいた前記第2表示部に表示される前記エッジ画像の表示位置によって、前記エッジ画像を生成する
ことを特徴とする請求項41または請求項42に記載の表示装置。 - 前記生成部は、
前記第1画像内のエッジ部分の形状が前記奥行き情報に基づいて変形されたエッジ部分の形状を示す前記エッジ画像を生成する
ことを特徴とする請求項41から請求項43のいずれか一項に記載の表示装置。 - 前記立体像情報には、
前記第1画像内の画像の動きを示す動き情報が含まれ、
前記第2画像には、
互いに両眼視差を有する左眼画像と右眼画像とが含まれ、
前記第2表示部は、
前記第2表示部を観察する観察者の左眼に前記左眼画像が視認されるように、かつ前記観察者の右眼に前記右眼画像が視認されるように前記第2画像を表示し、
前記生成部は、
前記動き情報に基づいた前記左眼画像内の前記エッジ画像の表示位置と前記動き情報に基づいた前記右眼画像内の前記エッジ画像の表示位置とによって、前記エッジ画像を生成する
ことを特徴とする請求項38から請求項44のいずれか一項に記載の表示装置。
Applications Claiming Priority (14)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011274326 | 2011-12-15 | ||
JP2011-274326 | 2011-12-15 | ||
JP2011-287349 | 2011-12-28 | ||
JP2011287349 | 2011-12-28 | ||
JP2012-030553 | 2012-02-15 | ||
JP2012030553A JP2013168781A (ja) | 2012-02-15 | 2012-02-15 | 表示装置 |
JP2012-223584 | 2012-10-05 | ||
JP2012223584 | 2012-10-05 | ||
JP2012-272936 | 2012-12-14 | ||
JP2012272935A JP2013153421A (ja) | 2011-12-28 | 2012-12-14 | 表示装置 |
JP2012-272934 | 2012-12-14 | ||
JP2012272934A JP2013145373A (ja) | 2011-12-15 | 2012-12-14 | 表示装置、表示制御装置、および表示制御プログラム |
JP2012-272935 | 2012-12-14 | ||
JP2012272936A JP2014090395A (ja) | 2012-10-05 | 2012-12-14 | 表示装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013089249A1 true WO2013089249A1 (ja) | 2013-06-20 |
Family
ID=48612688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2012/082567 WO2013089249A1 (ja) | 2011-12-15 | 2012-12-14 | 表示装置、表示制御装置、表示制御プログラム、およびプログラム |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2013089249A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2854403A1 (en) * | 2013-09-30 | 2015-04-01 | Samsung Electronics Co., Ltd | Image generating apparatus and display device for layered display scheme based on location of eye of user |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007288317A (ja) * | 2006-04-13 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | 3次元表示方法、3次元表示装置、およびプログラム |
JP2008042745A (ja) * | 2006-08-09 | 2008-02-21 | Nippon Telegr & Teleph Corp <Ntt> | 3次元表示方法 |
JP2010072632A (ja) * | 2008-09-19 | 2010-04-02 | Samsung Electronics Co Ltd | 2次元と3次元兼用映像表示装置および方法 |
JP2010128450A (ja) * | 2008-12-01 | 2010-06-10 | Nippon Telegr & Teleph Corp <Ntt> | 3次元表示物体、3次元画像作成装置、3次元画像作成方法およびプログラム |
JP2011053345A (ja) * | 2009-08-31 | 2011-03-17 | Daiichikosho Co Ltd | 歌詞文字の立体表示機能を有するカラオケシステム |
-
2012
- 2012-12-14 WO PCT/JP2012/082567 patent/WO2013089249A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007288317A (ja) * | 2006-04-13 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | 3次元表示方法、3次元表示装置、およびプログラム |
JP2008042745A (ja) * | 2006-08-09 | 2008-02-21 | Nippon Telegr & Teleph Corp <Ntt> | 3次元表示方法 |
JP2010072632A (ja) * | 2008-09-19 | 2010-04-02 | Samsung Electronics Co Ltd | 2次元と3次元兼用映像表示装置および方法 |
JP2010128450A (ja) * | 2008-12-01 | 2010-06-10 | Nippon Telegr & Teleph Corp <Ntt> | 3次元表示物体、3次元画像作成装置、3次元画像作成方法およびプログラム |
JP2011053345A (ja) * | 2009-08-31 | 2011-03-17 | Daiichikosho Co Ltd | 歌詞文字の立体表示機能を有するカラオケシステム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2854403A1 (en) * | 2013-09-30 | 2015-04-01 | Samsung Electronics Co., Ltd | Image generating apparatus and display device for layered display scheme based on location of eye of user |
CN104519333A (zh) * | 2013-09-30 | 2015-04-15 | 三星电子株式会社 | 基于眼睛位置的分层显示方案的图像产生设备和显示装置 |
US9948924B2 (en) | 2013-09-30 | 2018-04-17 | Samsung Electronics Co., Ltd. | Image generating apparatus and display device for layered display scheme based on location of eye of user |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8189035B2 (en) | Method and apparatus for rendering virtual see-through scenes on single or tiled displays | |
US8208011B2 (en) | Stereoscopic display apparatus | |
JP2009519625A (ja) | 画像信号の深度依存性フィルタリング | |
JP2011019202A (ja) | 映像信号処理装置および映像表示装置 | |
US8368696B2 (en) | Temporal parallax induced display | |
US10672311B2 (en) | Head tracking based depth fusion | |
JP2015506621A (ja) | 3dディスプレイ用ディスプレイプロセッサ | |
CN106797462B (zh) | 多视图图像显示设备及其控制方法 | |
JP2011164202A (ja) | 画像表示装置、画像表示システム及び画像表示方法 | |
US20170155895A1 (en) | Generation of drive values for a display | |
CN111869203B (zh) | 用于减少自动立体显示器上的莫尔图案的方法 | |
WO2013089249A1 (ja) | 表示装置、表示制御装置、表示制御プログラム、およびプログラム | |
JP2013168781A (ja) | 表示装置 | |
JP3499805B2 (ja) | 三次元表示方法 | |
US20220020132A1 (en) | Device and method for enhancing images | |
WO2014119555A1 (ja) | 画像処理装置、表示装置及びプログラム | |
JP2014150401A (ja) | 表示装置及びプログラム | |
CN102970498A (zh) | 菜单立体显示的显示方法及显示装置 | |
JP2013145373A (ja) | 表示装置、表示制御装置、および表示制御プログラム | |
JP2014150402A (ja) | 表示装置及びプログラム | |
JP2013153421A (ja) | 表示装置 | |
JP2014199289A (ja) | 表示装置及びプログラム | |
JP2009237310A (ja) | 疑似3次元表示方法および疑似3次元表示装置 | |
WO2013146385A1 (ja) | 表示装置及びプログラム | |
TWI502960B (zh) | 二維轉三維轉換裝置及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12857030 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 12857030 Country of ref document: EP Kind code of ref document: A1 |