JP5422684B2 - Stereoscopic image determining device, stereoscopic image determining method, and stereoscopic image display device - Google Patents
Stereoscopic image determining device, stereoscopic image determining method, and stereoscopic image display device Download PDFInfo
- Publication number
- JP5422684B2 JP5422684B2 JP2012027563A JP2012027563A JP5422684B2 JP 5422684 B2 JP5422684 B2 JP 5422684B2 JP 2012027563 A JP2012027563 A JP 2012027563A JP 2012027563 A JP2012027563 A JP 2012027563A JP 5422684 B2 JP5422684 B2 JP 5422684B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- weight
- image
- stereoscopic
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明の実施形態は、立体画像表示装置および方法に関する。 Embodiments described herein relate generally to a stereoscopic image display apparatus and method.
専用眼鏡を使用しない立体画像表示装置は、立体視が可能な範囲(以下「視域」という)が限定されているため、視聴者と立体画像表示装置の相対位置関係によっては、良好な立体視が困難な場合がある。さらに、視聴者が当初は視域内に収まっていたとしても、視聴者の移動によって視域を外れてしまう場合もある。従って、視聴者の位置に応じて、立体視が可能なように立体画像表示の態様を変化させることが好ましい。 Stereoscopic image display devices that do not use dedicated glasses have a limited range in which stereoscopic viewing is possible (hereinafter referred to as `` viewing zone ''), so depending on the relative positional relationship between the viewer and the stereoscopic image display device, good stereoscopic viewing is possible. May be difficult. Furthermore, even if the viewer is initially within the viewing zone, the viewer may move out of the viewing zone due to movement of the viewer. Therefore, it is preferable to change the mode of stereoscopic image display so that stereoscopic viewing is possible according to the position of the viewer.
さらに、複数人の視聴者が視聴しているなどの条件下であっても、これに応じて立体視が可能なように立体画像表示の態様を変化させることが好ましい。 Furthermore, it is preferable to change the mode of stereoscopic image display so that stereoscopic viewing is possible even under conditions such as viewing by a plurality of viewers.
実施形態によれば、多視点画像を表示する立体画像表示装置が提供される。該装置において、人物情報取得部は、立体映像を鑑賞する各人物の位置を含む人物情報を取得する。重み算出部は、前記人物情報と表示パラメーターに基づき、各人物に対して前記表示パラメーターに従った多視点画像を表示した場合に推定される立体視の良好度合いを表す重みを算出する。画像決定部は、前記重み算出部により算出された各人物の重みの総和が最大となる前記表示パラメーターを選択し、選択された表示パラメーターに従う多視点画像を出力する。画像表示部は、前記画像決定部から出力された多視点画像を表示する。 According to the embodiment, a stereoscopic image display device that displays a multi-viewpoint image is provided. In the apparatus, the person information acquisition unit acquires person information including the position of each person who appreciates the stereoscopic video. The weight calculation unit calculates a weight representing the degree of good stereoscopic vision estimated when a multi-viewpoint image according to the display parameter is displayed for each person based on the person information and the display parameter. The image determination unit selects the display parameter that maximizes the total sum of the weights of each person calculated by the weight calculation unit, and outputs a multi-viewpoint image according to the selected display parameter. The image display unit displays the multi-viewpoint image output from the image determination unit.
図1に示すように、本実施形態に係る立体画像表示装置10は、人物情報取得部101と、重み算出部102と、画像決定部103と、画像表示部104とを備え、視聴者の位置に応じて立体画像表示の態様を変化させることができ、例えば、複数の視聴者が同時に良好な立体映像を鑑賞可能にするものである。人物情報取得部101は、立体画像表示装置10が表示する立体映像を鑑賞する視聴者(以下「人物」という)の位置を検出する。本実施形態では、対象とする視聴者が複数の場合にも対応するものであって、各人物の位置を検出する。人物情報取得部101は、検出された各人物の位置を表す人物情報を出力する。例えば、人物の位置をカメラ等の検出部により検出し、その結果から視聴者iと立体画像表示装置10の相対位置座標(以下「位置座標(Xi,Yi))とを求めてもよい。重み算出部102は、人物情報取得部101により取得された各人物の位置を含む人物情報に基づき、各人物について、立体視の良好度合いを表す重みを算出する。画像決定部103は、重み算出部102により算出された各人物の重みの総和が最大となる表示パラメーターを選択し、選択された表示パラメーターに従う多視点画像を出力する。画像表示部104は、画像決定部103から出力された多視点画像を表示する。
As illustrated in FIG. 1, the stereoscopic
画像表示部104は、画像決定部103によって生成された多視点画像を表示するデバイスである。図2は、画像表示部104の構造の一例を概略的に示した斜視図である。ここでは、視点数n=18として説明する。図2に示されるように、画像表示部104は、表示素子アレイ114と、表示素子アレイ114の前面に配置された開口制御部115とを備える。表示素子アレイ114としては、例えばLCD(Liquid Crystal Display)を用いることができる。
The
開口制御部115は、透過する光線を制限して光線を所定方向に向けて出射させる光線制御素子である。開口制御部115としては、図2に示すように、レンチキュラーシートが用いられてもよい。レンチキュラーシートは、入射光線および射出光線を制御して光線を所定方向に向けるレンズセグメントのアレイ板である。開口制御部115として、光透過領域を適宜設けたスリットなどのアレイ板を用いることもできる。これら光透過領域およびレンズセグメントは、表示素子アレイ114からその前方に向けて発散される光線のうち特定の方向に向かう光線のみを選択的に出射する機能を有する。以下では、レンズセグメントおよび光透過領域をまとめて「光学的開口部」と称する。
The
開口制御部115として、例えば表示素子アレイ114における画面の垂直方向に母線を有するレンズのアレイ板であるレンチキュラーシートを用いる。レンズセグメントの各光学的開口部116、116、・・・が画素に対応して配置される。開口制御部115は、上述したレンチキュラーシートや光透過領域を集積したアレイ板に限らず、光透過領域の位置および形状を変えることができる光シャッタとしてLCDを利用することもできる。
As the
ここで、一般的なFPDでは、1つの画素はRGB各色のサブ画素から構成される。1つの表示画素が1つのサブ画素に対応するものとする。図2の例では、表示画素アレイ114には、画素が正方形になるように縦横比が3:1にされた表示画素(サブ画素140、141、 ・・・)がマトリクス状に配列される。各サブ画素は、それぞれ、R(赤)、G(緑)、B(青)のいずれかを担う。行方向については、各サブ画素を視差の数だけ行方向に並べた画素群に表示される画像、すなわち射出瞳(光学的開口部116)に対応したサブ画素単位で表示された視差画像の集合を要素画像と呼ぶ。なお、サブ画素は、R、G、Bに限定されるものではない。
Here, in a general FPD, one pixel is composed of RGB sub-pixels. One display pixel corresponds to one sub-pixel. In the example of FIG. 2, display pixels (
列方向については、図2の例では、列方向に並ぶ6つのサブ画素の組で要素画像が構成されている。すなわち、行方向に18画素、列方向に6画素で1つの要素画像141(図2内で枠を付して示す)を表示する。図2では、水平方向に18視差を与える立体表示が可能となり、さらに列方向を6画素にすることで、要素画像、すなわち立体表示用の画素が正方形になる。なお、1つの有効画素内の水平方向における画素の位置は、開口制御部115と対応し、射出される光線の角度と相関を持つ。光線方向を表すアドレスを視差アドレスと呼ぶ。視差アドレスは、1実効画素内の水平方向における画素の位置に対応する。視差アドレスは、画面の右方向に向けて大きくなる。
Regarding the column direction, in the example of FIG. 2, the element image is configured by a set of six sub-pixels arranged in the column direction. That is, one element image 141 (shown with a frame in FIG. 2) is displayed with 18 pixels in the row direction and 6 pixels in the column direction. In FIG. 2, stereoscopic display that gives 18 parallaxes in the horizontal direction is possible, and further, the element direction, that is, the stereoscopic display pixels, becomes square by setting the column direction to 6 pixels. Note that the pixel position in the horizontal direction within one effective pixel corresponds to the
開口制御部115における光学的開口部116、116、・・・は、要素画像の位置に対応して設けられる。図2の例では、光学的開口部116の幅(レンズピッチ)Psと1要素画像の幅とが一致させられている。
The
重み算出部102および画像決定部103の概略構成を図3に示す。重み算出部102は、人物情報取得部101により取得された各人物の位置を含む人物情報200および画像を決定するパラメーター群201を入力し、各人物について立体視の良好度合いを表す重みを算出し、各人物の重みおよび対応する表示パラメーター203を出力する算出部300を備える。
A schematic configuration of the
立体視の良好度合いを重みWとすると、この重みWは、立体画像表示装置10に表示する多視点画像(即ち、表示する画素の並びの組み合わせ)や、立体画像表示装置10のハードウェア設計に関係する表示パラメーター群201の表示パラメーターそれぞれについて人物情報200に基づいて算出され、その値が大きいほど、立体視は良好なものとなる。重みWは、少なくとも各人物の位置を反映しているが、どのように変化させるかは任意である。例えば、視聴者が選択可能な幾つかの視聴モードに対応するように重みWを変化させてもよい。なお、表示する画素の並びの組合せ等、表示パラメーターにより制御可能な対象については後に詳しく説明する。
Assuming that the degree of goodness of stereoscopic vision is weight W, this weight W is used for the multi-viewpoint image (that is, the combination of the arrangement of pixels to be displayed) displayed on the stereoscopic
本実施形態では、立体視可能な表示領域の面積、光線密度、予め指定された位置に応じた重み(「位置重み」という)を算出する。このため、何らかの手段により各人物の位置情報を取得できることが必要である。また、本実施形態では、位置重みに加え、各人物の属性に応じた重み(「属性重み」という)を算出する。重みWは、これら位置重みの値と属性重みの値とを合成することにより算出される。 In the present embodiment, the area of the display region that can be viewed stereoscopically, the light density, and a weight (referred to as “position weight”) corresponding to a predesignated position are calculated. For this reason, it is necessary that the position information of each person can be acquired by some means. In the present embodiment, in addition to the position weight, a weight corresponding to the attribute of each person (referred to as “attribute weight”) is calculated. The weight W is calculated by combining the position weight value and the attribute weight value.
画像決定部103は、各人物の重みおよび対応する表示パラメーター203を入力し、重み算出部102により算出された各人物の重みの総和が最大となる表示パラメーターを選択するパラメーター選択部301と、該パラメーター選択部301により選択された表示パラメーターに従う多視点画像を出力する画像出力部302とを備える。
The
以下、本実施形態に係る立体画像表示装置10のより具体的な構成例について説明する。
Hereinafter, a more specific configuration example of the stereoscopic
人物情報取得部101の構成を図4に示す。人物情報取得部101は、カメラ画像等204を入力して各人物の位置を検出し、各人物の位置および属性を表す人物情報200を出力する検出部303と、該検出部303からの出力に基づいて所定時間にわたり同一人物の位置の変化、すなわち各人物の移動を追跡する追跡部304とを備える。
The configuration of the person
位置検出に用いられる画像はカメラからの画像に限定されず、例えばレーダーから提供される信号を用いてもよい。また位置検出においては、顔、頭、人物全体、マーカーなど、人であると判定可能な任意の対象を検出してもよい。各人物の属性としては、各人物の名前、大人と子供の区別、視聴時間、リモコン保持者であるか否か等の情報が挙げられる。これらは何らかの手段によって検出され、あるいは視聴者等らが明示的に入力してもよい。 An image used for position detection is not limited to an image from a camera, and for example, a signal provided from a radar may be used. In position detection, any target that can be determined to be a person, such as a face, head, entire person, or marker, may be detected. The attributes of each person include information such as the name of each person, the distinction between adults and children, viewing time, and whether or not the person is a remote control holder. These may be detected by some means, or may be explicitly input by a viewer or the like.
なお、人物情報取得部101が出力する各人物の位置情報について、カメラ座標系における座標値を実空間座標系における座標値に変換する人物位置変換部305を備えてもよい。また、人物位置変換部305を人物情報取得部101に設ける代わりに、これを重み算出部102に設けても良い。
It should be noted that for the position information of each person output by the person
重み算出部102の構成を図5に示す。重み算出部102は、人物情報200と画像を決定するパラメーター群201とを入力し、各人物の重みおよび対応する表示パラメーター203を算出して出力する算出部300を備える。算出部300は、人物位置204および画像を決定するパラメーター群201に基づいて位置重みを算出する位置重み算出部306と、人物属性205から属性重みを算出する属性重み算出部307と、算出された位置重みと属性重みの和または積を計算する計算部308と、を備える。なお、いずれか一つの重みを用いる構成とする場合には、和または積の計算を省略することができる。
The configuration of the
位置重み算出部306は、立体視可能なディスプレイの領域205、光線密度206、予め指定された位置の重み207等に基づいて位置重みを算出する。各人物の位置(即ち立体画像表示装置10の表示画面との相対的位置)と多視点画像とによって立体視可能な領域205の面積が決定する。この面積が大きければ、位置重みの値も大きくなる。また、立体画像表示装置10の表示画面からの距離と視点数とによって光線密度206が決定する。この光線密度206が密であれば、位置重みは大きくなる。予め指定された位置の重み207については、定常的に視聴をする位置に他の位置よりも大きな重みを与える。位置重み算出部306は、立体視可能なディスプレイの領域205、光線密度206、予め指定された位置の重み207等についてそれぞれ算出された重みの値の和または積を算出して出力する。なお、いずれか一つの重みを用いる構成とする場合には、位置の重みの和または積の計算を省略することができる。また、これら以外にも見えに関する重みを表現できる項を追加してもかまわない。
The position
属性重み算出部307は、視聴時間または開始順序208、特定の人物209、リモコンの保持者210、人物間の位置関係211等の属性の値に基づいて属性重みを算出する。視聴時間または開始順序208については、長時間にわたり視聴している人物や、先に視聴を開始した人物が優先されるように重みの値を大きくする。同様に、特定の人物209や、リモコン保持者210が優先されるように重みの値を大きくする。人物間の位置関係211については、全員のなかで、ディスプレイの正面にいる人や近い人ほど重みの値を大きくする。属性重み算出部307は、視聴時間または開始順序208、特定の人物209、リモコンの保持者210、人物間の位置関係211等についてそれぞれ算出された重みの値の和または積を算出して出力する。なお、いずれか一つの重みを用いる構成とする場合には、和または積の計算は省略することができる。また、これら以外にも視聴者の属性に関する重みを表現できる項を追加してもかまわない。
The attribute
さらに、計算部308は、位置重み算出部306から出力された位置重みの値と、属性重み算出部307から出力された属性重みの値との和または積を計算する。
Further, the
なお、特定の人物209の情報のみに基づいてパラメーター選択を行う場合を除き、少なくとも位置重みの算出は必要である。また、画像を決定するパラメーター群201に含まれる複数の表示パラメーターのそれぞれについて各人物の重みを算出する。また、原則として全ての人物について重みを算出する(特定の人物209の情報のみに基づいてパラメーター選択を行う場合を除く)。
Except for the case where parameter selection is performed based only on information of a
ここで、図6を参照し、立体視可能な領域205の面積に基づく重みの算出について説明する。「見え」の図は幾何的に求めることができ、計算可能である。人物20と画像表示部104(ディスプレイ)の両端それぞれを結んだ線が視域設定距離で切り取る絵柄21は、ディスプレイの「見え」と一致する。この図6の例では、絵柄21における領域22は立体視可能領域であり、領域23は立体視不能領域である。絵柄21の全領域の面積に占める立体視可能な領域22の割合を重みとして算出することができる。例えば、立体視可能な領域22の割合が100%であれば、全てを立体視でき、最大値として例えば値「1」とする。
Here, the calculation of the weight based on the area of the stereoscopically
次に、光線密度206に基づく重みの算出について説明する。視差数をN、光線の広がりを2θ、ディスプレイ104から人物20までの距離をZ、人物20の眼間距離をdとするとき、
に従って光線密度206の重みを算出することができる。即ち、人物20の目の位置における、光線幅lenと眼間距離dの比率を光線密度206の重みとする。眼間距離dよりも光線幅lenが狭い場合には、光線密度206の重みの値を「1」にする。
Thus, the weight of the
図8に、重み算出部102により算出された重みの値を実空間座標に配置したマップMの例を示す。
FIG. 8 shows an example of a map M in which the weight values calculated by the
次に、画像決定部103の構成を図9に示す。画像決定部103には、重み算出部から出力された各人物の重みおよび対応する表示パラメーター203が入力される。各人物の重みおよび対応する表示パラメーター203としては、1出力または多出力としてもよい。例えば、1出力の場合、各人物の重みの総和の最大値、特定の人物の重みの最大値、各人物の重みの平均値または中央値のうちの最大値が用いられてもよい。また、属性重みによって視聴者の優先順位をつけておき、ある順位以上の各人物の重みの総和の最大値、重みの平均値または中央値のうちの最大値が用いられてもよい。多出力の場合、各人物の重みの値の最大値が用いられてもよい。
Next, the configuration of the
画像決定部103の判定部310は、上記のような重みの値が所定の基準値以上であるか否かを判定する。多出力の場合、全員(あるいはN人以上)の重みの値が所定の基準値以上であるか否かが判定される。また、属性重みによって視聴者の優先順位をつけておき、ある順位以上の各人物のみで判定を行ってもかまわない。いずれの場合においても、基準値以上の重みに対応する表示パラメーター213を選択する。画像切替えの際の視認性を向上するための処理として、過去の表示パラメーター214に基づき、このたび選択された表示パラメーターと、過去の表示パラメーター214をブレンドしてゆっくり変化させる、変化を知覚しにくいシーンチェンジまたは画像の動きの激しいときに画像切替えを行うなどのブレンド/選択部311を備えてもよい。同様に、画像切替えの際の視認性を向上するための処理として、過去画像216に基づき、ブレンド/選択部311から出力された表示パラメーターに従う多視点画像(立体画像)215と過去画像216をブレンドしてゆっくり変化させるなどのブレンド/選択部312をさらに設けてもよい。ブレンド処理においては、一次遅れなどを吸収できることが好ましい。
The
なお、選択された表示パラメーターに従う多視点画像(立体画像)は、後述するように、ディスプレイ104の位置や向き等を物理的に変化させることによっても実現可能である。
Note that a multi-viewpoint image (stereoscopic image) according to the selected display parameter can also be realized by physically changing the position or orientation of the
画像決定部103の判定部310において、重みの値が基準値を下回る場合には、適切でない立体視を防止するために、二次元画像、黒画像(非表示)、無彩色画像等212を表示する(2D表示)。2D表示とする基準としては、重みの総和が小さい、見えない人がいる、特定の人物の見えに依存させるなどが挙げられる。この場合に、立体視が可能な位置に人物を誘導し、あるいは立体視が可能であることの警告を発する情報表示部311をさらに備えてもよい。
In the
ここで、画像を決定するパラメーター群201について、各々の表示パラメーターによる制御の例について説明する。表示パラメーターとしては、視域に関して制御するものと、光線密度に関して制御するものとがある。視域に関して制御する表示パラメーターとしては、画像のシフト、画素並びのピッチ、レンズと画素の隙間(ギャップ)、ディスプレイの回転、変形、位置移動などが挙げられる。光線密度に関して制御する表示パラメーターとしては、レンズと画素の隙間(ギャップ)、視差数などが挙げられる。
Here, an example of control by each display parameter for the
図10および図11を参照して視域に関して制御する表示パラメーターについて説明する。表示画像を例えば右にシフトさせると、立体視が良好に行える場所、すなわち「視域」は、図10に示す視域Aから視域Bに変化する。これは、図11の(a)と(c)の比較から分かるように、光線Lが(c)の場合では左に寄ることにより、視域も左に寄って視域Bに変化することによる。 The display parameters controlled with respect to the viewing zone will be described with reference to FIGS. 10 and 11. For example, when the display image is shifted to the right, the place where the stereoscopic viewing can be favorably performed, that is, the “viewing zone” changes from the viewing zone A shown in FIG. As can be seen from the comparison between FIGS. 11A and 11C, when the light ray L is shifted to the left in the case of (c), the viewing zone is also shifted to the left and changed to the viewing zone B. .
画素22とレンズ/スリット(光学的開口部116)23との隙間を短くすると、図11の(a)と(b)の比較から分かるように、図10に示す視域Aから視域Cに変化する。この場合、視域が近くなるが光線密度は減ることになる。
When the gap between the
なお、図11に示すように、ディスプレイの画素22には視差画像が順番に並ぶ。視差画像は、視点のずれた画像のことであり、例えば同図に示すように人物20を複数のカメラ21のそれぞれによって撮影した画像に相当する。画素22(サブ画素140)からの光線はレンズ/スリット(光学的開口部116)23を経て出射する。視域の形状は、図11に示すθやηによって幾何的に求めることが可能である。
As shown in FIG. 11, parallax images are arranged in order on the
隣りの視域に関して図12を参照して説明する。主に視聴を行う視域Aの隣の視域Bは、(左端の画素,左端より1個右のレンズ)と、(右端より1個左の画素,右端のレンズ)の組合せによって形成される視域である。この視域Bをさらに左側や右側に移動することも可能である。 The adjacent viewing area will be described with reference to FIG. The viewing area B adjacent to the viewing area A that is mainly viewed is formed by a combination of (leftmost pixel, one lens to the right from the left end) and (one pixel to the left from the right end, the rightmost lens). The viewing zone. It is also possible to move the viewing zone B further to the left or right side.
図13を参照して、表示する画素の並び(表示ピッチ)による制御について説明する。画面の端(右端、左端)ほど、画素22とレンズ23の位置を相対的に多くずらすことにより視域を制御することができる。画素22とレンズ23の相対位置のずれ量を大きくすると、視域は、同図に示す視域Aから視域Bに変化する。逆に、画素22とレンズ23の相対位置のずれ量を小さくすると、視域は、同図に示す視域Aから視域Cに変化する。このように、視域の幅や近さを画素の並び(画素ピッチ)に関する表示パラメーターによって制御することが可能である。なお、もっとも視域の幅が広い場所を視域設定距離と呼ぶ。
With reference to FIG. 13, the control by the arrangement (display pitch) of the pixels to be displayed will be described. The viewing zone can be controlled by relatively shifting the positions of the
図14を参照して、画像表示部104の移動、回転、または変形による視域の制御について説明する。図14の(a)に示すように、画像表示部104を回転することにより、基本時の視域Aを視域Bに変化させることができる。同様に、画像表示部104を移動することにより、基本時の視域Aを視域Cに変化させることができ、画像表示部104を変形することにより、基本時の視域Aを視域Dに変化させることができる。表示パラメーターを変化させることにより、画像表示部104の移動、回転、または変形し、視域の制御を行うことができる。
With reference to FIG. 14, control of the viewing zone by movement, rotation, or deformation of the
光線密度に関して制御する表示パラメーターに関して、視差数が異なる場合の光線密度について図15を参照して説明する。 With respect to the display parameters controlled with respect to the light density, the light density when the number of parallaxes is different will be described with reference to FIG.
例えば図15の(a)に示す視差数が6の場合、同図から分かるように、相対的に人物30よりもディスプレイ104に近い人物31は、視差を与える光線の数が多くなり、立体視が良好なものとなる。また、図15の(b)に示す視差数が3の場合、(a)の場合よりも視差数が減って光線が疎になるので、等距離での立体視は困難になる。ディスプレイ104の各画素から出射する光線の光線密度は、レンズや隙間に応じて決まる角度θと、視差数と、人の位置とから算出することができる。
For example, when the number of parallaxes shown in FIG. 15 (a) is 6, as can be seen from FIG. Will be good. Further, when the number of parallaxes shown in FIG. 15B is 3, the number of parallaxes is reduced and light rays are sparser than in the case of FIG. 15A, so that stereoscopic viewing at an equal distance becomes difficult. The light density of the light emitted from each pixel of the
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
[付記]
(1) 立体映像を鑑賞する各人物の位置を含む人物情報を取得する人物情報取得部と、
前記人物情報と表示パラメーターに基づき、各人物に対して前記表示パラメーターに従った多視点画像を表示した場合に推定される立体視の良好度合いを表す重みを算出する重み算出部と、
前記重み算出部により算出された各人物の重みの総和が最大となる前記表示パラメーターを選択し、選択された表示パラメーターに従う多視点画像を出力する画像決定部と、
前記画像決定部から出力された多視点画像を表示する画像表示部と、
を具備する立体画像表示装置。
(2) 前記重み算出部は、各人物の位置において立体視可能な領域の面積に応じた重みを算出する(1)記載の装置。
(3) 前記重み算出部は、各人物の位置について前記画像表示部の各画素から出射する光線の光線密度に応じた重みを算出する(1)記載の装置。
(4) 前記重み算出部は、各人物の位置において立体視可能な領域の面積に応じた第1の重みと、各人物の位置における光線密度に応じた第2の重みとを算出し、前記第1の重みと前記第2の重みを用いた演算により各人物の重みを算出する(1)記載の装置。
(5) 前記重み算出部は、前記第1の重みと前記第2の重みの和または積によって前記各人物の重みを算出する(4)記載の装置。
(6) 前記人物情報取得部は、前記各人物を識別した識別情報をさらに取得し、
前記重み算出部は、前記各人物の位置および前記識別情報に応じた重みを算出する(2)〜(4)のいずれかに記載の装置。
(7) 前記画像決定部は、前記総和が基準以上でない場合、2D画像を出力する(2)〜(4)のいずれかに記載の装置。
(8) 前記表示パラメーターは、前記画像表示部に表示する前記多視点画像の画素の並びを変化させるパラメーターを含む(1)記載の装置。
(9) 立体映像を鑑賞する各人物の位置を含む人物情報を取得することと、
前記人物情報と表示パラメーターに基づき、各人物に対して前記表示パラメーターに従った多視点画像を表示した場合に推定される立体視の良好度合いを表す重みを算出することと、
各人物の前記重みの総和が最大となる前記表示パラメーターを選択し、選択された表示パラメーターに従う多視点画像を出力することと、
出力された前記多視点画像を表示することと、を含む立体画像表示方法。
Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
[Appendix]
(1) a person information acquisition unit for acquiring person information including the position of each person who appreciates a stereoscopic image;
Based on the person information and display parameters, a weight calculation unit that calculates weights representing the degree of stereoscopic vision estimated when displaying a multi-viewpoint image according to the display parameters for each person;
An image determination unit that selects the display parameter that maximizes the sum of the weights of each person calculated by the weight calculation unit, and outputs a multi-viewpoint image according to the selected display parameter;
An image display unit for displaying the multi-viewpoint image output from the image determination unit;
A stereoscopic image display device comprising:
(2) The device according to (1), wherein the weight calculation unit calculates a weight corresponding to an area of a stereoscopically viewable region at each person's position.
(3) The device according to (1), wherein the weight calculation unit calculates a weight corresponding to a light beam density of a light beam emitted from each pixel of the image display unit for each person position.
(4) The weight calculation unit calculates a first weight according to an area of a stereoscopically viewable region at each person's position and a second weight according to the light density at each person's position, The apparatus according to (1), wherein the weight of each person is calculated by a calculation using the first weight and the second weight.
(5) The device according to (4), wherein the weight calculation unit calculates the weight of each person based on a sum or product of the first weight and the second weight.
(6) The person information acquisition unit further acquires identification information identifying each person,
The apparatus according to any one of (2) to (4), wherein the weight calculation unit calculates a weight according to the position of each person and the identification information.
(7) The device according to any one of (2) to (4), wherein the image determination unit outputs a 2D image when the sum is not equal to or greater than a reference.
(8) The device according to (1), wherein the display parameter includes a parameter that changes an arrangement of pixels of the multi-viewpoint image displayed on the image display unit.
(9) acquiring person information including the position of each person who appreciates the stereoscopic image;
Based on the person information and display parameters, calculating a weight representing the degree of stereoscopic vision estimated when displaying a multi-viewpoint image according to the display parameters for each person;
Selecting the display parameter that maximizes the sum of the weights of each person, and outputting a multi-viewpoint image according to the selected display parameter;
Displaying the output multi-viewpoint image.
Claims (10)
前記人物情報に基づき、立体視が可能な視域が互いに異なる複数の多視点画像を各人物に対して表示した場合に推定される立体視の良好度合いを表す重みを算出する重み算出部と、
算出された各人物の重みに基づき、一の多視点画像を決定する画像決定部と、
を具備する立体画像決定装置。 And the person information acquisition unit that acquires personal information including the position of each person viewing the stereoscopic image image,
Based on the person information , a weight calculating unit that calculates a weight representing the degree of stereoscopic vision estimated when a plurality of multi-viewpoint images having different viewing zones that are stereoscopically displayed is displayed for each person ;
-Out based on the weight of each person issued calculated, and an image determination unit for determining a multi-viewpoint image one,
A stereoscopic image determination device comprising:
前記重み算出部は、前記各人物の位置および前記識別情報に応じた重みを算出する請求
項3〜5のいずれかに記載の装置。 The person information acquisition unit further acquires identification information identifying each person,
The apparatus according to claim 3, wherein the weight calculation unit calculates a weight according to the position of each person and the identification information.
前記人物情報に基づき、立体視が可能な視域が互いに異なる複数の多視点画像を各人物に対して表示した場合に推定される立体視の良好度合いを表す重みを算出し、
算出された各人物の重みに基づき、一の多視点画像を決定する、立体画像決定方法。 Acquires personal information including the position of each person viewing the stereoscopic image image,
Based on the person information , a weight representing a good degree of stereoscopic vision that is estimated when a plurality of multi-viewpoint images with different stereoscopic viewing ranges are displayed for each person is calculated,
Based on the weight of each person that is calculated to determine the multi-view images one stereoscopic image determination method.
前記人物情報に基づき、立体視が可能な視域が互いに異なる複数の多視点画像を各人物に対して表示した場合に推定される立体視の良好度合いを表す重みを算出する重み算出部と、
算出された各人物の重みに基づき、一の多視点画像を決定する画像決定部と、
決定された前記多視点画像を表示する画像表示部と、
を具備する立体画像表示装置。 A person information acquisition unit for acquiring person information including the position of each person who appreciates the stereoscopic image;
Based on the person information, a weight calculating unit that calculates a weight representing the degree of stereoscopic vision estimated when a plurality of multi-viewpoint images having different viewing zones that are stereoscopically displayed is displayed for each person;
An image determination unit that determines one multi-viewpoint image based on the calculated weight of each person;
An image display unit for displaying the determined multi-viewpoint image;
A stereoscopic image display device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012027563A JP5422684B2 (en) | 2012-02-10 | 2012-02-10 | Stereoscopic image determining device, stereoscopic image determining method, and stereoscopic image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012027563A JP5422684B2 (en) | 2012-02-10 | 2012-02-10 | Stereoscopic image determining device, stereoscopic image determining method, and stereoscopic image display device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011546354A Division JP4937424B1 (en) | 2010-11-22 | 2010-11-22 | Stereoscopic image display apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012157008A JP2012157008A (en) | 2012-08-16 |
JP5422684B2 true JP5422684B2 (en) | 2014-02-19 |
Family
ID=46838199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012027563A Expired - Fee Related JP5422684B2 (en) | 2012-02-10 | 2012-02-10 | Stereoscopic image determining device, stereoscopic image determining method, and stereoscopic image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5422684B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102415502B1 (en) | 2015-08-07 | 2022-07-01 | 삼성전자주식회사 | Method and apparatus of light filed rendering for plurality of user |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3443271B2 (en) * | 1997-03-24 | 2003-09-02 | 三洋電機株式会社 | 3D image display device |
JP2001145129A (en) * | 1999-11-17 | 2001-05-25 | Mixed Reality Systems Laboratory Inc | Stereoscopic image display device |
JP2002182154A (en) * | 2000-12-13 | 2002-06-26 | Mixed Reality Systems Laboratory Inc | Stereoscopic image display device |
JP4934974B2 (en) * | 2005-03-17 | 2012-05-23 | エプソンイメージングデバイス株式会社 | Image display device |
JP2008185629A (en) * | 2007-01-26 | 2008-08-14 | Seiko Epson Corp | Image display device |
US20090282429A1 (en) * | 2008-05-07 | 2009-11-12 | Sony Ericsson Mobile Communications Ab | Viewer tracking for displaying three dimensional views |
JP2012010085A (en) * | 2010-06-24 | 2012-01-12 | Sony Corp | Three-dimensional display device and control method of three-dimensional display device |
-
2012
- 2012-02-10 JP JP2012027563A patent/JP5422684B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012157008A (en) | 2012-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4937424B1 (en) | Stereoscopic image display apparatus and method | |
JP3966830B2 (en) | 3D display device | |
JP6278323B2 (en) | Manufacturing method of autostereoscopic display | |
US8531454B2 (en) | Display apparatus and stereoscopic image display method | |
JP5364666B2 (en) | Stereoscopic image display apparatus, method and program | |
KR101953112B1 (en) | Autostereoscopic display and method of displaying a 3d image | |
US20130114135A1 (en) | Method of displaying 3d image | |
WO2013073028A1 (en) | Image processing device, three-dimensional image display device, image processing method and image processing program | |
JP5050120B1 (en) | Stereoscopic image display device | |
JP2013527932A5 (en) | ||
JP2016140056A (en) | Stereoscopic display device and parallax image correction method | |
JP7335233B2 (en) | A system and method for displaying two-viewpoint autostereoscopic images on an N-viewpoint autostereoscopic display screen and a method for controlling the display on such a display screen | |
TWI500314B (en) | A portrait processing device, a three-dimensional portrait display device, and a portrait processing method | |
JP5422684B2 (en) | Stereoscopic image determining device, stereoscopic image determining method, and stereoscopic image display device | |
US20140362197A1 (en) | Image processing device, image processing method, and stereoscopic image display device | |
JP2013182209A (en) | Stereoscopic image display apparatus, stereoscopic image display method, and control device | |
JP2014135590A (en) | Image processing device, method, and program, and stereoscopic image display device | |
JP5343157B2 (en) | Stereoscopic image display device, display method, and test pattern | |
KR101288120B1 (en) | 3-dimensional display system for locating optimum viewing area to viewers | |
JPH10312162A (en) | Image display system and recording medium in which program for realizing the system is recorded and which is capable of being read by computer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A132 Effective date: 20130730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130930 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131125 |
|
LAPS | Cancellation because of no payment of annual fees |