JP2013066025A - Video display device and video display method - Google Patents

Video display device and video display method Download PDF

Info

Publication number
JP2013066025A
JP2013066025A JP2011203011A JP2011203011A JP2013066025A JP 2013066025 A JP2013066025 A JP 2013066025A JP 2011203011 A JP2011203011 A JP 2011203011A JP 2011203011 A JP2011203011 A JP 2011203011A JP 2013066025 A JP2013066025 A JP 2013066025A
Authority
JP
Japan
Prior art keywords
video
viewpoint
video signal
viewpoints
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011203011A
Other languages
Japanese (ja)
Other versions
JP5708395B2 (en
Inventor
Kunio Yamada
邦男 山田
Yasunari Suzuki
保成 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011203011A priority Critical patent/JP5708395B2/en
Publication of JP2013066025A publication Critical patent/JP2013066025A/en
Application granted granted Critical
Publication of JP5708395B2 publication Critical patent/JP5708395B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a video display device capable of displaying multi-viewpoint video having reduced breakdown.SOLUTION: A video display device includes: interpolation units 1-3 each for generating an interpolation video signal having a viewpoint positioned between a plurality of reference viewpoints; extrapolation units 4 and 5 each for generating an extrapolation video signal having a viewpoint positioned out of the reference viewpoints; pseudo virtual viewpoint video generation units 6 and 7, as an extrapolation unit, each for converting a video signal having one viewpoint generated based on the video signals having the reference viewpoints, to a stereoscopic video signal including left and right video signals in a pseudo manner, and setting one of the left and right video signals to an extrapolation video signal having a virtual viewpoint positioned out of the reference viewpoints; and projectors 11-19 each for projecting the video signal having each viewpoint.

Description

本発明は、複数視点の映像を提示して裸眼による立体視を実現する映像表示装置及び映像表示方法に関する。   The present invention relates to a video display device and a video display method for realizing stereoscopic viewing with the naked eye by presenting images from a plurality of viewpoints.

近年になって、立体映像(3D映像)が普及しつつある。3D映像を見るためには、液晶シャッタまたは偏光による専用の眼鏡を用いることが主となっている。これに対して、専用の眼鏡を用いることなく、裸眼にて立体視を実現する裸眼立体表示の開発も盛んに行われている。裸眼立体表示装置において、3D映像を知覚するためには一般的に視位置が限定される。   In recent years, stereoscopic video (3D video) has become widespread. In order to view 3D images, liquid crystal shutters or dedicated glasses using polarized light are mainly used. On the other hand, development of autostereoscopic display that realizes stereoscopic vision with the naked eye without using dedicated glasses has been actively conducted. In the autostereoscopic display device, the viewing position is generally limited in order to perceive a 3D image.

裸眼立体表示装置には複数の方式が存在しており、視位置が比較的限定されない方式として、特許文献1に記載されているように、視点の位置に応じて多数の映像を提示する多眼式と称されている方式がある。多眼式の裸眼立体表示装置においては、多数の視点から撮影された映像が必要となる。一般的に普及している3D映像は2視点のステレオコンテンツであり、2視点のステレオコンテンツをそのまま多眼式の裸眼立体表示装置で表示することはできない。そこで、2視点のステレオコンテンツを3視点以上の多視点の映像に変換することが必要となる。   There are a plurality of methods for the autostereoscopic display device, and as a method in which the viewing position is not relatively limited, as disclosed in Patent Document 1, a multi-view that presents a large number of images according to the position of the viewpoint There is a method called an expression. In a multi-eye type autostereoscopic display device, images taken from many viewpoints are required. The 3D video that is widely used is two-viewpoint stereo content, and the two-viewpoint stereo content cannot be directly displayed on a multi-view autostereoscopic display device. Therefore, it is necessary to convert the stereo contents of two viewpoints into a multi-view video having three or more viewpoints.

特開2010−81440号公報JP 2010-81440 A 特開平9−27969号公報JP 9-27969 A 特開2009−124308号公報JP 2009-124308 A 特開2005−151534号公報JP 2005-151534 A

2視点のステレオコンテンツを3視点以上の多視点の映像に変換するためには、特許文献2,3に記載されているように、ステレオコンテンツの左右の映像の間に、中間の視点の映像を生成して挿入し、特許文献3に記載されているように、ステレオコンテンツの左右の映像の外側に、左右の映像の外側の仮想的な視点の映像を生成して配置することが必要となる。ステレオコンテンツの左右の映像の間に補間映像を挿入することを内挿、左右の映像の外側に補間映像を配置することを外挿と称する。   In order to convert two viewpoints of stereo content into three or more viewpoints of multi-viewpoint images, as described in Patent Documents 2 and 3, an intermediate viewpoint image is inserted between the left and right images of stereo contents. As described in Patent Document 3, it is necessary to generate and place a virtual viewpoint video outside the left and right videos outside the left and right videos of the stereo content, as described in Patent Document 3. . Inserting the interpolated video between the left and right videos of the stereo content is called interpolation, and placing the interpolated video outside the left and right videos is called extrapolation.

ところが、ステレオコンテンツの左右の映像の外側の仮想的な視点の映像を高品質に生成することは難しい。特に、外側に向かえば向かうほど生成した外側の視点の映像は破綻しやすい。   However, it is difficult to generate a high-quality image of a virtual viewpoint outside the left and right images of stereo content. In particular, the video of the outside viewpoint that is generated tends to break down as it goes outward.

本発明はこのような問題点に鑑み、複数の視点の映像信号に基づいてさらに多い視点である多視点の映像信号を生成して表示する際に、破綻の少ない多視点の映像を表示することができる映像表示装置及び映像表示方法を提供することを目的とする。   In view of the above problems, the present invention displays a multi-view video with few failures when generating and displaying a multi-view video signal having a larger number of viewpoints based on video signals of a plurality of viewpoints. An object of the present invention is to provide a video display device and a video display method capable of performing the above.

本発明は、上述した従来の技術の課題を解決するため、複数の基準となる視点間に位置する視点の映像信号を生成する内挿部(1〜3)と、前記基準となる視点の外側に位置する視点の映像信号を生成する外挿部(4〜7,61,62,71,72)と、前記基準となる視点の映像信号と前記内挿部及び前記外挿部より出力された映像信号をそれぞれ投射する投射部(11〜19)とを備え、前記外挿部として、前記基準となる視点の映像信号の内の1つの視点の映像信号または前記基準となる視点の映像信号に基づいて生成された1つの視点の映像信号を擬似的に左右の映像信号よりなる立体映像信号に変換し、前記左右の映像信号の内の一方を前記基準となる視点の外側に位置する仮想的な視点の映像信号とする擬似的仮想視点映像生成部(6,7,61,62,71,72)を用いることを特徴とする映像表示装置を提供する。   In order to solve the above-described problems of the related art, the present invention provides an interpolation unit (1-3) for generating video signals of viewpoints positioned between a plurality of reference viewpoints, and an outside of the reference viewpoint. An extrapolation unit (4-7, 61, 62, 71, 72) for generating a video signal of the viewpoint located at the position, and the video signal of the reference viewpoint, which is output from the interpolation unit and the extrapolation unit Projection units (11 to 19) for projecting video signals, respectively, and as the extrapolation unit, one of the reference viewpoint video signals or the reference viewpoint video signal among the reference viewpoint video signals. A virtual signal that is generated based on one viewpoint is converted into a stereoscopic video signal composed of left and right video signals in a pseudo manner, and one of the left and right video signals is positioned outside the reference viewpoint. Pseudo virtual viewpoint video generation for a video signal of various viewpoints To provide a video display apparatus characterized by the use of (6,7,61,62,71,72).

上記の映像表示装置において、前記基準となる視点の外側に位置する複数の視点の内、前記基準となる視点に近い側に位置する視点の映像信号を、前記基準となる視点の映像信号の内の1つの視点の映像信号をシフトすることによって生成する第1の外挿部(4,5)と、前記基準となる視点の外側に位置する複数の視点の内、前記基準となる視点に遠い側に位置する視点の映像信号を、前記擬似的仮想視点映像生成部によって生成する第2の外挿部(6,7)とを含んで構成することができる。   In the video display device, a video signal of a viewpoint located on a side closer to the reference viewpoint among a plurality of viewpoints positioned outside the reference viewpoint is included in the video signal of the reference viewpoint. A first extrapolation unit (4, 5) generated by shifting the video signal of one viewpoint of the first viewpoint, and far from the reference viewpoint among a plurality of viewpoints located outside the reference viewpoint A video signal of a viewpoint located on the side can be configured to include a second extrapolation unit (6, 7) that is generated by the pseudo virtual viewpoint video generation unit.

上記の映像表示装置において、前記基準となる視点の外側に位置する複数の視点の全ての映像信号を、前記擬似的仮想視点映像生成部によって生成することができる。   In the video display device described above, all the video signals of a plurality of viewpoints positioned outside the reference viewpoint can be generated by the pseudo virtual viewpoint video generation unit.

また、本発明は、上述した従来の技術の課題を解決するため、複数の基準となる視点間に位置する視点の内挿映像信号を生成し、前記基準となる視点の映像信号の内の1つの視点の映像信号または前記基準となる視点の映像信号に基づいて生成された1つの視点の映像信号を擬似的に左右の映像信号よりなる立体映像信号に変換し、前記左右の映像信号の内の一方を前記基準となる視点の外側に位置する仮想的な視点の外挿映像信号として生成し、前記基準となる視点の映像信号と前記内挿映像信号と前記外挿映像信号をそれぞれ投射して、立体映像を提示することを特徴とする映像表示方法を提供する。   In addition, in order to solve the above-described problems of the related art, the present invention generates an interpolated video signal of viewpoints positioned between a plurality of reference viewpoints, and selects one of the reference viewpoint video signals. One viewpoint video signal generated based on one viewpoint video signal or the reference viewpoint video signal is converted into a stereoscopic video signal consisting of left and right video signals in a pseudo manner, Is generated as an extrapolated video signal of a virtual viewpoint located outside the reference viewpoint, and the video signal of the reference viewpoint, the interpolated video signal, and the extrapolated video signal are respectively projected. Thus, a video display method characterized by presenting a stereoscopic video is provided.

上記の映像表示方法において、前記基準となる視点の外側に位置する複数の視点の内、前記基準となる視点に近い側に位置する視点の外挿映像信号を、前記基準となる視点の映像信号の内の1つの視点の映像信号をシフトすることによって生成し、前記基準となる視点の外側に位置する複数の視点の内、前記基準となる視点に遠い側に位置する視点の外挿映像信号を、前記仮想的な視点の外挿映像信号として生成することができる。   In the above video display method, an extrapolated video signal of a viewpoint located on the side closer to the reference viewpoint among a plurality of viewpoints located outside the reference viewpoint is converted into a video signal of the reference viewpoint. An extrapolated video signal of a viewpoint that is generated by shifting a video signal of one of the viewpoints and that is located on the far side of the reference viewpoint among a plurality of viewpoints that are located outside the reference viewpoint Can be generated as an extrapolated video signal of the virtual viewpoint.

上記の映像表示方法において、前記基準となる視点の外側に位置する複数の視点の全ての外挿映像信号を、前記仮想的な視点の外挿映像信号として生成することができる。   In the video display method described above, all extrapolated video signals of a plurality of viewpoints located outside the reference viewpoint can be generated as extrapolated video signals of the virtual viewpoint.

本発明の映像表示装置及び映像表示方法によれば、複数の視点の映像信号に基づいてさらに多い視点である多視点の映像信号を生成して表示する際に、破綻の少ない多視点の映像を表示することができる。   According to the video display device and the video display method of the present invention, when generating and displaying a multi-view video signal that is a larger number of viewpoints based on the video signals of a plurality of viewpoints, a multi-view video with few failures is displayed. Can be displayed.

第1実施形態の映像表示装置を示すブロック図である。It is a block diagram which shows the video display apparatus of 1st Embodiment. 多視点映像の各視点を示す図である。It is a figure which shows each viewpoint of a multiview video. 図1及び図7における内挿部1〜3の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the insertion parts 1-3 in FIG.1 and FIG.7. 図1における外挿部4,5の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the extrapolation parts 4 and 5 in FIG. 図1,図7,図8における擬似的仮想視点映像生成部6,7,61,62,31〜38の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the pseudo virtual viewpoint image | video production | generation part 6, 7, 61, 62, 31-38 in FIG.1, FIG.7, FIG.8. 第1実施形態による視点の位置と映像情報の利用効率との関係を示す特性図である。It is a characteristic view which shows the relationship between the position of the viewpoint by 1st Embodiment, and the utilization efficiency of video information. 第2実施形態の映像表示装置を示すブロック図である。It is a block diagram which shows the video display apparatus of 2nd Embodiment. 変形例の映像表示装置を示すブロック図である。It is a block diagram which shows the video display apparatus of a modification. ステレオペアの視差を説明するための図である。It is a figure for demonstrating the parallax of a stereo pair. 視点の位置と内挿及び外挿との関係を説明するための図である。It is a figure for demonstrating the relationship between the position of a viewpoint, and interpolation and extrapolation. 映像情報の利用効率を説明するための図である。It is a figure for demonstrating the utilization efficiency of video information. 一般的な視点の位置と映像情報の利用効率との関係を示す特性図である。It is a characteristic view which shows the relationship between the position of a general viewpoint, and the utilization efficiency of video information. 図12において水平視差を10%とした場合の視点の位置と映像情報の利用効率との関係を示す特性図である。FIG. 13 is a characteristic diagram showing the relationship between the viewpoint position and the use efficiency of video information when the horizontal parallax is 10% in FIG. 12.

以下、本発明の映像表示装置及び方法の各実施形態について、添付図面を参照して説明する。各実施形態の構成及び動作を説明する前に、ステレオコンテンツの左右の映像に対して外挿する仮想的な視点の映像が外側に向かえば向かうほど破綻しやすい理由について説明する。ここでは簡略化のため、図9に示すように、左右の映像を平面として、左右の映像全体で一定の水平視差が存在するステレオペアを用いて説明することとする。   Embodiments of a video display apparatus and method according to the present invention will be described below with reference to the accompanying drawings. Before describing the configuration and operation of each embodiment, the reason why a virtual viewpoint video extrapolated to the left and right videos of stereo content tends to break down as it goes outwards will be described. Here, for the sake of simplification, as shown in FIG. 9, the left and right images are assumed to be planes, and description will be made using a stereo pair in which a constant horizontal parallax exists in the entire left and right images.

図9において、左映像ImLと右映像ImRとは、左映像ImLと右映像ImRの水平方向の幅を100%としたときのn%が水平視差としてシフトされている。図10において、xy座標は映像平面を表し、b座標は視点の位置を示している。b座標0に左映像ImLが位置し、b座標100に右映像ImRが位置している。b座標が0を超えて100未満の範囲では、内挿によって中間の視点の補間映像を生成し、b座標が0未満及び100を超える範囲では、外挿によって外側の視点の補間映像を生成する。   In FIG. 9, the left video ImL and the right video ImR are shifted as horizontal parallax by n% when the horizontal width of the left video ImL and the right video ImR is 100%. In FIG. 10, the xy coordinate represents the video plane, and the b coordinate represents the position of the viewpoint. The left image ImL is located at the b coordinate 0, and the right image ImR is located at the b coordinate 100. In the range where the b coordinate exceeds 0 and less than 100, an interpolated image of the intermediate viewpoint is generated by interpolation, and in the range where the b coordinate is less than 0 and exceeds 100, an interpolated image of the outer viewpoint is generated by extrapolation. .

図10において、太い破線で囲んだ部分は、左映像ImLと右映像ImRとで共通の映像部分を示している。内挿及び外挿において、共通の映像部分では完全に正しく左映像ImLと右映像ImRとの映像が照合されて補間映像が生成されるとする。左映像ImLと右映像ImRとはn%の水平視差を有しているので、左映像ImLと右映像ImRそれぞれの(100−n)%の部分が共通している。内挿においては、(100−n)%共通する映像部分の全てを用いて補間映像を生成することができる。これを、(100−n)%の利用効率で映像情報が利用されると定義する。   In FIG. 10, a portion surrounded by a thick broken line indicates a common video portion for the left video ImL and the right video ImR. In the interpolation and extrapolation, it is assumed that the video of the left video ImL and the right video ImR is completely correctly collated in the common video portion to generate an interpolated video. Since the left video ImL and the right video ImR have n% horizontal parallax, the (100−n)% portions of the left video ImL and the right video ImR are common. In the interpolation, an interpolated video can be generated using all of the video portions that are common to (100−n)%. This is defined as video information being used with a usage efficiency of (100−n)%.

図11を用いて映像情報の利用効率について説明する。図11は、図10をy軸上側から見て、b軸を水平、x軸を垂直としたものである。b座標0に左映像ImLが位置し、b座標100に右映像ImRが位置している。左映像ImLと右映像ImRの太い実線の部分が共通の映像部分である。ここでは映像情報の利用効率は(100−n)%である。b座標がb1,b2の位置では外挿となる。b座標がb1の位置においては、映像幅Wよりも外側の部分b1xは照合可能な共通の映像部分の映像情報を利用することができない。b座標がb2の位置においても同様に、映像幅Wよりも外側の部分b2xは照合可能な共通の映像部分の映像情報を利用することができない。   The use efficiency of video information will be described with reference to FIG. FIG. 11 is a view in which the b-axis is horizontal and the x-axis is vertical when FIG. 10 is viewed from above the y-axis. The left image ImL is located at the b coordinate 0, and the right image ImR is located at the b coordinate 100. The thick solid line portion of the left image ImL and the right image ImR is a common image portion. Here, the use efficiency of the video information is (100−n)%. Extrapolation is performed at positions where the b coordinates are b1 and b2. At the position where the b coordinate is b1, the portion b1x outside the video width W cannot use the video information of the common video portion that can be collated. Similarly, at the position where the b coordinate is b2, the portion b2x outside the video width W cannot use the video information of the common video portion that can be collated.

b座標がb1の位置における映像情報の利用効率は、幾何計算によって-n×(b1-100)/100+100-nとなり、b座標がb2の位置における映像情報の利用効率は、幾何計算によってn×b2/100+100-nとなる。   The use efficiency of the video information at the position where the b coordinate is b1 is −n × (b1-100) / 100 + 100−n by geometric calculation, and the use efficiency of the video information at the position where the b coordinate is b2 is calculated by geometric calculation. n × b2 / 100 + 100-n.

映像情報の利用効率をEとしてグラフ化すると図12のようになる。図12に示すように、利用効率Eは、b座標が負の部分ではn×b/100+100-nで表される特性の直線となり、b座標が100以上の部分では-n×(b-100)/100+100-nで表される特性の直線となる。水平視差nを10%とすると、利用効率Eは図13に示す特性となる。図13に示すように、利用効率Eは、b座標が負の部分では0.1×b+90で表される特性の直線となり、b座標が100以上の部分では-0.1×b+90で表される特性の直線となる。b座標が−100及び200で、利用効率Eは80%となる。   When the usage efficiency of the video information is graphed as E, it is as shown in FIG. As shown in FIG. 12, the utilization efficiency E is a straight line having a characteristic represented by n × b / 100 + 100−n when the b coordinate is negative, and −n × (b -100) / 100 + 100-n. When the horizontal parallax n is 10%, the utilization efficiency E has the characteristics shown in FIG. As shown in FIG. 13, the utilization efficiency E is a straight line having a characteristic represented by 0.1 × b + 90 when the b coordinate is negative, and is represented by −0.1 × b + 90 when the b coordinate is 100 or more. It becomes a straight line of the characteristic. When the b coordinate is −100 and 200, the utilization efficiency E is 80%.

図13は理想的な状態であり、現実には、利用効率Eは外側に向かえば向かうほど急激に劣化する。本発明者による検証によって、激しい破綻が生じないのは、b座標が0から−50まで、100から150まで、利用効率Eとして85%程度が限界であることが明らかとなった。ところが、2視点のステレオコンテンツに基づいて多視点の映像を生成して表示する際には、b座標が−50及び150を越える領域においても仮想的な視点の映像を表示することが要求される。そこで、b座標が−50及び150を越える領域に視点の映像を外挿する場合でも、破綻の少ない視点の映像を生成することが必要となる。   FIG. 13 shows an ideal state. Actually, the utilization efficiency E deteriorates more rapidly as it goes outward. As a result of verification by the present inventor, it has been clarified that a severe failure does not occur from 0 to −50, from 100 to 150, and the utilization efficiency E is about 85%. However, when a multi-viewpoint video is generated and displayed based on two-viewpoint stereo content, it is required to display a virtual viewpoint video even in an area where the b coordinate exceeds −50 and 150. . Therefore, even when the viewpoint video is extrapolated to an area where the b coordinate exceeds −50 and 150, it is necessary to generate a viewpoint video with less failure.

以下、このような要望に対応する各実施形態の具体的な構成及び動作について説明する   Hereinafter, a specific configuration and operation of each embodiment corresponding to such a request will be described.

<第1実施形態>
図1に示す第1実施形態の映像表示装置は、特許文献1と同様、多眼式の映像表示装置を示している。図1において、ステレオ映像の左チャネルの信号SLは、内挿部1〜3と、外挿部4,5と、プロジェクタ13に入力される。ステレオ映像の右チャネルの信号SRは、内挿部1〜3と、外挿部4,5と、プロジェクタ17に入力される。プロジェクタ13は左チャネルの信号SLを投射し、左チャネルの信号SLそのものによる映像を図2に示す視点Pvcに提示する。プロジェクタ17は右チャネルの信号SRを投射し、右チャネルの信号SRそのものによる映像を図2に示す視点Pvgに提示する。
<First Embodiment>
The video display device according to the first embodiment shown in FIG. 1 is a multi-view video display device as in Patent Document 1. In FIG. 1, the left channel signal SL of the stereo video is input to the interpolation units 1 to 3, the extrapolation units 4 and 5, and the projector 13. The right channel signal SR of the stereo video is input to the interpolation units 1 to 3, the extrapolation units 4 and 5, and the projector 17. The projector 13 projects the left channel signal SL and presents an image of the left channel signal SL itself to the viewpoint PVC shown in FIG. The projector 17 projects the right channel signal SR and presents an image of the right channel signal SR itself at the viewpoint Pvg shown in FIG.

内挿部1〜3は、左チャネルの信号SLまたは右チャネルの信号SRとに基づいてそれぞれ内挿映像信号Spvd〜Spvfを生成し、プロジェクタ14〜16に供給する。プロジェクタ14〜16は、入力されたそれぞれの内挿映像信号Spvd〜Spvfを投射し、内挿映像信号Spvd〜Spvfによる映像を図2に示す視点Pvd〜Pvfに提示する。内挿部1〜3における内挿映像信号Spvd〜Spvfの生成方法は特許文献3に記載されている方法を用いればよい。   The interpolation units 1 to 3 generate interpolation video signals Spvd to Spvf based on the left channel signal SL or the right channel signal SR, respectively, and supply them to the projectors 14 to 16. The projectors 14 to 16 project the input interpolated video signals Spvd to Spvf, and present the video based on the interpolated video signals Spvd to Spvf to the viewpoints Pvd to Pvf shown in FIG. As a method for generating the interpolated video signals Spvd to Spvf in the interpolating units 1 to 3, the method described in Patent Document 3 may be used.

具体的には、内挿部1〜3は図3のように構成される。図3において、水平視差算出部21には右チャネルの信号SR及び左チャネルの信号SLが入力される。水平視差算出部21は、右チャネルの信号SRと左チャネルの信号SLとに基づいて水平視差を算出する。水平視差算出部21が算出した水平視差を示す情報は映像シフト部22に入力される。映像シフト部22には、視点位置情報Sivpも入力される。映像シフト部22は、右チャネルの信号SRまたは左チャネルの信号SLを、視点位置情報Sivpに応じた値を乗じた画素だけシフトすることによって、内挿映像信号Spvd〜Spvfを生成する。   Specifically, the interpolation units 1 to 3 are configured as shown in FIG. In FIG. 3, the horizontal parallax calculation unit 21 receives a right channel signal SR and a left channel signal SL. The horizontal parallax calculation unit 21 calculates the horizontal parallax based on the right channel signal SR and the left channel signal SL. Information indicating the horizontal parallax calculated by the horizontal parallax calculation unit 21 is input to the video shift unit 22. The viewpoint position information Sivp is also input to the video shift unit 22. The video shift unit 22 generates the interpolated video signals Spvd to Spvf by shifting the right channel signal SR or the left channel signal SL by a pixel multiplied by a value corresponding to the viewpoint position information Sivp.

例えば、左チャネルの信号SLの映像の一部が右チャネルの信号SRの対応部分に対して視差dがあり、視点Pvdにおける内挿映像信号Spvdを生成する場合には、視点Pvcと視点Pvdとの距離は視点Pvcと視点Pvgとの距離の1/4であるので、左チャネルの信号SLの映像の一部を1/4×dだけシフトすればよい。視点Pveにおける内挿映像信号Spveを生成する場合には、視点Pvcと視点Pveとの距離は視点Pvcと視点Pvgとの距離の1/2であるので、左チャネルの信号SLの映像の一部を1/2×dだけシフトすればよい。   For example, when a part of the video of the left channel signal SL has a parallax d with respect to the corresponding part of the right channel signal SR and the interpolated video signal Spvd at the viewpoint Pvd is generated, the viewpoint Pvc and the viewpoint Pvd Is a quarter of the distance between the viewpoint Pvc and the viewpoint Pvg, and therefore, it is only necessary to shift a part of the video of the left channel signal SL by ¼ × d. When generating the interpolated video signal Spve at the viewpoint Pve, since the distance between the viewpoint Pvc and the viewpoint Pve is ½ of the distance between the viewpoint Pvc and the viewpoint Pvg, a part of the video of the signal SL of the left channel May be shifted by ½ × d.

視点Pvfにおける内挿映像信号Spvfを生成する場合には、より物理的距離が近い右チャネルの信号SRに基づいて生成した方が画質が優れる。そこで、右チャネルの信号SRの映像の一部と左チャネルの信号SLの対応部分との視差d’を求める。視点Pvgと視点Pvfとの距離は視点Pvgと視点Pvcとの距離の1/4であるので、右チャネルの信号SRの映像の一部を1/4×d’だけシフトすればよい。なお、視点Pveは視点Pvcと視点Pvgとの中央に位置しているので、視点Pveにおける内挿映像信号Spveを生成する場合に、右チャネルの信号SRに基づいて生成してもよい。   In the case of generating the interpolated video signal Spvf at the viewpoint Pvf, the image quality is better when it is generated based on the signal SR of the right channel having a closer physical distance. Accordingly, a parallax d 'between a part of the video of the right channel signal SR and a corresponding part of the left channel signal SL is obtained. Since the distance between the viewpoint Pvg and the viewpoint Pvf is 1/4 of the distance between the viewpoint Pvg and the viewpoint Pvc, it is only necessary to shift a part of the video of the right channel signal SR by ¼ × d ′. Since the viewpoint Pve is located at the center between the viewpoint Pvc and the viewpoint Pvg, when generating the interpolated video signal Spve at the viewpoint Pve, the viewpoint Pve may be generated based on the right channel signal SR.

外挿部4,5は、左チャネルの信号SLまたは右チャネルの信号SRに基づいてそれぞれ外挿映像信号Spvb,Spvhを生成し、プロジェクタ12,18に供給する。プロジェクタ12,18は、入力されたそれぞれの外挿映像信号Spvb,Spvhを投射し、外挿映像信号Spvb,Spvhによる映像を図2に示す視点Pvb,Pvhに提示する。   The extrapolating units 4 and 5 generate extrapolated video signals Spvb and Spvh based on the left channel signal SL or the right channel signal SR, respectively, and supply them to the projectors 12 and 18. The projectors 12 and 18 project the input extrapolated video signals Spvb and Spvh, and present the video based on the extrapolated video signals Spvb and Spvh to the viewpoints Pvb and Pvh shown in FIG.

外挿部4,5の具体的構成は内挿部1〜3と同様であり、図4に示すように、水平視差算出部23と映像シフト部24とを備える。   The specific configuration of the extrapolating units 4 and 5 is the same as that of the interpolating units 1 to 3, and includes a horizontal parallax calculating unit 23 and a video shifting unit 24 as shown in FIG.

例えば、左チャネルの信号SLの映像の一部が右チャネルの信号SRの対応部分に対して視差dがあり、視点Pvbにおける外挿映像信号Spvbを生成する場合には、視点Pvcと視点Pvbとの距離は視点Pvcと視点Pvgとの距離の1/4であり、視点Pvcを基準にして視点Pvc,Pvg間の視点とは逆向きであるので、左チャネルの信号SLの映像の一部を−1/4×dだけシフトすればよい。   For example, when a part of the video of the left channel signal SL has a parallax d with respect to the corresponding part of the right channel signal SR and the extrapolated video signal Spvb at the viewpoint Pvb is generated, the viewpoint Pvc and the viewpoint Pvb Is a quarter of the distance between the viewpoint Pvc and the viewpoint Pvg, and is opposite to the viewpoint between the viewpoints Pvc and Pvg with respect to the viewpoint Pvc, so that a part of the image of the signal SL of the left channel is obtained. It is sufficient to shift by −1 / 4 × d.

視点Pvhにおける外挿映像信号Spvhを生成する場合には、より物理的距離が近い右チャネルの信号SRに基づいて生成した方が画質が優れる。そこで、右チャネルの信号SRの映像の一部と左チャネルの信号SLの対応部分との視差d’を求める。視点Pvgと視点Pvhとの距離は視点Pvgと視点Pvcとの距離の1/4であり、視点Pvgを基準にして視点Pvc,Pvg間の視点とは逆向きであるので、右チャネルの信号SRの映像の一部を−1/4×d’だけシフトすればよい。   When the extrapolated video signal Spvh at the viewpoint Pvh is generated, the image quality is better when it is generated based on the signal SR of the right channel that is closer to the physical distance. Accordingly, a parallax d 'between a part of the video of the right channel signal SR and a corresponding part of the left channel signal SL is obtained. The distance between the viewpoint Pvg and the viewpoint Pvh is 1/4 of the distance between the viewpoint Pvg and the viewpoint Pvc, and is opposite to the viewpoint between the viewpoints Pvc and Pvg with respect to the viewpoint Pvg. It is only necessary to shift a part of the video of −1 / 4 × d ′.

なお、視点Pvbは、b座標における−50〜0とすることが好ましい。視点Pvhは、b座標における100〜150することが好ましい。   The viewpoint Pvb is preferably -50 to 0 in the b coordinate. The viewpoint Pvh is preferably 100 to 150 in the b coordinate.

外挿部として構成されている擬似的仮想視点映像生成部6には、外挿部4より出力された視点Pvbにおける外挿映像信号Spvbが入力される。外挿部として構成されている擬似的仮想視点映像生成部7には、外挿部5より出力された視点Pvhにおける外挿映像信号Spvhが入力される。擬似的仮想視点映像生成部6,7は、擬似的な仮想視点映像信号Spva,Spviを生成し、プロジェクタ11,19に供給する。プロジェクタ11,19は、入力されたそれぞれの仮想視点映像信号Spva,Spviを投射し、仮想視点映像信号Spva,Spviによる映像を図2に示す視点Pva,Pviに提示する。   An extrapolated video signal Spvb at the viewpoint Pvb output from the extrapolation unit 4 is input to the pseudo virtual viewpoint video generation unit 6 configured as an extrapolation unit. An extrapolated video signal Spvh at the viewpoint Pvh output from the extrapolation unit 5 is input to the pseudo virtual viewpoint video generation unit 7 configured as an extrapolation unit. The pseudo virtual viewpoint video generation units 6 and 7 generate pseudo virtual viewpoint video signals Spva and Spvi and supply them to the projectors 11 and 19. The projectors 11 and 19 project the input virtual viewpoint video signals Spva and Spvi, and present the video based on the virtual viewpoint video signals Spva and Spvi to the viewpoints Pva and Pvi shown in FIG.

擬似的仮想視点映像生成部6,7は、いわゆる2D3D変換と称されている特許文献4に記載されているような擬似立体画像作成装置を用いることによって実現できる。特許文献4に記載されている擬似立体画像作成装置は、仮に奥行き情報が明示的にも暗示的にも与えられていない非立体映像であっても、非立体映像から奥行き推定データを作成し、この奥行き推定データに基づいて擬似的な立体映像を作成することができる。   The pseudo virtual viewpoint video generation units 6 and 7 can be realized by using a pseudo-stereoscopic image creation apparatus as described in Patent Document 4 called so-called 2D3D conversion. The pseudo-stereoscopic image creating apparatus described in Patent Document 4 creates depth estimation data from a non-stereoscopic video even if it is a non-stereoscopic video for which depth information is not given explicitly or implicitly, A pseudo stereoscopic image can be created based on the depth estimation data.

擬似的仮想視点映像生成部6,7は、図5に示すように、奥行き推定部25と映像シフト部26とを備える。奥行き推定部25は、入力された外挿映像信号Spvb,Spvhに基づいて映像の奥行きを推定し、奥行き推定データを生成する。この際、奥行き推定部25は、曲面近似された奥行きを推定して奥行き推定データを生成する。映像シフト部26は、奥行き推定部25より出力された曲面近似された奥行き推定データに応じて外挿映像信号Spvb,Spvhをシフトすることによって、仮想視点映像信号Spva,Spviを生成する。   As shown in FIG. 5, the pseudo virtual viewpoint video generation units 6 and 7 include a depth estimation unit 25 and a video shift unit 26. The depth estimation unit 25 estimates the video depth based on the input extrapolated video signals Spvb and Spvh, and generates depth estimation data. At this time, the depth estimation unit 25 estimates the depth approximated by the curved surface, and generates depth estimation data. The video shift unit 26 generates virtual viewpoint video signals Spva and Spvi by shifting the extrapolated video signals Spvb and Spvh according to the curved surface approximated depth estimation data output from the depth estimation unit 25.

擬似的仮想視点映像生成部6,7によれば、外挿部4,5で行っているような、映像を照合して外挿するという単純なシフトと比較して、仮想視点の距離が遠ざかっても急速に映像情報の利用効率が低下することを回避することができる。その結果、高画質な仮想視点映像信号Spva,Spviを生成することができる。   According to the pseudo virtual viewpoint video generation units 6 and 7, the distance of the virtual viewpoint is increased compared to a simple shift in which video is collated and extrapolated as in the extrapolation units 4 and 5. However, it is possible to avoid a rapid decrease in the use efficiency of the video information. As a result, high-quality virtual viewpoint video signals Spva and Spvi can be generated.

擬似的仮想視点映像生成部6の動作をさらに詳細に説明する。視点Pvbの位置を右目の位置と想定すると、画面より手前に表示するものは、近いものほど映像を見る者の内側(鼻側)に見える。従って、擬似的仮想視点映像生成部6の映像シフト部26は、奥行き推定データが示す奥行きに応じた量だけ、対応部分の映像を内側(右方向)に移動させる。画面より奥に表示するものは、近いものほど映像を見る者の外側に見える。従って、映像シフト部26は、奥行き推定データが示す奥行きに応じた量だけ、対応部分の映像を外側(左方向)に移動させる。   The operation of the pseudo virtual viewpoint video generation unit 6 will be described in more detail. Assuming that the position of the viewpoint Pvb is the position of the right eye, what is displayed in front of the screen is closer to the inside (nose side) of the person viewing the video. Accordingly, the video shift unit 26 of the pseudo virtual viewpoint video generation unit 6 moves the video of the corresponding part inward (rightward) by an amount corresponding to the depth indicated by the depth estimation data. What is displayed deeper than the screen is closer to the viewer who sees the image. Accordingly, the video shift unit 26 moves the video of the corresponding portion outward (leftward) by an amount corresponding to the depth indicated by the depth estimation data.

擬似的仮想視点映像生成部6は、外挿映像信号Spvbをそのまま2D3D変換後の右チャネルの信号とし、外挿映像信号Spvbよりも左よりの視点Spvaにおける仮想視点映像信号Spvaを左チャネルの信号として生成する。2D3D変換後の右チャネルの信号である外挿映像信号Spvbを出力する必要はないので、擬似的仮想視点映像生成部6は仮想視点映像信号Spvaのみをプロジェクタ11へと出力する。   The pseudo virtual viewpoint video generation unit 6 directly uses the extrapolated video signal Spvb as the right channel signal after 2D3D conversion, and uses the virtual viewpoint video signal Spva at the left viewpoint Spva as the left channel signal from the extrapolated video signal Spvb. Generate as Since it is not necessary to output the extrapolated video signal Spvb that is the right channel signal after 2D3D conversion, the pseudo virtual viewpoint video generation unit 6 outputs only the virtual viewpoint video signal Spva to the projector 11.

擬似的仮想視点映像生成部7の動作をさらに詳細に説明する。視点Pvh位置を左目の位置と想定すると、画面より手前に表示するものは、近いものほど映像を見る者の内側(鼻側)に見える。従って、擬似的仮想視点映像生成部7の映像シフト部26は、奥行き推定データが示す奥行きに応じた量だけ、対応部分の映像を内側(左方向)に移動させる。画面より奥に表示するものは、近いものほど映像を見る者の外側に見える。従って、映像シフト部26は、奥行き推定データが示す奥行きに応じた量だけ、対応部分の映像を外側(右方向)に移動させる。   The operation of the pseudo virtual viewpoint video generation unit 7 will be described in more detail. Assuming that the viewpoint Pvh position is the position of the left eye, what is displayed in front of the screen is closer to the inside (nose side) of the person viewing the video. Accordingly, the video shift unit 26 of the pseudo virtual viewpoint video generation unit 7 moves the video of the corresponding portion inward (leftward) by an amount corresponding to the depth indicated by the depth estimation data. What is displayed deeper than the screen is closer to the viewer who sees the image. Accordingly, the video shift unit 26 moves the video of the corresponding portion outward (rightward) by an amount corresponding to the depth indicated by the depth estimation data.

擬似的仮想視点映像生成部7は、外挿映像信号Spvhそのまま2D3D変換後の左チャネルの信号とし、外挿映像信号Spvhよりも右よりの視点Pviにおける仮想視点映像信号Spviを右チャネルの信号として生成する。2D3D変換後の左チャネルの信号である外挿映像信号Spvhを出力する必要はないので、擬似的仮想視点映像生成部7は仮想視点映像信号Spviのみをプロジェクタ19へと出力する。   The pseudo virtual viewpoint video generation unit 7 uses the extrapolated video signal Spvh as it is as the left channel signal after 2D3D conversion, and uses the virtual viewpoint video signal Spvi at the viewpoint Pvi from the right of the extrapolated video signal Spvh as the signal of the right channel. Generate. Since it is not necessary to output the extrapolated video signal Spvh that is the left channel signal after 2D3D conversion, the pseudo virtual viewpoint video generation unit 7 outputs only the virtual viewpoint video signal Spvi to the projector 19.

投射部であるプロジェクタ11〜19は、入力されたそれぞれの視点の映像信号を投射する。プロジェクタ11〜19から投射された光線はレンズ20によって集光される。図1では、簡略化のため、プロジェクタ13,15,17から投射される光線のみを概略的に示している。観察者は左右の目EL,ERで、プロジェクタ11〜19から投射されてレンズ20によって集光された3D映像を見る。   Projectors 11 to 19 as projection units project the input video signals of the respective viewpoints. The light rays projected from the projectors 11 to 19 are collected by the lens 20. In FIG. 1, only light rays projected from the projectors 13, 15, and 17 are schematically shown for simplification. The observer views the 3D image projected from the projectors 11 to 19 and condensed by the lens 20 with the left and right eyes EL and ER.

図6は、本実施形態による利用効率Eを示している。図6でもnを10%とした特性を示している。b座標が0〜−50の部分では図13と同様、0.1×b+90で表される特性の直線であるが、b座標が−50を超えた部分で利用効率Eの低下が抑えられていることが分かる。また、b座標が100〜150の部分では図13と同様、-0.1×b+90で表される特性の直線であるが、b座標が150を超えた部分で利用効率Eの低下が抑えられていることが分かる。b座標が−100及び200で、利用効率Eは80%よりも大きくなっている。   FIG. 6 shows the utilization efficiency E according to this embodiment. FIG. 6 also shows the characteristics where n is 10%. In the portion where the b coordinate is 0 to −50, a straight line having a characteristic represented by 0.1 × b + 90 is the same as in FIG. 13, but the decrease in the utilization efficiency E is suppressed in the portion where the b coordinate exceeds −50. I understand that. In addition, in the part where the b coordinate is 100 to 150, as in FIG. 13, it is a straight line having a characteristic represented by −0.1 × b + 90. However, in the part where the b coordinate exceeds 150, a decrease in the utilization efficiency E is suppressed. I understand that When the b coordinate is −100 and 200, the utilization efficiency E is greater than 80%.

本実施形態において、視点の数は図2に示す9視点に限定されるものではない。内挿部,外挿部,擬似的仮想視点映像生成部をさらに増やしてもよい。視点の間隔は等間隔でなくてもよい。なお、映像をシフトする方向(輻輳に相当)と量(立体化の強度に相当)は、実際の映像の見え方に近くなるように適宜調整すればよい。図2において、視点Pvc,Pvgが基準となる視点である。基準となる視点は2視点に限定されない。   In the present embodiment, the number of viewpoints is not limited to nine viewpoints shown in FIG. The number of interpolation units, extrapolation units, and pseudo virtual viewpoint video generation units may be further increased. The interval between the viewpoints may not be equal. Note that the video shift direction (corresponding to convergence) and the amount (corresponding to the intensity of three-dimensionalization) may be appropriately adjusted so as to be close to the actual appearance of the video. In FIG. 2, viewpoints Pvc and Pvg are reference viewpoints. The reference viewpoint is not limited to two viewpoints.

図1における内挿部1〜3は、複数の基準となる視点の映像信号に基づいて、基準となる視点間に位置する視点の映像信号を生成する内挿部である。図1における外挿部4,5は、複数の視点の映像信号に基づいて、基準となる視点の外側に位置する視点の映像信号を生成する外挿部である。擬似的仮想視点映像生成部6,7も、基準となる視点の外側に位置する視点の映像信号を生成する外挿部である。   Interpolators 1 to 3 in FIG. 1 are interpolation units that generate viewpoint video signals located between reference viewpoints based on a plurality of reference viewpoint video signals. The extrapolation units 4 and 5 in FIG. 1 are extrapolation units that generate video signals of viewpoints located outside the reference viewpoint based on video signals of a plurality of viewpoints. The pseudo virtual viewpoint video generation units 6 and 7 are also extrapolation units that generate video signals of viewpoints located outside the reference viewpoint.

擬似的仮想視点映像生成部6,7は、基準となる視点の映像信号SR,SLに基づいて生成された1つの視点の映像信号Spvb,Spvhを擬似的に左右の映像信号よりなる立体映像信号に変換し、左右の映像信号の内の一方を基準となる視点Pvc,Pvgの外側であり、視点Pvb,Pvhのさらに外側に位置する仮想的な視点の映像信号としている。   The pseudo virtual viewpoint video generation units 6 and 7 generate one viewpoint video signals Spvb and Spvh generated based on the reference viewpoint video signals SR and SL, and a stereoscopic video signal consisting of pseudo left and right video signals. Thus, one of the left and right video signals is a video signal of a virtual viewpoint located outside the viewpoints Pvc and Pvg as a reference and further outside the viewpoints Pvb and Pvh.

第1実施形態は、基準となる視点の左外側に位置する複数の視点の映像信号を生成する複数の外挿部と、基準となる視点の右外側に位置する複数の視点の映像信号を生成する複数の外挿部とを備える構成である。複数の外挿部の内、外挿部4,5は、基準となる視点の外側に位置する複数の視点の内、基準となる視点に近い側に位置する視点の映像信号を、基準となる視点の映像信号の内の1つの視点の映像信号をシフトすることによって生成する第1の外挿部である。複数の外挿部の内、擬似的仮想視点映像生成部6,7は、基準となる視点の外側に位置する複数の視点の内、基準となる視点に遠い側に位置する視点の映像信号を、2D3D変換を用いて生成する第2の外挿部である。   The first embodiment generates a plurality of extrapolation units that generate video signals of a plurality of viewpoints located on the left outer side of the reference viewpoint, and generates video signals of a plurality of viewpoints located on the right outer side of the reference viewpoint. And a plurality of extrapolation units. Among the plurality of extrapolation units, the extrapolation units 4 and 5 serve as a reference for a video signal of a viewpoint located on the side closer to the reference viewpoint among a plurality of viewpoints located outside the reference viewpoint. It is the 1st extrapolation part produced | generated by shifting the video signal of one viewpoint among the video signals of a viewpoint. Among the plurality of extrapolation units, the pseudo virtual viewpoint video generation units 6 and 7 generate video signals of viewpoints located on the side far from the reference viewpoint among the plurality of viewpoints located outside the reference viewpoint. It is the 2nd extrapolation part produced | generated using 2D3D conversion.

<第2実施形態>
図7を用いて、第2実施形態の映像表示装置について説明する。図7において、図1と同一部分には同一符号を付し、その説明を適宜省略する。図7に示す第2実施形態は、図1における外挿部4,5によって外挿映像信号Spvb,Spvhを生成するのではなく、擬似的仮想視点映像生成部61,71によって外挿映像信号Spvb,Spvhに相当する映像信号を生成する。
Second Embodiment
A video display apparatus according to the second embodiment will be described with reference to FIG. 7, the same parts as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted as appropriate. In the second embodiment shown in FIG. 7, the extrapolated video signals Spvb and Spvh are not generated by the extrapolating units 4 and 5 in FIG. 1, but the extrapolated video signal Spvb is generated by the pseudo virtual viewpoint video generating units 61 and 71. , Spvh is generated.

図7において、擬似的仮想視点映像生成部61,62には左チャネルの信号SLが入力され、擬似的仮想視点映像生成部71,72には右チャネルの信号SRが入力される。擬似的仮想視点映像生成部61,62,71,72の具体的構成は図5と同様である。   In FIG. 7, the left channel signal SL is input to the pseudo virtual viewpoint video generation units 61 and 62, and the right channel signal SR is input to the pseudo virtual viewpoint video generation units 71 and 72. The specific configuration of the pseudo virtual viewpoint video generation units 61, 62, 71, 72 is the same as that shown in FIG.

擬似的仮想視点映像生成部61は、左チャネルの信号SLに基づいて、視点Pvbに提示するための仮想視点映像信号Spvb2を生成し、擬似的仮想視点映像生成部71は、右チャネルの信号SRに基づいて、視点Pvhに提示するための仮想視点映像信号Spvh2を生成する。擬似的仮想視点映像生成部62は、左チャネルの信号SLに基づいて、視点Pvaに提示するための仮想視点映像信号Spva2を生成し、擬似的仮想視点映像生成部72は、右チャネルの信号SRに基づいて、視点Pviに提示するための仮想視点映像信号Spvi2を生成する。   The pseudo virtual viewpoint video generation unit 61 generates a virtual viewpoint video signal Spvb2 to be presented to the viewpoint Pvb based on the left channel signal SL, and the pseudo virtual viewpoint video generation unit 71 generates a right channel signal SR. Based on, a virtual viewpoint video signal Spvh2 to be presented to the viewpoint Pvh is generated. The pseudo virtual viewpoint video generation unit 62 generates a virtual viewpoint video signal Spva2 for presentation to the viewpoint Pva based on the left channel signal SL, and the pseudo virtual viewpoint video generation unit 72 generates the right channel signal SR. Based on the above, a virtual viewpoint video signal Spvi2 to be presented to the viewpoint Pvi is generated.

擬似的仮想視点映像生成部61,62,71,72も、基準となる視点の外側に位置する視点の映像信号を生成する外挿部である。擬似的仮想視点映像生成部61,62,71,72は、基準となる視点の映像信号SR,SLの内の1つの視点の映像信号を擬似的に左右の映像信号よりなる立体映像信号に変換し、左右の映像信号の内の一方を基準となる視点Pvc,Pvgの外側に位置する仮想的な視点の映像信号としている。   The pseudo virtual viewpoint video generation units 61, 62, 71, and 72 are also extrapolation units that generate video signals of viewpoints located outside the reference viewpoint. The pseudo virtual viewpoint video generation units 61, 62, 71, 72 convert one viewpoint video signal out of the reference viewpoint video signals SR, SL into a stereoscopic video signal consisting of pseudo left and right video signals. In addition, one of the left and right video signals is a video signal of a virtual viewpoint positioned outside the reference viewpoints Pvc and Pvg.

<変形例>
図8を用いて、変形例の映像表示装置について説明する。図8において、図1と同一部分には同一符号を付し、その説明を適宜省略する。図8に示す変形例は、擬似的仮想視点映像生成部31〜38を用いて、図2の全ての視点Pva〜Pviに提示するための映像信号を生成する。変形例は、入力映像信号がステレオ映像信号ではなく、2D映像映像信号である場合の構成である。擬似的仮想視点映像生成部31〜38の具体的構成は図5と同様である。
<Modification>
A video display device according to a modification will be described with reference to FIG. 8, the same parts as those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted as appropriate. The modification shown in FIG. 8 generates video signals to be presented to all the viewpoints Pva to Pvi in FIG. 2 using the pseudo virtual viewpoint video generation units 31 to 38. The modification is a configuration when the input video signal is not a stereo video signal but a 2D video video signal. The specific configuration of the pseudo virtual viewpoint video generation units 31 to 38 is the same as that shown in FIG.

図8において、擬似的仮想視点映像生成部31〜38には2D映像信号S2Dが入力される。擬似的仮想視点映像生成部31〜34は、視点Pva〜Pvdに提示するための仮想視点映像信号Spva3〜Spvd3を生成して、プロジェクタ11〜14へと出力する。2D映像信号S2Dはそのまま視点Pveに提示するための映像信号としてプロジェクタ15に供給される。擬似的仮想視点映像生成部35〜38は、視点Pvf〜Pviに提示するための仮想視点映像信号Spvf3〜Spvi3を生成して、プロジェクタ16〜19へと出力する。 In FIG. 8, the 2D video signal S 2D is input to the pseudo virtual viewpoint video generation units 31 to 38. The pseudo virtual viewpoint video generation units 31 to 34 generate virtual viewpoint video signals Spva3 to Spvd3 for presentation to the viewpoints Pva to Pvd and output them to the projectors 11 to 14. 2D video signal S 2D is supplied to the projector 15 as a video signal to be presented to it viewpoint Pve. The pseudo virtual viewpoint video generation units 35 to 38 generate virtual viewpoint video signals Spvf3 to Spvi3 for presentation to the viewpoints Pvf to Pvi, and output them to the projectors 16 to 19.

変形例においては、輻輳は全ての映像信号(2D映像信号S2D及び仮想視点映像信号Spva3〜Spvi3)で一定である。立体化の強度を、図2の視点の端部に向かうほど強くすることが好ましい。 In a variant, the congestion is constant for all of the video signal (2D image signal S 2D and the virtual viewpoint video signal Spva3~Spvi3). It is preferable to increase the strength of three-dimensionalization toward the end of the viewpoint in FIG.

擬似的仮想視点映像生成部31〜38は、基準となる1つの視点の2D映像信号に基づいて、2D映像信号を擬似的に左右の映像信号よりなる立体映像信号に変換し、左右の映像信号の内の一方を基準となる1つの視点の外側に位置する仮想的な視点の映像信号としている。   The pseudo virtual viewpoint video generation units 31 to 38 convert the 2D video signal into a stereoscopic video signal composed of left and right video signals based on the 2D video signal of one viewpoint serving as a reference, and the left and right video signals. One of the video signals is a video signal of a virtual viewpoint positioned outside one viewpoint as a reference.

本発明は以上説明した各実施形態(変形例)に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。   The present invention is not limited to the above-described embodiments (modifications), and various modifications can be made without departing from the scope of the present invention.

1〜3 内挿部
4,5 外挿部
6,7,61,62,71,72 擬似的仮想視点映像生成部(外挿部)
11〜19 プロジェクタ(投射部)
20 レンズ
1-3 Interpolation unit 4,5 Extrapolation unit 6,7,61,62,71,72 Pseudo virtual viewpoint video generation unit (extrapolation unit)
11-19 Projector (projection unit)
20 lenses

Claims (6)

複数の基準となる視点間に位置する視点の映像信号を生成する内挿部と、
前記基準となる視点の外側に位置する視点の映像信号を生成する外挿部と、
前記基準となる視点の映像信号と前記内挿部及び前記外挿部より出力された映像信号をそれぞれ投射する投射部と、
を備え、
前記外挿部として、前記基準となる視点の映像信号の内の1つの視点の映像信号または前記基準となる視点の映像信号に基づいて生成された1つの視点の映像信号を擬似的に左右の映像信号よりなる立体映像信号に変換し、前記左右の映像信号の内の一方を前記基準となる視点の外側に位置する仮想的な視点の映像信号とする擬似的仮想視点映像生成部を用いる
ことを特徴とする映像表示装置。
An interpolation unit that generates video signals of viewpoints positioned between a plurality of reference viewpoints;
An extrapolation unit that generates a video signal of a viewpoint located outside the reference viewpoint;
A projection unit for projecting the video signal of the reference viewpoint and the video signal output from the interpolation unit and the extrapolation unit, respectively;
With
As the extrapolation unit, one viewpoint video signal generated from the viewpoint video signal of the reference viewpoint or one viewpoint video signal generated based on the reference viewpoint video signal is simulated as left and right A pseudo virtual viewpoint video generation unit that converts the video signal into a stereoscopic video signal and uses one of the left and right video signals as a video signal of a virtual viewpoint located outside the reference viewpoint; A video display device characterized by the above.
前記基準となる視点の外側に位置する複数の視点の内、前記基準となる視点に近い側に位置する視点の映像信号を、前記基準となる視点の映像信号の内の1つの視点の映像信号をシフトすることによって生成する第1の外挿部と、
前記基準となる視点の外側に位置する複数の視点の内、前記基準となる視点に遠い側に位置する視点の映像信号を、前記擬似的仮想視点映像生成部によって生成する第2の外挿部と、
を含むことを特徴とする請求項1記載の映像表示装置。
Among the plurality of viewpoints located outside the reference viewpoint, a viewpoint video signal located on the side closer to the reference viewpoint is selected as one of the viewpoint video signals. A first extrapolation generated by shifting
A second extrapolation unit that generates, from the plurality of viewpoints located outside the reference viewpoint, a video signal of a viewpoint located farther from the reference viewpoint by the pseudo virtual viewpoint video generation unit; When,
The video display device according to claim 1, further comprising:
前記基準となる視点の外側に位置する複数の視点の全ての映像信号を、前記擬似的仮想視点映像生成部によって生成することを特徴とする請求項1記載の映像表示装置。   The video display apparatus according to claim 1, wherein the pseudo virtual viewpoint video generation unit generates all video signals of a plurality of viewpoints located outside the reference viewpoint. 複数の基準となる視点間に位置する視点の内挿映像信号を生成し、
前記基準となる視点の映像信号の内の1つの視点の映像信号または前記基準となる視点の映像信号に基づいて生成された1つの視点の映像信号を擬似的に左右の映像信号よりなる立体映像信号に変換し、前記左右の映像信号の内の一方を前記基準となる視点の外側に位置する仮想的な視点の外挿映像信号として生成し、
前記基準となる視点の映像信号と前記内挿映像信号と前記外挿映像信号をそれぞれ投射して、立体映像を提示する
ことを特徴とする映像表示方法。
Generate interpolated video signals of viewpoints located between multiple reference viewpoints,
A stereoscopic video composed of left and right video signals in a pseudo manner from a video signal of one viewpoint among the video signals of the reference viewpoint or a video signal of one viewpoint generated based on the video signal of the reference viewpoint. Converted into a signal, one of the left and right video signals is generated as an extrapolated video signal of a virtual viewpoint located outside the reference viewpoint,
A video display method characterized by presenting a stereoscopic video by projecting the video signal of the reference viewpoint, the interpolated video signal, and the extrapolated video signal, respectively.
前記基準となる視点の外側に位置する複数の視点の内、前記基準となる視点に近い側に位置する視点の外挿映像信号を、前記基準となる視点の映像信号の内の1つの視点の映像信号をシフトすることによって生成し、
前記基準となる視点の外側に位置する複数の視点の内、前記基準となる視点に遠い側に位置する視点の外挿映像信号を、前記仮想的な視点の外挿映像信号として生成する
ことを特徴とする請求項4記載の映像表示方法。
An extrapolated video signal of a viewpoint located on the side closer to the reference viewpoint among a plurality of viewpoints located outside the reference viewpoint is selected from one of the viewpoint video signals of the reference viewpoint. Generated by shifting the video signal,
Generating an extrapolated video signal of a viewpoint located farther from the reference viewpoint among a plurality of viewpoints located outside the reference viewpoint as the extrapolated video signal of the virtual viewpoint. The video display method according to claim 4, wherein:
前記基準となる視点の外側に位置する複数の視点の全ての外挿映像信号を、前記仮想的な視点の外挿映像信号として生成することを特徴とする請求項4記載の映像表示方法。   5. The video display method according to claim 4, wherein all the extrapolated video signals of a plurality of viewpoints located outside the reference viewpoint are generated as extrapolated video signals of the virtual viewpoint.
JP2011203011A 2011-09-16 2011-09-16 Video display device and video display method Active JP5708395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011203011A JP5708395B2 (en) 2011-09-16 2011-09-16 Video display device and video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011203011A JP5708395B2 (en) 2011-09-16 2011-09-16 Video display device and video display method

Publications (2)

Publication Number Publication Date
JP2013066025A true JP2013066025A (en) 2013-04-11
JP5708395B2 JP5708395B2 (en) 2015-04-30

Family

ID=48189135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011203011A Active JP5708395B2 (en) 2011-09-16 2011-09-16 Video display device and video display method

Country Status (1)

Country Link
JP (1) JP5708395B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021508965A (en) * 2017-12-20 2021-03-11 レイア、インコーポレイテッドLeia Inc. Cross-rendering multi-view cameras, systems, and methods

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151534A (en) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system
US20050185711A1 (en) * 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
JP2005331844A (en) * 2004-05-21 2005-12-02 Toshiba Corp Stereoscopic image display method, stereoscopic imaging method and stereoscopic imaging device
US20060061569A1 (en) * 2004-09-21 2006-03-23 Kunio Yamada Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
JP2006186510A (en) * 2004-12-27 2006-07-13 Victor Co Of Japan Ltd Pseudo-stereoscopic image generating apparatus, and program, and pseudo-stereoscopic image display system
JP2009044722A (en) * 2007-07-19 2009-02-26 Victor Co Of Japan Ltd Pseudo-3d-image generating device, image-encoding device, image-encoding method, image transmission method, image-decoding device and image image-decoding method
JP2009124308A (en) * 2007-11-13 2009-06-04 Tokyo Denki Univ Multi-viewpoint image creating system and multi-viewpoint image creating method
WO2011043022A1 (en) * 2009-10-08 2011-04-14 株式会社ニコン Image display device and image display method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151534A (en) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system
US20050185711A1 (en) * 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
JP2007528631A (en) * 2004-02-20 2007-10-11 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3D television system and method for providing 3D television
JP2005331844A (en) * 2004-05-21 2005-12-02 Toshiba Corp Stereoscopic image display method, stereoscopic imaging method and stereoscopic imaging device
US20060061569A1 (en) * 2004-09-21 2006-03-23 Kunio Yamada Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system
JP2006186510A (en) * 2004-12-27 2006-07-13 Victor Co Of Japan Ltd Pseudo-stereoscopic image generating apparatus, and program, and pseudo-stereoscopic image display system
JP2009044722A (en) * 2007-07-19 2009-02-26 Victor Co Of Japan Ltd Pseudo-3d-image generating device, image-encoding device, image-encoding method, image transmission method, image-decoding device and image image-decoding method
JP2009124308A (en) * 2007-11-13 2009-06-04 Tokyo Denki Univ Multi-viewpoint image creating system and multi-viewpoint image creating method
WO2011043022A1 (en) * 2009-10-08 2011-04-14 株式会社ニコン Image display device and image display method
US20120194905A1 (en) * 2009-10-08 2012-08-02 Nikon Corporation Image display apparatus and image display method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021508965A (en) * 2017-12-20 2021-03-11 レイア、インコーポレイテッドLeia Inc. Cross-rendering multi-view cameras, systems, and methods

Also Published As

Publication number Publication date
JP5708395B2 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
US8514275B2 (en) Three-dimensional (3D) display method and system
JP5083052B2 (en) Stereoscopic image generation apparatus, stereoscopic image generation method, and program
US20110026809A1 (en) Fast multi-view three-dimensional image synthesis apparatus and method
JP5625979B2 (en) Display device, display method, and display control device
US9154765B2 (en) Image processing device and method, and stereoscopic image display device
US9571824B2 (en) Stereoscopic image display device and displaying method thereof
JP4748251B2 (en) Video conversion method and video conversion apparatus
US20120287252A1 (en) Image display device, image display system, and image display method
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
CA2900144A1 (en) System for generating an intermediate view image
JP6089383B2 (en) Image processing apparatus, image processing method, and program
JP5708395B2 (en) Video display device and video display method
KR101202014B1 (en) Image processor, stereoscopic display device and method for processing image using the same
KR102180068B1 (en) Method and device of generating multi-view image with resolution scaling function
US20120163700A1 (en) Image processing device and image processing method
JP2013090129A (en) Image processing apparatus, image processing method and program
US9330487B2 (en) Apparatus and method for processing 3D images through adjustment of depth and viewing angle
JP5928280B2 (en) Multi-viewpoint image generation apparatus and method
JP4481275B2 (en) 3D video information transmission method
US10129537B2 (en) Autostereoscopic 3D display apparatus
JP5423845B2 (en) Stereoscopic image generation apparatus, stereoscopic image generation method, and program
WO2012108406A1 (en) Stereoscopic image printing device and stereoscopic image printing method
TWI511524B (en) Autostereoscopic display system and method
Jeong et al. 11.3: Depth‐Image‐Based Rendering (DIBR) Using Disocclusion Area Restoration
Chotrov Methods for Generating and Displaying Stereo Images on VR Systems using Quad-Buffered Graphics Adapters

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150216

R150 Certificate of patent or registration of utility model

Ref document number: 5708395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150