JP2006197036A - Device and method for stereoscopic image display - Google Patents
Device and method for stereoscopic image display Download PDFInfo
- Publication number
- JP2006197036A JP2006197036A JP2005004520A JP2005004520A JP2006197036A JP 2006197036 A JP2006197036 A JP 2006197036A JP 2005004520 A JP2005004520 A JP 2005004520A JP 2005004520 A JP2005004520 A JP 2005004520A JP 2006197036 A JP2006197036 A JP 2006197036A
- Authority
- JP
- Japan
- Prior art keywords
- image
- observer
- image data
- viewpoint
- observation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は立体画像を表示するための技術に関する。 The present invention relates to a technique for displaying a stereoscopic image.
人間の目に立体的に見える画像(以下、立体画像という)を表示するために、従来から様々な技術が提案されている。典型的な立体画像の表示方法は、右眼用の画像と左眼用の画像とを短い周期で交互に表示し、これらの画像を表示面上に設けた偏光フィルターによって互いに直交する方向に偏光させるというものである。観測者が、左右に直交する方向の変更選択性を有する眼鏡を通してこの画像を観測すると、観測者の右眼には右眼用の画像のみが見えるし左眼には左眼用の画像のみが見えることになり、左右の画像で視差が発生し、この結果、観測者にとっては立体的な画像に見えることになる。さらに、例えば特許文献1には、観測者の視点の位置をセンサによって計測し、観測者の視線に応じた立体画像を生成して表示することで眼鏡を不要にした技術が開示されている。 Conventionally, various techniques have been proposed for displaying an image that is stereoscopically visible to the human eye (hereinafter referred to as a stereoscopic image). A typical method for displaying a stereoscopic image is to display an image for the right eye and an image for the left eye alternately in a short cycle, and these images are polarized in directions orthogonal to each other by a polarizing filter provided on the display surface. It is to let you. When an observer observes this image through glasses having change selectivity in the direction orthogonal to the left and right, only the right eye image is visible to the observer's right eye, and the left eye is only the left eye image. As a result, parallax occurs between the left and right images, and as a result, the observer sees a stereoscopic image. Furthermore, for example, Patent Document 1 discloses a technique in which glasses are unnecessary by measuring the position of the observer's viewpoint using a sensor and generating and displaying a stereoscopic image corresponding to the observer's line of sight.
上記のような従来技術においては、3次元画像データに基づいて、右眼用及び左眼用にそれぞれ2次元画像データを生成する処理に多大な時間を要してしまうという問題がある。特に観測者が移動したり或いは観測者が別の観測者に変わったりするなどして視点の位置が変わるたびに、3次元画像データから2次元画像データを即時に生成して表示しなければならないような場合もあるが、このような生成処理を迅速に実行することは容易ではない。
本発明は、上述した背景の下になされたものであり、立体画像を表示するための画像データを従来よりも迅速且つ簡易な方法で得て、これを用いて観測者に立体画像を観測させることを可能にするものである。 The present invention has been made under the above-described background, and obtains image data for displaying a stereoscopic image by a quicker and simpler method than before, and allows the observer to observe the stereoscopic image using this. It makes it possible.
上述の課題を解決するために、本発明は、画像データを入力する入力手段と、観測者の視点の位置が移動した量を検出する検出手段と、前記検出手段によって検出された視点位置の移動量に合わせて、前記入力手段によって入力された画像データが表す画像の位置を2次元平面上で平行移動させる画像処理手段と、前記画像処理手段によって画像の位置が移動させられた画像データに基づいて画像を表示する表示手段とを備える立体画像表示装置を提供する。この立体画像表示装置によれば、例えば風景画像のように撮像点ないし観測点から十分遠方にあるような物体の画像であれば、観測者の視点位置の移動量に合わせてその画像の位置を2次元平面上で平行移動させるという簡易な処理を経るだけで立体画像用の画像データを生成することができる。もちろん、生成した画像データのデータ量も従来技術に比べて少なくて済む。また、観測者の視点の位置が移動したことによる画像のずれも発生しない。 In order to solve the above-described problems, the present invention provides an input means for inputting image data, a detection means for detecting the amount of movement of the observer's viewpoint position, and movement of the viewpoint position detected by the detection means. Based on the image processing unit that translates the position of the image represented by the image data input by the input unit on a two-dimensional plane in accordance with the amount, and the image data that has been moved by the image processing unit A stereoscopic image display device comprising display means for displaying an image. According to this stereoscopic image display device, for example, an image of an object that is sufficiently far from the imaging point or observation point, such as a landscape image, the position of the image is adjusted according to the amount of movement of the observer's viewpoint position. It is possible to generate image data for a stereoscopic image only through a simple process of translating on a two-dimensional plane. Of course, the amount of generated image data is smaller than that of the prior art. Further, there is no image shift due to the movement of the observer's viewpoint position.
本発明の好ましい態様において、前記表示手段は、画像データに基づいた画像が表示される表示面と、前記表示面に平行に設けられて該表示面から発せられた画像光を背面から観測面に向けて透過する観測パネルとを有し、前記画像処理手段は、移動前の前記観測者の視点から前記表示面に表示された観測対象に対する視線が前記観測パネルのパネル面と交わる点と、移動後の前記観測者の視点から前記観測対象に対する視線が前記観測パネルのパネル面と交わる点との間の距離だけ、前記画像データが表す画像の位置を平行移動させる。 In a preferred aspect of the present invention, the display means includes a display surface on which an image based on image data is displayed, and image light provided in parallel to the display surface and emitted from the display surface from the back surface to the observation surface. An observation panel that passes through, and the image processing means moves from a point of view of the observation panel displayed on the display surface from a viewpoint of the observer before the movement and a point where the line of sight intersects the panel surface of the observation panel. The position of the image represented by the image data is translated by the distance between the point of view of the observation object and the point where the line of sight of the observation target intersects the panel surface of the observation panel.
また、本発明は、立体画像表示装置が、画像データを自装置に入力するステップと、前記立体画像表示装置が、観測者の視点の位置が移動した量を検出するステップと、前記立体画像表示装置が、検出された視点位置の移動量に合わせて、前記画像データが表す画像の位置を2次元平面上で平行移動させるステップと、前記立体画像表示装置において、画像の位置が移動させられた画像データに基づいた画像を表示するステップとを備える立体画像表示方法を提供する。 Further, the present invention provides a step in which the stereoscopic image display device inputs image data to the device itself, a step in which the stereoscopic image display device detects an amount by which the position of the observer's viewpoint has moved, and the stereoscopic image display The apparatus translates the position of the image represented by the image data on a two-dimensional plane in accordance with the detected movement amount of the viewpoint position, and the position of the image is moved in the stereoscopic image display apparatus. And a method of displaying an image based on image data.
また、本発明は、画像データに基づいた画像が表示される表示面と、前記表示面に平行に設けられて該表示面から発せられた画像光を背面から観測面に向けて透過する観測パネルとを有する立体画像表示装置が行う立体画像表示方法であって、画像データを自装置に入力するステップと、観測者の視点の位置が移動した量を検出するステップと、移動前の前記観測者の視点から前記表示面に表示された観測対象に対する視線が前記観測パネルのパネル面と交わる点と、移動後の前記観測者の視点から前記観測対象に対する視線が前記観測パネルのパネル面と交わる点との間の距離だけ、前記画像データが表す画像の位置を平行移動させるステップと、画像の位置が移動させられた画像データに基づいた画像を表示するステップとを備える立体画像表示方法を提供する。 The present invention also provides a display surface on which an image based on image data is displayed, and an observation panel that is provided in parallel to the display surface and transmits image light emitted from the display surface from the back toward the observation surface. A stereoscopic image display method performed by the stereoscopic image display device, the step of inputting image data to the device, the step of detecting the amount of movement of the position of the observer's viewpoint, and the observer before the movement The point of view of the observation target displayed on the display surface from the point of view intersects with the panel surface of the observation panel, and the point of view of the observation target from the point of view of the observer after intersecting the panel surface of the observation panel And a step of translating the position of the image represented by the image data by a distance between and a step of displaying an image based on the image data to which the position of the image has been moved. To provide an image display method.
以下、図面を参照して、本発明の最良の実施形態について説明する。
(1)装置構成
図1は、本発明の実施形態に係る立体画像表示装置1を上方から見た場合の断面図を表している。筐体11の内部には、入力部12と、画像処理部13と、2次元情報投影機14と、表示面15とが設けられている。入力部12は、例えばインターネットやISDN(Integrated Services Digital Network)網等の通信網20に接続されている。入力部12は、外部装置(図示略)から通信網20経由で立体画像表示装置1宛てに送信されてくる画像データを受信すると、これを画像処理部13に供給する。この画像データは、例えばデジタルカメラ等によって撮像された画像を表したものであり、撮像されると直ちに、デジタルカメラに接続された外部装置から通信網20経由で立体画像表示装置1に送信されてくる。またこれ以外にも、画像データはWWWサーバ装置等の外部装置にコンテンツとして予め蓄積されたものであってもよい。なお、図2に示すように、携帯電話機等のデータ通信の可能な移動局40を入力部12に接続し、移動体通信網30経由で画像データを受信するように構成することも可能である。このようにすれば、固定通信網が整備されていないような山間部などで撮像された立体画像の画像データを立体画像表示装置1に送信することも可能となる。
Hereinafter, the best embodiment of the present invention will be described with reference to the drawings.
(1) Device Configuration FIG. 1 is a cross-sectional view of a stereoscopic image display device 1 according to an embodiment of the present invention as viewed from above. Inside the
立体画像表示装置1は、立体画像表示装置1の前に居る観測者Aを撮像して画像認識等の処理を経ることで観測者の視点の位置を特定し、観測者が移動した場合にはその移動量(以下、視点移動量という)を検出する検出装置17を備えている。ここで、撮像画像から観測者の視点の位置を特定するための画像処理に関しては既に周知の技術を利用すればよい。画像処理部13は、検出装置17によって検出された視点移動量に合わせて、入力部12から供給される画像データが表す画像を2次元平面上で平行移動した2次元画像データに変換し、これを2次元情報投影機14に供給する。2次元情報投影機14は、例えば背面投影型の液晶プロジェクタ装置であり、画像処理部13から供給された2次元画像データに基づいた2次元画像を、図中の点線矢印に示すように表示面15の背面に向かって投影する。
The stereoscopic image display device 1 captures the observer A in front of the stereoscopic image display device 1, identifies the position of the observer's viewpoint by performing processing such as image recognition, and when the observer moves
表示面15は、背面に投影された画像を表面側に透過する。筐体11の観測者Aに対向する正面側には、表示面15の面積よりも小さい面積の観測パネル16が設けられている。この観測パネル16は、表示面15から距離lだけ離れた位置に表示面15と平行になるように設けられており、表示面15から発せられた画像光を背面から観測面に透過する。観測者Aは、立体画像用の眼鏡をかけた状態で、観測パネル16を介して表示面15上の画像を見ることになる。
The
(2)立体画像を表示する原理
次に、立体画像表示装置1が立体画像を表示する原理について説明する。
まず、観測者から見た場合の座標系(観測者座標系)と、立体表示される物体が存在する物体座標系との関係を考える。図3は、これら両座標系についての説明図であり、観測者Aから観測した場合の観測者A座標系Lと物体座標系Rとの関係を表している。また、図3には、観測者Aが点線矢印に示すように図中右上方向に移動した場合を観測者A’として、その移動後の視点の位置も図示している。観測者座標系は、観測者の視線に直交する面における2次元座標系である。図3では、観測者Aが観測パネル16のちょうど正面に相対するような位置に居るので、観測者A座標系Lの座標面と観測パネル16のパネル面とが一致することになる。
(2) Principle of displaying a stereoscopic image Next, the principle of how the stereoscopic image display device 1 displays a stereoscopic image will be described.
First, consider the relationship between the coordinate system (observer coordinate system) when viewed from the observer and the object coordinate system in which a three-dimensionally displayed object exists. FIG. 3 is an explanatory diagram for both coordinate systems, and shows the relationship between the observer A coordinate system L and the object coordinate system R when observed from the observer A. FIG. 3 also shows the position of the viewpoint after the movement when the observer A moves in the upper right direction in the figure as indicated by the dotted arrow, as the observer A ′. The observer coordinate system is a two-dimensional coordinate system in a plane orthogonal to the observer's line of sight. In FIG. 3, since the observer A is at a position just opposite to the front of the
一方、物体座標系Rは、3次元空間中の任意の場所に原点とX,Y,Zの座標軸とを設けた3次元座標系である。物体座標系Rにおける点(X,Y,Z)と、その点の像が観測される観測者座標系の点(Xc,Yc)との関係は、3行4列の行列Cによって表現することができる。すなわち、物体座標系Rにおける点を(X,Y,Z,1)、観測者座標系における点を(Xc,Yc,1)と表現すると、両者の関係は(i)式で表されることに
なる(Hcは媒介変数)。なお、この内容については「井口征士、佐藤宏介、3次元画像計測、昭晃堂、1990」に詳細に記載されている。
ここで、画像の撮像点から十分遠方に存在している物体(例えば遠方の風景等)については、図3において、
z1≒∞
z1’≒∞
Z=z1+z2≒∞
Z’=z’1+z’2≒∞
とみなすことができる。
なお、z1、z2、z’1、z’2は、それぞれ図3に示すような線分の長さを意味している。すなわち、z1は、観測者Aの視点から表示面15に表示された観測対象(点r)に対する視線が観測面(観測者A座標系L)と交わる点と、表示面15に表示された観測対象(点r)との間の距離を意味している。また、z2は、観測者Aの視点と、その観測者Aの視点から観測対象(点r)に対する視線が観測面(観測者A座標系L)と交わる点との間の距離を意味している。そして、z’1は、観測者A’の視点から観測対象(点r)に対する視線が観測面(観測者A座標系L)と交わる点と、観測対象(点r)との間の距離を意味している。また、z’2は、観測者A’の視点と、その観測者A’の視点から観測対象(点r)に対する視線が観測面(観測者A座標系L)と交わる点との間の距離を意味している。
Here, for an object (for example, a distant landscape) existing sufficiently far from the image capturing point, in FIG.
z 1 ≒ ∞
z 1 '≒ ∞
Z = z 1 + z 2 ≒ ∞
Z ′ = z ′ 1 + z ′ 2 ≒ ∞
Can be considered.
Here, z 1 , z 2 , z ′ 1 , z ′ 2 mean the lengths of line segments as shown in FIG. That is, z 1 is displayed on the
この結果、Z≒Z’となり、物体座標系RにおいてはZの影響を無視することができる。そのため、観測者Aの視点の移動による物体座標系Rにおける回転については、次の(ii)式、(iii)式、(iv)式で表される一般的な3次元の回転公式に当てはめることがで
きる。
ここで、各軸周りの回転を考えると、既に説明したようにz1≒∞,Z≒z1であることより、物体座標系Rにおける奥行きZをZ≒∞とみなすことができる。そのため、θ≒0、α≒0、β≒0となり、物体座標系R上の各軸周りの回転は、その回転前に対してほとんど影響を及ぼさないといえる。すなわち、十分遠方に観測される風景等の物体に関しては、物体座標系Rの3次元画像情報へ変換しなくても問題ないことになる。例えば観測点(ないし撮像点)から数十メートル程度以上の距離であれば回転の影響をほとんど受けないと考えられるので、上記の「遠方」とは観測点(ないし撮像点)から数十メートル程度以上の距離であることばが望ましい。 Here, considering the rotation around each axis, as described above, since z 1 ≈∞ and Z≈z 1 , the depth Z in the object coordinate system R can be regarded as Z≈∞. Therefore, θ≈0, α≈0, β≈0, and it can be said that the rotation around each axis on the object coordinate system R has little influence on the rotation before the rotation. That is, for an object such as a landscape observed far enough away, there is no problem even if it is not converted into the three-dimensional image information of the object coordinate system R. For example, if it is a distance of several tens of meters or more from the observation point (or imaging point), it is considered that it is hardly affected by rotation, so the above “distant” is about several tens of meters from the observation point (or imaging point). It is desirable that the distance is greater than the above.
そこで、本実施形態においては、画像データの供給源である外部装置が、画像の観測点ないし撮像点から十分遠方の物体に関しては、物体座標系Rにおける2次元画像データだけを用意し、3次元画像データを不要としている。これにより、外部装置による画像データの生成処理が簡易となり、その生成処理に要する処理時間も少なくて済むことになる。また、生成した画像データのデータ量も従来のように3次元画像データを変換して得られる2次元画像データの量に比べて少なくなる。 Therefore, in the present embodiment, the external device that is the image data supply source prepares only two-dimensional image data in the object coordinate system R for an object sufficiently far from the observation point or imaging point of the image, and Image data is unnecessary. As a result, the generation process of the image data by the external device is simplified, and the processing time required for the generation process can be reduced. Further, the data amount of the generated image data is also smaller than the amount of two-dimensional image data obtained by converting the three-dimensional image data as in the prior art.
ただし、観測者座標系においては観測者の視点の位置が移動すると、それまでは観測者から見えなかった領域が見えてくるようになる。例えば、移動前の観測者Aの視点からは図4の領域Fは観測することができないが、移動後の観測者A’の視点からは領域Fを観測することができる。また、図4に示すように、物体座標系Rの(X,Y)は、観測者Aの視点からは観測者A座標系Lにおける(Xc1,Yc1)の位置に観測されることになるが、観測者A’の視点からは観測者A’座標系L’における(Xb,Yb)の位置に観測されることになる。これを、観測面と一致する観測者A座標系Lに置き換えると、(Xc2,Yc2)となる。つまり、観測者A座標系L(すなわち観測面)においては、(Xc1,Yc1)に対して(Hx,Hy)のずれが生じる。なお、Hx,Hyはそれぞれ、ずれ量H=(Hx 2 +Hy 2)1/2のX方向成分、Y方向成分を意味している。図4は、Y軸に平行な平面上の位置関係を図示したものであるから、ずれHのX方向成分であるHxのみを表記している。 However, in the observer coordinate system, when the position of the observer's viewpoint moves, an area that has not been seen by the observer until then becomes visible. For example, the area F in FIG. 4 cannot be observed from the viewpoint of the observer A before the movement, but the area F can be observed from the viewpoint of the observer A ′ after the movement. Further, as shown in FIG. 4, (X, Y) in the object coordinate system R is observed at the position of (X c1 , Y c1 ) in the observer A coordinate system L from the viewpoint of the observer A. However, from the viewpoint of the observer A ′, the observation is made at the position (X b , Y b ) in the observer A ′ coordinate system L ′. When this is replaced with an observer A coordinate system L that coincides with the observation surface, (X c2 , Y c2 ) is obtained. That is, in the observer A coordinate system L (that is, the observation surface), a shift of (H x , H y ) occurs with respect to (X c1 , Y c1 ). H x and H y mean the X direction component and the Y direction component of the shift amount H = (H x 2 + H y 2 ) 1/2 , respectively. Since FIG. 4 illustrates the positional relationship on the plane parallel to the Y axis, only H x that is the X direction component of the deviation H is shown.
上記のようなずれが生じるために、図5に示すように、物体座標系Rに見立てた2次元画像データの座標(X’,Y’)を観測面(すなわち観測者A座標系L)の座標(Xc,Yc)に変換する必要が生じる。そのためには、観測者の右眼および左眼の視点の位置を特定し、原画像データを右眼および左眼の各々の視点位置に対して右眼および左眼で観測できる独立した2枚の画像に展開して投影すればよい。 Since the above-described deviation occurs, as shown in FIG. 5, the coordinates (X ′, Y ′) of the two-dimensional image data that is assumed to be the object coordinate system R are represented on the observation plane (that is, the observer A coordinate system L). It becomes necessary to convert to coordinates (X c , Y c ). For this purpose, the position of the viewpoint of the right eye and the left eye of the observer is specified, and the original image data can be observed with the right eye and the left eye with respect to the viewpoint positions of the right eye and the left eye. What is necessary is just to expand | deploy and project on an image.
そこで、本実施形態においては、次のような画像処理を実行することで上記の問題を解決した。図5においてZ≒∞とみなしたことにより、θ=0(θx≒0、θy≒0:なおθx,θyは、それぞれθのX軸方向成分、Y軸方向成分)となる。つまり、観測者Aの視線の方向(図中の線分la)と、観測者A’の視線の方向(図中の線分lb)とを平行とみなすことができる。ここで、観測者Aの視点位置の移動量(図中点線矢印で示す移動ベクトルの観測面に平行な成分)の大きさをSxとすると、線分laと線分lbとが平行だから、Sx≒Hxとなる。よって、物体座標系(X,Y)を(Hx,Hy)だけ平行移動させればよいことになる。つまり、移動前の観測者Aの視点からの視線が観測面(=観測パネル16のパネル面)と交わる点(Xc1,Yc1)と、移動後の観測者A’の視点からの視線が観測面(=観測パネル16のパネル面)と交わる点(Xc2,Yc2)との間の距離H=(Hx 2 +Hy 2)1/2だけ、画像の位置を移動させればよいというわけである。画像処理部13は、観測者の視点移動量を検出すると、図4に示したような位置関係から、(Hx,Hy)を計算によって求めることができる。よって、画像処理部13は、この(Hx,Hy)を用いて、物体座標系(X,Y)に見立てた広域の2次元画像データ(観測面Lよりも広い領域に対応する画像データ)の座標位置(X’,Y’)を観測者の視点位置に合わせて平行移動させればよい。
Therefore, in the present embodiment, the above problem is solved by executing the following image processing. By assuming that Z≈∞ in FIG. 5, θ = 0 (θ x ≈0, θ y ≈0: θ x and θ y are the X-axis direction component and Y-axis direction component of θ, respectively). That is, the direction of the line of sight of the observer A (line segment la in the figure) and the direction of the line of sight of the observer A ′ (line segment lb in the figure) can be regarded as parallel. Here, when the magnitude of the movement amount of the viewpoint position of the observer A (component parallel to the observation plane of the movement vector indicated by the dotted arrow in the figure) is S x , the line segment la and the line segment lb are parallel. S x ≈H x . Therefore, it is only necessary to translate the object coordinate system (X, Y) by (H x , H y ). That is, the point of view (X c1 , Y c1 ) where the line of sight from the viewpoint of the observer A before the movement intersects the observation plane (= the panel plane of the observation panel 16) and the line of sight from the viewpoint of the observer A ′ after the movement are If the position of the image is moved by a distance H = (H x 2 + H y 2 ) 1/2 between the observation plane (= panel plane of the observation panel 16) and the point (X c2 , Y c2 ) that intersects the observation plane That's good. When detecting the viewpoint movement amount of the observer, the
以上のようにして、画像処理部13は、入力部12から供給される2次元画像データが表す画像の位置を観測者の視点移動量に合わせて平行移動した画像データを生成し、これを2次元情報投影機14に供給する。2次元情報投影機14は、画像処理部13から供給された2次元画像データに基づき2次元画像を表示面15に向かって投影する。これにより、観測者は観測パネル16を介して表示面15を見ることで立体画像を観測することができる。
As described above, the
上述した実施形態によれば、観測者の視点の位置に合わせて画像の位置を平行移動するので、観測者の視点の位置に合わせた立体画像を表示することができる。また、本実施形態では2次元画像データを用いているので、従来の3次元画像データに比べて通信網20上のデータ伝送量が少なくて済む。このことは特に移動体通信網30経由で画像データを伝送するような場合に有利である。また、表示対象を遠方に観測される風景などに限定したことにより、動画像における前画像との差分データを大幅に削減することも可能となる。これによって、固定通信網が整備されていないような山間部などとの間で立体画像の画像データを送受信することもできる。
According to the above-described embodiment, since the position of the image is translated in accordance with the position of the observer's viewpoint, a stereoscopic image that matches the position of the observer's viewpoint can be displayed. In addition, since the two-dimensional image data is used in the present embodiment, the data transmission amount on the
なお、上記の実施形態においては、説明を簡単にするため、1つの2次元画像を用いる場合について説明したが、奥行きの異なる複数の2次元画像からなる3次元画像を対象としてもよい。
また、観測者の視点の位置は、前述したように観測者を撮像した画像に基づいて特定するという方法もあるが、これ以外にも、例えば観測者が着席する座席の位置が予め分かっているのであれば、どの座席に観測者が着席しているかをその都度指定することで視点の位置を特定し、その移動量を求めるようにしてもよい。
また、上記の実施形態では、観測者の右眼と左眼とをそれぞれ観測者の視点の位置としていたが、これに限らず、例えば右眼と左眼とを結ぶ線分の中点を観測者の視点の位置としてもよい。このように視点の位置を1つに定めた場合には、観測者は立体画像用の眼鏡を装着しなくても立体的な画像を観測することも可能となる。
In the above-described embodiment, the case where one two-dimensional image is used has been described for the sake of simplicity. However, a three-dimensional image including a plurality of two-dimensional images having different depths may be a target.
In addition, there is a method in which the position of the observer's viewpoint is specified based on the image obtained by capturing the observer as described above, but other than this, for example, the position of the seat where the observer is seated is known in advance. In this case, the position of the viewpoint may be specified by designating each seat where the observer is seated, and the movement amount may be obtained.
In the above embodiment, the observer's right eye and left eye are the positions of the observer's viewpoints. However, the present invention is not limited to this. For example, the midpoint of a line segment connecting the right eye and the left eye is observed. It may be the position of the person's viewpoint. In this way, when the position of the viewpoint is set to one, the observer can observe a stereoscopic image without wearing glasses for stereoscopic images.
1…立体画像表示装置、11…筐体、12…入力部、13…画像処理部、14…2次元情報投影機、15…表示面、16…観測パネル、17…検出装置。 DESCRIPTION OF SYMBOLS 1 ... Stereoscopic image display apparatus, 11 ... Housing | casing, 12 ... Input part, 13 ... Image processing part, 14 ... Two-dimensional information projector, 15 ... Display surface, 16 ... Observation panel, 17 ... Detection apparatus.
Claims (5)
観測者の視点の位置が移動した量を検出する検出手段と、
前記検出手段によって検出された視点位置の移動量に合わせて、前記入力手段によって入力された画像データが表す画像の位置を2次元平面上で平行移動させる画像処理手段と、
前記画像処理手段によって画像の位置が移動させられた画像データに基づいて画像を表示する表示手段と
を備える立体画像表示装置。 Input means for inputting image data;
Detection means for detecting the amount of movement of the position of the observer's viewpoint;
An image processing unit that translates the position of the image represented by the image data input by the input unit on a two-dimensional plane in accordance with the movement amount of the viewpoint position detected by the detection unit;
A stereoscopic image display device comprising: display means for displaying an image based on image data whose image position has been moved by the image processing means.
前記画像処理手段は、移動前の前記観測者の視点から前記表示面に表示された観測対象に対する視線が前記観測パネルのパネル面と交わる点と、移動後の前記観測者の視点から前記観測対象に対する視線が前記観測パネルのパネル面と交わる点との間の距離だけ、前記画像データが表す画像の位置を平行移動させる請求項1記載の立体画像表示装置。 The display means includes a display surface on which an image based on image data is displayed, an observation panel provided in parallel with the display surface and transmitting image light emitted from the display surface from the back toward the observation surface; Have
The image processing means includes a point where a line of sight with respect to the observation target displayed on the display surface from the observer's viewpoint before movement intersects with a panel surface of the observation panel, and the observation target from the observer's viewpoint after movement. The stereoscopic image display apparatus according to claim 1, wherein the position of the image represented by the image data is translated by a distance between a line of sight of the image and a point where the line of sight intersects the panel surface of the observation panel.
前記入力手段は、前記移動局によって受信された画像データを受け取って前記画像処理手段に供給する請求項1に記載の立体画像表示装置。 A mobile station that performs data communication via a mobile communication network
The stereoscopic image display apparatus according to claim 1, wherein the input unit receives image data received by the mobile station and supplies the image data to the image processing unit.
前記立体画像表示装置が、観測者の視点の位置が移動した量を検出するステップと、
前記立体画像表示装置が、検出された視点位置の移動量に合わせて、前記画像データが表す画像の位置を2次元平面上で平行移動させるステップと、
前記立体画像表示装置において、画像の位置が移動させられた画像データに基づいた画像を表示するステップと
を備える立体画像表示方法。 A step in which a stereoscopic image display device inputs image data to the device;
The stereoscopic image display device detects the amount by which the position of the observer's viewpoint has moved;
The stereoscopic image display device translates the position of the image represented by the image data on a two-dimensional plane in accordance with the detected movement amount of the viewpoint position;
A stereoscopic image display method comprising: a step of displaying an image based on image data whose image position has been moved in the stereoscopic image display device.
画像データを自装置に入力するステップと、
観測者の視点の位置が移動した量を検出するステップと、
移動前の前記観測者の視点から前記表示面に表示された観測対象に対する視線が前記観測パネルのパネル面と交わる点と、移動後の前記観測者の視点から前記観測対象に対する視線が前記観測パネルのパネル面と交わる点との間の距離だけ、前記画像データが表す画像の位置を平行移動させるステップと、
画像の位置が移動させられた画像データに基づいた画像を表示するステップと
を備える立体画像表示方法。 Stereoscopic image display having a display surface on which an image based on image data is displayed, and an observation panel provided in parallel to the display surface and transmitting image light emitted from the display surface from the back toward the observation surface A stereoscopic image display method performed by the apparatus,
Inputting image data to the device;
Detecting the amount by which the position of the observer's viewpoint has moved;
The point of view of the observation target displayed on the display surface from the viewpoint of the observer before movement intersects the panel surface of the observation panel, and the line of sight of the observation target from the viewpoint of the observer after movement Translating the position of the image represented by the image data by a distance between a point intersecting the panel surface of
And a step of displaying an image based on the image data whose image position has been moved.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005004520A JP2006197036A (en) | 2005-01-11 | 2005-01-11 | Device and method for stereoscopic image display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005004520A JP2006197036A (en) | 2005-01-11 | 2005-01-11 | Device and method for stereoscopic image display |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006197036A true JP2006197036A (en) | 2006-07-27 |
Family
ID=36802779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005004520A Pending JP2006197036A (en) | 2005-01-11 | 2005-01-11 | Device and method for stereoscopic image display |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006197036A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9064444B2 (en) | 2012-05-31 | 2015-06-23 | Samsung Display Co., Ltd. | Three-dimensional display device |
WO2017212679A1 (en) * | 2016-06-08 | 2017-12-14 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
WO2019026388A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
WO2019026184A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
-
2005
- 2005-01-11 JP JP2005004520A patent/JP2006197036A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9064444B2 (en) | 2012-05-31 | 2015-06-23 | Samsung Display Co., Ltd. | Three-dimensional display device |
WO2017212679A1 (en) * | 2016-06-08 | 2017-12-14 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
JPWO2017212679A1 (en) * | 2016-06-08 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | Image generating apparatus and image generating method |
US10607417B2 (en) | 2016-06-08 | 2020-03-31 | Sony Interactive Entertainment Inc. | Image generating apparatus and image generating method |
WO2019026388A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
WO2019026184A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
WO2019026183A1 (en) * | 2017-08-01 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
JPWO2019026388A1 (en) * | 2017-08-01 | 2020-03-19 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation apparatus and image generation method |
JPWO2019026184A1 (en) * | 2017-08-01 | 2020-03-26 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation apparatus and image generation method |
US10999567B2 (en) | 2017-08-01 | 2021-05-04 | Sony Interactive Entertainment Inc. | Image generating apparatus and image generating method |
US11050993B2 (en) | 2017-08-01 | 2021-06-29 | Sony Interactive Entertainment Inc. | Image generating apparatus and image generating method |
JP7057785B2 (en) | 2017-08-01 | 2022-04-20 | 株式会社ソニー・インタラクティブエンタテインメント | Image generator and image generation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110383343B (en) | Inconsistency detection system, mixed reality system, program, and inconsistency detection method | |
CN106454311B (en) | A kind of LED 3-D imaging system and method | |
TWI520576B (en) | Method and system for converting 2d images to 3d images and computer-readable medium | |
EP3735775A1 (en) | Augmented reality displays with active alignment and corresponding methods | |
US20160295194A1 (en) | Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images | |
JP2007042055A (en) | Image processing method and image processor | |
JP2015007835A (en) | Image processing apparatus and image processing method | |
JP2009210840A (en) | Stereoscopic image display device and method, and program | |
JP2008140271A (en) | Interactive device and method thereof | |
JP2010250452A (en) | Arbitrary viewpoint image synthesizing device | |
WO2018028152A1 (en) | Image acquisition device and virtual reality device | |
KR20160094190A (en) | Apparatus and method for tracking an eye-gaze | |
JP7005224B2 (en) | Information processing equipment, systems, image processing methods, computer programs, and storage media | |
JP4580678B2 (en) | Gaze point display device | |
KR20140121529A (en) | Method and apparatus for formating light field image | |
KR20110055032A (en) | Apparatus and method for generating three demension content in electronic device | |
JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
JP2006197036A (en) | Device and method for stereoscopic image display | |
CN107592520B (en) | Imaging device and imaging method of AR equipment | |
JP2018022242A (en) | Composite system and target marker | |
JP4931078B2 (en) | Method and apparatus for displaying a pseudo three-dimensional image of a three-dimensional object corresponding to a viewpoint movement of a viewer | |
JP2017046233A (en) | Display device, information processor, and control method of the same | |
JP2006340017A (en) | Device and method for stereoscopic video image display | |
JP5689693B2 (en) | Drawing processor | |
JP4144981B2 (en) | Stereoscopic image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070123 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070821 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080527 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080625 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20080625 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080807 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20080903 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20080905 |