JP2006197036A - Device and method for stereoscopic image display - Google Patents

Device and method for stereoscopic image display Download PDF

Info

Publication number
JP2006197036A
JP2006197036A JP2005004520A JP2005004520A JP2006197036A JP 2006197036 A JP2006197036 A JP 2006197036A JP 2005004520 A JP2005004520 A JP 2005004520A JP 2005004520 A JP2005004520 A JP 2005004520A JP 2006197036 A JP2006197036 A JP 2006197036A
Authority
JP
Japan
Prior art keywords
image
observer
image data
viewpoint
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005004520A
Other languages
Japanese (ja)
Inventor
Takeshi Yokoyama
武司 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Shikoku Inc
Original Assignee
NTT Docomo Shikoku Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Shikoku Inc filed Critical NTT Docomo Shikoku Inc
Priority to JP2005004520A priority Critical patent/JP2006197036A/en
Publication of JP2006197036A publication Critical patent/JP2006197036A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain two-dimensional image information for displaying a stereoscopic image by a speedier and easier method than before and to allow an observer to observe the stereoscopic image by using the information. <P>SOLUTION: Only two-dimensional image data of a body coordinate system R are prepared for a body at a sufficient distance from an observation point and an imaging point of an image. In concrete, the position of the image is moved by the difference (H<SB>x</SB>, H<SB>y</SB>) between the point (X<SB>c1</SB>, Y<SB>c1</SB>) where the line of sight of the observer A before movement intersects an observation plane (a panel surface of an observation panel 16) and the point (X<SB>c2</SB>, Y<SB>c2</SB>) where the line of sight of an observer A' after movement intersects the observation plane (the panel surface of the observation panel 16). A stereoscopic image display device 1 displays a two-dimensional image based upon two-dimensional image data whose image position is moved. Consequently, the observer can observe the stereoscopic image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は立体画像を表示するための技術に関する。   The present invention relates to a technique for displaying a stereoscopic image.

人間の目に立体的に見える画像(以下、立体画像という)を表示するために、従来から様々な技術が提案されている。典型的な立体画像の表示方法は、右眼用の画像と左眼用の画像とを短い周期で交互に表示し、これらの画像を表示面上に設けた偏光フィルターによって互いに直交する方向に偏光させるというものである。観測者が、左右に直交する方向の変更選択性を有する眼鏡を通してこの画像を観測すると、観測者の右眼には右眼用の画像のみが見えるし左眼には左眼用の画像のみが見えることになり、左右の画像で視差が発生し、この結果、観測者にとっては立体的な画像に見えることになる。さらに、例えば特許文献1には、観測者の視点の位置をセンサによって計測し、観測者の視線に応じた立体画像を生成して表示することで眼鏡を不要にした技術が開示されている。   Conventionally, various techniques have been proposed for displaying an image that is stereoscopically visible to the human eye (hereinafter referred to as a stereoscopic image). A typical method for displaying a stereoscopic image is to display an image for the right eye and an image for the left eye alternately in a short cycle, and these images are polarized in directions orthogonal to each other by a polarizing filter provided on the display surface. It is to let you. When an observer observes this image through glasses having change selectivity in the direction orthogonal to the left and right, only the right eye image is visible to the observer's right eye, and the left eye is only the left eye image. As a result, parallax occurs between the left and right images, and as a result, the observer sees a stereoscopic image. Furthermore, for example, Patent Document 1 discloses a technique in which glasses are unnecessary by measuring the position of the observer's viewpoint using a sensor and generating and displaying a stereoscopic image corresponding to the observer's line of sight.

上記のような従来技術においては、3次元画像データに基づいて、右眼用及び左眼用にそれぞれ2次元画像データを生成する処理に多大な時間を要してしまうという問題がある。特に観測者が移動したり或いは観測者が別の観測者に変わったりするなどして視点の位置が変わるたびに、3次元画像データから2次元画像データを即時に生成して表示しなければならないような場合もあるが、このような生成処理を迅速に実行することは容易ではない。
特開2002−77946号公報
In the conventional technology as described above, there is a problem that it takes a lot of time to generate the two-dimensional image data for the right eye and the left eye based on the three-dimensional image data. In particular, every time the position of the viewpoint changes, such as when the observer moves or the observer changes to another observer, 2D image data must be generated and displayed from 3D image data immediately. In some cases, it is not easy to execute such a generation process quickly.
JP 2002-77946 A

本発明は、上述した背景の下になされたものであり、立体画像を表示するための画像データを従来よりも迅速且つ簡易な方法で得て、これを用いて観測者に立体画像を観測させることを可能にするものである。   The present invention has been made under the above-described background, and obtains image data for displaying a stereoscopic image by a quicker and simpler method than before, and allows the observer to observe the stereoscopic image using this. It makes it possible.

上述の課題を解決するために、本発明は、画像データを入力する入力手段と、観測者の視点の位置が移動した量を検出する検出手段と、前記検出手段によって検出された視点位置の移動量に合わせて、前記入力手段によって入力された画像データが表す画像の位置を2次元平面上で平行移動させる画像処理手段と、前記画像処理手段によって画像の位置が移動させられた画像データに基づいて画像を表示する表示手段とを備える立体画像表示装置を提供する。この立体画像表示装置によれば、例えば風景画像のように撮像点ないし観測点から十分遠方にあるような物体の画像であれば、観測者の視点位置の移動量に合わせてその画像の位置を2次元平面上で平行移動させるという簡易な処理を経るだけで立体画像用の画像データを生成することができる。もちろん、生成した画像データのデータ量も従来技術に比べて少なくて済む。また、観測者の視点の位置が移動したことによる画像のずれも発生しない。   In order to solve the above-described problems, the present invention provides an input means for inputting image data, a detection means for detecting the amount of movement of the observer's viewpoint position, and movement of the viewpoint position detected by the detection means. Based on the image processing unit that translates the position of the image represented by the image data input by the input unit on a two-dimensional plane in accordance with the amount, and the image data that has been moved by the image processing unit A stereoscopic image display device comprising display means for displaying an image. According to this stereoscopic image display device, for example, an image of an object that is sufficiently far from the imaging point or observation point, such as a landscape image, the position of the image is adjusted according to the amount of movement of the observer's viewpoint position. It is possible to generate image data for a stereoscopic image only through a simple process of translating on a two-dimensional plane. Of course, the amount of generated image data is smaller than that of the prior art. Further, there is no image shift due to the movement of the observer's viewpoint position.

本発明の好ましい態様において、前記表示手段は、画像データに基づいた画像が表示される表示面と、前記表示面に平行に設けられて該表示面から発せられた画像光を背面から観測面に向けて透過する観測パネルとを有し、前記画像処理手段は、移動前の前記観測者の視点から前記表示面に表示された観測対象に対する視線が前記観測パネルのパネル面と交わる点と、移動後の前記観測者の視点から前記観測対象に対する視線が前記観測パネルのパネル面と交わる点との間の距離だけ、前記画像データが表す画像の位置を平行移動させる。   In a preferred aspect of the present invention, the display means includes a display surface on which an image based on image data is displayed, and image light provided in parallel to the display surface and emitted from the display surface from the back surface to the observation surface. An observation panel that passes through, and the image processing means moves from a point of view of the observation panel displayed on the display surface from a viewpoint of the observer before the movement and a point where the line of sight intersects the panel surface of the observation panel. The position of the image represented by the image data is translated by the distance between the point of view of the observation object and the point where the line of sight of the observation target intersects the panel surface of the observation panel.

また、本発明は、立体画像表示装置が、画像データを自装置に入力するステップと、前記立体画像表示装置が、観測者の視点の位置が移動した量を検出するステップと、前記立体画像表示装置が、検出された視点位置の移動量に合わせて、前記画像データが表す画像の位置を2次元平面上で平行移動させるステップと、前記立体画像表示装置において、画像の位置が移動させられた画像データに基づいた画像を表示するステップとを備える立体画像表示方法を提供する。   Further, the present invention provides a step in which the stereoscopic image display device inputs image data to the device itself, a step in which the stereoscopic image display device detects an amount by which the position of the observer's viewpoint has moved, and the stereoscopic image display The apparatus translates the position of the image represented by the image data on a two-dimensional plane in accordance with the detected movement amount of the viewpoint position, and the position of the image is moved in the stereoscopic image display apparatus. And a method of displaying an image based on image data.

また、本発明は、画像データに基づいた画像が表示される表示面と、前記表示面に平行に設けられて該表示面から発せられた画像光を背面から観測面に向けて透過する観測パネルとを有する立体画像表示装置が行う立体画像表示方法であって、画像データを自装置に入力するステップと、観測者の視点の位置が移動した量を検出するステップと、移動前の前記観測者の視点から前記表示面に表示された観測対象に対する視線が前記観測パネルのパネル面と交わる点と、移動後の前記観測者の視点から前記観測対象に対する視線が前記観測パネルのパネル面と交わる点との間の距離だけ、前記画像データが表す画像の位置を平行移動させるステップと、画像の位置が移動させられた画像データに基づいた画像を表示するステップとを備える立体画像表示方法を提供する。   The present invention also provides a display surface on which an image based on image data is displayed, and an observation panel that is provided in parallel to the display surface and transmits image light emitted from the display surface from the back toward the observation surface. A stereoscopic image display method performed by the stereoscopic image display device, the step of inputting image data to the device, the step of detecting the amount of movement of the position of the observer's viewpoint, and the observer before the movement The point of view of the observation target displayed on the display surface from the point of view intersects with the panel surface of the observation panel, and the point of view of the observation target from the point of view of the observer after intersecting the panel surface of the observation panel And a step of translating the position of the image represented by the image data by a distance between and a step of displaying an image based on the image data to which the position of the image has been moved. To provide an image display method.

以下、図面を参照して、本発明の最良の実施形態について説明する。
(1)装置構成
図1は、本発明の実施形態に係る立体画像表示装置1を上方から見た場合の断面図を表している。筐体11の内部には、入力部12と、画像処理部13と、2次元情報投影機14と、表示面15とが設けられている。入力部12は、例えばインターネットやISDN(Integrated Services Digital Network)網等の通信網20に接続されている。入力部12は、外部装置(図示略)から通信網20経由で立体画像表示装置1宛てに送信されてくる画像データを受信すると、これを画像処理部13に供給する。この画像データは、例えばデジタルカメラ等によって撮像された画像を表したものであり、撮像されると直ちに、デジタルカメラに接続された外部装置から通信網20経由で立体画像表示装置1に送信されてくる。またこれ以外にも、画像データはWWWサーバ装置等の外部装置にコンテンツとして予め蓄積されたものであってもよい。なお、図2に示すように、携帯電話機等のデータ通信の可能な移動局40を入力部12に接続し、移動体通信網30経由で画像データを受信するように構成することも可能である。このようにすれば、固定通信網が整備されていないような山間部などで撮像された立体画像の画像データを立体画像表示装置1に送信することも可能となる。
Hereinafter, the best embodiment of the present invention will be described with reference to the drawings.
(1) Device Configuration FIG. 1 is a cross-sectional view of a stereoscopic image display device 1 according to an embodiment of the present invention as viewed from above. Inside the housing 11, an input unit 12, an image processing unit 13, a two-dimensional information projector 14, and a display surface 15 are provided. The input unit 12 is connected to a communication network 20 such as the Internet or an ISDN (Integrated Services Digital Network) network. When the input unit 12 receives image data transmitted from an external device (not shown) to the stereoscopic image display device 1 via the communication network 20, the input unit 12 supplies the image data to the image processing unit 13. This image data represents, for example, an image captured by a digital camera or the like. As soon as the image data is captured, the image data is transmitted from the external device connected to the digital camera to the stereoscopic image display device 1 via the communication network 20. come. In addition to this, the image data may be stored in advance as content in an external device such as a WWW server device. As shown in FIG. 2, a mobile station 40 capable of data communication, such as a mobile phone, can be connected to the input unit 12 to receive image data via the mobile communication network 30. . In this way, it is possible to transmit to the stereoscopic image display device 1 image data of a stereoscopic image captured in a mountainous area where a fixed communication network is not provided.

立体画像表示装置1は、立体画像表示装置1の前に居る観測者Aを撮像して画像認識等の処理を経ることで観測者の視点の位置を特定し、観測者が移動した場合にはその移動量(以下、視点移動量という)を検出する検出装置17を備えている。ここで、撮像画像から観測者の視点の位置を特定するための画像処理に関しては既に周知の技術を利用すればよい。画像処理部13は、検出装置17によって検出された視点移動量に合わせて、入力部12から供給される画像データが表す画像を2次元平面上で平行移動した2次元画像データに変換し、これを2次元情報投影機14に供給する。2次元情報投影機14は、例えば背面投影型の液晶プロジェクタ装置であり、画像処理部13から供給された2次元画像データに基づいた2次元画像を、図中の点線矢印に示すように表示面15の背面に向かって投影する。   The stereoscopic image display device 1 captures the observer A in front of the stereoscopic image display device 1, identifies the position of the observer's viewpoint by performing processing such as image recognition, and when the observer moves A detection device 17 for detecting the amount of movement (hereinafter referred to as viewpoint movement amount) is provided. Here, a known technique may be used for image processing for specifying the position of the observer's viewpoint from the captured image. The image processing unit 13 converts the image represented by the image data supplied from the input unit 12 into two-dimensional image data translated in parallel on the two-dimensional plane according to the viewpoint movement amount detected by the detection device 17. Is supplied to the two-dimensional information projector 14. The two-dimensional information projector 14 is a rear projection type liquid crystal projector device, for example, and displays a two-dimensional image based on the two-dimensional image data supplied from the image processing unit 13 as indicated by a dotted arrow in the figure. Project toward the back of 15.

表示面15は、背面に投影された画像を表面側に透過する。筐体11の観測者Aに対向する正面側には、表示面15の面積よりも小さい面積の観測パネル16が設けられている。この観測パネル16は、表示面15から距離lだけ離れた位置に表示面15と平行になるように設けられており、表示面15から発せられた画像光を背面から観測面に透過する。観測者Aは、立体画像用の眼鏡をかけた状態で、観測パネル16を介して表示面15上の画像を見ることになる。   The display surface 15 transmits the image projected on the rear surface to the front surface side. An observation panel 16 having an area smaller than the area of the display surface 15 is provided on the front side of the housing 11 facing the observer A. The observation panel 16 is provided at a position separated from the display surface 15 by a distance l so as to be parallel to the display surface 15, and transmits image light emitted from the display surface 15 from the back surface to the observation surface. The observer A sees the image on the display surface 15 through the observation panel 16 in a state of wearing stereoscopic image glasses.

(2)立体画像を表示する原理
次に、立体画像表示装置1が立体画像を表示する原理について説明する。
まず、観測者から見た場合の座標系(観測者座標系)と、立体表示される物体が存在する物体座標系との関係を考える。図3は、これら両座標系についての説明図であり、観測者Aから観測した場合の観測者A座標系Lと物体座標系Rとの関係を表している。また、図3には、観測者Aが点線矢印に示すように図中右上方向に移動した場合を観測者A’として、その移動後の視点の位置も図示している。観測者座標系は、観測者の視線に直交する面における2次元座標系である。図3では、観測者Aが観測パネル16のちょうど正面に相対するような位置に居るので、観測者A座標系Lの座標面と観測パネル16のパネル面とが一致することになる。
(2) Principle of displaying a stereoscopic image Next, the principle of how the stereoscopic image display device 1 displays a stereoscopic image will be described.
First, consider the relationship between the coordinate system (observer coordinate system) when viewed from the observer and the object coordinate system in which a three-dimensionally displayed object exists. FIG. 3 is an explanatory diagram for both coordinate systems, and shows the relationship between the observer A coordinate system L and the object coordinate system R when observed from the observer A. FIG. 3 also shows the position of the viewpoint after the movement when the observer A moves in the upper right direction in the figure as indicated by the dotted arrow, as the observer A ′. The observer coordinate system is a two-dimensional coordinate system in a plane orthogonal to the observer's line of sight. In FIG. 3, since the observer A is at a position just opposite to the front of the observation panel 16, the coordinate plane of the observer A coordinate system L matches the panel plane of the observation panel 16.

一方、物体座標系Rは、3次元空間中の任意の場所に原点とX,Y,Zの座標軸とを設けた3次元座標系である。物体座標系Rにおける点(X,Y,Z)と、その点の像が観測される観測者座標系の点(Xc,Yc)との関係は、3行4列の行列Cによって表現することができる。すなわち、物体座標系Rにおける点を(X,Y,Z,1)、観測者座標系における点を(Xc,Yc,1)と表現すると、両者の関係は(i)式で表されることに
なる(Hcは媒介変数)。なお、この内容については「井口征士、佐藤宏介、3次元画像計測、昭晃堂、1990」に詳細に記載されている。

Figure 2006197036
On the other hand, the object coordinate system R is a three-dimensional coordinate system in which an origin and X, Y, and Z coordinate axes are provided at an arbitrary place in a three-dimensional space. The relationship between the point (X, Y, Z) in the object coordinate system R and the point (X c , Y c ) in the observer coordinate system where the image of the point is observed is expressed by a matrix C of 3 rows and 4 columns. can do. That is, if a point in the object coordinate system R is expressed as (X, Y, Z, 1) and a point in the observer coordinate system is expressed as (X c , Y c , 1), the relationship between them is expressed by equation (i). ( Hc is a parameter). This content is described in detail in “Seiji Iguchi, Kosuke Sato, 3D image measurement, Shoshodo, 1990”.

Figure 2006197036

ここで、画像の撮像点から十分遠方に存在している物体(例えば遠方の風景等)については、図3において、
1≒∞
1’≒∞
Z=z1+z2≒∞
Z’=z’1+z’2≒∞
とみなすことができる。
なお、z1、z2、z’1、z’2は、それぞれ図3に示すような線分の長さを意味している。すなわち、z1は、観測者Aの視点から表示面15に表示された観測対象(点r)に対する視線が観測面(観測者A座標系L)と交わる点と、表示面15に表示された観測対象(点r)との間の距離を意味している。また、z2は、観測者Aの視点と、その観測者Aの視点から観測対象(点r)に対する視線が観測面(観測者A座標系L)と交わる点との間の距離を意味している。そして、z’1は、観測者A’の視点から観測対象(点r)に対する視線が観測面(観測者A座標系L)と交わる点と、観測対象(点r)との間の距離を意味している。また、z’2は、観測者A’の視点と、その観測者A’の視点から観測対象(点r)に対する視線が観測面(観測者A座標系L)と交わる点との間の距離を意味している。
Here, for an object (for example, a distant landscape) existing sufficiently far from the image capturing point, in FIG.
z 1 ≒ ∞
z 1 '≒ ∞
Z = z 1 + z 2 ≒ ∞
Z ′ = z ′ 1 + z ′ 2 ≒ ∞
Can be considered.
Here, z 1 , z 2 , z ′ 1 , z ′ 2 mean the lengths of line segments as shown in FIG. That is, z 1 is displayed on the display surface 15 at a point where the line of sight of the observation target (point r) displayed on the display surface 15 from the viewpoint of the observer A intersects the observation surface (observer A coordinate system L). This means the distance to the observation target (point r). Z 2 means the distance between the viewpoint of the observer A and the point where the line of sight of the observation target (point r) intersects the observation plane (observer A coordinate system L) from the viewpoint of the observer A. ing. Z ′ 1 represents the distance between the point at which the line of sight of the observation target (point r) intersects the observation plane (observer A coordinate system L) from the viewpoint of the observer A ′ and the observation target (point r). I mean. Z ′ 2 is the distance between the viewpoint of the observer A ′ and the point where the line of sight of the observation target (point r) intersects the observation plane (observer A coordinate system L) from the viewpoint of the observer A ′. Means.

この結果、Z≒Z’となり、物体座標系RにおいてはZの影響を無視することができる。そのため、観測者Aの視点の移動による物体座標系Rにおける回転については、次の(ii)式、(iii)式、(iv)式で表される一般的な3次元の回転公式に当てはめることがで
きる。

Figure 2006197036
Figure 2006197036
Figure 2006197036
As a result, Z≈Z ′, and the influence of Z can be ignored in the object coordinate system R. Therefore, the rotation in the object coordinate system R due to the movement of the viewpoint of the observer A should be applied to the general three-dimensional rotation formula expressed by the following equations (ii), (iii), and (iv). Can do.

Figure 2006197036
Figure 2006197036
Figure 2006197036

ここで、各軸周りの回転を考えると、既に説明したようにz1≒∞,Z≒z1であることより、物体座標系Rにおける奥行きZをZ≒∞とみなすことができる。そのため、θ≒0、α≒0、β≒0となり、物体座標系R上の各軸周りの回転は、その回転前に対してほとんど影響を及ぼさないといえる。すなわち、十分遠方に観測される風景等の物体に関しては、物体座標系Rの3次元画像情報へ変換しなくても問題ないことになる。例えば観測点(ないし撮像点)から数十メートル程度以上の距離であれば回転の影響をほとんど受けないと考えられるので、上記の「遠方」とは観測点(ないし撮像点)から数十メートル程度以上の距離であることばが望ましい。 Here, considering the rotation around each axis, as described above, since z 1 ≈∞ and Z≈z 1 , the depth Z in the object coordinate system R can be regarded as Z≈∞. Therefore, θ≈0, α≈0, β≈0, and it can be said that the rotation around each axis on the object coordinate system R has little influence on the rotation before the rotation. That is, for an object such as a landscape observed far enough away, there is no problem even if it is not converted into the three-dimensional image information of the object coordinate system R. For example, if it is a distance of several tens of meters or more from the observation point (or imaging point), it is considered that it is hardly affected by rotation, so the above “distant” is about several tens of meters from the observation point (or imaging point). It is desirable that the distance is greater than the above.

そこで、本実施形態においては、画像データの供給源である外部装置が、画像の観測点ないし撮像点から十分遠方の物体に関しては、物体座標系Rにおける2次元画像データだけを用意し、3次元画像データを不要としている。これにより、外部装置による画像データの生成処理が簡易となり、その生成処理に要する処理時間も少なくて済むことになる。また、生成した画像データのデータ量も従来のように3次元画像データを変換して得られる2次元画像データの量に比べて少なくなる。   Therefore, in the present embodiment, the external device that is the image data supply source prepares only two-dimensional image data in the object coordinate system R for an object sufficiently far from the observation point or imaging point of the image, and Image data is unnecessary. As a result, the generation process of the image data by the external device is simplified, and the processing time required for the generation process can be reduced. Further, the data amount of the generated image data is also smaller than the amount of two-dimensional image data obtained by converting the three-dimensional image data as in the prior art.

ただし、観測者座標系においては観測者の視点の位置が移動すると、それまでは観測者から見えなかった領域が見えてくるようになる。例えば、移動前の観測者Aの視点からは図4の領域Fは観測することができないが、移動後の観測者A’の視点からは領域Fを観測することができる。また、図4に示すように、物体座標系Rの(X,Y)は、観測者Aの視点からは観測者A座標系Lにおける(Xc1,Yc1)の位置に観測されることになるが、観測者A’の視点からは観測者A’座標系L’における(Xb,Yb)の位置に観測されることになる。これを、観測面と一致する観測者A座標系Lに置き換えると、(Xc2,Yc2)となる。つまり、観測者A座標系L(すなわち観測面)においては、(Xc1,Yc1)に対して(Hx,Hy)のずれが生じる。なお、Hx,Hyはそれぞれ、ずれ量H=(Hx 2 +y 21/2のX方向成分、Y方向成分を意味している。図4は、Y軸に平行な平面上の位置関係を図示したものであるから、ずれHのX方向成分であるHxのみを表記している。 However, in the observer coordinate system, when the position of the observer's viewpoint moves, an area that has not been seen by the observer until then becomes visible. For example, the area F in FIG. 4 cannot be observed from the viewpoint of the observer A before the movement, but the area F can be observed from the viewpoint of the observer A ′ after the movement. Further, as shown in FIG. 4, (X, Y) in the object coordinate system R is observed at the position of (X c1 , Y c1 ) in the observer A coordinate system L from the viewpoint of the observer A. However, from the viewpoint of the observer A ′, the observation is made at the position (X b , Y b ) in the observer A ′ coordinate system L ′. When this is replaced with an observer A coordinate system L that coincides with the observation surface, (X c2 , Y c2 ) is obtained. That is, in the observer A coordinate system L (that is, the observation surface), a shift of (H x , H y ) occurs with respect to (X c1 , Y c1 ). H x and H y mean the X direction component and the Y direction component of the shift amount H = (H x 2 + H y 2 ) 1/2 , respectively. Since FIG. 4 illustrates the positional relationship on the plane parallel to the Y axis, only H x that is the X direction component of the deviation H is shown.

上記のようなずれが生じるために、図5に示すように、物体座標系Rに見立てた2次元画像データの座標(X’,Y’)を観測面(すなわち観測者A座標系L)の座標(Xc,Yc)に変換する必要が生じる。そのためには、観測者の右眼および左眼の視点の位置を特定し、原画像データを右眼および左眼の各々の視点位置に対して右眼および左眼で観測できる独立した2枚の画像に展開して投影すればよい。 Since the above-described deviation occurs, as shown in FIG. 5, the coordinates (X ′, Y ′) of the two-dimensional image data that is assumed to be the object coordinate system R are represented on the observation plane (that is, the observer A coordinate system L). It becomes necessary to convert to coordinates (X c , Y c ). For this purpose, the position of the viewpoint of the right eye and the left eye of the observer is specified, and the original image data can be observed with the right eye and the left eye with respect to the viewpoint positions of the right eye and the left eye. What is necessary is just to expand | deploy and project on an image.

そこで、本実施形態においては、次のような画像処理を実行することで上記の問題を解決した。図5においてZ≒∞とみなしたことにより、θ=0(θx≒0、θy≒0:なおθx,θyは、それぞれθのX軸方向成分、Y軸方向成分)となる。つまり、観測者Aの視線の方向(図中の線分la)と、観測者A’の視線の方向(図中の線分lb)とを平行とみなすことができる。ここで、観測者Aの視点位置の移動量(図中点線矢印で示す移動ベクトルの観測面に平行な成分)の大きさをSxとすると、線分laと線分lbとが平行だから、Sx≒Hxとなる。よって、物体座標系(X,Y)を(Hx,Hy)だけ平行移動させればよいことになる。つまり、移動前の観測者Aの視点からの視線が観測面(=観測パネル16のパネル面)と交わる点(Xc1,Yc1)と、移動後の観測者A’の視点からの視線が観測面(=観測パネル16のパネル面)と交わる点(Xc2,Yc2)との間の距離H=(Hx 2 +y 21/2だけ、画像の位置を移動させればよいというわけである。画像処理部13は、観測者の視点移動量を検出すると、図4に示したような位置関係から、(Hx,Hy)を計算によって求めることができる。よって、画像処理部13は、この(Hx,Hy)を用いて、物体座標系(X,Y)に見立てた広域の2次元画像データ(観測面Lよりも広い領域に対応する画像データ)の座標位置(X’,Y’)を観測者の視点位置に合わせて平行移動させればよい。 Therefore, in the present embodiment, the above problem is solved by executing the following image processing. By assuming that Z≈∞ in FIG. 5, θ = 0 (θ x ≈0, θ y ≈0: θ x and θ y are the X-axis direction component and Y-axis direction component of θ, respectively). That is, the direction of the line of sight of the observer A (line segment la in the figure) and the direction of the line of sight of the observer A ′ (line segment lb in the figure) can be regarded as parallel. Here, when the magnitude of the movement amount of the viewpoint position of the observer A (component parallel to the observation plane of the movement vector indicated by the dotted arrow in the figure) is S x , the line segment la and the line segment lb are parallel. S x ≈H x . Therefore, it is only necessary to translate the object coordinate system (X, Y) by (H x , H y ). That is, the point of view (X c1 , Y c1 ) where the line of sight from the viewpoint of the observer A before the movement intersects the observation plane (= the panel plane of the observation panel 16) and the line of sight from the viewpoint of the observer A ′ after the movement are If the position of the image is moved by a distance H = (H x 2 + H y 2 ) 1/2 between the observation plane (= panel plane of the observation panel 16) and the point (X c2 , Y c2 ) that intersects the observation plane That's good. When detecting the viewpoint movement amount of the observer, the image processing unit 13 can obtain (H x , H y ) by calculation from the positional relationship as shown in FIG. Therefore, the image processing unit 13 uses the (H x , H y ) to generate a wide range of two-dimensional image data (image data corresponding to an area wider than the observation plane L) as viewed in the object coordinate system (X, Y). ) Coordinate position (X ′, Y ′) may be translated in accordance with the viewpoint position of the observer.

以上のようにして、画像処理部13は、入力部12から供給される2次元画像データが表す画像の位置を観測者の視点移動量に合わせて平行移動した画像データを生成し、これを2次元情報投影機14に供給する。2次元情報投影機14は、画像処理部13から供給された2次元画像データに基づき2次元画像を表示面15に向かって投影する。これにより、観測者は観測パネル16を介して表示面15を見ることで立体画像を観測することができる。   As described above, the image processing unit 13 generates image data obtained by translating the position of the image represented by the two-dimensional image data supplied from the input unit 12 in accordance with the viewpoint movement amount of the observer. Supplied to the dimension information projector 14. The two-dimensional information projector 14 projects a two-dimensional image onto the display surface 15 based on the two-dimensional image data supplied from the image processing unit 13. Thus, the observer can observe the stereoscopic image by viewing the display surface 15 via the observation panel 16.

上述した実施形態によれば、観測者の視点の位置に合わせて画像の位置を平行移動するので、観測者の視点の位置に合わせた立体画像を表示することができる。また、本実施形態では2次元画像データを用いているので、従来の3次元画像データに比べて通信網20上のデータ伝送量が少なくて済む。このことは特に移動体通信網30経由で画像データを伝送するような場合に有利である。また、表示対象を遠方に観測される風景などに限定したことにより、動画像における前画像との差分データを大幅に削減することも可能となる。これによって、固定通信網が整備されていないような山間部などとの間で立体画像の画像データを送受信することもできる。   According to the above-described embodiment, since the position of the image is translated in accordance with the position of the observer's viewpoint, a stereoscopic image that matches the position of the observer's viewpoint can be displayed. In addition, since the two-dimensional image data is used in the present embodiment, the data transmission amount on the communication network 20 can be reduced as compared with the conventional three-dimensional image data. This is particularly advantageous when image data is transmitted via the mobile communication network 30. Further, by limiting the display target to a landscape that is observed far away, it is possible to significantly reduce the difference data from the previous image in the moving image. Thereby, it is also possible to transmit and receive stereoscopic image data to and from mountainous areas where no fixed communication network is provided.

なお、上記の実施形態においては、説明を簡単にするため、1つの2次元画像を用いる場合について説明したが、奥行きの異なる複数の2次元画像からなる3次元画像を対象としてもよい。
また、観測者の視点の位置は、前述したように観測者を撮像した画像に基づいて特定するという方法もあるが、これ以外にも、例えば観測者が着席する座席の位置が予め分かっているのであれば、どの座席に観測者が着席しているかをその都度指定することで視点の位置を特定し、その移動量を求めるようにしてもよい。
また、上記の実施形態では、観測者の右眼と左眼とをそれぞれ観測者の視点の位置としていたが、これに限らず、例えば右眼と左眼とを結ぶ線分の中点を観測者の視点の位置としてもよい。このように視点の位置を1つに定めた場合には、観測者は立体画像用の眼鏡を装着しなくても立体的な画像を観測することも可能となる。
In the above-described embodiment, the case where one two-dimensional image is used has been described for the sake of simplicity. However, a three-dimensional image including a plurality of two-dimensional images having different depths may be a target.
In addition, there is a method in which the position of the observer's viewpoint is specified based on the image obtained by capturing the observer as described above, but other than this, for example, the position of the seat where the observer is seated is known in advance. In this case, the position of the viewpoint may be specified by designating each seat where the observer is seated, and the movement amount may be obtained.
In the above embodiment, the observer's right eye and left eye are the positions of the observer's viewpoints. However, the present invention is not limited to this. For example, the midpoint of a line segment connecting the right eye and the left eye is observed. It may be the position of the person's viewpoint. In this way, when the position of the viewpoint is set to one, the observer can observe a stereoscopic image without wearing glasses for stereoscopic images.

本発明の装置構成を示す図である。It is a figure which shows the apparatus structure of this invention. 本発明の別の装置構成を示す図である。It is a figure which shows another apparatus structure of this invention. 本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention.

符号の説明Explanation of symbols

1…立体画像表示装置、11…筐体、12…入力部、13…画像処理部、14…2次元情報投影機、15…表示面、16…観測パネル、17…検出装置。   DESCRIPTION OF SYMBOLS 1 ... Stereoscopic image display apparatus, 11 ... Housing | casing, 12 ... Input part, 13 ... Image processing part, 14 ... Two-dimensional information projector, 15 ... Display surface, 16 ... Observation panel, 17 ... Detection apparatus.

Claims (5)

画像データを入力する入力手段と、
観測者の視点の位置が移動した量を検出する検出手段と、
前記検出手段によって検出された視点位置の移動量に合わせて、前記入力手段によって入力された画像データが表す画像の位置を2次元平面上で平行移動させる画像処理手段と、
前記画像処理手段によって画像の位置が移動させられた画像データに基づいて画像を表示する表示手段と
を備える立体画像表示装置。
Input means for inputting image data;
Detection means for detecting the amount of movement of the position of the observer's viewpoint;
An image processing unit that translates the position of the image represented by the image data input by the input unit on a two-dimensional plane in accordance with the movement amount of the viewpoint position detected by the detection unit;
A stereoscopic image display device comprising: display means for displaying an image based on image data whose image position has been moved by the image processing means.
前記表示手段は、画像データに基づいた画像が表示される表示面と、前記表示面に平行に設けられて該表示面から発せられた画像光を背面から観測面に向けて透過する観測パネルとを有し、
前記画像処理手段は、移動前の前記観測者の視点から前記表示面に表示された観測対象に対する視線が前記観測パネルのパネル面と交わる点と、移動後の前記観測者の視点から前記観測対象に対する視線が前記観測パネルのパネル面と交わる点との間の距離だけ、前記画像データが表す画像の位置を平行移動させる請求項1記載の立体画像表示装置。
The display means includes a display surface on which an image based on image data is displayed, an observation panel provided in parallel with the display surface and transmitting image light emitted from the display surface from the back toward the observation surface; Have
The image processing means includes a point where a line of sight with respect to the observation target displayed on the display surface from the observer's viewpoint before movement intersects with a panel surface of the observation panel, and the observation target from the observer's viewpoint after movement. The stereoscopic image display apparatus according to claim 1, wherein the position of the image represented by the image data is translated by a distance between a line of sight of the image and a point where the line of sight intersects the panel surface of the observation panel.
移動体通信網経由でデータ通信を行う移動局を備え、
前記入力手段は、前記移動局によって受信された画像データを受け取って前記画像処理手段に供給する請求項1に記載の立体画像表示装置。
A mobile station that performs data communication via a mobile communication network
The stereoscopic image display apparatus according to claim 1, wherein the input unit receives image data received by the mobile station and supplies the image data to the image processing unit.
立体画像表示装置が、画像データを自装置に入力するステップと、
前記立体画像表示装置が、観測者の視点の位置が移動した量を検出するステップと、
前記立体画像表示装置が、検出された視点位置の移動量に合わせて、前記画像データが表す画像の位置を2次元平面上で平行移動させるステップと、
前記立体画像表示装置において、画像の位置が移動させられた画像データに基づいた画像を表示するステップと
を備える立体画像表示方法。
A step in which a stereoscopic image display device inputs image data to the device;
The stereoscopic image display device detects the amount by which the position of the observer's viewpoint has moved;
The stereoscopic image display device translates the position of the image represented by the image data on a two-dimensional plane in accordance with the detected movement amount of the viewpoint position;
A stereoscopic image display method comprising: a step of displaying an image based on image data whose image position has been moved in the stereoscopic image display device.
画像データに基づいた画像が表示される表示面と、前記表示面に平行に設けられて該表示面から発せられた画像光を背面から観測面に向けて透過する観測パネルとを有する立体画像表示装置が行う立体画像表示方法であって、
画像データを自装置に入力するステップと、
観測者の視点の位置が移動した量を検出するステップと、
移動前の前記観測者の視点から前記表示面に表示された観測対象に対する視線が前記観測パネルのパネル面と交わる点と、移動後の前記観測者の視点から前記観測対象に対する視線が前記観測パネルのパネル面と交わる点との間の距離だけ、前記画像データが表す画像の位置を平行移動させるステップと、
画像の位置が移動させられた画像データに基づいた画像を表示するステップと
を備える立体画像表示方法。
Stereoscopic image display having a display surface on which an image based on image data is displayed, and an observation panel provided in parallel to the display surface and transmitting image light emitted from the display surface from the back toward the observation surface A stereoscopic image display method performed by the apparatus,
Inputting image data to the device;
Detecting the amount by which the position of the observer's viewpoint has moved;
The point of view of the observation target displayed on the display surface from the viewpoint of the observer before movement intersects the panel surface of the observation panel, and the line of sight of the observation target from the viewpoint of the observer after movement Translating the position of the image represented by the image data by a distance between a point intersecting the panel surface of
And a step of displaying an image based on the image data whose image position has been moved.
JP2005004520A 2005-01-11 2005-01-11 Device and method for stereoscopic image display Pending JP2006197036A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005004520A JP2006197036A (en) 2005-01-11 2005-01-11 Device and method for stereoscopic image display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005004520A JP2006197036A (en) 2005-01-11 2005-01-11 Device and method for stereoscopic image display

Publications (1)

Publication Number Publication Date
JP2006197036A true JP2006197036A (en) 2006-07-27

Family

ID=36802779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005004520A Pending JP2006197036A (en) 2005-01-11 2005-01-11 Device and method for stereoscopic image display

Country Status (1)

Country Link
JP (1) JP2006197036A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9064444B2 (en) 2012-05-31 2015-06-23 Samsung Display Co., Ltd. Three-dimensional display device
WO2017212679A1 (en) * 2016-06-08 2017-12-14 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
WO2019026388A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
WO2019026184A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9064444B2 (en) 2012-05-31 2015-06-23 Samsung Display Co., Ltd. Three-dimensional display device
WO2017212679A1 (en) * 2016-06-08 2017-12-14 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
JPWO2017212679A1 (en) * 2016-06-08 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント Image generating apparatus and image generating method
US10607417B2 (en) 2016-06-08 2020-03-31 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
WO2019026388A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
WO2019026184A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
WO2019026183A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
JPWO2019026388A1 (en) * 2017-08-01 2020-03-19 株式会社ソニー・インタラクティブエンタテインメント Image generation apparatus and image generation method
JPWO2019026184A1 (en) * 2017-08-01 2020-03-26 株式会社ソニー・インタラクティブエンタテインメント Image generation apparatus and image generation method
US10999567B2 (en) 2017-08-01 2021-05-04 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
US11050993B2 (en) 2017-08-01 2021-06-29 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
JP7057785B2 (en) 2017-08-01 2022-04-20 株式会社ソニー・インタラクティブエンタテインメント Image generator and image generation method

Similar Documents

Publication Publication Date Title
CN110383343B (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
CN106454311B (en) A kind of LED 3-D imaging system and method
TWI520576B (en) Method and system for converting 2d images to 3d images and computer-readable medium
EP3735775A1 (en) Augmented reality displays with active alignment and corresponding methods
US20160295194A1 (en) Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images
JP2007042055A (en) Image processing method and image processor
JP2015007835A (en) Image processing apparatus and image processing method
JP2009210840A (en) Stereoscopic image display device and method, and program
JP2008140271A (en) Interactive device and method thereof
JP2010250452A (en) Arbitrary viewpoint image synthesizing device
WO2018028152A1 (en) Image acquisition device and virtual reality device
KR20160094190A (en) Apparatus and method for tracking an eye-gaze
JP7005224B2 (en) Information processing equipment, systems, image processing methods, computer programs, and storage media
JP4580678B2 (en) Gaze point display device
KR20140121529A (en) Method and apparatus for formating light field image
KR20110055032A (en) Apparatus and method for generating three demension content in electronic device
JP2022058753A (en) Information processing apparatus, information processing method, and program
JP2006197036A (en) Device and method for stereoscopic image display
CN107592520B (en) Imaging device and imaging method of AR equipment
JP2018022242A (en) Composite system and target marker
JP4931078B2 (en) Method and apparatus for displaying a pseudo three-dimensional image of a three-dimensional object corresponding to a viewpoint movement of a viewer
JP2017046233A (en) Display device, information processor, and control method of the same
JP2006340017A (en) Device and method for stereoscopic video image display
JP5689693B2 (en) Drawing processor
JP4144981B2 (en) Stereoscopic image display device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080625

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080625

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080807

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080903

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080905