JP2012253447A - Display device, display system, display device control method, control program, and recording medium - Google Patents

Display device, display system, display device control method, control program, and recording medium Download PDF

Info

Publication number
JP2012253447A
JP2012253447A JP2011122651A JP2011122651A JP2012253447A JP 2012253447 A JP2012253447 A JP 2012253447A JP 2011122651 A JP2011122651 A JP 2011122651A JP 2011122651 A JP2011122651 A JP 2011122651A JP 2012253447 A JP2012253447 A JP 2012253447A
Authority
JP
Japan
Prior art keywords
eye image
image
parallax
point
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011122651A
Other languages
Japanese (ja)
Inventor
Takuya Okamoto
卓也 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011122651A priority Critical patent/JP2012253447A/en
Publication of JP2012253447A publication Critical patent/JP2012253447A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user whose eyes are inclined with a stereoscopic effect similar to that is provided when the eyes are positioned horizontally, in a display device based on a frame sequential system.SOLUTION: A display device is provided with an inclination acquisition part 62 and an image generating part 63. The inclination acquisition part 62 acquires an inclination angle of 3D spectacles 2 with respect to the horizontal plane. The image generating part 63 reconfigures a left-eye image or a right-eye image such that a parallax to provide the user when the user stereoscopically views the image with the 3D spectacles 2 with the inclination angle acquired by the inclination acquisition part 62 may coincide with a parallax to provide the user when the user stereoscopically views the image with the 3D spectacles 2 with an inclination angle of zero, and the image generating part 63 causes a right-eye image for inclined-time and a left-eye image for inclined-time which are generated as the result of the reconfiguration, to be displayed.

Description

本発明は、右目用画像と左目用画像との切り替えタイミングと、立体視用のメガネの左右のシャッターの開閉タイミングとを同期させることによって、立体視を可能にする表示装置等に関するものである。   The present invention relates to a display device or the like that enables stereoscopic viewing by synchronizing the switching timing between a right-eye image and a left-eye image and the opening and closing timings of left and right shutters of stereoscopic glasses.

近年、映像を三次元(3D)で視聴することのできる表示装置が注目を集めている。こうした装置でユーザに立体視させる表示方式は多数提案されており、一般家庭向けのテレビなどでは、ユーザが液晶シャッターを備えた立体視用メガネ(3Dメガネ)を装着する方式(一般に「フレーム・シーケンシャル方式」と呼ばれ、以下ではこれを「FS方式」と略す)が普及している。   In recent years, display devices capable of viewing video in three dimensions (3D) have attracted attention. A number of display methods that allow a user to stereoscopically view with such a device have been proposed. In televisions for general homes, a method in which a user wears stereoscopic glasses (3D glasses) equipped with a liquid crystal shutter (generally “frame sequential”). In the following, this is referred to as “FS method”, which is abbreviated as “FS method”.

ここで、FS方式について図12に基づいて説明する。図12は、FS方式に基づく従来の3D表示装置において、右目用画像と左目用画像とを交互表示する様子を模式的に表した図である。   Here, the FS method will be described with reference to FIG. FIG. 12 is a diagram schematically showing a state in which a right-eye image and a left-eye image are alternately displayed in a conventional 3D display device based on the FS method.

図示のように、FS方式では、3Dメガネが水平となるような状態でユーザが視聴することを想定して右目用画像と左目用画像とを交互表示する。このため、右目用画像中における物体の位置と、左目用画像における該物体の位置とは、図示のように水平方向にずれている。このずれが視差であり、この視差によって立体感を得ることができる。   As illustrated, in the FS system, the right-eye image and the left-eye image are alternately displayed on the assumption that the user views the 3D glasses in a horizontal state. For this reason, the position of the object in the right-eye image and the position of the object in the left-eye image are shifted in the horizontal direction as illustrated. This shift is parallax, and a stereoscopic effect can be obtained by this parallax.

続いて、視差と右目用画像および左目用画像との関係について図13に基づいて説明する。図13は、視差と右目用画像および左目用画像との関係を説明する図であり、同図(a)(b)は表示面に対して奥行き方向に立体感を出すとき、同図(c)は表示面に対して手前方向に立体感を出すときの関係を示している。   Next, the relationship between the parallax and the right-eye image and the left-eye image will be described with reference to FIG. FIGS. 13A and 13B are diagrams for explaining the relationship between the parallax and the image for the right eye and the image for the left eye. FIGS. 13A and 13B illustrate the three-dimensional effect in the depth direction with respect to the display surface. ) Shows a relationship when a stereoscopic effect is given in the front direction with respect to the display surface.

同図(a)および(b)で表される通り、表示面に対して奥行き方向に立体感(奥行き感)を出すときには、画像中の物体が表示面の奥側にあると認識させるために、右目用画像における当該物体の位置を右向きにずらし、左目用画像における当該物体の位置を左向きにずらして表示する。   As shown in (a) and (b) of the figure, when a stereoscopic effect (depth feeling) is given in the depth direction with respect to the display surface, the object in the image is recognized as being on the back side of the display surface. The position of the object in the right-eye image is shifted to the right, and the position of the object in the left-eye image is shifted to the left and displayed.

より詳細には、右目用画像では、ユーザの右目と物体を認識させる位置(表示面の奥側)を結んだ線分が表示面と交わる位置に当該物体を表示し、左目用画像では、ユーザの左目と物体を認識させる位置を結んだ線分が表示面と交わる位置に当該物体を表示する。   More specifically, in the right-eye image, the object is displayed at a position where a line segment connecting the right eye of the user and the position for recognizing the object (the back side of the display surface) intersects the display surface. In the left-eye image, the user The object is displayed at a position where a line segment connecting the left eye and the position where the object is recognized intersects the display surface.

このため、奥行き方向の立体感が大きい(物体を認識させる位置がユーザから遠い)同図(a)の方が、同図(b)と比べて視差(右目用画像における物体の位置と、左目画像における物体の位置とのずれ量)が大きくなる。   For this reason, the stereoscopic effect in the depth direction is larger (the position for recognizing the object is far from the user) in FIG. 10A, compared to FIG. 7B, the parallax (the position of the object in the right-eye image and the left eye). The amount of deviation from the position of the object in the image) increases.

一方、同図(c)で表される通り、表示面に対して手前方向に立体感(飛び出し感)を出すときには、物体が表示面の手前にあるとユーザに認識させるために、右目用画像における当該物体の位置を左向きにずらし、左目用画像における当該物体の位置を右向きにずらして表示する。つまり、同図(a)(b)場合と比べて右目用画像と左目用画像とに含まれる当該物体の表示位置が入れ替わる。同図(c)の場合も、同図(a)(b)の場合と同様に、立体感が大きい(物体を認識させる位置がユーザに近い)ほど、視差が大きくなる。   On the other hand, as shown in FIG. 5C, when a stereoscopic effect (protruding feeling) is given in the front direction with respect to the display surface, the image for the right eye is used to make the user recognize that the object is in front of the display surface. The position of the object is shifted to the left, and the position of the object in the left-eye image is shifted to the right and displayed. That is, the display positions of the objects included in the right-eye image and the left-eye image are interchanged as compared with the cases of FIGS. In the case of (c) in the figure, as in the cases of (a) and (b) in the figure, the parallax increases as the stereoscopic effect increases (the position where the object is recognized is closer to the user).

映像を3Dで視聴できるこうした表示装置の普及に伴い、様々な技術が提案されている。例えば、下記の特許文献1には、通常の2次元の映像信号を用いて擬似立体映像を簡単かつ低コストで見られるようにする発明が開示されている。この発明によれば、2次元の映像信号を、眼幅(左右の目の幅)だけ離れた位置に見えるように水平方向のみをずらした2つの映像信号に分割変換することで、擬似的な立体画像とできる。   With the spread of such display devices capable of viewing video in 3D, various technologies have been proposed. For example, the following Patent Document 1 discloses an invention that allows a pseudo stereoscopic image to be viewed easily and at low cost using a normal two-dimensional image signal. According to the present invention, the two-dimensional video signal is divided and converted into two video signals that are shifted only in the horizontal direction so that the two-dimensional video signal can be seen at a position separated by the eye width (the width of the left and right eyes). Can be a stereoscopic image.

ここで、上記従来の3D表示装置では、3D映像の視聴中に、ユーザが首を傾げるなどにより両眼(および3Dメガネ)が水平に並ばない状態となったときに、水平に並んでいたときのような立体感が得られなくなるという問題が生じる。   Here, in the above-described conventional 3D display device, when viewing both 3D images, when both eyes (and 3D glasses) are not aligned horizontally due to the user tilting his / her neck, etc. There arises a problem that the three-dimensional effect cannot be obtained.

これは、上述のように、FS方式では、ユーザの右目の位置と左目の位置に応じて、右目用画像と左目用画像における物体位置を決定して所定の立体感を生じさせており、ユーザの両目が傾いた位置となっている状態では、この位置関係が崩れて適切な視差が得られなくなるためである。   As described above, in the FS method, the object position in the right-eye image and the left-eye image is determined according to the position of the right eye and the left eye of the user, and a predetermined stereoscopic effect is generated. This is because in the state where both eyes are tilted, this positional relationship is lost and appropriate parallax cannot be obtained.

そこで、このような問題を解決するための技術も提案されている。例えば、下記の特許文献2には、ユーザが疲労を生じやすい姿勢で立体画像を見ている場合には、立体表示を中断して疲労を生じないように制御する立体画像表示装置に関する技術が開示されている。具体的には、3Dメガネを着用しているユーザの顔の傾き量を検出して両眼が水平に並んでいるか否かを決定し、水平に並んでいないと決定された場合は立体表示を中断する。   Therefore, techniques for solving such problems have also been proposed. For example, the following Patent Document 2 discloses a technique related to a stereoscopic image display apparatus that controls a stereoscopic display to be interrupted so as not to cause fatigue when a user views a stereoscopic image in a posture in which fatigue is likely to occur. Has been. Specifically, the amount of inclination of the face of the user wearing 3D glasses is detected to determine whether or not both eyes are aligned horizontally. If it is determined that the eyes are not aligned horizontally, a stereoscopic display is displayed. Interrupt.

また、下記の特許文献3には、使用者の頭部が傾いても表示画像を立体視できるようにした立体映像観察用偏光メガネに関する発明が開示されている。この発明によれば、前記の特許文献2に記載の発明のように立体表示を中断する必要はなく、ユーザの頭部が傾くことにより両眼が水平に並んでいなくても、当該メガネに備える偏光レンズが回転自在であることにより立体視が可能となる。   Patent Document 3 below discloses an invention relating to polarized glasses for stereoscopic image observation that allows a displayed image to be viewed stereoscopically even when the user's head is tilted. According to this invention, there is no need to interrupt the stereoscopic display as in the invention described in Patent Document 2, and even if the eyes are not aligned horizontally due to the tilt of the user's head, Stereoscopic viewing is possible because the polarizing lens provided is rotatable.

あるいは、下記の特許文献4には、ユーザが立体画像表示装置を動かした場合に、左右等の3軸の移動および3軸の周りの回転を同時に制御して、所望の視点から画像を表示することができ、携帯性を実現することが可能な立体画像表示装置が開示されている。この発明によれば、立体画像を表示するにあたり、運動視差を利用して見たい方向から立体画像を表示できる。   Alternatively, in Patent Document 4 below, when a user moves a stereoscopic image display device, an image is displayed from a desired viewpoint by simultaneously controlling movement of three axes such as left and right and rotation around the three axes. There is disclosed a stereoscopic image display device that can achieve portability. According to the present invention, when a stereoscopic image is displayed, the stereoscopic image can be displayed from a direction desired to be viewed using motion parallax.

特開平8−205201号公報(平成8年8月9日公開)JP-A-8-205201 (released on August 9, 1996) 特開2001−296501号公報(2001年10月26日公開)JP 2001-296501 A (released on October 26, 2001) 特開平7−230060号公報(平成7年8月29日公開)Japanese Patent Laid-Open No. 7-230060 (published August 29, 1995) 特開2007−47294号公報(2007年2月22日公開)JP 2007-47294 A (published February 22, 2007)

しかしながら、上記従来の技術では、FS方式に基づく表示装置において、ユーザが首を傾げる等して両眼が水平に並ばない状態となったときに、両目が水平に並んでいるときの立体感を維持しながら視聴を継続することができないという問題を解決することができない。   However, in the above-described conventional technology, in the display device based on the FS method, when a user tilts his / her neck and the eyes are not aligned horizontally, the stereoscopic effect when both eyes are aligned horizontally is obtained. The problem that viewing cannot be continued while maintaining cannot be solved.

すなわち、上述した特許文献2に記載の発明では、首を傾げた時点で立体表示が中断されるため、ユーザは、立体映像の視聴を継続するために、常に両眼を水平に固定した堅苦しい姿勢での視聴を強いられる。また、特許文献3に記載の発明は、偏光レンズを備えたメガネを装着する方式において、このメガネをハードウェア的に工夫することにより上述の問題を解決するものであり、FS方式には適用することができない。そして、特許文献1および4に記載の発明は、上記課題の解決を目的としたものではない。   That is, in the invention described in Patent Document 2 described above, since the stereoscopic display is interrupted when the head is tilted, the user always has a stiff attitude in which both eyes are fixed horizontally in order to continue viewing the stereoscopic video. Forced to watch in In addition, the invention described in Patent Document 3 solves the above-mentioned problem by devising the glasses as hardware in a method of wearing glasses equipped with a polarizing lens, and is applied to the FS method. I can't. The inventions described in Patent Documents 1 and 4 are not intended to solve the above problems.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、FS方式に基づく表示装置において、首を傾げる等により両目が傾いた状態となっているユーザに対して、両目が水平に並んでいる状態と同様の立体感を与えることができる表示装置等を提供することである。   The present invention has been made in view of the above-described problems, and the purpose of the present invention is to provide a display device based on the FS system in which both eyes are in a state where both eyes are inclined by tilting the neck. It is to provide a display device or the like that can give the same three-dimensional effect as a horizontally arranged state.

上記の課題を解決するために、本発明の表示装置は、右目で視認されるべき右目用画像と左目で視認されるべき左目用画像とを交互表示すると共に、立体視用のメガネの左右のシャッターの開閉を上記交互表示と同期させることによってユーザに立体視させる表示装置であって、上記メガネの水平面に対する傾き角を取得する傾き取得手段と、上記傾き取得手段が取得した傾き角の上記メガネで立体視するユーザに与える視差が、上記右目用画像および上記左目用画像が、上記傾き角がゼロである上記メガネで立体視するユーザに与える視差と一致するように、上記左目用画像または上記右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる画像生成手段とを備えることを特徴としている。   In order to solve the above problems, the display device of the present invention alternately displays a right-eye image to be visually recognized by the right eye and a left-eye image to be visually recognized by the left eye, and the left and right of the stereoscopic glasses. A display device that allows a user to view stereoscopically by synchronizing opening and closing of the shutter with the alternate display, wherein the glasses acquire the inclination angle with respect to the horizontal plane of the glasses, and the glasses with the inclination angle acquired by the inclination acquisition means. The left-eye image or the left-eye image so that the parallax given to the user stereoscopically matches the parallax given to the user stereoscopically viewed with the glasses whose tilt angle is zero. An image generating means for generating and displaying a right-eye image for tilting and a left-eye image for tilting reconstructed from the right-eye image is provided.

また、本発明の表示装置の制御方法は、上記の課題を解決するために、右目で視認されるべき右目用画像と左目で視認されるべき左目用画像とを交互表示すると共に、立体視用のメガネの左右のシャッターの開閉を上記交互表示と同期させることによってユーザに立体視させる表示装置の制御方法であって、上記メガネの水平面に対する傾き角を取得する傾き取得ステップと、上記傾き取得ステップで取得した傾き角の上記メガネで立体視するユーザに与える視差が、上記右目用画像および上記左目用画像が、上記傾き角がゼロである上記メガネで立体視するユーザに与える視差と一致するように、上記左目用画像または上記右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる画像生成ステップとを含むことを特徴としている。   Further, in order to solve the above-described problem, the display device control method of the present invention alternately displays a right-eye image to be visually recognized by the right eye and a left-eye image to be visually recognized by the left eye, and for stereoscopic viewing. A display device control method for causing a user to stereoscopically view the opening and closing of the left and right shutters of the glasses in synchronism with the alternate display, wherein the inclination acquisition step acquires the inclination angle of the glasses with respect to the horizontal plane, and the inclination acquisition step The parallax given to the user who stereoscopically views with the glasses having the inclination angle acquired in step 5 matches the parallax given to the user stereoscopically viewed with the glasses whose tilt angle is zero in the right-eye image and the left-eye image. And an image generation step for generating and displaying the right-eye image for tilting and the left-eye image for tilting reconstructed from the left-eye image or the right-eye image. It is characterized in Mukoto.

上記の構成によれば、立体視用のメガネの水平面に対する傾き角を取得する。そして、傾き角がゼロである上記メガネで立体視するユーザに与える視差と、取得した傾き角の上記メガネで立体視するユーザに与える視差とが一致するように、左目用画像または右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる。   According to said structure, the inclination | tilt angle with respect to the horizontal surface of the spectacles for stereoscopic vision is acquired. Then, the left-eye image or the right-eye image is set so that the parallax given to the user stereoscopically viewed with the glasses having the tilt angle of zero matches the parallax given to the user stereoscopically viewed with the glasses having the acquired tilt angle. The reconstructed right eye image for tilting and the left eye image for tilting are generated and displayed.

したがって、上記の構成によれば、首を傾げる等によって両目が傾いた状態となっているユーザに対して、上記メガネの傾き角がゼロ、すなわち両目が水平に並んでいる状態と同様の立体感を与えることができる。   Therefore, according to the above configuration, the stereoscopic effect similar to the state in which the inclination angle of the glasses is zero, that is, both eyes are aligned horizontally, for a user whose eyes are inclined by tilting the neck or the like. Can be given.

なお、画像の全領域について視差を一致させてもよいし、一部の領域について視差を一致させてもよい。一部の領域について視差を一致させる場合には、この領域についての立体感を維持することができる。   Note that the parallax may be matched for the entire region of the image, or the parallax may be matched for a part of the region. In the case where the parallax is matched with respect to a part of the area, the stereoscopic effect about the area can be maintained.

また、傾斜時用右目用画像および傾斜時用左目用画像は、左目用画像または右目用画像のいずれか一方に基づいて生成されるが、いずれの画像からいずれの画像を生成するかは任意である。例えば、左目用画像に基づいて傾斜時用右目用画像および傾斜時用左目用画像の両方を生成してもよいし、左目用画像に基づいて傾斜時用左目用画像を生成し、右目用画像に基づいて傾斜時用右目用画像を生成してもよい。   In addition, the right-eye image for tilting and the left-eye image for tilting are generated based on either the left-eye image or the right-eye image, but it is arbitrary which image is generated from which image. is there. For example, both the right eye image for tilting and the left eye image for tilting may be generated based on the left eye image, or the left eye image for tilting may be generated based on the left eye image to generate the right eye image. The right eye image for tilting may be generated based on the above.

そして、上記表示装置は、上記右目用画像および上記左目用画像を立体視するときに同一の点と認識される、上記右目用画像上の点Rと、上記左目用画像上の点Lとの視差を示す視差データを取得する視差データ取得手段を備え、上記画像生成手段は、上記傾斜時用右目用画像における上記点Rに対応する点をR’とし、上記傾斜時用左目用画像における上記点Lに対応する点をL’としたときに、点R’と点L’との視差が上記視差データの示す視差に一致し、かつ表示面上において点R’と点L’とを結ぶ線分と水平面とのなす角が、上記傾き取得手段が取得した傾き角と一致するように、上記点Rまたは上記点Lを移動させて、上記傾斜時用右目用画像および上記傾斜時用左目用画像を生成することが好ましい。   The display device includes a point R on the right-eye image and a point L on the left-eye image that are recognized as the same point when the right-eye image and the left-eye image are stereoscopically viewed. Parallax data acquiring means for acquiring parallax data indicating parallax, wherein the image generating means sets R ′ as a point corresponding to the point R in the right eye image for tilting, and the image in the left eye image for tilting When the point corresponding to the point L is L ′, the parallax between the point R ′ and the point L ′ matches the parallax indicated by the parallax data, and the point R ′ and the point L ′ are connected on the display surface. The point R or the point L is moved so that the angle formed by the line segment and the horizontal plane coincides with the inclination angle acquired by the inclination acquisition means, and the right eye image for inclination and the left eye for inclination It is preferable to generate an image for use.

上記の構成によれば、右目用画像上の点Rと左目用画像上の点Lとの視差を示す視差データを取得する。そして、点Rと点Lにそれぞれ対応する傾斜時用右目用画像上の点R’と、傾斜時用左目用画像上の点L’との視差が上記視差データの示す視差に一致し、かつ表示面上において点R’と点L’とを結ぶ線分と水平面とのなす角が、上記傾き取得手段が取得した傾き角と一致するように、上記点Rまたは上記点Lを移動させて、傾斜時用右目用画像および傾斜時用左目用画像を生成する。   According to said structure, the parallax data which show the parallax of the point R on the image for right eyes, and the point L on the image for left eyes are acquired. The parallax between the point R ′ on the tilt right eye image and the point L ′ on the tilt left eye image respectively corresponding to the point R and the point L matches the parallax indicated by the parallax data, and The point R or the point L is moved so that the angle formed by the line connecting the point R ′ and the point L ′ on the display surface and the horizontal plane coincides with the inclination angle acquired by the inclination acquisition means. Then, an image for right eye for tilting and an image for left eye for tilting are generated.

つまり、上記の構成によれば、ユーザの両目が水平に並んでいない状態となっているときには、その両目の傾きと同じ傾きで点R’および点L’が傾いた傾斜時用右目用画像および傾斜時用左目用画像が表示される。そして、これらの点の間の視差は元の右目用画像および左目用画像の点Rと点Lとの視差と同じである。   That is, according to the above configuration, when the user's eyes are not aligned horizontally, the right-eye image for tilting when the point R ′ and the point L ′ are tilted at the same tilt as the tilt of both eyes and The left eye image for tilting is displayed. The parallax between these points is the same as the parallax between the points R and L of the original right-eye image and left-eye image.

したがって、上記の構成によれば、首を傾げる等によって両目が傾いた状態となっているユーザに対して、両目が水平に並んでいた状態と同様の立体感を与えることができる。   Therefore, according to said structure, the same three-dimensional effect as the state where both eyes were located horizontally can be given with respect to the user whose both eyes inclined by tilting the neck etc.

なお、傾斜時用右目用画像および傾斜時用左目用画像は、右目用画像および左目用画像の全ての点Rおよび点Lの位置を再構成したものであってもよいし、一部の点(例えば画像中の一部の領域に含まれる点)の位置を再構成したものであってもよい。   The right-eye image for tilting and the left-eye image for tilting may be obtained by reconstructing the positions of all the points R and L in the right-eye image and the left-eye image, or some points. The position of (for example, a point included in a partial area in the image) may be reconstructed.

また、上記画像生成手段は、上記視差データの示す視差が同一の、上記点Rまたは上記点Lの集まりである同一視差領域の少なくとも1つについて、当該同一視差領域に含まれる点Rまたは点Lを移動させることにより、上記傾斜時用右目用画像および上記傾斜時用左目用画像を生成することが好ましい。   In addition, the image generation unit may include the point R or the point L included in the same parallax region for at least one of the same parallax regions that are the collection of the points R or L with the same parallax indicated by the parallax data. It is preferable to generate the tilted right eye image and the tilted left eye image by moving.

上記の構成によれば、同一視差領域の点Rまたは点Lを移動させて傾斜時用右目用画像および傾斜時用左目用画像を生成する。したがって、同一視差領域について、頭を傾ける等によって両目が傾いた状態となっているユーザに対して、両目が水平に並んでいた状態と同様の立体感を与えることができる。なお、同一視差領域は、視差が同じ点の集まりであるから、立体視したときに同一の領域と認識される。   According to the above configuration, the right-eye image for tilting and the left-eye image for tilting are generated by moving the point R or the point L in the same parallax region. Therefore, it is possible to give the same stereoscopic effect to a user who has both eyes tilted by tilting his / her head in the same parallax region, as in the case where both eyes are aligned horizontally. Note that the same parallax region is a collection of points with the same parallax, and thus is recognized as the same region when viewed stereoscopically.

また、上記視差データ取得手段は、表示面上における上記点Rと上記点Lとの水平方向の距離を、当該点Rと点Lとの視差を示す視差データとして生成することが好ましい。   Moreover, it is preferable that the said parallax data acquisition means produces | generates the distance of the horizontal direction of the said point R and the said point L on a display surface as parallax data which shows the parallax of the said point R and the point L. FIG.

上記の構成によれば、点Rと点Lの水平方向の距離を、当該点Rと点Lとの視差を示す視差データとして生成するので、視差データを含まないコンテンツについても、ユーザの両目の傾きに応じた立体表示を行うことができる。   According to the above configuration, the horizontal distance between the point R and the point L is generated as the parallax data indicating the parallax between the point R and the point L. Therefore, even for content that does not include the parallax data, A three-dimensional display corresponding to the inclination can be performed.

また、上記画像生成手段は、上記右目用画像または上記左目用画像上で、上記点Rまたは上記点Lを垂直方向または水平方向に移動させて上記傾斜時用右目用画像を生成し、当該点Rまたは当該点Lを水平方向または垂直方向に移動させて上記傾斜時用左目用画像を生成することが好ましい。   Further, the image generation means generates the right eye image for tilting by moving the point R or the point L in the vertical direction or the horizontal direction on the right eye image or the left eye image. It is preferable that the left eye image for tilting is generated by moving R or the point L in the horizontal direction or the vertical direction.

上記の構成によれば、点Rまたは点Lを、水平方向および垂直方向に移動させることによって、傾斜時用右目用画像および傾斜時用左目用画像を生成するので、回転等の演算を行うことなく、傾斜時用右目用画像および傾斜時用左目用画像を生成することができる。   According to the above configuration, by moving the point R or the point L in the horizontal direction and the vertical direction, the tilt right eye image and the tilt left eye image are generated. In addition, it is possible to generate an image for the right eye for tilting and an image for the left eye for tilting.

なお、点Rまたは点Lを垂直方向に移動させて傾斜時用右目用画像を生成した場合には、この点Rまたは点Lを水平方向に移動させて傾斜時用左目用画像を生成する。同様に、点Rまたは点Lを垂直方向に移動させて傾斜時用左目用画像を生成した場合には、この点Rまたは点Lを水平方向に移動させて傾斜時用右目用画像を生成する。   When the point R or the point L is moved in the vertical direction and the right eye image for tilting is generated, the point R or the point L is moved in the horizontal direction to generate the left eye image for tilting. Similarly, when the left eye image for tilting is generated by moving the point R or the point L in the vertical direction, the right eye image for tilting is generated by moving the point R or the point L in the horizontal direction. .

また、傾き取得手段が取得した傾き角をθ、対応点の視差をdとした場合、点Rまたは点Lの垂直方向の移動量はd×sinθと表すことができ、水平方向の移動量はd×cosθと表すことができる。   Further, when the inclination angle acquired by the inclination acquisition means is θ and the parallax of the corresponding point is d, the vertical movement amount of the point R or the point L can be expressed as d × sin θ, and the horizontal movement amount is It can be expressed as d × cos θ.

また、本発明の表示システムは、上記の課題を解決するために、右目で視認されるべき右目用画像と左目で視認されるべき左目用画像とを交互表示すると共に、立体視用のメガネの左右のシャッターの開閉を上記交互表示と同期させることによってユーザに立体視させる表示装置と、上記メガネと、該メガネの水平面に対する傾き角を測定する測定装置とを含む表示システムであって、上記表示装置は、上記測定装置から、上記メガネの水平面に対する傾き角を取得する傾き取得手段と、上記傾き取得手段が取得した傾き角の上記メガネで立体視するユーザに与える視差が、上記右目用画像および上記左目用画像が、上記傾き角がゼロである上記メガネで立体視するユーザに与える視差と一致するように、上記左目用画像または上記右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる画像生成手段とを備えていることを特徴としている。   Further, in order to solve the above problems, the display system of the present invention alternately displays a right-eye image to be visually recognized with the right eye and a left-eye image to be visually recognized with the left eye, A display system comprising: a display device that allows a user to view stereoscopically by synchronizing the opening and closing of left and right shutters with the alternate display; the glasses; and a measuring device that measures an inclination angle of the glasses with respect to a horizontal plane. The apparatus includes, from the measurement apparatus, an inclination acquisition unit that acquires an inclination angle of the glasses with respect to a horizontal plane, and a parallax that is given to a user who stereoscopically views the glasses with the inclination angle acquired by the inclination acquisition unit, and the right-eye image and The left-eye image or the right-eye image is set so that the left-eye image matches a parallax given to a user who stereoscopically views with the glasses having the tilt angle of zero. Is characterized in that it comprises an image generating means for generating and displaying the reconstructed inclined right eye image and the left eye image for at tilt time was the.

上記の構成によれば、測定装置は、立体視用のメガネの水平面に対する傾き角を測定する。そして、表示装置は、この測定装置から取得した傾き角を用いて、傾き角がゼロである上記メガネで立体視するユーザに与える視差と、取得した傾き角の上記メガネで立体視するユーザに与える視差とが一致するように、左目用画像または右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる。   According to said structure, a measuring apparatus measures the inclination angle with respect to the horizontal surface of the spectacles for stereoscopic vision. Then, the display device uses the tilt angle acquired from the measurement device to give parallax to the user who stereoscopically views with the glasses with the tilt angle of zero and to the user stereoscopically viewed with the glasses with the acquired tilt angle. The right eye image for tilting and the left eye image for tilting generated by reconstructing the image for the left eye or the image for the right eye so as to match the parallax are generated and displayed.

したがって、上記の構成によれば、測定装置によって、首を傾げる等によってユーザの両目が傾いた状態となっていることを検出して、表示装置によって、両目が水平に並んでいる状態と同様の立体感をユーザに与えることができる。   Therefore, according to the above configuration, the measurement device detects that the user's eyes are tilted by tilting the neck and the like, and the display device is similar to the state where the eyes are aligned horizontally. A stereoscopic effect can be given to the user.

なお、上記測定装置は、表示装置または立体視用のメガネに組み込まれていてもよいし、これらに対して取り付けられていてもよい。また、表示装置および立体視用のメガネとは独立に設けられていてもよい。   In addition, the said measuring apparatus may be integrated in the display apparatus or the spectacles for stereoscopic vision, and may be attached with respect to these. Further, the display device and the stereoscopic glasses may be provided independently.

なお、上記表示装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示装置の各手段として動作させることにより、上記表示装置をコンピュータにて実現させる制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。   The display device may be realized by a computer. In this case, a control program for causing the display device to be realized by the computer by causing the computer to operate as each unit of the display device, and recording the program. Such computer-readable recording media also fall within the scope of the present invention.

以上のように、本発明の表示装置は、メガネの水平面に対する傾き角を取得する傾き取得手段と、上記傾き取得手段が取得した傾き角の上記メガネで立体視するユーザに与える視差が、右目用画像および左目用画像が、上記傾き角がゼロである上記メガネで立体視するユーザに与える視差と一致するように、上記左目用画像または上記右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる画像生成手段とを備えている構成である。   As described above, the display device of the present invention has a tilt acquisition unit that acquires the tilt angle of the glasses with respect to the horizontal plane, and the parallax that is given to the user who stereoscopically views the glasses with the tilt angle acquired by the tilt acquisition unit is for the right eye. The right-eye image for tilting when the left-eye image or the right-eye image is reconstructed so that the image and the left-eye image match the parallax given to the user who stereoscopically views with the glasses whose tilt angle is zero, and And an image generation means for generating and displaying a left eye image for tilting.

また、本発明の表示装置の制御方法は、メガネの水平面に対する傾き角を取得する傾き取得ステップと、上記傾き取得ステップで取得した傾き角の上記メガネで立体視するユーザに与える視差が、右目用画像および左目用画像が、上記傾き角がゼロである上記メガネで立体視するユーザに与える視差と一致するように、上記左目用画像または上記右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる画像生成ステップとを含む構成である。   Further, according to the control method of the display device of the present invention, the inclination acquisition step for acquiring the inclination angle of the glasses with respect to the horizontal plane, and the parallax given to the user who stereoscopically views the glasses with the inclination angle acquired in the inclination acquisition step are for the right eye. The right-eye image for tilting when the left-eye image or the right-eye image is reconstructed so that the image and the left-eye image match the parallax given to the user who stereoscopically views with the glasses whose tilt angle is zero, and And an image generation step of generating and displaying an image for left eye for tilting.

そして、本発明の表示システムは、表示装置が、測定装置からメガネの水平面に対する傾き角を取得する傾き取得手段と、上記傾き取得手段が取得した傾き角の上記メガネで立体視するユーザに与える視差が、右目用画像および左目用画像が、上記傾き角がゼロである上記メガネで立体視するユーザに与える視差と一致するように、上記左目用画像または上記右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる画像生成手段とを備えている構成である。   In the display system of the present invention, the display device obtains an inclination acquisition unit that acquires an inclination angle of the glasses with respect to the horizontal plane from the measurement device, and a parallax that is given to a user who stereoscopically views the glasses with the inclination angle acquired by the inclination acquisition unit. However, when the image for the right eye and the image for the left eye match the parallax given to the user viewing stereoscopically with the glasses having the inclination angle of zero, the image for the left eye or the image for the right eye is reconstructed. And an image generating means for generating and displaying a right-eye image and a left-eye image for tilting.

したがって、首を傾げる等によって両目が水平面に対して傾いた状態となっているユーザに対して、両目が水平に並んでいる状態と同様の立体感を与えることができるという効果を奏する。   Therefore, there is an effect that it is possible to give the same stereoscopic effect to the user in which both eyes are inclined with respect to the horizontal plane by tilting the neck or the like in a state where both eyes are aligned horizontally.

本発明の一実施形態である表示システムの要部構成を表すブロック図である。It is a block diagram showing the principal part structure of the display system which is one Embodiment of this invention. 上記表示システムにおいて、ユーザの両眼が傾いた様子を模式的に表したものである。In the said display system, a mode that the user's both eyes inclined was represented typically. 右目用画像、左目用画像、およびこれらを重ね合わせた画像を示している。An image for the right eye, an image for the left eye, and an image obtained by superimposing these images are shown. 上記表示システムに含まれる表示装置の画像生成部による一連の画像生成処理を模式的に表したものである。FIG. 3 schematically illustrates a series of image generation processes performed by an image generation unit of a display device included in the display system. 表示面に対して奥行き方向に立体感の得られる3D画像について、移動量および移動方向の特定方法を説明する図であり、同図(a)は回転移動の例を示し、同図(b)は平行移動の例を示している。It is a figure explaining the specific method of a movement amount and a movement direction about the 3D image from which a stereoscopic effect is obtained in the depth direction with respect to a display surface, and the figure (a) shows the example of a rotational movement, The figure (b) Shows an example of translation. 表示面に対して手前方向に立体感の得られる3D画像について、移動量および移動方向の特定方法を説明する図であり、同図(a)は回転移動の例を示し、同図(b)は平行移動の例を示している。It is a figure explaining the specific method of a movement amount and a movement direction about 3D image with which a three-dimensional effect is obtained in the near direction with respect to a display surface, The figure (a) shows the example of rotational movement, The figure (b) Shows an example of translation. 上記表示システムに含まれる3Dメガネが右上がりに30°傾いている場合に上記画像生成部が特定する移動方向および移動量の具体例を示す図であり、同図(a)は奥行き方向に立体感の得られる3D画像が対象である例を示し、同図(b)は手前方向に立体感の得られる3D画像が対象である例を示している。It is a figure which shows the specific example of the moving direction and moving amount which the said image generation part specifies, when 3D glasses contained in the said display system incline 30 degrees to the right upward, The figure (a) is three-dimensionally in the depth direction. An example in which a 3D image that provides a feeling is an object is shown, and FIG. 5B shows an example in which a 3D image that provides a stereoscopic effect in the front direction is an object. 上記3Dメガネが右上がりに45°傾いている場合に画像生成部63が特定する移動方向および移動量の具体例を示す図であり、同図(a)は奥行き方向に立体感の得られる3D画像が対象である例を示し、同図(b)は手前方向に立体感の得られる3D画像が対象である例を示している。It is a figure which shows the specific example of the moving direction and moving amount which the image production | generation part 63 specifies when the said 3D glasses incline 45 degrees to the right, The figure (a) is 3D in which a three-dimensional effect is obtained in the depth direction. An example in which an image is a target is shown, and FIG. 9B shows an example in which a 3D image that provides a stereoscopic effect in the front direction is a target. 上記3Dメガネが右上がりに60°傾いている場合に画像生成部63が特定する移動方向および移動量の具体例を示す図であり、同図(a)は奥行き方向に立体感の得られる3D画像が対象である例を示し、同図(b)は手前方向に立体感の得られる3D画像が対象である例を示している。It is a figure which shows the specific example of the moving direction and moving amount which the image production | generation part 63 specifies when the said 3D glasses incline 60 degrees to the right upward, The figure (a) is 3D in which a three-dimensional effect is obtained in the depth direction. An example in which an image is a target is shown, and FIG. 9B shows an example in which a 3D image that provides a stereoscopic effect in the front direction is a target. 上記表示装置が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the said display apparatus performs. 上記画像生成部が実行する画像生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image generation process which the said image generation part performs. FS方式に基づく従来の3D表示装置において、右目用画像と左目用画像とを交互表示する様子を模式的に表した図である。It is the figure which represented typically a mode that the image for right eyes and the image for left eyes were displayed alternately in the conventional 3D display apparatus based on FS system. 視差と右目用画像および左目用画像との関係を説明する図であり、同図(a)(b)は表示面に対して奥行き方向に立体感を出すとき、同図(c)は表示面に対して手前方向に立体感を出すときの関係を示している。It is a figure explaining the relationship between parallax, the image for right eyes, and the image for left eyes, The figure (a) and (b) show the three-dimensional effect in the depth direction with respect to a display surface, The figure (c) is a display surface. The relationship when a three-dimensional feeling is given to the near side is shown.

以下、本発明の実施の形態について、図1〜図11に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS.

〔概要〕
本実施の形態に係る表示装置の概要について、図2に基づいて説明する。図2は、本発明の一実施形態である表示システム(表示装置と3Dメガネを含む)において、ユーザの両眼が傾いた様子を模式的に表したものである。
〔Overview〕
An overview of the display device according to the present embodiment will be described with reference to FIG. FIG. 2 schematically shows a state where both eyes of the user are tilted in a display system (including a display device and 3D glasses) according to an embodiment of the present invention.

本実施の形態に係る表示装置は、FS方式で3D画像を表示する表示装置である。すなわち、この表示装置は、表示部へ立体視用の右目用画像および左目用画像を交互に出力すると共に、シャッター同期信号を3Dメガネに発信する。3Dメガネはこの信号に従って、右目用画像と左目用画像の交互表示と同期するように右目用シャッターおよび左目用シャッターを開閉する。これにより、ユーザは右目用画像を右目のみで、左目用画像を左目のみで視認することができ、立体感を得ることができる。   The display device according to the present embodiment is a display device that displays a 3D image by the FS method. That is, the display device alternately outputs a right-eye image and a left-eye image for stereoscopic viewing to the display unit, and transmits a shutter synchronization signal to the 3D glasses. In accordance with this signal, the 3D glasses open and close the right-eye shutter and the left-eye shutter so as to synchronize with the alternate display of the right-eye image and the left-eye image. Accordingly, the user can visually recognize the right-eye image with only the right eye and the left-eye image with only the left eye, and can obtain a stereoscopic effect.

ここで、本実施の形態に係る表示システムにおいては、3Dメガネの備えるセンサが、該3Dメガネの水平面からの傾き角を計測し、これを表示装置に送信する。これにより、表示装置は、3Dメガネが水平な状態にあるか否か、また水平な状態にない場合にはどの程度傾いているかを特定することができる。   Here, in the display system according to the present embodiment, the sensor included in the 3D glasses measures the inclination angle of the 3D glasses from the horizontal plane, and transmits this to the display device. Thereby, the display device can specify whether or not the 3D glasses are in a horizontal state, and how much the 3D glasses are inclined when the 3D glasses are not in a horizontal state.

なお、上記の傾き角は、3Dメガネのレンズ面が表示装置の表示面に対して平行であり、右目レンズと左目レンズとが水平に並んだ状態からの傾き角であり、同図では、この傾き角をθで示している。ただし、−90°≦θ≦+90°であり、θ=0のときに右目レンズと左目レンズとが水平に並び、θ=−90°のとき左目レンズが右目レンズの上側(真上)の位置となり、θ=+90°のとき右目レンズが左目レンズの上側(真上)の位置となる。つまり、θが負のときは3Dメガネは右下がりに傾いており、θが正のときは3Dメガネは右上がりに傾いている。   The tilt angle is the tilt angle from the state in which the lens surface of the 3D glasses is parallel to the display surface of the display device, and the right eye lens and the left eye lens are horizontally aligned. The inclination angle is indicated by θ. However, when −90 ° ≦ θ ≦ + 90 ° and θ = 0, the right eye lens and the left eye lens are horizontally aligned, and when θ = −90 °, the left eye lens is located above (right above) the right eye lens. When θ = + 90 °, the right eye lens is positioned above (directly above) the left eye lens. That is, when θ is negative, the 3D glasses are tilted downward, and when θ is positive, the 3D glasses are tilted upward.

そして、表示装置は、3Dメガネが水平な状態になく、傾きが一定以上の場合に、水平であった状態と同じ視差が保たれるように、画像に含まれる各物体をずらした右目用画像および左目用画像(傾斜時用右目用画像および傾斜時用左目用画像)を生成し、表示する。   The display device is a right-eye image in which each object included in the image is shifted so that the same parallax as in the horizontal state is maintained when the 3D glasses are not in a horizontal state and the tilt is equal to or greater than a certain level. And an image for the left eye (an image for the right eye for tilting and an image for the left eye for tilting) are generated and displayed.

したがって、3D映像の視聴中に、例えば首を傾げるなどしてユーザの両眼が傾いた状態となったときでも、両目が水平であったときと同じ立体感で3D映像を視聴することができる。   Therefore, even when the user's eyes are tilted, for example, by tilting the neck during viewing of the 3D image, the 3D image can be viewed with the same stereoscopic effect as when both eyes are horizontal. .

詳細については以下説明するが、上記表示装置は、元の右目用画像と左目用画像との間のずれ量から、画像に含まれる各物体の視差を示す視差データを生成する。そして、元の右目用画像または元の左目用画像、生成した視差データ、および検出した傾き角θから、ユーザの両眼に傾きが生じた場合にも正しく立体的に視認できる右目用画像および左目用画像を新たに生成する。   Although the details will be described below, the display device generates parallax data indicating the parallax of each object included in the image from the amount of shift between the original right-eye image and the left-eye image. Then, from the original right-eye image or the original left-eye image, the generated parallax data, and the detected tilt angle θ, the right-eye image and the left eye that can be viewed three-dimensionally correctly even when the user's eyes are tilted A new image is generated.

〔表示システムの構成〕
本実施の形態に係る表示システムの構成について、図1に基づいて説明する。図1は、前記表示システムの要部構成を示すブロック図である。図示のように、表示システム100は、表示装置1、3Dメガネ(立体視用のメガネ)2、および画像記憶部3を含む。
[Configuration of display system]
The configuration of the display system according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a main configuration of the display system. As illustrated, the display system 100 includes a display device 1, 3D glasses (stereoscopic glasses) 2, and an image storage unit 3.

表示装置1は制御部4と表示部5とを含み、制御部4は画像処理部6と表示制御部7とを含む。さらに、画像処理部6は視差データ生成部(視差データ取得手段)61、傾き取得部(傾き取得手段)62、および画像生成部(画像生成手段)63を含む。   The display device 1 includes a control unit 4 and a display unit 5, and the control unit 4 includes an image processing unit 6 and a display control unit 7. Further, the image processing unit 6 includes a parallax data generation unit (parallax data acquisition unit) 61, an inclination acquisition unit (tilt acquisition unit) 62, and an image generation unit (image generation unit) 63.

また、3Dメガネ2は、右目用シャッター21、左目用シャッター22、シャッター制御部23、および傾き検出部(測定装置)24を含む。   The 3D glasses 2 include a right-eye shutter 21, a left-eye shutter 22, a shutter control unit 23, and an inclination detection unit (measuring device) 24.

なお、本実施の形態において、表示装置1が、いわゆる3Dテレビであることを想定しているが、本発明に直接関係のない部分、例えばテレビ映像を受信する部分やテレビ番組の録画等を行う部分などは省略した。以下、表示装置1(制御部4、表示部5、視差データ生成部61、傾き取得部62、画像生成部63、表示制御部7)、3Dメガネ2(右目用シャッター21および左目用シャッター22、シャッター制御部23、傾き検出部24)、画像記憶部3の順序で、各構成が担う機能を説明する。   In the present embodiment, it is assumed that the display device 1 is a so-called 3D television. However, a portion not directly related to the present invention, for example, a portion that receives a television image or a television program is recorded. Parts etc. are omitted. Hereinafter, the display device 1 (the control unit 4, the display unit 5, the parallax data generation unit 61, the inclination acquisition unit 62, the image generation unit 63, the display control unit 7), the 3D glasses 2 (the right eye shutter 21 and the left eye shutter 22, The functions of the respective components will be described in the order of the shutter control unit 23, the inclination detection unit 24), and the image storage unit 3.

(表示装置1)
表示装置1は、3D画像を表示できる表示装置である。上述したように、本実施の形態では、FS方式で3D画像を表示する。
(Display device 1)
The display device 1 is a display device that can display a 3D image. As described above, in this embodiment, a 3D image is displayed by the FS method.

制御部4は、以下で説明するように、表示装置1を動作させるための処理を行う。表示部5は画像を表示する装置であり、例えば液晶ディスプレイで構成できる。   The control unit 4 performs processing for operating the display device 1 as described below. The display unit 5 is a device that displays an image, and can be configured by a liquid crystal display, for example.

画像処理部6は、画像記憶部3に記憶された右目用画像および左目用画像を読み込み、表示制御部7へ読み込んだ画像を出力する。また、傾き取得部62によって取得された傾きθから、画像生成の要否を判断する。   The image processing unit 6 reads the right-eye image and the left-eye image stored in the image storage unit 3, and outputs the read image to the display control unit 7. Also, the necessity of image generation is determined from the inclination θ acquired by the inclination acquisition unit 62.

視差データ生成部61は、右目用画像と左目用画像を用いて立体視するときに同一の部分と認識される、右目用画像上の部分と、左目用画像上の部分との視差を表す視差データを取得する。具体的には、視差データ生成部61は、画像記憶部3に視差データが格納されている場合には画像記憶部3から視差データを取得し、格納されていない場合には画像記憶部3から読み出した右目用画像および左目用画像から視差データを生成する。なお、視差データの生成方法については、後で詳細に述べる。   The parallax data generation unit 61 is a parallax representing a parallax between a portion on the right-eye image and a portion on the left-eye image that is recognized as the same portion when stereoscopically viewed using the right-eye image and the left-eye image. Get the data. Specifically, the parallax data generation unit 61 acquires the parallax data from the image storage unit 3 when the parallax data is stored in the image storage unit 3, and from the image storage unit 3 when the parallax data is not stored. Parallax data is generated from the read right-eye image and left-eye image. The method for generating parallax data will be described in detail later.

傾き取得部62は、3Dメガネ2の傾きを取得する。具体的には、3Dメガネ2に備えられた傾き検出部24による計測値を受信することによって、3Dメガネ2の傾き角θ(図2参照)を取得する。なお、傾き取得部62は、3Dメガネ2の傾きを示すデータを取得できるものであればよく、例えば表示装置1等に設けたカメラでユーザを撮影し、この画像の解析結果から算出された傾き角を取得してもよい。また、このような解析を傾き取得部62が行ってもよい。つまり、傾き角を測定する装置は、3Dメガネ2の傾き検出部24に限られず、傾き取得部62が傾き角を測定する装置としての機能を有していてもよいし、このような機能を有する他の装置を設けてもよい。   The inclination acquisition unit 62 acquires the inclination of the 3D glasses 2. Specifically, the tilt angle θ (see FIG. 2) of the 3D glasses 2 is acquired by receiving a measurement value from the tilt detection unit 24 provided in the 3D glasses 2. Note that the tilt acquisition unit 62 only needs to be able to acquire data indicating the tilt of the 3D glasses 2. For example, the tilt obtained from the analysis result of the image obtained by photographing the user with a camera provided in the display device 1 or the like. A corner may be acquired. In addition, the inclination acquisition unit 62 may perform such analysis. In other words, the device for measuring the tilt angle is not limited to the tilt detection unit 24 of the 3D glasses 2, and the tilt acquisition unit 62 may have a function as a device for measuring the tilt angle. You may provide the other apparatus which has.

画像生成部63は、傾き取得部62から入力された傾き角θと、視差データ生成部61が生成した視差データとを用いて、元の右目用画像または元の左目用画像から、θの傾きに対応した新たな右目用画像および左目用画像を生成する。なお、画像生成部63による画像生成方法については、後で詳述する。   The image generation unit 63 uses the inclination angle θ input from the inclination acquisition unit 62 and the parallax data generated by the parallax data generation unit 61 to obtain the inclination of θ from the original right-eye image or the original left-eye image. A new right-eye image and left-eye image corresponding to the above are generated. The image generation method by the image generation unit 63 will be described in detail later.

表示制御部7は、立体表示のための制御を行う。具体的には、表示制御部7は、画像生成部63が生成した右目用画像および左目用画像を、表示部5へ所定の間隔で交互に出力すると共に、シャッター同期用の信号を3Dメガネ2に含まれるシャッター制御部23へ発信する。   The display control unit 7 performs control for stereoscopic display. Specifically, the display control unit 7 alternately outputs the right-eye image and the left-eye image generated by the image generation unit 63 to the display unit 5 at predetermined intervals, and outputs a shutter synchronization signal to the 3D glasses 2. Is sent to the shutter control unit 23 included.

(3Dメガネ2)
3Dメガネ2は、表示部5に出力される立体画像を視聴するにあたり、ユーザが装着する機器である。ここで、表示装置1と3Dメガネ2とは有線または無線で通信可能に構成されている。これにより、表示制御部7からシャッター制御部23へ発信されるシャッター同期用の信号を受信することができ、また、傾き検出部24から傾き取得部62へ傾きの計測値を送信することができる。なお、このような情報の送受信が可能であれば、通信態様は問わず、例えばIrDAに基づく無線通信であってもよい。また、同期用の信号の受信と、傾きの計測値の送信を別の通信手段で行うようにしてもよい。
(3D glasses 2)
The 3D glasses 2 are devices worn by the user when viewing a stereoscopic image output to the display unit 5. Here, the display device 1 and the 3D glasses 2 are configured to be communicable via wire or wirelessly. Thus, a shutter synchronization signal transmitted from the display control unit 7 to the shutter control unit 23 can be received, and a tilt measurement value can be transmitted from the tilt detection unit 24 to the tilt acquisition unit 62. . As long as such information can be transmitted and received, the communication mode is not limited, and wireless communication based on, for example, IrDA may be used. Further, the reception of the synchronization signal and the transmission of the measured value of the inclination may be performed by different communication means.

右目用シャッター21および左目用シャッター22は、シャッター制御部23の制御にしたがって開閉動作することにより、それぞれユーザの右目・左目の視界を交互に遮蔽する。これにより、ユーザは右目用画像を右目のみで、左目用画像を左目のみで視認することができる。   The right-eye shutter 21 and the left-eye shutter 22 open and close in accordance with the control of the shutter control unit 23 to alternately block the user's right eye and left eye fields of view. Accordingly, the user can visually recognize the right-eye image only with the right eye and the left-eye image only with the left eye.

シャッター制御部23は、表示制御部7から受信するシャッター同期用の信号に従って右目用シャッター21および左目用シャッター22を開閉する。これにより、表示装置1における右目用画像と左目用画像の切り替えと、右目用シャッター21と左目用シャッター22の開閉とが同期し、右目用画像が右目に、左目用画像が左目に視認される。   The shutter control unit 23 opens and closes the right eye shutter 21 and the left eye shutter 22 in accordance with a shutter synchronization signal received from the display control unit 7. As a result, the switching between the right-eye image and the left-eye image in the display device 1 and the opening and closing of the right-eye shutter 21 and the left-eye shutter 22 are synchronized, and the right-eye image is visually recognized by the right eye and the left-eye image is visually recognized by the left eye. .

傾き検出部24は、3Dメガネ2の傾き角を計測し、その計測値である角度θを傾き取得部62へ送信する。傾き検出部24は、上記回転角を計測できるものであればよく、また3Dメガネ2に内蔵されていてもよいし、外付けされていてもよい。本実施の形態では、傾き検出部24としてジャイロセンサを適用した例を説明する。   The tilt detection unit 24 measures the tilt angle of the 3D glasses 2 and transmits an angle θ that is a measured value to the tilt acquisition unit 62. The inclination detection unit 24 may be anything that can measure the rotation angle, and may be built in the 3D glasses 2 or may be externally attached. In the present embodiment, an example in which a gyro sensor is applied as the inclination detection unit 24 will be described.

なお、上述のように、−90°≦θ≦+90°であり、θ=0のときに右目レンズと左目レンズとが水平に並び、θ=−90°のとき左目レンズが右目レンズの上側(真上)の位置となり、θ=+90°のとき右目レンズが左目レンズの上側(真上)の位置となる。無論、傾き検出部24が送信するデータは、傾き取得部62が3Dメガネ2の水平面に対する傾き角、および3Dメガネ2が右上がりに傾いているか、右下がりに傾いているかを特定できるものであればこれに限られない。   Note that, as described above, −90 ° ≦ θ ≦ + 90 °, and when θ = 0, the right eye lens and the left eye lens are horizontally aligned, and when θ = −90 °, the left eye lens is above the right eye lens ( When θ = + 90 °, the right eye lens is positioned above (right above) the left eye lens. Of course, the data transmitted by the inclination detection unit 24 can identify the inclination angle of the 3D glasses 2 with respect to the horizontal plane of the 3D glasses 2 and whether the 3D glasses 2 are inclined upward or downward. However, it is not limited to this.

(画像記憶部3)
画像記憶部3は、表示すべき右目用画像および左目用画像を記憶した不揮発性の記憶装置であり、例えば半導体メモリ、ハードディスク、DVD等で構成できる。
(Image storage unit 3)
The image storage unit 3 is a non-volatile storage device that stores a right-eye image and a left-eye image to be displayed, and can be configured by, for example, a semiconductor memory, a hard disk, a DVD, or the like.

なお、本実施の形態では、画像記憶部3が有線または無線で表示装置1の外部に接続された外部記憶装置である構成として図1に示しているが、画像記憶部3は表示装置1に内蔵される装置として実現されてもよい。また、表示装置1は、画像記憶部3に記憶された右目用画像および左目用画像を読み込み、これを処理して表示部5へ表示することとしているが、データの取得方法はこれに限られない。例えば、テレビ放送波からこれらを受信してもよいし、インターネット等の通信網を介して受信してもよい。   In the present embodiment, the image storage unit 3 is shown in FIG. 1 as a configuration that is an external storage device connected to the outside of the display device 1 by wire or wirelessly. It may be realized as a built-in device. The display device 1 reads the right-eye image and the left-eye image stored in the image storage unit 3, processes them, and displays them on the display unit 5. However, the data acquisition method is limited to this. Absent. For example, these may be received from a television broadcast wave or may be received via a communication network such as the Internet.

〔視差データの生成〕
視差データ生成部61による視差データの生成について、図3に基づいて説明する。図3は、画像記憶部3から読み出した右目用画像、左目用画像、およびこれらを重ね合わせた画像を示している。図示のように、左目用画像および右目用画像には、それぞれ2つの円が含まれており、このうち上側の円は表示面上にある物体を示し、下側の円は表示面より奥にある物体を示している。
[Generation of parallax data]
Generation of parallax data by the parallax data generation unit 61 will be described with reference to FIG. FIG. 3 shows a right-eye image, a left-eye image read from the image storage unit 3, and an image obtained by superimposing these images. As shown in the figure, the left-eye image and the right-eye image each include two circles, of which the upper circle indicates an object on the display surface and the lower circle is behind the display surface. Indicates an object.

これらの左目用画像と右目用画像を重ね合わせることによって、上側の円にはずれがなく、一方、下側の円は水平方向にずれていることがわかる。これは、表示面より奥にある物体には視差を出し、表示面上にある物体には視差を出さないためである。そして、このずれ量は、視差の大きさを示している(図13参照)。   By superimposing these left-eye image and right-eye image, it can be seen that the upper circle is not displaced, while the lower circle is displaced in the horizontal direction. This is because parallax is given to an object behind the display surface and no parallax is given to an object on the display surface. And this deviation | shift amount has shown the magnitude | size of parallax (refer FIG. 13).

したがって、右目用画像における物体の位置と左目用画像における物体の位置とのずれ量を計算することによって、当該物体についての視差を特定することができる。具体的には、右目用画像中の点R(ドット)と、この点に対応する左目用画像中の点L(点Rと点Lは立体視したときに同一の点と認識される)としたときに、表示面上における点Rと点Lの水平方向の距離を、点Rと点Lの視差と特定することができる。そして、このような処理を、画像を構成する各ドットについて行うことにより、画像中の各物体(視差が同一の領域)の視差を示す視差データ(視差マップ)を生成することができる。   Therefore, by calculating the amount of deviation between the position of the object in the right-eye image and the position of the object in the left-eye image, the parallax for the object can be specified. Specifically, a point R (dot) in the right-eye image and a point L in the left-eye image corresponding to this point (the point R and the point L are recognized as the same point when viewed stereoscopically) Then, the horizontal distance between the point R and the point L on the display surface can be specified as the parallax between the point R and the point L. Then, by performing such processing for each dot constituting the image, it is possible to generate parallax data (parallax map) indicating the parallax of each object (region having the same parallax) in the image.

なお、右目用画像における物体と、左目用画像におけるその物体との対応は、パターンマッチングや特徴点抽出等の処理によって特定することができる。そして、このようにして特定した物体中のドットから視差を算出することができる。   The correspondence between the object in the right-eye image and the object in the left-eye image can be specified by processing such as pattern matching and feature point extraction. The parallax can be calculated from the dots in the object specified in this way.

また、表示面に対して奥行き方向に立体感を出す場合と、手前方向に立体感を出す場合とでは、ずれの向きが逆転する(図13参照)。このため、ずれの向きからいずれの方向に立体感を出す画像であるかを一意に決定できる。   Further, the direction of the shift is reversed between the case where the stereoscopic effect is given in the depth direction with respect to the display surface and the case where the stereoscopic effect is given in the front direction (see FIG. 13). For this reason, it is possible to uniquely determine in which direction the stereoscopic effect appears from the direction of deviation.

ここでは、表示面上において、点Lに対して点Rが右側に位置している場合の視差を正の値で示す。一方、点Lに対して点Rが左側に位置している場合の視差を負の値で示す。つまり、奥行き方向に立体感を出す場合の視差を正の値で示し、手前方向に立体感を出す場合の視差の値を負の値で示し、これにより、奥行き方向に立体感を出すか、手前方向に立体感を出すかを特定可能とする。無論、奥行き方向に立体感を出すか、手前方向に立体感を出すかの特定方法は、この方法に限られない。例えば、奥行き方向に立体感を出す画像であるか、手前方向に立体感を出す画像であるかを示す情報を視差データに含めることによって、これを特定してもよい。   Here, the parallax when the point R is located on the right side of the point L on the display surface is indicated by a positive value. On the other hand, the parallax when the point R is located on the left side with respect to the point L is indicated by a negative value. In other words, the parallax when giving a stereoscopic effect in the depth direction is indicated by a positive value, and the parallax value when giving a stereoscopic effect in the front direction is indicated by a negative value. It is possible to specify whether to give a three-dimensional effect in the front direction. Of course, the method of specifying whether to provide a stereoscopic effect in the depth direction or a stereoscopic effect in the near direction is not limited to this method. For example, this may be specified by including in the parallax data information indicating whether the image has a stereoscopic effect in the depth direction or an image with a stereoscopic effect in the front direction.

なお、例えば画像にポリゴン情報(立体座標に関する情報)が含まれている場合には、これを用いてユーザの視点に応じた画像を生成してもよい。この場合、傾き角からユーザの視点位置を特定し、該視点位置から見える座標が表示されるように画像を再構成する。   For example, when the image includes polygon information (information on the solid coordinates), an image corresponding to the user's viewpoint may be generated using the polygon information. In this case, the user's viewpoint position is specified from the tilt angle, and the image is reconstructed so that the coordinates visible from the viewpoint position are displayed.

〔画像生成部63による画像生成処理〕
次に、画像生成部63による画像生成処理について、図4に基づいて説明する。図4は、画像生成部63による一連の画像生成処理を模式的に表したものである。同図では、両目が水平のときに適切な視差が得られる左目用画像(元の画像)と視差データから、両目が傾いているときに適切な視差が得られる左目用画像と右目用画像を生成する例を示している。なお、図4に示す左目用画像は、図3に示した左目用画像とは別のものである。
[Image Generation Processing by Image Generation Unit 63]
Next, image generation processing by the image generation unit 63 will be described with reference to FIG. FIG. 4 schematically shows a series of image generation processes performed by the image generation unit 63. In the figure, a left-eye image and a right-eye image from which an appropriate parallax can be obtained when both eyes are tilted are obtained from a left-eye image (original image) from which an appropriate parallax is obtained when both eyes are horizontal and parallax data. An example of generation is shown. The left-eye image shown in FIG. 4 is different from the left-eye image shown in FIG.

また、生成した左目用画像と右目用画像の図では、各物体の位置を実線で示し、元の画像における各物体の位置を点線で示している。そして、視差データでは、各物体の視差を色分け(色が濃くなるほど視差が小さい)で示している。つまり、小円で示される物体は、大円で示される物体よりも視差が小さい。   In the generated left-eye image and right-eye image, the position of each object is indicated by a solid line, and the position of each object in the original image is indicated by a dotted line. In the parallax data, the parallax of each object is indicated by color coding (the darker the color, the smaller the parallax). That is, an object indicated by a small circle has a smaller parallax than an object indicated by a great circle.

図示のように、生成した左目用画像では、元の左目用画像に対して物体の位置が下方に移動している。また、生成した右目用画像では、元の左目用画像に対して物体の位置が左方に移動している。このように物体の位置を移動させる(視差方向を傾かせる)ことにより、ユーザの両目が傾いたときにも、元の画像と同様の奥行き感を与えることができる。   As illustrated, in the generated left-eye image, the position of the object has moved downward relative to the original left-eye image. In the generated right-eye image, the position of the object is moved to the left with respect to the original left-eye image. By moving the position of the object in this manner (inclining the parallax direction), it is possible to give a feeling of depth similar to the original image even when the user's eyes are inclined.

また、生成した左目用画像および右目用画像では、物体毎に移動量が異なっている。具体的には、小円で示される物体(視差小)よりも、大円で示される物体(視差大)の方が、移動量が大きくなっている。詳細については後述するが、これは、視差が大きい物体の方が、大きい移動量が特定されるためである。このように、物体毎に、その視差に応じた移動量を特定することによって、画像を単に回転させた場合と比べて自然な立体感をユーザに与えることができる。   Further, in the generated left-eye image and right-eye image, the amount of movement differs for each object. Specifically, the amount of movement of the object indicated by the great circle (large parallax) is larger than that of the object indicated by the small circle (small parallax). Although details will be described later, this is because a larger amount of movement is specified for an object having a larger parallax. Thus, by specifying the amount of movement corresponding to the parallax for each object, a natural stereoscopic effect can be given to the user as compared with the case where the image is simply rotated.

〔移動量および移動方向の特定方法〕
続いて、視差データと傾き角θを用いて、上記の移動量および移動方向を特定する方法を、図5および図6に基づいて説明する。なお、移動量および移動方向は、表示面に対して奥行き方向に立体感の得られる画像と、手前方向に立体感を得られる画像とで異なっている。以下では、まず奥行き方向に立体感の得られる画像について説明し、続いて手前方向に立体感の得られる画像について説明する。
[How to specify the amount and direction of movement]
Next, a method for specifying the movement amount and the movement direction using the parallax data and the inclination angle θ will be described with reference to FIGS. 5 and 6. Note that the amount of movement and the direction of movement differ between an image that gives a stereoscopic effect in the depth direction relative to the display surface and an image that gives a stereoscopic effect in the front direction. In the following, an image that provides a stereoscopic effect in the depth direction will be described first, and then an image that provides a stereoscopic effect in the near direction will be described.

(表示面に対して奥行き方向に立体感の得られる3D画像について)
図5は、表示面に対して奥行き方向に立体感の得られる3D画像について、移動量および移動方向の特定方法を説明する図であり、同図(a)は回転移動の例を示し、同図(b)は平行移動の例を示している。
(About 3D images that give a stereoscopic effect in the depth direction with respect to the display surface)
FIG. 5 is a diagram for explaining a method for specifying a movement amount and a movement direction for a 3D image having a stereoscopic effect in the depth direction with respect to the display surface. FIG. 5A shows an example of rotational movement. FIG. (B) shows an example of parallel movement.

なお、同図では、通常の3D画像を構成する左目用画像における点をL、Lに対応する右目用画像における点をR、LとRの距離(すなわち視差)をdとしている。また、表示面に対して奥行き方向に立体感の得られる3D画像であるから、RはLに対して右側に位置している(図13(a)(b)参照)。なお、立体視するユーザからは、LとRは同一の点と認識される。   In the figure, a point in the left-eye image constituting the normal 3D image is L, a point in the right-eye image corresponding to L is R, and a distance between L and R (that is, parallax) is d. Moreover, since it is a 3D image in which a stereoscopic effect is obtained in the depth direction with respect to the display surface, R is positioned on the right side with respect to L (see FIGS. 13A and 13B). Note that L and R are recognized as the same point by a user who views stereoscopically.

そして、同図では、生成した左目画像におけるLに対応する点をL’、生成した右目画像におけるRに対応する点をR’としている。また、3Dメガネ2の傾き角をθとする(図2参照)。   In the figure, a point corresponding to L in the generated left-eye image is L ′, and a point corresponding to R in the generated right-eye image is R ′. The inclination angle of the 3D glasses 2 is θ (see FIG. 2).

3Dメガネ2が角度θで傾いているときに、視差dを保つためには、図5(a)に示すように、LとRを結ぶ線分(以下、線分L−Rと称する)を、該線分上の点Aを支点としてθだけ回転させたときのLとRの位置を、それぞれR’とL’の位置とすればよい。このように、視差dと角度θから、RとLの移動量および移動方向を特定し、R’とL’の位置を特定することができる。   In order to maintain the parallax d when the 3D glasses 2 are inclined at an angle θ, as shown in FIG. 5A, a line segment connecting L and R (hereinafter referred to as a line segment L-R) is used. The positions of L and R when rotated by θ with the point A on the line segment as a fulcrum may be the positions of R ′ and L ′, respectively. As described above, the movement amounts and movement directions of R and L can be specified from the parallax d and the angle θ, and the positions of R ′ and L ′ can be specified.

また、図5(b)のように、RとLを垂直方向または水平方向に移動させることによっても、R’とL’の位置を特定することができる。図5(b)の例では、Lを垂直方向下向きに移動させてL’とし、Rを水平方向左向きに移動させてR’としている。   Further, as shown in FIG. 5B, the positions of R ′ and L ′ can also be specified by moving R and L in the vertical direction or the horizontal direction. In the example of FIG. 5B, L is moved downward in the vertical direction to L ′, and R is moved to the left in the horizontal direction to be R ′.

なお、このようなR’とL’の位置は、同図(a)の例において、R’とL’を結ぶ線分(以下、線分L’−R’と称する)を、R’線分L−Rと交わるまで垂直方向下向きに移動させ、L’がLを通る線分L−Rの垂線と交わるまで水平方向左向きに移動させることによって特定できる。   It should be noted that such positions of R ′ and L ′ are defined as a line segment connecting R ′ and L ′ (hereinafter referred to as line segment L′-R ′) in the example of FIG. It can be specified by moving downward in the vertical direction until it intersects with the minute LR, and moving leftward in the horizontal direction until L ′ intersects the perpendicular of the line segment LR passing through L.

また、図示のように、LとL’の距離はd×sinθと表すことができ、RとR’の距離はd−d×cosθ=d×(1−cosθ)と表すことができる。つまり、Lを垂直方向下向きにd×sinθだけ移動させた位置をL’の位置と特定することができ、Rを水平方向左向きにd×(1−cosθ)だけ移動させた位置をR’の位置と特定することができる。   Further, as illustrated, the distance between L and L ′ can be expressed as d × sin θ, and the distance between R and R ′ can be expressed as d−d × cos θ = d × (1−cos θ). That is, the position where L is moved vertically downward by d × sin θ can be identified as the position of L ′, and the position where R is moved leftward in the horizontal direction by d × (1-cos θ) is the position of R ′. It can be specified as a position.

なお、同図から明らかなように、左目用画像および右目用画像のいずれか一方から、新たな左目用画像および右目用画像を生成することができる。すなわち、左目用画像から新たな左目用画像および右目用画像を生成する場合には、点Lを水平方向右向きにd×cosθだけ移動させた位置をR’の位置と特定することができる。同様に、右目用画像から新たな左目用画像および右目用画像を生成する場合には、点Rを水平方向左向きにdだけ移動させ、垂直方向下向きにd×sinθだけ移動させた位置をL’の位置と特定することができる。つまり、視差の大きい点の方が、視差の小さい点よりも移動量が大きくなる(視差に正比例して移動量が増加する)。   As can be seen from the figure, a new left-eye image and right-eye image can be generated from either the left-eye image or the right-eye image. That is, when a new left-eye image and right-eye image are generated from the left-eye image, the position where the point L is moved to the right in the horizontal direction by d × cos θ can be specified as the position of R ′. Similarly, when a new left-eye image and right-eye image are generated from the right-eye image, the position where the point R is moved left by d in the horizontal direction and d × sin θ is moved downward in the vertical direction by L ′. Can be identified as That is, the movement amount is larger at the point with the larger parallax than the point with the smaller parallax (the movement amount increases in direct proportion to the parallax).

図5(b)の例においても、同図(a)の例と同様に、R’とL’の距離がdであり、線分R’−L’と線分R−Lとのなす角がθであるから、角度θで傾いている3Dメガネ2を装着しているユーザは視差dが得られる。   Also in the example of FIG. 5B, as in the example of FIG. 5A, the distance between R ′ and L ′ is d, and the angle formed by the line segment R′-L ′ and the line segment RL. Is θ, the user wearing the 3D glasses 2 tilted at the angle θ can obtain the parallax d.

なお、図5(b)では、同図(a)の例において、線分R’−L’を垂直方向下向きに移動させてR’とL’の位置を特定する例を示したが、垂直方向上向きに移動させてもよい。この場合、線分R’−L’を、L’が線分L−Rと交わるまで垂直方向上向きに移動させ、R’がRを通る線分L−Rの垂線と交わるまで水平方向右向きに移動させることによって、R’とL’の位置を特定する。   5B shows an example in which the position of R ′ and L ′ is specified by moving the line segment R′-L ′ downward in the vertical direction in the example of FIG. It may be moved upward in the direction. In this case, the line segment R′-L ′ is moved upward in the vertical direction until L ′ intersects with the line segment LR, and horizontally moved rightward until R ′ intersects with the perpendicular of the line segment LR passing through R. By moving, the positions of R ′ and L ′ are specified.

つまり、この場合、図5(b)の例と比べて、点L、Rの移動方向および移動量が逆となり、Rを垂直方向上向きにd×sinθだけ移動させた位置がR’の位置となり、Lを水平方向右向きにd×(1−cosθ)だけ移動させた位置がL’の位置となる。   That is, in this case, compared to the example of FIG. 5B, the moving direction and moving amount of the points L and R are reversed, and the position where R is moved vertically by d × sin θ is the position of R ′. , L is moved to the right in the horizontal direction by d × (1−cos θ) as the position of L ′.

(表示面に対して手前方向に立体感の得られる3D画像について)
図6は、表示面に対して手前方向に立体感の得られる3D画像について、移動量および移動方向の特定方法を説明する図であり、同図(a)は回転移動の例を示し、同図(b)は平行移動の例を示している。
(About 3D images that give a three-dimensional effect in the forward direction with respect to the display surface)
FIG. 6 is a diagram for explaining a method for specifying a movement amount and a movement direction for a 3D image in which a stereoscopic effect is obtained in the forward direction with respect to the display surface. FIG. 6A shows an example of rotational movement. FIG. (B) shows an example of parallel movement.

表示面に対して手前方向に立体感の得られる3D画像についての、移動量および移動方向の計算方法は、RがLに対して左側に位置していること(図13(c)参照)を除けば図5の例と同様である。   The calculation method of the movement amount and the movement direction for the 3D image in which a stereoscopic effect is obtained in the forward direction with respect to the display surface is that R is positioned on the left side with respect to L (see FIG. 13C). Otherwise, it is similar to the example of FIG.

すなわち、3Dメガネ2が角度θで傾いているときに視差dを保つためには、図6(a)に示すように、線分L−Rを、該線分上の点Aを支点としてθだけ回転させたときのLとRの位置を、それぞれR’とL’の位置とすればよい。   That is, in order to maintain the parallax d when the 3D glasses 2 are inclined at the angle θ, as shown in FIG. 6A, the line segment LR is set to θ with the point A on the line segment as a fulcrum. The positions of L and R when rotated only by the distance may be the positions of R ′ and L ′, respectively.

また、図6(b)のように、RとLを垂直方向または水平方向に移動させることによっても、R’とL’の位置を特定することができる。図6(b)の例では、Lを垂直方向上向きに移動させてL’とし、Rを水平方向右向きに移動させてR’としている。なお、図示のように、LとL’の距離はd×sinθと表すことができ、RとR’の距離はd−d×cosθ=d×(1−cosθ)と表すことができる。   Further, as shown in FIG. 6B, the positions of R ′ and L ′ can also be specified by moving R and L in the vertical direction or the horizontal direction. In the example of FIG. 6B, L is moved upward in the vertical direction to L ′, and R is moved to the right in the horizontal direction to be R ′. As illustrated, the distance between L and L ′ can be expressed as d × sin θ, and the distance between R and R ′ can be expressed as d−d × cos θ = d × (1−cos θ).

この例においても、Lを水平方向左向きにd×cosθだけ移動させた位置をR’の位置と特定し、Lを垂直方向上向きにd×sinθだけ移動させた位置をL’の位置と特定することができる。つまり、左目用画像のみから新たな左目用画像および右目用画像を生成することができる。   Also in this example, the position where L is moved leftward by d × cos θ in the horizontal direction is specified as the position R ′, and the position where L is moved vertically upward by d × sin θ is specified as the position L ′. be able to. That is, a new left-eye image and right-eye image can be generated from only the left-eye image.

また、線分R’−L’を垂直方向下向きに移動させてR’とL’の位置を特定することもできる。この場合、Rを垂直方向下向きにd×sinθだけ移動させた位置がR’の位置となり、Lを水平方向左向きにd×(1−cosθ)だけ移動させた位置がL’の位置となる。   Further, the positions of R ′ and L ′ can be specified by moving the line segment R′-L ′ downward in the vertical direction. In this case, the position where R is moved vertically downward by d × sin θ is the position of R ′, and the position where L is moved leftward in the horizontal direction by d × (1−cos θ) is the position of L ′.

(画像生成部63が実行する処理)
画像生成部63は、図5(b)および図6(b)で示したような、垂直方向または水平方向に移動させる方式で、左目用画像から新たな左目用画像および右目用画像を生成する。これについて、以下、具体的に説明する。
(Processing executed by image generation unit 63)
The image generation unit 63 generates a new left-eye image and right-eye image from the left-eye image by a method of moving in the vertical direction or the horizontal direction as shown in FIGS. 5B and 6B. . This will be specifically described below.

まず、画像生成部63は、視差データと角度θから移動方向を特定する。具体的には、視差データの示す視差の正負から奥行き方向に立体感が出る画像であるか、手前方向に立体感が出る画像であるかを判断する。また、角度θの正負から3Dメガネ2が右上がりに傾いているか、右下がりに傾いているかを判断する。   First, the image generation unit 63 specifies the moving direction from the parallax data and the angle θ. Specifically, it is determined whether the image has a stereoscopic effect in the depth direction based on the sign of the parallax indicated by the parallax data or an image with a stereoscopic effect in the front direction. Further, it is determined whether the 3D glasses 2 are inclined upward or downward from the sign of the angle θ.

そして、奥行き方向に立体感が出る画像であるか、手前方向に立体感が出る画像であるか、また右上がりに傾いているか、右下がりに傾いているかの判断結果に応じて移動方向を特定する。   The direction of movement is specified based on whether the image has a stereoscopic effect in the depth direction, or an image with a stereoscopic effect in the forward direction, and whether the image is tilted upward or downward. To do.

例えば、奥行き方向に立体感が出る画像であり、右上がりに傾いている場合には、新たな左目用画像では、元の左目用画像中の物体を垂直方向下向きに移動させることを特定する。また、新たな右目用画像では、元の左目用画像中の物体を水平方向左向きに移動させることを特定する(図5(b)参照)。   For example, if the image has a stereoscopic effect in the depth direction and is tilted upward, it is specified that the object in the original left-eye image is moved downward in the vertical direction in the new left-eye image. In the new right-eye image, it is specified that the object in the original left-eye image is moved leftward in the horizontal direction (see FIG. 5B).

次に、画像生成部63は、元の左目用画像中の各物体の移動量を、新たな左目用画像および右目用画像のそれぞれについて算出する。具体的には、視差データから特定される、視差が同一の点の集まりである連続領域(同一視差領域)を1つの物体として特定する。また、その領域に含まれる各ドットの新たな左目用画像における移動量をd×sinθの式で算出し、新たな右目用画像における移動量をd×cosθの式で算出する。そして、特定した各物体についてこの処理を行う。   Next, the image generation unit 63 calculates the movement amount of each object in the original left eye image for each of the new left eye image and right eye image. Specifically, a continuous area (identical parallax area) that is a collection of points with the same parallax, identified from the parallax data, is identified as one object. Further, the movement amount of each dot included in the region in the new left-eye image is calculated by the equation d × sin θ, and the movement amount in the new right-eye image is calculated by the equation d × cos θ. Then, this process is performed for each identified object.

最後に、画像生成部63は、元の左目用画像中の各物体(物体を構成する画像中のドット)を、上記特定した向きに上記特定した移動量だけ移動させることによって、新たな左目用画像および右目用画像を生成する。   Finally, the image generation unit 63 moves each object in the original left-eye image (dots in the image constituting the object) by the specified movement amount in the specified direction, thereby creating a new left-eye image. An image and a right eye image are generated.

このようにして生成した左目用画像および右目用画像が、角度θで傾く3Dメガネ2を装着しているユーザに与える視差は、元の左目用画像および右目用画像が、θ=0の3Dメガネ2を装着しているユーザに与える視差と一致する。   The parallax given to the user wearing the 3D glasses 2 in which the left-eye image and the right-eye image generated in this way are inclined at an angle θ is the same as the original left-eye image and right-eye image in 3D glasses with θ = 0. This matches the parallax given to the user wearing 2.

つまり、画像生成部63は、傾き角θの3Dメガネ2で立体視するユーザに与える視差が、θがゼロである3Dメガネ2で立体視するユーザに与える視差と一致するように、元の左目用画像を再構成することによって、新たな右目用画像および左目用画像を生成する。これにより、ユーザは、首を傾げたときにも、そうでないときにも、同じ視差で立体映像を視聴することができる。   That is, the image generation unit 63 causes the original left eye so that the parallax given to the user stereoscopically viewed with the 3D glasses 2 with the inclination angle θ matches the parallax given to the user stereoscopically viewed with the 3D glasses 2 with θ being zero. A new right-eye image and left-eye image are generated by reconstructing the image for use. Thereby, the user can view a stereoscopic image with the same parallax whether the head is tilted or not.

なお、新たな左目用画像および右目用画像において、物体が重畳する場合には、手前の物体が視認されるように、奥側の物体から順に描画する。また、手前の物体とは、表示面に対して奥行き方向に立体感を出す場合には視差の小さい物体であり、手前方向に立体感を出す場合には視差の大きい物体である。なお、物体の位置がずれることにより、元の左目用画像および右目用画像では表示されていなかった部分が表示される場合には、補間等の画像処理によってその部分を補えばよい。   In the new left-eye image and right-eye image, when an object is superimposed, drawing is performed in order from the object on the back side so that the object in front is visually recognized. The near object is an object with a small parallax when a stereoscopic effect is given in the depth direction with respect to the display surface, and an object with a large parallax when a stereoscopic effect is given in the near direction. When a portion that is not displayed in the original left-eye image and right-eye image is displayed due to the displacement of the object position, the portion may be supplemented by image processing such as interpolation.

(画像生成部63が行う演算の具体例)
続いて、画像生成部63が行う演算の具体例について、図7〜図9に基づいて説明する。なお、これらの図では、図5、図6の例と同様に、元の左目用画像における点をL、Lに対応する元の右目用画像における点をRとしている。また、LとRの距離、すなわち元の3D画像における視差d=10(ドット)とし、新たな左目用画像におけるLに対応する点をL’、新たな右目用画像におけるRに対応する点をR’としている。
(Specific example of calculation performed by image generation unit 63)
Subsequently, a specific example of the calculation performed by the image generation unit 63 will be described with reference to FIGS. In these drawings, as in the example of FIGS. 5 and 6, the point in the original left-eye image is L, and the point in the original right-eye image corresponding to L is R. Further, the distance between L and R, that is, the parallax d = 10 (dots) in the original 3D image, the point corresponding to L in the new left-eye image is L ′, and the point corresponding to R in the new right-eye image is R '.

(θが30°の場合の具体例)
図7は、3Dメガネ2が右上がりに30°傾いている場合(θ=30°)に画像生成部63が特定する移動方向および移動量の具体例を示す図であり、同図(a)は奥行き方向に立体感の得られる3D画像が対象である例を示し、同図(b)は手前方向に立体感の得られる3D画像が対象である例を示している。
(Specific example when θ is 30 °)
FIG. 7 is a diagram illustrating a specific example of the moving direction and the moving amount specified by the image generating unit 63 when the 3D glasses 2 are inclined 30 ° upward (θ = 30 °). Shows an example in which a 3D image with a stereoscopic effect is obtained in the depth direction, and FIG. 6B shows an example in which a 3D image with a stereoscopic effect is obtained in the front direction.

図7(a)の例では、元の左目用画像および右目用画像が、奥行き方向に立体感の得られる3D画像であるから、Lに対してRが右側に位置している。また、3Dメガネ2は右上がりに傾いている。したがって、L’に対してR’が右側に位置し、線分L’−R’が右上がりに傾くように、L’、R’の位置が特定される。つまり、L’の位置が、Lを垂直方向下向きに移動させた位置であり、R’の位置が、Lを水平方向右向きに移動させた位置であると特定される。   In the example of FIG. 7A, since the original left-eye image and right-eye image are 3D images that provide a stereoscopic effect in the depth direction, R is positioned on the right side with respect to L. Further, the 3D glasses 2 are inclined upward. Therefore, the positions of L ′ and R ′ are specified so that R ′ is positioned on the right side with respect to L ′ and the line segment L′-R ′ is inclined upward. That is, the position of L ′ is specified as a position where L is moved downward in the vertical direction, and the position of R ′ is specified as a position where L is moved rightward in the horizontal direction.

また、θ=30°、d=10であるから、L’の位置は、Lを垂直方向下向きに10×sin30°=5だけ移動させた位置であると特定される。同様に、R’の位置は、Lを水平方向右向きに10×cos30°≒8.7だけ移動させた位置であると特定される。なお、ここではドット単位で移動させることを想定しているため、小数点以下の値は四捨五入する。すなわち、上述において8.7と計算された場合には9ドット移動させる。   Further, since θ = 30 ° and d = 10, the position of L ′ is specified as a position obtained by moving L by 10 × sin 30 ° = 5 downward in the vertical direction. Similarly, the position of R ′ is specified as a position where L is moved to the right in the horizontal direction by 10 × cos 30 ° ≈8.7. Here, since it is assumed that the movement is performed in dot units, values after the decimal point are rounded off. That is, if it is calculated as 8.7 in the above, 9 dots are moved.

無論、元の右目用画像から新たな右目用画像を生成してもよく、この場合には、Rを水平方向左向きに10−10×cos30°≒1.3≒1だけ移動させた位置を、R’の位置として特定すればよい。   Of course, a new right-eye image may be generated from the original right-eye image, and in this case, a position where R is moved 10-10 × cos 30 ° ≈1.3≈1 in the horizontal direction leftward, What is necessary is just to specify as a position of R '.

一方、同図(b)の例では、元の左目用画像および右目用画像が、手前方向に立体感の得られる3D画像であるから、Lに対してRが左側に位置している。また、3Dメガネ2は右上がりに傾いている。したがって、L’に対してR’が左側に位置し、線分L’−R’が右上がりに傾くように、L’、R’の位置が特定される。つまり、L’の位置が、Lを垂直方向上向きに移動させた位置であり、R’の位置が、Lを水平方向左向きに移動させた位置であると特定される。   On the other hand, in the example of FIG. 5B, the original left-eye image and right-eye image are 3D images that provide a stereoscopic effect in the front direction, and therefore R is positioned on the left side with respect to L. Further, the 3D glasses 2 are inclined upward. Therefore, the positions of L ′ and R ′ are specified so that R ′ is positioned on the left side with respect to L ′ and the line segment L′-R ′ is inclined upward. That is, the position of L ′ is specified as a position where L is moved vertically upward, and the position of R ′ is specified as a position where L is moved leftward in the horizontal direction.

また、θ=30°、d=10であるから、L’の位置は、Lを垂直方向上向きに10×sin30°=5だけ移動させた位置であると特定される。同様に、R’の位置は、Lを水平方向左向きに10×cos30°≒8.7≒9だけ移動させた位置であると特定される。この場合においても、元の右目用画像から新たな右目用画像を生成してもよいことは、同図(a)の例と同様である。   Further, since θ = 30 ° and d = 10, the position of L ′ is specified as a position obtained by moving L by 10 × sin 30 ° = 5 upward in the vertical direction. Similarly, the position of R ′ is specified as a position where L is moved leftward in the horizontal direction by 10 × cos 30 ° ≈8.7≈9. Even in this case, a new right-eye image may be generated from the original right-eye image, as in the example of FIG.

(θが45°の場合の具体例)
図8は、3Dメガネ2が右上がりに45°傾いている場合(θ=45°)に画像生成部63が特定する移動方向および移動量の具体例を示す図であり、同図(a)は奥行き方向に立体感の得られる3D画像が対象である例を示し、同図(b)は手前方向に立体感の得られる3D画像が対象である例を示している。
(Specific example when θ is 45 °)
FIG. 8 is a diagram showing a specific example of the moving direction and the moving amount specified by the image generating unit 63 when the 3D glasses 2 are inclined 45 ° upward (θ = 45 °). Shows an example in which a 3D image with a stereoscopic effect is obtained in the depth direction, and FIG. 6B shows an example in which a 3D image with a stereoscopic effect is obtained in the front direction.

図8(a)の例では、L’の位置は、Lを垂直方向下向きに10×sin45°≒7だけ移動させた位置であると特定される。同様に、R’の位置は、Lを水平方向右向きに10×cos45°≒7だけ移動させた位置であると特定される。   In the example of FIG. 8A, the position of L ′ is specified as a position where L is moved downward by 10 × sin 45 ° ≈7 in the vertical direction. Similarly, the position of R ′ is specified as a position obtained by moving L by 10 × cos 45 ° ≈7 to the right in the horizontal direction.

一方、同図(b)の例では、L’の位置は、Lを垂直方向上向きに10×sin45°≒7だけ移動させた位置であると特定される。同様に、R’の位置は、Lを水平方向左向きに10×cos45°≒7だけ移動させた位置であると特定される。   On the other hand, in the example of FIG. 5B, the position of L ′ is specified as the position where L is moved upward by 10 × sin 45 ° ≈7 in the vertical direction. Similarly, the position of R ′ is specified as a position where L is moved leftward in the horizontal direction by 10 × cos 45 ° ≈7.

(θが60°の場合の具体例)
図9は、3Dメガネ2が右上がりに60°傾いている場合(θ=60°)に画像生成部63が特定する移動方向および移動量の具体例を示す図であり、同図(a)は奥行き方向に立体感の得られる3D画像が対象である例を示し、同図(b)は手前方向に立体感の得られる3D画像が対象である例を示している。
(Specific example when θ is 60 °)
FIG. 9 is a diagram showing a specific example of the moving direction and moving amount specified by the image generating unit 63 when the 3D glasses 2 are tilted 60 ° upward (θ = 60 °). Shows an example in which a 3D image with a stereoscopic effect is obtained in the depth direction, and FIG. 6B shows an example in which a 3D image with a stereoscopic effect is obtained in the front direction.

図9(a)の例では、L’の位置は、Lを垂直方向下向きに10×sin60°≒9だけ移動させた位置であると特定される。同様に、R’の位置は、Lを水平方向右向きに10×cos60°=5だけ移動させた位置であると特定される。   In the example of FIG. 9A, the position of L ′ is specified as a position where L is moved downward by 10 × sin 60 ° ≈9 in the vertical direction. Similarly, the position of R ′ is specified as a position where L is moved to the right in the horizontal direction by 10 × cos 60 ° = 5.

一方、同図(b)の例では、L’の位置は、Lを垂直方向上向きに10×sin60°≒9だけ移動させた位置であると特定される。同様に、R’の位置は、Lを水平方向左向きに10×cos60°=5だけ移動させた位置であると特定される。   On the other hand, in the example of FIG. 5B, the position of L ′ is specified as the position where L is moved upward by 10 × sin 60 ° ≈9 in the vertical direction. Similarly, the position of R ′ is specified as a position obtained by moving L by 10 × cos 60 ° = 5 leftward in the horizontal direction.

〔表示装置1が実行する処理〕
表示装置1が実行する処理の流れを、図10に基づいて説明する。図10は、表示装置1が実行する処理の一例を示すフローチャートである。
[Processing executed by display device 1]
A flow of processing executed by the display device 1 will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of processing executed by the display device 1.

まず、画像処理部6は、右目用画像および左目用画像(両目が水平な状態で適切な視差が得られる通常の3D画像)を画像記憶部3から読み込み(S1)、両画像を表示制御部7へ出力して3D表示させる。すなわち、両画像の入力を受けた表示制御部7は、これらを表示部5へ所定の時間間隔で交互に出力すると共に、3Dメガネ2に同期用の信号を発信する。これを受けて表示部5は当該画像を交互表示し(S2)、3Dメガネ2は、画像の交互表示に同期してシャッターを開閉させる。   First, the image processing unit 6 reads a right-eye image and a left-eye image (a normal 3D image in which appropriate parallax can be obtained when both eyes are horizontal) from the image storage unit 3 (S1), and displays both images as a display control unit. 7 to display in 3D. In other words, the display control unit 7 that has received the input of both images alternately outputs them to the display unit 5 at predetermined time intervals, and transmits a synchronization signal to the 3D glasses 2. In response to this, the display unit 5 alternately displays the image (S2), and the 3D glasses 2 open and close the shutter in synchronization with the alternate display of the image.

次に、傾き取得部62は、3Dメガネ2の傾き検出部24によって計測され、表示装置1に送信された傾き角θを取得し(S3、傾き取得ステップ)、これを画像処理部6に出力する。傾き角θを受信した画像処理部6は、画像を生成するか否かを判断する(S4)。具体的には、θと予め定めたしきい値とを比較し、θがしきい値以上であった場合に画像を生成すると判断し、しきい値未満であった場合には生成しないと判断する。なお、しきい値が小さいほど傾きに応じた細やかな制御が行われるが、処理の負荷も大きくなるため、表示装置1の性能等を考慮してしきい値を設定すればよい。   Next, the inclination acquisition unit 62 acquires the inclination angle θ measured by the inclination detection unit 24 of the 3D glasses 2 and transmitted to the display device 1 (S3, inclination acquisition step), and outputs this to the image processing unit 6. To do. The image processing unit 6 that has received the inclination angle θ determines whether or not to generate an image (S4). Specifically, when θ is compared with a predetermined threshold value, it is determined that an image is generated when θ is equal to or greater than the threshold value, and is not generated when θ is less than the threshold value. To do. Note that, as the threshold value is smaller, fine control according to the inclination is performed. However, since the processing load increases, the threshold value may be set in consideration of the performance of the display device 1 and the like.

ここで、画像を生成しないと判断した場合(S4でNO)、処理はS2に戻り、通常の3D画像の表示を継続する。なお、読み込み済みの3D画像が存在しない場合には、S1に戻って読み込みを行う。   If it is determined that no image is to be generated (NO in S4), the process returns to S2 to continue displaying a normal 3D image. If there is no read 3D image, the process returns to S1 and is read.

一方、画像を生成すると判断した場合(S4でYES)、画像処理部6は、傾き角θを画像生成部63に出力する。傾き角θを受信した画像生成部63は、視差データ生成部61に視差データを要求し、この要求を受信した視差データ生成部61は、画像記憶部3に視差データが記憶されているか確認する(S5)。   On the other hand, when it is determined that an image is to be generated (YES in S4), the image processing unit 6 outputs the inclination angle θ to the image generation unit 63. The image generation unit 63 that has received the tilt angle θ requests parallax data from the parallax data generation unit 61, and the parallax data generation unit 61 that has received this request checks whether parallax data is stored in the image storage unit 3. (S5).

ここで、視差データが記憶されている場合(S5)には、視差データ生成部61は記憶されている視差データを読み出して画像生成部63に出力し、処理はS8に進む。なお、処理の高速化のため、視差データが記憶されている場合には、これを予め視差データ生成部61または画像生成部63に読み込ませておいてもよい。   Here, when the parallax data is stored (S5), the parallax data generation unit 61 reads the stored parallax data and outputs it to the image generation unit 63, and the process proceeds to S8. In addition, when the parallax data is memorize | stored for the speed-up of a process, you may read this into the parallax data generation part 61 or the image generation part 63 previously.

一方、視差データが記憶されていない場合(S5でNO)には、視差データ生成部61は、視差データを生成するか否かを判断する(S6)。なお、視差データを生成するか否かは、ユーザが予め設定しておく。つまり、ユーザが視差データを生成する設定にしている場合には、視差データ生成部61は、視差データを生成すると判断する。一方、生成しない設定にしている場合には生成しないと判断する。   On the other hand, when parallax data is not stored (NO in S5), the parallax data generation unit 61 determines whether to generate parallax data (S6). Note that whether or not to generate parallax data is set in advance by the user. That is, when the user is set to generate parallax data, the parallax data generation unit 61 determines to generate parallax data. On the other hand, if it is set not to generate, it is determined not to generate.

ここで、生成しないと判断した場合(S6でNO)、S2の処理に戻る。なお、このときに、3Dメガネ2(ユーザの両目)が傾いていることを画像や音声等でユーザに通知する等して、3Dメガネ2が水平になる状態で視聴することを促してもよい。   Here, if it is determined not to be generated (NO in S6), the process returns to S2. At this time, the user may be prompted to view the 3D glasses 2 in a horizontal state by, for example, notifying the user that the 3D glasses 2 (both eyes of the user) are tilted with an image or sound. .

一方、視差データを生成すると判断した場合(S6でYES)、視差データ生成部61は、入力された右目用画像と左目用画像から視差データを生成し(S7)、これを画像生成部63へ出力する。   On the other hand, when it is determined to generate parallax data (YES in S6), the parallax data generation unit 61 generates parallax data from the input right-eye image and left-eye image (S7), and sends this to the image generation unit 63. Output.

S8では、画像生成部63は、画像生成処理を行う。これにより、視差データ生成部61から入力された視差データと、傾き取得部62から入力された傾きθと、画像処理部6によって読み出された左目用画像とから、新たに右目用画像および左目用画像を生成し、表示制御部7へ出力する。   In S8, the image generation unit 63 performs image generation processing. As a result, the right eye image and the left eye are newly generated from the parallax data input from the parallax data generation unit 61, the inclination θ input from the inclination acquisition unit 62, and the left eye image read out by the image processing unit 6. A production image is generated and output to the display control unit 7.

そして、表示制御部7は、画像生成部63から入力された右目用画像および左目用画像をFS方式に基づいて表示する(S9)。この後処理はS3に戻り、再度傾きの取得が行われる。   Then, the display control unit 7 displays the right-eye image and the left-eye image input from the image generation unit 63 based on the FS method (S9). This post-processing returns to S3, and the inclination is acquired again.

なお、上記の例では、入力された右目用画像と左目用画像から視差データを生成し、この左目用画像から新たな右目用画像および左目用画像を生成する例を示したがこれに限られない。視差データの生成に用いる画像は、新たな右目用画像および左目用画像の生成に用いる画像よりも前のフレームの画像であってもよい。フレーム毎に視差が大きく変化することは少ないからである。また、前のフレームの画像から視差データを生成する場合には、視差データの生成に用いる画像から視差データを生成する場合と比べて、早いタイミングで視差データを生成することができる。このため、新たな右目用画像および左目用画像が生成されるまでの時間を短縮することもできる。   In the above example, disparity data is generated from the input right-eye image and left-eye image, and a new right-eye image and left-eye image are generated from the left-eye image. Absent. The image used for generating the parallax data may be an image of a frame before the image used for generating a new right-eye image and left-eye image. This is because the parallax hardly changes from frame to frame. Further, when generating parallax data from an image of the previous frame, it is possible to generate parallax data at an earlier timing than when generating parallax data from an image used for generating parallax data. For this reason, it is also possible to reduce the time until new right-eye images and left-eye images are generated.

〔画像生成処理の流れ〕
続いて、図10のS8において画像生成部63が実行する画像生成処理の流れを、図11に基づいて説明する。図11は、画像生成部63が実行する画像生成処理の一例を示すフローチャートである。
[Flow of image generation processing]
Next, the flow of image generation processing executed by the image generation unit 63 in S8 of FIG. 10 will be described based on FIG. FIG. 11 is a flowchart illustrating an example of image generation processing executed by the image generation unit 63.

まず、画像生成部63は、視差データと角度θから移動方向を特定する(S10)。上述のように、移動方向は、奥行き方向に立体感が出る画像であるか、手前方向に立体感が出る画像であるか、また3Dメガネ2が右上がりに傾いているか、右下がりに傾いているかに応じて特定される。   First, the image generation unit 63 specifies the moving direction from the parallax data and the angle θ (S10). As described above, the moving direction is an image in which a stereoscopic effect appears in the depth direction, or an image in which a stereoscopic effect appears in the forward direction, or the 3D glasses 2 are inclined upward or downward. It is specified according to whether or not.

次に、画像生成部63は、元の左目用画像中の物体(視差が同一の連続した領域)の移動量を、新たな左目用画像および右目用画像のそれぞれについて算出する(S11)。上述のように、垂直方向の移動量はd×sinθの式で表され、水平方向の移動量はd×cosθの式で表される。   Next, the image generation unit 63 calculates the amount of movement of an object (a continuous region having the same parallax) in the original left-eye image for each of the new left-eye image and right-eye image (S11). As described above, the amount of movement in the vertical direction is expressed by the equation d × sin θ, and the amount of movement in the horizontal direction is expressed by the equation d × cos θ.

続いて、画像生成部63は、移動量の特定が終了したか確認する(S12)。なお、ここでは全ての物体(左目用画像中の全領域)の移動量を特定したときに、移動量の特定が終了したと判断してもよいし、一部の物体(例えば視差が一定以上大きい物体のみ)の移動量を特定したときに、移動量の特定が終了したと判断してもよい。ここで、特定が終了していないと判断した場合(S12でNO)、S10の処理に戻る。   Subsequently, the image generation unit 63 confirms whether or not the movement amount has been specified (S12). Here, when the movement amount of all the objects (all areas in the left-eye image) is specified, it may be determined that the movement amount has been specified, or some objects (for example, the parallax is more than a certain value) When the movement amount of only a large object is specified, it may be determined that the specification of the movement amount has been completed. If it is determined that the identification has not been completed (NO in S12), the process returns to S10.

一方、特定が終了していると判断した場合(S12でYES)、画像生成部63は、元の左目用画像中の各物体(物体を構成する画像中のドット)を、S10で特定した方向にS11で特定した移動量だけ移動させることによって、物体を移動させた3D画像(新たな左目用画像および右目用画像)を生成する(S13、画像生成ステップ)。そして、画像生成部63は、生成した3D画像を表示制御部7に出力し、これにより画像生成処理は終了する。   On the other hand, if it is determined that the identification has been completed (YES in S12), the image generation unit 63 identifies each object (dots in the image constituting the object) in the original left-eye image in the direction identified in S10. The 3D image (new left-eye image and right-eye image) in which the object is moved is generated by moving the object by the movement amount specified in S11 (S13, image generation step). Then, the image generation unit 63 outputs the generated 3D image to the display control unit 7, thereby ending the image generation process.

〔表示装置1の効果〕
以上のように、表示装置1によれば、3Dメガネ2の傾きを検出し、この傾きで視聴しているユーザが正しく立体視できる右目用画像および左目用画像を生成して表示する。すなわち、両眼の傾きをフィードバック情報とし、これに基づいて3D画像を再構成して表示する。
[Effect of display device 1]
As described above, according to the display device 1, the inclination of the 3D glasses 2 is detected, and the right-eye image and the left-eye image that can be correctly viewed stereoscopically by the user viewing with this inclination are generated and displayed. That is, the tilt of both eyes is used as feedback information, and a 3D image is reconstructed and displayed based on the feedback information.

したがって、例えば首を傾げる等により両眼が水平な状態ではなくなったときでも、ユーザは水平な状態と同じく自然な3D映像を視聴することができる。これにより、ユーザが視聴する際の姿勢の制約が緩和されるため、従来よりも自由な姿勢で3D映像を楽しむことができる。   Therefore, even when both eyes are not in a horizontal state due to, for example, tilting the neck, the user can view a natural 3D image as in the horizontal state. Thereby, since the restriction | limiting of the attitude | position at the time of a user viewing / listening is eased, 3D image | video can be enjoyed with a more free attitude | position than before.

なお、上記実施形態では、元の左目用画像中の各物体を移動させて、新たな左目用画像および右目用画像を生成する例を説明したが、元の左目用画像全体を移動させて新たな左目用画像および右目用画像としてもよい。例えば、図7(a)の例では、元の左目用画像を垂直方向下向きに5ドット移動させて新たな左目用画像とし、元の左目用画像を水平方向右向きに9ドット移動させて新たな右目用画像としてもよい。   In the above embodiment, an example has been described in which each object in the original left-eye image is moved to generate a new left-eye image and right-eye image. However, the original left-eye image is moved to a new one. The left-eye image and the right-eye image may be used. For example, in the example of FIG. 7A, the original left-eye image is moved 5 dots downward in the vertical direction to make a new left-eye image, and the original left-eye image is moved 9 dots to the right in the horizontal direction to make a new one. A right-eye image may be used.

これにより、元の左目用画像中の物体毎に位置を特定する場合と比べて、簡易な処理で傾きに対応した画像を表示することができる。ただし、物体毎の視差が画一化されてしまうため、もとより画像中の視差が画一となる〔背景技術〕に記載の特許文献1のような構成で立体表示を行う場合に適用することが好ましい。   Thereby, compared with the case where a position is specified for each object in the original image for the left eye, an image corresponding to the tilt can be displayed with a simple process. However, since the parallax for each object is uniformed, the parallax in the image can be uniformed as a matter of course. preferable.

〔ソフトウェアによる実現例〕
最後に、表示装置1の各ブロック、特に制御部4は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
[Example of software implementation]
Finally, each block of the display device 1, particularly the control unit 4, may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or using a CPU (Central Processing Unit). It may be realized by software.

後者の場合、表示装置1は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである表示装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記表示装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, the display device 1 includes a CPU that executes instructions of a program that realizes each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program, and various types of programs. A storage device (recording medium) such as a memory for storing data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the display device 1 which is software that realizes the above-described functions is recorded so as to be readable by a computer. This can also be achieved by supplying the display device 1 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. IC cards (including memory cards) / optical cards, semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM, PLD (Programmable logic device), FPGA (Field Programmable Gate Array), etc. Logic circuits can be used.

また、表示装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The display device 1 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited as long as it can transmit the program code. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication network, and the like can be used. The transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even with wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by radio such as High Data Rate (NFC), Near Field Communication (NFC), Digital Living Network Alliance (DLNA), mobile phone network, satellite line, and digital terrestrial network. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、立体視用のメガネの左右のシャッターの開閉と、右目用映像と左目用映像との切り替えとを同期させることによって、立体視を可能にする表示装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a display device that enables stereoscopic viewing by synchronizing the opening and closing of the left and right shutters of stereoscopic glasses and switching between the right-eye video and the left-eye video.

1 表示装置
2 3Dメガネ(立体視用のメガネ)
21 右目用シャッター
22 左目用シャッター
24 傾き検出部(測定装置)
61 視差データ生成部(視差データ取得手段)
62 傾き取得部(傾き取得手段)
63 画像生成部(画像生成手段)
100 表示システム
1 Display 2 3D glasses (stereoscopic glasses)
21 Shutter for right eye 22 Shutter for left eye 24 Tilt detector (measuring device)
61 Parallax data generation unit (parallax data acquisition means)
62 Inclination acquisition unit (inclination acquisition means)
63 Image generation unit (image generation means)
100 display system

Claims (9)

右目で視認されるべき右目用画像と左目で視認されるべき左目用画像とを交互表示すると共に、立体視用のメガネの左右のシャッターの開閉を上記交互表示と同期させることによってユーザに立体視させる表示装置であって、
上記メガネの水平面に対する傾き角を取得する傾き取得手段と、
上記傾き取得手段が取得した傾き角の上記メガネで立体視するユーザに与える視差が、上記右目用画像および上記左目用画像が、上記傾き角がゼロである上記メガネで立体視するユーザに与える視差と一致するように、上記左目用画像または上記右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる画像生成手段とを備えることを特徴とする表示装置。
The right-eye image to be visually recognized by the right eye and the left-eye image to be visually recognized by the left eye are alternately displayed, and the opening / closing of the left and right shutters of the stereoscopic glasses is synchronized with the alternate display, so that the user can A display device,
An inclination acquisition means for acquiring an inclination angle of the glasses with respect to a horizontal plane;
The parallax given to the user stereoscopically viewed with the glasses having the inclination angle acquired by the inclination acquisition means is the parallax given to the user stereoscopically viewed with the glasses whose inclination angle is zero in the right-eye image and the left-eye image. The left eye image or the right eye image for tilting and the image generating means for generating and displaying the left eye image for tilting so as to coincide with the left eye image. apparatus.
上記右目用画像および上記左目用画像を立体視するときに同一の点と認識される、上記右目用画像上の点Rと、上記左目用画像上の点Lとの視差を示す視差データを取得する視差データ取得手段を備え、
上記画像生成手段は、上記傾斜時用右目用画像における上記点Rに対応する点をR’とし、上記傾斜時用左目用画像における上記点Lに対応する点をL’としたときに、点R’と点L’との視差が上記視差データの示す視差に一致し、かつ表示面上において点R’と点L’とを結ぶ線分と水平面とのなす角が、上記傾き取得手段が取得した傾き角と一致するように、上記点Rまたは上記点Lを移動させて、上記傾斜時用右目用画像および上記傾斜時用左目用画像を生成することを特徴とする請求項1に記載の表示装置。
Obtain parallax data indicating parallax between the point R on the right-eye image and the point L on the left-eye image, which are recognized as the same point when the right-eye image and the left-eye image are stereoscopically viewed Parallax data acquisition means for
When the point corresponding to the point R in the right-eye image for tilt is R ′ and the point corresponding to the point L in the left-eye image for tilt is L ′, The parallax between R ′ and point L ′ coincides with the parallax indicated by the parallax data, and the angle between the line segment connecting point R ′ and point L ′ on the display surface and the horizontal plane is determined by the inclination acquisition means. The point R or the point L is moved so as to coincide with the acquired inclination angle, and the right eye image for tilting and the left eye image for tilting are generated. Display device.
上記画像生成手段は、上記視差データの示す視差が同一の、上記点Rまたは上記点Lの集まりである同一視差領域の少なくとも1つについて、当該同一視差領域に含まれる点Rまたは点Lを移動させることにより、上記傾斜時用右目用画像および上記傾斜時用左目用画像を生成することを特徴とする請求項2に記載の表示装置。   The image generation unit moves the point R or the point L included in the same parallax region with respect to at least one of the same parallax region that is a collection of the point R or the point L with the same parallax indicated by the parallax data. The display device according to claim 2, wherein the right-eye image for tilting and the left-eye image for tilting are generated. 上記視差データ取得手段は、表示面上における上記点Rと上記点Lとの水平方向の距離を、当該点Rと点Lとの視差を示す視差データとして生成することを特徴とする請求項2または3に記載の表示装置。   3. The parallax data acquisition unit generates a horizontal distance between the point R and the point L on the display surface as parallax data indicating the parallax between the point R and the point L. Or the display apparatus of 3. 上記画像生成手段は、上記右目用画像または上記左目用画像上で、上記点Rまたは上記点Lを垂直方向または水平方向に移動させて上記傾斜時用右目用画像を生成し、当該点Rまたは当該点Lを水平方向または垂直方向に移動させて上記傾斜時用左目用画像を生成することを特徴とする請求項2から4の何れか1項に記載の表示装置。   The image generation means generates the right-eye image for tilting by moving the point R or the point L in the vertical direction or the horizontal direction on the right-eye image or the left-eye image. 5. The display device according to claim 2, wherein the left eye image for tilting is generated by moving the point L in a horizontal direction or a vertical direction. 6. 右目で視認されるべき右目用画像と左目で視認されるべき左目用画像とを交互表示すると共に、立体視用のメガネの左右のシャッターの開閉を上記交互表示と同期させることによってユーザに立体視させる表示装置と、上記メガネと、該メガネの水平面に対する傾き角を測定する測定装置とを含む表示システムであって、
上記表示装置は、
上記測定装置から、上記メガネの水平面に対する傾き角を取得する傾き取得手段と、
上記傾き取得手段が取得した傾き角の上記メガネで立体視するユーザに与える視差が、上記右目用画像および上記左目用画像が、上記傾き角がゼロである上記メガネで立体視するユーザに与える視差と一致するように、上記左目用画像または上記右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる画像生成手段とを備えていることを特徴とする表示システム。
The right-eye image to be visually recognized by the right eye and the left-eye image to be visually recognized by the left eye are alternately displayed, and the opening / closing of the left and right shutters of the stereoscopic glasses is synchronized with the alternate display, so that the user can A display system comprising: a display device; the glasses; and a measuring device that measures an inclination angle of the glasses with respect to a horizontal plane,
The display device
An inclination acquisition means for acquiring an inclination angle of the glasses with respect to a horizontal plane from the measuring device;
The parallax given to the user stereoscopically viewed with the glasses having the inclination angle acquired by the inclination acquisition means is the parallax given to the user stereoscopically viewed with the glasses whose inclination angle is zero in the right-eye image and the left-eye image. Image generation means for generating and displaying the right-eye image for tilting and the left-eye image for tilting reconstructed from the left-eye image or the right-eye image so as to match Display system.
右目で視認されるべき右目用画像と左目で視認されるべき左目用画像とを交互表示すると共に、立体視用のメガネの左右のシャッターの開閉を上記交互表示と同期させることによってユーザに立体視させる表示装置の制御方法であって、
上記メガネの水平面に対する傾き角を取得する傾き取得ステップと、
上記傾き取得ステップで取得した傾き角の上記メガネで立体視するユーザに与える視差が、上記右目用画像および上記左目用画像が、上記傾き角がゼロである上記メガネで立体視するユーザに与える視差と一致するように、上記左目用画像または上記右目用画像を再構成した傾斜時用右目用画像および傾斜時用左目用画像を生成して表示させる画像生成ステップとを含むことを特徴とする表示装置の制御方法。
The right-eye image to be visually recognized by the right eye and the left-eye image to be visually recognized by the left eye are alternately displayed, and the opening / closing of the left and right shutters of the stereoscopic glasses is synchronized with the alternate display, so that the user can A method of controlling a display device,
An inclination acquisition step for acquiring an inclination angle of the glasses with respect to a horizontal plane;
The parallax given to the user who stereoscopically views the glasses with the inclination angle acquired in the inclination acquisition step is the parallax given to the user stereoscopically viewed with the glasses whose inclination angle is zero in the right-eye image and the left-eye image. An image generation step of generating and displaying the right-eye image for tilting and the left-eye image for tilting reconstructed from the left-eye image or the right-eye image so as to match Control method of the device.
請求項1から5のいずれか1項に記載の表示装置を動作させるための制御プログラムであって、コンピュータを上記各手段として機能させるための制御プログラム。   A control program for operating the display device according to any one of claims 1 to 5, wherein the control program causes a computer to function as each of the means. 請求項8に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the control program according to claim 8 is recorded.
JP2011122651A 2011-05-31 2011-05-31 Display device, display system, display device control method, control program, and recording medium Withdrawn JP2012253447A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011122651A JP2012253447A (en) 2011-05-31 2011-05-31 Display device, display system, display device control method, control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011122651A JP2012253447A (en) 2011-05-31 2011-05-31 Display device, display system, display device control method, control program, and recording medium

Publications (1)

Publication Number Publication Date
JP2012253447A true JP2012253447A (en) 2012-12-20

Family

ID=47525883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011122651A Withdrawn JP2012253447A (en) 2011-05-31 2011-05-31 Display device, display system, display device control method, control program, and recording medium

Country Status (1)

Country Link
JP (1) JP2012253447A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132013A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132013A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
US11917118B2 (en) 2019-12-27 2024-02-27 Sony Group Corporation Information processing apparatus and information processing method

Similar Documents

Publication Publication Date Title
US10235560B2 (en) Image processing apparatus, image processing method, and image communication system
US10356338B2 (en) Virtual three dimensional video creation and management system and method
US9451242B2 (en) Apparatus for adjusting displayed picture, display apparatus and display method
US10187633B2 (en) Head-mountable display system
US20170295357A1 (en) Device and method for three-dimensional video communication
US11277603B2 (en) Head-mountable display system
WO2012147363A1 (en) Image generation device
JP2011090400A (en) Image display device, method, and program
US20160249043A1 (en) Three dimensional (3d) glasses, 3d display system and 3d display method
KR20120016408A (en) Method for processing image of display system outputting 3 dimensional contents and display system enabling of the method
US20140092218A1 (en) Apparatus and method for stereoscopic video with motion sensors
JP2019040610A (en) Information processing apparatus
WO2013108285A1 (en) Image recording device, three-dimensional image reproduction device, image recording method, and three-dimensional image reproduction method
JP2013098840A (en) Information processing apparatus, display control method, and program
US20130155055A1 (en) Display device, display method, and recording medium
JP2012253447A (en) Display device, display system, display device control method, control program, and recording medium
WO2018205426A1 (en) Desktop spatial stereoscopic interaction system
JP4475201B2 (en) Stereoscopic image display device and stereoscopic image display device system
US20170155892A1 (en) Wearable stereoscopic camera system for 3d virtual reality imaging and networked area learning
JP5906894B2 (en) 3D input device and 3D input method
KR101634439B1 (en) Method for displaying image stream side by side and portable electronic divice displaying image stream on a display screen side by side by the method
KR20110057957A (en) Display apparatus and method for providing graphic user interface applied to the same
KR20120023218A (en) Display device for 2d and 3d, 3d auxiliary device and optional display method
JP2016019257A (en) Stereoscopic video display system
JP2012244433A (en) Image presentation apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805