JP2015142148A - Image processing device, display device, and program - Google Patents

Image processing device, display device, and program Download PDF

Info

Publication number
JP2015142148A
JP2015142148A JP2014012152A JP2014012152A JP2015142148A JP 2015142148 A JP2015142148 A JP 2015142148A JP 2014012152 A JP2014012152 A JP 2014012152A JP 2014012152 A JP2014012152 A JP 2014012152A JP 2015142148 A JP2015142148 A JP 2015142148A
Authority
JP
Japan
Prior art keywords
image
display unit
information
display
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014012152A
Other languages
Japanese (ja)
Inventor
英範 栗林
Hidenori Kuribayashi
英範 栗林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014012152A priority Critical patent/JP2015142148A/en
Publication of JP2015142148A publication Critical patent/JP2015142148A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of displaying an easy-to-view stereoscopic image on a display unit.SOLUTION: The image processing device comprises: an input unit which receives an inputted image; and a generator which, on the basis of a portion of the inputted image, generates first information for displaying an image on a first display unit and, on the basis of at least the other portion of the inputted image, generates second information for displaying an image on a second display unit disposed at a depth position different from that of the first display unit.

Description

本発明は、画像処理装置、表示装置、およびプログラムに関する。   The present invention relates to an image processing device, a display device, and a program.

奥行き位置の異なる複数の表示面にそれぞれに二次元像を表示し、その二次元像に観察者から見て異なった奥行き位置にある複数の表示面に対して、表示対象物体を観察者の視線方向から射影した二次元像を生成し、生成された二次元像の各表示面ごとに、それぞれの奥行き位置に応じた輝度比を付けることにより三次元立体像を生成する三次元表示方法が知られている(特許文献1参照)。   A two-dimensional image is displayed on each of a plurality of display surfaces having different depth positions, and the object to be displayed is line of sight with respect to the plurality of display surfaces at different depth positions as viewed from the observer. There is a known three-dimensional display method that generates a three-dimensional image by generating a two-dimensional image projected from the direction and assigning a luminance ratio according to each depth position for each display surface of the generated two-dimensional image. (See Patent Document 1).

特開2001−112025号公報Japanese Patent Laid-Open No. 2001-112025

従来の方法では、視認しやすい立体画像を表示することができない場合があった。
本発明の課題は、視認しやすい立体画像を表示部に表示させることである。
In the conventional method, there are cases where a stereoscopic image that is easy to visually recognize cannot be displayed.
An object of the present invention is to display a three-dimensional image that is easy to visually recognize on a display unit.

本発明の一態様は、入力画像が入力される入力部と、前記入力画像の一部に基づき、第1の表示部に画像を表示させるための第1の情報を生成すると共に、少なくとも前記入力画像から前記一部を除いた他の部分に基づき、前記第1の表示部とは異なる奥行き位置に配置された第2の表示部に画像を表示させるための第2の情報を生成する生成部と、を備える画像処理装置である。
また、本発明の他の態様は、一態様の画像処理装置と、前記画像処理装置によって生成された第1の情報に基づいて画像を表示する前記第1の表示部と、前記画像処理装置によって生成された第2の情報に基づいて画像を表示する前記第2の表示部と、を備える表示装置である。
また、本発明の他の態様は、画像処理装置を制御するコンピュータに、入力画像を入力させ、前記入力画像の一部に基づき、第1の表示部に画像を表示させるための第1の情報を生成させ、少なくとも前記入力画像から前記一部を除いた他の部分に基づき、前記第1の表示部とは異なる奥行き位置に配置された第2の表示部に画像を表示させるための第2の情報を生成させる、プログラムである。
One embodiment of the present invention generates, based on an input unit to which an input image is input, first information for displaying an image on a first display unit based on a part of the input image, and at least the input A generating unit that generates second information for displaying an image on a second display unit arranged at a depth position different from that of the first display unit, based on another part excluding the part from the image And an image processing apparatus.
According to another aspect of the present invention, there is provided an image processing apparatus according to an aspect, the first display unit that displays an image based on first information generated by the image processing apparatus, and the image processing apparatus. And a second display unit that displays an image based on the generated second information.
In another aspect of the present invention, first information for causing a computer that controls the image processing apparatus to input an input image and causing the first display unit to display the image based on a part of the input image. And a second display unit configured to display an image on a second display unit arranged at a depth position different from the first display unit based on at least another part obtained by removing the part from the input image. It is a program that generates the information.

本発明の一態様によれば、視認しやすい立体画像を表示部に表示させることができる。   According to one embodiment of the present invention, a stereoscopic image that is easy to visually recognize can be displayed on the display unit.

本発明の第1実施形態に係る画像処理装置を含む表示装置1の構成の一例を示す図である。It is a figure which shows an example of a structure of the display apparatus 1 containing the image processing apparatus which concerns on 1st Embodiment of this invention. 第1実施形態に係る第1の表示部および第2の表示部の画素構造の一例を模式的に示す図である。It is a figure which shows typically an example of the pixel structure of the 1st display part which concerns on 1st Embodiment, and a 2nd display part. 第1の表示部および第2の表示部を、図1におけるユーザの側から重ねて見た様子を示す図である。It is a figure which shows a mode that the 1st display part and the 2nd display part were seen from the user side in FIG. 第1実施形態に係る分配部による処理を説明するための説明図である。It is explanatory drawing for demonstrating the process by the distribution part which concerns on 1st Embodiment. 奥行き情報を画像に反映させる様子を模式的に示す図である。It is a figure which shows typically a mode that depth information is reflected on an image. 第1の表示部10の表示面と第2の表示部の表示面との間の奥行き位置の関係を示す図である。It is a figure which shows the relationship of the depth position between the display surface of the 1st display part 10, and the display surface of a 2nd display part. 立体像VIの奥行き位置の一例を示す図である。It is a figure which shows an example of the depth position of the stereo image VI. 第1実施形態の表示用情報生成部により実行される処理の流れを示すフローチャートの一例である。It is an example of the flowchart which shows the flow of the process performed by the display information generation part of 1st Embodiment. 間引きの程度を変更する処理を説明するための説明図である。It is explanatory drawing for demonstrating the process which changes the grade of thinning. 表示装置が有する画素構造の他の例を示す図である。It is a figure which shows the other example of the pixel structure which a display apparatus has. 第2実施形態に係る表示装置の画素構造を模式的に示す図である。It is a figure which shows typically the pixel structure of the display apparatus which concerns on 2nd Embodiment. 第2実施形態に係る分配部による処理を説明するための説明図である。It is explanatory drawing for demonstrating the process by the distribution part which concerns on 2nd Embodiment. 第1実施形態の表示用情報生成部により実行される処理の流れを示すフローチャートの一例である。It is an example of the flowchart which shows the flow of the process performed by the display information generation part of 1st Embodiment. 表示装置の姿勢に応じた配置の変更を説明するための説明図である。It is explanatory drawing for demonstrating the change of the arrangement | positioning according to the attitude | position of a display apparatus.

以下、図面を参照し、本発明の画像処理装置、表示装置、およびプログラムの実施形態について説明する。以下、各図の説明においてはXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。表示装置が画像を表示している方向をZ軸の正の方向とし、Z軸方向に垂直な平面上の互いに直交する方向を、それぞれX軸方向及びY軸方向とする。ここでは、X軸方向は、表示装置の水平方向とし、Y軸方向は表示装置1の鉛直上方向とする。   Hereinafter, embodiments of an image processing device, a display device, and a program according to the present invention will be described with reference to the drawings. Hereinafter, in the description of each drawing, an XYZ rectangular coordinate system is set, and the positional relationship of each part will be described with reference to this XYZ rectangular coordinate system. The direction in which the display device displays an image is the positive direction of the Z axis, and the directions perpendicular to each other on a plane perpendicular to the Z axis direction are the X axis direction and the Y axis direction, respectively. Here, the X-axis direction is the horizontal direction of the display device, and the Y-axis direction is the vertically upward direction of the display device 1.

<第1実施形態>
[構成]
図1は、本発明の第1実施形態に係る画像処理装置30を含む表示装置1の構成の一例を示す図である。表示装置1は、例えば、テレビジョン受像機、コンピュータや携帯電話のディスプレイ装置、デジタルサイネージ等の用途に用いられる。表示装置1は、観者であるユーザUから見て手前側となるように配置される第1の表示部10と、ユーザUから見て第1の表示部10よりも奥側となるように配置される第2の表示部20とを備える。
<First Embodiment>
[Constitution]
FIG. 1 is a diagram illustrating an example of a configuration of a display device 1 including an image processing device 30 according to the first embodiment of the present invention. The display device 1 is used for applications such as a television receiver, a display device for a computer or a mobile phone, and a digital signage. The display device 1 is arranged so as to be on the near side when viewed from the user U who is the viewer, and so as to be on the far side from the first display unit 10 when viewed from the user U. And a second display unit 20 to be arranged.

図2は、第1実施形態に係る第1の表示部10および第2の表示部20の画素構造の一例を模式的に示す図である。また、図3は、第1の表示部10および第2の表示部20を、図1におけるユーザUの側から重ねて見た様子を示す図である。第1の表示部10および第2の表示部20は、それぞれX方向に並ぶ複数の画素PX(10)、PX(20)を備える。画素PX(10)、PX(20)は、例えば、それぞれが、R(赤),G(緑),B(青)の三要素の画素を備える画素ユニットである。画素PX(10)、PX(20)は、R,G,Bの三要素の画素を最少単位数ずつ備えるものであってもよいし、R,G,Bの三要素の画素をそれぞれ複数備えるものであってもよい。また、画素PX(10)、PX(20)は、単に1つの画素からなるものであってもよい。   FIG. 2 is a diagram schematically illustrating an example of the pixel structure of the first display unit 10 and the second display unit 20 according to the first embodiment. FIG. 3 is a diagram illustrating a state in which the first display unit 10 and the second display unit 20 are viewed from the user U side in FIG. The first display unit 10 and the second display unit 20 each include a plurality of pixels PX (10) and PX (20) arranged in the X direction. The pixels PX (10) and PX (20) are pixel units each including, for example, three element pixels of R (red), G (green), and B (blue). The pixels PX (10) and PX (20) may be provided with a minimum unit number of R, G, and B three-element pixels, or may each include a plurality of R, G, and B three-element pixels. It may be a thing. Further, the pixels PX (10) and PX (20) may be composed of only one pixel.

第1の表示部10における画素PX(10)以外の部分は、透明部材(例えばガラスや樹脂等)で形成されている。係る部分は、何も無い空間であってもよい。そして、第1の表示部10においてX方向に並ぶ各列の画素PX(10)と、第2の表示部20にX方向に並ぶ各列の画素PX(20)は、例えば、図中Y方向にオフセットしている。このため、ユーザUの側から見ると、第1の表示部10の画素列の間の間隙から、第2の表示部20の画素列による表示画像が視認できるようになっている。なお、PX(10)のY方向のピッチ間隔をKとすると、PX(10)とPX(20)のオフセット間隔は、例えばK/2となる。なお、図2および図3では、第1の表示部10と第2の表示部20の表示面のサイズが同じであるかのように示したが、実際には、ユーザUからの視線の拡がりを考慮して、第2の表示部20の表示面のサイズを第1の表示部10の表示面のサイズよりも若干大きくしてよい。   Portions other than the pixel PX (10) in the first display unit 10 are formed of a transparent member (for example, glass or resin). Such a part may be an empty space. The pixels PX (10) in each column arranged in the X direction in the first display unit 10 and the pixels PX (20) in each column arranged in the X direction in the second display unit 20 are, for example, in the Y direction in the figure. Is offset. For this reason, when viewed from the user U side, the display image by the pixel columns of the second display unit 20 can be visually recognized from the gaps between the pixel columns of the first display unit 10. When the pitch interval in the Y direction of PX (10) is K, the offset interval between PX (10) and PX (20) is, for example, K / 2. In FIGS. 2 and 3, the display surfaces of the first display unit 10 and the second display unit 20 are shown to have the same size, but actually, the line of sight from the user U is expanded. Therefore, the size of the display surface of the second display unit 20 may be slightly larger than the size of the display surface of the first display unit 10.

図1に戻り、画像処理装置30の機能構成について説明する。画像処理装置30は、入力バッファ32と、画素構造記憶部34と、表示用情報生成部40と、第1の出力バッファ50と、第2の出力バッファ52とを備える。入力バッファ32、第1の出力バッファ50、および第2の出力バッファ52は、例えば、RAM(Random Access Memory)やレジスタであり、画素構造記憶部34は、ROM(Read Only Memory)やフラッシュメモリ、HDD(Hard Disk Drive)、RAM、レジスタ等である。   Returning to FIG. 1, the functional configuration of the image processing apparatus 30 will be described. The image processing apparatus 30 includes an input buffer 32, a pixel structure storage unit 34, a display information generation unit 40, a first output buffer 50, and a second output buffer 52. The input buffer 32, the first output buffer 50, and the second output buffer 52 are, for example, a RAM (Random Access Memory) and a register, and the pixel structure storage unit 34 is a ROM (Read Only Memory), a flash memory, An HDD (Hard Disk Drive), a RAM, a register, and the like.

入力バッファ32には、入力画像IMが入力される。入力画像IMには、例えば各画素に対して、奥行き位置に関する情報(以下、奥行き情報)が付与されている。奥行き情報とは、入力画像IMを立体画像として表示する場合に、ユーザUから見て、どの程度手前側に存在すると感じさせるか、或いは奥側に存在すると感じさせるかを指定する情報である。奥行き情報は、例えば、最も手前側を0、最も奥側を100などと定義すると、0〜100までの連続値または離散値で表される。入力バッファ32は、入力された入力画像IMと奥行き情報を格納する。   An input image IM is input to the input buffer 32. In the input image IM, for example, information on the depth position (hereinafter, depth information) is given to each pixel. The depth information is information for designating how far the user U feels that the input image IM is present on the back side or the back side when the input image IM is displayed as a stereoscopic image. Depth information is represented by a continuous value or a discrete value from 0 to 100, for example, when the foremost side is defined as 0 and the farthest side is defined as 100 or the like. The input buffer 32 stores the inputted input image IM and depth information.

画素構造記憶部34は、図2および図3に例示した第1の表示部10および第2の表示部20の画素構造を記憶している。画素構造記憶部34は、例えば、第1の表示部10における画素PX(10)のX方向およびY方向の数、第2の表示部20における画素PX(20)のX方向およびY方向の数、ピッチ間隔、オフセット間隔、X方向に互い違いに表示するのか、Y方向に互い違いに表示するかを区別する情報などを記憶している。図2〜4の例は、「Y方向に互い違いに表示する」ことに該当する。本実施形態の画像処理装置30は、画素構造記憶部34に記憶された情報を参照することで、入力画像IMの画素数と、画素PX(10)と画素PX(20)の数の合計が異なるような場合であっても、適切な間引き処理を行って画像データを生成することができる。   The pixel structure storage unit 34 stores the pixel structures of the first display unit 10 and the second display unit 20 illustrated in FIGS. 2 and 3. The pixel structure storage unit 34 is, for example, the number of the pixels PX (10) in the first display unit 10 in the X direction and the Y direction, and the number of the pixels PX (20) in the second display unit 20 in the X direction and Y direction. , The pitch interval, the offset interval, and information for distinguishing whether to alternately display in the X direction or in the Y direction are stored. The example in FIGS. 2 to 4 corresponds to “display alternately in the Y direction”. The image processing apparatus 30 according to the present embodiment refers to the information stored in the pixel structure storage unit 34 so that the total number of pixels of the input image IM and the number of pixels PX (10) and PX (20) can be calculated. Even in a different case, image data can be generated by performing appropriate thinning processing.

表示用情報生成部40は、例えば、間引き処理部42と、分配部44と、奥行反映部46とを備える。これらの機能部は、例えば、図示しないプログラムメモリに格納されたプログラムをCPU(Central Processing Unit)が実行することにより機能するソフトウェア機能部である。また、これに限らず、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   The display information generation unit 40 includes, for example, a thinning processing unit 42, a distribution unit 44, and a depth reflection unit 46. These functional units are, for example, software functional units that function when a CPU (Central Processing Unit) executes a program stored in a program memory (not shown). The present invention is not limited to this, and a hardware function unit such as an LSI (Large Scale Integration) or an ASIC (Application Specific Integrated Circuit) may be used.

間引き処理部42は、入力画像IMに対する間引き処理を行う。例えば、入力画像IMが640×480画素であり、画素構造記憶部34には、画素PX(10)のX方向の数、および画素PX(20)のX方向の数が共に320であり、画素PX(10)のY方向の数および画素PX(20)のY方向の数が共に120であり、「Y方向に互い違いに表示する」ことが記憶されているものとする(数値は、あくまで一例である)。この場合、間引き処理部42は、640×480画素の入力画像IMを、320×240画素に変換するための間引き処理を行う。すなわち、間引き処理部42は、間引き後の画素数を、例えば、画素PX(10)の数と画素PX(20)の数の合計に合致させる。これによって、図3に示す重ね合わせた画像は、入力画像IMに対して画素が間引かれた画像となる。間引き処理は、上記のように縦横1/2サイズに間引く場合、例えば隣接4画素の画素値の平均を求めることによって行われる。また、間引き処理部42は、入力画像IMの各画素に付与されていた奥行き情報を、画素値と同様に、間引き後の画素に対応させるための演算を行う。間引き処理部42は、上記のように縦横1/2サイズに間引く場合、例えば隣接4画素の奥行き情報の平均を求めることで、奥行き情報を間引き後の画素に対応させる。   The thinning processing unit 42 performs a thinning process on the input image IM. For example, the input image IM is 640 × 480 pixels, and the number of pixels PX (10) in the X direction and the number of pixels PX (20) in the X direction are both 320 in the pixel structure storage unit 34. It is assumed that the number of PX (10) in the Y direction and the number of pixels PX (20) in the Y direction are both 120, and that “display alternately in the Y direction” is stored. Is). In this case, the thinning processing unit 42 performs a thinning process for converting the input image IM of 640 × 480 pixels into 320 × 240 pixels. That is, the thinning processing unit 42 matches the number of pixels after thinning to, for example, the sum of the number of pixels PX (10) and the number of pixels PX (20). As a result, the superimposed image shown in FIG. 3 is an image in which pixels are thinned out from the input image IM. The thinning-out process is performed, for example, by obtaining an average of pixel values of four adjacent pixels when thinning down to 1/2 size in the vertical and horizontal directions as described above. Further, the thinning processing unit 42 performs a calculation for making the depth information given to each pixel of the input image IM correspond to the pixel after thinning, similarly to the pixel value. When the thinning processing unit 42 thins the image to 1/2 size in the vertical and horizontal directions as described above, the depth information corresponds to the pixels after thinning, for example, by obtaining the average of the depth information of adjacent four pixels.

分配部44は、間引き処理後の画像の画素値を、第1の表示部10の画素PX(10)と、第2の表示部20の画素PX(20)に分配する。図4は、第1実施形態に係る分配部44による処理を説明するための説明図である。図4に示すように、分配部44は、間引き処理後の画像IM*の各画素(1―1〜1―n、2―1〜2n、‥)の画素値を、行ごとに画素PX(10)、画素PX(20)に分配する。係る処理によって、分配部44は、間引き後の入力画像IM*の「一部」に基づき、第1の表示部10に画像を表示させるための情報(第1の情報)を生成すると共に、少なくとも間引き後の入力画像IM*から上記「一部」を除いた部分に基づき、第2の表示部20が画像を表示するための情報(第2の情報)を生成する。   The distribution unit 44 distributes the pixel values of the image after the thinning process to the pixels PX (10) of the first display unit 10 and the pixels PX (20) of the second display unit 20. FIG. 4 is an explanatory diagram for explaining processing by the distribution unit 44 according to the first embodiment. As shown in FIG. 4, the distribution unit 44 calculates the pixel value of each pixel (1-1 to 1-n, 2-1 to 2n,...) Of the image IM * after the thinning process for each row. 10), distributing to the pixels PX (20). Through such processing, the distribution unit 44 generates information (first information) for displaying an image on the first display unit 10 based on “part” of the input image IM * after thinning, and at least Based on the portion obtained by excluding the “part” from the thinned input image IM *, the second display unit 20 generates information (second information) for displaying the image.

奥行反映部46は、画素PX(10)、画素PX(20)に分配された画素値に、奥行き情報を反映させる。奥行反映部46は、奥行き情報の示す値が小さい程(すなわち、より手前側に表示するように設定されている程)、画素PX(10)に分配された画素値であれば、より明るくなるように画素値を修正し、画素PX(20)に分配された画素値であれば、より暗くなるように画素値を修正する。この逆に、奥行反映部46は、奥行き情報の示す値が大きい程(すなわち、より奥側に表示させるように設定されている程)、画素PX(10)に分配された画素値であれば、より暗くなるように画素値を補正し、画素PX(20)に分配された画素値であれば、より明るくなるように画素値を補正する。奥行き情報に基づく画素値の補正手法については、上記の傾向(手前側なら画素PX(10)を明るくし、奥側なら画素PX(20)を明るくする)が実現される限り、如何なる手法を採用してもよい。   The depth reflecting unit 46 reflects the depth information on the pixel values distributed to the pixels PX (10) and PX (20). The depth reflecting unit 46 becomes brighter as the value indicated by the depth information is smaller (that is, the pixel value distributed to the pixel PX (10) is set to be displayed closer to the front). If the pixel value is distributed to the pixel PX (20), the pixel value is corrected to be darker. On the contrary, the depth reflecting unit 46 is a pixel value distributed to the pixel PX (10) as the value indicated by the depth information is larger (that is, as the depth information is set to be displayed on the deeper side). Then, the pixel value is corrected so as to be darker, and if the pixel value is distributed to the pixel PX (20), the pixel value is corrected so as to be brighter. Any correction method for the pixel value based on the depth information may be used as long as the above tendency is realized (the pixel PX (10) is brightened on the near side and the pixel PX (20) is brightened on the far side). May be.

奥行反映部46による処理が行われると、第1の表示部10の画素PX(10)に割り当てられた画素値(すなわち第1の情報)は、第1の出力バッファ50に格納され、第2の表示部20の画素PX(20)に割り当てられた画素値(すなわち第2の情報)は、第2の出力バッファ52に格納される。第1の表示部10は、第1の出力バッファ50に格納された画素値に基づき画像を表示し、第2の表示部20は、第2の出力バッファ52に格納された画素値に基づき画像を表示する。なお、間引き処理部42→分配部44→奥行反映部46の順で処理を行うのは、あくまで一例であり、これらの処理は、順序を任意に変更されてよい。   When the processing by the depth reflecting unit 46 is performed, the pixel value (that is, the first information) assigned to the pixel PX (10) of the first display unit 10 is stored in the first output buffer 50, and the second The pixel value (that is, the second information) assigned to the pixel PX (20) of the display unit 20 is stored in the second output buffer 52. The first display unit 10 displays an image based on the pixel value stored in the first output buffer 50, and the second display unit 20 displays the image based on the pixel value stored in the second output buffer 52. Is displayed. Note that the processing in the order of the thinning processing unit 42 → the distributing unit 44 → the depth reflecting unit 46 is merely an example, and the order of these processes may be arbitrarily changed.

これによって、画像処理装置30および表示装置1は、視認しやすい立体画像を第1の表示部10および第2の表示部20に表示させることができる。図3に示すように、第1の表示部10および第2の表示部20により表示される画像は、所定の方向(例えば、第1の表示部10に正対する方向)から見ると、Y方向に関して、画素PX(10)による画像と画素PX(20)による画像が互い違いに見えることになる。このため、ユーザUから見て手前側の奥行き位置で表示したい画像要素については画素PX(10)の方を明るく、画素PX(20)の方を暗く表示することで、見やすい立体画像を実現することができる。図5は、奥行き情報を画像に反映させる様子を模式的に示す図である。図5に示すように、奥行反映部46は、例えば奥行き情報が手前側に設定されている人物の顔の領域Fについては、分配された画素に対して、画素PX(10)の方を明るく、画素PX(20)の方を暗く補正する。また、奥行反映部46は、奥行き情報が奥側に設定されている山の領域Mについては、分配された画素に対して、画素PX(10)の方を暗く、画素PX(20)の方を明るく補正する。   Thereby, the image processing device 30 and the display device 1 can display a stereoscopic image that is easy to visually recognize on the first display unit 10 and the second display unit 20. As shown in FIG. 3, the images displayed by the first display unit 10 and the second display unit 20 are in the Y direction when viewed from a predetermined direction (for example, the direction facing the first display unit 10). , The image by the pixel PX (10) and the image by the pixel PX (20) appear to alternate. For this reason, for an image element that is desired to be displayed at the depth position on the near side as viewed from the user U, the pixel PX (10) is displayed brighter and the pixel PX (20) is displayed darker, thereby realizing an easy-to-view stereoscopic image. be able to. FIG. 5 is a diagram schematically showing how the depth information is reflected in the image. As shown in FIG. 5, the depth reflection unit 46, for example, in the face area F of the person whose depth information is set on the near side, makes the pixel PX (10) brighter than the distributed pixels. The pixel PX (20) is corrected to be darker. Further, the depth reflecting unit 46 darkens the pixel PX (10) with respect to the distributed pixel and the pixel PX (20) with respect to the distributed pixel for the mountain region M in which the depth information is set on the back side. To brighten.

ここで、表示装置1が立体画像を実現することができる原理について説明する。図6は、第1の表示部10の表示面と第2の表示部の表示面との間の奥行き位置の関係を示す図である。図示するように、第1の表示部10の画素PX(10)は、奥行き位置Z1から(+Z)方向に、すなわち視点位置VPの方向に光L1を射出する。一方、第2の表示部20の画素PX(20)は、奥行き位置Z2から(+Z)方向に、すなわち視点位置VPの方向に光L2を射出する。また、第1の表示部10の光透過性を有する部分は、第2の表示部10の画素PX(10)からの光L1を(+Z)方向に、すなわち視点位置VPの方向に透過させる。   Here, the principle by which the display device 1 can realize a stereoscopic image will be described. FIG. 6 is a diagram illustrating the relationship of the depth position between the display surface of the first display unit 10 and the display surface of the second display unit. As illustrated, the pixel PX (10) of the first display unit 10 emits light L1 from the depth position Z1 in the (+ Z) direction, that is, in the direction of the viewpoint position VP. On the other hand, the pixel PX (20) of the second display unit 20 emits light L2 from the depth position Z2 in the (+ Z) direction, that is, in the direction of the viewpoint position VP. Further, the light-transmitting part of the first display unit 10 transmits the light L1 from the pixel PX (10) of the second display unit 10 in the (+ Z) direction, that is, in the direction of the viewpoint position VP.

ユーザUが視点位置Zvpから、光L1による像を見た場合、ユーザUの脳内において主観的輪郭が形成されることがある。例えば、ユーザUが視点位置Zvpから、光L1による像を見た場合、入力画像IMのうち第1の表示部10に分配された画像に含まれる表示対象の輪郭がユーザUの脳内において形成されることがある。このようにユーザUの脳内において主観的輪郭が形成されると、ユーザUは、画素PX(10)が表示する画像の輪郭を認識することができる。すなわち、画素PX(10)同士の間隔が比較的広い場合であっても、ユーザUは、画素PX(10)が表示する画像の輪郭を認識することができる。   When the user U views an image of the light L1 from the viewpoint position Zvp, a subjective contour may be formed in the user U's brain. For example, when the user U views the image by the light L1 from the viewpoint position Zvp, the outline of the display target included in the image distributed to the first display unit 10 in the input image IM is formed in the user U's brain. May be. When the subjective contour is formed in the brain of the user U in this way, the user U can recognize the contour of the image displayed by the pixel PX (10). That is, even when the interval between the pixels PX (10) is relatively wide, the user U can recognize the contour of the image displayed by the pixel PX (10).

これと同様に、ユーザUが視点位置Zvpから、光L2による像を見た場合、ユーザUの脳内において主観的輪郭が形成されることがある。例えば、ユーザUが視点位置Zvpから、光L2による像を見た場合、入力画像IMのうち第2の表示部20に分配された画像に含まれる表示対象の輪郭がユーザUの脳内において形成されることがある。このようにユーザUの脳内において主観的輪郭が形成されると、ユーザUは、画素PX(20)が表示する画像の輪郭を認識することができる。すなわち、画素PX(20)同士の間隔が比較的広い場合であっても、ユーザUは、画素PX(20)が表示する画像の輪郭を認識することができる。これらにより、視点位置VPから(−Z)方向を見た場合には、光L1による像と、光L2による像とが合成された像(合成像)が生じる。   Similarly, when the user U views the image of the light L2 from the viewpoint position Zvp, a subjective contour may be formed in the user U's brain. For example, when the user U views the image by the light L2 from the viewpoint position Zvp, the outline of the display target included in the image distributed to the second display unit 20 in the input image IM is formed in the brain of the user U. May be. When the subjective contour is formed in the brain of the user U in this way, the user U can recognize the contour of the image displayed by the pixel PX (20). That is, even when the interval between the pixels PX (20) is relatively wide, the user U can recognize the contour of the image displayed by the pixel PX (20). As a result, when the (−Z) direction is viewed from the viewpoint position VP, an image (synthesized image) in which the image by the light L1 and the image by the light L2 are combined is generated.

図7は、立体像VIの奥行き位置の一例を示す図である。第1の表示部10の表示面の奥行き位置Z1と、第2の表示部20の表示面の奥行き位置Z2とには、図示するような差が存在する。このため、ユーザUが視点位置Zvpから第1の表示部10と第2の表示部20とを重ねて見た場合、光L1による主観的輪郭と、光L2による主観的輪郭とに視差(両眼視差)が生じる。ユーザUは、この両眼視差によって、光L1と光L2とによる合成像を、立体像VIとして認識する。この立体像VIは、第1表示部10の奥行き位置Z1と、第2表示部20の奥行き位置Z2との間の奥行き位置(例えば、奥行き位置Zvi)に生じる。   FIG. 7 is a diagram illustrating an example of the depth position of the stereoscopic image VI. There is a difference as illustrated between the depth position Z1 of the display surface of the first display unit 10 and the depth position Z2 of the display surface of the second display unit 20. For this reason, when the user U sees the first display unit 10 and the second display unit 20 in an overlapping manner from the viewpoint position Zvp, parallax (both parallaxes between the subjective contour by the light L1 and the subjective contour by the light L2) Eye parallax) occurs. The user U recognizes the combined image of the light L1 and the light L2 as a stereoscopic image VI based on the binocular parallax. The stereoscopic image VI is generated at a depth position (for example, a depth position Zvi) between the depth position Z1 of the first display unit 10 and the depth position Z2 of the second display unit 20.

この立体像VIが生じる奥行き位置は、次の式(1)に示すように、画素PX(10)の発光強度と、画素PX(20)の発光強度によって制御することができる。例えば、ある表示対象物について手前側に見せたいときには、当該表示対象物を表示する画素PX(10)の発光強度を相対的に強くし、当該表示対象物を表示する画素PX(10)の発光強度を相対的に弱くすればよい。
Zvi={画素PX(10)の発光強度/(画素PX(10)の発光強度+画素PX(20)の発光強度)×|Z1―Z2|}+Z2…(1)
The depth position where the stereoscopic image VI is generated can be controlled by the light emission intensity of the pixel PX (10) and the light emission intensity of the pixel PX (20) as shown in the following equation (1). For example, when it is desired to show a certain display object to the near side, the light emission intensity of the pixel PX (10) that displays the display object is relatively increased, and the light emission of the pixel PX (10) that displays the display object. What is necessary is just to make intensity | strength relatively weak.
Zvi = {light emission intensity of the pixel PX (10) / (light emission intensity of the pixel PX (10) + light emission intensity of the pixel PX (20)) × | Z1-Z2 |} + Z2 (1)

本実施形態の表示装置1では、第1の表示部10の表示する画像の間隙から第2の表示部20の表示する画像を表示するため、多少の視線のずれが生じたとしても、第2の表示部20の表示する画像が見えてさえいれば、ユーザUの眼には立体画像が映し出されることになる。従って、画像処理装置30および表示装置1は、視線方向のずれに対する許容性を高めることができる。なお、本実施形態は、第1の表示部10の画素PX(10)が光透過性を有することを、排除するものではない。   In the display device 1 according to the present embodiment, since the image displayed on the second display unit 20 is displayed from the gap between the images displayed on the first display unit 10, even if a slight line-of-sight shift occurs, the second As long as the image displayed on the display unit 20 is visible, a stereoscopic image is projected on the eyes of the user U. Therefore, the image processing device 30 and the display device 1 can increase the tolerance for a shift in the line-of-sight direction. Note that this embodiment does not exclude that the pixel PX (10) of the first display unit 10 has light transmittance.

また、図3に示すように、第1の表示部10および第2の表示部20により表示される画像は、間引き処理によって、重ね合わせた状態においても、例えば、画素PX(10)とPX(20)がX方向およびY方向にある程度の隙間をもった状態で表示される。このため、画像処理装置30および表示装置1は、視線方向のずれに対する許容性を更に高めることができる。また、間引き処理によって、処理負荷や電力消費を低減することができる。   Further, as shown in FIG. 3, the images displayed by the first display unit 10 and the second display unit 20 are, for example, the pixels PX (10) and PX ( 20) is displayed with a certain gap in the X and Y directions. For this reason, the image processing apparatus 30 and the display apparatus 1 can further improve the tolerance with respect to the shift | offset | difference of a gaze direction. Further, the processing load and power consumption can be reduced by the thinning process.

また、これに限らず、重ね合わせた状態において、画素PX(10)とPX(20)がX方向およびY方向に隙間なく密に配置される構成であってもよい。この場合、間引き処理の意義は、入力画像IMを、表示装置1の解像度に応じたサイズに修正することとなる。   In addition, the configuration is not limited to this, and the pixels PX (10) and PX (20) may be densely arranged in the X direction and the Y direction without gaps in the overlapped state. In this case, the significance of the thinning process is to correct the input image IM to a size corresponding to the resolution of the display device 1.

[処理フロー]
図8は、第1実施形態の表示用情報生成部40により実行される処理の流れを示すフローチャートの一例である。図8のフローチャートの処理は、例えば、1フレームの画像ごとに実行される。
[Processing flow]
FIG. 8 is an example of a flowchart illustrating a flow of processing executed by the display information generation unit 40 of the first embodiment. The process of the flowchart in FIG. 8 is executed for each image of one frame, for example.

まず、間引き処理部42が、入力画像IMに対して間引き処理を行う(ステップS100)。次に、分配部44が、パラメータx、yの初期値を1に設定し、xとyの最大値MAX(x)、MAX(y)を設定する(ステップS102)。最大値MAX(x)、MAX(y)は、図3に示した重ねられた画像における、横方向の画素数と縦方向の画素数に、それぞれ対応する値である。最大値MAX(x)、MAX(y)は、規定値として画素構造記憶部34などに格納されていてもよい。   First, the thinning processing unit 42 performs a thinning process on the input image IM (step S100). Next, the distribution unit 44 sets initial values of the parameters x and y to 1, and sets the maximum values MAX (x) and MAX (y) of x and y (step S102). The maximum values MAX (x) and MAX (y) are values respectively corresponding to the number of pixels in the horizontal direction and the number of pixels in the vertical direction in the superimposed image shown in FIG. The maximum values MAX (x) and MAX (y) may be stored in the pixel structure storage unit 34 as prescribed values.

次に、分配部44は、間引き後の入力画像IM*における座標(x,y)の画素の画素値を取り出し(ステップS104)、パラメータyが奇数であるか否かを判定する(ステップS106)。パラメータyが奇数である場合、分配部44は、座標(x,(y+1)/2)の画素PX(10)にステップS104で取り出した画素値を割り当てる(ステップS108)。一方、パラメータyが偶数である場合、分配部44は、座標(x,y/2)の画素PX(20)にステップS104で取り出した画素値を割り当てる(ステップS110)。なお、ステップS108、S110におけるPX(10)またはPX(20)の「座標」とは、図3に示す重ねられた画像における座標ではなく、PX(10)のみの配列における座標、或いはPX(20)のみの配列における座標を、それぞれ意味する。   Next, the distribution unit 44 extracts the pixel value of the pixel at the coordinate (x, y) in the input image IM * after thinning (step S104), and determines whether or not the parameter y is an odd number (step S106). . When the parameter y is an odd number, the distribution unit 44 assigns the pixel value extracted in step S104 to the pixel PX (10) at the coordinates (x, (y + 1) / 2) (step S108). On the other hand, when the parameter y is an even number, the distribution unit 44 assigns the pixel value extracted in step S104 to the pixel PX (20) at the coordinate (x, y / 2) (step S110). Note that the “coordinates” of PX (10) or PX (20) in steps S108 and S110 are not the coordinates in the superimposed image shown in FIG. 3, but the coordinates in the array of only PX (10), or PX (20 ) Only means the coordinates in the array.

次に、分配部44は、パラメータxを1増加させ(ステップS112)、パラメータxが最大値MAX(x)を超えたか否かを判定する(ステップS114)。パラメータxが最大値MAX(x)を超えない場合、ステップS104に戻る。一方、パラメータxが最大値MAX(x)を超えた場合、分配部44は、パラメータxを初期値1に戻し、パラメータyを1増加させる(ステップS116)。次に、分配部44は、パラメータyが最大値MAX(y)を超えたか否かを判定する(ステップS118)。パラメータyが最大値MAX(y)を超えない場合、ステップS104に戻る。   Next, the distribution unit 44 increases the parameter x by 1 (step S112), and determines whether the parameter x exceeds the maximum value MAX (x) (step S114). If the parameter x does not exceed the maximum value MAX (x), the process returns to step S104. On the other hand, when the parameter x exceeds the maximum value MAX (x), the distribution unit 44 returns the parameter x to the initial value 1 and increases the parameter y by 1 (step S116). Next, the distribution unit 44 determines whether or not the parameter y exceeds the maximum value MAX (y) (step S118). If the parameter y does not exceed the maximum value MAX (y), the process returns to step S104.

パラメータyが最大値MAX(y)を超えた場合、間引き後の入力画像IM*における全ての画素の画素値をPX(10)またはPX(20)に分配し終えたため、奥行反映部46奥行き情報に基づき各画素の画素値を補正し(ステップS120)、本フローチャートの処理を終了する。   When the parameter y exceeds the maximum value MAX (y), since the pixel values of all the pixels in the input image IM * after thinning have been distributed to PX (10) or PX (20), the depth reflecting unit 46 depth information Based on the above, the pixel value of each pixel is corrected (step S120), and the processing of this flowchart ends.

[間引き量の変更]
ここで、間引き処理部42は、入力画像IMにおける画像の内容に応じて、間引きの程度を変更してよい。図9は、間引きの程度を変更する処理を説明するための説明図である。図9において、顔の領域Fの領域内の領域F−1は、鼻や口などの立体構造を含むため奥行き位置の変動が激しく、また、色彩や明るさの変化も大きい領域である。これに対し、領域F−2は奥行き位置の変動が緩やかであり、また、色彩や明るさの変化も小さい領域である。このため、領域F−2について解像度を低下させても、視認しやすさに与える影響は小さいと考えられる。
[Change thinning amount]
Here, the thinning processing unit 42 may change the degree of thinning according to the content of the image in the input image IM. FIG. 9 is an explanatory diagram for explaining processing for changing the degree of thinning. In FIG. 9, the area F-1 in the area F of the face includes a three-dimensional structure such as a nose and a mouth, so that the variation of the depth position is large, and the change in color and brightness is large. On the other hand, the region F-2 is a region where the variation of the depth position is moderate and the change in color and brightness is small. For this reason, even if the resolution of the region F-2 is lowered, it is considered that the influence on the visibility is small.

そこで、間引き処理部42は、上記のような傾向を有する領域F−2に対しては、領域F−1よりも間引きの程度を大きく変更する。これによって、領域F−2について視線方向のずれに対する許容性を更に高めることができ、処理負荷や電力消費を更に低減することができる。   Therefore, the thinning processing unit 42 changes the degree of thinning larger than the region F-1 for the region F-2 having the above tendency. Thereby, the tolerance with respect to the shift | offset | difference of a gaze direction about the area | region F-2 can further be improved, and processing load and power consumption can further be reduced.

間引き処理部42は、例えば、入力画像IMに、大きい間引きが許容されるか否かを示す情報が、領域毎、或いは画素毎に付加されている場合、係る情報を参照して間引き量を決定してよい。また、間引き処理部42は、任意に区切った領域毎に、奥行き位置の変動量を算定し、変動量が大きい領域について間引きの程度を小さくし、変動量が小さい領域について間引きの程度を大きくしてもよい。   For example, when information indicating whether or not large thinning is allowed is added to the input image IM for each region or for each pixel, the thinning processing unit 42 determines the thinning amount with reference to the information. You can do it. In addition, the thinning processing unit 42 calculates the amount of variation in the depth position for each arbitrarily divided region, reduces the degree of thinning for a region with a large amount of variation, and increases the degree of thinning for a region with a small amount of variation. May be.

以上説明した第1実施形態の画像処理装置、表示装置、およびプログラム(以下、画像処理装置等)によれば、視認しやすい立体画像を表示させる(表示する)ことができる。また、画像処理装置等によれば、視線方向のずれに対する許容性を高めることができる。また、画像処理装置等によれば、第2の表示部20による画像を透過させる部分に画素を配置する必要がなく、係る部分に透明部材等を用いることができる。このため、第2の表示部20による画像を、よりクリアに透過させ、視認しやすい立体画像を表示することができる。   According to the image processing device, the display device, and the program (hereinafter referred to as an image processing device or the like) of the first embodiment described above, it is possible to display (display) a stereoscopic image that is easy to visually recognize. In addition, according to the image processing apparatus or the like, it is possible to increase the tolerance for a shift in the line of sight direction. In addition, according to the image processing apparatus or the like, it is not necessary to arrange pixels in a portion through which the image by the second display unit 20 is transmitted, and a transparent member or the like can be used for the portion. For this reason, the image by the 2nd display part 20 can be permeate | transmitted more clearly, and the stereoscopic image which is easy to visually recognize can be displayed.

また、本実施形態の画像処理装置等によれば、第1の表示部10および第2の表示部20の画素構造を記憶した画素構造記憶部34を備え、これに記憶された情報を用いて間引き処理を行うため、例えば、入力画像IMの画素数と、画素PX(10)と画素PX(20)の数の合計が異なるような場合であっても、適切な間引き処理を行って画像データを生成することができる。   Further, according to the image processing apparatus or the like of the present embodiment, the pixel structure storage unit 34 that stores the pixel structures of the first display unit 10 and the second display unit 20 is provided, and information stored therein is used. In order to perform the thinning process, for example, even if the number of pixels of the input image IM is different from the total number of the pixels PX (10) and PX (20), an appropriate thinning process is performed to obtain the image data. Can be generated.

また、本実施形態の画像処理装置等によれば、間引き処理を行って表示用の画像を生成するため、視線方向のずれに対する許容性を更に高めることができる。また、間引き処理によって、処理負荷や電力消費を低減することができる。   In addition, according to the image processing apparatus or the like of the present embodiment, a thinning process is performed to generate a display image, so that it is possible to further increase the tolerance for a shift in the viewing direction. Further, the processing load and power consumption can be reduced by the thinning process.

また、本実施形態の画像処理装置等によれば、入力画像IMにおける画像の内容に応じて間引きの程度を変更することにより、大きく間引いた領域について視線方向のずれに対する許容性を更に高めることができ、処理負荷や電力消費を更に低減することができる。   Further, according to the image processing apparatus or the like of the present embodiment, by changing the degree of thinning according to the content of the image in the input image IM, it is possible to further increase the tolerance for the shift in the line-of-sight direction for the greatly thinned region. And the processing load and power consumption can be further reduced.

[画素配置の他の例]
第1実施形態に係る表示装置1は、図2および図3に例示した画素構造に限らず、他の画素構造を有してもよい。図10(A)〜(C)は、表示装置1が有する画素構造の他の例を示す図である。第1の表示部10および第2の表示部20は、図10(A)に示すように、それぞれY方向に並ぶ複数の画素PX(10)、PX(20)を備えてもよいし、図10(B)に示すように、それぞれ斜め方向に並ぶ複数の画素PX(10)、PX(20)を備えてもよいし、図10(C)に示すように、重ね合された状態で市松模様を形成する複数の画素PX(10)、PX(20)を備えてもよい。これらの場合、図8に示すフローチャートの処理は、それぞれの画素構造に合った態様の処理に置換される。また、第1の表示部10と第2の表示部20は、必ずしも同時に表示を行う必要は無く、時分割で交互に表示を行ってもよい。
[Other examples of pixel arrangement]
The display device 1 according to the first embodiment is not limited to the pixel structure illustrated in FIGS. 2 and 3 and may have another pixel structure. FIGS. 10A to 10C are diagrams illustrating other examples of the pixel structure included in the display device 1. As shown in FIG. 10A, the first display unit 10 and the second display unit 20 may each include a plurality of pixels PX (10) and PX (20) arranged in the Y direction. As shown in FIG. 10 (B), a plurality of pixels PX (10) and PX (20) arranged in an oblique direction may be provided, or as shown in FIG. A plurality of pixels PX (10) and PX (20) that form a pattern may be provided. In these cases, the processing in the flowchart shown in FIG. 8 is replaced with processing in a mode suitable for each pixel structure. In addition, the first display unit 10 and the second display unit 20 do not necessarily have to display at the same time, and may display alternately by time division.

<第2実施形態>
以下、本発明の第2実施形態に係る画像処理装置、表示装置、およびプログラムについて説明する。全体構成については図1を援用することとし、第1実施形態と共通する事項についての説明を省略する。
Second Embodiment
Hereinafter, an image processing device, a display device, and a program according to a second embodiment of the present invention will be described. FIG. 1 is used for the entire configuration, and the description of matters common to the first embodiment is omitted.

第2実施形態に係る表示装置2は、第1の表示部10が、表示を行う画素と行わない画素とを切り替えることができ、第2の表示部20は、第1の表示部10が表示を行わない部分を透過してユーザUに画像を表示する。第2実施形態に係る画像処理装置30は、このような態様の表示装置2に対する表示用の情報を生成する。   In the display device 2 according to the second embodiment, the first display unit 10 can switch between pixels that are to be displayed and pixels that are not to be displayed, and the second display unit 20 is displayed by the first display unit 10. The image is displayed to the user U through the portion that is not performed. The image processing device 30 according to the second embodiment generates display information for the display device 2 having such an aspect.

図11は、第2実施形態に係る表示装置2の画素構造を模式的に示す図である。このような構成において、第1の表示部10は、例えば奇数行の画素PX(10)で画像を表示すると共に偶数行の画素PX(10)を光透過状態とし、第2の表示部20は、偶数行の画素PX(20)で画像を表示する。これによって、図3に示したのと同様の重ね合わせ画像をユーザUに表示することができる。   FIG. 11 is a diagram schematically illustrating a pixel structure of the display device 2 according to the second embodiment. In such a configuration, the first display unit 10 displays an image with, for example, the odd-numbered pixels PX (10) and makes the even-numbered pixels PX (10) light-transmitting. The image is displayed with the pixels PX (20) in even rows. As a result, a superimposed image similar to that shown in FIG. 3 can be displayed to the user U.

間引き処理部42および奥行反映部46の処理に関しては、第1実施形態と同様であるため、詳細な説明を省略する。第2実施形態に係る分配部44は、第1実施形態と同様、間引き処理後の画像の画素値を、第1の表示部10の画素PX(10)と、第2の表示部20の画素PX(20)に分配する。図12は、第2実施形態に係る分配部44による処理を説明するための説明図である。図12に示すように、分配部44は、間引き処理後の画像IMの各画素の画素値(図12において、簡易的に画素内の1〜36の数字で示した)を、行ごとに画素PX(10)、画素PX(20)に分配する。分配部44は、例えば、画素値を奇数行の画素PX(10)に分配し、偶数行の画素PX(20)に分配する。この場合、分配部44は、偶数行の画素PX(10)に光透過状態となる指示を与え、奇数行の画素PX(20)を非表示状態(例えば画素値が全てゼロ)となる指示を与える。係る処理によって、分配部44は、間引き後の入力画像IM*の「一部」に基づき、第1の表示部10に画像を表示させるための情報(第1の情報)を生成すると共に、間引き後の入力画像IM*から上記「一部」を除いた部分に基づき、第2の表示部20が画像を表示するための情報(第2の情報)を生成する。   Since the processing of the thinning processing unit 42 and the depth reflection unit 46 is the same as that of the first embodiment, detailed description thereof is omitted. Similarly to the first embodiment, the distribution unit 44 according to the second embodiment uses the pixel value of the image after the thinning process as the pixel PX (10) of the first display unit 10 and the pixel of the second display unit 20. Distribute to PX (20). FIG. 12 is an explanatory diagram for explaining processing by the distribution unit 44 according to the second embodiment. As shown in FIG. 12, the distribution unit 44 calculates the pixel value of each pixel of the image IM after the thinning process (represented simply by numbers 1 to 36 in the pixel in FIG. 12) for each row. Distribution to PX (10) and pixel PX (20). For example, the distribution unit 44 distributes the pixel values to the pixels PX (10) in the odd rows and distributes the pixels to the pixels PX (20) in the even rows. In this case, the distribution unit 44 gives an instruction to enter the light transmissive state to the pixels PX (10) in the even-numbered rows, and instructs to turn off the pixels PX (20) in the odd-numbered rows (for example, the pixel values are all zero). give. With this processing, the distribution unit 44 generates information (first information) for displaying an image on the first display unit 10 based on “part” of the input image IM * after thinning, and also performs thinning. Based on the portion excluding the “part” from the subsequent input image IM *, the second display unit 20 generates information (second information) for displaying the image.

その後、奥行反映部46による処理が行われると、第1の表示部10の画素PX(10)に割り当てられた画素値(すなわち第1の情報)は、第1の出力バッファ50に格納され、第2の表示部20の画素PX(20)に割り当てられた画素値(すなわち第2の情報)は、第2の出力バッファ52に格納される。第1の表示部10は、第1の出力バッファ50に格納された画素値に基づき画像を表示し、第2の表示部20は、第2の出力バッファ52に格納された画素値に基づき画像を表示する。なお、間引き処理部42→分配部44→奥行反映部46の順で処理を行うのは、あくまで一例であり、これらの処理は、順序を任意に変更されてよい。   Thereafter, when processing by the depth reflection unit 46 is performed, the pixel value (that is, the first information) assigned to the pixel PX (10) of the first display unit 10 is stored in the first output buffer 50, A pixel value (that is, second information) assigned to the pixel PX (20) of the second display unit 20 is stored in the second output buffer 52. The first display unit 10 displays an image based on the pixel value stored in the first output buffer 50, and the second display unit 20 displays the image based on the pixel value stored in the second output buffer 52. Is displayed. Note that the processing in the order of the thinning processing unit 42 → the distributing unit 44 → the depth reflecting unit 46 is merely an example, and the order of these processes may be arbitrarily changed.

これによって、画像処理装置30および表示装置2は、視認しやすい立体画像を第1の表示部10および第2の表示部20に表示させることができる。図3に示すように、第1の表示部10および第2の表示部20により表示される画像は、所定の方向(例えば、第1の表示部10に正対する方向)から見ると、Y方向において、画素PX(10)による画像と画素PX(20)による画像が互い違いに見えることになる。このため、ユーザUから見て手前側の奥行き位置で表示したい画像要素については画素PX(10)の方を明るく、画素PX(20)の方を暗く表示することで、見やすい立体画像を実現することができる。   Accordingly, the image processing device 30 and the display device 2 can display a stereoscopic image that is easy to visually recognize on the first display unit 10 and the second display unit 20. As shown in FIG. 3, the images displayed by the first display unit 10 and the second display unit 20 are in the Y direction when viewed from a predetermined direction (for example, the direction facing the first display unit 10). In FIG. 5, the image by the pixel PX (10) and the image by the pixel PX (20) appear alternately. For this reason, for an image element that is desired to be displayed at the depth position on the near side as viewed from the user U, the pixel PX (10) is displayed brighter and the pixel PX (20) is displayed darker, thereby realizing an easy-to-view stereoscopic image. be able to.

図13は、第1実施形態の表示用情報生成部40により実行される処理の流れを示すフローチャートの一例である。図13のフローチャートの処理は、例えば、1フレームの画像ごとに実行される。   FIG. 13 is an example of a flowchart showing a flow of processing executed by the display information generation unit 40 of the first embodiment. The process of the flowchart in FIG. 13 is executed for each image of one frame, for example.

まず、間引き処理部42が、間引き処理を行う(ステップS200)。次に、分配部44が、パラメータx、yの初期値を1に設定し、xとyの最大値MAX(x)、MAX(y)を設定する(ステップS202)。最大値MAX(x)、MAX(y)は、図3に示した重ねられた画像における、横方向の画素数と縦方向の画素数に、それぞれ対応する値である。最大値MAX(x)、MAX(y)は、画素構造記憶部34に格納された第1の表示部10および第2の表示部20の画素構造に応じて設定される。また、最大値MAX(x)、MAX(y)は、規定値として画素構造記憶部34などに格納されていてもよい。   First, the thinning processing unit 42 performs a thinning process (step S200). Next, the distribution unit 44 sets initial values of the parameters x and y to 1, and sets the maximum values MAX (x) and MAX (y) of x and y (step S202). The maximum values MAX (x) and MAX (y) are values respectively corresponding to the number of pixels in the horizontal direction and the number of pixels in the vertical direction in the superimposed image shown in FIG. The maximum values MAX (x) and MAX (y) are set according to the pixel structures of the first display unit 10 and the second display unit 20 stored in the pixel structure storage unit 34. The maximum values MAX (x) and MAX (y) may be stored in the pixel structure storage unit 34 or the like as specified values.

次に、分配部44は、入力画像IMにおける座標(x,y)の画素の画素値を取り出し(ステップS204)、パラメータyが奇数であるか否かを判定する(ステップS206)。パラメータyが奇数である場合、分配部44は、座標(x,y)の画素PX(10)にステップS204で取り出した画素値を割り当て、座標(x,y)の画素PX(20)を非表示状態に設定する(ステップS208)。一方、パラメータyが偶数である場合、分配部44は、座標(x,y)の画素PX(20)にステップS204で取り出した画素値を割り当て、座標(x,y)の画素PX(10)を光透過状態に設定する(ステップS210)。   Next, the distribution unit 44 extracts the pixel value of the pixel at the coordinates (x, y) in the input image IM (step S204), and determines whether or not the parameter y is an odd number (step S206). When the parameter y is an odd number, the distribution unit 44 assigns the pixel value extracted in step S204 to the pixel PX (10) at the coordinate (x, y), and sets the pixel PX (20) at the coordinate (x, y) as a non-value. The display state is set (step S208). On the other hand, when the parameter y is an even number, the distribution unit 44 assigns the pixel value extracted in step S204 to the pixel PX (20) at the coordinate (x, y), and the pixel PX (10) at the coordinate (x, y). Is set to the light transmission state (step S210).

次に、分配部44は、パラメータxを1増加させ(ステップS212)、パラメータxが最大値MAX(x)を超えたか否かを判定する(ステップS214)。パラメータxが最大値MAX(x)を超えない場合、ステップS204に戻る。一方、パラメータxが最大値MAX(x)を超えた場合、分配部44は、パラメータxを初期値1に戻し、パラメータyを1増加させる(ステップS216)。次に、分配部44は、パラメータyが最大値MAX(y)を超えたか否かを判定する(ステップS218)。パラメータyが最大値MAX(y)を超えない場合、ステップS204に戻る。   Next, the distribution unit 44 increases the parameter x by 1 (step S212), and determines whether the parameter x exceeds the maximum value MAX (x) (step S214). If the parameter x does not exceed the maximum value MAX (x), the process returns to step S204. On the other hand, when the parameter x exceeds the maximum value MAX (x), the distribution unit 44 returns the parameter x to the initial value 1 and increases the parameter y by 1 (step S216). Next, the distribution unit 44 determines whether or not the parameter y exceeds the maximum value MAX (y) (step S218). If the parameter y does not exceed the maximum value MAX (y), the process returns to step S204.

パラメータyが最大値MAX(y)を超えた場合、間引き後の入力画像IM*における全ての画素の画素値をPX(10)またはPX(20)に分配し終えたため、奥行反映部46奥行き情報に基づき各画素の画素値を補正し(ステップS220)、本フローチャートの処理を終了する。   When the parameter y exceeds the maximum value MAX (y), since the pixel values of all the pixels in the input image IM * after thinning have been distributed to PX (10) or PX (20), the depth reflecting unit 46 depth information Based on the above, the pixel value of each pixel is corrected (step S220), and the process of this flowchart ends.

第2実施形態の画像処理装置30は、間引き量の変更についても、第1実施形態と同様の処理を行ってよい。また、表示する画素の配置の変更に関して、第2実施形態は、図10(A)〜(C)に例示した様々な態様を採用することができ、また、これらを切り替えることもできる。図13に示すフローチャートは、画素PX(10)のうちどの画素を表示状態にし、どの画素を光透過状態とするかに応じて、それぞれの配置に合った態様の処理に置換される。   The image processing apparatus 30 of the second embodiment may perform the same processing as that of the first embodiment for changing the thinning amount. In addition, regarding the change in the arrangement of pixels to be displayed, the second embodiment can adopt various modes illustrated in FIGS. 10A to 10C, and can also switch these modes. The flowchart shown in FIG. 13 is replaced with a process in a mode suitable for each arrangement according to which pixel among the pixels PX (10) is in the display state and which pixel is in the light transmission state.

また、表示装置2が携帯電話などの人が保持する装置である場合、表示装置2は、表示する画素の配置を、加速度センサなどによって把握される表示装置2の姿勢に応じて変更してよい。図14(A)、(B)は、表示装置2の姿勢に応じた配置の変更を説明するための説明図である。図14(A)に示すように、表示装置2が縦持ち状態(長手方向が水平面に対して傾いた状態)である場合には、各表示部の表示する画素をX方向に並べ、図14(B)に示すように、表示装置2が横持ち状態(短手方向が水平面に対して傾いた状態)である場合には、各表示部の表示する画素をY方向に並べるように配置を切り替えてよい。また、図14(A)、(B)に示す姿勢と配置の関係は、逆であってもよい。また、このような画素配置の切替は、ユーザの選択によって行われてもよい。   When the display device 2 is a device held by a person such as a mobile phone, the display device 2 may change the arrangement of pixels to be displayed according to the orientation of the display device 2 grasped by an acceleration sensor or the like. . 14A and 14B are explanatory diagrams for explaining a change in arrangement according to the attitude of the display device 2. As shown in FIG. 14A, when the display device 2 is in a vertically held state (a state in which the longitudinal direction is inclined with respect to a horizontal plane), pixels to be displayed on each display unit are arranged in the X direction. As shown in (B), when the display device 2 is in a side-holding state (a short side direction is inclined with respect to a horizontal plane), the display device 2 is arranged so that the pixels displayed on each display unit are arranged in the Y direction. You can switch. 14A and 14B may be reversed. Further, such pixel arrangement switching may be performed by user selection.

以上説明した第2実施形態の画像処理装置、表示装置、およびプログラム(以下、画像処理装置等)によれば、第1実施形態と同様に、視認しやすい立体画像を表示させる(表示する)ことができる。また、画像処理装置等によれば、視線方向のずれに対する許容性を高めることができる。また、画像処理装置等によれば、入力画像IMの画素数と、画素PX(10)と画素PX(20)の数の合計が異なるような場合であっても、適切な間引き処理を行って画像データを生成することができる。   According to the image processing device, the display device, and the program (hereinafter referred to as an image processing device, etc.) of the second embodiment described above, a stereoscopic image that is easy to view is displayed (displayed) as in the first embodiment. Can do. In addition, according to the image processing apparatus or the like, it is possible to increase the tolerance for a shift in the line of sight direction. Further, according to the image processing apparatus or the like, even if the number of pixels of the input image IM is different from the total number of the pixels PX (10) and PX (20), an appropriate thinning process is performed. Image data can be generated.

また、第2実施形態の画像処理装置等によれば、第1の表示部10において表示をする画素PX(10)と、光透過状態とする画素PX(10)とを柔軟に切り替えることができる。これによって、表示装置1の姿勢に応じた配置の変更などを行うことができる。   In addition, according to the image processing apparatus or the like of the second embodiment, it is possible to flexibly switch between the pixel PX (10) that is displayed on the first display unit 10 and the pixel PX (10) that is in the light transmission state. . Thereby, it is possible to change the arrangement according to the orientation of the display device 1.

なお、上述した実施形態における画像処理装置の一部をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、画像処理装置に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、上述した実施形態における画像処理装置の一部、または全部を、LSI等の集積回路として実現してもよい。画像処理装置の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   A part of the image processing apparatus in the above-described embodiment may be realized by a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed. The “computer system” here is a computer system built in the image processing apparatus, and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In this case, a volatile memory inside a computer system that serves as a server or a client may be included that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. Further, a part or all of the image processing apparatus in the above-described embodiment may be realized as an integrated circuit such as an LSI. Each functional block of the image processing apparatus may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。また、上述の実施形態を適宜組み合わせたものも、本発明に含まれる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added. Moreover, what combined the above-mentioned embodiment suitably is also contained in this invention.

例えば、表示装置1、2は、第1の表示部10と第2の表示部20を備えるものとしたが、更に多くの表示部を備え、3枚以上の表示画像を重ね合わせる態様であってもよい。
また、第2の表示部20は、第1の表示部10が表示を行わない部分を透過して視認する部分のみ表示する(すなわち、画素PX(10)の隙間を埋める画像のみ表示する)態様としたが、第2の表示部20は、入力画像IMまたは間引き後の入力画像IM*の全部を表示してもよい。
For example, although the display devices 1 and 2 are provided with the first display unit 10 and the second display unit 20, the display devices 1 and 2 include more display units and superimpose three or more display images. Also good.
In addition, the second display unit 20 displays only a portion that is visible through the portion that the first display unit 10 does not display (that is, displays only an image that fills the gap of the pixel PX (10)). However, the second display unit 20 may display the entire input image IM or the thinned input image IM *.

1、2‥表示装置、10‥第1の表示部、20‥第2の表示部、30‥画像処理装置、32‥入力バッファ、34‥画素構造記憶部、40‥表示用情報生成部   DESCRIPTION OF SYMBOLS 1, 2 ... Display apparatus, 10 ... 1st display part, 20 ... 2nd display part, 30 ... Image processing apparatus, 32 ... Input buffer, 34 ... Pixel structure memory | storage part, 40 ... Display information generation part

Claims (10)

入力画像が入力される入力部と、
前記入力画像の一部に基づき、第1の表示部に画像を表示させるための第1の情報を生成すると共に、少なくとも前記入力画像から前記一部を除いた他の部分に基づき、前記第1の表示部とは異なる奥行き位置に配置された第2の表示部に画像を表示させるための第2の情報を生成する生成部と、
を備える画像処理装置。
An input unit for inputting an input image;
Based on a part of the input image, first information for displaying the image on the first display unit is generated, and based on at least the other part excluding the part from the input image, the first information is displayed. A generating unit for generating second information for displaying an image on a second display unit arranged at a depth position different from the display unit of
An image processing apparatus comprising:
請求項1記載の画像処理装置であって、
前記第1の表示部の画素構造に関する情報と、前記第2の表示部の画素構造に関する情報とを記憶した記憶部を備え、
前記生成部は、前記記憶部に記憶された情報に基づき、前記第1の情報と前記第2の情報とを生成する、
画像処理装置。
The image processing apparatus according to claim 1,
A storage unit that stores information on the pixel structure of the first display unit and information on the pixel structure of the second display unit;
The generation unit generates the first information and the second information based on information stored in the storage unit.
Image processing device.
請求項1または2記載の画像処理装置であって、
前記第1の表示部は、少なくとも画像を表示しない箇所が光を透過し、
所定の方向から見た場合に、前記第1の表示部の表示する画像の間隙から前記第2の表示部の表示する画像が視認可能となるように、前記第1の表示部の画素と前記第2の表示部の画素が配置されている、
画像処理装置。
The image processing apparatus according to claim 1 or 2,
In the first display unit, at least a portion where no image is displayed transmits light,
When viewed from a predetermined direction, the pixels of the first display unit and the pixels of the first display unit are visible so that an image displayed on the second display unit can be visually recognized from a gap between images displayed on the first display unit. The pixels of the second display section are arranged;
Image processing device.
請求項1または2記載の画像処理装置であって、
前記第1の表示部は、少なくとも画像を表示しない箇所が光を透過する表示部であり、
前記生成部は、前記第1の表示部と前記第2の表示部を所定の方向から見た場合に、前記第1の表示部の表示する画像の間隙から前記第2の表示部の表示する画像が視認可能となるように、前記第1の情報と前記第2の情報とを生成する、
画像処理装置。
The image processing apparatus according to claim 1 or 2,
The first display unit is a display unit that transmits light at least where an image is not displayed;
The generation unit displays the second display unit from a gap between images displayed on the first display unit when the first display unit and the second display unit are viewed from a predetermined direction. Generating the first information and the second information so that the image is visible;
Image processing device.
請求項1から4のうちいずれか1項記載の画像処理装置であって、
前記生成部は、前記入力画像に付随した奥行き位置に関する情報に基づいて、前記第1の情報と前記第2の情報とを生成する、
画像処理装置。
An image processing apparatus according to any one of claims 1 to 4,
The generation unit generates the first information and the second information based on information about a depth position attached to the input image.
Image processing device.
請求項5記載の画像処理装置であって、
前記生成部は、前記奥行き位置が近い画像については前記第1の表示部の画素を前記第2の表示部の画素よりも明るく表示させ、前記奥行き位置が遠い画像については前記第2の表示部の画素を前記第1の表示部の画素よりも明るく表示させる傾向で、前記第1の情報と前記第2の情報とを生成する、
画像処理装置。
The image processing apparatus according to claim 5, wherein
The generation unit displays the pixels of the first display unit brighter than the pixels of the second display unit for an image with the near depth position, and the second display unit for an image with a far depth position. Generating the first information and the second information in a tendency to display the pixels of the first display section brighter than the pixels of the first display unit.
Image processing device.
請求項1から6のうちいずれか1項記載の画像処理装置であって、
前記生成部は、前記第1の表示部が表示する画像と前記第2の表示部が表示する画像を重ねあわせた画像が、前記入力画像を間引いた画像となるように、前記第1の情報と前記第2の情報を生成する、
画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The generation unit is configured to display the first information so that an image obtained by superimposing an image displayed by the first display unit and an image displayed by the second display unit becomes an image obtained by thinning the input image. And generating the second information,
Image processing device.
請求項7記載の画像処理装置であって、
前記生成部は、前記入力画像における画像の内容に応じて、前記間引きの程度を変更する、
画像処理装置。
The image processing apparatus according to claim 7,
The generation unit changes the degree of thinning according to the content of the image in the input image.
Image processing device.
請求項1から8のうちいずれか1項記載の画像処理装置と、
前記画像処理装置によって生成された第1の情報に基づいて画像を表示する前記第1の表示部と、
前記画像処理装置によって生成された第2の情報に基づいて画像を表示する前記第2の表示部と、
を備える表示装置。
The image processing apparatus according to any one of claims 1 to 8,
The first display unit for displaying an image based on the first information generated by the image processing apparatus;
The second display unit for displaying an image based on the second information generated by the image processing apparatus;
A display device comprising:
画像処理装置を制御するコンピュータに、
入力画像を入力させ、
前記入力画像の一部に基づき、第1の表示部に画像を表示させるための第1の情報を生成させ、
少なくとも前記入力画像から前記一部を除いた他の部分に基づき、前記第1の表示部とは異なる奥行き位置に配置された第2の表示部に画像を表示させるための第2の情報を生成させる、
プログラム。
In the computer that controls the image processing apparatus,
Input the input image,
Based on a part of the input image, first information for displaying an image on the first display unit is generated,
Generating at least a second information for displaying an image on a second display unit arranged at a depth position different from the first display unit, based on at least another part of the input image excluding the part. Let
program.
JP2014012152A 2014-01-27 2014-01-27 Image processing device, display device, and program Pending JP2015142148A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014012152A JP2015142148A (en) 2014-01-27 2014-01-27 Image processing device, display device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014012152A JP2015142148A (en) 2014-01-27 2014-01-27 Image processing device, display device, and program

Publications (1)

Publication Number Publication Date
JP2015142148A true JP2015142148A (en) 2015-08-03

Family

ID=53772279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014012152A Pending JP2015142148A (en) 2014-01-27 2014-01-27 Image processing device, display device, and program

Country Status (1)

Country Link
JP (1) JP2015142148A (en)

Similar Documents

Publication Publication Date Title
US8207961B2 (en) 3D graphic processing device and stereoscopic image display device using the 3D graphic processing device
JP5306275B2 (en) Display device and stereoscopic image display method
JP4712898B1 (en) Intermediate image generation method, intermediate image file, intermediate image generation device, stereoscopic image generation method, stereoscopic image generation device, autostereoscopic image display device, stereoscopic image generation system
US8154543B2 (en) Stereoscopic image display device
US20170359571A1 (en) Method, apparatus, and device for realizing virtual stereoscopic scene
KR102121389B1 (en) Glassless 3d display apparatus and contorl method thereof
US10848752B2 (en) Method of operating a light field 3D display device having an RGBG pixel structure, and light field 3D display device
US8731279B2 (en) Method and device for generating multi-viewpoint image
TWI594018B (en) Wide angle stereoscopic image display method, stereoscopic image display device and operation method thereof
KR20120075829A (en) Apparatus and method for rendering subpixel adaptively
JP2008083534A (en) 3d image displaying method and apparatus
TW201342881A (en) Image processing device, autostereoscopic display device, image processing method and computer program product
CN108259883B (en) Image processing method, head-mounted display, and readable storage medium
JP2008085503A (en) Three-dimensional image processing apparatus, method and program, and three-dimensional image display device
JP4471979B2 (en) Image composition apparatus and image composition method
US10805601B2 (en) Multiview image display device and control method therefor
CN105793895A (en) Systems and methods for generating and displaying stereoscopic image pairs of geographical areas
KR20140115854A (en) Three dimensional image display device and method of displaying three dimensional image
JPWO2013073007A1 (en) Stereoscopic image display apparatus, image processing apparatus, and image processing method
JP2015037282A (en) Image processing device, image processing method, and program
CN115022612B (en) Driving method and device of display device and display equipment
US20120050290A1 (en) Three-dimensional image display apparatus and display method
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
JP2015142148A (en) Image processing device, display device, and program
JP2013168781A (en) Display device