JP2011176822A - Image processing apparatus, 3d display apparatus, and image processing method - Google Patents

Image processing apparatus, 3d display apparatus, and image processing method Download PDF

Info

Publication number
JP2011176822A
JP2011176822A JP2011037528A JP2011037528A JP2011176822A JP 2011176822 A JP2011176822 A JP 2011176822A JP 2011037528 A JP2011037528 A JP 2011037528A JP 2011037528 A JP2011037528 A JP 2011037528A JP 2011176822 A JP2011176822 A JP 2011176822A
Authority
JP
Japan
Prior art keywords
parallax
amount
image
conversion
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011037528A
Other languages
Japanese (ja)
Inventor
Ryusuke Hirai
井 隆 介 平
Yuji Mita
田 雄 志 三
Sunao Mishima
島 直 三
Kenichi Shimoyama
山 賢 一 下
Masahiro Baba
場 雅 裕 馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010016227 priority Critical
Priority to JP2010016227 priority
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011037528A priority patent/JP2011176822A/en
Publication of JP2011176822A publication Critical patent/JP2011176822A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To adaptively adjust a parallax value of each pixel in an image processing apparatus, a 3D display apparatus, and an image processing method. <P>SOLUTION: The image processing apparatus includes an acquisition unit, a transform unit and a generation unit. The acquisition unit is configured to acquire a parallax value of each pixel of a plurality of images having a parallax. The transform unit is configured to find parallax values after transform by applying the transform to the parallax value of each pixel, wherein the parallax value is changed without changing a magnitude relationship between the parallax values and while depression degrees are not changed through the transform, projection degrees are lessened through the transform. The generation unit is configured to generate a parallax image from the image based on the parallax values after applying the transform. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

画像間の視差量を調整可能な画像処理装置、立体表示装置及び画像処理方法に関する。   The present invention relates to an image processing device, a stereoscopic display device, and an image processing method capable of adjusting a parallax amount between images.

3次元画像は、(1)複数の撮影機器を並べた3D撮影ビデオカメラで複数視点の画像を撮影する(2)1枚以上の画像から推定される奥行きに基づいて複数視点の画像を生成する、等種々の方法によって作成される。3次元画像を表示する装置には、既に作成された複数視点の画像が入力される場合が多い。そのため、3次元画像は異なる視点の画像間での各画素の視差の大きさ(以降、視差量と呼ぶ)が作成時に固定された一定量である場合がほとんどである。   The three-dimensional image is (1) a multi-viewpoint image is taken with a 3D video camera in which a plurality of photographing devices are arranged. (2) a multi-viewpoint image is generated based on a depth estimated from one or more images. It is created by various methods. In many cases, a multi-viewpoint image that has already been created is input to a device that displays a three-dimensional image. For this reason, in the three-dimensional image, the magnitude of the parallax of each pixel (hereinafter referred to as the parallax amount) between the images of different viewpoints is almost a fixed amount fixed at the time of creation.

その一方、3次元画像作成時に想定していた表示面のサイズとは異なる表示面のサイズの表示装置で再生した場合、ユーザーが違和感を覚える場合がある。また、例えばユーザーの目の疲労状態にあわせて視差量を変更することで、疲労を低減したい場合もある。従って、視差量を適宜調節する技術が重要となっている。   On the other hand, when the image is reproduced on a display device having a display surface size different from the display surface size assumed when the three-dimensional image is created, the user may feel uncomfortable. In some cases, it is desired to reduce fatigue by changing the amount of parallax according to the fatigue state of the user's eyes. Therefore, a technique for appropriately adjusting the amount of parallax is important.

視差量を調整する方法として、表示面のサイズ、ユーザーと表示面との距離から導出されるオフセット量だけ、片眼の画像を視差の生じる方向へ平行移動させる技術が開示されている(例えば、特許文献1)。上記従来技術では画像全体を一定量だけ平行移動させ、奥行きをユーザーに対して、奥まらせたり近寄らせたりする処理を行っていた。そのため、画像中に字幕などが存在した場合、文字の大きさが変化するなどして、ユーザーに違和感を与えることがあった。   As a method of adjusting the amount of parallax, a technique is disclosed in which a single-eye image is translated in the direction in which the parallax occurs by an offset amount derived from the size of the display surface and the distance between the user and the display surface (for example, Patent Document 1). In the prior art, the entire image is translated by a certain amount, and the depth is made deeper or closer to the user. For this reason, when there are subtitles or the like in the image, the size of the characters may change, and the user may feel uncomfortable.

特許第3978392号Patent No. 3978392

本発明は、上記従来技術の問題点を解決するためになされたものであって、適応的に画素毎の視差量を調整することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and an object thereof is to adaptively adjust the amount of parallax for each pixel.

上記目的を達成するために、本発明の一態様に係る画像処理装置は、視差のある複数の画像間での各画素の視差量を取得する取得部と、前記視差量の大小関係に変更が無いように前記視差量を変更する変換であって、奥まり度合いを変換の前後で変えず飛び出し度合いを変更前よりも弱める変換を前記画像の視差量に対して行い、変換後の視差量を求める変換部と、前記変換後の視差量に基づいて、前記画像から視差画像を生成する生成部と、を備える。   In order to achieve the above object, an image processing apparatus according to an aspect of the present invention has an acquisition unit that acquires a parallax amount of each pixel between a plurality of images having parallax and a magnitude relationship between the parallax amounts. Conversion that changes the amount of parallax so that there is no change, and performs conversion on the amount of parallax of the image without changing the depth degree before and after conversion, and weakens the degree of popping out before the change, A conversion unit to be obtained; and a generation unit that generates a parallax image from the image based on the parallax amount after the conversion.

第1の実施形態の立体表示装置を示す図。The figure which shows the three-dimensional display apparatus of 1st Embodiment. 奥行きと視差量との関係を説明する図。The figure explaining the relationship between depth and the amount of parallax. 奥行きと視差量との関係を説明する図。The figure explaining the relationship between depth and the amount of parallax. 画素位置について説明する図。The figure explaining a pixel position. 入力画像と奥行き値の関係を示す図。The figure which shows the relationship between an input image and a depth value. 視差量変換関数の一例。An example of a parallax amount conversion function. 視差画像の生成法を説明する図。The figure explaining the production | generation method of a parallax image. 第2の実施形態の立体表示装置を示す図。The figure which shows the three-dimensional display apparatus of 2nd Embodiment. 奥行きと視差量との関係を説明する図。The figure explaining the relationship between depth and the amount of parallax.

以下、本発明の実施形態について説明する。なお、互いに同様の動作をする構成や処理には共通の符号を付して、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described. In addition, the same code | symbol is attached | subjected to the structure and process which mutually perform the same operation, and the overlapping description is abbreviate | omitted.

(第1の実施形態)
本実施形態の立体表示装置は、立体表示を行うことが可能であれば眼鏡方式、裸眼方式の種々の方式のいずれであっても構わない。以下の実施形態では、眼鏡を用いた時間分割方式で立体表示を行う2眼式ディスプレイに関して例示する。時間分割方式には、液晶シャッター眼鏡方式、偏光フィルタ眼鏡方式、RGB波帯分割フィルタ眼鏡方式などがある。本実施形態では、液晶シャッター眼鏡方式の眼鏡を用いた時間分割方式について例示する。時間分割方式は、フィールドシーケンシャル、フレームシーケンシャルのどちらでも構わないが、本実施形態では、フレームシーケンシャルの時分割方式について説明する。
(First embodiment)
The stereoscopic display device of the present embodiment may be any of a variety of methods such as a glasses method and a naked-eye method as long as a stereoscopic display can be performed. In the following embodiments, a twin-lens display that performs stereoscopic display in a time division manner using glasses will be described. Examples of the time division method include a liquid crystal shutter glasses method, a polarization filter glasses method, and an RGB waveband division filter glasses method. In this embodiment, a time division method using liquid crystal shutter glasses is exemplified. The time division method may be either field sequential or frame sequential. In the present embodiment, a frame sequential time division method will be described.

図1は、本実施形態の立体表示装置を示す図である。本実施形態の立体表示装置は、入力画像の視差量を調整する画像処理装置10と、画像処理装置10によって視差量を調整された立体画像を表示する表示部106とを備える。表示部106は、視差のある左目用画像と右目用画像とを交互に切換表示し、専用の眼鏡によって左目用画像と右目用画像とに分離される。観察者の左眼と右眼とに視差のある画像が別々に表示されることで、両眼視差を利用した立体視が実現される。各構成要件については後述する。   FIG. 1 is a diagram illustrating a stereoscopic display device according to the present embodiment. The stereoscopic display device of this embodiment includes an image processing device 10 that adjusts the parallax amount of an input image, and a display unit 106 that displays a stereoscopic image whose parallax amount has been adjusted by the image processing device 10. The display unit 106 alternately displays a left-eye image and a right-eye image with parallax, and is separated into a left-eye image and a right-eye image by dedicated glasses. By displaying images with parallax separately for the left and right eyes of the observer, stereoscopic viewing using binocular parallax is realized. Each component will be described later.

はじめに、視差量と奥行き値の関係について、図2、図3を用いて説明する。なお、奥行き値Za(=|Za→|)は表示面垂直方向に軸が設定されるため、1次元のスカラーである。また、視差ベクトルは表示面水平方向だけでなく、垂直方向に設定することも考えられる。例えば、寝ながら視聴しているときは、目線は水平ではなく斜めになる。そのため、その状態で視聴する場合は、目線に平行な軸で視差をずらす方法が考えられる。視差をつける方向を任意方向に設定可能なため、視差をベクトルで定義する。なお、以下の説明では、視差を水平方向(x軸方向)につける場合について説明する。   First, the relationship between the amount of parallax and the depth value will be described with reference to FIGS. The depth value Za (= | Za → |) is a one-dimensional scalar because the axis is set in the direction perpendicular to the display surface. It is also conceivable to set the disparity vector not only in the horizontal direction on the display surface but also in the vertical direction. For example, when watching while sleeping, the line of sight is diagonal rather than horizontal. Therefore, when viewing in that state, a method of shifting the parallax with an axis parallel to the line of sight is conceivable. Since the direction in which the parallax is applied can be set to an arbitrary direction, the parallax is defined by a vector. In the following description, a case where parallax is applied in the horizontal direction (x-axis direction) will be described.

図2は、奥行き値と視差量の関係を表す模式図である。図2は、ユーザーが表示部106の表示面を視聴している場合の位置関係を、天井方向からみた場合について表している。z軸は、ユーザーの両眼からみた奥行き値を示す。z=0は、表示面の位置を示す。x軸は、表示面に対して平行である。直線DEは、表示部106における画像の表示面を表している。また、点Bおよび点Cは、ユーザーの左目、右目の位置をそれぞれ示している。点Bと点Cの間の眼間距離をb(=|b→|)とする。ユーザーの両眼は、表示面に対して平行に位置する状態で視聴していると仮定しているため、直線DEと直線BCは平行である。点Aは、奥行きZaに位置しているとユーザーに知覚させる対象物の仮想的な位置を示している。点Dは、実際に表示面に表示される左目用画像における対象物の表示位置を示している。点Eは、実際に表示面に表示される右目用画像における対象物の表示位置を示している。つまり、線分DEの長さが視差量である。また、視差ベクトルd→は、点Dから点Eに向かうベクトルである。   FIG. 2 is a schematic diagram illustrating the relationship between the depth value and the amount of parallax. FIG. 2 shows the positional relationship when the user is viewing the display surface of the display unit 106 as viewed from the ceiling direction. The z-axis indicates the depth value viewed from the user's eyes. z = 0 indicates the position of the display surface. The x axis is parallel to the display surface. A straight line DE represents an image display surface on the display unit 106. Point B and point C indicate the positions of the user's left eye and right eye, respectively. The interocular distance between point B and point C is b (= | b → |). Since it is assumed that the user's eyes are viewing in a state of being parallel to the display surface, the straight line DE and the straight line BC are parallel. A point A indicates a virtual position of an object to be perceived by the user when it is located at the depth Za. A point D indicates the display position of the object in the left-eye image that is actually displayed on the display surface. Point E indicates the display position of the object in the right-eye image that is actually displayed on the display surface. That is, the length of the line segment DE is the amount of parallax. The disparity vector d → is a vector from the point D to the point E.

図3は、対象物が表示面よりも手前側に表示された場合の奥行き値と視差量の関係図である。図中の記号は、図2と同様のため割愛する。この場合は、図2と異なり点Dと点Eのx軸上での位置関係が逆転している。このことを区別するために、上述したように点Dを始点とし、点Eを終点とする視差ベクトル「d→」を定義する。このように視差ベクトルを定義すれば、視差量は、視差ベクトルd→の大きさ(絶対値)|d→|で表わされる。   FIG. 3 is a relationship diagram between the depth value and the parallax amount when the object is displayed on the near side of the display surface. The symbols in the figure are omitted because they are the same as in FIG. In this case, unlike FIG. 2, the positional relationship between the points D and E on the x-axis is reversed. In order to distinguish this, as described above, the disparity vector “d →” having the point D as the start point and the point E as the end point is defined. If the parallax vector is defined in this way, the parallax amount is represented by the magnitude (absolute value) | d → | of the parallax vector d →.

ユーザーから表示面までの距離をZs(=|Zs→|)すると、三角形ABCと三角形ADEが相似関係にあるため、(|Za→+Zs→|):|Za→|=b:|d→|が成り立つので、これを|d→|について解くと、
となるが、この視差ベクトルd→を後述する図4のように画像の水平方向をx軸、垂直方向をy軸とした2次元ベクトルとすれば、
と示すことができる。つまり、奥行き値Zaと視差ベクトルd→は相互に変換可能である。よって、以降の説明において、視差ベクトルと記載されている箇所を奥行き値と読み替えることが可能である。
When the distance from the user to the display surface is Zs (= | Zs → |), the triangle ABC and the triangle ADE are in a similar relationship, so (| Za → + Zs → |): | Za → | = b: | d → | Therefore, if this is solved for | d → |
However, if this parallax vector d → is a two-dimensional vector with the horizontal direction of the image as the x axis and the vertical direction as the y axis as shown in FIG.
Can be shown. That is, the depth value Za and the disparity vector d → can be converted into each other. Therefore, in the following description, it is possible to replace a portion described as a disparity vector with a depth value.

図4は、画像の画素位置を灰色の丸で表示し、また水平方向、垂直方向の軸を記載したものである。このように、各画素位置は、水平・垂直方向座標の整数位置にとるものとする。以降、特に断らない限り、視差ベクトルを除き、ベクトルは(0,0)を起点とする。   FIG. 4 shows the pixel positions of the image as gray circles and describes the horizontal and vertical axes. In this way, each pixel position is assumed to be an integer position in horizontal and vertical coordinates. Hereinafter, unless otherwise specified, the vectors start from (0, 0) except for the disparity vector.

図1について詳細に説明する。図1において、画像処理装置10は、処理部100、視差量取得部101、基準範囲設定部102、関数設定部103、変換部104、視差画像生成部105を備える。   FIG. 1 will be described in detail. In FIG. 1, the image processing apparatus 10 includes a processing unit 100, a parallax amount acquisition unit 101, a reference range setting unit 102, a function setting unit 103, a conversion unit 104, and a parallax image generation unit 105.

処理部100には、第1の入力画像(例えば左目用の立体視用画像信号)および第1の入力画像とは視点の異なる第2の入力画像(例えば右目用の立体視用画像信号)が、外部から供給される。立体画像が供給される方法は、種々の方法であって構わない。例えば、チューナーを介して、または光ディスクに記憶された情報の読み込みによって、両眼視差のある異なる視点の複数画像を取得する方法がある。また、外部からは1枚の2次元画像が供給されて、処理部100が当該2次元画像から奥行き値を推定することで両眼視差のある異なる視点の複数画像を生成する方法であっても構わない。   The processing unit 100 has a first input image (for example, a stereoscopic image signal for left eye) and a second input image (for example, a stereoscopic image signal for right eye) having a different viewpoint from the first input image. Supplied from outside. Various methods may be used for supplying the stereoscopic image. For example, there is a method of acquiring a plurality of images from different viewpoints with binocular parallax through a tuner or by reading information stored on an optical disc. Further, even when a single two-dimensional image is supplied from the outside, and the processing unit 100 estimates a depth value from the two-dimensional image, the method generates a plurality of images from different viewpoints with binocular parallax. I do not care.

視差量取得部101は、視差のある複数の画像間での各画素の視差量を取得する。入力された1枚の画像から各画素の視差量を推定し、視差量を基準範囲設定部102および変換部104に送る。視差量を取得する方法は種々の方法であって構わない。例えば、第1の入力画像と第2の入力画像との間でステレオマッチング法によって各画素の視差量を算出することが可能である。なお、処理部100が1枚の2次元画像から奥行き値を推定することで両眼視差のある異なる視点の複数画像を生成していた場合には、この際に求めた視差量を取得する。   The parallax amount acquisition unit 101 acquires the parallax amount of each pixel between a plurality of images having parallax. The amount of parallax of each pixel is estimated from one input image, and the amount of parallax is sent to the reference range setting unit 102 and the conversion unit 104. There are various methods for obtaining the parallax amount. For example, it is possible to calculate the parallax amount of each pixel between the first input image and the second input image by a stereo matching method. If the processing unit 100 has generated a plurality of images from different viewpoints with binocular parallax by estimating the depth value from one two-dimensional image, the parallax amount obtained at this time is acquired.

図5は、入力画像と奥行き値の関係を示す図である。図5(A)において、図中左の2次元画像の各画素に対して、推定した奥行き値を図中左に奥行き値が小さいほど黒くなるように示している。このときの、画像の各画素の位置ベクトルi→における奥行き値を、z(i)で表すことにする。また、同様にして、視差ベクトルをd(i)→と表す。図5(B)を用いて、左目で視聴している画像(以下、左視差画像)と、右目で視聴している画像(以下、右視差画像)から視差ベクトルを算出する場合を説明する。図中の点Aの位置ベクトルをia→とする。図中の左視差画像の点Aから、ブロックマッチングなどを用いて、右視差画像の対応点Bを求める。ここで、点Bの位置ベクトルをib→とする。この場合、視差ベクトルd(ia)→は、(ib→)−(ia→)となる。図中の下側の奥行き値は、左視差画像の画素すべてにおいて、上記のように右視差画像の対応点を求め、左視差画像の各画素で奥行き値を求めた場合の様子を、図5と同様にして示している。左視差画像の画素を始点としたが、右視差画像の画素を始点としてもベクトルの符号が反転するのみで同様の発明効果が得られる。また、多視点の画像を入力に持つ場合にしても、入力された任意の1枚の画像を視差ベクトルの始点と設定すれば、同様の発明効果が得られる。   FIG. 5 is a diagram illustrating the relationship between the input image and the depth value. In FIG. 5A, for each pixel of the left two-dimensional image in the figure, the estimated depth value is shown on the left in the figure so that the smaller the depth value is, the blacker the color is. The depth value in the position vector i → of each pixel of the image at this time is represented by z (i). Similarly, the parallax vector is represented as d (i) →. A case where a disparity vector is calculated from an image viewed with the left eye (hereinafter, left parallax image) and an image viewed with the right eye (hereinafter, right parallax image) will be described with reference to FIG. The position vector of the point A in the figure is ia →. From the point A of the left parallax image in the figure, the corresponding point B of the right parallax image is obtained using block matching or the like. Here, the position vector of the point B is ib →. In this case, the disparity vector d (ia) → becomes (ib →) − (ia →). The depth value on the lower side in the figure shows the state when the corresponding point of the right parallax image is obtained as described above for all the pixels of the left parallax image, and the depth value is obtained for each pixel of the left parallax image. It shows in the same way. Although the pixel of the left parallax image is the starting point, even if the pixel of the right parallax image is the starting point, the same invention effect can be obtained only by reversing the vector sign. Even when a multi-viewpoint image is input, the same invention effect can be obtained if any one input image is set as the starting point of the parallax vector.

基準範囲設定部102は、奥行き値の範囲の中で1つ以上の基準範囲Rを設定し、関数設定部103に送る。基準範囲Rの設定方法についてはどのような方法であっても構わない。例えば、ユーザーが図示しないキーボードやリモコンなどを用いて適宜設定する方法であっても構わない。例えば、表示部106に、ユーザーによる基準範囲Rの設定入力を受け付けるUI画面を表示し、ユーザーが用いるキーボードやリモコンからの指定に応じて、基準範囲Rを設定しても構わない。   The reference range setting unit 102 sets one or more reference ranges R in the depth value range, and sends them to the function setting unit 103. Any method may be used for setting the reference range R. For example, a method in which the user appropriately sets using a keyboard or a remote controller (not shown) may be used. For example, a UI screen that accepts a setting input of the reference range R by the user may be displayed on the display unit 106, and the reference range R may be set according to designation from a keyboard or a remote controller used by the user.

UI画面は、例えば、「弱・中・強」といった立体感の強度を設定する設定画面であってよい。この場合、ユーザーがキーボードやリモコンなどを用いて、設定画面の中から「弱・中・強」のうち、いずれか一つを選択することにより、基準範囲Rが各々設定される。例えば、「強」が選択されることにより、「弱」が選択された場合に比べて、基準範囲Rが狭くなるようにしてもよい。   The UI screen may be a setting screen for setting the intensity of a stereoscopic effect such as “weak / medium / strong”. In this case, each of the reference ranges R is set by the user selecting any one of “weak / medium / strong” from the setting screen using a keyboard or a remote controller. For example, when “strong” is selected, the reference range R may be narrower than when “weak” is selected.

また、UI画面は、例えば、ある範囲の数値(例えば、0〜100)の中から、一つの数値を設定可能な「バー」であってよい。この場合、ユーザーがキーボードやリモコンなどを用いて、バーの中で、一つの数値を設定選択することにより、基準範囲Rが設定される。   Further, the UI screen may be a “bar” in which one numerical value can be set, for example, within a certain range of numerical values (for example, 0 to 100). In this case, the reference range R is set when the user sets and selects one numerical value in the bar using a keyboard or a remote controller.

また、画像処理装置10は、表示部106からユーザーまでの距離を測定する測定部(不図示)をさらに備え、基準範囲設定部102は、当該距離に応じて、基準範囲Rを設定しても構わない。例えば、当該距離が長くなるにつれて、基準範囲Rが狭くなるようにしてもよい。また、当該距離が短くなるにつれて、基準範囲Rが広くなるようにしてもよい。   The image processing apparatus 10 further includes a measurement unit (not shown) that measures the distance from the display unit 106 to the user, and the reference range setting unit 102 sets the reference range R according to the distance. I do not care. For example, the reference range R may be narrowed as the distance increases. Further, the reference range R may be increased as the distance becomes shorter.

このように、基準範囲Rはユーザー操作に応じて直接的あるいは間接的に調整されてよい。   As described above, the reference range R may be adjusted directly or indirectly according to a user operation.

基準範囲Rとは、奥行き軸zに対して1点ないし、一定幅を持つ範囲のことである。例えば、基準範囲Rをz=0に設定した場合、
と書ける。また、基準範囲Rを、以下の範囲に設定しても良い。
と設定することも可能である。ただし、Wは、画像(1枚フレームであっても複数フレームであってもよい)全体の画素の集合である。また、min(z(i))<0であるとする。以降、領域Rよりも正側の範囲を領域P(この場合、0<z)、範囲Rよりも負側の範囲を領域Qとする。上記の基準範囲の設定方法は一例であり、その他の方法で定めてもよい。たとえば、画像中の画素すべてに対して、奥行き値に対するヒストグラムを算出して、もっとも頻度の高い奥行き値の周辺を基準範囲に設定する等であっても良い。
The reference range R is a range having one point or a certain width with respect to the depth axis z. For example, when the reference range R is set to z = 0,
Can be written. Further, the reference range R may be set to the following range.
It is also possible to set. Here, W is a set of pixels of the entire image (which may be a single frame or a plurality of frames). Also assume that min (z (i)) <0. Hereinafter, a range on the positive side of the region R is a region P (in this case, 0 <z), and a range on the negative side of the range R is a region Q. The above reference range setting method is an example, and may be determined by other methods. For example, a histogram for depth values may be calculated for all pixels in the image, and the periphery of the most frequent depth value may be set as the reference range.

関数設定部103は、基準範囲Rを用いて、視差量を求めるための関数である視差量変換関数z’=f(z)を設定する。z’は、変換された視差量を表す。視差量変換関数f(z)の一般形は、
と書ける。つまり、範囲Rの奥行きについては変換せずに、範囲Pと範囲Qに属する奥行きに対してのみ、それぞれ個別に設定した関数を用いて変換を行う。また、元の立体画像信号で表わされている表示面手前に表示されている物体と表示面の奥に表示されている物体の奥行き関係が逆転しないためには、f(z)が単調増加関数である必要がある。以下に、f(z)の一例を挙げる。
数6は、単調増加関数である必要があるため、0<αかつ0<βである。また、切片mおよびnは、範囲Pと範囲Rとの境界、および範囲Qと範囲Rとの境界が連続になるように調節する。
The function setting unit 103 uses the reference range R to set a parallax amount conversion function z ′ = f (z) that is a function for obtaining the parallax amount. z ′ represents the converted amount of parallax. The general form of the parallax conversion function f (z) is
Can be written. That is, the depth of the range R is not converted, and only the depths belonging to the range P and the range Q are converted using functions set individually. In addition, f (z) increases monotonously so that the depth relationship between the object displayed in front of the display surface represented by the original stereoscopic image signal and the object displayed at the back of the display surface does not reverse. Must be a function. An example of f (z) is given below.
Since Equation 6 needs to be a monotonically increasing function, 0 <α and 0 <β. The intercepts m and n are adjusted so that the boundary between the range P and the range R and the boundary between the range Q and the range R are continuous.

図6は、基準範囲Rを、R={z|zt1≦z≦zt2}にした場合の視差量変換関数のグラフを示している。数6において0<α<1、かつβ>1の場合について示している。点線で示したグラフは、z’=zである。この場合、範囲Pの画素、つまりディスプレイ面に対して奥まっているように表示される画素は、より奥まって見えるように視差量を調整する。一方、範囲Qの画素、つまりディスプレイ面に対して飛び出しているように表示される画素は、飛び出しの度合いが小さくなるように視差量を調整する。このように、飛び出し、奥まり度合いを強めたい場合は、各関数の傾きを1以上に設定し、また弱めたい場合は各1次関数の傾きを1以下に設定する。一例として、fp(z)、fq(z)ともに1次関数の場合を挙げたが、f(z)が単調増加関数になるのであれば、1次関数に限定しない。   FIG. 6 shows a graph of the parallax amount conversion function when the reference range R is R = {z | zt1 ≦ z ≦ zt2}. In Equation 6, the case of 0 <α <1 and β> 1 is shown. The graph indicated by the dotted line is z ′ = z. In this case, the amount of parallax is adjusted so that the pixels in the range P, that is, the pixels displayed so as to be deep with respect to the display surface, appear deeper. On the other hand, the amount of parallax is adjusted so that the pixels in the range Q, that is, the pixels that are displayed so as to protrude from the display surface, are reduced. Thus, when it is desired to increase the degree of popping out and deepening, the slope of each function is set to 1 or more, and when it is desired to weaken, the slope of each linear function is set to 1 or less. As an example, the case where both fp (z) and fq (z) are linear functions has been described. However, if f (z) is a monotonically increasing function, the function is not limited to a linear function.

また、基準範囲Rは、1つとは限らない。範囲が重ならないように、基準範囲R1と基準範囲R2を設定すれば、f(z)は、
のように書ける。ここでも、f(z)は単調増加関数である。このようにして、基準範囲を複数設定することも可能である。また、変換は関数によるものだけではなく、あらかじめ用意した変換テーブルを参照して行っても良い。
Further, the reference range R is not limited to one. If the reference range R1 and the reference range R2 are set so that the ranges do not overlap, f (z) becomes
It can be written as Again, f (z) is a monotonically increasing function. In this way, a plurality of reference ranges can be set. Further, the conversion may be performed not only by a function but also by referring to a conversion table prepared in advance.

また、視差量変換関数は、画像を2つ以上の領域に分割した領域ごとに設定しても構わない。例えば、表示面を左方向から見ているユーザーにとって、表示面の右側は表示面の左側に比べて視聴距離が遠くなり、そのユーザーから見た視差量が小さくなる。図9は、図3に対して、表示面の左方向からのユーザーの目の位置を追加した図である。   Further, the parallax amount conversion function may be set for each region obtained by dividing the image into two or more regions. For example, for a user viewing the display surface from the left direction, the viewing distance on the right side of the display surface is longer than the left side of the display surface, and the amount of parallax viewed by the user is small. FIG. 9 is a diagram in which the position of the user's eyes from the left direction of the display surface is added to FIG.

表示面の正面のユーザーにとっては、左目で点Dを、右目で点Eを見た場合、点Aの位置に画像が飛び出ているように知覚される。一方で、表示面の左方向からのユーザーにとっては、点Aよりはディスプレイに近い点A'の位置に画像が飛び出ているように知覚される。また、表示面の左位置に、同一の視差ベクトルによる視差量が与えられた点D'、点E'による飛び出し位置は、点A''となり、点Aよりもディスプレイから離れた位置に知覚される。   For the user in front of the display surface, when the point D is viewed with the left eye and the point E is viewed with the right eye, it is perceived that the image is projected at the position of the point A. On the other hand, for the user from the left direction of the display surface, it is perceived that the image protrudes to the position of the point A ′ closer to the display than the point A. Also, the pop-out position by point D 'and point E' where the parallax amount by the same parallax vector is given to the left position of the display surface is point A '', which is perceived at a position farther from the display than point A The

つまり、同一の視差量であっても、ユーザーと表示面との角度等によっても飛び出し位置は変化する。この変化を抑えるために、視差量変換関数を、表示面を分割した領域ごとに設定してもよい。   That is, even if the amount of parallax is the same, the pop-out position changes depending on the angle between the user and the display surface. In order to suppress this change, the parallax amount conversion function may be set for each region obtained by dividing the display surface.

変換部104は、各画素の視差量を、関数設定部103において設定された変換関数を用いて変換する。変換によって、基準範囲に属する視差量を変換の前後で変更せず、基準範囲に含まれない範囲の前記視差量を変換の前後で変更する変換であって、変換の前後で視差量の大小関係に変更が生じない。例えば、変換前にd1<d2であった視差量の大小関係が、変換後にd1’>d2’とならないことを示す。   The conversion unit 104 converts the parallax amount of each pixel using the conversion function set in the function setting unit 103. The conversion is a conversion in which the parallax amount belonging to the reference range is not changed before and after the conversion, and the parallax amount in a range not included in the reference range is changed before and after the conversion, and the magnitude relationship between the parallax amounts before and after the conversion. Will not change. For example, it indicates that the magnitude relationship between the parallax amounts where d1 <d2 before conversion does not satisfy d1 ′> d2 ′ after conversion.

視差画像生成部105は、変換部104において変換された各画素の視差量に基づいてに基づいて、前記入力画像から視差画像を生成して表示部106に送る。   The parallax image generation unit 105 generates a parallax image from the input image based on the parallax amount of each pixel converted by the conversion unit 104 and sends the generated parallax image to the display unit 106.

図7は、視差画像の生成法を説明する図である。左視差画像の点Aの位置ベクトルをia→とする。またステレオマッチング法によって、得られた視差ベクトルをd(ia)→とする。そして、変換部104によって、視差量を減少させるように変換された視差ベクトルを、d’(ia)→とする。図中の右上は、変換前の視差量による右視差画像である。図の右下には、左視差画像の各画素位置に割り当てられている変換後の視差ベクトルに従って、左視差画像をシフトさせて作成された右視差画像を示している。   FIG. 7 is a diagram illustrating a method for generating a parallax image. The position vector of the point A of the left parallax image is ia →. Also, let the parallax vector obtained by the stereo matching method be d (ia) →. Then, the disparity vector converted by the conversion unit 104 so as to reduce the amount of disparity is d ′ (ia) →. The upper right in the figure is a right parallax image based on the parallax amount before conversion. In the lower right part of the figure, a right parallax image created by shifting the left parallax image according to the converted parallax vector assigned to each pixel position of the left parallax image is shown.

このように、本実施形態の立体表示装置によれば、奥まり度合いは維持しつつ、飛び出し度合いを弱めるなどの柔軟な視差量調整が可能であり、かつ元の立体画像信号で表わされている奥行きの位置関係を維持することが可能となり、より自然な立体画像信号を生成することが可能となる。   As described above, according to the stereoscopic display device of the present embodiment, it is possible to adjust the amount of parallax flexibly, such as reducing the degree of popping out while maintaining the depth degree, and is represented by the original stereoscopic image signal. It is possible to maintain the positional relationship between the depths, and to generate more natural stereoscopic image signals.

(第2の実施形態)
第1の実施形態では、奥行き値(視差量)の基準範囲を任意に指定する例について説明したが、本実施形態では、画像中から特定の領域を検出し、基準範囲と設定する例について述べる。例えば入力される立体画像信号中に字幕が表示された場合において、字幕位置を、奥まらせたり、近寄らせたりする操作を行うと、ユーザーに知覚される文字の大きさが変化するために、ユーザーに違和感を与える。また、登場人物の顔の表示されている位置の視差量を変えた場合にも、上記と同様の理由で、ユーザーに違和感を与える。そこで、本実施形態では、入力された画像中の字幕や人物の顔等、ユーザーからの注目を集める注目領域を検出し、この注目領域が持つ奥行き値を含むような所定の範囲を基準範囲として設定する立体表示装置について述べる。
(Second Embodiment)
In the first embodiment, the example in which the reference range of the depth value (parallax amount) is arbitrarily specified has been described. In the present embodiment, an example in which a specific area is detected from the image and set as the reference range will be described. . For example, when subtitles are displayed in the input stereoscopic image signal, the size of characters perceived by the user changes when the subtitle position is moved deeper or closer. Give the user a sense of incongruity. Also, when the amount of parallax at the position where the character's face is displayed is changed, the user feels uncomfortable for the same reason as described above. Therefore, in the present embodiment, an attention area that attracts attention from the user, such as subtitles and human faces in the input image, is detected, and a predetermined range including the depth value of the attention area is used as a reference range. A stereoscopic display device to be set will be described.

図8は、本実施形態の立体画像表示装置を示す図である。本実施形態の画像処理装置20は、図1と比較して注目領域検出部201をさらに備える点と基準範囲設定部202の動作とが異なる。   FIG. 8 is a diagram illustrating the stereoscopic image display apparatus according to the present embodiment. The image processing apparatus 20 of the present embodiment is different from that of FIG. 1 in that it further includes an attention area detection unit 201 and the operation of the reference range setting unit 202.

注目領域検出部201は、入力画像に対して視差ベクトルの始点となる画像を受け取り、画像中の注目領域を検出して、注目領域の1つないし複数の画素範囲Wj(jは、自然数)を基準範囲設定部202に送る。注目領域を検出する方法は、一般的なテロップ検出方法によって、テロップが表示されている画素範囲Wjを取得する。複数ある場合は、W1、W2、・・・のように画素範囲を区別する。または、一般的な顔検出方法によって、画像中の人物の顔が表示されている画素範囲Wjを取得する。複数の人物が表示されている場合は、上記と同様にW1、W2、・・・のように画素範囲を区別する。   The attention area detection unit 201 receives an image serving as a starting point of a parallax vector with respect to an input image, detects an attention area in the image, and determines one or a plurality of pixel ranges Wj (j is a natural number) of the attention area. The data is sent to the reference range setting unit 202. As a method for detecting a region of interest, a pixel range Wj in which a telop is displayed is acquired by a general telop detection method. When there are a plurality of pixels, the pixel ranges are distinguished as W1, W2,. Alternatively, the pixel range Wj in which the face of a person in the image is displayed is acquired by a general face detection method. When a plurality of persons are displayed, the pixel ranges are distinguished like W1, W2,.

基準範囲設定部202は、注目領域検出部201から1つないし複数の画素範囲Wjを取得し、また視差量取得部101から、各画素の視差ベクトルを取得し、基準範囲を設定し、関数設定部103に基準範囲を出力する。   The reference range setting unit 202 acquires one or more pixel ranges Wj from the attention area detection unit 201, acquires the parallax vector of each pixel from the parallax amount acquisition unit 101, sets the reference range, and sets the function The reference range is output to the unit 103.

1つの画素範囲W1から、基準範囲を設定するときは、W1の範囲にある奥行き値の最大値および最小値を求めて、その範囲を基準範囲と設定する。つまり、基準範囲R1は、
となる。
When setting the reference range from one pixel range W1, the maximum value and the minimum value of the depth value in the range of W1 are obtained, and the range is set as the reference range. That is, the reference range R1 is
It becomes.

また、基準範囲が複数ある場合については、すべての領域に重なりがなければ、それぞれを基準範囲とする。一方で、領域に重なりがある場合は、重なった領域を結合させて1つの基準範囲とする。   Further, in the case where there are a plurality of reference ranges, if all the regions do not overlap, each is set as a reference range. On the other hand, if there are overlapping areas, the overlapping areas are combined into one reference range.

このように、第2の実施形態の立体表示装置によれば、視差量の調整によって画像中で変形することが望ましくない領域に対して視差量の変換をおこなわないことにより、より自然な立体画像信号を出力することが可能となる。   As described above, according to the stereoscopic display device of the second embodiment, a more natural stereoscopic image can be obtained by not performing the conversion of the parallax amount on an area that is not desired to be deformed in the image by adjusting the parallax amount. A signal can be output.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

10、20・・・画像処理装置、100・・・処理部、101・・・視差量取得部、102、 202・・・基準範囲設定部、103・・・関数設定部、104・・・変換部、105・・・視差画像生成部、201・・・注目領域検出部 DESCRIPTION OF SYMBOLS 10, 20 ... Image processing apparatus, 100 ... Processing part, 101 ... Parallax amount acquisition part, 102, 202 ... Reference range setting part, 103 ... Function setting part, 104 ... Conversion , 105... Parallax image generation unit, 201... Attention area detection unit

Claims (8)

視差のある複数の画像間での各画素の視差量を取得する取得部と、
前記視差量の大小関係に変更が無いように前記視差量を変更する変換であって、奥まり度合いを変換の前後で変えず飛び出し度合いを変更前よりも弱める変換を前記画像の視差量に対して行い、変換後の視差量を求める変換部と、
前記変換後の視差量に基づいて、前記画像から視差画像を生成する生成部と、
を備えることを特徴とする画像処理装置。
An acquisition unit that acquires a parallax amount of each pixel between a plurality of images having parallax;
Conversion that changes the amount of parallax so that there is no change in the magnitude relationship of the amount of parallax, and does not change the depth of the depth before and after the conversion, and performs conversion that weakens the degree of popping out before the change to the amount of parallax of the image A conversion unit that calculates the parallax amount after conversion,
A generating unit that generates a parallax image from the image based on the parallax amount after the conversion;
An image processing apparatus comprising:
前記視差量の範囲の中で1つ以上の基準範囲を設定する設定部を更に備え、
前記変換部は、前記基準範囲において前記視差量を変更しないことを特徴とする請求項1記載の画像処理装置。
A setting unit that sets one or more reference ranges within the range of the parallax amount;
The image processing apparatus according to claim 1, wherein the conversion unit does not change the parallax amount in the reference range.
前記変換部は、単調増加関数を用いて前記視差量を変換することを特徴とする請求項1または2記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the conversion unit converts the amount of parallax using a monotonically increasing function. 視差のある複数の画像間での各画素の視差量を取得する取得部と、
前記各画素のうち、表示面に対して飛び出しているように表示される第1画素群の飛び出し度合いに関する前記視差量を設定する第1設定部と、
前記各画素のうち、表示面に対して奥まっているように表示される第2画素群の奥まり度合いに関する前記視差量を設定する第2設定部と、
を備えることを特徴とする画像処理装置。
An acquisition unit that acquires a parallax amount of each pixel between a plurality of images having parallax;
A first setting unit that sets the amount of parallax related to the degree of popping out of the first pixel group displayed so as to protrude from the display surface among the pixels;
A second setting unit that sets the parallax amount related to the depth of the second pixel group displayed so as to be recessed with respect to the display surface among the pixels;
An image processing apparatus comprising:
前記第1および第2設定部によって設定された前記視差量の大小関係に変更が無いように前記視差量を変更する変換を前記画像の視差量に対して行い、変換後の視差量を求める変換部と、
前記変換後の視差量に基づいて、前記画像から視差画像を生成する生成部と、
を更に備えることを特徴とする請求項4記載の画像処理装置。
Conversion for changing the amount of parallax so that there is no change in the magnitude relationship between the amounts of parallax set by the first and second setting units is performed on the amount of parallax of the image and obtaining the converted amount of parallax And
A generating unit that generates a parallax image from the image based on the parallax amount after the conversion;
The image processing apparatus according to claim 4, further comprising:
前記変換部は、奥まり度合いを変換の前後で変えず飛び出し度合いを変更前よりも弱めることを特徴とする請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the conversion unit weakens the pop-out degree before the change without changing the depth degree before and after the conversion. 複数の視差のある画像を表示する立体表示装置において、
請求項1、2、3、5、6のいずれかに記載の画像処理装置と、
前記画像処理装置から得られる前記視差画像を表示する表示部と、
を備えたことを特徴とする立体表示装置。
In a stereoscopic display device that displays a plurality of parallax images,
An image processing apparatus according to any one of claims 1, 2, 3, 5, and 6,
A display unit for displaying the parallax image obtained from the image processing device;
A stereoscopic display device comprising:
視差のある複数の画像間での各画素の視差量を取得するステップと、
前記視差量の大小関係に変更が無いように前記視差量を変更する変換であって、奥まり度合いを変換の前後で変えず飛び出し度合いを変更前よりも弱める変換を前記画像の視差量に対して行い、変換後の視差量を求めるステップと、
前記変換後の視差量に基づいて、前記画像から視差画像を生成するステップと、
を有することを特徴とする画像処理方法。
Obtaining a parallax amount of each pixel between a plurality of images having parallax;
Conversion that changes the amount of parallax so that there is no change in the magnitude relationship of the amount of parallax, and does not change the depth of the depth before and after the conversion, and performs conversion that weakens the degree of popping out before the change to the amount of parallax of the image Performing a step of obtaining the parallax amount after conversion,
Generating a parallax image from the image based on the parallax amount after the conversion;
An image processing method comprising:
JP2011037528A 2010-01-28 2011-02-23 Image processing apparatus, 3d display apparatus, and image processing method Pending JP2011176822A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010016227 2010-01-28
JP2010016227 2010-01-28
JP2011037528A JP2011176822A (en) 2010-01-28 2011-02-23 Image processing apparatus, 3d display apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011037528A JP2011176822A (en) 2010-01-28 2011-02-23 Image processing apparatus, 3d display apparatus, and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011012646A Division JP2011176800A (en) 2010-01-28 2011-01-25 Image processing apparatus, 3d display apparatus, and image processing method

Publications (1)

Publication Number Publication Date
JP2011176822A true JP2011176822A (en) 2011-09-08

Family

ID=44689195

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011037539A Pending JP2011176823A (en) 2010-01-28 2011-02-23 Image processing apparatus, 3d display apparatus, and image processing method
JP2011037528A Pending JP2011176822A (en) 2010-01-28 2011-02-23 Image processing apparatus, 3d display apparatus, and image processing method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011037539A Pending JP2011176823A (en) 2010-01-28 2011-02-23 Image processing apparatus, 3d display apparatus, and image processing method

Country Status (1)

Country Link
JP (2) JP2011176823A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013128847A1 (en) * 2012-03-02 2013-09-06 パナソニック株式会社 Parallax adjustment device, three-dimensional image generator, and parallax adjustment method
WO2013145706A1 (en) 2012-03-28 2013-10-03 Sony Corporation Display apparatus and display control method
CN114895829A (en) * 2022-07-15 2022-08-12 广东信聚丰科技股份有限公司 Display state optimization method and system based on artificial intelligence

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089421A (en) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd Stereoscopic video equipment
JP2003209858A (en) * 2002-01-17 2003-07-25 Canon Inc Stereoscopic image generating method and recording medium
JP2004274125A (en) * 2003-03-05 2004-09-30 Sony Corp Image processing apparatus and method
JP2004357760A (en) * 2003-06-02 2004-12-24 Sophia Co Ltd Game machine
JP2005091508A (en) * 2003-09-12 2005-04-07 Advanced Telecommunication Research Institute International Stereoscopic image display device and method
JP2006178900A (en) * 2004-12-24 2006-07-06 Hitachi Displays Ltd Stereoscopic image generating device
JP2009059113A (en) * 2007-08-30 2009-03-19 Univ Waseda Stereoscopic image generation device and program
JP2011035712A (en) * 2009-08-03 2011-02-17 Mitsubishi Electric Corp Image processing device, image processing method and stereoscopic image display device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666967B2 (en) * 1986-12-26 1994-08-24 日本放送協会 Convergence angle controller for stereoscopic camera
JP3579162B2 (en) * 1995-06-29 2004-10-20 松下電器産業株式会社 3D CG image generation device
JP4272901B2 (en) * 2003-02-17 2009-06-03 株式会社マーキュリーシステム Image processing apparatus, imaging apparatus, and program
JP2005295004A (en) * 2004-03-31 2005-10-20 Sanyo Electric Co Ltd Stereoscopic image processing method and apparatus thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089421A (en) * 1994-06-20 1996-01-12 Sanyo Electric Co Ltd Stereoscopic video equipment
JP2003209858A (en) * 2002-01-17 2003-07-25 Canon Inc Stereoscopic image generating method and recording medium
JP2004274125A (en) * 2003-03-05 2004-09-30 Sony Corp Image processing apparatus and method
JP2004357760A (en) * 2003-06-02 2004-12-24 Sophia Co Ltd Game machine
JP2005091508A (en) * 2003-09-12 2005-04-07 Advanced Telecommunication Research Institute International Stereoscopic image display device and method
JP2006178900A (en) * 2004-12-24 2006-07-06 Hitachi Displays Ltd Stereoscopic image generating device
JP2009059113A (en) * 2007-08-30 2009-03-19 Univ Waseda Stereoscopic image generation device and program
JP2011035712A (en) * 2009-08-03 2011-02-17 Mitsubishi Electric Corp Image processing device, image processing method and stereoscopic image display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013128847A1 (en) * 2012-03-02 2013-09-06 パナソニック株式会社 Parallax adjustment device, three-dimensional image generator, and parallax adjustment method
WO2013145706A1 (en) 2012-03-28 2013-10-03 Sony Corporation Display apparatus and display control method
CN114895829A (en) * 2022-07-15 2022-08-12 广东信聚丰科技股份有限公司 Display state optimization method and system based on artificial intelligence
CN114895829B (en) * 2022-07-15 2022-09-27 广东信聚丰科技股份有限公司 Display state optimization method and system based on artificial intelligence

Also Published As

Publication number Publication date
JP2011176823A (en) 2011-09-08

Similar Documents

Publication Publication Date Title
JP2011176800A (en) Image processing apparatus, 3d display apparatus, and image processing method
US9451242B2 (en) Apparatus for adjusting displayed picture, display apparatus and display method
US8953023B2 (en) Stereoscopic depth mapping
TWI508519B (en) An image processing apparatus, a program, an image processing method, a recording method, and a recording medium
US8913108B2 (en) Method of processing parallax information comprised in a signal
EP1704730B1 (en) Method and apparatus for generating a stereoscopic image
JP2011210027A (en) Image processing apparatus and method, and program
KR20110015452A (en) Blur enhancement of stereoscopic images
TW201215096A (en) Image display device, image display viewing system and image display method
JP5178876B2 (en) 3D image display apparatus and 3D image display method
WO2011096280A1 (en) Image display device, image display system, and image display method
JP2011120233A (en) 3d video special effect apparatus, 3d video special effect method, and, 3d video special effect program
US8872902B2 (en) Stereoscopic video processing device and method for modifying a parallax value, and program
US9088774B2 (en) Image processing apparatus, image processing method and program
JP2003348621A (en) Means for setting two-viewpoint camera
JP2011176822A (en) Image processing apparatus, 3d display apparatus, and image processing method
Mangiat et al. Disparity remapping for handheld 3D video communications
JP2011254176A (en) Image processor and control method thereof
JP2013150249A (en) Image processing device, image processing method and program
Chappuis et al. Subjective evaluation of an active crosstalk reduction system for mobile autostereoscopic displays
JP2013090129A (en) Image processing apparatus, image processing method and program
JP2015029215A (en) Stereoscopic image processing device
JP6179282B2 (en) 3D image display apparatus and 3D image display method
KR100400209B1 (en) Apparatus for generating three-dimensional moving pictures from tv signals
JP2013090170A (en) Stereoscopic image reproduction device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130920