JP2014112794A - Stereoscopic image generating apparatus, stereoscopic image generating method, and program - Google Patents

Stereoscopic image generating apparatus, stereoscopic image generating method, and program Download PDF

Info

Publication number
JP2014112794A
JP2014112794A JP2012266492A JP2012266492A JP2014112794A JP 2014112794 A JP2014112794 A JP 2014112794A JP 2012266492 A JP2012266492 A JP 2012266492A JP 2012266492 A JP2012266492 A JP 2012266492A JP 2014112794 A JP2014112794 A JP 2014112794A
Authority
JP
Japan
Prior art keywords
image data
pop
maximum
stereoscopic image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012266492A
Other languages
Japanese (ja)
Inventor
Motohisa Ito
元久 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012266492A priority Critical patent/JP2014112794A/en
Publication of JP2014112794A publication Critical patent/JP2014112794A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate stereoscopic image data prevented from causing motion sickness.SOLUTION: A most projecting pixel presence possible region setting unit 11 sets an area which can include a pixel having a largest projecting amount, to inputted image data. A largest projecting amount calculation unit 12 calculates the largest projecting amount of a pixel in the set area. A stereoscopic image generating unit 13 determines the largest projecting amount of the pixel in the stereoscopic image data on the basis of the calculated largest projecting amount, and generates the stereoscopic image data from the image data on the basis of the determined largest projecting amount.

Description

本発明は、立体画像データを生成する技術に関するものである。   The present invention relates to a technique for generating stereoscopic image data.

デジタル技術の進歩により、立体画像の撮影や編集が可能な立体画像生成装置が普及しつつある。例えば、従来大掛かりな装置が必要であった立体画像の撮影は、手持ちのカムコーダで可能となっている。このような立体画像生成装置の普及に伴い、流布する立体画像の数も急激に増加している。   With the advancement of digital technology, stereoscopic image generating apparatuses capable of capturing and editing stereoscopic images are becoming widespread. For example, it is possible to shoot a stereoscopic image, which conventionally requires a large-scale device, with a hand-held camcorder. With the spread of such 3D image generation devices, the number of 3D images to be disseminated is increasing rapidly.

人間は、視差や輻輳又は眼球の焦点調整作用により立体感を覚えている。自然視では、視差や輻輳で認識した対象物の位置と、眼球の焦点調整作用で認識した対象物の位置とが一致しており、違和感を覚えることはない。しかし、立体画像表示装置で表示された立体画像を見ると、視差や輻輳で認識した対象物の位置は、立体画像表示装置の表示面に対して手前方向又は奥方向であるのに対して、眼球の焦点調整作用で認識した対象物の位置は、立体画像表示装置の表示面上になる。従って、対象物の位置情報に不一致が生じ、違和感を覚えることになる。さらに、対象物が移動すると、視差や輻輳で認識した対象物の位置と眼球の焦点調整作用で認識した対象物の位置との差異が変化する。この位置情報の差異の変化により上述した違和感はますます増加し、その結果、より大きな疲労感を覚えたり、又は、頭痛を感じたり吐き気を催す。このような状態を映像酔いと称している。即ち、立体画像の鑑賞は、平面画像の鑑賞と比較して、映像酔いを引き起こしやすいといえる。   Humans have a three-dimensional effect due to parallax, vergence, or focus adjustment of the eyeball. In natural vision, the position of the object recognized by parallax or convergence matches the position of the object recognized by the focus adjustment function of the eyeball, and there is no sense of incongruity. However, when viewing the stereoscopic image displayed on the stereoscopic image display device, the position of the object recognized by the parallax or the convergence is the front direction or the back direction with respect to the display surface of the stereoscopic image display device. The position of the object recognized by the focus adjustment function of the eyeball is on the display surface of the stereoscopic image display device. Therefore, the position information of the object is inconsistent, and the user feels uncomfortable. Further, when the object moves, the difference between the position of the object recognized by parallax or convergence and the position of the object recognized by the focus adjustment function of the eyeball changes. Due to the change in the positional information difference, the above-mentioned uncomfortable feeling increases more and more, and as a result, the user feels more tired or feels headache or nausea. Such a state is called video sickness. That is, it can be said that viewing a stereoscopic image is more likely to cause video sickness than viewing a planar image.

一般消費者が家庭用の機器で作成された立体画像は、映像酔いの防止に十分配慮されているとは限らない。従って、一般消費者により作成された立体画像は、映像酔いを引き起こす虞が比較的高いといえる。一方、専門的な知識を有する者が映像酔いの防止に十分配慮して作成した立体画像は、映像酔いを引き起こす虞は相対的に低いといえる。しかし、視聴者の体調や視聴環境によっては、映像酔いの防止に十分配慮して作成された立体画像であっても、映像酔いを引き起こす可能性が存在する。   A stereoscopic image created by a consumer with a household device is not always considered enough to prevent motion sickness. Therefore, it can be said that a stereoscopic image created by a general consumer has a relatively high risk of causing motion sickness. On the other hand, it can be said that a stereoscopic image created by a person with specialized knowledge with sufficient consideration for prevention of video sickness has a relatively low risk of causing video sickness. However, depending on the physical condition and viewing environment of the viewer, there is a possibility of causing video sickness even if the stereoscopic image is created with sufficient consideration for prevention of video sickness.

特許文献1及び2には、立体画像による映像酔いを軽減するための技術が開示されている。即ち、特許文献1に開示される技術は、視聴者の視線変移量が閾値を超えた場合、急激な変化の少ない画像に差替えて表示させることにより、視聴者の映像酔いを防止するものである。特許文献2に開示される技術は、視差調整情報に基づき視差量を調整し、調整後の視差量を基に立体画像を生成することにより、違和感を軽減し映像酔いを防止するものである。   Patent Documents 1 and 2 disclose techniques for reducing video sickness caused by stereoscopic images. In other words, the technique disclosed in Patent Document 1 prevents viewers from getting sick of video by replacing and displaying an image with little sudden change when the amount of gaze shift of the viewer exceeds a threshold value. . The technique disclosed in Patent Document 2 adjusts the amount of parallax based on parallax adjustment information and generates a stereoscopic image based on the adjusted amount of parallax, thereby reducing discomfort and preventing video sickness.

特開2010−266989号公報JP 2010-266989 A 特開2011−35712号公報JP 2011-35712 A

しかしながら、特許文献1に開示される技術は、視聴者の視線変移量に基づき映像酔いの防止を図る技術であるため、視聴者の視線変移量を計測する手段を有しない立体画像表示装置では実施することができない。同様の理由で、特許文献1に開示される技術は、映像酔いの発生を抑止した立体画像の制作に適用することはできない。さらに、特許文献1に開示される技術は、視聴者が複数である場合、視線変移量は視聴者毎に異なることがあるため、対応が難しい。また、特許文献2に開示される技術は、視線変移は考慮していないため、視線変移により発生する映像酔いを防止することができない。   However, since the technique disclosed in Patent Document 1 is a technique for preventing video sickness based on the viewer's gaze shift amount, it is implemented in a stereoscopic image display apparatus that does not have a means for measuring the viewer's gaze shift amount. Can not do it. For the same reason, the technique disclosed in Patent Document 1 cannot be applied to the production of a stereoscopic image in which the occurrence of video sickness is suppressed. Furthermore, the technique disclosed in Patent Document 1 is difficult to deal with when there are a plurality of viewers because the amount of line-of-sight shift may differ for each viewer. In addition, since the technique disclosed in Patent Document 2 does not consider line-of-sight shift, video sickness caused by line-of-sight shift cannot be prevented.

そこで、本発明の目的は、映像酔いを防止した立体画像データを生成することにある。   Accordingly, an object of the present invention is to generate stereoscopic image data in which video sickness is prevented.

本発明の立体画像生成装置は、画像データを入力する入力手段と、前記入力手段により入力された前記画像データに対し、最大の飛び出し量を持つ画素が存在する可能性がある領域を設定する設定手段と、前記設定手段により設定された前記領域内における画素の最大の飛び出し量を算出する算出手段と、前記算出手段により算出された最大の飛び出し量に基づいて、立体画像データにおける画素の最大の飛び出し量を決定する決定手段と、前記決定手段により決定された最大の飛び出し量に基づいて、前記画像データから前記立体画像データを生成する生成手段とを有することを特徴とする。   The stereoscopic image generating apparatus of the present invention is configured to set an area for which a pixel having a maximum pop-out amount may exist for the image data input by the input means and the input means for inputting image data. Means for calculating the maximum pop-out amount of the pixel in the region set by the setting means, and based on the maximum pop-out amount calculated by the calculation means, the maximum pixel amount in the stereoscopic image data It has a determining means for determining the pop-out amount and a generating means for generating the stereoscopic image data from the image data based on the maximum pop-out amount determined by the determining means.

本発明によれば、映像酔いを防止した立体画像データを生成することが可能となる。   According to the present invention, it is possible to generate stereoscopic image data in which video sickness is prevented.

本発明の第1の実施形態に係る立体画像生成装置の構成を示す図である。It is a figure which shows the structure of the stereo image production | generation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態における最大飛び出し画素存在可能領域設定部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the largest protrusion pixel presence possible area | region setting part in the 1st Embodiment of this invention. 移動先座標予測部の詳細な構成を示す図である。It is a figure which shows the detailed structure of a movement destination coordinate estimation part. 最大飛び出し画素存在可能領域選択部の処理を示すフローチャートである。It is a flowchart which shows the process of the largest protrusion pixel presence possible area | region selection part. 立体画像生成部による立体画像データの視差量の決定処理を示すフローチャートである。It is a flowchart which shows the determination process of the parallax amount of the stereo image data by a stereo image production | generation part. 比較例における立体画像データと最大飛び出し画素の位置との一例を示す図である。It is a figure which shows an example of the stereo image data in a comparative example, and the position of the largest pop-out pixel. 比較例における立体画像データと最大飛び出し画素の位置との一例を示す図である。It is a figure which shows an example of the stereo image data in a comparative example, and the position of the largest pop-out pixel. 本発明の実施形態に係る立体画像生成装置により生成される立体画像データと最大飛び出し画素の位置との一例を示す図である。It is a figure which shows an example of the stereo image data produced | generated by the stereo image production | generation apparatus which concerns on embodiment of this invention, and the position of the largest pop-out pixel. 本実施形態に係る立体画像生成装置により生成される立体画像データと最大飛び出し画素の位置との一例を示す図である。It is a figure which shows an example of the stereo image data produced | generated by the stereo image production | generation apparatus which concerns on this embodiment, and the position of the largest pop-out pixel. 時刻nから時刻n+6までの、最大飛び出し画素の位置の変移について説明するための図である。It is a figure for demonstrating the transition of the position of the largest protrusion pixel from the time n to the time n + 6. 本発明の第2の実施形態に係る立体画像生成装置の構成を示す図である。It is a figure which shows the structure of the stereo image production | generation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態における最大飛び出し画素存在可能領域設定部の詳細な構成を示す図である。It is a figure which shows the detailed structure of the largest protruding pixel presence possible area | region setting part in the 2nd Embodiment of this invention.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。但し、本発明の要旨を逸脱しない範囲で適宜構成を変更することが可能である。従って、本発明の適用範囲は、以下に説明する実施形態に限定されない。なお、以下の説明においては、同一の機能を有する構成には、原則として同一の符号を付し、重複した説明は省略するものとする。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings. However, the configuration can be changed as appropriate without departing from the gist of the present invention. Therefore, the scope of application of the present invention is not limited to the embodiments described below. In the following description, components having the same functions are denoted by the same reference numerals in principle, and redundant descriptions are omitted.

本発明の実施形態の説明に先立ち、立体画像の結像位置の関係について説明する。立体画像を眼球で見ると、両眼の視差や輻輳により脳内で画像の融合が起こり、あたかも表示面から像が飛び出しているように視聴者は認識する。このとき、飛び出し量は、視聴者に近い対象ほど大きく、視聴者から遠い対象ほど小さい。   Prior to the description of the embodiment of the present invention, the relationship between the imaging positions of a stereoscopic image will be described. When a stereoscopic image is viewed with an eyeball, the viewer recognizes that the images are fused in the brain due to parallax and convergence of both eyes, and the image is projected from the display surface. At this time, the pop-out amount is larger as the object is closer to the viewer and smaller as the object is farther from the viewer.

図1は、本発明の第1の実施形態に係る立体画像生成装置の構成を示す図である。図1に示すように、本実施形態に係る立体画像生成装置は、最大飛び出し画素存在可能領域設定部11、最大飛び出し量算出部12、及び、立体画像生成部13を備える。なお、最大飛び出し画素存在可能領域設定部11、最大飛び出し量算出部12及び立体画像生成部13は、立体画像生成装置内の不図示のCPUが、ROM等の記録媒体から必要なデータ及びプログラムを読み出して実行することにより実現する機能構成である。他の実施形態として、最大飛び出し画素存在可能領域設定部11、最大飛び出し量算出部12及び立体画像生成部13のうちの少なくとも一部をハードウェアで実装してもよい。   FIG. 1 is a diagram illustrating a configuration of a stereoscopic image generation apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the stereoscopic image generation apparatus according to the present embodiment includes a maximum pop-out pixel presence area setting unit 11, a maximum pop-out amount calculation unit 12, and a three-dimensional image generation unit 13. Note that the maximum pop-out pixel existence area setting unit 11, the maximum pop-out amount calculation unit 12, and the stereoscopic image generation unit 13 are such that a CPU (not shown) in the stereoscopic image generation apparatus downloads necessary data and programs from a recording medium such as ROM. This is a functional configuration realized by reading and executing. As another embodiment, at least a part of the maximum pop-out pixel presence area setting unit 11, the maximum pop-out amount calculation unit 12, and the stereoscopic image generation unit 13 may be implemented by hardware.

最大飛び出し画素存在可能領域設定部11は、次時刻において最大の飛び出し量を持つ画素が存在する可能性がある領域を示す座標値102を算出して出力する。以下では、「最大の飛び出し量を持つ画素」を「最大飛び出し画素」と称し、また、「最大の飛び出し量を持つ画素が存在する可能性がある領域」を「最大飛び出し画素存在可能領域」と称する。   The maximum pop-out pixel existence area setting unit 11 calculates and outputs a coordinate value 102 indicating an area where a pixel having the maximum pop-out amount may exist at the next time. In the following, “pixels with the largest pop-out amount” will be referred to as “maximum pop-out pixels”, and “regions where pixels with the largest pop-out amount may exist” are referred to as “maximum pop-out pixel existence regions”. Called.

図2は、最大飛び出し画素存在可能領域設定部11の詳細な構成を示す図である。図2に示すように、最大飛び出し画素存在可能領域設定部11は、移動先座標検出部21、移動先座標予測部22、シーンチェンジ判定部23、最大飛び出し画素存在可能領域選択部24、及び、遅延部25を備える。   FIG. 2 is a diagram illustrating a detailed configuration of the maximum pop-out pixel existence area setting unit 11. As shown in FIG. 2, the maximum pop-out pixel existence region setting unit 11 includes a movement destination coordinate detection unit 21, a movement destination coordinate prediction unit 22, a scene change determination unit 23, a maximum pop-out pixel existence region selection unit 24, and A delay unit 25 is provided.

移動先座標検出部21は、現時刻の最大飛び出し画素が次時刻で存在する座標値、即ち、移動先座標を検出する。本実施形態では、現時刻の画像データと次時刻の画像データとの相関関係から画素の移動量や移動先座標を検出する、画像相関法を適用するが、これに限定されるものではない。なお、上記現時刻は、第1の時点の例であり、上記次時刻は、第2の時点の例である。また、上記現時刻の画像データは、第1の画像データの例であり、上記次時刻の画像データは、第2の画像データの例である。   The destination coordinate detection unit 21 detects the coordinate value at which the maximum pop-out pixel at the current time exists at the next time, that is, the destination coordinate. In the present embodiment, an image correlation method is used in which the pixel movement amount and the movement destination coordinates are detected from the correlation between the image data at the current time and the image data at the next time. However, the present invention is not limited to this. The current time is an example of the first time point, and the next time is an example of the second time point. The image data at the current time is an example of first image data, and the image data at the next time is an example of second image data.

遅延部25は、次時刻の入力画像データ101と時刻を一致させるために、現時刻の入力画像データ101を一単位時間遅延させる。移動先座標検出部21は、遅延部25により遅延された現時刻の入力画像データ111と次時刻の入力画像データ101との相関関係をとり、移動先座標112と移動先座標の存在有無113とを検出する。ここで、最大飛び出し画素存在可能領域の座標値102を算出するには、現時刻の最大飛び出し画素の移動先座標とその存在有無のみが必要であり、それ以外の画素については不要である。従って、移動先座標検出部21は、現時刻の最大飛び出し画素の座標値103が示す画素に対してのみ、移動先座標112と移動先座標の存在有無113とを検出する。移動先座標の存在有無113は、移動先座標112が存在する場合、TRUEの値をとり、一方、移動先座標112が存在しない場合、FALSEの値をとる。   The delay unit 25 delays the input image data 101 at the current time by one unit time in order to match the time with the input image data 101 at the next time. The destination coordinate detection unit 21 correlates the input image data 111 at the current time delayed by the delay unit 25 with the input image data 101 at the next time, and the destination coordinate 112 and the presence / absence 113 of the destination coordinate exist. Is detected. Here, in order to calculate the coordinate value 102 of the maximum pop-out pixel existence possible area, only the movement destination coordinate of the maximum pop-out pixel at the current time and its presence / absence are required, and other pixels are unnecessary. Accordingly, the movement destination coordinate detection unit 21 detects the movement destination coordinates 112 and the presence / absence of the movement destination coordinates 113 only for the pixel indicated by the coordinate value 103 of the maximum protruding pixel at the current time. The presence / absence 113 of the movement destination coordinate takes a value of TRUE when the movement destination coordinate 112 exists, and takes a value of FALSE when the movement destination coordinate 112 does not exist.

移動先座標予測部22は、現時刻の最大飛び出し画素が次時刻で存在するであろう移動先座標を予測し、予測座標値114として出力する。本実施形態では、動きベクトルを用いて移動先座標を予測するが、これに限定されるものではない。   The destination coordinate prediction unit 22 predicts a destination coordinate where the maximum pop-out pixel at the current time will exist at the next time, and outputs it as a predicted coordinate value 114. In the present embodiment, the movement destination coordinates are predicted using the motion vector, but the present invention is not limited to this.

図3は、移動先座標予測部22の詳細な構成を示す図である。図3に示すように、移動先座標予測部22は、動きベクトル算出部26、移動先座標演算部28及び遅延部25を備える。   FIG. 3 is a diagram illustrating a detailed configuration of the destination coordinate prediction unit 22. As illustrated in FIG. 3, the movement destination coordinate prediction unit 22 includes a motion vector calculation unit 26, a movement destination coordinate calculation unit 28, and a delay unit 25.

動きベクトル算出部26は、次時刻の入力画像データ101と、遅延後の現時刻の入力画像データ111とから動きベクトル116を算出する。遅延部25は、動きベクトル116の時刻を、現時刻の最大飛び出し画素の座標値103に合わせて、遅延後の動きベクトル116を生成する。移動先座標演算部28は、遅延後の動きベクトル117と現時刻の最大飛び出し画素の座標値103とをベクトル演算して、予測座標値114を算出する。なお、予測座標値114の算出方法は、上述した動きベクトルを利用した方法に限定されない。   The motion vector calculation unit 26 calculates a motion vector 116 from the input image data 101 at the next time and the input image data 111 at the current time after the delay. The delay unit 25 generates the delayed motion vector 116 by matching the time of the motion vector 116 with the coordinate value 103 of the maximum pop-out pixel at the current time. The destination coordinate calculation unit 28 calculates a predicted coordinate value 114 by performing a vector calculation on the delayed motion vector 117 and the coordinate value 103 of the maximum pop-out pixel at the current time. Note that the method of calculating the predicted coordinate value 114 is not limited to the method using the motion vector described above.

シーンチェンジ判定部23は、現時刻と次時刻との間でシーンチェンジの有無を判定し、シーンチェンジフラグ115を出力する。現時刻と次時刻との間でシーンチェンジが有る場合、シーンチェンジフラグ115はTRUEの値をとり、一方、シーンチェンジが無い場合、シーンチェンジフラグ115はFALSEの値をとる。なお、シーンチェンジの判定手法としては、例えば、次の文献により開示される動きベクトルを用いた手法を適用することが可能である。
<文献>
曽根原源等:動きベクトルを用いたシーン・チェンジ検出、映像情報メディア学会年次大会講演予稿集、1997−07−29、pp 304(1997)
The scene change determination unit 23 determines the presence / absence of a scene change between the current time and the next time, and outputs a scene change flag 115. When there is a scene change between the current time and the next time, the scene change flag 115 takes a value of TRUE, whereas when there is no scene change, the scene change flag 115 takes a value of FALSE. As a scene change determination method, for example, a method using a motion vector disclosed in the following document can be applied.
<Reference>
Sonehara et al .: Scene change detection using motion vectors, Proceedings of the Annual Conference of the Institute of Image Information and Television Engineers, 1997-07-29, pp 304 (1997)

最大飛び出し画素存在可能領域選択部24は、移動先座標112、移動先座標の存在有無113及びシーンチェンジフラグ115に基づいて、以下の方針で、最大飛び出し画素存在可能領域の座標値102を生成する。ここで、Pxを予測座標値114のX成分とし、Pyを予測座標値114のY成分とする。また、表示面の水平方向の大きさをDxとし、垂直方向の大きさをDyとし、表示面の左上の画素を原点(0,0)とする。従って、画素の座標(Ix,Iy)がとる範囲は、{Ix:0<=Ix<=Dx−1}、{Iy:0<=Iy<=Dy−1}になる。   The maximum pop-out pixel existence area selection unit 24 generates the coordinate value 102 of the maximum pop-out pixel existence area based on the movement destination coordinates 112, the presence / absence of movement destination coordinates 113, and the scene change flag 115 according to the following policy. . Here, Px is the X component of the predicted coordinate value 114, and Py is the Y component of the predicted coordinate value 114. In addition, the horizontal size of the display surface is Dx, the vertical size is Dy, and the upper left pixel of the display surface is the origin (0, 0). Accordingly, the range of the pixel coordinates (Ix, Iy) is {Ix: 0 <= Ix <= Dx-1} and {Iy: 0 <= Iy <= Dy-1}.

・方針1
現時刻の最大飛び出し画素が次時刻で存在する場合(移動先座標の存在有無113==TRUE)、最大飛び出し画素存在可能領域選択部24は、最大飛び出し画素存在可能領域の中心が移動先座標112となるように、最大飛び出し画素存在可能領域の座標値102を算出する。
Policy 1
When the maximum pop-out pixel at the current time exists at the next time (presence / absence of movement destination coordinates 113 == TRUE), the maximum pop-out pixel existence area selection unit 24 determines that the center of the maximum protrusion pixel existence area is the movement destination coordinates 112 Then, the coordinate value 102 of the maximum pop-out pixel existence possible area is calculated.

・方針2
現時刻の最大飛び出し画素が次時刻で存在せず、且つ、シーンチェンジが有る場合(移動先座標の存在有無113==TRUE AND シーンチェンジフラグ115==TRUE)、最大飛び出し画素存在可能領域選択部24は、最大飛び出し画素存在可能領域を表示画面全体に決定する。
Policy 2
When the maximum pop-out pixel at the current time does not exist at the next time and there is a scene change (presence / absence of movement destination coordinates 113 == TRUE AND scene change flag 115 == TRUE), the maximum pop-out pixel existence area selection unit In step 24, the maximum pop-out pixel existence region is determined for the entire display screen.

・方針3
現時刻の最大飛び出し画素が次時刻で存在せず、シーンチェンジが無く、且つ、予測座標値114が表示画面内である場合{移動先座標の存在有無113==FALSE AND シーンチェンジフラグ115==FALSE AND (0<=Px<=Dx−1) AND (0<=Py<=Dy−1)}、最大飛び出し画素存在可能領域選択部24は、最大飛び出し画素存在可能領域の中心が予測座標値114となるように、最大飛び出し画素存在可能領域の座標値102を算出する。
Policy 3
When the maximum pop-out pixel at the current time does not exist at the next time, there is no scene change, and the predicted coordinate value 114 is within the display screen {presence / absence of movement destination coordinate 113 == FALSE AND scene change flag 115 == FALSE AND (0 <= Px <= Dx-1) AND (0 <= Py <= Dy-1)}, the maximum pop-out pixel existence area selection unit 24 has a predicted coordinate value at the center of the maximum pop-out pixel existence area. The coordinate value 102 of the maximum pop-out pixel existence possible area is calculated so as to be 114.

・方針4
現時刻の最大飛び出し画素が次時刻で存在せず、シーンチェンジが無く、且つ、予測座標値114が表示画面外である場合{移動先座標の存在有無113==FALSE AND シーンチェンジフラグ115==FALSE AND (0>Px OR Dx<Px) OR (0>Py OR Dy<Py)}、最大飛び出し画素存在可能領域選択部24は、最大飛び出し画素存在可能領域の中心が現時刻の最大飛び出し画素の座標値103となるように、最大飛び出し画素存在可能領域の座標値102を算出する。
Policy 4
When the maximum pop-out pixel at the current time does not exist at the next time, there is no scene change, and the predicted coordinate value 114 is outside the display screen {presence / absence of destination coordinate 113 == FALSE AND scene change flag 115 == FALSE AND (0> Px OR Dx <Px) OR (0> Py OR Dy <Py)}, the maximum pop-out pixel existence area selection unit 24 sets the center of the maximum pop-out pixel existence area to the maximum pop-out pixel at the current time. The coordinate value 102 of the maximum pop-out pixel existing area is calculated so that the coordinate value 103 is obtained.

現時刻の最大飛び出し画素が次時刻で存在せず、且つ、シーンチェンジが有る場合を除き、最大飛び出し画素存在可能領域の形状や大きさは、表示画面の大きさや特性に依存して決定される。例えば、視野角を用いて、最大飛び出し画素存在可能領域の形状や大きさを決定してもよい。   Except when the maximum pop-out pixel at the current time does not exist at the next time and there is a scene change, the shape and size of the maximum pop-out pixel existence area are determined depending on the size and characteristics of the display screen. . For example, the shape and size of the maximum pop-out pixel existence area may be determined using the viewing angle.

図4は、最大飛び出し画素存在可能領域選択部24の処理を示すフローチャートである。ステップS101において、最大飛び出し画素存在可能領域選択部24は、現時刻の最大飛び出し画素が次時刻に存在するか否かを判定する。最大飛び出し画素が次時刻に存在する場合、処理はステップS102に移行する。一方、最大飛び出し画素が次時刻に存在しない場合、処理はステップS103に移行する。   FIG. 4 is a flowchart showing processing of the maximum pop-out pixel existence possible area selection unit 24. In step S <b> 101, the maximum pop-out pixel existence area selection unit 24 determines whether or not the maximum pop-out pixel at the current time exists at the next time. If the maximum pop-out pixel exists at the next time, the process proceeds to step S102. On the other hand, if the maximum pop-out pixel does not exist at the next time, the process proceeds to step S103.

ステップS102において、最大飛び出し画素存在可能領域選択部24は、最大飛び出し画素存在可能領域の中心が移動先座標112となるように、最大飛び出し画素存在可能領域の座標値102を算出する(方針1)。ステップS103において、最大飛び出し画素存在可能領域選択部24は、シーンチェンジが有るか否かを判定する。シーンチェンジが有る場合、処理はステップS104に移行する。一方、シーンチェンジが無い場合、処理はステップS105に移行する。   In step S102, the maximum pop-out pixel existence region selection unit 24 calculates the coordinate value 102 of the maximum pop-out pixel existence region so that the center of the maximum pop-out pixel existence region becomes the movement destination coordinate 112 (policy 1). . In step S103, the maximum pop-out pixel existence possible area selection unit 24 determines whether or not there is a scene change. If there is a scene change, the process proceeds to step S104. On the other hand, if there is no scene change, the process proceeds to step S105.

ステップS104において、最大飛び出し画素存在可能領域選択部24は、最大飛び出し画素存在可能領域を表示画面全体に決定する(方針2)。ステップS105において、最大飛び出し画素存在可能領域選択部24は、予測座標値114が表示画面内であるか否かを判定する。予測座標値114が表示画面内である場合、処理はステップS106に移行する。一方、予測座標値114が表示画面内でない場合、処理はステップS107に移行する。   In step S104, the maximum pop-out pixel existence area selection unit 24 determines the maximum pop-out pixel existence area on the entire display screen (policy 2). In step S105, the maximum pop-out pixel existence possible area selection unit 24 determines whether or not the predicted coordinate value 114 is within the display screen. If the predicted coordinate value 114 is within the display screen, the process proceeds to step S106. On the other hand, if the predicted coordinate value 114 is not within the display screen, the process proceeds to step S107.

ステップS106において、最大飛び出し画素存在可能領域選択部24は、最大飛び出し画素存在可能領域の中心が予測座標値114となるように、最大飛び出し画素存在可能領域の座標値102を算出する(方針3)。ステップS107において、最大飛び出し画素存在可能領域選択部24は、最大飛び出し画素存在可能領域の中心が現時刻の最大飛び出し画素の座標値103となるように、最大飛び出し画素存在可能領域の座標値102を算出する(方針4)。   In step S106, the maximum pop-out pixel existence area selection unit 24 calculates the coordinate value 102 of the maximum pop-out pixel existence area so that the center of the maximum pop-out pixel existence area becomes the predicted coordinate value 114 (policy 3). . In step S107, the maximum pop-out pixel existence area selection unit 24 sets the coordinate value 102 of the maximum pop-out pixel existence area so that the center of the maximum pop-out pixel existence area becomes the coordinate value 103 of the maximum pop-out pixel at the current time. Calculate (policy 4).

次に、最大飛び出し量算出部12の処理について説明する。最大飛び出し量算出部12は、入力画像データ101に対して最大飛び出し画素存在可能領域の範囲内で、最大飛び出し画素の座標値103と、最大飛び出し画素の飛び出し量104とを算出する。飛び出し量は視差に比例するため、最大飛び出し量算出部12は、最大飛び出し画素存在可能領域の範囲内で最も大きな視差を持つ画素の座標値を最大飛び出し画素の座標値103とし、その視差量を最大飛び出し画素の飛び出し量104として決定する。最大飛び出し画素存在可能領域の範囲内で最も大きな視差を持つ画素が複数存在する場合、最大飛び出し量算出部12は、最大飛び出し画素存在可能領域の中心に最も近い画素の座標値を最大飛び出し画素の座標値103として決定する。また、最大飛び出し量算出部12は、その視差量を最大飛び出し画素の飛び出し量104として決定する。さらに、最も大きな視差を持つ画素が、最大飛び出し画素存在可能領域の中心から最も近い距離に複数存在する場合、最大飛び出し量算出部12は、該当する画素の中から任意に選択した画素の座標値を最大飛び出し画素の座標値103として決定する。そして、最大飛び出し量算出部12は、その視差量を最大飛び出し画素の飛び出し量104として決定する。   Next, the processing of the maximum pop-out amount calculation unit 12 will be described. The maximum pop-out amount calculation unit 12 calculates the maximum pop-out pixel coordinate value 103 and the maximum pop-out pixel pop-out amount 104 within the range of the maximum pop-out pixel existence area with respect to the input image data 101. Since the pop-out amount is proportional to the parallax, the maximum pop-out amount calculation unit 12 sets the coordinate value of the pixel having the largest parallax within the range of the maximum pop-out pixel existence area as the coordinate value 103 of the maximum pop-out pixel, and sets the parallax amount. The maximum pop-out pixel pop-out amount 104 is determined. When there are a plurality of pixels having the largest parallax within the range of the maximum pop-out pixel existence area, the maximum pop-out amount calculation unit 12 determines the coordinate value of the pixel closest to the center of the maximum pop-out pixel existence area as the maximum pop-out pixel existence area. The coordinate value 103 is determined. The maximum pop-out amount calculation unit 12 determines the parallax amount as the pop-out amount 104 of the maximum pop-out pixel. Further, when there are a plurality of pixels having the largest parallax at the closest distance from the center of the maximum pop-out pixel existence area, the maximum pop-out amount calculation unit 12 selects the coordinate value of the pixel arbitrarily selected from the corresponding pixels. Is determined as the coordinate value 103 of the maximum pop-out pixel. Then, the maximum pop-out amount calculation unit 12 determines the parallax amount as the pop-out amount 104 of the maximum pop-out pixel.

次に、立体画像生成部13の処理について説明する。立体画像生成部13は、入力画像データ101から立体画像データ105を生成する。立体画像データ105の生成にあたり、立体画像データ105の飛び出し量、即ち、立体画像データ105の視差量は、最大飛び出し画素の飛び出し量104を超えないように決定される。   Next, processing of the stereoscopic image generation unit 13 will be described. The stereoscopic image generation unit 13 generates stereoscopic image data 105 from the input image data 101. In generating the stereoscopic image data 105, the pop-out amount of the stereo image data 105, that is, the parallax amount of the stereo image data 105 is determined so as not to exceed the pop-out amount 104 of the maximum pop-out pixel.

図5は、立体画像生成部13による立体画像データ105の視差量の決定処理を示すフローチャートである。ステップS201において、立体画像生成部13は、入力画像データ101の或る画素が有する視差量、又は、当該入力画像データ101に付加される視差量が、最大飛び出し画素の飛び出し量104を超過しているか否かを判定する。最大飛び出し画素の飛び出し量104を超過している場合、処理はステップS202に移行する。一方、最大飛び出し画素の飛び出し量104を超過していない場合、即ち、入力画像データ101の或る画素が有する視差量、又は、当該入力画像データ101に付加される視差量が、最大飛び出し画素の飛び出し量104以下である場合、処理はステップS203に移行する。   FIG. 5 is a flowchart illustrating the determination process of the parallax amount of the stereoscopic image data 105 by the stereoscopic image generation unit 13. In step S <b> 201, the stereoscopic image generation unit 13 causes the amount of parallax included in a certain pixel of the input image data 101 or the amount of parallax added to the input image data 101 to exceed the pop-out amount 104 of the maximum pop-out pixel. It is determined whether or not. If the maximum pop-out pixel pop-out amount 104 is exceeded, the process proceeds to step S202. On the other hand, when the maximum pop-out pixel pop-out amount 104 is not exceeded, that is, the amount of parallax that a certain pixel of the input image data 101 has or the amount of parallax added to the input image data 101 is the maximum pop-out pixel. If the pop-out amount is 104 or less, the process proceeds to step S203.

ステップS202において、立体画像生成部13は、立体画像データ105の視差量を、最大飛び出し画素の飛び出し量104に抑止して決定する。ステップS203において、立体画像生成部13は、立体画像データ105の視差量を、入力画像データ101の画素が有する視差量、又は、当該入力画像データ101に付加される視差量に決定する。   In step S <b> 202, the stereoscopic image generation unit 13 determines the parallax amount of the stereoscopic image data 105 while suppressing the amount of protrusion 104 of the maximum protruding pixel. In step S <b> 203, the stereoscopic image generation unit 13 determines the amount of parallax of the stereoscopic image data 105 as the amount of parallax included in the pixels of the input image data 101 or the amount of parallax added to the input image data 101.

図6及び図7は、比較例における立体画像データと最大飛び出し画素の位置との一例を示す図である。これに対し、図8及び図9は、本実施形態に係る立体画像生成装置により生成される立体画像データと最大飛び出し画素の位置との一例を示す図である。以下、図6乃至図9を用いて、比較例と本実施形態とにおいて与えられる最大飛び出し画素の位置の違いについて説明する。   6 and 7 are diagrams illustrating an example of the stereoscopic image data and the position of the maximum protruding pixel in the comparative example. 8 and 9 are diagrams showing an example of the stereoscopic image data generated by the stereoscopic image generating apparatus according to the present embodiment and the position of the maximum pop-out pixel. Hereinafter, the difference in the position of the maximum pop-out pixel given in the comparative example and the present embodiment will be described with reference to FIGS.

先ず、図6及び図7を参照しながら、比較例における立体画像データと最大の飛び出し画素の位置との関係について説明する。図6は、時刻nから時刻n+3までの状態を示し、図7は、時刻n+3から時刻n+6までの状態を示している。   First, the relationship between the stereoscopic image data and the position of the largest pop-out pixel in the comparative example will be described with reference to FIGS. FIG. 6 shows a state from time n to time n + 3, and FIG. 7 shows a state from time n + 3 to time n + 6.

(時刻n)
図6(a)は、時刻nの立体画像データを示している。図6(a)に示す時刻nの立体画像データには、人物A41のみが映っている。時刻nの立体画像データにおいて、最も手前に存在するのは、人物A41の鼻であるから、図6(e)に示すように、最大飛び出し画素121は、人物A41の鼻に該当する。
(Time n)
FIG. 6A shows stereoscopic image data at time n. Only the person A41 is shown in the stereoscopic image data at time n shown in FIG. In the stereoscopic image data at time n, the nose of the person A41 is present in the foreground, so that the maximum pop-out pixel 121 corresponds to the nose of the person A41 as shown in FIG.

(時刻n+1)
図6(b)は、時刻n+1の立体画像データを示している。図6(b)に示す時刻n+1の立体画像データでは、人物A41の手前に人物B42が出現している。時刻n+1の立体画像データにおいて、最も手前に存在するのは、人物B42の鼻であるから、図6(f)に示すように、最大飛び出し画素121は、人物B42の鼻に該当する。
(Time n + 1)
FIG. 6B shows stereoscopic image data at time n + 1. In the stereoscopic image data at time n + 1 shown in FIG. 6B, a person B42 appears in front of the person A41. In the stereoscopic image data at the time n + 1, since the nose of the person B42 is present in the foreground, the maximum pop-out pixel 121 corresponds to the nose of the person B42 as shown in FIG.

(時刻n+2)
図6(c)は、時刻n+2の立体画像データを示している。図6(c)に示すように、時刻n+2の立体画像データでは、人物B42が表示画面から消え、人物A41が手前に出ている。時刻n+2の立体画像データにおいて、最も手前に存在するのは、人物A41の鼻であるから、図6(g)に示すように、最大飛び出し画素121は、人物A41の鼻に該当する。但し、人物A41が手前に移動しているため、最大飛び出し画素121の位置は、時刻nとは異なる。
(Time n + 2)
FIG. 6C shows stereoscopic image data at time n + 2. As shown in FIG. 6C, in the stereoscopic image data at time n + 2, the person B42 disappears from the display screen, and the person A41 comes out to the front. In the stereoscopic image data at the time n + 2, the nose of the person A41 is present in the foreground, and therefore the maximum pop-out pixel 121 corresponds to the nose of the person A41 as shown in FIG. However, since the person A41 has moved forward, the position of the maximum pop-out pixel 121 is different from the time n.

(時刻n+3)
図6(d)及び図7(a)は、時刻n+3の立体画像データを示している。図6(d)及び図7(a)に示す時刻n+3の立体画像データでは、ボールA43が表示画面の右側で且つ人物A41の手前に出現する。時刻n+3の立体画像データにおいて、最も手前に存在するのは、ボールA43であるから、図6(h)及び図7(e)に示すように、最大飛び出し画素121は、ボールA43に該当する。
(Time n + 3)
FIG. 6D and FIG. 7A show the stereoscopic image data at time n + 3. In the stereoscopic image data at time n + 3 shown in FIGS. 6D and 7A, the ball A43 appears on the right side of the display screen and in front of the person A41. In the three-dimensional image data at time n + 3, the ball A43 is closest to the front, so that the maximum protruding pixel 121 corresponds to the ball A43, as shown in FIGS. 6 (h) and 7 (e).

(時刻n+4)
図7(b)は、時刻n+4の立体画像データを示している。図7(b)に示す時刻n+4の立体画像データでは、ボールA43が人物A41の表示画面の前面に映り、ボールB44が表示画面の右側に映っている。ボールB44はボールA43より手前に存在し、最も手前に存在するのはボールB44であるから、図7(f)に示すように、最大飛び出し画素121は、ボールB44に該当する。
(Time n + 4)
FIG. 7B shows stereoscopic image data at time n + 4. In the stereoscopic image data at time n + 4 shown in FIG. 7B, the ball A43 is reflected in front of the display screen of the person A41, and the ball B44 is reflected on the right side of the display screen. Since the ball B44 exists in front of the ball A43, and the ball B44 exists in the foremost side, the maximum protruding pixel 121 corresponds to the ball B44 as shown in FIG.

(時刻n+5)
図7(c)は、時刻n+5の立体画像データを示している。図7(c)に示す時刻n+5の立体画像データでは、ボールA43が表示画面から消え、人物A41とボールB44とが映っている。ボールB44は時刻n+4より更に手前に存在し、最も手前に存在するのはボールB44であるから、図7(g)に示すように、最大飛び出し画素121は、ボールB44に該当する。但し、ボールB44が手前に移動しているため、最大飛び出し画素121の位置は、時刻n+4とは異なる。
(Time n + 5)
FIG. 7C shows stereoscopic image data at time n + 5. In the stereoscopic image data at time n + 5 shown in FIG. 7C, the ball A43 disappears from the display screen, and the person A41 and the ball B44 are shown. Since the ball B44 is present before the time n + 4 and the ball B44 is present at the foremost position, the maximum protruding pixel 121 corresponds to the ball B44 as shown in FIG. However, since the ball B44 has moved forward, the position of the maximum pop-out pixel 121 is different from the time n + 4.

(時刻n+6)
図7(d)は、時刻n+6の立体画像データを示している。図7(c)及び図7(d)に示すように、時刻n+5と時刻n+6との間にはシーンチェンジが存在し、時刻n+5と時刻n+6とは異なる映像になる。時刻n+6の立体画像データにおいて、最も手前に存在するのは自動車45であるから、図7(h)に示すように、最大飛び出し画素121は、自動車の左前方に該当する。
(Time n + 6)
FIG. 7D shows stereoscopic image data at time n + 6. As shown in FIGS. 7C and 7D, there is a scene change between time n + 5 and time n + 6, and the images at time n + 5 and time n + 6 are different. In the stereoscopic image data at time n + 6, since the automobile 45 is present in the foreground, the maximum pop-out pixel 121 corresponds to the left front of the automobile as shown in FIG.

次に、図8及び図9を参照しながら、本実施形態における立体画像データと最大の飛び出し画素の位置との関係について説明する。図8は、時刻nから時刻n+3までの状態を示し、図9は、時刻n+3から時刻n+6までの状態を示している。また、本実施形態では、最大飛び出し画素存在可能領域51の形状を楕円としている。勿論、最大飛び出し画素存在可能領域51の形状は、楕円に限定されるものではない。   Next, the relationship between the stereoscopic image data and the position of the largest pop-out pixel in this embodiment will be described with reference to FIGS. FIG. 8 shows a state from time n to time n + 3, and FIG. 9 shows a state from time n + 3 to time n + 6. In the present embodiment, the shape of the maximum pop-out pixel existence possible area 51 is an ellipse. Of course, the shape of the maximum protruding pixel existence region 51 is not limited to an ellipse.

(時刻n)
図8(a)は、時刻nの立体画像データを示している。図8(a)に示す時刻nの立体画像データには、人物A41のみが映っている。時刻nの立体画像データにおいて、最も手前に存在するのは、人物A41の鼻であるから、図8(e)に示すように、最大飛び出し画素121は、人物A41の鼻に該当する。
(Time n)
FIG. 8A shows stereoscopic image data at time n. Only the person A41 is shown in the stereoscopic image data at time n shown in FIG. In the three-dimensional image data at time n, since the nose of the person A41 is present in the foreground, the maximum pop-out pixel 121 corresponds to the nose of the person A41 as shown in FIG.

(時刻n+1)
図8(b)は、時刻n+1の立体画像データを示している。図8(b)に示す時刻n+1の立体画像データでは、人物A41の手前に人物B42が出現している。図8(e)に示す最大飛び出し画素121である人物A41の鼻は、時刻n+1の立体画像データにおいても存在している。従って、移動先座標の存在有無113の値は、TRUEとなる。よって、最大飛び出し画素存在可能領域設定部11は、方針1に従って、最大飛び出し画素の移動先座標112を中心に、最大飛び出し画素存在可能領域51を設定する。そして、最大飛び出し量算出部12は、最大飛び出し画素存在可能領域51内で最大の飛び出し量を持つ画素を、最大飛び出し画素121に決定する。
(Time n + 1)
FIG. 8B shows stereoscopic image data at time n + 1. In the stereoscopic image data at time n + 1 shown in FIG. 8B, the person B42 appears in front of the person A41. The nose of the person A41, which is the maximum pop-out pixel 121 shown in FIG. 8E, also exists in the stereoscopic image data at time n + 1. Therefore, the value of presence / absence 113 of the movement destination coordinates is TRUE. Therefore, the maximum pop-out pixel existence area setting unit 11 sets the maximum pop-out pixel existence area 51 around the movement destination coordinates 112 of the maximum pop-out pixel according to the policy 1. Then, the maximum pop-out amount calculation unit 12 determines the pixel having the maximum pop-out amount within the maximum pop-out pixel existence area 51 as the maximum pop-out pixel 121.

図8(f)に示すように、最大飛び出し画素121は、人物A41の鼻に該当する。立体画像生成部13は、最大飛び出し画素121の飛び出し量以下になるように、飛び出し量を抑止した立体画像データを生成する。これにより、図7(f)に示すように、人物B42の鼻に最大飛び出し画素121が与えられた場合に比べ、人物B42の飛び出し量が抑止される。   As shown in FIG. 8F, the maximum protruding pixel 121 corresponds to the nose of the person A41. The stereoscopic image generation unit 13 generates stereoscopic image data in which the pop-out amount is suppressed so as to be equal to or less than the pop-out amount of the maximum pop-out pixel 121. Accordingly, as shown in FIG. 7F, the pop-out amount of the person B42 is suppressed as compared with the case where the maximum pop-out pixel 121 is given to the nose of the person B42.

(時刻n+2)
図8(c)は、時刻n+2の立体画像データを示している。図8(c)に示す時刻n+2の立体画像データでは、人物B42が表示画面から消え、人物A41が手前に出ている。時刻n+1の最大飛び出し画素121、即ち、人物A41の鼻は、時刻n+2の立体画像データにおいても存在している。従って、移動先座標の存在有無113の値は、TRUEとなる。よって、最大飛び出し画素存在可能領域設定部11は、方針1に従って、最大飛び出し画素の移動先座標112を中心に、最大飛び出し画素存在可能領域51を設定する。そして、最大飛び出し量算出部12は、最大飛び出し画素存在可能領域51内で最大の飛び出し量を持つ画素を、最大飛び出し画素121に決定する。
(Time n + 2)
FIG. 8C shows stereoscopic image data at time n + 2. In the stereoscopic image data at time n + 2 shown in FIG. 8C, the person B42 disappears from the display screen, and the person A41 comes out to the front. The maximum protruding pixel 121 at time n + 1, that is, the nose of the person A41 also exists in the stereoscopic image data at time n + 2. Therefore, the value of presence / absence 113 of the movement destination coordinates is TRUE. Therefore, the maximum pop-out pixel existence area setting unit 11 sets the maximum pop-out pixel existence area 51 around the movement destination coordinates 112 of the maximum pop-out pixel according to the policy 1. Then, the maximum pop-out amount calculation unit 12 determines the pixel having the maximum pop-out amount within the maximum pop-out pixel existence area 51 as the maximum pop-out pixel 121.

図8(g)に示すように、最大飛び出し画素121は人物A41の鼻に該当する。但し、人物A41が手前に移動しているため、最大飛び出し画素121の位置は、時刻n+1とは異なる。   As shown in FIG. 8G, the maximum protruding pixel 121 corresponds to the nose of the person A41. However, since the person A41 has moved forward, the position of the maximum pop-out pixel 121 is different from the time n + 1.

(時刻n+3)
図8(d)及び図9(a)は、時刻n+3の立体画像データを示している。図8(d)及び図9(a)に示す時刻n+3の立体画像データでは、ボールA43が表示画面の右側で且つ人物A41の手前に出現している。時刻n+2の最大飛び出し画素121、即ち、人物A41の鼻は、時刻n+3の立体画像データ上に存在している。従って、移動先座標の存在有無113の値は、TRUEとなる。よって、最大飛び出し画素存在可能領域設定部11は、方針1に従って、最大飛び出し画素の移動先座標112を中心に、最大飛び出し画素存在可能領域51を設定する。そして、最大飛び出し量算出部12は、最大飛び出し画素存在可能領域51内で最大の飛び出し量を持つ画素を、最大飛び出し画素121に決定する。
(Time n + 3)
FIG. 8D and FIG. 9A show stereoscopic image data at time n + 3. In the stereoscopic image data at time n + 3 shown in FIGS. 8D and 9A, the ball A43 appears on the right side of the display screen and in front of the person A41. The maximum protruding pixel 121 at time n + 2, that is, the nose of the person A41 is present on the stereoscopic image data at time n + 3. Therefore, the value of presence / absence 113 of the movement destination coordinates is TRUE. Therefore, the maximum pop-out pixel existence area setting unit 11 sets the maximum pop-out pixel existence area 51 around the movement destination coordinates 112 of the maximum pop-out pixel according to the policy 1. Then, the maximum pop-out amount calculation unit 12 determines the pixel having the maximum pop-out amount within the maximum pop-out pixel existence area 51 as the maximum pop-out pixel 121.

図8(h)に示すように、最大飛び出し画素121は、人物A41の鼻に該当する。立体画像生成部13は、最大飛び出し画素121の飛び出し量以下になるように、飛び出し量を抑止した立体画像データを生成する。これにより、図6(f)に示すように、ボールA43に最大飛び出し画素121が与えられた場合に比べ、ボールA43の飛び出し量が抑止される。   As shown in FIG. 8H, the maximum protruding pixel 121 corresponds to the nose of the person A41. The stereoscopic image generation unit 13 generates stereoscopic image data in which the pop-out amount is suppressed so as to be equal to or less than the pop-out amount of the maximum pop-out pixel 121. As a result, as shown in FIG. 6F, the pop-out amount of the ball A43 is suppressed as compared with the case where the maximum pop-out pixel 121 is given to the ball A43.

(時刻n+4)
図9(b)は、時刻n+4の立体画像データを示している。図9(b)に示す時刻n+4の立体画像データでは、ボールA43が人物A41の前面に映り、ボールB44が表示画面の右側に映っている。時刻n+3の最大飛び出し画素121、即ち、人物A41の鼻は、時刻n+4の立体画像データ上では、ボールA43に隠れて存在していない。従って、移動先座標の存在有無113の値は、FALSEとなる。また、最大飛び出し画素の予測座標値114は、表示画面内に存在する。よって、最大飛び出し画素存在可能領域設定部11は、方針3に従って、最大飛び出し画素の予測座標値114を中心に、最大飛び出し画素存在可能領域51を設定する。そして、最大飛び出し量算出部12は、最大飛び出し画素存在可能領域51内で最大の飛び出し量を持つ画素を、最大飛び出し画素121に決定する。
(Time n + 4)
FIG. 9B shows stereoscopic image data at time n + 4. In the stereoscopic image data at time n + 4 shown in FIG. 9B, the ball A43 is reflected in front of the person A41 and the ball B44 is reflected on the right side of the display screen. The maximum protruding pixel 121 at time n + 3, that is, the nose of the person A41 does not exist behind the ball A43 on the stereoscopic image data at time n + 4. Therefore, the value of presence / absence 113 of the movement destination coordinates is FALSE. Further, the predicted coordinate value 114 of the largest pop-out pixel exists in the display screen. Therefore, the maximum pop-out pixel existence region setting unit 11 sets the maximum pop-out pixel existence region 51 around the predicted coordinate value 114 of the maximum pop-out pixel according to the policy 3. Then, the maximum pop-out amount calculation unit 12 determines the pixel having the maximum pop-out amount within the maximum pop-out pixel existence area 51 as the maximum pop-out pixel 121.

図9(f)に示すように、最大飛び出し画素121は、ボールA43に該当する。立体画像生成部13は、最大飛び出し画素121の飛び出し量以下になるように、飛び出し量を抑止した立体画像データを生成する。これにより、図7(f)に示すように、ボールB44に最大飛び出し画素121が与えられた場合に比べ、ボールB44の飛び出し量が抑止される。   As shown in FIG. 9F, the maximum protruding pixel 121 corresponds to the ball A43. The stereoscopic image generation unit 13 generates stereoscopic image data in which the pop-out amount is suppressed so as to be equal to or less than the pop-out amount of the maximum pop-out pixel 121. As a result, as shown in FIG. 7F, the amount of protrusion of the ball B44 is suppressed as compared with the case where the maximum protrusion pixel 121 is given to the ball B44.

(時刻n+5)
図9(c)は、時刻n+5の立体画像データを示している。図9(c)に示す時刻n+5の立体画像データでは、ボールA43が表示画面から消え、人物A41とボールB44とが映っている。時刻n+5において、ボールB44は、時刻n+4より更に手前に存在する。時刻n+4の最大飛び出し画素121、即ち、ボールA43は、時刻n+5において表示画面から出てしまい、表示画面上に存在していない。従って、移動先座標の存在有無113の値はFALSEとなり、且つ、最大飛び出し画素の予測座標値114も表示画面外となる。よって、最大飛び出し画素存在可能領域設定部11は、方針4に従って、時刻n+4の最大飛び出し画素121の座標を中心に、最大飛び出し画素存在可能領域51を設定する。そして、最大飛び出し量算出部12は、最大飛び出し画素存在可能領域51内で最大の飛び出し量を持つ画素を、最大飛び出し画素121に決定する。
(Time n + 5)
FIG. 9C shows stereoscopic image data at time n + 5. In the stereoscopic image data at time n + 5 shown in FIG. 9C, the ball A43 disappears from the display screen, and the person A41 and the ball B44 are shown. At time n + 5, the ball B44 is present before the time n + 4. The maximum pop-out pixel 121 at time n + 4, that is, the ball A43, has left the display screen at time n + 5 and does not exist on the display screen. Therefore, the value of presence / absence 113 of the movement destination coordinate is FALSE, and the predicted coordinate value 114 of the maximum pop-out pixel is also outside the display screen. Therefore, the maximum pop-out pixel existence region setting unit 11 sets the maximum pop-out pixel existence region 51 around the coordinates of the maximum pop-out pixel 121 at time n + 4 according to the policy 4. Then, the maximum pop-out amount calculation unit 12 determines the pixel having the maximum pop-out amount within the maximum pop-out pixel existence area 51 as the maximum pop-out pixel 121.

図9(g)に示すように、最大飛び出し画素121は、人物A41の鼻に該当する。立体画像生成部13は、最大飛び出し画素121の飛び出し量以下になるように、飛び出し量を抑止した立体画像データを生成する。これにより、図7(g)に示すように、ボールB44に最大飛び出し画素121が与えられた場合に比べ、ボールB44の飛び出し量が抑止される。   As shown in FIG. 9G, the maximum pop-out pixel 121 corresponds to the nose of the person A41. The stereoscopic image generation unit 13 generates stereoscopic image data in which the pop-out amount is suppressed so as to be equal to or less than the pop-out amount of the maximum pop-out pixel 121. As a result, as shown in FIG. 7G, the pop-out amount of the ball B44 is suppressed as compared with the case where the maximum pop-out pixel 121 is given to the ball B44.

(時刻n+6)
図7(d)は、時刻n+6の立体画像データを示している。時刻n+5と時刻n+6との間にシーンチェンジが存在するため、時刻n+5と時刻n+6とでは異なる映像になる。よって、最大飛び出し画素存在可能領域設定部11は、方針2に従って、表示画面全体で最大飛び出し量を持つ画素を、最大飛び出し画素121に決定する。時刻n+6の立体画像データにおいて、最も手前に存在するのは自動車45であるから、図7(h)に示すように、最大飛び出し画素121は、自動車の左前方に該当する。
(Time n + 6)
FIG. 7D shows stereoscopic image data at time n + 6. Since there is a scene change between the time n + 5 and the time n + 6, the video is different at the time n + 5 and the time n + 6. Therefore, the maximum pop-out pixel existence area setting unit 11 determines the pixel having the maximum pop-out amount on the entire display screen as the maximum pop-out pixel 121 according to the policy 2. In the stereoscopic image data at time n + 6, since the automobile 45 is present in the foreground, the maximum pop-out pixel 121 corresponds to the left front of the automobile as shown in FIG.

次に、図10を参照しながら、時刻nから時刻n+6までの、最大飛び出し画素121の位置の変移について説明する。図10(a)は、比較例における最大飛び出し画素121が変移する経路を示している。図10(b)は、本実施形態における最大飛び出し画素121が変移する経路を示している。図10において、カッコ内に記した数字は、最大飛び出し画素121の変移の順序を示す。   Next, transition of the position of the maximum pop-out pixel 121 from time n to time n + 6 will be described with reference to FIG. FIG. 10A shows a path along which the maximum protruding pixel 121 changes in the comparative example. FIG. 10B shows a path along which the maximum pop-out pixel 121 changes in the present embodiment. In FIG. 10, numbers in parentheses indicate the order of transition of the maximum pop-out pixel 121.

図10(a)に示すように、比較例における最大飛び出し画素121の変移は大きく、しかも、変移方向が様々である。一方、図10(b)に示すように、本実施形態における最大飛び出し画素121の変移は小さい。また、変移方向は人物A41の移動方向に沿っている。   As shown in FIG. 10A, the transition of the maximum protruding pixel 121 in the comparative example is large, and the transition direction is various. On the other hand, as shown in FIG. 10B, the transition of the maximum protruding pixel 121 in this embodiment is small. Further, the transition direction is along the movement direction of the person A41.

立体画像データにおいて飛び出し量が大きい領域に視聴者は注目するため、最大飛び出し画素121の変移が大きい場合、視線の変移も大きくなる。また、視線の変移が大きい場合、疲労の蓄積も大きく、映像酔いを引き起こしやすい。しかも、視線の変移方向が不規則である場合、映像酔いを引き起こしやすい。   Since the viewer pays attention to the region where the pop-out amount is large in the stereoscopic image data, the shift of the line of sight increases when the shift of the maximum pop-out pixel 121 is large. In addition, when the line of sight changes greatly, the accumulation of fatigue is large, and video sickness is likely to occur. In addition, when the line-of-sight shift direction is irregular, video sickness is likely to occur.

従って、本実施形態によれば、最大飛び出し画素121の変移を抑止し、立体画像データの視聴に伴う視線の変移量を抑止することが可能となる。また、本実施形態によれば、最大飛び出し画素121の変移方向を制限することにより、映像酔いの大きな要因である不規則な視線の変移を防止することが可能となる。   Therefore, according to the present embodiment, it is possible to suppress the shift of the maximum pop-out pixel 121 and to suppress the shift amount of the line of sight accompanying viewing of the stereoscopic image data. Further, according to the present embodiment, by restricting the transition direction of the maximum pop-out pixel 121, it is possible to prevent an irregular line-of-sight transition that is a major cause of video sickness.

次に、本発明の第2の実施形態について説明する。図11は、本発明の第2の実施形態に係る立体画像生成装置の構成を示す図である。図11に示す第2の実施形態に係る立体画像生成装置と、図1に示す第1の実施形態に係る立体画像生成装置との違いは、第2の実施形態における最大飛び出し画素存在可能領域設定部1111は、第1の実施形態で説明した最大飛び出し画素存在可能領域の設定機能に加え、最大飛び出し画素存在可能領域の形状や大きさを変更する機能を備える。即ち、第2の実施形態における最大飛び出し画素存在可能領域設定部1111は、入力される最大飛び出し画素存在可能領域属性106の値に従って、最大飛び出し画素存在可能領域の形状や大きさを変更する。   Next, a second embodiment of the present invention will be described. FIG. 11 is a diagram illustrating a configuration of a stereoscopic image generating apparatus according to the second embodiment of the present invention. The difference between the stereoscopic image generating apparatus according to the second embodiment shown in FIG. 11 and the stereoscopic image generating apparatus according to the first embodiment shown in FIG. 1 is that the maximum pop-out pixel existence region setting in the second embodiment is performed. The unit 1111 has a function of changing the shape and size of the maximum pop-out pixel existence area in addition to the function of setting the maximum pop-out pixel existence area described in the first embodiment. In other words, the maximum pop-out pixel existence area setting unit 1111 in the second embodiment changes the shape and size of the maximum pop-out pixel existence area according to the value of the input maximum pop-out pixel existence area attribute 106.

最大飛び出し画素存在可能領域属性106は、最大飛び出し画素存在可能領域の形状や大きさを表す属性値である。なお、最大飛び出し画素存在可能領域属性は、本実施形態に係る立体映像生成裝置のユーザにより任意に設定可能な値である。最大飛び出し画素存在可能領域属性の設定手法としては、例えば、リモコンやOSD(On-Screen-Display)を使用してユーザが任意の最大飛び出し画素存在可能領域属性を設定する手法が挙げられる。   The maximum pop-out pixel existence region attribute 106 is an attribute value representing the shape and size of the maximum pop-out pixel existence region. Note that the maximum pop-out pixel existence region attribute is a value that can be arbitrarily set by the user of the stereoscopic video generation apparatus according to the present embodiment. As a method for setting the maximum pop-out pixel existence region attribute, for example, there is a method in which the user sets an arbitrary maximum pop-out pixel existence region attribute using a remote controller or OSD (On-Screen-Display).

図12は、第2の実施形態における最大飛び出し画素存在可能領域設定部1111の詳細な構成を示す図である。図11に示す第2の実施形態における最大飛び出し画素存在可能領域設定部1111と、図2に示す第1の実施形態における最大飛び出し画素存在可能領域設定部11との違いは、最大飛び出し画素存在可能領域選択部1124の機能にある。   FIG. 12 is a diagram illustrating a detailed configuration of the maximum pop-out pixel existence area setting unit 1111 in the second embodiment. The difference between the maximum pop-out pixel existence region setting unit 1111 in the second embodiment shown in FIG. 11 and the maximum pop-out pixel existence region setting unit 11 in the first embodiment shown in FIG. This is in the function of the area selection unit 1124.

即ち、第2の実施形態における最大飛び出し画素存在可能領域選択部1124は、最大飛び出し画素存在可能領域属性106の値に従って、最大飛び出し画素存在可能領域の位置を決定し、最大飛び出し画素存在可能領域の座標値102を算出する。   That is, the maximum pop-out pixel existence area selection unit 1124 according to the second embodiment determines the position of the maximum pop-out pixel existence area according to the value of the maximum pop-out pixel existence area attribute 106, and determines the maximum pop-out pixel existence area. A coordinate value 102 is calculated.

ここで、最大飛び出し画素存在可能領域属性106の具体例について説明する。最大飛び出し画素存在可能領域属性106は、4ビットの値をとり、上位2ビットで形状を表し、下位2ビットで大きさを表すものとする。例えば、上位2ビットと形状との関係、及び、下位2ビットと大きさとの関係は、以下のようになる。
最大飛び出し画素存在可能領域属性106の上位2ビット
00 不使用
01 円(circle)
10 角丸四角(rounded rectangle)
11 楕円(ellipse)
最大飛び出し画素存在可能領域属性106の下位2ビット
00 不使用
01 小(表示画面上で水平方向の長さ5cm)
10 中(表示画面上で水平方向の長さ10cm)
11 大(表示画面上で水平方向の長さ15cm)
Here, a specific example of the maximum pop-out pixel existence region attribute 106 will be described. The maximum pop-out pixel existence area attribute 106 takes a 4-bit value, and the shape is represented by the upper 2 bits and the size is represented by the lower 2 bits. For example, the relationship between the upper 2 bits and the shape and the relationship between the lower 2 bits and the size are as follows.
Upper 2 bits of the maximum pop-out pixel existence area attribute 106 00 Not used 01 Circle
10 rounded rectangle
11 Ellipse
Lower 2 bits of maximum pop-out pixel existence area attribute 106 00 Not used 01 Small (horizontal length 5 cm on display screen)
10 Medium (Length 10cm in the horizontal direction on the display screen)
11 large (horizontal length of 15 cm on the display screen)

なお、角丸四角及び楕円の水平方向の大きさと垂直方向の大きさとの比は、例えば、水平:垂直=1.2:1.0とする。例えば、画素存在可能領域属性106=1110である場合、最大飛び出し画素存在可能領域は、表示画面上で水平方向の長さが10cmの楕円となる。勿論、画素存在可能領域属性106の様式や画素存在可能領域の形状及び大きさが、上述した例に限定されるものではない。   Note that the ratio of the horizontal size and the vertical size of rounded squares and ellipses is, for example, horizontal: vertical = 1.2: 1.0. For example, when the pixel existence possibility area attribute 106 = 1110, the maximum pop-out pixel existence possibility area is an ellipse having a horizontal length of 10 cm on the display screen. Of course, the form of the pixel existence possible area attribute 106 and the shape and size of the pixel existence possible area are not limited to the above-described example.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

11、1111:最大飛び出し画素存在可能領域設定部、12:最大飛び出し量算出部、13:立体画像生成部、21:移動先座標検出部、22:移動先座標予測部、23:シーンチェンジ判定部、24、1124:最大飛び出し画素存在可能領域選択部、25:遅延部、26:動きベクトル算出部、28:移動先座標演算部   11, 1111: Maximum pop-out pixel existence possible area setting unit, 12: Maximum pop-out amount calculation unit, 13: Stereo image generation unit, 21: Destination coordinate detection unit, 22: Destination coordinate prediction unit, 23: Scene change determination unit , 24, 1124: maximum pop-out pixel existence region selection unit, 25: delay unit, 26: motion vector calculation unit, 28: destination coordinate calculation unit

Claims (8)

画像データを入力する入力手段と、
前記入力手段により入力された前記画像データに対し、最大の飛び出し量を持つ画素が存在する可能性がある領域を設定する設定手段と、
前記設定手段により設定された前記領域内における画素の最大の飛び出し量を算出する算出手段と、
前記算出手段により算出された最大の飛び出し量に基づいて、立体画像データにおける画素の最大の飛び出し量を決定する決定手段と、
前記決定手段により決定された最大の飛び出し量に基づいて、前記画像データから前記立体画像データを生成する生成手段とを有することを特徴とする立体画像生成装置。
Input means for inputting image data;
Setting means for setting a region where a pixel having the maximum pop-out amount may exist for the image data input by the input means;
Calculating means for calculating the maximum amount of popping out of the pixels in the region set by the setting means;
Determining means for determining the maximum pop-out amount of the pixels in the stereoscopic image data based on the maximum pop-out amount calculated by the calculating means;
A stereoscopic image generating apparatus comprising: generating means for generating the stereoscopic image data from the image data based on the maximum pop-out amount determined by the determining means.
前記決定手段は、前記算出手段により算出された最大の飛び出し量を超えないように、前記立体画像データにおける画素の最大の飛び出し量を決定することを特徴とする請求項1に記載の立体画像生成装置。   2. The stereoscopic image generation according to claim 1, wherein the determining unit determines a maximum pop-out amount of a pixel in the stereoscopic image data so as not to exceed a maximum pop-out amount calculated by the calculating unit. apparatus. 前記設定手段は、前記入力手段により第1の時点に入力された第1の画像データにおける最大の飛び出し量の画素が、前記第1の時点より後の第2の時点に前記入力手段により入力された第2の画像データに存在する場合、前記第2の画像データにおける前記画素の位置に基づいて、前記領域を設定することを特徴とする請求項1又は2に記載の立体画像生成装置。   In the setting unit, a pixel having the maximum pop-out amount in the first image data input at the first time point by the input unit is input by the input unit at a second time point after the first time point. 3. The stereoscopic image generation apparatus according to claim 1, wherein the region is set based on a position of the pixel in the second image data when the second image data exists. 前記設定手段は、前記第1の画像データにおける最大の飛び出し量の画素が前記第2の画像データに存在しない場合、前記第2の時点における前記画素の移動先を予測し、予測した前記画素の移動先に基づいて、前記領域を設定することを特徴とする請求項3に記載の立体画像生成装置。   The setting means predicts a movement destination of the pixel at the second time point when a pixel with the maximum pop-out amount in the first image data does not exist in the second image data, and The stereoscopic image generating apparatus according to claim 3, wherein the area is set based on a destination. 前記設定手段は、前記第1の時点と前記第2の時点との間にシーンチェンジが存在する場合、表示画面全体を前記領域として設定することを特徴とする請求項3又は4に記載の立体画像生成装置。   The three-dimensional object according to claim 3 or 4, wherein the setting means sets the entire display screen as the region when a scene change exists between the first time point and the second time point. Image generation device. 前記設定手段により設定された前記領域の形状及び大きさのうちの少なくとも何れか一方を変更する変更手段を更に有することを特徴とする請求項1乃至5の何れか1項に記載の立体画像生成装置。   The stereoscopic image generation according to any one of claims 1 to 5, further comprising changing means for changing at least one of the shape and size of the area set by the setting means. apparatus. 立体画像生成装置によって実行される立体画像生成方法であって、
画像データを入力する入力ステップと、
前記入力ステップにより入力された前記画像データに対し、最大の飛び出し量を持つ画素が存在する可能性がある領域を設定する設定ステップと、
前記設定ステップにより設定された前記領域内における画素の最大の飛び出し量を算出する算出ステップと、
前記算出ステップにより算出された最大の飛び出し量に基づいて、立体画像データにおける画素の最大の飛び出し量を決定する決定ステップと、
前記決定ステップにより決定された最大の飛び出し量に基づいて、前記画像データから前記立体画像データを生成する生成ステップとを有することを特徴とする立体画像生成方法。
A stereoscopic image generation method executed by a stereoscopic image generation apparatus,
An input step for inputting image data;
A setting step for setting an area where there is a possibility that a pixel having a maximum pop-out amount exists for the image data input in the input step;
A calculation step for calculating a maximum amount of protrusion of the pixel in the region set by the setting step;
A determination step for determining a maximum amount of pop-up of pixels in the stereoscopic image data based on the maximum amount of pop-up calculated by the calculating step;
And a generating step of generating the stereoscopic image data from the image data based on the maximum pop-out amount determined in the determining step.
画像データを入力する入力ステップと、
前記入力ステップにより入力された前記画像データに対し、最大の飛び出し量を持つ画素が存在する可能性がある領域を設定する設定ステップと、
前記設定ステップにより設定された前記領域内における画素の最大の飛び出し量を算出する算出ステップと、
前記算出ステップにより算出された最大の飛び出し量に基づいて、立体画像データにおける画素の最大の飛び出し量を決定する決定ステップと、
前記決定ステップにより決定された最大の飛び出し量に基づいて、前記画像データから前記立体画像データを生成する生成ステップとをコンピュータに実行させるためのプログラム。
An input step for inputting image data;
A setting step for setting an area where there is a possibility that a pixel having a maximum pop-out amount exists for the image data input in the input step;
A calculation step for calculating a maximum amount of protrusion of the pixel in the region set by the setting step;
A determination step for determining a maximum amount of pop-up of pixels in the stereoscopic image data based on the maximum amount of pop-up calculated by the calculating step;
A program for causing a computer to execute a generation step of generating the stereoscopic image data from the image data based on the maximum pop-out amount determined by the determination step.
JP2012266492A 2012-12-05 2012-12-05 Stereoscopic image generating apparatus, stereoscopic image generating method, and program Pending JP2014112794A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012266492A JP2014112794A (en) 2012-12-05 2012-12-05 Stereoscopic image generating apparatus, stereoscopic image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012266492A JP2014112794A (en) 2012-12-05 2012-12-05 Stereoscopic image generating apparatus, stereoscopic image generating method, and program

Publications (1)

Publication Number Publication Date
JP2014112794A true JP2014112794A (en) 2014-06-19

Family

ID=51169652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012266492A Pending JP2014112794A (en) 2012-12-05 2012-12-05 Stereoscopic image generating apparatus, stereoscopic image generating method, and program

Country Status (1)

Country Link
JP (1) JP2014112794A (en)

Similar Documents

Publication Publication Date Title
JP4578294B2 (en) Stereoscopic image display device, stereoscopic image display method, and computer program
US9710955B2 (en) Image processing device, image processing method, and program for correcting depth image based on positional information
JP2016103823A (en) Stereoscopic image display method and portable terminal
US9118894B2 (en) Image processing apparatus and image processing method for shifting parallax images
US9154762B2 (en) Stereoscopic image system utilizing pixel shifting and interpolation
WO2012132333A1 (en) Image processing apparatus and image processing method
TW201924327A (en) Method, system and recording medium for adaptive interleaved image warping
JPWO2019229906A1 (en) Image display system
JP2012019365A (en) Image processing device and image processing method
US20180232945A1 (en) Image processing apparatus, image processing system, image processing method, and storage medium
US20120308115A1 (en) Method for Adjusting 3-D Images by Using Human Visual Model
US9041781B2 (en) Image processing apparatus, image processing method, and program
WO2017085803A1 (en) Video display device and video display method
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
US20150215602A1 (en) Method for ajdusting stereo image and image processing device using the same
US20140293019A1 (en) Apparatus and method for producing stereoscopic subtitles by analyzing three-dimensional (3d) space
US9330487B2 (en) Apparatus and method for processing 3D images through adjustment of depth and viewing angle
JP5528162B2 (en) Image processing apparatus and image processing method
JP2015149547A (en) Image processing method, image processing apparatus, and electronic apparatus
JP2014112794A (en) Stereoscopic image generating apparatus, stereoscopic image generating method, and program
US20140085434A1 (en) Image signal processing device and image signal processing method
JP2012109725A (en) Stereoscopic video processing device and stereoscopic video processing method
JP6198157B2 (en) Program, recording medium, image processing apparatus, and image processing method
JP5459231B2 (en) Pseudo stereoscopic image generation apparatus, pseudo stereoscopic image generation program, and pseudo stereoscopic image display apparatus
TWI628619B (en) Method and device for generating stereoscopic images