JP2013118515A - Image processing apparatus and method - Google Patents
Image processing apparatus and method Download PDFInfo
- Publication number
- JP2013118515A JP2013118515A JP2011265045A JP2011265045A JP2013118515A JP 2013118515 A JP2013118515 A JP 2013118515A JP 2011265045 A JP2011265045 A JP 2011265045A JP 2011265045 A JP2011265045 A JP 2011265045A JP 2013118515 A JP2013118515 A JP 2013118515A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- amount
- display
- image
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 31
- 238000000034 method Methods 0.000 title description 30
- 238000012937 correction Methods 0.000 claims abstract description 73
- 230000000007 visual effect Effects 0.000 claims abstract description 50
- 238000004364 calculation method Methods 0.000 claims abstract description 48
- 230000008447 perception Effects 0.000 claims abstract description 9
- 230000004927 fusion Effects 0.000 claims description 49
- 230000006870 function Effects 0.000 claims description 10
- 238000003672 processing method Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 16
- 239000004973 liquid crystal related substance Substances 0.000 description 10
- 239000011521 glass Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004256 retinal image Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Abstract
Description
本発明は、観察者が知覚する立体像の奥行を補正する画像処理に関する。 The present invention relates to image processing for correcting the depth of a stereoscopic image perceived by an observer.
近年、テレビジョンなどの表示装置における立体表示に関する研究が盛んである。 In recent years, research on stereoscopic display in a display device such as a television has been actively conducted.
立体表示技術においては、両眼視差を利用して、観察者に立体を知覚させる手法が一般的に用いられる。例えば、観察者に液晶シャッタ眼鏡を装着させる立体画像表示装置は、両眼視差を利用して立体像を知覚させるために、右目と左目に異なる画像を表示する方法を採用する。 In the stereoscopic display technology, a method of making a viewer perceive a stereoscopic using binocular parallax is generally used. For example, a stereoscopic image display apparatus that allows an observer to wear liquid crystal shutter glasses employs a method of displaying different images for the right eye and the left eye in order to perceive a stereoscopic image using binocular parallax.
両眼視差を利用する表示方法は、同一物体を対象にして右目用画像(以下、右画像)と左目用画像(以下、左画像)の間に視差量を設定する。視差量は、同一物体における右画像と左画像の間の画素のずれ量である。このずれ量と、表示画面のスクリーンサイズによって観察者が知覚する立体感が変化することが知られている。 A display method using binocular parallax sets a parallax amount between a right-eye image (hereinafter, right image) and a left-eye image (hereinafter, left image) targeting the same object. The parallax amount is a pixel shift amount between the right image and the left image in the same object. It is known that the stereoscopic effect perceived by the observer changes depending on the shift amount and the screen size of the display screen.
特許文献1は、違和感や不快感を覚えないように、スクリーンサイズに応じて視差を補正して立体感を制御する技術を開示する。 Patent Document 1 discloses a technique for controlling the stereoscopic effect by correcting the parallax according to the screen size so as not to feel uncomfortable or uncomfortable.
また、非特許文献1は、両眼視差を利用する立体視において、視差量と観察距離から予測される物体の表示上の奥行き距離(以下、表示上の奥行量)と、観察者が知覚する物体の奥行き距離(以下、知覚上の奥行量)の関係が非線形であることを提示する。 In Non-Patent Document 1, in stereoscopic vision using binocular parallax, the viewer perceives the depth distance on the display of the object (hereinafter referred to as the depth on display) predicted from the parallax amount and the observation distance. It is presented that the relationship between the depth distances of objects (hereinafter referred to as perceptual depth) is non-linear.
従来の立体表示技術は、非特許文献1が提示する表示上の奥行量と知覚上の奥行量の非線形性を補正しない。そのため、観察者は、知覚する立体像に箱庭感・書割感を覚える場合がある。 The conventional stereoscopic display technology does not correct the non-linearity between the display depth amount and the perceptual depth amount presented by Non-Patent Document 1. For this reason, the observer may feel a sense of miniature garden space and a sense of book splitting in the perceived stereoscopic image.
本発明は、人間の立体視における視覚特性を考慮して視差量を制御することを目的とする。 An object of the present invention is to control the amount of parallax in consideration of visual characteristics in human stereoscopic vision.
本発明は、前記の目的を達成する一手段として、以下の構成を備える。 The present invention has the following configuration as one means for achieving the above object.
本発明にかかる画像処理は、立体画像表示用の画像データから視差画像の視差量を検出し、前記画像データが表す画像を再現する表示面と前記画像の観察者の間の観察距離を取得し、前記視差量と前記観察距離に基づき、前記画像データが表す物体の表示上の奥行量を推定し、表示上の奥行量と知覚上の奥行量の関係を示す視覚特性を保持し、前記物体の表示上の奥行量、前記観察距離および前記視覚特性に基づき、前記物体の表示上の奥行量と知覚上の奥行量を合わせる視差量の補正量を演算し、前記補正量に基づき前記視差画像の視差量を補正することを特徴とする。 The image processing according to the present invention detects a parallax amount of a parallax image from image data for stereoscopic image display, and obtains an observation distance between a display surface that reproduces an image represented by the image data and an observer of the image. , Based on the parallax amount and the observation distance, estimating a display depth amount of the object represented by the image data, holding a visual characteristic indicating a relationship between a display depth amount and a perceptual depth amount, and the object Based on the display depth amount, the observation distance, and the visual characteristics, a parallax amount correction amount that combines the depth amount on display of the object and the perceptual depth amount is calculated, and the parallax image is calculated based on the correction amount. It is characterized by correcting the amount of parallax.
本発明によれば、人間の立体視における視覚特性を考慮して視差量を制御して、立体像の奥行を知覚上で線形に再現することができる。その結果、観察者が覚える箱庭感・書割感を抑制することができる。 According to the present invention, the depth of a stereoscopic image can be linearly reproduced perceptually by controlling the amount of parallax in consideration of the visual characteristics in human stereoscopic vision. As a result, it is possible to suppress the feeling of miniature garden and the sense of book splitting that the observer remembers.
以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。以下では、液晶シャッタ眼鏡などを装着した観察者に立体像の知覚を提供するシステムに適用可能な画像処理装置を説明する。画像処理装置は、観察者が知覚する立体像の奥行を補正する機能を有する。 Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings. In the following, an image processing apparatus that can be applied to a system that provides perception of a stereoscopic image to an observer wearing liquid crystal shutter glasses will be described. The image processing apparatus has a function of correcting the depth of a stereoscopic image perceived by an observer.
[装置の構成]
図1のブロック図により実施例の画像処理装置100の構成例を示す。
[Device configuration]
The block diagram of FIG. 1 shows a configuration example of the
画像処理装置100は、映像信号Dinを入力し、映像信号Doutを画像表示部111に出力する。なお、後述する奥行量の補正が行われない場合、映像信号は画像処理装置100をスルーする。画像表示部111は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機ELディスプレイ、プロジェクタなどであり、所定の立体画像表示方式に基づき観察者に立体像の知覚を提供する。
The
CPU106は、RAM108をワークメモリとして、ROM107などに格納された制御プログラムを実行し、システムバス113を介して後述する構成を制御する。また、CPU106は、ボタン、キーボード、タッチパネルなどの操作部109を介して、ユーザ指示やユーザが入力する各種情報を取得する。
The
観察距離取得部105は、ROM107に格納された、観察者(通常はユーザ)と画像表示部111の表示面の間の距離(観察距離)Lsを取得し、RAM108に格納する。この観察距離Lsは、ITU-R(国際無線通信諮問委員会)が規定する標準観察距離、つまり画像表示部111の画面の高さの三倍から六倍の距離である。観察距離Lsは、ユーザが操作部109を操作して観察距離Lsを入力してもよいし、CPU106が距離センサ110に測定を指示して取得してもよい。CPU106は入力または取得した観察距離LsをRAM108の所定領域に格納し、RAM108を介して観察距離Lsを観察距離取得部105に供給する。
The observation
距離センサ110は、赤外線レーザを画像表示部111の表示面に正対する方向へ照射し、その反射光を受信センサが受信するまでの時間から観察距離Lsを測定する。距離センサ110は、測定結果の観察距離Lsを観察距離取得部105またはCPU106に送信し、観察距離取得部105またはCPU106は受信した観察距離LsをRAM108の所定領域に格納する。なお、観察距離の測定方法は、これに限らず、例えば多眼カメラによる三角測量によって測定してもよい。
The
視差量検出部101は、左画像と右画像からなる立体画像表示用の画像データDinが入力されると、画像データDinから両眼視差画像の両眼視差量Dを検出する。奥行推定部102は、両眼視差量D、画像データDin、表示装置情報Dd、観察距離Lsを入力して、立体画像の飛び出しや引き込みで表現される、表示上の奥行量Ldを推定する。
The parallax
表示上の奥行量Ldは、あるオブジェクトにおける両眼視差量、観察距離、観察者の瞳孔間距離から算出される対象物体の奥行距離のことである。なお、対象物体は、左画像と右画像の両方に存在する同一のオブジェクトのことである。 The depth Ld on the display is the depth distance of the target object calculated from the binocular parallax amount, the observation distance, and the observer's interpupillary distance in a certain object. The target object is the same object that exists in both the left image and the right image.
表示装置情報Ddは、ROM107などに格納された、画像表示部111の仕様に関する情報であり、画像表示部111の表示可能領域のサイズ(幅W[mm]×高さH[mm])や表示可能な画素数(横NDW×縦NDH)に関する情報を含む。また、表示装置情報Ddとして、例えば拡張ディスプレイ識別データ(extended display identification data: EDID)を画像表示部111から取得してもよい。なお、EDIDは、VESA (Video Electronics Standards Association)によって規定されている。また、表示装置情報Ddは、上記情報のほかに、液晶ディスプレイやプロジェクタなどの表示方式を識別するための情報を含むことが望ましい。
The display device information Dd is information related to the specifications of the
視覚特性保持部112は、視覚特性情報Dvを保持するメモリである。視覚特性情報Dvは、表示上の奥行量Ldと知覚上の奥行量Lvの関係を表す。例えば、表示上の奥行量Ldと知覚上の奥行量Lvの関係を示すテーブルでもよいし、表示上の奥行量Ldから知覚上の奥行量Lvを算出する式でもよい。
The visual
補正演算部103は、視覚特性情報Dv、表示装置情報Dd、観察距離Lsを用いて、知覚上の奥行量Lvと、奥行推定部102が推定した表示上の奥行量Ldを合わせる補正視差量Cを算出する。視差量補正部104は、補正視差量Cに基づき、画像データDinの両眼視差量Dを補正し、補正後の画像データDoutを画像表示部111へ出力する。
The
[装置の動作]
画像処理装置100は、外部の立体差画像再生装置やディジタル放送受信機などから画像データDinを入力する。
[Device operation]
The
●視差量検出部
視差量検出部101は、公知の方法により、画像データDinの左画像と右画像それぞれからオブジェクトを抽出し、対象物体の表示面上の画素のずれ量を両眼視差量Dとして検出する。そして、対象物体ごとに、両眼視差量Dを奥行推定部102に送信する。
Parallax amount detection unit The parallax
●奥行推定部
奥行推定部102は、各対象物体の両眼視差量D、表示装置情報Dd、観察距離Lsを入力し、式(1)により、各対象物体の表示上の奥行量Ldを算出する。例えば、表示装置情報Ddが示す画像表示部111の表示幅と横画素数、および、画像データDinの横画素数を用いて、両眼視差量Dの単位を画素数からミリメートルに変換した両眼視差量D1を計算する。
D1 = D×W/NDW×NDW/NinW …(1)
ここで、Wは画像表示部111の表示幅[mm]、
NDWは画像表示部111の横画素数、
NinWは画像データDinの横画素数。
Depth estimation unit
D1 = D × W / N DW × N DW / N inW (1)
Here, W is the display width [mm] of the
N DW is the number of horizontal pixels of the
N inW is the number of horizontal pixels of the image data Din.
なお、式(1)は、画素数(横)NinW×(縦)NinHの左画像および右画像をフルスクリーン表示する場合に両眼視差量D1を計算する式である。当該画像を等倍表示する場合は式(1)においてNDW/NinW=1になる。 Expression (1) is an expression for calculating the binocular parallax amount D1 when the left image and the right image having the number of pixels (horizontal) N inW × (vertical) N inH are displayed in full screen. When displaying the image at the same magnification, N DW / N inW = 1 in Equation (1).
次に、奥行推定部102は、両眼視差量D1に対する表示上の奥行量Ldを算出する。図2により両眼視差量D1と対象物体の距離の関係を説明する。観察者の瞳孔間距離をde[mm]とすると、表示上の奥行量Ldは、下式により算出される。奥行推定部102は、対象物体Pごとに得られた表示上の奥行量Ldを補正演算部103に送信する。
図2(a)において、de:D1 = Ld:Ld-Ls
∴ Ld = de×Ls/(de - D1) …(2)
Next, the
In Fig. 2 (a), de: D1 = Ld: Ld-Ls
∴ Ld = de × Ls / (de-D1)… (2)
ただし、D1は、図2(a)に示すように、対象物体Pが画像表示部111より手前の場合は負に、図2(b)に示すように、対象物体Pが画像表示部111より後ろの場合は正になる。これは、左画像から抽出したオブジェクトが、右画像から抽出した同一オブジェクトよりも左にある場合に正、右にある場合に負と言える。また、式(2)から分かるように、対象物体Pの表示上の奥行量Ldが観察距離Lsに等しい(Ld=Ls)の場合は両眼視差量D1は零になる。なお、瞳孔間距離deは一般的な成人の場合は65mmとされるが、これに限るものではなく、ユーザ(観察者)が操作部109により入力してもよい。
However, D1 is negative when the target object P is in front of the
●観察距離取得部、視覚特性保持部
観察距離取得部105は、奥行推定部102や補正演算部103から観察距離Lsを要求されると、RAM108に格納された観察距離Lsを奥行推定部102や補正演算部103に送信する。また、視覚特性保持部112は、補正演算部103から視覚特性情報Dvを要求されると、保持する視覚特性情報Dvを補正演算部103に送信する。
Observation distance acquisition unit, visual characteristic holding unit When the observation
●補正演算部
補正演算部103は、視覚特性保持部112から入力した視覚特性情報Dvを用いて、奥行推定部102から入力した表示上の奥行量Ldから知覚上の奥行量Lvを得る。そして、画像データDin内の対象物体Pに対する視差量の補正量Cを算出する。
Correction Calculation Unit The
図3により知覚上の奥行距離Lvを説明する。図3(a)(b)に示すように、知覚上の奥行距離Lvは視覚特性の影響を受け、表示上の奥行距離Ldとの差が知覚される。図4により表示上の奥行量Ldと知覚上の奥行量Lvの関係を説明する。知覚上の奥行量Lvと表示上の奥行量Ldの関係は次のようになる。
Lv = f(Ld) …(3)
ここで、fは視覚特性を表す関数。
The perceptual depth distance Lv will be described with reference to FIG. As shown in FIGS. 3 (a) and 3 (b), the perceived depth distance Lv is affected by visual characteristics, and a difference from the displayed depth distance Ld is perceived. The relationship between the displayed depth amount Ld and the perceptual depth amount Lv will be described with reference to FIG. The relationship between the perceived depth Lv and the displayed depth Ld is as follows.
Lv = f (Ld) (3)
Here, f is a function representing visual characteristics.
例えば、ある対象物体Pの表示上の奥行量をLd1とすると、表示上の奥行量とは異なる奥行量Lv1が知覚される。言い替えれば、知覚上の奥行量をLd1にするために必要な表示上の奥行量Ld1'は下式で表される。つまり、Ld1'は、表示上の奥行量と知覚上の奥行量の差を補正した奥行量である。
Ld1' = f-1(Ld1) …(4)
For example, when the depth amount on the display of a certain target object P is Ld1, a depth amount Lv1 different from the depth amount on the display is perceived. In other words, the depth amount Ld1 ′ on the display necessary for setting the perceptual depth amount to Ld1 is expressed by the following equation. That is, Ld1 ′ is a depth amount obtained by correcting the difference between the displayed depth amount and the perceptual depth amount.
Ld1 '= f -1 (Ld1)… (4)
図5のフローチャートにより補正演算部103の処理を説明する。補正演算部103は、観察距離Lsを取得し(S101)、視覚特性保持部112から観察距離Lsに対応する視覚特性情報Dvを取得する(S102)。
The processing of the
視覚特性情報Dvが表示上の奥行量Ldと知覚上の奥行量Lvの関係を表す式(3)の関数fである場合、関数fは、観察距離Lsごとに予め用意され、視覚特性保持部112に保持されている。つまり、補正演算部103は、観察距離Lsに最も近い観察距離に対応する関数fを視覚特性保持部112から取得するが、例えば下式に示す関数fを取得する。
Lv = f(Ld) = (Ld - Ls)k + Ls …(5)
ここで、kは観察距離Lsに基づく係数、
例えば、観察距離Ls=900 mm、係数k=0.95。
When the visual characteristic information Dv is the function f of the expression (3) representing the relationship between the depth Ld on the display and the perceptual depth Lv, the function f is prepared in advance for each observation distance Ls, and the visual
Lv = f (Ld) = (Ld-Ls) k + Ls… (5)
Where k is a coefficient based on the observation distance Ls,
For example, observation distance Ls = 900 mm, coefficient k = 0.95.
視覚特性情報Dvは、関数fに限るわけではない。図6により観察距離Lsごとに両眼視差量D1、表示上の奥行量Ld、知覚上の奥行量Lvの対応を示すテーブルを示す。つまり、補正演算部103は、観察距離Lsに対応するテーブルを取得してもよい。なお、観察距離Lsに対応するテーブルが用意されていない場合は、観察距離Lsに最も近いテーブルを選択してもよいし、観察距離Lsを挟むテーブルの間の補間演算により観察距離Lsに対応するテーブルを生成してもよい。
The visual characteristic information Dv is not limited to the function f. FIG. 6 shows a table indicating correspondence between the binocular parallax amount D1, the display depth amount Ld, and the perceptual depth amount Lv for each observation distance Ls. That is, the
次に、補正演算部103は、注目する対象物体Pの表示上の奥行量Ldを受信する(S103)。そして、視覚特性情報Dv(関数fやテーブル)により、表示上の奥行量がLdの対象物体Pを、知覚上の奥行量Lv=Ldとして忠実に再現する補正奥行量Ld'を算出する(S104)。例えば、対象物体Pの表示上の奥行量Ld1が2000 mmとすると、知覚上の奥行量Lvを2000 mmにするような、補正奥行量Ld1'を算出する。
式(4)(5)より、
Ld1' = f-1(Ld1)
= (Ld1 - Ls)1/k + Ls
Ld1 = 2000、Ls = 900、k = 0.95とすると、
Ld1' = (2000 - 900)1/0.95 + 900 = 2490 …(6)
Next, the
From equations (4) and (5),
Ld1 '= f -1 (Ld1)
= (Ld1-Ls) 1 / k + Ls
If Ld1 = 2000, Ls = 900, k = 0.95,
Ld1 '= (2000-900) 1 / 0.95 + 900 = 2490… (6)
次に、補正演算部103は、ROM107などから表示装置情報Ddを取得し(S105)、表示装置情報Ddと補正奥行量Ld1'に基づき補正視差量Cを算出する(S106)。補正奥行量Cの単位は画素である。そこで、下式により補正奥行量Ld1'に必要な補正両眼視差量D2[mm]を算出する。
式(2)より、
D2 = de(Ld1' - Ls)/Ld1' …(7)
Next, the
From equation (2)
D2 = de (Ld1 '-Ls) / Ld1'… (7)
そして、表示装置情報Ddが示す画像表示部111の表示幅W、横画素数NDW、画像データDinの横画素数NinWを用いて補正両眼視差量D2を単位変換し、補正視差量Cにする。
C = D2×NDW/W×NinW/NDW …(8)
Then, the corrected binocular parallax amount D2 is unit-converted using the display width W of the
C = D2 × N DW / W × N inW / N DW (8)
なお、式(8)は、画素数(横)NinW×(縦)NinHの左画像および右画像をフルスクリーン表示する場合に補正視差量Cを計算する式である。当該画像を等倍表示する場合は式(8)においてNinW/NDW=1になる。 Expression (8) is an expression for calculating the corrected parallax amount C when the left image and the right image having the number of pixels (horizontal) N inW × (vertical) N inH are displayed in full screen. When displaying the image at the same magnification, N inW / N DW = 1 in Expression (8).
次に、補正演算部103は、画像データDinに含まれる全対象物体に対する補正視差量Cを算出したか否かを判定し(S107)、補正視差量Cが未算出の対象物体Pがあれば、処理をステップS103に戻す。そして、全対象物体に対する補正視差量Cを算出すると、補正視差量Cを視差量補正部104に送信する(S108)。
Next, the
●視差量補正部
視差量補正部104は、画像データDinに含まれる対象物体Pに対応する補正視差量Cに基づき、当該対象物体Pの両眼視差量Dを補正した画像データDoutを出力する。
Parallax amount correction unit The parallax
図7により両眼視差量Dの補正方法を説明する。図7(a)に示すC-D<0の場合は、左画像の対象物体Pに該当するオブジェクトを(C-D)/2画素分、右に移動する。また、右画像の対象物体Pに該当するオブジェクトを(C-D)/2画素分、左に移動する。一方、図7(b)に示すC-D≧0の場合は、左画像の対象物体Pに該当するオブジェクトを(C-D)/2画素分、左に移動する。また、右画像の対象物体Pに該当するオブジェクトを(C-D)/2画素分、右に移動する。 A method for correcting the binocular parallax amount D will be described with reference to FIG. In the case of CD <0 shown in FIG. 7A, the object corresponding to the target object P in the left image is moved to the right by (C−D) / 2 pixels. Further, the object corresponding to the target object P in the right image is moved to the left by (C−D) / 2 pixels. On the other hand, in the case of CD ≧ 0 shown in FIG. 7B, the object corresponding to the target object P in the left image is moved to the left by (C−D) / 2 pixels. Further, the object corresponding to the target object P in the right image is moved to the right by (C−D) / 2 pixels.
視差量補正部104は、画像データDinに含まれる全対象物体に該当するオブジェクトについて図7に示す処理を行い、補正後の画像データDoutを出力する。
The parallax
補正後の画像データDoutは、画像表示部111に入力され、立体画像表示方式(フレームシーケンシャル方式、ラインバイラインなど)に応じて表示される。従って、立体画像における表示上の奥行量と知覚上の奥行量の非線形な関係を補正して、観察者が知覚する立体像の奥行を適切に再現して、観察者が知覚する立体像の箱庭感・書割感を防ぐことができる。
The corrected image data Dout is input to the
表示上の奥行量と知覚上の奥行量の関係を示す視覚特性情報Dvは、表示装置の画面サイズによって変化する。従って、画面サイズごとに視覚特性情報Dvを保持することが好ましい。また、上記では、視覚特性保持部112が視覚特性情報Dvを保持する例を説明したが、ユーザに立体像を観察させてキャリブレーションを行い、キャリブレーション結果のデータを視覚特性情報Dvに利用することもできる。
The visual characteristic information Dv indicating the relationship between the depth on display and the depth on perception varies depending on the screen size of the display device. Therefore, it is preferable to hold the visual characteristic information Dv for each screen size. In the above description, the example in which the visual
図8により視覚特性情報Dvのキャリブレーションを説明する。ユーザが操作部109を操作して、立体感のユーザ設定モードの起動を指示すると、CPU106は、例えば視覚特性保持部112が保持する図8に示すようなバー画像を画像表示部111に表示させる。バー画像は、両眼視差を有し、ユーザは立体像として認識する。ユーザは、知覚する立体像の奥行量を操作部109を操作して入力する。これにより、両眼視差量に対応する知覚上の奥行量が得られる。従って、式(1)(2)を用いて両眼視差量に対する表示上の奥行量を算出すれば、視覚特性情報Dvが得られる。なお、視覚特性情報Dvを取得するための立体像は、図8に示すバー画像に限らず、映像情報メディア学会が規定する立体映像標準チャートなどを用いてもよい。
The calibration of the visual characteristic information Dv will be described with reference to FIG. When the user operates the
以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。 The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.
実施例1のように表示上の奥行量Ldを知覚上で忠実に再現しようとすると、視覚の融像限界を超えて、立体視が不可能になる場合がある。そこで、実施例2においては、融像限界情報を用いて、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現する。 If the depth Ld on the display is to be faithfully reproduced perceptually as in the first embodiment, stereoscopic vision may be impossible beyond the fusion limit of vision. Thus, in the second embodiment, the depth of the display is linearly reproduced by compressing the depth on the display perceptually using the fusion limit information.
[装置の構成]
図9のブロック図により実施例2の画像処理装置100の構成例を示す。
[Device configuration]
A block diagram of FIG. 9 shows a configuration example of the
実施例2の画像処理装置100は、図1に示す構成に加えて、融像限界取得部801と画像信号出力部802を有する。また、画像表示部111は、対応する液晶シャッタ眼鏡803を備える。
The
融像限界取得部801は、詳細は後述するが、融像限界情報LDfをROM107やRAM108などから取得する。融像限界は、両眼視差画像における視差を人間の視覚が融像し、立体像として知覚することができる両眼視差の限界である。以下では、融像限界の単位をミリメートルとして説明する。
As will be described in detail later, the fusion
補正演算部103は、視覚特性情報Dv、表示装置情報Dd、観察距離Lsに加えて融像限界情報LDfを用いて、知覚上の奥行量Lvと、奥行推定部102が推定した表示上の奥行量Ldを等しくする補正視差量Cを算出する。
The
画像信号出力部802は、両眼視差量が補正された画像データDout、および、画像表示制御信号Sfを出力する。液晶シャッタ眼鏡803は、画像表示制御信号Sfに含まれる垂直同期信号Svに基づき動作し、観察者に立体像を知覚させるためのシャッタ動作を行う。
The image
[装置の動作]
視差量検出部101、奥行推定部102、観察距離取得部105、視覚特性保持部112の動作は、実施例1と同一であり、その詳細説明を省略する。
[Device operation]
The operations of the parallax
●融像限界取得部
融像限界取得部801は、補正演算部103から融像限界情報LDfを要求されると、例えばROM107から融像限界情報LDfを取得し、融像限界情報LDfを補正演算部103に送信する。
● fusional limit acquisition unit fusional
図2(b)に示すように、対象物体Pが画像表示部111の奥に知覚される場合、立体像として知覚することができる両眼視差量の限界を融像限界の最大値Df1とする。また、図2(a)に示す用に、対象物体Pが画像表示部111の手前に知覚される場合、立体像として知覚することができる両眼視差量の限界を融像限界の最小値Df2とする。なお、融像限界の視差量は、両眼視差量D1と同様に、立体像が画像表示部111の奥に知覚される場合を正、手前に知覚される場合を負とする。
As shown in FIG. 2 (b), when the target object P is perceived at the back of the
融像限界情報Dfは、上記の最大値Df1、最小値Df2に関する情報を含めば、3Dコンソーシアムの安全ガイドラインに提言された快適視差範囲などでもよい。あるいは、ユーザ設定モードにおいて、図8に示すような立体像を提示して、ユーザが操作部109により両眼視差量を増減させ、ユーザの融像限界を取得してもよい。
The fusion limit information Df may be a comfortable parallax range recommended in the safety guidelines of the 3D consortium as long as the information regarding the maximum value Df1 and the minimum value Df2 is included. Alternatively, in the user setting mode, a stereoscopic image as shown in FIG. 8 may be presented, and the user may increase or decrease the binocular parallax amount using the
ユーザは、図8に示すような立体像を観察し、両眼視差量を、操作部109の操作によって減少させる。そして、立体像として知覚できなくなると両眼視差量の減少を停止する。つまり、操作を停止した時点の両眼視差量を融像限界の最小値LDf2とする。同様に、ユーザは図8に示すような立体像を観察し、両眼視差量を、操作部109の操作によって増加させる。そして、立体像として知覚できなくなると両眼視差量の増加を停止する。つまり、操作を停止した時点の両眼視差量を融像限界の最大値LDf1とする。CPU106は、取得した最大値LDf1、最小値LDf2を融像限界情報LDfとして例えばRAM108の所定領域に格納し、RAM108を介して融像限界情報LDfを融像限界取得部801に供給する。
The user observes a stereoscopic image as shown in FIG. 8 and decreases the binocular parallax amount by operating the
●補正演算部
図10により表示上の奥行量Ld、知覚上の奥行量Lv、融像限界の関係を説明する。図10において、ハッチングを施した領域は、最大値LDf1と最小値LDf2の範囲外の融像限界を超える領域であり、この領域では融像ができず立体像を観察することができない。
Correction Operation Unit The relationship between the displayed depth Ld, perceptual depth Lv, and fusion limit will be described with reference to FIG. In FIG. 10, the hatched area is an area exceeding the fusion limit outside the range of the maximum value L Df 1 and the
例えば、図10(a)に示すように、ある対象物体A、B、Cに対する表示上の奥行量をLdA、LdB、LdCとすると、対象物体それぞれの知覚上の奥行量LvA、LvB、LvCは式(3)により下に示すようになる。
LvA = f(LdA)
LvB = f(LdB) …(9)
LvC = f(LdC)
For example, as shown in FIG. 10 (a), when the depth on the display for a certain target object A, B, C is Ld A , Ld B , Ld C , the perceived depth Lv A of each target object, Lv B and Lv C are as shown below according to equation (3).
Lv A = f (Ld A )
Lv B = f (Ld B )… (9)
Lv C = f (Ld C )
表示上の奥行量と知覚上の奥行量の間に差が発生し、図10(a)に示すように、対象物体A、B、Cの表示上の奥行量と知覚上の奥行量が対応しない。さらに、画像表示部111の位置を原点とする対象物体A、B、Cの相対的な距離関係にも、下式に示すように、ずれが生じる。
LdA-Ls:LdB-Ls:LdC-Ls ≠ LvA-Ls:LvB-Ls:LvC-Ls …(10)
There is a difference between the displayed depth and the perceived depth, and as shown in Fig. 10 (a), the displayed depth of the target objects A, B, and C corresponds to the perceived depth. do not do. Further, the relative distance relationship between the target objects A, B, and C with the position of the
Ld A -Ls: Ld B -Ls: Ld C -Ls ≠ Lv A -Ls: Lv B -Ls: Lv C -Ls (10)
さらに、対象物体Cは、表示上の奥行量LdCは融像限界を超え、立体像として知覚されない。従って、実施例1のように、表示上の奥行量LdCと知覚上の奥行量LvCが一致させても、対象物体Cは立体像として知覚されないことになる。 Further, the depth C Ld C on the display of the target object C exceeds the fusion limit and is not perceived as a stereoscopic image. Therefore, as in the first embodiment, even when the displayed depth amount Ld C and the perceived depth amount Lv C are matched, the target object C is not perceived as a stereoscopic image.
そこで、実施例2においては、全対象物体を融像限界に収め、かつ、対象物体の相対的な距離関係を知覚上で再現するようにスケーリングとシフトを行う。そのために、表示上の奥行量と知覚上の奥行量の間の差を補正する補正量を算出する。まず、ある対象物体の補正後の知覚上の奥行量Lv'を下式から算出する。
Lv' = fS(Ld) …(11)
Therefore, in the second embodiment, scaling and shifting are performed so that all target objects are within the fusion limit and the relative distance relationship of the target objects is perceptually reproduced. For this purpose, a correction amount for correcting the difference between the display depth amount and the perceptual depth amount is calculated. First, a perceptual depth Lv ′ after correction of a certain target object is calculated from the following equation.
Lv '= f S (Ld) (11)
式(11)を利用すると、対象物体A、B、Cの補正後の知覚上の奥行量Lv'A、Lv'B、Lv'Cは下式のように算出される。
Lv'A = fS(LdA)
Lv'B = fS(LdB) …(12)
Lv'C = fS(LdC)
When Expression (11) is used, perceptual depths Lv ′ A , Lv ′ B , and Lv ′ C after correction of the target objects A, B, and C are calculated as follows.
Lv ' A = f S (Ld A )
Lv ' B = f S (Ld B )… (12)
Lv ' C = f S (Ld C )
そして、補正後の知覚上の奥行量Lv'A、Lv'B、Lv'Cを得るために必要な表示上の補正奥行量Ld'は、式(5)により、下式のようになる。
Lv'A = f(Ld'A)
Lv'B = f(Ld'B)
Lv'C = f(Ld'C)
故に、
Ld'A = f-1(Lv'A)
Ld'B = f-1(Lv'B) …(13)
Lc'C = f-1(Lv'C)
Then, the corrected corrected depth amount Ld ′ necessary to obtain the corrected perceptual depth amounts Lv ′ A , Lv ′ B , and Lv ′ C is expressed by the following equation using Equation (5).
Lv ' A = f (Ld' A )
Lv ' B = f (Ld' B )
Lv ' C = f (Ld' C )
Therefore,
Ld ' A = f -1 (Lv' A )
Ld ' B = f -1 (Lv' B )… (13)
Lc ' C = f -1 (Lv' C )
式(13)によって得られるLd'A、Ld'B、Ld'Cが、対象物体A、B、Cに対して、表示上の相対的な距離関係を知覚上の奥行量で再現する場合の表示上の奥行量である。 When Ld ' A , Ld' B , Ld ' C obtained by Equation (13) reproduces the relative distance on the display with the perceptual depth of the target objects A, B, C This is the depth on the display.
図11のフローチャートにより補正演算部103の処理を説明する。補正演算部103は、観察距離Lsと視覚特性情報Dvを取得し(S301、S302)、融像限界取得部801から融像限界情報LDfを取得する(S901)。
The processing of the
次に、補正演算部103は、融像限界情報LDfと視覚特性情報Dvに基づき、式(2)を用いて、表示上の奥行量の最大値LDf1と最小値LDf2を計算する。さらに、最大値LDf1に対応する知覚上の奥行量Lv1と、最小値LDf2に対応する知覚上の奥行量Lv2を計算する(S902)。つまり、Lv1=f(LDf1)、Lv2=f(LDf2)を計算する。
Next, the
次に、補正演算部103は、奥行推定部102から全対象物体の表示上の奥行量Ldを受信し(S903)、受信した表示上の奥行量Ldの最大値をLdmax、最小値をLdminに設定する(S904)。図10(a)の例においては、LdCを最大値Ldmaxに、LdAを最小値Ldminに設定する。
Next, the
次に、補正演算部103は、表示装置情報Ddを取得し(S105)、表示上の奥行量の最大値Ldmaxと、表示上の融像限界の最大値LDf1の比較(S905)を行い。さらに、表示上の奥行量の最小値Ldminと、表示上の融像限界の最小値LDf2の比較(S906、S907)を行う。そして、比較結果に基づき、各対象物体の表示上の奥行量を融像限界内に収め、かつ、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現するための補正視差量の算出処理を次のように行う(S908-S911)。
if (Ldmax>LDf1 && Ldmin<LDf2)
算出処理1を行う(S908);
if (Ldmax>LDf1 && Ldmin≧LDf2)
算出処理2を行う(S909);
if (Ldmax≦LDf1 && Ldmin<LDf2)
算出処理3を行う(S910);
if (Ldmax≦LDf1 && Ldmin≧LDf2)
算出処理4を行う(S911);
Next, the
if (Ldmax> L Df 1 && Ldmin <L Df 2)
Perform calculation process 1 (S908);
if (Ldmax> L Df 1 && Ldmin ≧ L Df 2)
Perform calculation process 2 (S909);
if (Ldmax ≦ L Df 1 && Ldmin <L Df 2)
Perform calculation process 3 (S910);
if (Ldmax ≦ L Df 1 && Ldmin ≧ L Df 2)
Perform calculation process 4 (S911);
そして、補正演算部103は、補正視差量の算出処理によって得られた各対象物体の補正視差量Cを視差量補正部104に送信する(S108)。
Then, the
〔補正視差量の算出処理1〕
図12のフローチャートにより補正視差量の算出処理を説明する。
[Correction amount calculation process 1]
The correction parallax amount calculation process will be described with reference to the flowchart of FIG.
知覚上の奥行量の最大値Lv1は、表示上の奥行量の最大値Ldmaxに対応する知覚上の奥行量になる筈である。しかし、Ldmax>LDf1かつLdmin<LDf2の場合、Ldmaxが融像限界LDf1を超えているため、Lv1は融像限界内に収まらない。そこで、Lv1を融像限界の最大値LDf1に対応する知覚上の奥行量にシフトする。同様に、Lv2も、Ldminに対応する知覚上の奥行量から、融像限界の最小値LDf2にシフトする。つまり、補正演算部103は、式(3)により、Lv1=f(LDf1)、Lv2=f(LDf2)を算出する(S1201)。
The perceptual depth amount maximum value Lv1 should be a perceptual depth amount corresponding to the maximum depth value Ldmax on the display. However, when Ldmax> L Df 1 and Ldmin <
次に、補正演算部103は、表示上の奥行量Ldと観察距離Lsを比較する(S1202)。例えば、対象物体Aの表示上の奥行量をLdAとすると、LdAと観察距離Lsを比較する。
Next, the
Ld>Lsの場合、補正演算部103は、式(11)により、Ld、Ls、Ldmaxの表示上の奥行量の相対関係を知覚上で圧縮して立体像の奥行を線形に再現した知覚上の補正奥行量Lv'を算出する(S1203)。
In the case of Ld> Ls, the
例えば、図10(a)に示すように、対象物体Aの表示上の奥行量がLdAとし、LdAに対応するLv'をLv'Aとする。図13により表示上の奥行量LdA、知覚上の補正奥行量Lv'A、融像限界の関係を説明する。図13において、Lv'A、観察距離Ls、表示上の奥行量の最大値Ldmax、知覚上の奥行量の最大値Lv1、対象物体Aの表示上の奥行量LdAの間に下の関係が成り立つ。
LdA-Ls:Ldmax-Ls = Lv'A-Ls:Lv1-Ls …(14)
For example, as shown in FIG. 10 (a), the depth on display of the target object A is Ld A, and Lv ′ corresponding to Ld A is Lv ′ A. The relationship between the depth Ld A on the display, the corrected depth Lv ′ A on the perception, and the fusion limit will be described with reference to FIG. In FIG. 13, there is a lower relationship between Lv ′ A , observation distance Ls, maximum depth Ldmax on display, maximum perceptual depth Lv1, and depth Ld A on target object A. It holds.
Ld A -Ls: Ldmax-Ls = Lv ' A -Ls: Lv1-Ls (14)
式(14)から、知覚上の奥行量をスケーリングする式(11)は次のようになる。
Lv'A = (LdA - Ls)(Lv1 - Ls)/(Ldmax - Ls) + Ls …(15)
From Equation (14), Equation (11) for scaling the perceptual depth is as follows.
Lv ' A = (Ld A -Ls) (Lv1-Ls) / (Ldmax-Ls) + Ls… (15)
式(15)に示すように、対象物体Aの知覚上の補正奥行量Lv'Aは、表示上の奥行量LdAから算出される。つまり、式(15)により、各対象物体の表示上の奥行量を融像限界内に収め、かつ、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現する、知覚上の補正奥行量Lv'を算出する。 As shown in equation (15), the correction depth amount Lv 'A on perception of the object A is calculated from the depth amount Ld A on the display. In other words, according to Equation (15), the depth on the display of each target object is kept within the fusion limit, and the depth on the display is perceptually compressed to reproduce the depth of the stereoscopic image linearly. The upper correction depth amount Lv ′ is calculated.
一方、Ld≦Lsの場合、対象物体の表示上の奥行量Ldは観察距離Lsより手前にある。従って、補正演算部103は、式(11)により、Ld、Ls、Ldminの表示上の奥行量の相対関係を知覚上で再現するように補正した知覚上の補正奥行量Lv'を算出する(S1204)。
On the other hand, when Ld ≦ Ls, the depth Ld on the display of the target object is in front of the observation distance Ls. Therefore, the
例えば、対象物体Bの表示上の奥行量がLdBとし、LdBに対応するLv'をLv'Bとする。Lv'B、観察距離Ls、表示上の奥行量の最小値Ldmin、知覚上の奥行量の最小値Lv2、対象物体Bの表示上の奥行量LdBの間に下の関係が成り立つ。
Ls-LdB:Ls-Ldmin = Ls-Lv'B:Ls-Lv2 …(16)
For example, the depth amount on the display of the target object B is Ld B, and Lv ′ corresponding to Ld B is Lv ′ B. Lv 'B, the viewing distance Ls, the minimum value Ldmin depth amount on the display, the minimum value of the depth of perceptual Lv2, the relationship below between depth amounts Ld B on the display of the target object B holds.
Ls-Ld B : Ls-Ldmin = Ls-Lv ' B : Ls-Lv2 (16)
式(16)から、知覚上の奥行量をスケーリングする式(11)は次のようになる。
Lv'B = Ls - (Ls - LdB)(Ls - Lv2)/(Ls - Ldmin) …(17)
From equation (16), equation (11) for scaling the perceptual depth is as follows.
Lv ' B = Ls-(Ls-Ld B ) (Ls-Lv2) / (Ls-Ldmin)… (17)
式(17)に示すように、対象物体Bの知覚上の補正奥行量Lv'Bは、表示上の奥行量LdBから算出される。つまり、式(17)により、各対象物体の表示上の奥行量を融像限界内に収め、かつ、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現する、知覚上の補正奥行量Lv'を算出する。 As shown in Expression (17), the perceptual corrected depth Lv ′ B of the target object B is calculated from the displayed depth Ld B. In other words, according to Equation (17), the depth of display on each target object is kept within the fusion limit, and the depth of display is perceptually compressed to reproduce the depth of the stereoscopic image linearly. The upper correction depth amount Lv ′ is calculated.
次に、補正演算部103は、補正奥行量Lv'から補正奥行量Ld'を算出する(S1205)。例えば、知覚上の補正奥行量Lv'Aに対応する表示上の奥行量は、図13に示すように、Ld'Aになる。対象物体Aの表示上の補正奥行量Ld'Aは、式(4)により、Ld'A=f-1(Lv'A)から算出する。
Next, the
次に、補正演算部103は、補正視差量Cを算出し(S106)、全対象物体に対する補正視差量Cを算出したか否かを判定し(S107)、補正視差量Cが未算出の対象物体Pがあれば、処理をステップS1202に戻す。
Next, the
〔補正視差量の算出処理2〕
Ldmax>LDf1かつLdmin≧LDf2の場合、知覚上の奥行量の最大値Lv1を、表示上の奥行量の最大値Ldmaxに対応する知覚上の奥行量から、融像限界の最大値LDf1に対応する知覚上の奥行量にシフトする。つまり、式(3)によりLv1=f(Df1)を算出する(S1201)。
[Correction amount calculation process 2]
When Ldmax> L Df 1 and
また、表示上の奥行量の最小値Ldminは融像限界の最小値LDf2以上のため、知覚上の奥行量の最小値Lv2は、表示上の奥行量の最小値Ldminに対応する知覚上の奥行量にする。つまり、式(3)によりLv2=f(Ldmin)を算出する(S1201)。
In addition, since the minimum depth value Ldmin on the display is greater than or equal to the minimum
以降の処理は、算出処理1と同様である。 The subsequent processing is the same as the calculation processing 1.
〔補正視差量の算出処理3〕
Ldmax≦LDf1かつLdmin<LDf2の場合、表示上の奥行量の最大値Ldmaxは融像限界の最第値LDf1以下のため、知覚上の奥行量の最大値Lv1は、表示上の奥行量の最大値Ldmaxに対応する知覚上の奥行量にする。つまり、式(3)によりLv1=f(Ldmax)を算出する(S1201)。
[Correction amount calculation process 3]
When Ldmax ≤ L Df 1 and Ldmin <
また、知覚上の奥行量の最小値Lv2を、表示上の奥行量の最小値Ldminに対応する知覚上の奥行量から、融像限界の最小値LDf2に対応する知覚上の奥行量にシフトする。つまり、式(3)によりLv2=f(Df2)を算出する(S1201)。
The perceptual depth Lv2 is changed from the perceptual depth corresponding to the minimum depth Ldmin on the display to the
以降の処理は、算出処理1と同様である。 The subsequent processing is the same as the calculation processing 1.
〔補正視差量の算出処理4〕
Ldmax≦LDf1かつLdmin≧LDf2の場合、表示上の奥行量の最大値Ldmax、表示上の奥行量の最小値Ldminは融像限界内にある。従って、知覚上の奥行量の最大値Lv1は表示上の奥行量の最大値Ldmaxに対応する知覚上の奥行量にし、知覚上の奥行量の最小値Lv2は表示上の奥行量の最小値Ldminに対応する知覚上の奥行量にする。つまり、式(3)により、Lv1=f(Ldmax)、Lv2=f(Ldmin)を算出する(S1201)。
[Correction amount calculation process 4]
When Ldmax ≦ L Df 1 and
以降の処理は、算出処理1と同様である。 The subsequent processing is the same as the calculation processing 1.
●視差量補正部、画像信号出力部
視差量補正部104は、画像データDinに含まれる対象物体Pに対応する補正視差量Cに基づき、当該対象物体Pの両眼視差量Dを補正し、画像データDoutを出力する。また、水平同期信号、垂直同期信号などを含む画像表示制御信号Sfを画像信号出力部802に出力する。
Parallax amount correction unit, image signal output unitThe parallax
例えば、画像表示部111は、フィールドシーケンシャルと呼ばれる映像フォーマットの画像データDoutに基づき、時系列に左画像、右画像、左画像、右画像、…と交互に左右視差画像を表示する。画像信号出力部802は、画像表示制御信号Sfに基づき液晶シャッタ眼鏡803の液晶シャッタを制御する。つまり、左目透過/右目遮蔽、左目遮蔽/右目透過、左目透過/右目遮蔽、左目遮蔽/右目透過、…と交互に液晶シャッタの状態を切り替える。液晶シャッタの状態の切替は、画像表示制御信号Sfに含まれる垂直同期信号に同期し行われ、観察者の左目には左画像のみが、右目には右画像のみが観察され、立体像が観察される。なお、フレームシーケンシャル方式ではなく、ラインバイライン方式と円偏光眼鏡による立体像の観察でもよい。
For example, the
このように、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現することにより、融像限界を超える奥行による立体像の破綻を防ぎ、適切な立体像の観察を提供することができる。 In this way, the depth of the displayed image is perceptually compressed and the depth of the stereoscopic image is linearly reproduced, thereby preventing the collapse of the stereoscopic image due to the depth exceeding the fusion limit and providing appropriate stereoscopic image observation. can do.
また、上記では、画像表示部111を原点として知覚上の奥行量を相対的に再現したが、観察者の観察位置を原点として相対関係を再現する補正を行ってもよい。その場合、補正演算部103が演算に使用する式(8)(9)(10)(11)における観察距離Lsを零とすれば、観察位置を原点とする補正になる。
In the above description, the perceptual depth is relatively reproduced with the
[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (8)
前記画像データが表す画像を再現する表示面と前記画像の観察者の間の観察距離を取得する取得手段と、
前記視差量と前記観察距離に基づき、前記画像データが表す物体の表示上の奥行量を推定する推定手段と、
表示上の奥行量と知覚上の奥行量の関係を示す視覚特性を保持する保持手段と、
前記物体の表示上の奥行量、前記観察距離および前記視覚特性に基づき、前記物体の表示上の奥行量と知覚上の奥行量を合わせる視差量の補正量を演算する演算手段と、
前記補正量に基づき前記視差画像の視差量を補正する補正手段とを有することを特徴とする画像処理装置。 Detecting means for detecting a parallax amount of the parallax image from the image data for stereoscopic image display;
Obtaining means for obtaining an observation distance between a display surface that reproduces an image represented by the image data and an observer of the image;
Estimating means for estimating a depth amount on display of an object represented by the image data based on the parallax amount and the observation distance;
Holding means for holding a visual characteristic indicating a relationship between a display depth amount and a perceptual depth amount;
An arithmetic means for calculating a correction amount of a parallax amount that combines a depth amount on the display of the object and a perceptual depth amount based on the depth amount on the display of the object, the observation distance, and the visual characteristics;
An image processing apparatus comprising: correction means for correcting a parallax amount of the parallax image based on the correction amount.
前記演算手段は、前記物体の表示上の奥行量、前記観察距離、前記視覚特性および前記融像限界に基づき、前記補正量を演算することを特徴とする請求項1または請求項2に記載された画像処理装置。 Furthermore, it has a means for acquiring information indicating the fusion limit,
3. The calculation unit according to claim 1, wherein the calculation unit calculates the correction amount based on a depth amount on display of the object, the observation distance, the visual characteristic, and the fusion limit. Image processing device.
前記画像データが表す画像を再現する表示面と前記画像の観察者の間の観察距離を取得し、
前記視差量と前記観察距離に基づき、前記画像データが表す物体の表示上の奥行量を推定し、
表示上の奥行量と知覚上の奥行量の関係を示す視覚特性を保持し、
前記物体の表示上の奥行量、前記観察距離および前記視覚特性に基づき、前記物体の表示上の奥行量と知覚上の奥行量を合わせる視差量の補正量を演算し、
前記補正量に基づき前記視差画像の視差量を補正することを特徴とする画像処理方法。 Detecting the amount of parallax of the parallax image from the image data for stereoscopic image display;
Obtaining an observation distance between a display surface that reproduces an image represented by the image data and an observer of the image;
Based on the parallax amount and the observation distance, the depth amount on the display of the object represented by the image data is estimated,
It retains visual characteristics that show the relationship between the depth on the display and the depth on the perception,
Based on the depth on the display of the object, the observation distance, and the visual characteristics, a correction amount of the parallax amount that combines the depth on the display of the object and the perceptual depth is calculated,
An image processing method comprising correcting a parallax amount of the parallax image based on the correction amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265045A JP5926546B2 (en) | 2011-12-02 | 2011-12-02 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011265045A JP5926546B2 (en) | 2011-12-02 | 2011-12-02 | Image processing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013118515A true JP2013118515A (en) | 2013-06-13 |
JP5926546B2 JP5926546B2 (en) | 2016-05-25 |
Family
ID=48712785
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011265045A Expired - Fee Related JP5926546B2 (en) | 2011-12-02 | 2011-12-02 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5926546B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015132786A (en) * | 2014-01-16 | 2015-07-23 | コニカミノルタ株式会社 | Spectacle type display device |
JP2015520961A (en) * | 2012-04-19 | 2015-07-23 | トムソン ライセンシングThomson Licensing | Method and apparatus for correcting distortion error due to adjustment effect in stereoscopic display |
WO2015163350A1 (en) * | 2014-04-22 | 2015-10-29 | 株式会社ニコン | Image processing device, imaging device and image processing program |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03292091A (en) * | 1990-04-10 | 1991-12-24 | Seiko Epson Corp | Stereoscopic picture display device |
JPH08322004A (en) * | 1995-05-24 | 1996-12-03 | Olympus Optical Co Ltd | Stereoscopic display device |
JPH09154817A (en) * | 1995-12-05 | 1997-06-17 | Nippon Hoso Kyokai <Nhk> | Measurement device for three-dimensional feeling |
JPH09322197A (en) * | 1996-05-24 | 1997-12-12 | Olympus Optical Co Ltd | Stereoscopic vision display device |
JPH11164329A (en) * | 1997-11-27 | 1999-06-18 | Toshiba Corp | Stereoscopic video image display device |
JP2006333400A (en) * | 2005-05-30 | 2006-12-07 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image generating apparatus and program |
JP2007075338A (en) * | 2005-09-14 | 2007-03-29 | Olympus Medical Systems Corp | Medical three-dimensional observation equipment |
JP2010045584A (en) * | 2008-08-12 | 2010-02-25 | Sony Corp | Solid image correcting apparatus, solid image correcting method, solid image display, solid image reproducing apparatus, solid image presenting system, program, and recording medium |
JP2011064894A (en) * | 2009-09-16 | 2011-03-31 | Fujifilm Corp | Stereoscopic image display apparatus |
JP2012169759A (en) * | 2011-02-10 | 2012-09-06 | Sony Corp | Display device and display method |
-
2011
- 2011-12-02 JP JP2011265045A patent/JP5926546B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03292091A (en) * | 1990-04-10 | 1991-12-24 | Seiko Epson Corp | Stereoscopic picture display device |
JPH08322004A (en) * | 1995-05-24 | 1996-12-03 | Olympus Optical Co Ltd | Stereoscopic display device |
JPH09154817A (en) * | 1995-12-05 | 1997-06-17 | Nippon Hoso Kyokai <Nhk> | Measurement device for three-dimensional feeling |
JPH09322197A (en) * | 1996-05-24 | 1997-12-12 | Olympus Optical Co Ltd | Stereoscopic vision display device |
JPH11164329A (en) * | 1997-11-27 | 1999-06-18 | Toshiba Corp | Stereoscopic video image display device |
JP2006333400A (en) * | 2005-05-30 | 2006-12-07 | Nippon Hoso Kyokai <Nhk> | Stereoscopic image generating apparatus and program |
JP2007075338A (en) * | 2005-09-14 | 2007-03-29 | Olympus Medical Systems Corp | Medical three-dimensional observation equipment |
JP2010045584A (en) * | 2008-08-12 | 2010-02-25 | Sony Corp | Solid image correcting apparatus, solid image correcting method, solid image display, solid image reproducing apparatus, solid image presenting system, program, and recording medium |
JP2011064894A (en) * | 2009-09-16 | 2011-03-31 | Fujifilm Corp | Stereoscopic image display apparatus |
JP2012169759A (en) * | 2011-02-10 | 2012-09-06 | Sony Corp | Display device and display method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015520961A (en) * | 2012-04-19 | 2015-07-23 | トムソン ライセンシングThomson Licensing | Method and apparatus for correcting distortion error due to adjustment effect in stereoscopic display |
US10110872B2 (en) | 2012-04-19 | 2018-10-23 | Interdigital Madison Patent Holdings | Method and device for correcting distortion errors due to accommodation effect in stereoscopic display |
JP2015132786A (en) * | 2014-01-16 | 2015-07-23 | コニカミノルタ株式会社 | Spectacle type display device |
WO2015163350A1 (en) * | 2014-04-22 | 2015-10-29 | 株式会社ニコン | Image processing device, imaging device and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP5926546B2 (en) | 2016-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100667810B1 (en) | Apparatus for controlling depth of 3d picture and method therefor | |
KR101719980B1 (en) | Method for processing image of display system outputting 3 dimensional contents and display system enabling of the method | |
JP5059922B2 (en) | Stereoscopic image generating apparatus, stereoscopic image display apparatus, stereoscopic image adjustment method, program for causing computer to execute stereoscopic image adjustment method, and recording medium recording the program | |
EP2385454B1 (en) | Method for displaying a 3D settings menu and corresponding device | |
JP5625979B2 (en) | Display device, display method, and display control device | |
JP2011071898A (en) | Stereoscopic video display device and stereoscopic video display method | |
EP2586209A1 (en) | Method and apparatus for customizing 3-dimensional effects of stereo content | |
EP2432233A2 (en) | Display apparatus and image processing method thereof | |
US20120287252A1 (en) | Image display device, image display system, and image display method | |
US20140218472A1 (en) | Stereoscopic image display device and displaying method thereof | |
CN102143371A (en) | Image processing apparatus, 3D display apparatus and image processing method | |
JP2012204852A (en) | Image processing apparatus and method, and program | |
US20110310093A1 (en) | Display apparatus and 3d image acquisition-examination method thereof | |
JP5926546B2 (en) | Image processing apparatus and method | |
EP2661089A2 (en) | Method and apparatus for stereoscopic image display | |
JPWO2011086593A1 (en) | 3D image display device | |
JP6089383B2 (en) | Image processing apparatus, image processing method, and program | |
EP2629537A2 (en) | Display apparatus and method for adjusting three-dimensional effects | |
US20130293687A1 (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and program | |
JP2011223126A (en) | Three-dimensional video display apparatus and three-dimensional video display method | |
JP2011176823A (en) | Image processing apparatus, 3d display apparatus, and image processing method | |
US9253477B2 (en) | Display apparatus and method for processing image thereof | |
CN101895780B (en) | Stereo display method and stereo display device | |
US20120249526A1 (en) | Method and apparatus for processing and displaying a three-dimensional image | |
JP2011180779A (en) | Apparatus, method and program for generating three-dimensional image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160325 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160422 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5926546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |