JP2013118515A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2013118515A
JP2013118515A JP2011265045A JP2011265045A JP2013118515A JP 2013118515 A JP2013118515 A JP 2013118515A JP 2011265045 A JP2011265045 A JP 2011265045A JP 2011265045 A JP2011265045 A JP 2011265045A JP 2013118515 A JP2013118515 A JP 2013118515A
Authority
JP
Japan
Prior art keywords
depth
amount
display
image
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011265045A
Other languages
Japanese (ja)
Other versions
JP5926546B2 (en
Inventor
Takenori Ono
剛範 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011265045A priority Critical patent/JP5926546B2/en
Publication of JP2013118515A publication Critical patent/JP2013118515A/en
Application granted granted Critical
Publication of JP5926546B2 publication Critical patent/JP5926546B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To control a parallax amount while considering a visual property in human stereoscopy.SOLUTION: A parallax amount detection section 101 detects a parallax amount of a parallax image from image data for stereoscopic image display. An observation distance acquisition section 105 acquires an observation distance between a display screen on which an image represented by the image data are reproduced, and an observer of the image. A depth estimation section 102 estimates a depth amount on display of an object represented by the image data based on the parallax amount and the observation distance. A visual property holding section 112 holds a visual property indicating a relation between the depth amount on display and the depth amount on perception. A correction calculation section 103 calculates a correction amount of the parallax amount for matching the depth amount on display of the object and the depth amount on perception based on the depth amount on display of the object, the observation distance and the visual property. A parallax amount correction section 104 corrects the parallax amount of the parallax image based on the correction amount.

Description

本発明は、観察者が知覚する立体像の奥行を補正する画像処理に関する。   The present invention relates to image processing for correcting the depth of a stereoscopic image perceived by an observer.

近年、テレビジョンなどの表示装置における立体表示に関する研究が盛んである。   In recent years, research on stereoscopic display in a display device such as a television has been actively conducted.

立体表示技術においては、両眼視差を利用して、観察者に立体を知覚させる手法が一般的に用いられる。例えば、観察者に液晶シャッタ眼鏡を装着させる立体画像表示装置は、両眼視差を利用して立体像を知覚させるために、右目と左目に異なる画像を表示する方法を採用する。   In the stereoscopic display technology, a method of making a viewer perceive a stereoscopic using binocular parallax is generally used. For example, a stereoscopic image display apparatus that allows an observer to wear liquid crystal shutter glasses employs a method of displaying different images for the right eye and the left eye in order to perceive a stereoscopic image using binocular parallax.

両眼視差を利用する表示方法は、同一物体を対象にして右目用画像(以下、右画像)と左目用画像(以下、左画像)の間に視差量を設定する。視差量は、同一物体における右画像と左画像の間の画素のずれ量である。このずれ量と、表示画面のスクリーンサイズによって観察者が知覚する立体感が変化することが知られている。   A display method using binocular parallax sets a parallax amount between a right-eye image (hereinafter, right image) and a left-eye image (hereinafter, left image) targeting the same object. The parallax amount is a pixel shift amount between the right image and the left image in the same object. It is known that the stereoscopic effect perceived by the observer changes depending on the shift amount and the screen size of the display screen.

特許文献1は、違和感や不快感を覚えないように、スクリーンサイズに応じて視差を補正して立体感を制御する技術を開示する。   Patent Document 1 discloses a technique for controlling the stereoscopic effect by correcting the parallax according to the screen size so as not to feel uncomfortable or uncomfortable.

また、非特許文献1は、両眼視差を利用する立体視において、視差量と観察距離から予測される物体の表示上の奥行き距離(以下、表示上の奥行量)と、観察者が知覚する物体の奥行き距離(以下、知覚上の奥行量)の関係が非線形であることを提示する。   In Non-Patent Document 1, in stereoscopic vision using binocular parallax, the viewer perceives the depth distance on the display of the object (hereinafter referred to as the depth on display) predicted from the parallax amount and the observation distance. It is presented that the relationship between the depth distances of objects (hereinafter referred to as perceptual depth) is non-linear.

従来の立体表示技術は、非特許文献1が提示する表示上の奥行量と知覚上の奥行量の非線形性を補正しない。そのため、観察者は、知覚する立体像に箱庭感・書割感を覚える場合がある。   The conventional stereoscopic display technology does not correct the non-linearity between the display depth amount and the perceptual depth amount presented by Non-Patent Document 1. For this reason, the observer may feel a sense of miniature garden space and a sense of book splitting in the perceived stereoscopic image.

特開2010-045584号公報JP 2010-045584 A

東巧・中溝幸夫「輻輳と網膜像差と知覚された奥行き量の関係」日本視覚学会誌 VISION、Vol. 8、日本、日本視覚学会、1996年4月、87-95頁Takumi Tatsumi, Yukio Nakamizo “Relationship between Convergence, Retinal Image Difference and Perceived Depth”, Journal of the Visual Society of Japan VISION, Vol. 8, Japan, Visual Society of Japan, April 1996, pages 87-95

本発明は、人間の立体視における視覚特性を考慮して視差量を制御することを目的とする。   An object of the present invention is to control the amount of parallax in consideration of visual characteristics in human stereoscopic vision.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる画像処理は、立体画像表示用の画像データから視差画像の視差量を検出し、前記画像データが表す画像を再現する表示面と前記画像の観察者の間の観察距離を取得し、前記視差量と前記観察距離に基づき、前記画像データが表す物体の表示上の奥行量を推定し、表示上の奥行量と知覚上の奥行量の関係を示す視覚特性を保持し、前記物体の表示上の奥行量、前記観察距離および前記視覚特性に基づき、前記物体の表示上の奥行量と知覚上の奥行量を合わせる視差量の補正量を演算し、前記補正量に基づき前記視差画像の視差量を補正することを特徴とする。   The image processing according to the present invention detects a parallax amount of a parallax image from image data for stereoscopic image display, and obtains an observation distance between a display surface that reproduces an image represented by the image data and an observer of the image. , Based on the parallax amount and the observation distance, estimating a display depth amount of the object represented by the image data, holding a visual characteristic indicating a relationship between a display depth amount and a perceptual depth amount, and the object Based on the display depth amount, the observation distance, and the visual characteristics, a parallax amount correction amount that combines the depth amount on display of the object and the perceptual depth amount is calculated, and the parallax image is calculated based on the correction amount. It is characterized by correcting the amount of parallax.

本発明によれば、人間の立体視における視覚特性を考慮して視差量を制御して、立体像の奥行を知覚上で線形に再現することができる。その結果、観察者が覚える箱庭感・書割感を抑制することができる。   According to the present invention, the depth of a stereoscopic image can be linearly reproduced perceptually by controlling the amount of parallax in consideration of the visual characteristics in human stereoscopic vision. As a result, it is possible to suppress the feeling of miniature garden and the sense of book splitting that the observer remembers.

実施例の画像処理装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment. 両眼視差量D1と対象物体の距離の関係を説明する図。The figure explaining the relationship between binocular parallax amount D1 and the distance of a target object. 知覚上の奥行距離Lvを説明する図。The figure explaining perceptual depth distance Lv. 表示上の奥行量Ldと知覚上の奥行量Lvの関係を説明する図。The figure explaining the relationship between depth amount Ld on display and depth amount Lv on perception. 補正演算部の処理を説明するフローチャート。The flowchart explaining the process of a correction | amendment calculating part. 観察距離Lsごとに両眼視差量D1、表示上の奥行量Ld、知覚上の奥行量Lvの対応を示すテーブルを示す図。The figure which shows the table which shows correspondence of binocular parallax amount D1, the depth amount Ld on display, and the perceived depth amount Lv for every observation distance Ls. 両眼視差量Dの補正方法を説明する図。The figure explaining the correction method of binocular parallax amount D. 視覚特性情報Dvのキャリブレーションを説明する図。The figure explaining the calibration of visual characteristic information Dv. 実施例2の画像処理装置の構成例を示すブロック図。FIG. 3 is a block diagram illustrating a configuration example of an image processing apparatus according to a second embodiment. 表示上の奥行量Ld、知覚上の奥行量Lv、融像限界の関係を説明する図。The figure explaining the depth amount Ld on a display, the perceived depth amount Lv, and the fusion limit. 補正演算部の処理を説明するフローチャート。The flowchart explaining the process of a correction | amendment calculating part. 補正視差量の算出処理を説明するフローチャート。The flowchart explaining the calculation process of correction | amendment parallax amount. 表示上の奥行量LdA、知覚上の補正奥行量Lv'A、融像限界の関係を説明する図。Diagram illustrating depth amount Ld A on the display, the correction depth amount Lv 'A perceptual, the relationship between the fusion limit.

以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。以下では、液晶シャッタ眼鏡などを装着した観察者に立体像の知覚を提供するシステムに適用可能な画像処理装置を説明する。画像処理装置は、観察者が知覚する立体像の奥行を補正する機能を有する。   Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings. In the following, an image processing apparatus that can be applied to a system that provides perception of a stereoscopic image to an observer wearing liquid crystal shutter glasses will be described. The image processing apparatus has a function of correcting the depth of a stereoscopic image perceived by an observer.

[装置の構成]
図1のブロック図により実施例の画像処理装置100の構成例を示す。
[Device configuration]
The block diagram of FIG. 1 shows a configuration example of the image processing apparatus 100 of the embodiment.

画像処理装置100は、映像信号Dinを入力し、映像信号Doutを画像表示部111に出力する。なお、後述する奥行量の補正が行われない場合、映像信号は画像処理装置100をスルーする。画像表示部111は、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機ELディスプレイ、プロジェクタなどであり、所定の立体画像表示方式に基づき観察者に立体像の知覚を提供する。   The image processing apparatus 100 receives the video signal Din and outputs the video signal Dout to the image display unit 111. Note that when the depth amount correction described later is not performed, the video signal passes through the image processing apparatus 100. The image display unit 111 is a liquid crystal display (LCD), a plasma display, an organic EL display, a projector, or the like, and provides a viewer with a stereoscopic image perception based on a predetermined stereoscopic image display method.

CPU106は、RAM108をワークメモリとして、ROM107などに格納された制御プログラムを実行し、システムバス113を介して後述する構成を制御する。また、CPU106は、ボタン、キーボード、タッチパネルなどの操作部109を介して、ユーザ指示やユーザが入力する各種情報を取得する。   The CPU 106 executes a control program stored in the ROM 107 or the like using the RAM 108 as a work memory, and controls a configuration to be described later via the system bus 113. In addition, the CPU 106 acquires a user instruction and various information input by the user via the operation unit 109 such as a button, a keyboard, or a touch panel.

観察距離取得部105は、ROM107に格納された、観察者(通常はユーザ)と画像表示部111の表示面の間の距離(観察距離)Lsを取得し、RAM108に格納する。この観察距離Lsは、ITU-R(国際無線通信諮問委員会)が規定する標準観察距離、つまり画像表示部111の画面の高さの三倍から六倍の距離である。観察距離Lsは、ユーザが操作部109を操作して観察距離Lsを入力してもよいし、CPU106が距離センサ110に測定を指示して取得してもよい。CPU106は入力または取得した観察距離LsをRAM108の所定領域に格納し、RAM108を介して観察距離Lsを観察距離取得部105に供給する。   The observation distance acquisition unit 105 acquires the distance (observation distance) Ls between the observer (usually a user) and the display surface of the image display unit 111 stored in the ROM 107 and stores it in the RAM 108. This observation distance Ls is a standard observation distance defined by the ITU-R (International Radio Communications Advisory Committee), that is, a distance that is three to six times the screen height of the image display unit 111. The observation distance Ls may be acquired by the user operating the operation unit 109 to input the observation distance Ls, or by the CPU 106 instructing the distance sensor 110 to perform measurement. The CPU 106 stores the input or acquired observation distance Ls in a predetermined area of the RAM 108, and supplies the observation distance Ls to the observation distance acquisition unit 105 via the RAM 108.

距離センサ110は、赤外線レーザを画像表示部111の表示面に正対する方向へ照射し、その反射光を受信センサが受信するまでの時間から観察距離Lsを測定する。距離センサ110は、測定結果の観察距離Lsを観察距離取得部105またはCPU106に送信し、観察距離取得部105またはCPU106は受信した観察距離LsをRAM108の所定領域に格納する。なお、観察距離の測定方法は、これに限らず、例えば多眼カメラによる三角測量によって測定してもよい。   The distance sensor 110 irradiates an infrared laser in a direction facing the display surface of the image display unit 111, and measures the observation distance Ls from the time until the reception sensor receives the reflected light. The distance sensor 110 transmits the observation distance Ls as a measurement result to the observation distance acquisition unit 105 or the CPU 106, and the observation distance acquisition unit 105 or CPU 106 stores the received observation distance Ls in a predetermined area of the RAM 108. Note that the method of measuring the observation distance is not limited to this. For example, the observation distance may be measured by triangulation using a multi-view camera.

視差量検出部101は、左画像と右画像からなる立体画像表示用の画像データDinが入力されると、画像データDinから両眼視差画像の両眼視差量Dを検出する。奥行推定部102は、両眼視差量D、画像データDin、表示装置情報Dd、観察距離Lsを入力して、立体画像の飛び出しや引き込みで表現される、表示上の奥行量Ldを推定する。   The parallax amount detection unit 101 detects the binocular parallax amount D of the binocular parallax image from the image data Din when image data Din for stereoscopic image display composed of a left image and a right image is input. The depth estimation unit 102 inputs the binocular parallax amount D, the image data Din, the display device information Dd, and the observation distance Ls, and estimates the display depth amount Ld expressed by popping out or pulling in a stereoscopic image.

表示上の奥行量Ldは、あるオブジェクトにおける両眼視差量、観察距離、観察者の瞳孔間距離から算出される対象物体の奥行距離のことである。なお、対象物体は、左画像と右画像の両方に存在する同一のオブジェクトのことである。   The depth Ld on the display is the depth distance of the target object calculated from the binocular parallax amount, the observation distance, and the observer's interpupillary distance in a certain object. The target object is the same object that exists in both the left image and the right image.

表示装置情報Ddは、ROM107などに格納された、画像表示部111の仕様に関する情報であり、画像表示部111の表示可能領域のサイズ(幅W[mm]×高さH[mm])や表示可能な画素数(横NDW×縦NDH)に関する情報を含む。また、表示装置情報Ddとして、例えば拡張ディスプレイ識別データ(extended display identification data: EDID)を画像表示部111から取得してもよい。なお、EDIDは、VESA (Video Electronics Standards Association)によって規定されている。また、表示装置情報Ddは、上記情報のほかに、液晶ディスプレイやプロジェクタなどの表示方式を識別するための情報を含むことが望ましい。 The display device information Dd is information related to the specifications of the image display unit 111 stored in the ROM 107 or the like, and the size (width W [mm] × height H [mm]) of the displayable area of the image display unit 111 and the display Contains information on the number of possible pixels (width N DW × length N DH ). Further, as the display device information Dd, for example, extended display identification data (EDID) may be acquired from the image display unit 111. The EDID is defined by VESA (Video Electronics Standards Association). In addition to the above information, the display device information Dd desirably includes information for identifying a display method such as a liquid crystal display or a projector.

視覚特性保持部112は、視覚特性情報Dvを保持するメモリである。視覚特性情報Dvは、表示上の奥行量Ldと知覚上の奥行量Lvの関係を表す。例えば、表示上の奥行量Ldと知覚上の奥行量Lvの関係を示すテーブルでもよいし、表示上の奥行量Ldから知覚上の奥行量Lvを算出する式でもよい。   The visual characteristic holding unit 112 is a memory that holds visual characteristic information Dv. The visual characteristic information Dv represents the relationship between the displayed depth amount Ld and the perceptual depth amount Lv. For example, a table indicating the relationship between the displayed depth amount Ld and the perceptual depth amount Lv may be used, or an expression for calculating the perceptual depth amount Lv from the displayed depth amount Ld may be used.

補正演算部103は、視覚特性情報Dv、表示装置情報Dd、観察距離Lsを用いて、知覚上の奥行量Lvと、奥行推定部102が推定した表示上の奥行量Ldを合わせる補正視差量Cを算出する。視差量補正部104は、補正視差量Cに基づき、画像データDinの両眼視差量Dを補正し、補正後の画像データDoutを画像表示部111へ出力する。   The correction calculation unit 103 uses the visual characteristic information Dv, the display device information Dd, and the observation distance Ls to correct the perceptual depth Lv and the corrected parallax amount C that combines the display depth Ld estimated by the depth estimation unit 102. Is calculated. The parallax amount correcting unit 104 corrects the binocular parallax amount D of the image data Din based on the corrected parallax amount C, and outputs the corrected image data Dout to the image display unit 111.

[装置の動作]
画像処理装置100は、外部の立体差画像再生装置やディジタル放送受信機などから画像データDinを入力する。
[Device operation]
The image processing apparatus 100 receives image data Din from an external stereoscopic image reproduction apparatus, a digital broadcast receiver, or the like.

●視差量検出部
視差量検出部101は、公知の方法により、画像データDinの左画像と右画像それぞれからオブジェクトを抽出し、対象物体の表示面上の画素のずれ量を両眼視差量Dとして検出する。そして、対象物体ごとに、両眼視差量Dを奥行推定部102に送信する。
Parallax amount detection unit The parallax amount detection unit 101 extracts an object from each of the left image and the right image of the image data Din by a known method, and determines the amount of pixel shift on the display surface of the target object as the binocular disparity amount D. Detect as. Then, the binocular parallax amount D is transmitted to the depth estimation unit 102 for each target object.

●奥行推定部
奥行推定部102は、各対象物体の両眼視差量D、表示装置情報Dd、観察距離Lsを入力し、式(1)により、各対象物体の表示上の奥行量Ldを算出する。例えば、表示装置情報Ddが示す画像表示部111の表示幅と横画素数、および、画像データDinの横画素数を用いて、両眼視差量Dの単位を画素数からミリメートルに変換した両眼視差量D1を計算する。
D1 = D×W/NDW×NDW/NinW …(1)
ここで、Wは画像表示部111の表示幅[mm]、
NDWは画像表示部111の横画素数、
NinWは画像データDinの横画素数。
Depth estimation unit Depth estimation unit 102 inputs binocular parallax amount D, display device information Dd, and observation distance Ls of each target object, and calculates depth Ld on the display of each target object using equation (1) To do. For example, using the display width and the number of horizontal pixels of the image display unit 111 indicated by the display device information Dd and the number of horizontal pixels of the image data Din, the unit of the binocular parallax amount D is converted from the number of pixels to millimeters. The amount of parallax D1 is calculated.
D1 = D × W / N DW × N DW / N inW (1)
Here, W is the display width [mm] of the image display unit 111,
N DW is the number of horizontal pixels of the image display unit 111,
N inW is the number of horizontal pixels of the image data Din.

なお、式(1)は、画素数(横)NinW×(縦)NinHの左画像および右画像をフルスクリーン表示する場合に両眼視差量D1を計算する式である。当該画像を等倍表示する場合は式(1)においてNDW/NinW=1になる。 Expression (1) is an expression for calculating the binocular parallax amount D1 when the left image and the right image having the number of pixels (horizontal) N inW × (vertical) N inH are displayed in full screen. When displaying the image at the same magnification, N DW / N inW = 1 in Equation (1).

次に、奥行推定部102は、両眼視差量D1に対する表示上の奥行量Ldを算出する。図2により両眼視差量D1と対象物体の距離の関係を説明する。観察者の瞳孔間距離をde[mm]とすると、表示上の奥行量Ldは、下式により算出される。奥行推定部102は、対象物体Pごとに得られた表示上の奥行量Ldを補正演算部103に送信する。
図2(a)において、de:D1 = Ld:Ld-Ls
∴ Ld = de×Ls/(de - D1) …(2)
Next, the depth estimation unit 102 calculates a display depth amount Ld with respect to the binocular parallax amount D1. The relationship between the binocular parallax amount D1 and the distance between the target objects will be described with reference to FIG. If the distance between the pupils of the observer is de [mm], the depth amount Ld on the display is calculated by the following equation. The depth estimation unit 102 transmits the display depth amount Ld obtained for each target object P to the correction calculation unit 103.
In Fig. 2 (a), de: D1 = Ld: Ld-Ls
∴ Ld = de × Ls / (de-D1)… (2)

ただし、D1は、図2(a)に示すように、対象物体Pが画像表示部111より手前の場合は負に、図2(b)に示すように、対象物体Pが画像表示部111より後ろの場合は正になる。これは、左画像から抽出したオブジェクトが、右画像から抽出した同一オブジェクトよりも左にある場合に正、右にある場合に負と言える。また、式(2)から分かるように、対象物体Pの表示上の奥行量Ldが観察距離Lsに等しい(Ld=Ls)の場合は両眼視差量D1は零になる。なお、瞳孔間距離deは一般的な成人の場合は65mmとされるが、これに限るものではなく、ユーザ(観察者)が操作部109により入力してもよい。   However, D1 is negative when the target object P is in front of the image display unit 111 as shown in FIG. 2 (a), and the target object P is from the image display unit 111 as shown in FIG. 2 (b). If it is behind, it is positive. This can be said to be positive when the object extracted from the left image is to the left of the same object extracted from the right image, and negative when it is to the right. Further, as can be seen from Expression (2), when the depth Ld on the display of the target object P is equal to the observation distance Ls (Ld = Ls), the binocular parallax amount D1 is zero. Note that the inter-pupil distance de is 65 mm in the case of a general adult, but is not limited to this, and the user (observer) may input the operation unit 109.

●観察距離取得部、視覚特性保持部
観察距離取得部105は、奥行推定部102や補正演算部103から観察距離Lsを要求されると、RAM108に格納された観察距離Lsを奥行推定部102や補正演算部103に送信する。また、視覚特性保持部112は、補正演算部103から視覚特性情報Dvを要求されると、保持する視覚特性情報Dvを補正演算部103に送信する。
Observation distance acquisition unit, visual characteristic holding unit When the observation distance acquisition unit 105 requests the observation distance Ls from the depth estimation unit 102 or the correction calculation unit 103, the observation distance Ls stored in the RAM 108 is converted into the depth estimation unit 102 or It transmits to the correction | amendment calculating part 103. Further, when the visual characteristic information Dv is requested from the correction calculation unit 103, the visual characteristic holding unit 112 transmits the held visual characteristic information Dv to the correction calculation unit 103.

●補正演算部
補正演算部103は、視覚特性保持部112から入力した視覚特性情報Dvを用いて、奥行推定部102から入力した表示上の奥行量Ldから知覚上の奥行量Lvを得る。そして、画像データDin内の対象物体Pに対する視差量の補正量Cを算出する。
Correction Calculation Unit The correction calculation unit 103 uses the visual characteristic information Dv input from the visual characteristic holding unit 112 to obtain a perceptual depth Lv from the displayed depth Ld input from the depth estimation unit 102. Then, a correction amount C of the parallax amount with respect to the target object P in the image data Din is calculated.

図3により知覚上の奥行距離Lvを説明する。図3(a)(b)に示すように、知覚上の奥行距離Lvは視覚特性の影響を受け、表示上の奥行距離Ldとの差が知覚される。図4により表示上の奥行量Ldと知覚上の奥行量Lvの関係を説明する。知覚上の奥行量Lvと表示上の奥行量Ldの関係は次のようになる。
Lv = f(Ld) …(3)
ここで、fは視覚特性を表す関数。
The perceptual depth distance Lv will be described with reference to FIG. As shown in FIGS. 3 (a) and 3 (b), the perceived depth distance Lv is affected by visual characteristics, and a difference from the displayed depth distance Ld is perceived. The relationship between the displayed depth amount Ld and the perceptual depth amount Lv will be described with reference to FIG. The relationship between the perceived depth Lv and the displayed depth Ld is as follows.
Lv = f (Ld) (3)
Here, f is a function representing visual characteristics.

例えば、ある対象物体Pの表示上の奥行量をLd1とすると、表示上の奥行量とは異なる奥行量Lv1が知覚される。言い替えれば、知覚上の奥行量をLd1にするために必要な表示上の奥行量Ld1'は下式で表される。つまり、Ld1'は、表示上の奥行量と知覚上の奥行量の差を補正した奥行量である。
Ld1' = f-1(Ld1) …(4)
For example, when the depth amount on the display of a certain target object P is Ld1, a depth amount Lv1 different from the depth amount on the display is perceived. In other words, the depth amount Ld1 ′ on the display necessary for setting the perceptual depth amount to Ld1 is expressed by the following equation. That is, Ld1 ′ is a depth amount obtained by correcting the difference between the displayed depth amount and the perceptual depth amount.
Ld1 '= f -1 (Ld1)… (4)

図5のフローチャートにより補正演算部103の処理を説明する。補正演算部103は、観察距離Lsを取得し(S101)、視覚特性保持部112から観察距離Lsに対応する視覚特性情報Dvを取得する(S102)。   The processing of the correction calculation unit 103 will be described with reference to the flowchart of FIG. The correction calculation unit 103 acquires the observation distance Ls (S101), and acquires visual characteristic information Dv corresponding to the observation distance Ls from the visual characteristic holding unit 112 (S102).

視覚特性情報Dvが表示上の奥行量Ldと知覚上の奥行量Lvの関係を表す式(3)の関数fである場合、関数fは、観察距離Lsごとに予め用意され、視覚特性保持部112に保持されている。つまり、補正演算部103は、観察距離Lsに最も近い観察距離に対応する関数fを視覚特性保持部112から取得するが、例えば下式に示す関数fを取得する。
Lv = f(Ld) = (Ld - Ls)k + Ls …(5)
ここで、kは観察距離Lsに基づく係数、
例えば、観察距離Ls=900 mm、係数k=0.95。
When the visual characteristic information Dv is the function f of the expression (3) representing the relationship between the depth Ld on the display and the perceptual depth Lv, the function f is prepared in advance for each observation distance Ls, and the visual characteristic holding unit 112. That is, the correction calculation unit 103 acquires the function f corresponding to the observation distance closest to the observation distance Ls from the visual characteristic holding unit 112, and acquires, for example, the function f represented by the following equation.
Lv = f (Ld) = (Ld-Ls) k + Ls… (5)
Where k is a coefficient based on the observation distance Ls,
For example, observation distance Ls = 900 mm, coefficient k = 0.95.

視覚特性情報Dvは、関数fに限るわけではない。図6により観察距離Lsごとに両眼視差量D1、表示上の奥行量Ld、知覚上の奥行量Lvの対応を示すテーブルを示す。つまり、補正演算部103は、観察距離Lsに対応するテーブルを取得してもよい。なお、観察距離Lsに対応するテーブルが用意されていない場合は、観察距離Lsに最も近いテーブルを選択してもよいし、観察距離Lsを挟むテーブルの間の補間演算により観察距離Lsに対応するテーブルを生成してもよい。   The visual characteristic information Dv is not limited to the function f. FIG. 6 shows a table indicating correspondence between the binocular parallax amount D1, the display depth amount Ld, and the perceptual depth amount Lv for each observation distance Ls. That is, the correction calculation unit 103 may acquire a table corresponding to the observation distance Ls. If a table corresponding to the observation distance Ls is not prepared, the table closest to the observation distance Ls may be selected, or the table corresponding to the observation distance Ls may be interpolated between the tables sandwiching the observation distance Ls. A table may be generated.

次に、補正演算部103は、注目する対象物体Pの表示上の奥行量Ldを受信する(S103)。そして、視覚特性情報Dv(関数fやテーブル)により、表示上の奥行量がLdの対象物体Pを、知覚上の奥行量Lv=Ldとして忠実に再現する補正奥行量Ld'を算出する(S104)。例えば、対象物体Pの表示上の奥行量Ld1が2000 mmとすると、知覚上の奥行量Lvを2000 mmにするような、補正奥行量Ld1'を算出する。
式(4)(5)より、
Ld1' = f-1(Ld1)
= (Ld1 - Ls)1/k + Ls
Ld1 = 2000、Ls = 900、k = 0.95とすると、
Ld1' = (2000 - 900)1/0.95 + 900 = 2490 …(6)
Next, the correction calculation unit 103 receives the depth Ld on the display of the target object P of interest (S103). Then, based on the visual characteristic information Dv (function f or table), a corrected depth Ld ′ that faithfully reproduces the target object P whose depth on display is Ld as perceptual depth Lv = Ld is calculated (S104). ). For example, when the depth Ld1 on the display of the target object P is 2000 mm, the corrected depth Ld1 ′ is calculated so that the perceptual depth Lv is 2000 mm.
From equations (4) and (5),
Ld1 '= f -1 (Ld1)
= (Ld1-Ls) 1 / k + Ls
If Ld1 = 2000, Ls = 900, k = 0.95,
Ld1 '= (2000-900) 1 / 0.95 + 900 = 2490… (6)

次に、補正演算部103は、ROM107などから表示装置情報Ddを取得し(S105)、表示装置情報Ddと補正奥行量Ld1'に基づき補正視差量Cを算出する(S106)。補正奥行量Cの単位は画素である。そこで、下式により補正奥行量Ld1'に必要な補正両眼視差量D2[mm]を算出する。
式(2)より、
D2 = de(Ld1' - Ls)/Ld1' …(7)
Next, the correction calculation unit 103 acquires the display device information Dd from the ROM 107 or the like (S105), and calculates the corrected parallax amount C based on the display device information Dd and the corrected depth Ld1 ′ (S106). The unit of the corrected depth amount C is a pixel. Therefore, the corrected binocular parallax amount D2 [mm] necessary for the corrected depth amount Ld1 ′ is calculated by the following equation.
From equation (2)
D2 = de (Ld1 '-Ls) / Ld1'… (7)

そして、表示装置情報Ddが示す画像表示部111の表示幅W、横画素数NDW、画像データDinの横画素数NinWを用いて補正両眼視差量D2を単位変換し、補正視差量Cにする。
C = D2×NDW/W×NinW/NDW …(8)
Then, the corrected binocular parallax amount D2 is unit-converted using the display width W of the image display unit 111 indicated by the display device information Dd, the horizontal pixel number N DW , and the horizontal pixel number N inW of the image data Din, and the corrected parallax amount C To.
C = D2 × N DW / W × N inW / N DW (8)

なお、式(8)は、画素数(横)NinW×(縦)NinHの左画像および右画像をフルスクリーン表示する場合に補正視差量Cを計算する式である。当該画像を等倍表示する場合は式(8)においてNinW/NDW=1になる。 Expression (8) is an expression for calculating the corrected parallax amount C when the left image and the right image having the number of pixels (horizontal) N inW × (vertical) N inH are displayed in full screen. When displaying the image at the same magnification, N inW / N DW = 1 in Expression (8).

次に、補正演算部103は、画像データDinに含まれる全対象物体に対する補正視差量Cを算出したか否かを判定し(S107)、補正視差量Cが未算出の対象物体Pがあれば、処理をステップS103に戻す。そして、全対象物体に対する補正視差量Cを算出すると、補正視差量Cを視差量補正部104に送信する(S108)。   Next, the correction calculation unit 103 determines whether or not the corrected parallax amount C has been calculated for all target objects included in the image data Din (S107), and there is a target object P for which the corrected parallax amount C has not been calculated. Then, the process returns to step S103. When the corrected parallax amount C for all target objects is calculated, the corrected parallax amount C is transmitted to the parallax amount correcting unit 104 (S108).

●視差量補正部
視差量補正部104は、画像データDinに含まれる対象物体Pに対応する補正視差量Cに基づき、当該対象物体Pの両眼視差量Dを補正した画像データDoutを出力する。
Parallax amount correction unit The parallax amount correction unit 104 outputs image data Dout obtained by correcting the binocular parallax amount D of the target object P based on the corrected parallax amount C corresponding to the target object P included in the image data Din. .

図7により両眼視差量Dの補正方法を説明する。図7(a)に示すC-D<0の場合は、左画像の対象物体Pに該当するオブジェクトを(C-D)/2画素分、右に移動する。また、右画像の対象物体Pに該当するオブジェクトを(C-D)/2画素分、左に移動する。一方、図7(b)に示すC-D≧0の場合は、左画像の対象物体Pに該当するオブジェクトを(C-D)/2画素分、左に移動する。また、右画像の対象物体Pに該当するオブジェクトを(C-D)/2画素分、右に移動する。   A method for correcting the binocular parallax amount D will be described with reference to FIG. In the case of CD <0 shown in FIG. 7A, the object corresponding to the target object P in the left image is moved to the right by (C−D) / 2 pixels. Further, the object corresponding to the target object P in the right image is moved to the left by (C−D) / 2 pixels. On the other hand, in the case of CD ≧ 0 shown in FIG. 7B, the object corresponding to the target object P in the left image is moved to the left by (C−D) / 2 pixels. Further, the object corresponding to the target object P in the right image is moved to the right by (C−D) / 2 pixels.

視差量補正部104は、画像データDinに含まれる全対象物体に該当するオブジェクトについて図7に示す処理を行い、補正後の画像データDoutを出力する。   The parallax amount correction unit 104 performs the process shown in FIG. 7 on the objects corresponding to all target objects included in the image data Din, and outputs the corrected image data Dout.

補正後の画像データDoutは、画像表示部111に入力され、立体画像表示方式(フレームシーケンシャル方式、ラインバイラインなど)に応じて表示される。従って、立体画像における表示上の奥行量と知覚上の奥行量の非線形な関係を補正して、観察者が知覚する立体像の奥行を適切に再現して、観察者が知覚する立体像の箱庭感・書割感を防ぐことができる。   The corrected image data Dout is input to the image display unit 111 and displayed in accordance with a stereoscopic image display method (frame sequential method, line-by-line, etc.). Therefore, the non-linear relationship between the display depth amount and the perceptual depth amount in the stereoscopic image is corrected, and the depth of the stereoscopic image perceived by the observer is appropriately reproduced, so that the stereoscopic image box perceived by the observer can be reproduced. A feeling of feeling and book splitting can be prevented.

表示上の奥行量と知覚上の奥行量の関係を示す視覚特性情報Dvは、表示装置の画面サイズによって変化する。従って、画面サイズごとに視覚特性情報Dvを保持することが好ましい。また、上記では、視覚特性保持部112が視覚特性情報Dvを保持する例を説明したが、ユーザに立体像を観察させてキャリブレーションを行い、キャリブレーション結果のデータを視覚特性情報Dvに利用することもできる。   The visual characteristic information Dv indicating the relationship between the depth on display and the depth on perception varies depending on the screen size of the display device. Therefore, it is preferable to hold the visual characteristic information Dv for each screen size. In the above description, the example in which the visual characteristic holding unit 112 holds the visual characteristic information Dv has been described. However, calibration is performed by allowing the user to observe a stereoscopic image, and the calibration result data is used as the visual characteristic information Dv. You can also.

図8により視覚特性情報Dvのキャリブレーションを説明する。ユーザが操作部109を操作して、立体感のユーザ設定モードの起動を指示すると、CPU106は、例えば視覚特性保持部112が保持する図8に示すようなバー画像を画像表示部111に表示させる。バー画像は、両眼視差を有し、ユーザは立体像として認識する。ユーザは、知覚する立体像の奥行量を操作部109を操作して入力する。これにより、両眼視差量に対応する知覚上の奥行量が得られる。従って、式(1)(2)を用いて両眼視差量に対する表示上の奥行量を算出すれば、視覚特性情報Dvが得られる。なお、視覚特性情報Dvを取得するための立体像は、図8に示すバー画像に限らず、映像情報メディア学会が規定する立体映像標準チャートなどを用いてもよい。   The calibration of the visual characteristic information Dv will be described with reference to FIG. When the user operates the operation unit 109 to instruct activation of the user setting mode for stereoscopic effect, the CPU 106 causes the image display unit 111 to display a bar image as shown in FIG. 8 held by the visual characteristic holding unit 112, for example. . The bar image has binocular parallax, and the user recognizes it as a stereoscopic image. The user inputs the perceived depth of the stereoscopic image by operating the operation unit 109. Thereby, the perceptual depth amount corresponding to the binocular parallax amount is obtained. Therefore, visual characteristic information Dv can be obtained by calculating the display depth with respect to the binocular parallax using equations (1) and (2). Note that the stereoscopic image for obtaining the visual characteristic information Dv is not limited to the bar image shown in FIG. 8, and a stereoscopic video standard chart defined by the Video Information Media Society may be used.

以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。   The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.

実施例1のように表示上の奥行量Ldを知覚上で忠実に再現しようとすると、視覚の融像限界を超えて、立体視が不可能になる場合がある。そこで、実施例2においては、融像限界情報を用いて、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現する。   If the depth Ld on the display is to be faithfully reproduced perceptually as in the first embodiment, stereoscopic vision may be impossible beyond the fusion limit of vision. Thus, in the second embodiment, the depth of the display is linearly reproduced by compressing the depth on the display perceptually using the fusion limit information.

[装置の構成]
図9のブロック図により実施例2の画像処理装置100の構成例を示す。
[Device configuration]
A block diagram of FIG. 9 shows a configuration example of the image processing apparatus 100 of the second embodiment.

実施例2の画像処理装置100は、図1に示す構成に加えて、融像限界取得部801と画像信号出力部802を有する。また、画像表示部111は、対応する液晶シャッタ眼鏡803を備える。   The image processing apparatus 100 according to the second embodiment includes a fusion limit acquisition unit 801 and an image signal output unit 802 in addition to the configuration illustrated in FIG. In addition, the image display unit 111 includes corresponding liquid crystal shutter glasses 803.

融像限界取得部801は、詳細は後述するが、融像限界情報LDfをROM107やRAM108などから取得する。融像限界は、両眼視差画像における視差を人間の視覚が融像し、立体像として知覚することができる両眼視差の限界である。以下では、融像限界の単位をミリメートルとして説明する。 As will be described in detail later, the fusion limit acquisition unit 801 acquires the fusion limit information L Df from the ROM 107, the RAM 108, and the like. The fusion limit is a limit of binocular parallax that allows human vision to fuse parallax in a binocular parallax image and perceive it as a stereoscopic image. Hereinafter, the unit of fusion limit will be described as millimeters.

補正演算部103は、視覚特性情報Dv、表示装置情報Dd、観察距離Lsに加えて融像限界情報LDfを用いて、知覚上の奥行量Lvと、奥行推定部102が推定した表示上の奥行量Ldを等しくする補正視差量Cを算出する。 The correction calculation unit 103 uses the fusion limit information L Df in addition to the visual characteristic information Dv, the display device information Dd, and the observation distance Ls to display the perceptual depth Lv and the display estimated by the depth estimation unit 102. A corrected parallax amount C for equalizing the depth amount Ld is calculated.

画像信号出力部802は、両眼視差量が補正された画像データDout、および、画像表示制御信号Sfを出力する。液晶シャッタ眼鏡803は、画像表示制御信号Sfに含まれる垂直同期信号Svに基づき動作し、観察者に立体像を知覚させるためのシャッタ動作を行う。   The image signal output unit 802 outputs the image data Dout with the binocular parallax amount corrected and the image display control signal Sf. The liquid crystal shutter glasses 803 operate based on the vertical synchronization signal Sv included in the image display control signal Sf, and perform a shutter operation for causing the observer to perceive a stereoscopic image.

[装置の動作]
視差量検出部101、奥行推定部102、観察距離取得部105、視覚特性保持部112の動作は、実施例1と同一であり、その詳細説明を省略する。
[Device operation]
The operations of the parallax amount detection unit 101, the depth estimation unit 102, the observation distance acquisition unit 105, and the visual characteristic holding unit 112 are the same as those in the first embodiment, and detailed description thereof is omitted.

●融像限界取得部
融像限界取得部801は、補正演算部103から融像限界情報LDfを要求されると、例えばROM107から融像限界情報LDfを取得し、融像限界情報LDfを補正演算部103に送信する。
● fusional limit acquisition unit fusional limit acquisition unit 801 is requested the fusion limit information L Df from the correction calculation unit 103, for example, acquires the fusion limit information L Df from ROM 107, the fusion limit information L Df Is transmitted to the correction calculation unit 103.

図2(b)に示すように、対象物体Pが画像表示部111の奥に知覚される場合、立体像として知覚することができる両眼視差量の限界を融像限界の最大値Df1とする。また、図2(a)に示す用に、対象物体Pが画像表示部111の手前に知覚される場合、立体像として知覚することができる両眼視差量の限界を融像限界の最小値Df2とする。なお、融像限界の視差量は、両眼視差量D1と同様に、立体像が画像表示部111の奥に知覚される場合を正、手前に知覚される場合を負とする。   As shown in FIG. 2 (b), when the target object P is perceived at the back of the image display unit 111, the limit of the binocular parallax that can be perceived as a stereoscopic image is set as the maximum fusion limit Df1. . In addition, as shown in FIG. 2 (a), when the target object P is perceived in front of the image display unit 111, the limit of the binocular parallax amount that can be perceived as a stereoscopic image is the minimum value Df2 of the fusion limit. And Note that the parallax amount at the fusion limit is positive when a stereoscopic image is perceived in the back of the image display unit 111 and negative when perceived in the front, like the binocular parallax amount D1.

融像限界情報Dfは、上記の最大値Df1、最小値Df2に関する情報を含めば、3Dコンソーシアムの安全ガイドラインに提言された快適視差範囲などでもよい。あるいは、ユーザ設定モードにおいて、図8に示すような立体像を提示して、ユーザが操作部109により両眼視差量を増減させ、ユーザの融像限界を取得してもよい。   The fusion limit information Df may be a comfortable parallax range recommended in the safety guidelines of the 3D consortium as long as the information regarding the maximum value Df1 and the minimum value Df2 is included. Alternatively, in the user setting mode, a stereoscopic image as shown in FIG. 8 may be presented, and the user may increase or decrease the binocular parallax amount using the operation unit 109 to acquire the user's fusion limit.

ユーザは、図8に示すような立体像を観察し、両眼視差量を、操作部109の操作によって減少させる。そして、立体像として知覚できなくなると両眼視差量の減少を停止する。つまり、操作を停止した時点の両眼視差量を融像限界の最小値LDf2とする。同様に、ユーザは図8に示すような立体像を観察し、両眼視差量を、操作部109の操作によって増加させる。そして、立体像として知覚できなくなると両眼視差量の増加を停止する。つまり、操作を停止した時点の両眼視差量を融像限界の最大値LDf1とする。CPU106は、取得した最大値LDf1、最小値LDf2を融像限界情報LDfとして例えばRAM108の所定領域に格納し、RAM108を介して融像限界情報LDfを融像限界取得部801に供給する。 The user observes a stereoscopic image as shown in FIG. 8 and decreases the binocular parallax amount by operating the operation unit 109. When the stereoscopic image cannot be perceived, the reduction of the binocular parallax amount is stopped. That is, the binocular parallax amount at the time when the operation is stopped is set to the minimum value L Df 2 of the fusion limit. Similarly, the user observes a stereoscopic image as shown in FIG. 8, and increases the binocular parallax amount by operating the operation unit 109. When the stereoscopic image cannot be perceived, the increase in the binocular parallax amount is stopped. That is, the binocular parallax amount at the time when the operation is stopped is set as the maximum fusion limit value L Df 1. The CPU 106 stores the acquired maximum value L Df 1 and minimum value L Df 2 as fusion limit information L Df in, for example, a predetermined area of the RAM 108, and the fusion limit information L Df via the RAM 108. To supply.

●補正演算部
図10により表示上の奥行量Ld、知覚上の奥行量Lv、融像限界の関係を説明する。図10において、ハッチングを施した領域は、最大値LDf1と最小値LDf2の範囲外の融像限界を超える領域であり、この領域では融像ができず立体像を観察することができない。
Correction Operation Unit The relationship between the displayed depth Ld, perceptual depth Lv, and fusion limit will be described with reference to FIG. In FIG. 10, the hatched area is an area exceeding the fusion limit outside the range of the maximum value L Df 1 and the minimum value L Df 2, and in this area, a fusion image cannot be observed and a stereoscopic image can be observed. Can not.

例えば、図10(a)に示すように、ある対象物体A、B、Cに対する表示上の奥行量をLdA、LdB、LdCとすると、対象物体それぞれの知覚上の奥行量LvA、LvB、LvCは式(3)により下に示すようになる。
LvA = f(LdA)
LvB = f(LdB) …(9)
LvC = f(LdC)
For example, as shown in FIG. 10 (a), when the depth on the display for a certain target object A, B, C is Ld A , Ld B , Ld C , the perceived depth Lv A of each target object, Lv B and Lv C are as shown below according to equation (3).
Lv A = f (Ld A )
Lv B = f (Ld B )… (9)
Lv C = f (Ld C )

表示上の奥行量と知覚上の奥行量の間に差が発生し、図10(a)に示すように、対象物体A、B、Cの表示上の奥行量と知覚上の奥行量が対応しない。さらに、画像表示部111の位置を原点とする対象物体A、B、Cの相対的な距離関係にも、下式に示すように、ずれが生じる。
LdA-Ls:LdB-Ls:LdC-Ls ≠ LvA-Ls:LvB-Ls:LvC-Ls …(10)
There is a difference between the displayed depth and the perceived depth, and as shown in Fig. 10 (a), the displayed depth of the target objects A, B, and C corresponds to the perceived depth. do not do. Further, the relative distance relationship between the target objects A, B, and C with the position of the image display unit 111 as the origin also shifts as shown in the following equation.
Ld A -Ls: Ld B -Ls: Ld C -Ls ≠ Lv A -Ls: Lv B -Ls: Lv C -Ls (10)

さらに、対象物体Cは、表示上の奥行量LdCは融像限界を超え、立体像として知覚されない。従って、実施例1のように、表示上の奥行量LdCと知覚上の奥行量LvCが一致させても、対象物体Cは立体像として知覚されないことになる。 Further, the depth C Ld C on the display of the target object C exceeds the fusion limit and is not perceived as a stereoscopic image. Therefore, as in the first embodiment, even when the displayed depth amount Ld C and the perceived depth amount Lv C are matched, the target object C is not perceived as a stereoscopic image.

そこで、実施例2においては、全対象物体を融像限界に収め、かつ、対象物体の相対的な距離関係を知覚上で再現するようにスケーリングとシフトを行う。そのために、表示上の奥行量と知覚上の奥行量の間の差を補正する補正量を算出する。まず、ある対象物体の補正後の知覚上の奥行量Lv'を下式から算出する。
Lv' = fS(Ld) …(11)
Therefore, in the second embodiment, scaling and shifting are performed so that all target objects are within the fusion limit and the relative distance relationship of the target objects is perceptually reproduced. For this purpose, a correction amount for correcting the difference between the display depth amount and the perceptual depth amount is calculated. First, a perceptual depth Lv ′ after correction of a certain target object is calculated from the following equation.
Lv '= f S (Ld) (11)

式(11)を利用すると、対象物体A、B、Cの補正後の知覚上の奥行量Lv'A、Lv'B、Lv'Cは下式のように算出される。
Lv'A = fS(LdA)
Lv'B = fS(LdB) …(12)
Lv'C = fS(LdC)
When Expression (11) is used, perceptual depths Lv ′ A , Lv ′ B , and Lv ′ C after correction of the target objects A, B, and C are calculated as follows.
Lv ' A = f S (Ld A )
Lv ' B = f S (Ld B )… (12)
Lv ' C = f S (Ld C )

そして、補正後の知覚上の奥行量Lv'A、Lv'B、Lv'Cを得るために必要な表示上の補正奥行量Ld'は、式(5)により、下式のようになる。
Lv'A = f(Ld'A)
Lv'B = f(Ld'B)
Lv'C = f(Ld'C)
故に、
Ld'A = f-1(Lv'A)
Ld'B = f-1(Lv'B) …(13)
Lc'C = f-1(Lv'C)
Then, the corrected corrected depth amount Ld ′ necessary to obtain the corrected perceptual depth amounts Lv ′ A , Lv ′ B , and Lv ′ C is expressed by the following equation using Equation (5).
Lv ' A = f (Ld' A )
Lv ' B = f (Ld' B )
Lv ' C = f (Ld' C )
Therefore,
Ld ' A = f -1 (Lv' A )
Ld ' B = f -1 (Lv' B )… (13)
Lc ' C = f -1 (Lv' C )

式(13)によって得られるLd'A、Ld'B、Ld'Cが、対象物体A、B、Cに対して、表示上の相対的な距離関係を知覚上の奥行量で再現する場合の表示上の奥行量である。 When Ld ' A , Ld' B , Ld ' C obtained by Equation (13) reproduces the relative distance on the display with the perceptual depth of the target objects A, B, C This is the depth on the display.

図11のフローチャートにより補正演算部103の処理を説明する。補正演算部103は、観察距離Lsと視覚特性情報Dvを取得し(S301、S302)、融像限界取得部801から融像限界情報LDfを取得する(S901)。 The processing of the correction calculation unit 103 will be described with reference to the flowchart of FIG. The correction calculation unit 103 acquires the observation distance Ls and the visual characteristic information Dv (S301, S302), and acquires the fusion limit information L Df from the fusion limit acquisition unit 801 (S901).

次に、補正演算部103は、融像限界情報LDfと視覚特性情報Dvに基づき、式(2)を用いて、表示上の奥行量の最大値LDf1と最小値LDf2を計算する。さらに、最大値LDf1に対応する知覚上の奥行量Lv1と、最小値LDf2に対応する知覚上の奥行量Lv2を計算する(S902)。つまり、Lv1=f(LDf1)、Lv2=f(LDf2)を計算する。 Next, the correction calculation unit 103 calculates the maximum value L Df 1 and the minimum value L Df 2 of the depth amount on the display using Expression (2) based on the fusion limit information L Df and the visual characteristic information Dv. To do. Moreover, to calculate the depth amount Lv1 perceptual corresponding to the maximum value L Df 1, the minimum depth amount Lv2 perceptual corresponding to L Df 2 (S902). That is, Lv1 = f (L Df 1) and Lv2 = f (L Df 2) are calculated.

次に、補正演算部103は、奥行推定部102から全対象物体の表示上の奥行量Ldを受信し(S903)、受信した表示上の奥行量Ldの最大値をLdmax、最小値をLdminに設定する(S904)。図10(a)の例においては、LdCを最大値Ldmaxに、LdAを最小値Ldminに設定する。 Next, the correction calculation unit 103 receives the depth amount Ld on the display of all target objects from the depth estimation unit 102 (S903), the maximum value of the received depth amount Ld on the display is Ldmax, and the minimum value is Ldmin Set (S904). In the example of FIG. 10 (a), Ld C is set to the maximum value Ldmax, and Ld A is set to the minimum value Ldmin.

次に、補正演算部103は、表示装置情報Ddを取得し(S105)、表示上の奥行量の最大値Ldmaxと、表示上の融像限界の最大値LDf1の比較(S905)を行い。さらに、表示上の奥行量の最小値Ldminと、表示上の融像限界の最小値LDf2の比較(S906、S907)を行う。そして、比較結果に基づき、各対象物体の表示上の奥行量を融像限界内に収め、かつ、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現するための補正視差量の算出処理を次のように行う(S908-S911)。
if (Ldmax>LDf1 && Ldmin<LDf2)
算出処理1を行う(S908);
if (Ldmax>LDf1 && Ldmin≧LDf2)
算出処理2を行う(S909);
if (Ldmax≦LDf1 && Ldmin<LDf2)
算出処理3を行う(S910);
if (Ldmax≦LDf1 && Ldmin≧LDf2)
算出処理4を行う(S911);
Next, the correction operation unit 103 acquires the display information Dd (S105), performs the maximum value Ldmax depth amount on display, comparison of the maximum value L Df 1 of fusion limit on Show (S905) . Furthermore, performing the minimum value Ldmin depth amount on the display, a comparison of the minimum value L Df 2 of fusion limit on Show (S906, S907). Based on the comparison result, the correction is made so that the depth on the display of each target object is within the fusion limit, and the depth on the display is perceptually compressed to reproduce the depth of the stereoscopic image linearly. The parallax amount calculation process is performed as follows (S908-S911).
if (Ldmax> L Df 1 && Ldmin <L Df 2)
Perform calculation process 1 (S908);
if (Ldmax> L Df 1 && Ldmin ≧ L Df 2)
Perform calculation process 2 (S909);
if (Ldmax ≦ L Df 1 && Ldmin <L Df 2)
Perform calculation process 3 (S910);
if (Ldmax ≦ L Df 1 && Ldmin ≧ L Df 2)
Perform calculation process 4 (S911);

そして、補正演算部103は、補正視差量の算出処理によって得られた各対象物体の補正視差量Cを視差量補正部104に送信する(S108)。   Then, the correction calculation unit 103 transmits the corrected parallax amount C of each target object obtained by the calculation process of the corrected parallax amount to the parallax amount correcting unit 104 (S108).

〔補正視差量の算出処理1〕
図12のフローチャートにより補正視差量の算出処理を説明する。
[Correction amount calculation process 1]
The correction parallax amount calculation process will be described with reference to the flowchart of FIG.

知覚上の奥行量の最大値Lv1は、表示上の奥行量の最大値Ldmaxに対応する知覚上の奥行量になる筈である。しかし、Ldmax>LDf1かつLdmin<LDf2の場合、Ldmaxが融像限界LDf1を超えているため、Lv1は融像限界内に収まらない。そこで、Lv1を融像限界の最大値LDf1に対応する知覚上の奥行量にシフトする。同様に、Lv2も、Ldminに対応する知覚上の奥行量から、融像限界の最小値LDf2にシフトする。つまり、補正演算部103は、式(3)により、Lv1=f(LDf1)、Lv2=f(LDf2)を算出する(S1201)。 The perceptual depth amount maximum value Lv1 should be a perceptual depth amount corresponding to the maximum depth value Ldmax on the display. However, when Ldmax> L Df 1 and Ldmin <L Df 2, since Ldmax exceeds the fusion limit L Df 1, Lv1 does not fall within the fusion limit. Therefore, Lv1 is shifted to the perceptual depth corresponding to the maximum fusion limit L Df1 . Similarly, Lv2 also shifts from the perceptual depth corresponding to Ldmin to the minimum fusion limit L Df 2. That is, the correction calculation unit 103 calculates Lv1 = f (L Df 1) and Lv2 = f (L Df 2) according to the equation (3) (S1201).

次に、補正演算部103は、表示上の奥行量Ldと観察距離Lsを比較する(S1202)。例えば、対象物体Aの表示上の奥行量をLdAとすると、LdAと観察距離Lsを比較する。 Next, the correction calculation unit 103 compares the depth amount Ld on the display with the observation distance Ls (S1202). For example, if the depth amount on the display of the target object A is Ld A , Ld A and the observation distance Ls are compared.

Ld>Lsの場合、補正演算部103は、式(11)により、Ld、Ls、Ldmaxの表示上の奥行量の相対関係を知覚上で圧縮して立体像の奥行を線形に再現した知覚上の補正奥行量Lv'を算出する(S1203)。   In the case of Ld> Ls, the correction calculation unit 103 uses the equation (11) to perceptually reproduce the depth of the stereoscopic image linearly by compressing the relative relationship between the depth amounts on the display of Ld, Ls, and Ldmax. The corrected depth amount Lv ′ is calculated (S1203).

例えば、図10(a)に示すように、対象物体Aの表示上の奥行量がLdAとし、LdAに対応するLv'をLv'Aとする。図13により表示上の奥行量LdA、知覚上の補正奥行量Lv'A、融像限界の関係を説明する。図13において、Lv'A、観察距離Ls、表示上の奥行量の最大値Ldmax、知覚上の奥行量の最大値Lv1、対象物体Aの表示上の奥行量LdAの間に下の関係が成り立つ。
LdA-Ls:Ldmax-Ls = Lv'A-Ls:Lv1-Ls …(14)
For example, as shown in FIG. 10 (a), the depth on display of the target object A is Ld A, and Lv ′ corresponding to Ld A is Lv ′ A. The relationship between the depth Ld A on the display, the corrected depth Lv ′ A on the perception, and the fusion limit will be described with reference to FIG. In FIG. 13, there is a lower relationship between Lv ′ A , observation distance Ls, maximum depth Ldmax on display, maximum perceptual depth Lv1, and depth Ld A on target object A. It holds.
Ld A -Ls: Ldmax-Ls = Lv ' A -Ls: Lv1-Ls (14)

式(14)から、知覚上の奥行量をスケーリングする式(11)は次のようになる。
Lv'A = (LdA - Ls)(Lv1 - Ls)/(Ldmax - Ls) + Ls …(15)
From Equation (14), Equation (11) for scaling the perceptual depth is as follows.
Lv ' A = (Ld A -Ls) (Lv1-Ls) / (Ldmax-Ls) + Ls… (15)

式(15)に示すように、対象物体Aの知覚上の補正奥行量Lv'Aは、表示上の奥行量LdAから算出される。つまり、式(15)により、各対象物体の表示上の奥行量を融像限界内に収め、かつ、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現する、知覚上の補正奥行量Lv'を算出する。 As shown in equation (15), the correction depth amount Lv 'A on perception of the object A is calculated from the depth amount Ld A on the display. In other words, according to Equation (15), the depth on the display of each target object is kept within the fusion limit, and the depth on the display is perceptually compressed to reproduce the depth of the stereoscopic image linearly. The upper correction depth amount Lv ′ is calculated.

一方、Ld≦Lsの場合、対象物体の表示上の奥行量Ldは観察距離Lsより手前にある。従って、補正演算部103は、式(11)により、Ld、Ls、Ldminの表示上の奥行量の相対関係を知覚上で再現するように補正した知覚上の補正奥行量Lv'を算出する(S1204)。   On the other hand, when Ld ≦ Ls, the depth Ld on the display of the target object is in front of the observation distance Ls. Therefore, the correction calculation unit 103 calculates a perceptual correction depth amount Lv ′ corrected so as to perceptually reproduce the relative relationship of the depth amounts on the display of Ld, Ls, and Ldmin according to the equation (11) ( S1204).

例えば、対象物体Bの表示上の奥行量がLdBとし、LdBに対応するLv'をLv'Bとする。Lv'B、観察距離Ls、表示上の奥行量の最小値Ldmin、知覚上の奥行量の最小値Lv2、対象物体Bの表示上の奥行量LdBの間に下の関係が成り立つ。
Ls-LdB:Ls-Ldmin = Ls-Lv'B:Ls-Lv2 …(16)
For example, the depth amount on the display of the target object B is Ld B, and Lv ′ corresponding to Ld B is Lv ′ B. Lv 'B, the viewing distance Ls, the minimum value Ldmin depth amount on the display, the minimum value of the depth of perceptual Lv2, the relationship below between depth amounts Ld B on the display of the target object B holds.
Ls-Ld B : Ls-Ldmin = Ls-Lv ' B : Ls-Lv2 (16)

式(16)から、知覚上の奥行量をスケーリングする式(11)は次のようになる。
Lv'B = Ls - (Ls - LdB)(Ls - Lv2)/(Ls - Ldmin) …(17)
From equation (16), equation (11) for scaling the perceptual depth is as follows.
Lv ' B = Ls-(Ls-Ld B ) (Ls-Lv2) / (Ls-Ldmin)… (17)

式(17)に示すように、対象物体Bの知覚上の補正奥行量Lv'Bは、表示上の奥行量LdBから算出される。つまり、式(17)により、各対象物体の表示上の奥行量を融像限界内に収め、かつ、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現する、知覚上の補正奥行量Lv'を算出する。 As shown in Expression (17), the perceptual corrected depth Lv ′ B of the target object B is calculated from the displayed depth Ld B. In other words, according to Equation (17), the depth of display on each target object is kept within the fusion limit, and the depth of display is perceptually compressed to reproduce the depth of the stereoscopic image linearly. The upper correction depth amount Lv ′ is calculated.

次に、補正演算部103は、補正奥行量Lv'から補正奥行量Ld'を算出する(S1205)。例えば、知覚上の補正奥行量Lv'Aに対応する表示上の奥行量は、図13に示すように、Ld'Aになる。対象物体Aの表示上の補正奥行量Ld'Aは、式(4)により、Ld'A=f-1(Lv'A)から算出する。 Next, the correction calculation unit 103 calculates a corrected depth amount Ld ′ from the corrected depth amount Lv ′ (S1205). For example, the display depth amount corresponding to the perceptual correction depth amount Lv ′ A is Ld ′ A as shown in FIG. The corrected depth Ld ′ A on the display of the target object A is calculated from Ld ′ A = f −1 (Lv ′ A ) according to the equation (4).

次に、補正演算部103は、補正視差量Cを算出し(S106)、全対象物体に対する補正視差量Cを算出したか否かを判定し(S107)、補正視差量Cが未算出の対象物体Pがあれば、処理をステップS1202に戻す。   Next, the correction calculation unit 103 calculates the corrected parallax amount C (S106), determines whether or not the corrected parallax amount C has been calculated for all target objects (S107), and the target for which the corrected parallax amount C has not yet been calculated. If there is an object P, the process returns to step S1202.

〔補正視差量の算出処理2〕
Ldmax>LDf1かつLdmin≧LDf2の場合、知覚上の奥行量の最大値Lv1を、表示上の奥行量の最大値Ldmaxに対応する知覚上の奥行量から、融像限界の最大値LDf1に対応する知覚上の奥行量にシフトする。つまり、式(3)によりLv1=f(Df1)を算出する(S1201)。
[Correction amount calculation process 2]
When Ldmax> L Df 1 and Ldmin ≧ L Df 2, the maximum perceived depth Lv1 is calculated from the perceptual depth corresponding to the maximum depth Ldmax on the display. Shift to perceptual depth corresponding to L Df 1. That is, Lv1 = f ( Df1 ) is calculated from the equation (3) (S1201).

また、表示上の奥行量の最小値Ldminは融像限界の最小値LDf2以上のため、知覚上の奥行量の最小値Lv2は、表示上の奥行量の最小値Ldminに対応する知覚上の奥行量にする。つまり、式(3)によりLv2=f(Ldmin)を算出する(S1201)。 In addition, since the minimum depth value Ldmin on the display is greater than or equal to the minimum fusion limit L Df 2, the minimum perceptual depth value Lv2 is the perceptual value corresponding to the minimum Ldmin value on the display. To the depth amount. That is, Lv2 = f (Ldmin) is calculated from the equation (3) (S1201).

以降の処理は、算出処理1と同様である。   The subsequent processing is the same as the calculation processing 1.

〔補正視差量の算出処理3〕
Ldmax≦LDf1かつLdmin<LDf2の場合、表示上の奥行量の最大値Ldmaxは融像限界の最第値LDf1以下のため、知覚上の奥行量の最大値Lv1は、表示上の奥行量の最大値Ldmaxに対応する知覚上の奥行量にする。つまり、式(3)によりLv1=f(Ldmax)を算出する(S1201)。
[Correction amount calculation process 3]
When Ldmax ≤ L Df 1 and Ldmin <L Df 2, the maximum depth value Ldmax on the display is less than the fusion limit maximum value L Df 1, so the maximum perceptual depth Lv1 is displayed A perceptual depth amount corresponding to the maximum depth value Ldmax is set. That is, Lv1 = f (Ldmax) is calculated by the equation (3) (S1201).

また、知覚上の奥行量の最小値Lv2を、表示上の奥行量の最小値Ldminに対応する知覚上の奥行量から、融像限界の最小値LDf2に対応する知覚上の奥行量にシフトする。つまり、式(3)によりLv2=f(Df2)を算出する(S1201)。 The perceptual depth Lv2 is changed from the perceptual depth corresponding to the minimum depth Ldmin on the display to the perceptual depth L Df 2 corresponding to the minimum fusion limit L Df 2. shift. That is, Lv2 = f ( Df2 ) is calculated by the equation (3) (S1201).

以降の処理は、算出処理1と同様である。   The subsequent processing is the same as the calculation processing 1.

〔補正視差量の算出処理4〕
Ldmax≦LDf1かつLdmin≧LDf2の場合、表示上の奥行量の最大値Ldmax、表示上の奥行量の最小値Ldminは融像限界内にある。従って、知覚上の奥行量の最大値Lv1は表示上の奥行量の最大値Ldmaxに対応する知覚上の奥行量にし、知覚上の奥行量の最小値Lv2は表示上の奥行量の最小値Ldminに対応する知覚上の奥行量にする。つまり、式(3)により、Lv1=f(Ldmax)、Lv2=f(Ldmin)を算出する(S1201)。
[Correction amount calculation process 4]
When Ldmax ≦ L Df 1 and Ldmin ≧ L Df 2, the maximum depth value Ldmax on the display and the minimum depth value Ldmin on the display are within the fusion limit. Therefore, the maximum perceived depth Lv1 is the perceptual depth corresponding to the maximum displayed depth Ldmax, and the minimum perceptual depth Lv2 is the minimum displayed depth Ldmin. The perceptual depth corresponding to. That is, Lv1 = f (Ldmax) and Lv2 = f (Ldmin) are calculated from the equation (3) (S1201).

以降の処理は、算出処理1と同様である。   The subsequent processing is the same as the calculation processing 1.

●視差量補正部、画像信号出力部
視差量補正部104は、画像データDinに含まれる対象物体Pに対応する補正視差量Cに基づき、当該対象物体Pの両眼視差量Dを補正し、画像データDoutを出力する。また、水平同期信号、垂直同期信号などを含む画像表示制御信号Sfを画像信号出力部802に出力する。
Parallax amount correction unit, image signal output unitThe parallax amount correction unit 104 corrects the binocular parallax amount D of the target object P based on the corrected parallax amount C corresponding to the target object P included in the image data Din, Outputs image data Dout. In addition, an image display control signal Sf including a horizontal synchronization signal, a vertical synchronization signal, and the like is output to the image signal output unit 802.

例えば、画像表示部111は、フィールドシーケンシャルと呼ばれる映像フォーマットの画像データDoutに基づき、時系列に左画像、右画像、左画像、右画像、…と交互に左右視差画像を表示する。画像信号出力部802は、画像表示制御信号Sfに基づき液晶シャッタ眼鏡803の液晶シャッタを制御する。つまり、左目透過/右目遮蔽、左目遮蔽/右目透過、左目透過/右目遮蔽、左目遮蔽/右目透過、…と交互に液晶シャッタの状態を切り替える。液晶シャッタの状態の切替は、画像表示制御信号Sfに含まれる垂直同期信号に同期し行われ、観察者の左目には左画像のみが、右目には右画像のみが観察され、立体像が観察される。なお、フレームシーケンシャル方式ではなく、ラインバイライン方式と円偏光眼鏡による立体像の観察でもよい。   For example, the image display unit 111 displays left and right parallax images alternately with a left image, a right image, a left image, a right image,... In time series based on image data Dout in a video format called field sequential. The image signal output unit 802 controls the liquid crystal shutter of the liquid crystal shutter glasses 803 based on the image display control signal Sf. That is, the state of the liquid crystal shutter is alternately switched between left eye transmission / right eye shielding, left eye shielding / right eye transmission, left eye transmission / right eye shielding, left eye shielding / right eye transmission,. The state of the liquid crystal shutter is switched in synchronization with the vertical synchronization signal included in the image display control signal Sf. Only the left image is observed for the left eye of the observer, only the right image is observed for the right eye, and the stereoscopic image is observed. Is done. Note that a stereoscopic image may be observed with a line-by-line method and circularly polarized glasses instead of the frame sequential method.

このように、表示上の奥行量を知覚上で圧縮して立体像の奥行を線形に再現することにより、融像限界を超える奥行による立体像の破綻を防ぎ、適切な立体像の観察を提供することができる。   In this way, the depth of the displayed image is perceptually compressed and the depth of the stereoscopic image is linearly reproduced, thereby preventing the collapse of the stereoscopic image due to the depth exceeding the fusion limit and providing appropriate stereoscopic image observation. can do.

また、上記では、画像表示部111を原点として知覚上の奥行量を相対的に再現したが、観察者の観察位置を原点として相対関係を再現する補正を行ってもよい。その場合、補正演算部103が演算に使用する式(8)(9)(10)(11)における観察距離Lsを零とすれば、観察位置を原点とする補正になる。   In the above description, the perceptual depth is relatively reproduced with the image display unit 111 as the origin, but correction may be performed to reproduce the relative relationship with the observer's observation position as the origin. In this case, if the observation distance Ls in the equations (8), (9), (10), and (11) used by the correction calculation unit 103 is zero, the correction is performed with the observation position as the origin.

[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (8)

立体画像表示用の画像データから視差画像の視差量を検出する検出手段と、
前記画像データが表す画像を再現する表示面と前記画像の観察者の間の観察距離を取得する取得手段と、
前記視差量と前記観察距離に基づき、前記画像データが表す物体の表示上の奥行量を推定する推定手段と、
表示上の奥行量と知覚上の奥行量の関係を示す視覚特性を保持する保持手段と、
前記物体の表示上の奥行量、前記観察距離および前記視覚特性に基づき、前記物体の表示上の奥行量と知覚上の奥行量を合わせる視差量の補正量を演算する演算手段と、
前記補正量に基づき前記視差画像の視差量を補正する補正手段とを有することを特徴とする画像処理装置。
Detecting means for detecting a parallax amount of the parallax image from the image data for stereoscopic image display;
Obtaining means for obtaining an observation distance between a display surface that reproduces an image represented by the image data and an observer of the image;
Estimating means for estimating a depth amount on display of an object represented by the image data based on the parallax amount and the observation distance;
Holding means for holding a visual characteristic indicating a relationship between a display depth amount and a perceptual depth amount;
An arithmetic means for calculating a correction amount of a parallax amount that combines a depth amount on the display of the object and a perceptual depth amount based on the depth amount on the display of the object, the observation distance, and the visual characteristics;
An image processing apparatus comprising: correction means for correcting a parallax amount of the parallax image based on the correction amount.
前記視覚特性は、前記観察距離ごとに前記表示上の奥行量に対応する前記知覚上の奥行量を示すことを特徴とする請求項1に記載された画像処理装置。   2. The image processing apparatus according to claim 1, wherein the visual characteristic indicates the perceptual depth amount corresponding to the depth amount on the display for each observation distance. さらに、融像限界を示す情報を取得する手段を有し、
前記演算手段は、前記物体の表示上の奥行量、前記観察距離、前記視覚特性および前記融像限界に基づき、前記補正量を演算することを特徴とする請求項1または請求項2に記載された画像処理装置。
Furthermore, it has a means for acquiring information indicating the fusion limit,
3. The calculation unit according to claim 1, wherein the calculation unit calculates the correction amount based on a depth amount on display of the object, the observation distance, the visual characteristic, and the fusion limit. Image processing device.
前記演算手段は、前記融像限界に基づき、前記知覚上の奥行量を圧縮して立体像の奥行を線形に再現する前記補正量を演算することを特徴とする請求項3に記載された画像処理装置。   4. The image according to claim 3, wherein the calculation means calculates the correction amount for compressing the perceptual depth amount and linearly reproducing the depth of the stereoscopic image based on the fusion limit. Processing equipment. さらに、前記観察者の前記融像限界を取得する手段を有することを特徴とする請求項3または請求項4に記載された画像処理装置。   5. The image processing apparatus according to claim 3, further comprising means for acquiring the fusion limit of the observer. さらに、前記観察者の前記視覚特性を取得する手段を有することを特徴とする請求項1から請求項5の何れか一項に記載された画像処理装置。   6. The image processing apparatus according to claim 1, further comprising means for acquiring the visual characteristic of the observer. 立体画像表示用の画像データから視差画像の視差量を検出し、
前記画像データが表す画像を再現する表示面と前記画像の観察者の間の観察距離を取得し、
前記視差量と前記観察距離に基づき、前記画像データが表す物体の表示上の奥行量を推定し、
表示上の奥行量と知覚上の奥行量の関係を示す視覚特性を保持し、
前記物体の表示上の奥行量、前記観察距離および前記視覚特性に基づき、前記物体の表示上の奥行量と知覚上の奥行量を合わせる視差量の補正量を演算し、
前記補正量に基づき前記視差画像の視差量を補正することを特徴とする画像処理方法。
Detecting the amount of parallax of the parallax image from the image data for stereoscopic image display;
Obtaining an observation distance between a display surface that reproduces an image represented by the image data and an observer of the image;
Based on the parallax amount and the observation distance, the depth amount on the display of the object represented by the image data is estimated,
It retains visual characteristics that show the relationship between the depth on the display and the depth on the perception,
Based on the depth on the display of the object, the observation distance, and the visual characteristics, a correction amount of the parallax amount that combines the depth on the display of the object and the perceptual depth is calculated,
An image processing method comprising correcting a parallax amount of the parallax image based on the correction amount.
コンピュータを請求項1から請求項6の何れか一項に記載された画像処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 6.
JP2011265045A 2011-12-02 2011-12-02 Image processing apparatus and method Expired - Fee Related JP5926546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011265045A JP5926546B2 (en) 2011-12-02 2011-12-02 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011265045A JP5926546B2 (en) 2011-12-02 2011-12-02 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2013118515A true JP2013118515A (en) 2013-06-13
JP5926546B2 JP5926546B2 (en) 2016-05-25

Family

ID=48712785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011265045A Expired - Fee Related JP5926546B2 (en) 2011-12-02 2011-12-02 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP5926546B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015132786A (en) * 2014-01-16 2015-07-23 コニカミノルタ株式会社 Spectacle type display device
JP2015520961A (en) * 2012-04-19 2015-07-23 トムソン ライセンシングThomson Licensing Method and apparatus for correcting distortion error due to adjustment effect in stereoscopic display
WO2015163350A1 (en) * 2014-04-22 2015-10-29 株式会社ニコン Image processing device, imaging device and image processing program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03292091A (en) * 1990-04-10 1991-12-24 Seiko Epson Corp Stereoscopic picture display device
JPH08322004A (en) * 1995-05-24 1996-12-03 Olympus Optical Co Ltd Stereoscopic display device
JPH09154817A (en) * 1995-12-05 1997-06-17 Nippon Hoso Kyokai <Nhk> Measurement device for three-dimensional feeling
JPH09322197A (en) * 1996-05-24 1997-12-12 Olympus Optical Co Ltd Stereoscopic vision display device
JPH11164329A (en) * 1997-11-27 1999-06-18 Toshiba Corp Stereoscopic video image display device
JP2006333400A (en) * 2005-05-30 2006-12-07 Nippon Hoso Kyokai <Nhk> Stereoscopic image generating apparatus and program
JP2007075338A (en) * 2005-09-14 2007-03-29 Olympus Medical Systems Corp Medical three-dimensional observation equipment
JP2010045584A (en) * 2008-08-12 2010-02-25 Sony Corp Solid image correcting apparatus, solid image correcting method, solid image display, solid image reproducing apparatus, solid image presenting system, program, and recording medium
JP2011064894A (en) * 2009-09-16 2011-03-31 Fujifilm Corp Stereoscopic image display apparatus
JP2012169759A (en) * 2011-02-10 2012-09-06 Sony Corp Display device and display method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03292091A (en) * 1990-04-10 1991-12-24 Seiko Epson Corp Stereoscopic picture display device
JPH08322004A (en) * 1995-05-24 1996-12-03 Olympus Optical Co Ltd Stereoscopic display device
JPH09154817A (en) * 1995-12-05 1997-06-17 Nippon Hoso Kyokai <Nhk> Measurement device for three-dimensional feeling
JPH09322197A (en) * 1996-05-24 1997-12-12 Olympus Optical Co Ltd Stereoscopic vision display device
JPH11164329A (en) * 1997-11-27 1999-06-18 Toshiba Corp Stereoscopic video image display device
JP2006333400A (en) * 2005-05-30 2006-12-07 Nippon Hoso Kyokai <Nhk> Stereoscopic image generating apparatus and program
JP2007075338A (en) * 2005-09-14 2007-03-29 Olympus Medical Systems Corp Medical three-dimensional observation equipment
JP2010045584A (en) * 2008-08-12 2010-02-25 Sony Corp Solid image correcting apparatus, solid image correcting method, solid image display, solid image reproducing apparatus, solid image presenting system, program, and recording medium
JP2011064894A (en) * 2009-09-16 2011-03-31 Fujifilm Corp Stereoscopic image display apparatus
JP2012169759A (en) * 2011-02-10 2012-09-06 Sony Corp Display device and display method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015520961A (en) * 2012-04-19 2015-07-23 トムソン ライセンシングThomson Licensing Method and apparatus for correcting distortion error due to adjustment effect in stereoscopic display
US10110872B2 (en) 2012-04-19 2018-10-23 Interdigital Madison Patent Holdings Method and device for correcting distortion errors due to accommodation effect in stereoscopic display
JP2015132786A (en) * 2014-01-16 2015-07-23 コニカミノルタ株式会社 Spectacle type display device
WO2015163350A1 (en) * 2014-04-22 2015-10-29 株式会社ニコン Image processing device, imaging device and image processing program

Also Published As

Publication number Publication date
JP5926546B2 (en) 2016-05-25

Similar Documents

Publication Publication Date Title
KR100667810B1 (en) Apparatus for controlling depth of 3d picture and method therefor
KR101719980B1 (en) Method for processing image of display system outputting 3 dimensional contents and display system enabling of the method
JP5059922B2 (en) Stereoscopic image generating apparatus, stereoscopic image display apparatus, stereoscopic image adjustment method, program for causing computer to execute stereoscopic image adjustment method, and recording medium recording the program
EP2385454B1 (en) Method for displaying a 3D settings menu and corresponding device
JP5625979B2 (en) Display device, display method, and display control device
JP2011071898A (en) Stereoscopic video display device and stereoscopic video display method
EP2586209A1 (en) Method and apparatus for customizing 3-dimensional effects of stereo content
EP2432233A2 (en) Display apparatus and image processing method thereof
US20120287252A1 (en) Image display device, image display system, and image display method
US20140218472A1 (en) Stereoscopic image display device and displaying method thereof
CN102143371A (en) Image processing apparatus, 3D display apparatus and image processing method
JP2012204852A (en) Image processing apparatus and method, and program
US20110310093A1 (en) Display apparatus and 3d image acquisition-examination method thereof
JP5926546B2 (en) Image processing apparatus and method
EP2661089A2 (en) Method and apparatus for stereoscopic image display
JPWO2011086593A1 (en) 3D image display device
JP6089383B2 (en) Image processing apparatus, image processing method, and program
EP2629537A2 (en) Display apparatus and method for adjusting three-dimensional effects
US20130293687A1 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
JP2011223126A (en) Three-dimensional video display apparatus and three-dimensional video display method
JP2011176823A (en) Image processing apparatus, 3d display apparatus, and image processing method
US9253477B2 (en) Display apparatus and method for processing image thereof
CN101895780B (en) Stereo display method and stereo display device
US20120249526A1 (en) Method and apparatus for processing and displaying a three-dimensional image
JP2011180779A (en) Apparatus, method and program for generating three-dimensional image data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160422

R151 Written notification of patent or utility model registration

Ref document number: 5926546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees