JP2012244396A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2012244396A
JP2012244396A JP2011112312A JP2011112312A JP2012244396A JP 2012244396 A JP2012244396 A JP 2012244396A JP 2011112312 A JP2011112312 A JP 2011112312A JP 2011112312 A JP2011112312 A JP 2011112312A JP 2012244396 A JP2012244396 A JP 2012244396A
Authority
JP
Japan
Prior art keywords
image
viewpoint
unit
depth
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011112312A
Other languages
English (en)
Inventor
Go Kobayashi
剛也 小林
Takuo Kawai
拓郎 川合
Toshinori Ihara
利昇 井原
Keisuke Yamaoka
啓介 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011112312A priority Critical patent/JP2012244396A/ja
Priority to PCT/JP2012/062087 priority patent/WO2012157540A1/ja
Priority to US14/110,957 priority patent/US9710955B2/en
Priority to CN201280022945.2A priority patent/CN103518372B/zh
Priority to BR112013029204A priority patent/BR112013029204A2/pt
Priority to RU2013150496/08A priority patent/RU2013150496A/ru
Publication of JP2012244396A publication Critical patent/JP2012244396A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Abstract

【課題】実世界に近似する運動視差を実現することができるようにする。
【解決手段】画像処理部は、視聴者の位置等を表す位置情報に基づいて、入力画像の各画素の奥行方向の位置を表すデプス値からなるデプス画像を補正する。立体感補正部は、拡大処理部から供給される拡大画像と拡大デプス画像に対して、実世界に近似した運動視差を得るために立体感を補正する処理を行う。立体感補正部は、運動視差処理後の拡大画像を再構成画像として立体感強調部に供給するとともに、運動視差処理後の拡大デプス画像を再構成デプス画像として視点生成部に供給する。本技術は、例えば、画像処理装置に適用することができる。
【選択図】図3

Description

本技術は、画像処理装置、画像処理方法、およびプログラムに関し、特に、実世界に近似する運動視差を実現することができるようにした画像処理装置、画像処理方法、およびプログラムに関する。
現在普及している2Dディスプレイや2視点(シングルビュー)の3D画像を表示する3Dディスプレイでは、視聴者の位置によらず、同一の3D画像が表示される。そのため、視聴者は、実世界で得られる運動視差を享受することができない。
また、多視点の3D画像を表示する3Dディスプレイも普及しつつあるが(例えば、特許文献1参照)、表示可能な画像の視点数が少ないため、運動視差を充分に実現することは難しい。なお、ここでは、多視点とは3以上の視点を指す。
また、従来の3Dディスプレイでは、実世界とは異なる運動視差が実現されることがある。例えば、視聴者の奥行方向の位置の変化によって融像する絶対位置が変わる。
具体的には、図1に示すように、顔を近づける等により、視聴者の目がΔvだけ3Dディスプレイに近づくと、木の画像の奥行方向の位置が奥側に移動する。即ち、木の画像のディスプレイ面からの距離Δdが、距離Δd’に変化する。これは、実世界の感覚とは異なるため、視聴者に違和感を与える。なお、図1は、3Dディスプレイを鑑賞する視聴者を上から見た図である。
また、3Dディスプレイでは、図2に示すように、顔を傾ける等により、視聴者の目の水平方向の位置が大きく異なると、融像が困難になり、疲労に繋がることがある。
特開2010−211036号公報
上述したように、従来のディスプレイでは、実世界に近似する運動視差を実現することはできない。
本技術は、このような状況に鑑みてなされたものであり、実世界に近似する運動視差を実現することができるようにするものである。
本技術の一側面の画像処理装置は、視聴者の位置を表す情報である視聴者位置情報に基づいて、所定の視点のカラー画像の各画素の奥行方向の位置を表すデプス値からなるデプス画像を補正する画像処理部を備える画像処理装置である。
本技術の一側面の画像処理方法およびプログラムは、本技術の一側面の画像処理装置に対応する。
本技術の一側面においては、視聴者の位置を表す情報である視聴者位置情報に基づいて、所定の視点のカラー画像の各画素の奥行方向の位置を表すデプス値からなるデプス画像が補正される。
本技術の一側面によれば、実世界に近似する運動視差を実現することができる。
従来の3Dディスプレイにおける表示の例を示す図である。 従来の3Dディスプレイにおける表示の他の例を示す図である。 本技術を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。 本技術を適用した画像処理装置の第1実施の形態の他の構成例を示すブロック図である。 図3の画像処理部の詳細構成例を示すブロック図である。 図3の画像処理部の他の詳細構成例を示すブロック図である。 図3の入力視点選択部の詳細構成例を示すブロック図である。 図3の入力視点選択部の他の詳細構成例を示すブロック図である。 図3の拡大処理部の処理を説明する図である。 図5の立体感補正部の構成例を示すブロック図である。 図5の立体感補正部の他の構成例を示すブロック図である。 図10のデプス補正部の処理を説明する図である。 図10のデプス補正部の処理を説明する図である。 拡大デプス画像と再構成デプス画像のデプス値を示すグラフである。 拡大デプス画像と再構成デプス画像のデプス値を示すグラフである。 スケーリング部の処理を説明する図である。 スケーリング部の処理を説明する図である。 スケーリング部の他の処理を説明する図である。 スケーリング部の他の処理を説明する図である。 スケーリング部に入出力される再構成デプス画像のデプス値を示すグラフである。 スケーリング部に入出力される再構成デプス画像のデプス値を示すグラフである。 図5の視点生成部の投影処理を説明する図である。 出力画像の例を示す図である。 図5の画像処理部の画像処理を説明するフローチャートである。 図24の視点選択処理の詳細を説明するフローチャートである。 図24の視点選択処理の詳細を説明するフローチャートである。 図24の運動視差処理の詳細を説明するフローチャートである。 出力画像に対応するデプス画像を説明する図である。 本技術を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。 本技術を適用した画像処理装置の第2実施の形態の他の構成例を示すブロック図である。 図29の画像処理部の詳細構成例を示すブロック図である。 図31の入力視点選択部の詳細構成例を示すブロック図である。 図31の入力視点選択部の他の詳細構成例を示すブロック図である。 図32の入力視点選択部による視点選択処理の詳細を説明するフローチャートである。 図33の入力視点選択部による視点選択処理の詳細を説明するフローチャートである。 本技術を適用した画像処理装置の第2実施の形態のさらに他の構成例を示すブロック図である。 図36の視点生成部の投影処理を説明する図である。 本技術を適用した画像処理装置の第3実施の形態の構成例を示すブロック図である。 本技術を適用した画像処理装置の第3実施の形態の他の構成例を示すブロック図である。 図38の画像処理部の詳細構成例を示すブロック図である。 図40の入力視点選択部の詳細構成例を示すブロック図である。 図41の入力視点選択部の視点の選択を説明する図である。 図41の入力視点選択部の視点の選択を説明する図である。 図41の視点選択部の立体感補正用パラメータの生成を説明する図である。 図40の入力視点選択部の他の詳細構成例を示すブロック図である。 図45の入力視点選択部の視点の選択を説明する図である。 図41の入力視点選択部による視点選択処理の詳細を説明するフローチャートである。 図45の入力視点選択部による視点選択処理の詳細を説明するフローチャートである。 本技術を適用した画像処理装置の第4実施の形態の構成例を示すブロック図である。 本技術を適用した画像処理装置の第4実施の形態の他の構成例を示すブロック図である。 図49の画像処理部の詳細構成例を示すブロック図である。 図51の入力視点選択部の詳細構成例を示すブロック図である。 図52の入力視点選択部の視点の選択を説明する図である。 図52の入力視点選択部の視点の選択を説明する図である。 図52の視点選択部の立体感補正用パラメータの生成を説明する図である。 図51の入力視点選択部の他の詳細構成例を示すブロック図である。 図56の入力視点選択部の視点の選択を説明する図である。 図52の入力視点選択部による視点選択処理の詳細を説明するフローチャートである。 図56の入力視点選択部による視点選択処理の詳細を説明するフローチャートである。 コンピュータの一実施の形態の構成例を示す図である。
<第1実施の形態>
[画像処理装置の第1実施の形態の構成例]
図3は、本技術を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。
図3の画像処理装置10は、位置検出部11、画像処理部12、および画像表示部13により構成され、視聴者の位置に基づいて、1視点のカラー画像の運動視差を実現する。
具体的には、画像処理装置10の位置検出部11は、例えば、画像表示部13に搭載されたカメラや各種のセンサ等により構成される。位置検出部11は、視聴者の頭部、両眼や単眼の眼球などの、少なくとも奥行方向を含む方向の位置を視聴位置として検出する。
また、位置検出部11は、視聴者の視線の方向などから視聴者の注視点の位置を検出する。位置検出部11は、検出された視聴位置と注視点の位置を表す位置情報を画像処理部12に供給する。
画像処理部12には、外部から1以上の視点のカラー画像が入力画像として入力されるとともに、入力画像に対応する1以上の視点のデプス画像が入力される。なお、デプス画像(Depth Map)は、対応するカラー画像の各画素の奥行方向の位置を表すデプス値からなる画像である。本実施の形態では、デプス値は、奥行方向の位置が表示面の位置である場合0となり、表示面より手前側(視聴者側)の位置である場合負の値となり、奥側の位置である場合正の値となるものとする。
画像処理部12は、位置検出部11から供給される位置情報に基づいて、外部から入力された入力画像とデプス画像を補正し、補正後の入力画像とデプス画像を用いて、所定の1視点のカラー画像を出力画像として生成する。画像処理部12は、出力画像を画像表示部13に供給する。
画像表示部13は、2Dディスプレイにより構成され、画像処理部12から供給される出力画像を表示する。
なお、図3の画像処理装置10では、入力画像に対応する1以上の視点のデプス画像が入力されたが、入力画像から生成されるようにしてもよい。この場合、図4に示すように、画像処理装置10には、入力画像から1以上の視点のデプス画像を生成するデプス検出部21が設けられる。
[画像処理部の詳細構成例]
図5は、図3の画像処理部12の詳細構成例を示すブロック図である。
図5の画像処理部12は、入力視点選択部41、拡大処理部42、立体感補正部43、立体感強調部44、および視点生成部45により構成される。
入力視点選択部41は、位置検出部11から供給される位置情報が表す視聴位置に基づいて、外部から入力される入力画像の視点から所定の視点を選択する。そして、入力視点選択部41は、選択された所定の視点の入力画像と、対応するデプス画像を用いて、所定の1視点の入力画像とデプス画像を生成し、拡大処理部42に供給する。また、入力視点選択部41は、位置情報が表す視聴位置に基づいて、立体感補正部43で用いられるパラメータである立体感補正用パラメータを生成し、立体感補正部43に供給する。
拡大処理部42は、入力視点選択部41から供給される入力画像とデプス画像に対して拡大処理を行う。この拡大処理は、所望の解像度の出力画像を得るために行われ、立体感補正部43におけるスケーリング処理と、入力画像と出力画像の解像度の差を考慮して行われる。拡大処理部42は、拡大処理後の入力画像を拡大画像として立体感補正部43に供給するとともに、拡大処理後のデプス画像を拡大デプス画像として立体感補正部43に供給する。
立体感補正部43は、拡大処理部42から供給される拡大画像と拡大デプス画像に対して、実世界に近似した運動視差を得るために立体感を補正する処理(以下、運動視差処理という)を行う。立体感補正部43は、運動視差処理後の拡大画像を再構成画像として立体感強調部44に供給するとともに、運動視差処理後の拡大デプス画像を再構成デプス画像として視点生成部45に供給する。
立体感強調部44は、位置検出部11から供給される位置情報が表す注視点の位置に基づいて、立体感補正部43から供給される再構成画像に対して、空気遠近感を得るために立体感を強調する処理(以下、空気遠近感処理という)を行う。
例えば、立体感強調部44は、注視点の位置に基づいて、再構成画像の注視点付近の領域に対して、エッジやテクスチャのエンハンスを向上させる処理を行い、その領域以外の領域に対して、エッジやテクスチャのエンハンスを低下させる処理を行う。または、立体感強調部44は、再構成画像の注視点付近の領域に対して、コントラストを向上させる処理を行い、その領域以外の領域に対して、コントラストを低下させる処理を行う。これにより、再構成画像において、空気遠近感が得られ、立体感が強調される。立体感強調部44は、空気遠近感処理後の再構成画像を視点生成部45に供給する。
視点生成部45は、表示制御部や投影処理部として機能する。視点生成部45は、位置検出部11から供給される位置情報が表す視聴位置と、立体感補正部43から供給される再構成デプス画像とに基づいて、立体感強調部44から供給される再構成画像に対して、カラー画像を視聴位置に向けて投影する投影処理を行う。視点生成部45は、その結果得られる所定の1視点のカラー画像を出力画像として画像表示部13(図3)に供給し、表示させる。
なお、図5の画像処理部12では、立体感補正部43の後段に立体感強調部44が設けられたが、図6に示すように、立体感強調部44の後段に立体感補正部43が設けられるようにしてもよい。
[入力視点選択部の詳細構成例]
図7は、図3の入力視点選択部41の詳細構成例を示すブロック図である。
図7の入力視点選択部41は、視点選択部51とセレクタ52により構成される。
入力視点選択部41の視点選択部51は、位置検出部11から供給される位置情報が表す視聴位置に基づいて、入力画像の視点のうちの、視聴位置に対応する所定の1視点を選択する。視点選択部51は、選択された1視点の、視点を特定するための番号である視点番号をセレクタ52に供給する。また、視点選択部51は、位置情報が表す視聴位置に基づいて、その視聴位置の、選択された1視点に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータとして生成し、立体感補正部43に供給する。
なお、本実施の形態では、視聴位置が初期位置より画像表示部13側にある場合、立体感補正用パラメータに含まれる奥行方向の座標が正の値となり、画像表示部13と反対側にある場合、奥行方向の座標が負の値となるものとする。
セレクタ52は、外部から入力される入力画像とデプス画像のうち、視点選択部51から供給される視点番号で特定される視点の入力画像とデプス画像を選択し、拡大処理部42に供給する。
[入力視点選択部の他の詳細構成例]
図8は、入力視点選択部41の他の詳細構成例を示すブロック図である。
図8の入力視点選択部41は、視点選択部61と視点合成部62により構成される。
入力視点選択部41の視点選択部61は、位置検出部11から供給される位置情報が表す視聴位置に基づいて、入力画像の視点のうちの、視聴位置に対応する所定の1視点と、その1視点に隣接する視点からなる複数の視点を選択する。視点選択部61は、選択された複数の視点の視点番号を視点合成部62に供給する。また、視点選択部61は、図7の視点選択部51と同様に、視聴位置に基づいて立体感補正用パラメータを生成し、立体感補正部43に供給する。
視点合成部62は、外部から入力される入力画像とデプス画像のうち、視点選択部61から供給される視点番号で特定される複数の視点の入力画像とデプス画像を選択する。視点合成部62は、選択された複数の視点の入力画像を合成することにより、1視点の入力画像を生成し、拡大処理部42に供給する。また、視点合成部62は、選択された複数の視点のデプス画像を合成することにより、1視点のデプス画像を生成し、拡大処理部42に供給する。
[拡大処理部の処理の説明]
図9は、図3の拡大処理部42の処理を説明する図である。
図9に示すように、拡大処理部42では、入力画像71に対して拡大処理が行われ、拡大画像72が生成される。この拡大処理では、立体感補正部43におけるスケーリング処理が考慮されているため、拡大画像72のサイズは、出力画像と同一の解像度の画像73のサイズより大きい。
[立体感補正部の構成例]
図10は、図5の立体感補正部43の構成例を示すブロック図である。
図10に示すように、立体感補正部43は、デプス補正部81とスケーリング部82により構成される。
デプス補正部81は、図5の入力視点選択部41から供給される立体感補正用パラメータに基づいて、拡大処理部42から供給される拡大デプス画像を補正する。デプス補正部81は、補正後の拡大デプス画像を再構成デプス画像としてスケーリング部82に供給する。
スケーリング部82は、立体感補正用パラメータに基づいて、拡大処理部42から供給される拡大画像と、デプス補正部81から供給される再構成デプス画像に対してスケーリングを行う。スケーリング部82は、スケーリング後の拡大画像を再構成画像として図5の立体感強調部44に供給し、スケーリング後の再構成デプス画像を視点生成部45に供給する。
なお、図10の立体感補正部43では、デプス補正部81の後段にスケーリング部82が設けられたが、図11に示すように、スケーリング部82の後段にデプス補正部81が設けられるようにしてもよい。
[デプス補正部の処理の説明]
図12および図13は、図10のデプス補正部81の処理を説明する図である。
なお、図12および図13は、画像表示部13を鑑賞する視聴者を上から見た図である。また、図12および図13の上部の曲線は、拡大デプス画像または再構成デプス画像を構成する各画素のデプス値が表す奥行方向の位置を示している。
図12や図13に示すように、デプス補正部81は、立体感補正用パラメータに基づいて、拡大デプス画像の各画素の補正量を、奥行方向の位置がより手前側であることを表すデプス値に対応する画素ほど大きくなるように決定する。
具体的には、デプス補正部81は、例えば、図12に示すように、入力視点選択部41で選択された視点に対して予め設定された初期位置から位置情報が表す視聴位置への奥行方向の移動方向および移動量、並びに、拡大デプス画像に基づいて、補正量を求める。これにより、ある2つの画素の補正量Δd1,Δd2は、以下の式(1)で表される。
Δd1=f(Δa,d1_in)
Δd2=f(Δa,d2_in)
・・・(1)
なお、式(1)において、Δaは、立体感補正用パラメータの奥行方向の座標、即ち入力視点選択部41で選択された視点に対して予め設定された初期位置から位置情報が表す視聴位置への奥行方向の移動量である。d1_in,d2_inは、それぞれ、Δd1,Δd2に対応する画素の補正前のデプス値である。
また、式(1)における関数fは、d1_in,d2_inが小さく、Δaの絶対値が大きいほど、Δd1,Δd2の絶対値が大きくなり、Δd1,Δd2の符号がΔaの符号と反対になる関数である。
なお、図13に示すように、Δaの代わりに、初期位置と各画素のデプス値に対応する位置の距離と、視聴位置と各画素のデプス値に対応する位置の距離の差分に基づいて、補正量を求めることもできる。この場合、補正量Δd1,Δd2は、以下の式(2)で表される。
Δd1=f’(d1_in,a1_in−a1_out)
Δd2=f’(d2_in,a2_in−a2_out)
・・・(2)
式(2)において、d1_in,d2_inは、それぞれ、Δd1,Δd2に対応する画素の補正前のデプス値である。また、a1_in,a2_inは、Δd1,Δd2に対応する画素の補正前のデプス値に対応する位置と初期位置との距離である。a1_out,a2_outは、Δd1,Δd2に対応する画素の補正前のデプス値に対応する位置と視聴位置との距離である。
また、式(2)における関数f’は、d1_in,d2_inが小さく、a1_in−a1_out,a2_in−a2_outの絶対値が大きいほど、Δd1,Δd2の絶対値が大きくなり、Δd1,Δd2の符号がa1_in−a1_out,a2_in−a2_outの符号と反対になる関数である。
デプス補正部81は、以上のようにして決定された拡大デプス画像の各画素の補正量だけ、その画素のデプス値を補正する。図12および図13の例では、補正量Δd1,Δd2だけ、補正前のデプス値d1_in,d2_inが補正され、補正後のデプス値は、d1_out,d2_outとなる。
図14と図15は、図10のデプス補正部81に入力される拡大デプス画像のデプス値と、図10のデプス補正部81に出力される再構成デプス画像のデプス値を示すグラフである。
なお、図14および図15において、横軸は、拡大デプス画像や再構成デプス画像の水平方向の位置を表し、縦軸は、デプス値を表す。また、図14および図15において、黒丸は、拡大デプス画像の各画素のデプス値を表し、灰色の丸は、再構成デプス画像の各画素のデプス値を表している。
また、図14は、視聴位置が初期位置より画像表示部13側にある場合のデプス値を表す図であり、図15は、視聴位置が初期位置より画像表示部13とは反対側にある場合のデプス値を表す図である。
図14に示すように、視聴位置が初期位置より画像表示部13側にある場合、即ちΔaが正の値である場合、拡大デプス画像の各画素のデプス値は、そのデプス値が小さいほど大きい補正量で、負方向に補正される。その結果、出力画像全体の奥行方向の位置がより手前側になるとともに、立体感が強調される。
一方、図15に示すように、視聴位置が初期位置より画像表示部13とは反対側にある場合、即ちΔaが負の値である場合、拡大デプス画像の各画素のデプス値は、そのデプス値が小さいほど大きい補正量で、正方向に補正される。その結果、出力画像全体の奥行方向の位置がより奥側になるとともに、立体感が弱められる。
以上のように、視聴者が初期位置より画像表示部13に近づくと、出力画像全体の奥行方向の位置がより手前側になるとともに、立体感が強調され、画像表示部13から遠ざかると、出力画像全体の奥行方向の位置がより奥側になるとともに、立体感が弱められる。その結果、より実世界に近似する運動視差を実現することができる。
[スケーリング部の処理の説明]
図16および図17は、スケーリング部82の処理を説明する図である。
なお、図16および図17は、画像表示部13を鑑賞する視聴者を上から見た図である。また、図16および図17の上部の曲線は、拡大デプス画像または再構成デプス画像を構成する各画素のデプス値が表す奥行方向の位置を示している。これらのことは、後述する図18および図19においても同様である。
図16に示すように、スケーリング部82は、立体感補正用パラメータに基づいて、拡大デプス画像内のスケーリングの中心点Cを決定する。そして、スケーリング部82は、拡大デプス画像と立体感補正用パラメータに基づいて、中心点Cからの距離がより遠く、デプス値がより小さい画素ほど大きいスケーリング率で、中心点Cを中心として拡大デプス画像をスケーリングし、立体感を補正する。
スケーリング部82のスケーリングにより、例えば、ある2つの画素の補正前の水平方向の位置と補正後の水平方向の位置の差分ΔL1,ΔL2は、以下の式(3)で表される。なお、本実施の形態では、補正後の水平方向の位置が補正前の水平方向の位置より、中心点Cを中心とした外方向にあるとき、補正前の水平方向の位置と補正後の水平方向の位置の差分は正の値であり、内方向にあるとき、その差分は負の値であるものとする。
ΔL1=fs(Δa,d1_in,L1)
ΔL2=fs(Δa,d2_in,L2)
・・・(3)
なお、式(3)において、Δaは、立体感補正用パラメータの奥行方向の座標である。d1_in,d2_inは、それぞれ、ΔL1,ΔL2に対応する画素の補正前のデプス値である。また、L1,L2は、それぞれ、ΔL1,ΔL2に対応する画素の補正前の位置の、中心点Cからの距離である。
また、式(3)における関数fsは、L1,L2が大きく,d1_in,d2_inが小さく、Δaの絶対値が大きいほど大きくなり、ΔL1,ΔL2の符号がΔaの符号と同一になる関数である。
また、図17に示すように、スケーリング部82は、拡大デプス画像内のスケーリングの中心点Cに対応する拡大画像内の中心点C’を決定する。そして、スケーリング部82は、拡大デプス画像の各画素に対するスケーリング率と同一のスケーリング率で、中心点C’を中心として拡大画像をスケーリングし、再構成画像を生成する。なお、図17の曲線は、拡大画像に対応する拡大デプス画像および再構成画像に対応する再構成デプス画像の各画素のデプス値が表す奥行方向の位置を示している。このことは、後述する図19においても同様である。
また、図18に示すように、Δaの代わりに、初期位置と各画素のデプス値に対応する位置の距離と、視聴位置と各画素のデプス値に対応する位置の距離の差分に基づいて、スケーリングを行うこともできる。この場合、差分ΔL1,ΔL2は、以下の式(4)で表される。
ΔL1=fs’(d1_in,L1,a1_in−a1_out)
ΔL2=fs’(d2_in,L2,a2_in−a2_out)
・・・(4)
式(4)において、d1_in,d2_inは、それぞれ、ΔL1,ΔL2に対応する画素の補正前のデプス値である。また、L1,L2は、それぞれ、ΔL1,ΔL2に対応する画素の補正前の位置の、中心点Cからの距離である。さらに、a1_in,a2_inは、ΔL1,ΔL2に対応する画素の補正前のデプス値に対応する位置と初期位置との距離である。a1_out,a2_outは、ΔL1,ΔL2に対応する画素の補正前のデプス値に対応する位置と視聴位置との距離である。
また、式(4)における関数fs’は、L1,L2が大きく、d1_in,d2_inが小さく、a1_in−a1_out,a2_in−a2_outの絶対値が大きいほど大きくなり、ΔL1,ΔL2の符号がa1_in−a1_out,a2_in−a2_outの符号と同一になる関数である。
この場合も、また、図19に示すように、スケーリング部82は、拡大デプス画像の各画素に対するスケーリング率と同一のスケーリング率で、拡大画像に対してスケーリングを行い、再構成画像を生成する。
図20と図21は、図10のスケーリング部82に入力される再構成デプス画像のデプス値と、図10のデプス補正部81に出力される再構成デプス画像のデプス値を示すグラフである。
なお、図20と図21において、横軸は、再構成デプス画像の水平方向の位置を表し、縦軸は、デプス値を表す。また、図20と図21において、黒丸は、入力される再構成デプス画像の各画素のデプス値を表し、白丸は、出力される再構成デプス画像の各画素のデプス値を表している。また、灰色の丸は、入力される再構成デプス画像の各画素のデプス値に対応する、出力される再構成デプス画像の位置を表している。
また、図20は、視聴位置が初期位置より画像表示部13側にある場合のデプス値を表す図であり、図21は、視聴位置が初期位置より画像表示部13とは反対側にある場合のデプス値を表す図である。
図20に示すように、視聴位置が初期位置より画像表示部13側にある場合、再構成デプス画像の各画素のデプス値は、中心点Cに遠く、そのデプス値が小さいほど大きいスケーリング率で拡大される。具体的には、黒丸でデプス値が表される再構成デプス画像の各画素の位置は、灰色の丸でデプス値が表される再構成デプス画像の位置に移動する。そして、移動後のデプス値が補間され、白丸で表される各画素のデプス値が求められる。
一方、図21に示すように、視聴位置が初期位置より画像表示部13とは反対側にある場合、再構成デプス画像の各画素のデプス値は、中心点Cに遠く、そのデプス値が小さいほど大きいスケーリング率で縮小される。
以上のようにしてスケーリングが行われることにより、視聴者が初期位置より画像表示部13に近づくと、出力画像が、視聴位置に対応する中心点を中心として拡大され、画像表示部13から遠ざかると、出力画像が、その中心点を中心として縮小される。その結果、より実世界に近似する運動視差を実現することができる。
[視点生成部の投影処理の説明]
図22は、図5の視点生成部45の投影処理を説明する図である。
なお、図22は、視点生成部45に入力される再構成画像に対応する再構成デプス画像のデプス値と、その再構成画像の各画素に対応する出力画像の位置を示すグラフである。
図22において、横軸は、再構成画像および出力画像の水平方向の位置を表し、縦軸は、デプス値を表す。また、図22において、黒丸は、再構成画像の各画素に対応するデプス値を表し、灰色の丸は、再構成画像の各画素に対応する出力画像の位置を表している。
図22に示すように、視点生成部45は、再構成画像に対する投影処理において、まず、再構成画像の各画素を視聴位置に向けて投影する。これにより、視点生成部45は、投影線と画像表示部13の交点を、図22中灰色の丸で表される再構成画像の各画素に対応する出力画像の位置として求める。そして、視点生成部45は、再構成画像の各画素の画素値を、その画素に対応する交点の画素値として用いて、図22中白丸で位置が表される出力画像の各画素の画素値を補間する。
[出力画像の例]
図23は、出力画像の例を示す図である。
なお、図23は、画像表示部13を鑑賞する視聴者を上から見た図である。また、図23の上部の曲線は、出力画像の各画素の奥行方向の位置を表している。
図23Aに示すように、木と、木より手前側の車の画像を含む出力画像が画像表示部13に表示されている場合に、図23Bに示すように、視聴者が前に移動し、木を注視すると、出力画像において、木が手前側に移動するとともに大きくなり、車が木に比べてより手前側に移動し、より大きくなる。また、図23Bに示すように、注視されている木がくっきりし、注視されていない車がぼける。
[画像処理部の処理の説明]
図24は、図5の画像処理部12の画像処理を説明するフローチャートである。この画像処理は、例えば、位置情報、入力画像、およびデプス画像が画像処理部12に供給されたとき、開始される。
図24のステップS11において、画像処理部12の入力視点選択部41は、位置検出部11から供給される位置情報が表す視聴位置に基づいて、入力画像の視点から所定の視点を選択し、立体感補正用パラメータを生成する視点選択処理を行う。この視点選択処理の詳細は、後述する図25や図26を参照して説明する。
ステップS12において、拡大処理部42は、入力視点選択部41から供給される入力画像とデプス画像に対して拡大処理を行う。拡大処理部42は、拡大処理後の入力画像を拡大画像として立体感補正部43に供給するとともに、拡大処理後のデプス画像を拡大デプス画像として立体感補正部43に供給する。
ステップS13において、立体感補正部43は、拡大処理部42から供給される拡大画像と拡大デプス画像に対して運動視差処理を行う。この運動視差処理の詳細は、後述する図27を参照して説明する。
ステップS14において、立体感強調部44は、位置検出部11から供給される位置情報が表す注視点の位置に基づいて、立体感補正部43から供給される再構成画像に対して空気遠近感処理を行う。立体感強調部44は、空気遠近感処理後の再構成画像を視点生成部45に供給する。
ステップS15において、視点生成部45は、位置検出部11から供給される位置情報が表す視聴位置と、立体感補正部43から供給される再構成デプス画像とに基づいて、立体感強調部44から供給される再構成画像に対して投影処理を行う。視点生成部45は、その結果得られる所定の1視点のカラー画像を出力画像として画像表示部13(図3)に供給し、処理を終了する。
図25は、図7の入力視点選択部41による図24のステップS11の視点選択処理の詳細を説明するフローチャートである。
図25のステップS31において、入力視点選択部41の視点選択部51は、位置検出部11から供給される位置情報が表す視聴位置に基づいて、入力画像の視点から、視聴位置に対応する所定の1視点を選択する。入力視点選択部41は、選択された1視点の視点番号をセレクタ52に供給する。
ステップS32において、視点選択部51は、位置情報が表す視聴位置に基づいて、その視聴位置の、選択された1視点に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータとして生成し、立体感補正部43に供給する。
ステップS33において、セレクタ52は、外部から入力される入力画像とデプス画像のうち、視点選択部51から供給される視点番号で特定される視点の入力画像とデプス画像を選択し、拡大処理部42に出力する。そして、処理は図24のステップS11に戻り、ステップS12に進む。
図26は、図8の入力視点選択部41による図24のステップS11の視点選択処理の詳細を説明するフローチャートである。
図26のステップS41において、入力視点選択部41の視点選択部61は、位置検出部11から供給される位置情報が表す視聴位置に基づいて、入力画像の視点から、視聴位置に対応する所定の1視点と、その1視点に隣接する視点からなる複数の視点を選択する。視点選択部61は、選択された複数の視点の視点番号を視点合成部62に供給する。
ステップS42において、視点選択部61は、図7の視点選択部51と同様に、視聴位置に基づいて、立体感補正用パラメータを生成し、立体感補正部43に供給する。
ステップS43において、視点合成部62は、外部から入力される入力画像とデプス画像のうち、視点選択部61から供給される視点番号で特定される複数の視点の入力画像とデプス画像を選択し、合成する。
ステップS44において、視点合成部62は、ステップS43の合成の結果得られる1視点の入力画像とデプス画像を、拡大処理部42に出力する。そして、処理は図24のステップS11に戻り、ステップS12に進む。
図27は、図10の立体感補正部43による図24のステップS13の運動視差処理の詳細を説明するフローチャートである。
図27のステップS51において、立体感補正部43のデプス補正部81は、図12および図13で説明したように、入力視点選択部41からの立体感補正用パラメータに基づいて、拡大処理部42からの拡大デプス画像を補正する。デプス補正部81は、補正後の拡大デプス画像を再構成デプス画像としてスケーリング部82に供給する。
ステップS52において、スケーリング部82は、図16および図17で説明したように、立体感補正用パラメータに基づいて、拡大処理部42からの拡大画像と、デプス補正部81からの再構成デプス画像に対してスケーリングを行う。スケーリング部82は、スケーリング後の拡大画像を再構成画像として図5の立体感強調部44に供給し、スケーリング後の再構成デプス画像を視点生成部45に供給する。そして、処理は図24のステップS13に戻り、ステップS14に進む。
以上のように、画像処理部12は、視聴位置に基づいてデプス画像を補正するので、2Dディスプレイである画像表示部13において、実世界に近似する運動視差を実現することができる。その結果、視聴者は高精度の立体視を行うことができる。
なお、画像処理装置10では、画像処理部12が出力画像のみを出力したが、出力画像に対応するデプス画像も出力するようにしてもよい。この場合、視点生成部45は、図28に示すように、出力画像に対応するデプス画像として、再構成デプス画像を構成する各画素のデプス値をそのまま出力する。なお、図28において、横軸は、再構成デプス画像の水平方向の位置を表し、縦軸は、デプス値を表す。
<第2実施の形態>
[画像処理装置の第2実施の形態の構成例]
図29は、本技術を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。
図29に示す構成のうち、図3の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図29の画像処理装置100の構成は、主に、画像処理部12の代わりに画像処理部102および画像処理部103が設けられ、画像表示部13の代わりに画像表示部104が設けられている点、および、新たに対象決定部101が設けられている点が図3の構成と異なる。画像処理装置100は、1以上の視点の入力画像およびデプス画像並びに位置情報に基づいて、左眼用と右眼用の2視点の出力画像を表示する。
具体的には、画像処理装置100の対象決定部101は、画像処理部102における生成対象に対応する視点として左眼を指定する処理視点情報を画像処理部102に供給する。また、対象決定部101は、画像処理部103における生成対象に対応する視点として右眼を指定する処理視点情報を画像処理部103に供給する。
画像処理部102には、図3や図4の画像処理部12と同様に、外部から1以上の視点のカラー画像が入力画像として入力されるとともに、入力画像に対応する1以上の視点のデプス画像が入力される。また、画像処理部102は、位置検出部11から供給される位置情報と、対象決定部101から供給される処理視点情報とに基づいて、外部から入力された入力画像とデプス画像を補正する。画像処理部102は、補正後の入力画像とデプス画像を用いて、所定の1視点のカラー画像を生成し、左眼用の出力画像として画像表示部104に供給する。
また、画像処理部103は、画像処理部102と同様に構成される。また、画像処理部103には、画像処理部102と同様に、外部から1以上の視点のカラー画像が入力画像として入力されるとともに、入力画像に対応する1以上の視点のデプス画像が入力される。画像処理部103は、画像処理部102と同様に、位置検出部11から供給される位置情報と、対象決定部101から供給される処理視点情報とに基づいて、外部から入力された入力画像とデプス画像を補正する。画像処理部103は、画像処理部102と同様に、補正後の入力画像とデプス画像を用いて、所定の1視点のカラー画像を生成し、右眼用の出力画像として画像表示部104に供給する。
画像表示部104は、2視点の3D画像を表示する3Dディスプレイにより構成される。画像表示部104は、画像処理部102から供給される左眼用の出力画像と、画像処理部103から供給される右眼用の出力画像を、例えば交互に表示させる。これにより、視聴者は、左眼用の出力画像の表示時に左眼用のシャッタが開き、右眼用の出力画像の表示時に右眼用のシャッタが開く3D鑑賞用のメガネ等を装着することで、3D画像を鑑賞することができる。
なお、図29の画像処理装置100では、入力画像に対応する1以上の視点のデプス画像が入力されたが、入力画像から生成されるようにしてもよい。この場合、図30に示すように、画像処理装置100には、図4のデプス検出部21が設けられる。
[画像処理部の詳細構成例]
図31は、図29の画像処理部102の詳細構成例を示すブロック図である。
図31に示す構成のうち、図5の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図31の画像処理部102の構成は、主に、入力視点選択部41の代わりに入力視点選択部121が設けられている点が図5の構成と異なる。
具体的には、画像処理部102の入力視点選択部121は、位置検出部11から供給される位置情報が表す視聴位置と、対象決定部101から供給される処理視点情報とに基づいて、外部から入力される入力画像の視点から所定の視点を選択する。そして、入力視点選択部121は、図5の入力視点選択部41と同様に、選択された所定の視点の入力画像と、対応するデプス画像を用いて、所定の1視点の入力画像とデプス画像を生成し、拡大処理部42に供給する。また、入力視点選択部121は、位置情報が表す視聴位置と処理視点情報が指定する左眼に基づいて立体感補正用パラメータを生成し、立体感補正部43に供給する。
なお、図示は省略するが、図31の画像処理部102において、立体感強調部44の後段に立体感補正部43が設けられるようにしてもよい。
[入力視点選択部の詳細構成例]
図32は、図31の入力視点選択部121の詳細構成例を示すブロック図である。
図32に示す構成のうち、図7の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図32の入力視点選択部121の構成は、主に、視点選択部51の代わりに視点選択部141が設けられている点が図7の構成と異なる。
具体的には、入力視点選択部121の視点選択部141は、位置検出部11から供給される位置情報が表す視聴位置と、対象決定部101から供給される処理視点情報が指定する左眼とに基づいて、入力画像の視点のうちの所定の1視点を選択する。
より詳細には、視点選択部141は、視聴位置に基づいて左眼の視聴位置(以下、左眼視聴位置という)を求め、その左眼視聴位置に対応する所定の1視点を選択する。なお、左眼視聴位置とは、例えば、視聴位置から所定の距離だけ左側にシフトした位置である。
視点選択部141は、選択された1視点の視点番号をセレクタ52に供給する。また、視点選択部141は、左眼視聴位置に基づいて、その左眼視聴位置の、選択された1視点に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータとして生成し、立体感補正部43に供給する。
[入力視点選択部の他の詳細構成例]
図33は、図31の入力視点選択部121の他の詳細構成例を示すブロック図である。
図33に示す構成のうち、図8の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図33の入力視点選択部121の構成は、主に、視点選択部61の代わりに視点選択部161が設けられている点が図8の構成と異なる。
具体的には、入力視点選択部121の視点選択部161は、位置検出部11からの位置情報が表す視聴位置と、対象決定部101からの処理視点情報が指定する左眼とに基づいて、入力画像の視点のうちの複数の視点を選択する。より詳細には、視点選択部161は、視聴位置に基づいて左眼視聴位置を求める。そして、視点選択部161は、入力画像の視点のうちの、左眼視聴位置に対応する所定の1視点と、その1視点に隣接する視点からなる複数の視点を選択する。
視点選択部161は、図8の視点選択部61と同様に、選択された複数の視点の視点番号を視点合成部62に供給する。また、視点選択部161は、図32の視点選択部141と同様に、左眼視聴位置に基づいて立体感補正用パラメータを生成し、立体感補正部43に供給する。
[画像処理部の処理の説明]
図31の画像処理部102の画像処理は、視点選択処理を除いて、図24の画像処理と同様であるので、視点選択処理についてのみ説明する。
図34は、図32の入力視点選択部121による視点選択処理の詳細を説明するフローチャートである。
図34のステップS71において、入力視点選択部121の視点選択部141は、視聴位置と処理視点情報が指定する左眼とに基づいて、入力画像の視点から、左眼視聴位置に対応する所定の1視点を選択する。入力視点選択部41は、選択された1視点の視点番号をセレクタ52に供給する。
ステップS72において、視点選択部141は、左眼視聴位置に基づいて、その左眼視聴位置の、選択された1視点に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータとして生成し、立体感補正部43に供給する。
ステップS73の処理は、図25のステップS33の処理と同様であるので、説明は省略する。
図35は、図33の入力視点選択部121による視点選択処理の詳細を説明するフローチャートである。
図35のステップS91において、入力視点選択部121の視点選択部161は、視聴位置と処理視点情報が指定する左眼とに基づいて、入力画像の視点から、左眼視聴位置に対応する所定の1視点と、その1視点に隣接する視点からなる複数の視点を選択する。視点選択部161は、選択された複数の視点の視点番号を視点合成部62に供給する。
ステップS92において、視点選択部161は、図32の視点選択部141と同様に、左眼視聴位置に基づいて立体感補正用パラメータを生成し、立体感補正部43に供給する。
ステップS93およびS94の処理は、図26のステップS43およびS44の処理と同様であるので、説明は省略する。
[画像処理装置の第2実施の形態の他の構成例]
図36は、画像処理装置100の他の構成例を示すブロック図である。
図36に示す構成のうち、図29の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図36の画像処理装置100の構成は、主に、画像処理部102の代わりに画像処理部171が設けられるとともに、画像処理部103の代わりに画像処理部172が設けられている点、および、デプス検出部173と視点生成部174が新たに設けられている点が図29の構成と異なる。画像処理装置100は、画像処理部102により生成された左眼用の出力画像と画像処理部103により生成された右眼用の出力画像を用いて共通のデプス画像を生成し、その共通のデプス画像を用いて新たな左眼用の出力画像と右眼用の出力画像を生成する。
具体的には、画像処理装置100の画像処理部171は、図31の視点生成部45が左眼用の出力画像とともに、立体感強調部44から供給される再構成画像を出力する点を除いて、図31の画像処理部102と同様に構成される。画像処理部171から出力される左眼用の出力画像は、デプス検出部173に供給され、再構成画像は、左眼用の再構成画像として視点生成部174に供給される。
また、画像処理部172は、図29の画像処理部103の視点生成部が右眼用の出力画像とともに、立体感強調部から供給される再構成画像を出力する点を除いて、画像処理部103と同様に構成される。画像処理部172から出力される右眼用の出力画像は、デプス検出部173に供給され、再構成画像は、右眼用の再構成画像として視点生成部174に供給される。
デプス検出部173は、画像処理部171から供給される左眼用の出力画像と、画像処理部172から供給される右眼用の出力画像を用いて、マッチング等により、共通のデプス画像を生成する。デプス検出部173は、生成された共通のデプス画像を視点生成部174に供給する。
視点生成部174は、表示制御部として機能し、位置検出部11から供給される位置情報が表す視聴位置と、デプス検出部173から供給されるデプス画像とに基づいて、画像処理部171から供給される左眼用の再構成画像に対して投影処理を行う。そして、視点生成部174は、その結果得られる所定の1視点の画像を、左眼用の出力画像として画像表示部104に供給する。また、視点生成部174は、視聴位置とデプス画像とに基づいて、画像処理部172から供給される右眼用の再構成画像に対して投影処理を行う。そして、視点生成部174は、その結果得られる所定の1視点の画像を、右眼用の出力画像として画像表示部104に供給する。
[視点生成部の投影処理の説明]
図37は、図36の視点生成部174の投影処理を説明する図である。
なお、図37は、視点生成部174に入力される左眼用と右眼用の再構成画像に対応する共通のデプス画像のデプス値と、その左眼用と右眼用の再構成画像の画素に対応する、左眼用と右眼用の出力画像の位置を示すグラフである。
図37において、横軸は、左眼用と右眼用の再構成画像および出力画像の水平方向の位置を表し、縦軸は、デプス値を表す。また、図37において、曲線は、左眼用と右眼用の再構成画像に対応する共通のデプス画像のデプス値を表す。
図37に示すように、視点生成部174は、左眼用の再構成画像に対する投影処理において、まず、左眼用の再構成画像の各画素を左眼視聴位置に向けて投影する。これにより、視点生成部174は、例えば、図37中Lが付された黒丸で表されるデプス値に対応する画素に対応する左眼用の出力画像の位置として、図37中L’が付された灰色の丸で表される、投影線と画像表示部104の交点を求める。そして、視点生成部174は、左眼用の再構成画像の各画素の画素値を、その画素に対応する交点の画素値として用いて、左眼用の出力画像の各画素の画素値を補間する。
同様に、視点生成部174は、右眼用の再構成画像に対する投影処理において、まず、右眼用の再構成画像の各画素を右眼の視聴位置(以下、右眼視聴位置という)に向けて投影する。これにより、視点生成部174は、例えば、図37中Rが付された黒丸で表されるデプス値に対応する画素に対応する右眼用の出力画像の位置として、図37中R’が付された灰色の丸で表される、投影線と画像表示部104の交点を求める。そして、視点生成部174は、右眼用の再構成画像の各画素の画素値を、その画素に対応する交点の画素値として用いて、右眼用の出力画像の各画素の画素値を補間する。
なお、右眼視聴位置とは、例えば、視聴位置から所定の距離だけ右側にシフトした位置である。
以上のようにして、共通のデプス画像を用いて左眼用と右眼用の再構成画像に対する投影処理が行われる場合、視聴者は、共通のデプス画像に対応する奥行方向の位置に、確実に3D画像を融像することができる。
以上のように、画像処理装置100は、視聴位置に基づいてデプス画像を補正するので、2視点の3D画像を表示する3Dディスプレイである画像表示部104において、実世界に近似する運動視差を実現することができる。その結果、視聴者は高精度の立体視を行うことができる。
<第3実施の形態>
[画像処理装置の第3実施の形態の構成例]
図38は、本技術を適用した画像処理装置の第3実施の形態の構成例を示すブロック図である。
図38に示す構成のうち、図29の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図38の画像処理装置180の構成は、主に、画像処理部102、画像処理部103、画像表示部104の代わりに、画像処理部181、画像処理部182、画像表示部183が設けられている点が図29の構成と異なる。画像処理装置180は、1以上の視点の入力画像およびデプス画像並びに位置情報に基づいて、表示対象の多視点の3D画像のうちの2視点の3D画像として、左眼用と右眼用の2視点の出力画像を表示する。
具体的には、画像処理装置180の画像処理部181には、図29の画像処理部102と同様に、外部から1以上の視点のカラー画像が入力画像として入力されるとともに、入力画像に対応する1以上の視点のデプス画像が入力される。また、画像処理部181は、位置検出部11からの位置情報、対象決定部101からの処理視点情報、および画像表示部183からの表示パラメータ(詳細は後述する)に基づいて、外部から入力された入力画像とデプス画像を補正する。そして、画像処理部181は、補正後の入力画像とデプス画像を用いて、所定の1視点のカラー画像を生成し、左眼用の出力画像として画像表示部183に供給する。
なお、表示パラメータとは、画像表示部183で表示される多視点の3D画像のうちの各視点の画像を鑑賞可能な視聴位置を表すパラメータである。即ち、表示パラメータは、画像表示部183で表示される多視点の3D画像の指向性を表すパラメータである。
また、画像処理部181は、表示パラメータと位置情報が表す視聴位置とに基づいて、左眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。そして、画像処理部181は、その視点の視点番号を左眼視点番号として画像表示部183に供給する。
画像処理部182は、画像処理部181と同様に構成される。また、画像処理部182には、画像処理部181と同様に、外部から1以上の視点のカラー画像が入力画像として入力されるとともに、入力画像に対応する1以上の視点のデプス画像が入力される。画像処理部182は、画像処理部181と同様に、位置検出部11からの位置情報、対象決定部101からの処理視点情報、および画像表示部183からの表示パラメータに基づいて、外部から入力された入力画像とデプス画像を補正する。画像処理部182は、画像処理部181と同様に、補正後の入力画像とデプス画像を用いて、所定の1視点のカラー画像を生成し、右眼用の出力画像として画像表示部183に供給する。
また、画像処理部182は、表示パラメータと位置情報が表す視聴位置とに基づいて、右眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。そして、画像処理部182は、その視点の視点番号を右眼視点番号として画像表示部183に供給する。
画像表示部183は、多視点の3D画像を表示する3Dディスプレイにより構成される。画像表示部183は、画像処理部181から供給される左眼視点番号と、画像処理部182から供給される右眼視点番号とに基づいて、左眼用の出力画像と右眼用の出力画像を含む多視点の3D画像を生成する。例えば、画像表示部183は、左眼視点番号の視点の画像を左眼用の出力画像とし、右眼視点番号の視点の画像を右眼用の出力画像とし、それらの視点以外の視点の画像を所定の画像(例えば、黒画)とした多視点の3D画像を生成する。
そして、画像表示部183は、生成された多視点の3D画像を、視点ごとに異なる方向に向けて表示する。これにより、視聴者は、3D鑑賞用のメガネを装着せずに3D画像を鑑賞することができる。
なお、図38の画像処理装置180では、入力画像に対応する1以上の視点のデプス画像が入力されたが、入力画像から生成されるようにしてもよい。この場合、図39に示すように、画像処理装置180には、図4のデプス検出部21が設けられる。また、図示は省略するが、図38の画像処理装置180は、図36の画像処理装置100と同様に、共通のデプス画像を用いて新たな左眼用と右眼用の出力画像を生成し、その左眼用と右眼用の出力画像を含む多視点の3D画像を生成するようにしてもよい。
また、視聴者が複数存在する場合には、画像処理装置180は、視聴者ごとに左眼用の出力画像と右眼用の出力画像を生成し、全ての視聴者の左眼用の出力画像と右眼用の出力画像を含む多視点の3D画像を表示することができる。この場合、各視聴者に対して2視点の3D画像のみが表示されるので、隣接する視点の画像間でクロストークが発生すると、疲労感に繋がる。
[画像処理部の詳細構成例]
図40は、図38の画像処理部181の詳細構成例を示すブロック図である。
図40に示す構成のうち、図5の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図40の画像処理部181の構成は、主に、入力視点選択部41の代わりに入力視点選択部201が設けられている点が図5の構成と異なる。
具体的には、画像処理部181の入力視点選択部201は、位置検出部11からの位置情報が表す視聴位置、対象決定部101からの処理視点情報、および画像表示部183からの表示パラメータに基づいて、左眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。そして、入力視点選択部201は、その視点の視点番号を左眼視点番号として画像表示部183に供給する。
また、入力視点選択部201は、左眼視点番号に基づいて、外部から入力される入力画像の視点から所定の視点を選択する。そして、入力視点選択部201は、図5の入力視点選択部41と同様に、選択された所定の視点の入力画像と、対応するデプス画像を用いて、所定の1視点の入力画像とデプス画像を生成し、拡大処理部42に供給する。さらに、入力視点選択部201は、左眼視点番号、位置情報が表す視聴位置、および処理視点情報が指定する左眼に基づいて立体感補正用パラメータを生成し、立体感補正部43に供給する。
なお、図示は省略するが、図40の画像処理部181において、立体感強調部44の後段に立体感補正部43が設けられるようにしてもよい。
[入力視点選択部の詳細構成例]
図41は、図40の入力視点選択部201の詳細構成例を示すブロック図である。
図41に示す構成のうち、図7の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図41の入力視点選択部201の構成は、主に、視点選択部51の代わりに視点選択部221が設けられている点が図7の構成と異なる。
具体的には、入力視点選択部201の視点選択部221は、図32の視点選択部141と同様に、位置検出部11からの位置情報が表す視聴位置と、対象決定部101からの処理視点情報が指定する左眼とに基づいて、左眼視聴位置を求める。そして、視点選択部221は、左眼視聴位置と、画像表示部183から供給される表示パラメータとに基づいて、左眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。そして、視点選択部221は、その視点の視点番号を左眼視点番号として画像表示部183に供給する。
また、視点選択部221は、左眼視点番号に基づいて、入力画像の視点のうちの、その左眼視点番号に対応する所定の1視点を選択する。視点選択部221は、選択された1視点の視点番号をセレクタ52に供給する。
さらに、視点選択部221は、左眼視聴位置に基づいて、その左眼視聴位置の、左眼視点番号の視点に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータとして生成し、立体感補正部43に供給する。なお、この初期位置は、例えば、画像表示部183で表示される多視点の3D画像に対応する視点ごとに設定される、その視点の3D画像を鑑賞する際に最適な位置である。
[入力視点選択部の処理の説明]
図42および図43は、図41の入力視点選択部201の視点の選択を説明する図である。
図42は、入力画像と、画像表示部183で表示される3D画像の視点数が同一である場合の視点選択部221の処理を説明する図である。
なお、図42の例では、入力画像と画像表示部183で表示される3D画像の視点数は4である。また、図42および図43では、視点番号iの視点を視点#iといい、表示パラメータが表す視聴位置のうち、視点番号iの視点の画像を鑑賞可能な視聴位置を視聴位置#iという。
図42に示すように、入力視点選択部201の視点選択部221は、まず、位置情報が表す視聴位置と処理視点情報が指定する左眼とに基づいて、左眼視聴位置を求める。そして、視点選択部221は、左眼視聴位置と表示パラメータに基づいて、左眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。
図42の例では、左眼視聴位置から鑑賞可能な画像表示部183で表示される3D画像に対応する視点が視点#2であるため、視点選択部221は、左眼用の出力画像を視点#2の画像として表示することを決定する。
また、図42の例では、入力画像と、画像表示部183で表示される3D画像の視点数が同一であるので、視点選択部221は、入力画像の視点#1乃至視点#4のうちの、画像表示部183における視点#2に対応する視点として、同一の視点#2を選択する。そして、視点選択部221は、視点#2の視点番号2をセレクタ52に供給する。これにより、セレクタ52は、入力画像およびデプス画像のうち、視点#2の入力画像とデプス画像を選択する。
図43は、入力画像と、画像表示部183で表示される3D画像の視点数が異なる場合の視点選択部221の処理を説明する図である。
なお、図43の例では、入力画像の視点数は7であり、画像表示部183で表示される3D画像の視点数は4である。
図43に示すように、視点選択部221は、まず、位置情報が表す視聴位置と処理視点情報が指定する左眼とに基づいて、左眼視聴位置を求める。そして、視点選択部221は、左眼視聴位置と表示パラメータに基づいて、左眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。
図43の例では、左眼視聴位置から鑑賞可能な画像表示部183で表示される3D画像に対応する視点が視点#2であるため、視点選択部221は、左眼用の出力画像を視点#2の画像として表示することを決定する。
また、図43の例では、入力画像と、画像表示部183で表示される3D画像の視点数が異なっているので、視点選択部221は、入力画像の視点#1乃至視点#7のうちの、画像表示部183における視点#2に対応する視点として、例えば視点#3を選択する。そして、視点選択部221は、視点#3の視点番号3をセレクタ52に供給する。これにより、セレクタ52は、入力画像およびデプス画像のうち、視点#3の入力画像とデプス画像を選択する。
図44は、図41の視点選択部221の立体感補正用パラメータの生成を説明する図である。
図44の例では、入力画像と画像表示部183で表示される3D画像の視点数は4である。また、図44では、視点番号iの視点を視点#iといい、表示パラメータが表す視聴位置のうち、視点番号iの視点の画像を鑑賞可能な視聴位置を視聴位置#iという。
図44に示すように、左眼視点番号が2である場合、視点選択部221は、左眼視聴位置の、視点#2に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータとして生成する。
[入力視点選択部の他の詳細構成例]
図45は、図40の入力視点選択部201の他の詳細構成例を示すブロック図である。
図45の入力視点選択部201の構成は、主に、視点選択部61の代わりに視点選択部241が設けられている点が図8の構成と異なる。
具体的には、入力視点選択部201の視点選択部241は、図33の視点選択部161と同様に、位置検出部11からの位置情報が表す視聴位置と、対象決定部101からの処理視点情報が指定する左眼とに基づいて、左眼視聴位置を求める。そして、視点選択部241は、左眼視聴位置と、画像表示部183から供給される表示パラメータとに基づいて、左眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。そして、視点選択部241は、その視点の視点番号を左眼視点番号として画像表示部183に供給する。
また、視点選択部241は、左眼視点番号に基づいて、入力画像の視点のうちの、その左眼視点番号に対応する所定の1視点と、その1視点に隣接する視点からなる複数の視点を選択する。視点選択部241は、選択された複数の視点の視点番号を視点合成部62に供給する。さらに、視点選択部241は、図41の視点選択部221と同様に、左眼視聴位置に基づいて立体感補正用パラメータを生成し、立体感補正部43に供給する。
[他の入力視点選択部の処理の説明]
図46は、図45の入力視点選択部201の視点の選択を説明する図である。
なお、図46の例では、入力画像の視点数は7であり、画像表示部183で表示される3D画像の視点数は4である。また、図46では、視点番号iの視点を視点#iといい、表示パラメータが表す視聴位置のうち、視点番号iの視点の画像を鑑賞可能な視聴位置を視聴位置#iという。
図46に示すように、入力視点選択部201の視点選択部241は、まず、位置情報が表す視聴位置と処理視点情報が指定する左眼とに基づいて、左眼視聴位置を求める。そして、視点選択部241は、左眼視聴位置と表示パラメータに基づいて、左眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。
図46の例では、左眼視聴位置から鑑賞可能な画像表示部183で表示される3D画像に対応する視点が視点#2であるため、視点選択部241は、左眼用の出力画像を視点#2の画像として表示することを決定する。
また、視点選択部241は、入力画像の視点#1乃至視点#7のうちの、画像表示部183における視点#2に対応する視点#3と、視点#3に隣接する視点#2および視点#4を選択する。そして、視点選択部241は、視点#2乃至視点#4の視点番号2乃至4を視点合成部62に供給する。これにより、視点合成部62は、入力画像とデプス画像のうち、視点#2乃至視点#4の入力画像とデプス画像を選択し、それぞれを合成することにより、所定の1視点の入力画像とデプス画像を生成する。
[画像処理部の処理の説明]
図40の画像処理部181の画像処理は、視点選択処理を除いて、図24の画像処理と同様であるので、視点選択処理についてのみ説明する。
図47は、図41の入力視点選択部201による視点選択処理の詳細を説明するフローチャートである。
図47のS110において、入力視点選択部201の視点選択部221は、位置検出部11からの位置情報が表す視聴位置と、対象決定部101からの処理視点情報が指定する左眼とに基づいて、左眼視聴位置を求める。
ステップS111において、視点選択部221は、左眼視聴位置と、画像表示部183から供給される表示パラメータとに基づいて、左眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。そして、視点選択部221は、その視点の視点番号を左眼視点番号として画像表示部183に供給する。
ステップS112において、視点選択部221は、左眼視点番号に基づいて、入力画像の視点から、その左眼視点番号に対応する所定の1視点を選択する。視点選択部221は、選択された1視点の視点番号をセレクタ52に供給する。
ステップS113において、視点選択部221は、左眼視聴位置に基づいて、その左眼視聴位置の、左眼視点番号の視点に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータとして生成し、立体感補正部43に供給する。
ステップS114の処理は、図34のステップS73の処理と同様であるので、説明は省略する。
図48は、図45の入力視点選択部201による視点選択処理の詳細を説明するフローチャートである。
図48のS120において、入力視点選択部201の視点選択部241は、位置検出部11からの位置情報が表す視聴位置と、対象決定部101からの処理視点情報が指定する左眼とに基づいて、左眼視聴位置を求める。
ステップS121において、視点選択部241は、左眼視聴位置と、画像表示部183から供給される表示パラメータとに基づいて、左眼用の出力画像を、画像表示部183で表示される多視点の3D画像のうちのいずれの視点の画像として表示するかを決定する。そして、視点選択部241は、その視点の視点番号を左眼視点番号として画像表示部183に供給する。
ステップS122において、視点選択部241は、左眼視点番号に基づいて、入力画像の視点のうちの、その左眼視点番号に対応する所定の1視点と、その1視点に隣接する視点からなる複数の視点を選択する。そして、視点選択部241は、選択された複数の視点の視点番号を視点合成部62に供給する。
ステップS123において、視点選択部241は、左眼視聴位置に基づいて、その左眼視聴位置の、左眼視点番号の視点に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータとして生成し、立体感補正部43に供給する。
ステップS124およびS125の処理は、図35のステップS93およびS94の処理と同様であるので、説明は省略する。
以上のように、画像処理装置180は、視聴位置に基づいてデプス画像を補正するので、多視点の3D画像を表示する3Dディスプレイである画像表示部183において、実世界に近似する運動視差を実現することができる。その結果、視聴者は高精度の立体視を行うことができる。
また、画像処理装置180は、左眼視聴位置および右眼視聴位置で視聴可能な2視点の出力画像のみを生成するので、画像表示部183で表示可能な多視点分の出力画像を生成する場合に比べて処理負荷を軽減することができる。
<第4実施の形態>
[画像処理装置の第4実施の形態の構成例]
図49は、本技術を適用した画像処理装置の第4実施の形態の構成例を示すブロック図である。
図49に示す構成のうち、図38の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図49の画像処理装置260の構成は、主に、対象決定部101の代わりに対象決定部261が設けられている点、画像処理部181と画像処理部182の代わりに、画像処理部262−1乃至262−N(Nは3以上の整数)が設けられている点、および、画像表示部183の代わりに画像表示部263が設けられている点が図38の構成と異なる。画像処理装置260は、1以上の視点の入力画像およびデプス画像並びに位置情報に基づいて、表示対象のN視点の3D画像として、N視点の出力画像を表示する。
具体的には、画像処理装置260の対象決定部261は、画像処理部262−1乃至262−Nにおける生成対象に対応する視点として、N視点の各視点を指定する処理視点情報を、それぞれ、画像処理部262−1乃至262−Nに供給する。
画像処理部262−1乃至262−Nには、それぞれ、図38の画像処理部181と同様に、外部から1以上の視点のカラー画像が入力画像として入力されるとともに、入力画像に対応する1以上の視点のデプス画像が入力される。また、画像処理部262−1乃至262−Nは、位置検出部11からの位置情報、対象決定部261からの処理視点情報、および画像表示部263からの表示パラメータに基づいて、外部から入力された入力画像とデプス画像を補正する。そして、画像処理部262−1乃至262−Nは、補正後の入力画像とデプス画像を用いて所定の1視点のカラー画像を生成し、処理視点情報が指定する視点の出力画像として画像表示部263に供給する。
なお、以下では、画像処理部262−1乃至262−Nを特に区別する必要がない場合、それらをまとめて画像処理部262という。
画像表示部263は、多視点の3D画像を表示する3Dディスプレイにより構成される。画像表示部263は、画像処理部262から供給されるN視点の出力画像からN視点の3D画像を生成する。例えば、画像表示部263は、画像処理部262から供給される出力画像を順に、1乃至N番目の視点の画像としたN視点の3D画像を生成する。
そして、画像表示部263は、生成されたN視点の3D画像を、視点ごとに異なる方向に向けて表示する。これにより、視聴者は、3D鑑賞用のメガネを装着せずに、N視点のうちの2視点の画像からなる3D画像を鑑賞することができる。
なお、図49の画像処理装置260では、入力画像に対応する1以上の視点のデプス画像が入力されたが、入力画像から生成されるようにしてもよい。この場合、図50に示すように、画像処理装置180には、図4のデプス検出部21が設けられる。また、図示は省略するが、図49の画像処理装置260は、図36の画像処理装置100と同様に、所定の2視点ごとに共通のデプス画像を用いて新たなN視点の出力画像を生成し、そのN視点の出力画像からN視点の3D画像を生成するようにしてもよい。
また、視聴者が複数存在する場合には、画像処理装置260は、N視点を視聴者の人数で分割して各視聴者に割り当て、視聴者ごとに、割り当てられた視点分の出力画像を生成し、全ての視聴者の出力画像からなるN視点の3D画像を表示することができる。この場合、各視聴者に対して、各視聴者が鑑賞している2視点以外の視点の3D画像も表示されるので、隣接する視点の画像間でクロストークが発生した場合であっても、疲労感が発生しにくい。
[画像処理部の詳細構成例]
図51は、図49の画像処理部262の詳細構成例を示すブロック図である。
図51に示す構成のうち、図5の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図51の画像処理部262の構成は、主に、入力視点選択部41の代わりに入力視点選択部281が設けられている点が図5の構成と異なる。
具体的には、画像処理部262の入力視点選択部281は、対象決定部261からの処理視点情報に基づいて、外部から入力される入力画像の視点から所定の視点を選択する。そして、入力視点選択部281は、図5の入力視点選択部41と同様に、選択された所定の視点の入力画像と、対応するデプス画像を用いて、所定の1視点の入力画像とデプス画像を生成し、拡大処理部42に供給する。
また、入力視点選択部281は、位置検出部11からの位置情報が表す視聴位置と、画像表示部263からの表示パラメータとに基づいて、画像表示部263で表示される多視点の3D画像のうちの、視聴位置から視聴可能な3D画像に対応する視点を検出する。そして、入力視点選択部281は、検出された視点、視聴位置、および、対象決定部261からの処理視点情報に基づいて、立体感補正用パラメータを生成し、立体感補正部43に供給する。
なお、図示は省略するが、図51の画像処理部262において、立体感強調部44の後段に立体感補正部43が設けられるようにしてもよい。
[入力視点選択部の詳細構成例]
図52は、図51の入力視点選択部281の詳細構成例を示すブロック図である。
図52に示す構成のうち、図7の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図52の入力視点選択部281の構成は、主に、視点選択部51の代わりに視点選択部301が設けられている点が図7の構成と異なる。
具体的には、入力視点選択部281の視点選択部301は、対象決定部261からの処理視点情報に基づいて、入力画像の視点のうちの、処理視点情報が指定する視点に対応する所定の1視点を選択する。そして、視点選択部301は、選択された1視点の視点番号をセレクタ52に供給する。
また、視点選択部301は、位置検出部11からの位置情報が表す視聴位置と、画像表示部263からの表示パラメータとに基づいて、画像表示部263で表示される多視点の3D画像のうちの、視聴位置から視聴可能な3D画像に対応する視点を検出する。そして、視点選択部301は、検出された視点、視聴位置、および処理視点情報に基づいて、処理視点情報が指定する視点に対応する位置の、その視点に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータとして生成する。そして、視点選択部301は、その立体感補正用パラメータを立体感補正部43に供給する。
[入力視点選択部の処理の説明]
図53および図54は、図52の入力視点選択部281の視点の選択を説明する図である。
図53は、入力画像と、画像表示部263で表示される3D画像の視点数が同一である場合の視点選択部301の処理を説明する図である。
なお、図53の例では、入力画像と画像表示部263で表示される3D画像の視点数は4である。また、図53および図54では、視点番号iの視点を視点#iといい、表示パラメータが表す視聴位置のうち、視点番号iの視点の画像を鑑賞可能な視聴位置を視聴位置#iという。
図53に示すように、入力視点選択部281の視点選択部301は、対象決定部261からの処理視点情報に基づいて、入力画像の視点のうちの、処理視点情報が指定する視点に対応する所定の1視点を選択し、その1視点の視点番号をセレクタ52に供給する。図53の例では、入力画像と、画像表示部263で表示される3D画像の視点数が同一であるので、視点選択部301は、入力画像の視点#1乃至視点#4のうちの、処理視点情報が指定する視点#4に対応する視点として、同一の視点#4を選択する。そして、視点選択部301は、視点#4の視点番号4をセレクタ52に供給する。これにより、セレクタ52は、入力画像およびデプス画像のうち、視点#4の入力画像とデプス画像を選択する。
図54は、入力画像と、画像表示部263で表示される3D画像の視点数が異なる場合の視点選択部301の処理を説明する図である。
なお、図54の例では、入力画像の視点数は8であり、画像表示部263で表示される3D画像の視点数は4である。
図54に示すように、視点選択部301は、対象決定部261からの処理視点情報に基づいて、入力画像の視点のうちの、処理視点情報が指定する視点に対応する所定の1視点を選択し、その1視点の視点番号をセレクタ52に供給する。図54の例では、入力画像と、画像表示部263で表示される3D画像の視点数が異なっているので、視点選択部301は、入力画像の視点#1乃至視点#8のうちの、処理視点情報が指定する視点#4に対応する視点として、例えば視点#7を選択する。そして、視点選択部301は、視点#7の視点番号7をセレクタ52に供給される。これにより、セレクタ52は、入力画像およびデプス画像のうち、視点#7の入力画像とデプス画像を選択する。
図55は、図52の視点選択部301の立体感補正用パラメータの生成を説明する図である。
図55の例では、入力画像と画像表示部263で表示される3D画像の視点数は4である。また、図55では、視点番号iの視点を視点#iといい、表示パラメータが表す視聴位置のうち、視点番号iの視点の画像を鑑賞可能な視聴位置を視聴位置#iという。
図55に示すように、視点選択部301は、まず、位置検出部11からの位置情報が表す視聴位置と、画像表示部263からの表示パラメータとに基づいて、画像表示部263で表示される多視点の3D画像のうちの、視聴位置から視聴可能な3D画像に対応する視点を検出する。図55の例では、視聴位置から鑑賞可能な画像表示部263で表示される3D画像に対応する視点として、視点#2が検出される。
そして、視点選択部301は、検出された視点#2、視聴位置、および、処理視点情報が指定する視点#4に基づいて、例えば、視点#2に対応する視聴位置#2と奥行方向の位置が同一であり、水平方向の位置が視点#4を鑑賞可能な水平方向の位置である位置を、視点#4に対応する位置とする。視点選択部301は、その視点#4に対応する位置の、視点#4に対して予め設定された初期位置を基準とした座標を、立体感補正用パラメータを生成する。
[入力視点選択部の他の詳細構成例]
図56は、図51の入力視点選択部281の他の詳細構成例を示すブロック図である。
図56の入力視点選択部281の構成は、主に、視点選択部61の代わりに視点選択部321が設けられている点が図8の構成と異なる。
具体的には、入力視点選択部281の視点選択部321は、対象決定部261からの処理視点情報に基づいて、入力画像の視点のうちの、処理視点情報が指定する視点に対応する所定の1視点と、その1視点に隣接する視点からなる複数の視点を選択する。そして、視点選択部301は、選択された複数の視点の視点番号を視点合成部62に供給する。
また、視点選択部321は、図52の視点選択部301と同様に、位置検出部11からの位置情報が表す視聴位置と、画像表示部263からの表示パラメータとに基づいて、画像表示部263で表示される多視点の3D画像のうちの、視聴位置から視聴可能な3D画像に対応する視点を検出する。そして、視点選択部321は、視点選択部301と同様に、検出された視点、視聴位置、および処理視点情報に基づいて、立体感補正用パラメータを生成し、立体感補正部43に供給する。
[他の入力視点選択部の処理の説明]
図57は、図56の入力視点選択部281の視点の選択を説明する図である。
なお、図57の例では、入力画像の視点数は8であり、画像表示部263で表示される3D画像の視点数は4である。また、図57では、視点番号iの視点を視点#iといい、表示パラメータが表す視聴位置のうち、視点番号iの視点の画像を鑑賞可能な視聴位置を視聴位置#iという。
図57に示すように、入力視点選択部281の視点選択部321は、対象決定部261からの処理視点情報に基づいて、入力画像の視点のうちの、処理視点情報が指定する視点に対応する所定の1視点と、その1視点に隣接する視点からなる複数の視点を選択する。
図57の例では、入力画像と、画像表示部263で表示される3D画像の視点数が異なっているので、視点選択部321は、入力画像の視点#1乃至視点#8のうちの、処理視点情報が指定する視点#4に対応する視点として、例えば視点#7を選択する。また、視点選択部321は、視点#7に隣接する視点#6および視点#8も選択する。そして、視点選択部321は、視点#6乃至視点#8の視点番号6乃至8を視点合成部62に供給する。これにより、視点合成部62は、入力画像およびデプス画像のうち、視点#6乃至#8の入力画像とデプス画像を選択し、それぞれを合成することにより、所定の1視点の入力画像とデプス画像を生成する。
[画像処理部の処理の説明]
図51の画像処理部262の画像処理は、視点選択処理を除いて、図24の画像処理と同様であるので、視点選択処理についてのみ説明する。
図58は、図52の入力視点選択部281による視点選択処理の詳細を説明するフローチャートである。
図58のS141において、入力視点選択部281の視点選択部301は、対象決定部261からの処理視点情報に基づいて、入力画像の視点から、処理視点情報が指定する視点に対応する所定の1視点を選択する。そして、視点選択部301は、選択された1視点の視点番号をセレクタ52に供給する。
ステップS142において、視点選択部301は、位置検出部11からの位置情報が表す視聴位置、処理視点情報、および、画像表示部263からの表示パラメータに基づいて、立体感補正用パラメータを生成する。そして、視点選択部301は、その立体感補正用パラメータを立体感補正部43に供給する。
ステップS143の処理は、図34のステップS73の処理と同様であるので、説明は省略する。
図59は、図56の入力視点選択部281による視点選択処理の詳細を説明するフローチャートである。
図59のS161において、入力視点選択部281の視点選択部321は、対象決定部261からの処理視点情報に基づいて、入力画像の視点から、処理視点情報が指定する視点に対応する所定の1視点と、その1視点に隣接する視点からなる複数の視点を選択する。そして、視点選択部301は、選択された複数の視点の視点番号を視点合成部62に供給する。
ステップS162において、視点選択部321は、位置検出部11からの位置情報が表す視聴位置、処理視点情報、および画像表示部263からの表示パラメータに基づいて、立体感補正用パラメータを生成し、立体感補正部43に供給する。
ステップS163およびS164の処理は、図35のステップS93およびS94の処理と同様であるので、説明は省略する。
以上のように、画像処理装置260は、視聴位置に基づいてデプス画像を補正するので、多視点の3D画像を表示する3Dディスプレイである画像表示部263において、実世界に近似する運動視差を実現することができる。その結果、視聴者は高精度の立体視を行うことができる。
なお、上述した画像処理装置10(100,180,260)が携帯型の装置である場合には、位置検出部11は、視聴者の位置の代わりに、画像処理装置10(100,180,260)の位置や傾き等を検出するようにしてもよい。この場合、画像処理装置10(100,180,260)の位置や傾きに基づいて視聴位置が求められる。また、画像処理装置10(100,180,260)のサイズや表示解像度等も外部から入力されるようにすることができる。
また、画像処理装置100(180,260)は、画像処理装置10と同様に、出力画像に対応するデプス画像も出力するようにしてもよい。
さらに、本実施の形態では、運動視差処理および空気遠近感処理が、位置情報に基づいて行われたが、視聴者の疲労や情動などに基づいて行われるようにしてもよい。
[本技術を適用したコンピュータの説明]
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図60は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としての記憶部508やROM(Read Only Memory)502に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブルメディア511に格納(記録)しておくことができる。このようなリムーバブルメディア511は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブルメディア511としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブルメディア511からドライブ510を介してコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵する記憶部508にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)501を内蔵しており、CPU501には、バス504を介して、入出力インタフェース505が接続されている。
CPU501は、入出力インタフェース505を介して、ユーザによって、入力部506が操作等されることにより指令が入力されると、それに従って、ROM502に格納されているプログラムを実行する。あるいは、CPU501は、記憶部508に格納されたプログラムを、RAM(Random Access Memory)503にロードして実行する。
これにより、CPU501は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU501は、その処理結果を、必要に応じて、例えば、入出力インタフェース505を介して、出力部507から出力、あるいは、通信部509から送信、さらには、記憶部508に記録等させる。
なお、入力部506は、キーボードや、マウス、マイク等で構成される。また、出力部507は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は、以下のような構成もとることができる。
(1)
視聴者の位置を表す情報である視聴者位置情報に基づいて、所定の視点のカラー画像の各画素の奥行方向の位置を表すデプス値からなるデプス画像を補正する画像処理部
を備える画像処理装置。
(2)
前記画像処理部は、前記視聴位置情報に基づいて、前記所定の視点のデプス画像の各画素の補正量を、前記所定の視点のデプス画像のうち、奥行方向の位置がより手前側であることを表すデプス値に対応する画素ほど大きくなるように決定し、前記画素ごとに、その画素の補正量だけ前記デプス値を補正する
前記(1)に記載の画像処理装置。
(3)
前記画像処理部は、前記視聴者の位置が、所定の初期位置より、前記画像処理部により補正された前記所定の視点のデプス画像に基づいて前記所定の視点のカラー画像を表示する表示装置側にある場合、前記所定の視点のデプス画像の各画素のデプス値を前記補正量だけ手前側方向に補正し、前記視聴者の位置が、前記所定の初期位置より前記表示装置とは反対側にある場合、前記所定の視点のデプス画像の各画素のデプス値を前記補正量だけ奥側方向に補正する
前記(2)に記載の画像処理装置。
(4)
前記画像処理部は、前記視聴者位置情報に基づいて、前記所定の視点のデプス画像とカラー画像のスケーリングの中心点を決定し、前記所定の視点のデプス画像とカラー画像の各画素のスケーリング率を、前記中心点からの距離がより遠く、奥行方向の位置がより手前側であることを表すデプス値に対応する画素ほど大きくなるように決定し、前記画素ごとに、その画素のスケーリング率で前記中心点を中心として前記デプス値と前記所定の視点のカラー画像を構成する画素値をスケーリングする
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記画像処理部は、前記視聴者の位置が、所定の初期位置より、前記画像処理部により補正された前記所定の視点のデプス画像に基づいて前記所定の視点のカラー画像を表示する表示装置側にある場合、前記所定の視点のデプス画像の各画素のデプス値を前記スケーリング率で拡大し、前記視聴者の位置が、前記所定の初期位置より前記表示装置とは反対側にある場合、前記所定の視点のデプス画像の各画素のデプス値を前記スケーリング率で縮小する
前記(4)に記載の画像処理装置。
(6)
前記所定の視点のデプス画像を拡大する拡大処理部
をさらに備え、
前記画像処理部は、前記視聴者位置情報に基づいて、前記拡大処理部により拡大された前記所定の視点のデプス画像のスケーリングを行う
前記(5)に記載の画像処理装置。
(7)
前記画像処理部はまた、前記視聴者の注視点の位置を表す注視点位置情報に基づいて、前記所定の視点のカラー画像の前記注視点付近の領域に対して、エンハンスまたはコントラストを向上させる処理を行い、前記注視点付近以外の領域に対して、エンハンスまたはコントラストを低下させる処理を行う
前記(1)乃至(6)のいずれかに記載の画像処理装置。
(8)
前記位置情報と前記画像処理部により補正された前記所定の視点のデプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行い、投影処理の結果得られる前記所定の視点のカラー画像を表示装置に表示させる表示制御部
をさらに備える
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(9)
前記位置情報に基づいて、複数の視点のデプス画像から前記所定の視点のデプス画像を選択する選択部
をさらに備える
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
前記位置情報に基づいて、複数の視点のデプス画像から所定の複数の視点のデプス画像を選択する選択部と、
前記選択部により選択された前記所定の複数の視点のデプス画像を合成し、前記所定の視点のデプス画像を生成する合成部と
をさらに備える
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(11)
前記所定の視点は、複数の視点であり、
前記画像処理部は、前記所定の視点の視点ごとに、前記位置情報に基づいて、その視点のデプス画像を補正する
前記(1)乃至(7)のいずれかに記載の画像処理装置。
(12)
前記所定の視点の視点ごとに、前記位置情報と前記画像処理部により補正された前記所定の視点のデプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行い、投影処理の結果得られる前記所定の視点のカラー画像を、前記所定の視点の視点数より多い視点の画像を表示する表示装置に表示させる表示制御部と、
前記位置情報に基づいて、前記表示装置に表示される画像に対応する視点から、前記投影処理の結果得られる前記所定の視点のカラー画像に割り当てる視点を選択し、その視点に基づいて、複数の視点のデプス画像から前記所定の視点のデプス画像を選択する選択部と
をさらに備える
前記(11)に記載の画像処理装置。
(13)
前記所定の視点の視点ごとに、前記位置情報と前記画像処理部により補正された前記所定の視点のデプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行い、投影処理の結果得られる前記所定の視点のカラー画像を、前記所定の視点の視点数より多い視点の画像を表示する表示装置に表示させる表示制御部と、
前記位置情報に基づいて、前記表示装置に表示される画像に対応する視点から、前記投影処理の結果得られる前記所定の視点のカラー画像に割り当てる視点を選択し、その視点に基づいて、複数の視点のカラー画像から所定の複数の視点のカラー画像を選択する選択部と、
前記選択部により選択された前記所定の複数の視点のカラー画像を合成し、前記所定の視点のカラー画像を生成する合成部と
をさらに備える
前記(11)に記載の画像処理装置。
(14)
前記所定の視点の視点ごとに、前記位置情報と前記画像処理部により補正された前記所定の視点のデプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行う投影処理部と、
前記投影処理部による投影処理の結果得られる前記所定の視点のカラー画像を用いて、そのカラー画像に共通のデプス画像を生成する生成部と、
前記所定の視点の視点ごとに、前記位置情報と前記生成部により生成された前記デプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行い、投影処理の結果得られる前記所定の視点のカラー画像を、表示装置に表示させる表示制御部
を更に備える
前記(11)に記載の画像処理装置。
(15)
画像処理装置が、
視聴者の位置を表す情報である視聴者位置情報に基づいて、所定の視点のカラー画像の各画素の奥行方向の位置を表すデプス値からなるデプス画像を補正する画像処理ステップ
を含む画像処理方法。
(16)
コンピュータに、
視聴者の位置を表す情報である視聴者位置情報に基づいて、所定の視点のカラー画像の各画素の奥行方向の位置を表すデプス値からなるデプス画像を補正する画像処理ステップ
を含む処理を実行させるためのプログラム。
10 画像処理装置, 12 画像処理部, 13 画像表示部, 41 入力視点選択部, 42 拡大処理部, 43 立体感補正部, 44 立体感強調部, 45 視点生成部, 51,61 視点選択部, 62 視点合成部, 81 デプス補正部, 82 スケーリング部, 100 画像処理装置, 102,103 画像処理部, 104 画像表示部, 121 入力視点選択部, 141,161 視点選択部, 171,172 画像処理部, 173 デプス検出部, 174 視点生成部, 260 画像処理装置, 262−1乃至262−N 画像処理部, 263 画像表示部, 281 入力視点選択部, 301,321 視点選択部

Claims (16)

  1. 視聴者の位置を表す情報である視聴者位置情報に基づいて、所定の視点のカラー画像の各画素の奥行方向の位置を表すデプス値からなるデプス画像を補正する画像処理部
    を備える画像処理装置。
  2. 前記画像処理部は、前記視聴位置情報に基づいて、前記所定の視点のデプス画像の各画素の補正量を、前記所定の視点のデプス画像のうち、奥行方向の位置がより手前側であることを表すデプス値に対応する画素ほど大きくなるように決定し、前記画素ごとに、その画素の補正量だけ前記デプス値を補正する
    請求項1に記載の画像処理装置。
  3. 前記画像処理部は、前記視聴者の位置が、所定の初期位置より、前記画像処理部により補正された前記所定の視点のデプス画像に基づいて前記所定の視点のカラー画像を表示する表示装置側にある場合、前記所定の視点のデプス画像の各画素のデプス値を前記補正量だけ手前側方向に補正し、前記視聴者の位置が、前記所定の初期位置より前記表示装置とは反対側にある場合、前記所定の視点のデプス画像の各画素のデプス値を前記補正量だけ奥側方向に補正する
    請求項2に記載の画像処理装置。
  4. 前記画像処理部は、前記視聴者位置情報に基づいて、前記所定の視点のデプス画像とカラー画像のスケーリングの中心点を決定し、前記所定の視点のデプス画像とカラー画像の各画素のスケーリング率を、前記中心点からの距離がより遠く、奥行方向の位置がより手前側であることを表すデプス値に対応する画素ほど大きくなるように決定し、前記画素ごとに、その画素のスケーリング率で前記中心点を中心として前記デプス値と前記所定の視点のカラー画像を構成する画素値をスケーリングする
    請求項1に記載の画像処理装置。
  5. 前記画像処理部は、前記視聴者の位置が、所定の初期位置より、前記画像処理部により補正された前記所定の視点のデプス画像に基づいて前記所定の視点のカラー画像を表示する表示装置側にある場合、前記所定の視点のデプス画像の各画素のデプス値を前記スケーリング率で拡大し、前記視聴者の位置が、前記所定の初期位置より前記表示装置とは反対側にある場合、前記所定の視点のデプス画像の各画素のデプス値を前記スケーリング率で縮小する
    請求項4に記載の画像処理装置。
  6. 前記所定の視点のデプス画像を拡大する拡大処理部
    をさらに備え、
    前記画像処理部は、前記視聴者位置情報に基づいて、前記拡大処理部により拡大された前記所定の視点のデプス画像のスケーリングを行う
    請求項5に記載の画像処理装置。
  7. 前記画像処理部はまた、前記視聴者の注視点の位置を表す注視点位置情報に基づいて、前記所定の視点のカラー画像の前記注視点付近の領域に対して、エンハンスまたはコントラストを向上させる処理を行い、前記注視点付近以外の領域に対して、エンハンスまたはコントラストを低下させる処理を行う
    請求項1に記載の画像処理装置。
  8. 前記位置情報と前記画像処理部により補正された前記所定の視点のデプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行い、投影処理の結果得られる前記所定の視点のカラー画像を表示装置に表示させる表示制御部
    をさらに備える
    請求項1に記載の画像処理装置。
  9. 前記位置情報に基づいて、複数の視点のデプス画像から前記所定の視点のデプス画像を選択する選択部
    をさらに備える
    請求項1に記載の画像処理装置。
  10. 前記位置情報に基づいて、複数の視点のデプス画像から所定の複数の視点のデプス画像を選択する選択部と、
    前記選択部により選択された前記所定の複数の視点のデプス画像を合成し、前記所定の視点のデプス画像を生成する合成部と
    をさらに備える
    請求項1に記載の画像処理装置。
  11. 前記所定の視点は、複数の視点であり、
    前記画像処理部は、前記所定の視点の視点ごとに、前記位置情報に基づいて、その視点のデプス画像を補正する
    請求項1に記載の画像処理装置。
  12. 前記所定の視点の視点ごとに、前記位置情報と前記画像処理部により補正された前記所定の視点のデプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行い、投影処理の結果得られる前記所定の視点のカラー画像を、前記所定の視点の視点数より多い視点の画像を表示する表示装置に表示させる表示制御部と、
    前記位置情報に基づいて、前記表示装置に表示される画像に対応する視点から、前記投影処理の結果得られる前記所定の視点のカラー画像に割り当てる視点を選択し、その視点に基づいて、複数の視点のデプス画像から前記所定の視点のデプス画像を選択する選択部と
    をさらに備える
    請求項11に記載の画像処理装置。
  13. 前記所定の視点の視点ごとに、前記位置情報と前記画像処理部により補正された前記所定の視点のデプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行い、投影処理の結果得られる前記所定の視点のカラー画像を、前記所定の視点の視点数より多い視点の画像を表示する表示装置に表示させる表示制御部と、
    前記位置情報に基づいて、前記表示装置に表示される画像に対応する視点から、前記投影処理の結果得られる前記所定の視点のカラー画像に割り当てる視点を選択し、その視点に基づいて、複数の視点のカラー画像から所定の複数の視点のカラー画像を選択する選択部と、
    前記選択部により選択された前記所定の複数の視点のカラー画像を合成し、前記所定の視点のカラー画像を生成する合成部と
    をさらに備える
    請求項11に記載の画像処理装置。
  14. 前記所定の視点の視点ごとに、前記位置情報と前記画像処理部により補正された前記所定の視点のデプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行う投影処理部と、
    前記投影処理部による投影処理の結果得られる前記所定の視点のカラー画像を用いて、そのカラー画像に共通のデプス画像を生成する生成部と、
    前記所定の視点の視点ごとに、前記位置情報と前記生成部により生成された前記デプス画像に基づいて、前記所定の視点のカラー画像を前記視聴者の位置に投影する投影処理を行い、投影処理の結果得られる前記所定の視点のカラー画像を、表示装置に表示させる表示制御部
    を更に備える
    請求項11に記載の画像処理装置。
  15. 画像処理装置が、
    視聴者の位置を表す情報である視聴者位置情報に基づいて、所定の視点のカラー画像の各画素の奥行方向の位置を表すデプス値からなるデプス画像を補正する画像処理ステップ
    を含む画像処理方法。
  16. コンピュータに、
    視聴者の位置を表す情報である視聴者位置情報に基づいて、所定の視点のカラー画像の各画素の奥行方向の位置を表すデプス値からなるデプス画像を補正する画像処理ステップ
    を含む処理を実行させるためのプログラム。
JP2011112312A 2011-05-19 2011-05-19 画像処理装置、画像処理方法、およびプログラム Withdrawn JP2012244396A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2011112312A JP2012244396A (ja) 2011-05-19 2011-05-19 画像処理装置、画像処理方法、およびプログラム
PCT/JP2012/062087 WO2012157540A1 (ja) 2011-05-19 2012-05-11 画像処理装置、画像処理方法、およびプログラム
US14/110,957 US9710955B2 (en) 2011-05-19 2012-05-11 Image processing device, image processing method, and program for correcting depth image based on positional information
CN201280022945.2A CN103518372B (zh) 2011-05-19 2012-05-11 图像处理装置、图像处理方法和程序
BR112013029204A BR112013029204A2 (pt) 2011-05-19 2012-05-11 dispositivo e método de processamento de imagem, e, programa
RU2013150496/08A RU2013150496A (ru) 2011-05-19 2012-05-11 Устройство обработки изображений, способ обработки изображений и программа

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011112312A JP2012244396A (ja) 2011-05-19 2011-05-19 画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2012244396A true JP2012244396A (ja) 2012-12-10

Family

ID=47176860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011112312A Withdrawn JP2012244396A (ja) 2011-05-19 2011-05-19 画像処理装置、画像処理方法、およびプログラム

Country Status (6)

Country Link
US (1) US9710955B2 (ja)
JP (1) JP2012244396A (ja)
CN (1) CN103518372B (ja)
BR (1) BR112013029204A2 (ja)
RU (1) RU2013150496A (ja)
WO (1) WO2012157540A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017001926T5 (de) 2016-04-06 2019-01-10 Sony Corporation Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101727899B1 (ko) * 2010-11-26 2017-04-18 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
DE102013110615B3 (de) * 2013-09-26 2014-11-27 Sick Ag 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
JP6308748B2 (ja) * 2013-10-29 2018-04-11 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
US9875526B1 (en) * 2014-03-20 2018-01-23 SoliDDD Corp. Display of three-dimensional images using a two-dimensional display
JP6443677B2 (ja) * 2015-03-12 2018-12-26 日本精機株式会社 ヘッドマウントディスプレイ装置
CN114143495A (zh) * 2016-01-05 2022-03-04 瑞尔D斯帕克有限责任公司 多视角图像的注视校正
US10445861B2 (en) * 2017-02-14 2019-10-15 Qualcomm Incorporated Refinement of structured light depth maps using RGB color data
US10740985B2 (en) 2017-08-08 2020-08-11 Reald Spark, Llc Adjusting a digital representation of a head region
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
US20220417493A1 (en) * 2019-09-30 2022-12-29 Beijing Ivisual 3d Technology Co., Ltd. Method and apparatus for realizing 3d display, and 3d display terminal
CN113064278A (zh) * 2021-03-22 2021-07-02 海南南岛眼镜有限公司 视觉增强方法、系统、计算机存储介质及智能眼镜
CN116830151A (zh) * 2021-11-29 2023-09-29 京东方科技集团股份有限公司 显示方法及显示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3238755B2 (ja) * 1992-08-21 2001-12-17 富士通株式会社 ホログラムの作成および立体表示方法並びに立体表示装置
JPH07181939A (ja) * 1993-12-24 1995-07-21 Rohm Co Ltd 表示装置
JP3450792B2 (ja) 1999-03-25 2003-09-29 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
JP2000354257A (ja) * 1999-06-10 2000-12-19 Sony Corp 画像処理装置、画像処理方法、およびプログラム提供媒体
US6603485B2 (en) * 2001-04-24 2003-08-05 Hewlett-Packard Development Company, L.P. Computer cursor spotlight
JP3749227B2 (ja) 2002-03-27 2006-02-22 三洋電機株式会社 立体画像処理方法および装置
JPWO2004082297A1 (ja) 2003-03-11 2006-06-15 富田 誠次郎 立体映像表示装置
JP4517664B2 (ja) * 2004-02-12 2010-08-04 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP2005252626A (ja) * 2004-03-03 2005-09-15 Canon Inc 撮像装置および画像処理方法
JP2006113807A (ja) * 2004-10-14 2006-04-27 Canon Inc 多視点画像の画像処理装置および画像処理プログラム
JP2008146221A (ja) 2006-12-07 2008-06-26 Sony Corp 画像表示システム
WO2009095862A1 (en) * 2008-02-01 2009-08-06 Koninklijke Philips Electronics N.V. Autostereoscopic display device
BRPI0914482A2 (pt) * 2008-10-28 2015-10-27 Koninkl Philips Electronics Nv sistema de exibição tridimensional, método de operação para um sistema de exibição tridimensional e produto de programa de computador
WO2010144074A1 (en) * 2009-01-07 2010-12-16 Thomson Licensing Joint depth estimation
JP2010211036A (ja) 2009-03-11 2010-09-24 Sony Corp 立体表示装置
TW201119353A (en) * 2009-06-24 2011-06-01 Dolby Lab Licensing Corp Perceptual depth placement for 3D objects
JP2011071898A (ja) * 2009-09-28 2011-04-07 Panasonic Corp 立体映像表示装置および立体映像表示方法
KR101756910B1 (ko) * 2010-05-11 2017-07-26 삼성전자주식회사 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017001926T5 (de) 2016-04-06 2019-01-10 Sony Corporation Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren
US10846826B2 (en) 2016-04-06 2020-11-24 Sony Corporation Image processing device and image processing method

Also Published As

Publication number Publication date
US20140043335A1 (en) 2014-02-13
BR112013029204A2 (pt) 2017-02-14
WO2012157540A1 (ja) 2012-11-22
CN103518372A (zh) 2014-01-15
RU2013150496A (ru) 2015-05-20
CN103518372B (zh) 2015-12-02
US9710955B2 (en) 2017-07-18

Similar Documents

Publication Publication Date Title
WO2012157540A1 (ja) 画像処理装置、画像処理方法、およびプログラム
US7486817B2 (en) Apparatus for and method of generating image, and computer program product
US9219902B2 (en) 3D to stereoscopic 3D conversion
JP4966431B2 (ja) 画像処理装置
JP5160741B2 (ja) 3dグラフィック処理装置及びこれを利用した立体映像表示装置
WO2014083949A1 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP5387905B2 (ja) 画像処理装置および方法、並びにプログラム
US9154762B2 (en) Stereoscopic image system utilizing pixel shifting and interpolation
US8094148B2 (en) Texture processing apparatus, method and program
WO2014083752A1 (ja) 別視点画像生成装置および別視点画像生成方法
JP2011199389A (ja) 画像処理装置、画像変換方法、およびプログラム
TWI478575B (zh) 3d影像處理裝置
JP2011078036A (ja) 擬似立体画像作成装置及び擬似立体画像表示システム
US9196080B2 (en) Medial axis decomposition of 2D objects to synthesize binocular depth
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP2013135357A (ja) 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
JP5627498B2 (ja) 立体画像生成装置及び方法
JP2013090129A (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2012169173A1 (ja) 視差画像生成装置、視差画像生成方法、プログラムおよび集積回路
KR101192121B1 (ko) 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치
JP5323222B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
GB2602841A (en) Image generation system and method
BR112021007522A2 (pt) aparelho gerador de imagens, método de geração de imagens e produto de programa de computador

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805