JP2014072602A - 多視点画像生成装置及び方法 - Google Patents

多視点画像生成装置及び方法 Download PDF

Info

Publication number
JP2014072602A
JP2014072602A JP2012215568A JP2012215568A JP2014072602A JP 2014072602 A JP2014072602 A JP 2014072602A JP 2012215568 A JP2012215568 A JP 2012215568A JP 2012215568 A JP2012215568 A JP 2012215568A JP 2014072602 A JP2014072602 A JP 2014072602A
Authority
JP
Japan
Prior art keywords
viewpoint
eye viewpoint
eye
image signal
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012215568A
Other languages
English (en)
Other versions
JP5928280B2 (ja
Inventor
Kenji Kubota
賢治 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012215568A priority Critical patent/JP5928280B2/ja
Priority to US14/036,064 priority patent/US9460550B2/en
Priority to CN201310451760.XA priority patent/CN103716610B/zh
Publication of JP2014072602A publication Critical patent/JP2014072602A/ja
Application granted granted Critical
Publication of JP5928280B2 publication Critical patent/JP5928280B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】オクルージョンの影響を受けることなく、歪みのない多視点画像信号を得ることができる多視点画像生成装置を提供する。
【解決手段】視点位置判定部61は、視点配列信号が示す視点が左眼視点と右眼視点とのいずれに近いかを判定する。係数発生部62は、視点配列信号に基づいて係数を発生を発生する。選択部63は、左眼視点画像信号と右眼視点画像信号とのいずれかを選択する。選択部64は、左眼視点奥行き値DPT_Lと右眼視点奥行き値DPT_Rとのいずれかを選択する。乗算器65は、左眼視点奥行き値DPT_Lまたは右眼視点奥行き値DPT_Rに係数を乗算する。画素シフト部66は、左眼視点画像信号及び右眼視点画像信号を、乗算器65より出力された奥行き値に応じて画素シフトして、多視点画像信号を生成する。
【選択図】図9

Description

本発明は、2視点の画像信号に基づいて3視点以上の多視点画像信号を生成する多視点画像生成装置及び方法に関する。
例えば特許文献1には、左眼視点画像信号と右眼視点画像信号との2視点の画像信号に基づいて、3視点以上の多視点画像信号を生成する多視点画像生成装置が提案されている。特許文献1に記載の多視点画像生成装置においては、2視点の画像信号から抽出した視点画像間の視差を示す視差マップを作成して、視差マップを用いて多視点画像信号を生成している。
特開2001−346226号公報
2視点の画像には、一方の視点からは見えるものの、他方の視点からは見えない領域が存在する、いわゆるオクルージョンが存在する。従って、2視点の画像信号によって適切な視差マップを作成することはできず、視差マップを用いて生成した多視点画像信号には歪みが生じてしまうという問題点があった。
本発明はこのような問題点に鑑み、オクルージョンの影響を受けることなく、歪みのない多視点画像信号を得ることができる多視点画像生成装置及び方法を提供することを目的とする。
本発明は、上述した従来の技術の課題を解決するため、所定のシーン構造の画面内の奥行き値を示す基本奥行きモデルを生成する基本奥行きモデル生成部(1)と、左眼視点画像信号に基づいて画像内の被写体の凹凸情報を推測して、左眼視点凹凸値を生成する左眼視点画像オブジェクト情報生成部(2)と、右眼視点画像信号に基づいて画像内の被写体の凹凸情報を推測して、右眼視点凹凸値を生成する右眼視点画像オブジェクト情報生成部(3)と、前記基本奥行きモデルと前記左眼視点凹凸値とを加算して左眼視点奥行き値を生成する第1の加算器(4)と、前記基本奥行きモデルと前記右眼視点凹凸値とを加算して右眼視点奥行き値を生成する第2の加算器(5)と、画面内の画素の位置に応じて複数の視点のうちのいずれの視点であるかを示す視点配列信号を生成する視点配列信号生成部(7)と、前記左眼視点画像信号と、前記右眼視点画像信号と、前記左眼視点奥行き値と、前記右眼視点奥行き値と、前記視点配列信号とに基づいて、3視点以上の多視点画像信号を生成する多視点画像信号生成部(6)とを備え、前記多視点画像信号生成部は、前記視点配列信号が示す視点が左眼視点と右眼視点とのいずれに近いかを判定する視点位置判定部(61)と、前記視点配列信号に基づいて、前記左眼視点または前記右眼視点よりも右側の視点では前記左眼視点または前記右眼視点より離れるに従って正方向に大きくなる係数を発生し、前記左眼視点または前記右眼視点よりも左側の視点では前記左眼視点または前記右眼視点より離れるに従って負方向に大きくなる係数を発生する係数発生部(62)と、前記視点位置判定部による判定結果に基づいて、前記左眼視点画像信号と前記右眼視点画像信号とのいずれかを選択する第1の選択部(63)と、前記視点位置判定部による判定結果に基づいて、前記左眼視点奥行き値と前記右眼視点奥行き値とのいずれかを選択する第2の選択部(64)と、前記第2の選択部によって選択された前記左眼視点奥行き値または前記右眼視点奥行き値に、前記係数発生部が発生した係数を乗算する乗算器(65)と、前記第1の選択部によって選択された前記左眼視点画像信号及び前記右眼視点画像信号を、前記乗算器より出力された奥行き値に応じて画素シフトして、多視点画像信号を生成する画素シフト部(66)とを有することを特徴とする多視点画像生成装置を提供する。
上記の多視点画像生成装置において、前記基本奥行きモデル生成部は、基本となる複数のシーン構造それぞれの画面内の奥行き値を示す複数の基本奥行きモデルのうちからいずれかを選択するか、前記複数の基本奥行きモデルを組み合わせて基本奥行きモデルを生成することが好ましい。
上記の多視点画像生成装置において、前記基本奥行きモデル生成部は、画面内の所定の領域に含まれる高域成分の程度に応じて、前記複数の基本奥行きモデルのうちからいずれかを選択するか、前記複数の基本奥行きモデルを組み合わせることが好ましい。
上記の多視点画像生成装置において、前記左眼視点画像オブジェクト情報生成部及び前記右眼視点画像オブジェクト情報生成部は、それぞれ、赤色信号に基づいて前記被写体の凹凸情報を推測することが好ましい。
また、本発明は、上述した従来の技術の課題を解決するため、左眼視点画像信号に基づいて画像内の被写体の凹凸情報を推測して、左眼視点凹凸値を生成し、右眼視点画像信号に基づいて画像内の被写体の凹凸情報を推測して、右眼視点凹凸値を生成し、所定のシーン構造の画面内の奥行き値を示す基本奥行きモデルと前記左眼視点凹凸値とを加算して左眼視点奥行き値を生成し、前記基本奥行きモデルと前記右眼視点凹凸値とを加算して右眼視点奥行き値を生成し、画面内の画素の位置に応じて複数の視点のうちのいずれの視点であるかを示す視点配列信号を生成し、前記視点配列信号が示す視点が左眼視点と右眼視点とのいずれに近いかを判定し、前記視点配列信号に基づいて、前記左眼視点または前記右眼視点よりも右側の視点では前記左眼視点または前記右眼視点より離れるに従って正方向に大きくなる係数を発生し、前記左眼視点または前記右眼視点よりも左側の視点では前記左眼視点または前記右眼視点より離れるに従って負方向に大きくなる係数を発生し、左眼視点と右眼視点とのいずれに近いかの判定結果に基づいて、前記左眼視点画像信号と前記右眼視点画像信号とのいずれかを選択し、前記判定結果に基づいて、前記左眼視点奥行き値と前記右眼視点奥行き値とのいずれかを選択し、選択された前記左眼視点奥行き値または前記右眼視点奥行き値に前記係数を乗算し、前記左眼視点画像信号及び前記右眼視点画像信号を、前記係数を乗算した前記左眼視点奥行き値または前記右眼視点奥行き値に応じて画素シフトして、多視点画像信号を生成することを特徴とする多視点画像生成方法を提供する。
本発明の多視点画像生成装置及び方法によれば、オクルージョンの影響を受けることなく、歪みのない多視点画像信号を得ることができる。
一実施形態の多視点画像生成装置を示すブロック図である。 図1中の基本奥行きモデル生成部1が生成する基本奥行きモデル(タイプ1)の立体構造の一例を示す図である。 図1中の基本奥行きモデル生成部1が生成する基本奥行きモデル(タイプ2)の立体構造の一例を示す図である。 図1中の基本奥行きモデル生成部1が生成する基本奥行きモデル(タイプ3)の立体構造の一例を示す図である。 図1中の基本奥行きモデル生成部1が基本奥行きモデルを合成する際の合成比率決定条件の一例を示す図である。 多視点画像信号を表示する立体画像表示装置を示す図である。 7視点の多視点画像信号の視点位置の例を説明するための図である。 立体画像表示装置を見る顔の位置によって見ることができる視点位置の例を示す図である。 図1中の多視点画像信号生成部6の具体的な構成例を示すブロック図である。 図9中の視点位置判定部61における判定動作を説明するための図である。 図9中の係数発生部62が発生する係数を説明するための図である。
以下、一実施形態の多視点画像生成装置及び方法について、添付図面を参照して説明する。図1に示すように、一実施形態の多視点画像生成装置は、基本奥行きモデル生成部1,左眼視点画像オブジェクト情報生成部2,右眼視点画像オブジェクト情報生成部3,加算器4,加算器5,多視点画像信号生成部6,視点配列信号生成部7とを備える。
基本奥行きモデル生成部1は、例えば図2〜図4に示すような基本奥行きモデルを記憶している。図2〜図4に示す基本奥行きモデルをそれぞれタイプ1,タイプ2,タイプ3とする。図2,図3,図4は、それぞれ、基本奥行きモデルのタイプ1,タイプ2,タイプ3の立体構造の一例を示している。図2,図3に示すタイプ1,タイプ2の基本奥行きモデルは凹面タイプの基本奥行きモデルである。図4に示すタイプ3の基本奥行きモデルは非凹面の平面タイプの基本奥行きモデルである。
基本奥行きモデルとは画面全体の視差値を決定するためのモデルである。基本奥行きモデルは、平面上のそれぞれの画素を、図2〜図4に示すような非平面形状の特性が有する飛び出し方向または引っ込み方向(奥行き方向)にシフトさせるためのデータである。基本奥行きモデル生成部1は、基本奥行きモデルを記憶しておいてもよいし、計算によって発生してもよい。基本奥行きモデルは、一例として、白から黒までのグレーレベルによって飛び出し方向または奥行き方向を表現する輝度信号で構成することができる。
基本奥行きモデル生成部1には、左眼視点画像信号と右眼視点画像信号とが入力される。基本奥行きモデル生成部1は、左眼視点画像信号もしくは右眼視点画像信号に基づいて、または、左眼視点画像信号及び右眼視点画像信号に基づいて、タイプ1〜3のいずれかの基本奥行きモデルを選択する。基本奥行きモデル生成部1は、タイプ1〜3の基本奥行きモデルのうちの2つまたは全てを合成してもよい。
基本奥行きモデル生成部1は、例えば次のようにして基本奥行きモデルを選択または合成する。基本奥行きモデル生成部1は、それぞれのフレームの上部約20%の領域に高域成分(所定統計量)がどの程度含まれているかを評価する。具体的には、基本奥行きモデル生成部1は、上部約20%の領域を水平8画素、垂直8画素のブロックに分割し、それぞれのブロックにおいて次の式(1)を計算し、ブロックの平均を上部高域成分評価値top_actとする。
Figure 2014072602
また、基本奥行きモデル生成部1は、それぞれのフレームの下部約20%の領域に高域成分(所定統計量)がどの程度含まれているかを評価する。同様に、基本奥行きモデル生成部1は、下部約20%の領域を水平8画素、垂直8画素のブロックに分割し、それぞれのブロックにおいて上記の式(1)を計算し、ブロックの平均を下部高域成分評価値bottom_actとする。
ここでは、フレームの上部約20%の領域と下部約20%の領域それぞれの高域成分を評価したが、領域の範囲及び位置は適宜設定すればよい。所定統計量は高域成分に限定されない。但し、高域成分を評価することが好ましい。
そして、基本奥行きモデル生成部1は、上部高域成分評価値top_act及び下部高域成分評価値bottom_actそれぞれの値に応じて、タイプ1〜3の基本奥行きモデルを所定の合成比率で合成する。合成比率が0の場合もあることから、合成とはタイプ1〜3のうちのいずれか1つのみを用いる場合も含むものとする。一例として、基本奥行きモデル生成部1は、図5に示す合成比率決定条件に従ってタイプ1〜3の基本奥行きモデルを合成する。図5の横軸は上部高域成分評価値top_act、縦軸は下部高域成分評価値bottom_actである。
図5に示すように、下部高域成分評価値bottom_actが所定の値bms以下であれば、基本奥行きモデル生成部1は、上部高域成分評価値top_actの値にかかわらず、タイプ3の基本奥行きモデルを用いる。即ち、タイプ1,2の合成比率を0にする。
下部高域成分評価値bottom_actが値bmsより大きく、所定の値bml以下であれば、基本奥行きモデル生成部1は、上部高域成分評価値top_actの値に応じてタイプ1〜3を次のように合成する。上部高域成分評価値top_actが所定の値tps以下であれば、基本奥行きモデル生成部1は、タイプ1の合成比率を0にして、タイプ2とタイプ3とを合成する。
上部高域成分評価値top_actが値tpsより大きく、所定の値tpl以下であれば、基本奥行きモデル生成部1は、タイプ1〜3を合成する。上部高域成分評価値top_actが値tplより大きければ、基本奥行きモデル生成部1は、タイプ2の合成比率を0にして、タイプ1とタイプ3とを合成する。
下部高域成分評価値bottom_actが値bmlより大きければ、基本奥行きモデル生成部1は、上部高域成分評価値top_actの値に応じてタイプ1〜3を次のように合成する。上部高域成分評価値top_actが値tps以下であれば、基本奥行きモデル生成部1は、タイプ1,3の合成比率を0にして、タイプ2の基本奥行きモデルを用いる。
上部高域成分評価値top_actが値tpsより大きく、値tpl以下であれば、基本奥行きモデル生成部1は、タイプ3の合成比率を0にして、タイプ1とタイプ2とを合成する。上部高域成分評価値top_actが値tplより大きければ、基本奥行きモデル生成部1は、タイプ2,3の合成比率を0にして、タイプ1の基本奥行きモデルを用いる。
基本奥行きモデル生成部1は、以上のようにして、図5に示す合成比率決定条件に従って合成した画面全体の視差値を示すデータである基本奥行きモデル値DPT_MDLを生成して出力する。基本奥行きモデル値DPT_MDLは、正の値のときには飛び出し方向、負の値のときは引っ込み方向の奥行き信号であることを意味する。
複数のタイプの基本奥行きモデルを上部高域成分評価値top_act及び下部高域成分評価値bottom_actに応じて合成する構成は必須の構成ではないが、好ましい構成である。少なくとも1つのタイプの基本奥行きモデルを用いて、基本奥行きモデル値DPT_MDLを生成すればよい。
左眼視点画像オブジェクト情報生成部2は、入力された左眼視点画像信号の特徴から画像内の被写体の凹凸情報を画素単位で推測して、左眼視点凹凸値DPT_EMBS_Lを生成して出力する。本実施形態では、赤色信号(R信号)に基づいて左眼視点凹凸値DPT_EMBS_Lを生成する。
R信号を用いる理由の1つは、順光に近い環境で、かつ、画面内の明度が大きく異ならない条件で、R信号の大きさが被写体の凹凸の程度と一致する確立が高いからである。他の理由の1つは、赤色等の暖色は色彩学における前進色であり、寒色よりも奥行き方向の手前に認識されやすいからである。
左眼視点画像オブジェクト情報生成部2は、次の式(2)に基づいて、左眼視点凹凸値DPT_EMBS_Lを算出する。式(2)中のR_LEFTは、左眼視点画像信号のR信号を表す。R信号が8ビットで0〜255の範囲の値をとるとすると、R_LEFTの値が128のとき、左眼視点凹凸値DPT_EMBS_Lは0となる。
DPT_EMBS_L=R_LEFT−128 …(2)
右眼視点画像オブジェクト情報生成部3は、次の式(3)に基づいて、右眼視点凹凸値DPT_EMBS_Rを算出する。式(3)中のR_RIGHTは、右眼視点画像信号のR信号を表す。同様に、R_RIGHTの値が128のとき、右眼視点凹凸値DPT_EMBS_Rは0となる。
DPT_EMBS_R=R_RIGHT−128 …(3)
本実施形態では、左眼視点凹凸値DPT_EMBS_L及び右眼視点凹凸値DPT_EMBS_Rを算出するためにR信号を用いたが、R信号に限るものではない。左眼視点凹凸値DPT_EMBS_L及び右眼視点凹凸値DPT_EMBS_Rを緑色信号(G信号)もしくは青色信号(B信号)、または、G信号とB信号との組み合わせから求めてもよく、輝度信号から求めてもよい。
加算器4は、式(4)によって、基本奥行きモデル生成部1から出力された基本奥行きモデル値DPT_MDLと左眼視点画像オブジェクト情報生成部2から出力された左眼視点凹凸値DPT_EMBS_Lとを加算して、左眼視点奥行き値DPT_Lを生成する。
DPT_L=DPT_MDL+DPT_EMBS_L …(4)
加算器5は、式(5)によって、基本奥行きモデル生成部1から出力された基本奥行きモデル値DPT_MDLと右眼視点画像オブジェクト情報生成部3から出力された右眼視点凹凸値DPT_EMBS_Rとを加算して、右眼視点奥行き値DPT_Rを生成する。
DPT_R=DPT_MDL+DPT_EMBS_R …(5)
多視点画像信号生成部6には、左眼視点画像信号と、右眼視点画像信号と、左眼視点奥行き値DPT_Lと、右眼視点奥行き値DPT_Rと、視点配列信号生成部7より出力される視点配列信号とが入力される。視点配列信号生成部7には、水平同期信号Hsync及び垂直同期信号Vsyncが入力される。視点配列信号生成部7は、水平同期信号Hsync及び垂直同期信号Vsyncに基づいて、画面内の画素の位置に応じた視点を示す視点配列信号を生成する。
多視点画像信号生成部6は、左眼視点奥行き値DPT_Lと右眼視点奥行き値DPT_Rと視点配列信号とに基づいて、左眼視点画像信号または右眼視点画像信号を画素シフトすることによって多視点画像信号を生成して出力する。
図6を用いて、視点配列信号生成部7で生成する視点配列信号について説明する。図6は、多視点画像信号を表示する立体画像表示装置を示している。立体画像表示装置は、例えば液晶パネル等の表示パネル10上に、複数のシリンドリカルレンズ20sを傾斜させて配列させたレンチキュラーレンズ20を貼り合わせた構成を有する。ここでは簡略化のためシリンドリカルレンズ20sを2本しか示していないが、レンチキュラーレンズ20は表示パネル10の画素Pxが存在する部分の全体を覆っている。
図6に示すように、表示パネル10には、画素Pxが水平方向にn、垂直方向にm配列されている。ここでは簡略化のため、画素Pxを部分的に示している。1つの画素PxはR,G,BのサブピクセルSpxで構成されている。R,G,BのサブピクセルSpxは垂直方向に同じ色のサブピクセルSpxが並んでストライプ状に配列されている。
このように構成される立体画像表示装置はいわゆる裸眼立体表示装置であり、多視点画像信号をレンチキュラーレンズ20によって異なる方向に提示させることによって裸眼での立体画像の表示を実現する。図6に示すそれぞれのサブピクセルSpxに示している数字は、多視点画像信号を7視点の画像信号とした場合の視点の番号を示している。この視点の番号が、視点配列信号生成部7で生成する視点配列信号に相当する。
図7を用いて、7視点の多視点画像信号の視点位置の例を説明する。図7に示すように、カメラ30を図示の位置に配置して同じ被写体を撮影する場合のそれぞれのカメラ30の位置が視点位置sp1〜sp7となる。実際にはカメラ30を視点位置sp1〜sp7のそれぞれに配置して被写体を撮影することは容易ではないので、例えば実線で示す視点位置sp3,sp4のみにカメラ30を配置して2視点で撮影して2視点の画像信号を得る。視点位置sp3のカメラ30で撮影した画像信号が右眼視点画像信号であり、視点位置sp4のカメラ30で撮影した画像信号が左眼視点画像信号である。
そして、後述する多視点画像信号生成部6によって、2視点の画像信号(左眼視点画像信号及び右眼視点画像信号)に基づいて視点位置sp1〜sp7のそれぞれの視点の画像信号を生成して、7視点の多視点画像信号を生成する。ここでは、視点位置sp3を右眼視点、視点位置sp4を左眼視点としているが、これは単なる一例である。
図6に示す立体画像表示装置の表示パネル10の“1”〜“7”を付しているサブピクセルSpxに視点位置sp1〜sp7それぞれの視点の画像信号を表示させることによって、7視点の立体画像が表示されることになる。
具体的には、図8に示すように、顔が位置Paにあるときには視点位置sp1,sp2の視点の画像を見ることができ、顔が位置Pbあるときには視点位置sp2,sp3の視点の画像を見ることができる。顔が位置Pcにあるときには視点位置sp3,sp4の視点の画像を見ることができ、顔が位置Pdあるときには視点位置sp4,sp5の視点の画像を見ることができる。顔が位置Peにあるときには視点位置sp5,sp6の視点の画像を見ることができ、顔が位置Pfあるときには視点位置sp6,sp7の視点の画像を見ることができる。
図6では、表示パネル10上にシリンドリカルレンズ20sが傾斜するようにレンチキュラーレンズ20を配置させたが、配置する角度は斜めに限定されない。多視点画像信号の視点数は7視点に限定されない。それぞれのサブピクセルSpxに対する視点の割り当ては、図6に示す割り当てに限定されない。レンチキュラーレンズ20以外に、スリット型のバリアやレンズアレイを用いてもよく、表示パネル10上に立体視を実現させる光学部材を配置した構成であればよい。
図9を用いて、多視点画像信号生成部6の具体的な構成例について説明する。図9において、視点配列信号発生部7から出力された視点配列信号は、視点位置判定部61及び係数発生部62に入力される。7視点の多視点画像信号の場合、R,G,Bそれぞれ3ビットで視点の番号を表現できるので、視点配列信号は9ビットのデジタル値とすればよい。なお、視点位置判定部61及び係数発生部62には、左眼視点画像信号及び右眼視点画像に基づいて多視点化する際の視点位置と、どの視点位置が右眼視点と左眼視点であるかが予め設定されている。
視点位置判定部61は、画素シフト部66によって生成するそれぞれの視点の画像信号が左眼視点画像の位置と右眼視点画像の位置とのどちらに近いかを判定する。図10を用いて、視点位置判定部61における判定について説明する。図7で説明したように視点位置sp3が右眼視点であり、視点位置sp4が左眼視点である。図10では、視点位置sp3をspR、視点位置sp4をspLとする。視点位置判定部61は、視点配列信号が1〜3のときは右眼視点が近いと判定し、視点配列信号が4〜7のときは左眼視点に近いと判定する。
右眼視点の視点位置spRと左眼視点の視点位置spLが視点位置sp3,sp4以外に設定されている場合も同様に、視点配列信号1〜7が視点位置spRと左眼視点の視点位置spLとのどちらに近いかによって、視点位置を左または右のいずれに設定する。視点位置判定部61による視点位置の左右の判定結果を示す情報は、選択部63,64に入力される。
選択部63は、入力された視点位置の左右の判定結果を示す情報に基づいて、視点位置が左と判定された場合には、左眼視点画像信号を選択して出力し、視点位置が右と判定された場合には、右眼視点画像信号を選択して出力する。同様に、選択部64は、入力された視点位置の左右の判定結果を示す情報に基づいて、視点位置が左と判定された場合には、左眼視点奥行き値DPT_Lを選択して出力し、視点位置が右と判定された場合には、右眼視点奥行き値DPT_Rを選択して出力する。
係数発生部62は、視点配列信号が示す視点位置に応じて係数を発生する。具体的には、画素シフト部66で生成する多視点画像信号におけるそれぞれの視点位置と、左眼視点画像または右眼視点画像の視点位置との距離に応じて、左眼視点奥行き値DPT_Lまたは右眼視点奥行き値DPT_Rを増減させる係数を発生する。
図11の(a)を用いて、右眼視点の視点位置spRが視点位置sp3、左眼視点の視点位置spLが視点位置sp4に設定されている場合に、係数発生部62が発生する係数について説明する。図11の(a)〜(c)において、横軸は視点配列信号が示す視点の1〜7を示しており、縦軸は係数を示している。縦軸において、係数が1の位置より上方では係数は0より大きい正の値であり、係数が0より下方では係数は0より小さい負の値である。
図11の(a)において、視点位置sp3,sp4はそれぞれ右眼視点,左眼視点であるので、視点配列信号が視点位置sp3を示す場合には、選択部63で選択された右眼視点画素信号が画素シフト部66でシフトされないように、選択部64で選択された左眼視点奥行き値DPT_Lまたは右眼視点奥行き値DPT_Rを0に、視点配列信号が視点位置sp4を示す場合には、選択部63で選択された左眼視点画素信号が画素シフト部66でシフトされないように選択部64で選択された左眼視点奥行き値DPT_Lまたは右眼視点奥行き値DPT_Rを0にすることが必要である。そこで、係数発生部62は、図11の(a)に示すように、視点配列信号が視点位置sp3,sp4を示す場合には係数として0を発生する。
視点配列信号が視点位置sp2,sp1を示す場合には、視点位置sp2は視点位置sp3よりも外側(右側)に、視点位置sp1は視点位置sp2よりも外側に位置しているので、右眼視点奥行き値は、視点位置sp3から離れるに従って大きくする必要がある。そこで、係数発生部62は、視点配列信号が視点位置sp2,sp1を示す場合には、図11の(a)に示すように、視点位置sp3から離れるに従って正方向に大きくなる係数を発生する。
視点配列信号が視点位置sp5〜sp7を示す場合には、視点位置sp5は視点位置sp4よりも外側(左側)に、視点位置sp6は視点位置sp5よりも外側に、視点位置sp7は視点位置sp6よりも外側に位置しているので、左眼視点奥行き値は、視点位置sp4から離れるに従って大きくする必要がある。そこで、係数発生部62は、視点配列信号がsp5〜sp7を示す場合には、図11の(a)に示すように、視点位置sp4から離れるに従って負方向に順次大きくなる係数を発生する。
図11の(a)において視点位置sp5〜sp7の係数が負になっているのは、左側の視点の画像を生成する場合、右側の視点の画像を生成する場合に対して、奥行き値の符号に対するシフト方向の左右の関係が逆転するためである。即ち、元画像よりも右側の視点の画像を生成するとき、画面より手前に表示するもの(奥行き値>0)については、近い物ほど画像を見る者の左側に見えるように、対応部分のテクスチャを奥行き値に応じた量だけ左側へ移動させる。しかし、元画像よりも左側の視点の画像を生成する場合、対応部分のテクスチャを左側へ移動させると画面より奥に表示させることになる。
同様に、画面より奥に表示するもの(奥行き<0)については、遠い物ほど画像を見る者の右側に見えるように、対応部分のテクスチャを奥行き値に応じた量だけ右側へ移動させる。しかし、元画像よりも左側の視点の画像を生成する場合、対応部分のテクスチャを右側へ移動させると画面より手前に表示させることになる。従って、画素シフト部66で生成される画像が元画像よりも左側の視点の画像を生成する場合は奥行き値の符号を反転させるように係数を発生させる必要がある。
図11の(b)は、右眼視点の視点位置spRが視点位置sp3、左眼視点の視点位置spLが視点位置sp5に設定されている場合に、係数発生部62が発生する係数を示している。この場合には、視点位置sp4は視点位置sp3よりも内側(左側)に位置しているので、右眼視点画像信号より左側の視点の画像を生成するために、視点位置sp4では右眼視点奥行き値DPT_Rの符号を反転させるように負の値の係数を発生させる。または、視点位置sp4は視点位置sp5よりも内側(右側)に位置しているとして、左眼視点画像信号より右側の視点の画像を生成するために、視点位置sp4では左眼視点奥行き値DPT_Lの符号が反転しないように係数を発生させてもよい。
なお、視点位置sp4の画像信号を生成する場合、画素シフト部66は左眼視点画像と右眼視点画像とのいずれに基づいて視点位置sp4の画像信号を生成してもよい。従って、視点位置判定部61は、視点位置sp4を右眼視点と判定してよいし、左眼視点と判定してよく、選択部63は左眼視点画像信号を選択してもよいし、右眼視点画像信号を選択してもよい。選択部64は、選択部63が左眼視点画像信号を選択する場合には左眼視点奥行き値DPT_Lを選択し、選択部63が右眼視点画像信号を選択する場合には右眼視点奥行き値DPT_Rを選択すればよい。
また、右眼視点の視点位置spRを視点位置sp1、左眼視点の視点位置spLを視点位置sp7に設定した場合のように、視点位置spR,spLの内側に複数の視点位置が存在する場合には、図11(c)のように係数を発生すればよい。
乗算器65は、選択部64より出力された左眼視点奥行き値DPT_Lまたは右眼視点奥行き値DPT_Rに図11の(a)のように設定された係数を乗算して、画素シフト部66に供給する。視点位置sp1,sp2,sp5〜sp7それぞれの係数の具体的な値は適宜設定すればよい。
画素シフト部66は、選択部63より出力された左眼視点画像信号を、乗算器65より出力された奥行き値に応じて画素シフトして視点位置sp4〜sp7それぞれの視点の画像信号を生成する。また、画素シフト部66は、選択部63より出力された右眼視点画像信号を、乗算器65より出力された奥行き値に応じて画素シフトして視点位置sp1〜sp3それぞれの視点の画像信号を生成する。以上のようにして、画素シフト部66は、視点位置sp1〜sp7の多視点画像信号を生成して出力する。
以上説明したように、本実施形態によれば、多視点画像信号を、左眼視点画像信号のみから生成した左側視点の画像信号と、右眼視点画像信号のみから生成した右側視点の画像信号とによって生成しているので、オクルージョンの影響を受けることなく、歪みのない多視点画像信号を得ることができる。なお、歪みのないとは、オクルージョンの影響を受けていないという意味での歪みがないことを示している。一切の歪みがないということを意味するものではない。
本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。
1 基本奥行きモデル生成部
2 左眼視点画像オブジェクト情報生成部
3 右眼視点画像オブジェクト情報生成部
4,5 加算器
6 多視点画像信号生成部
7 視点配列信号生成部
61 視点位置判定部
62 係数発生部
63,64 選択部
65 乗算器
66 画素シフト部

Claims (5)

  1. 所定のシーン構造の画面内の奥行き値を示す基本奥行きモデルを生成する基本奥行きモデル生成部と、
    左眼視点画像信号に基づいて画像内の被写体の凹凸情報を推測して、左眼視点凹凸値を生成する左眼視点画像オブジェクト情報生成部と、
    右眼視点画像信号に基づいて画像内の被写体の凹凸情報を推測して、右眼視点凹凸値を生成する右眼視点画像オブジェクト情報生成部と、
    前記基本奥行きモデルと前記左眼視点凹凸値とを加算して左眼視点奥行き値を生成する第1の加算器と、
    前記基本奥行きモデルと前記右眼視点凹凸値とを加算して右眼視点奥行き値を生成する第2の加算器と、
    画面内の画素の位置に応じて複数の視点のうちのいずれの視点であるかを示す視点配列信号を生成する視点配列信号生成部と、
    前記左眼視点画像信号と、前記右眼視点画像信号と、前記左眼視点奥行き値と、前記右眼視点奥行き値と、前記視点配列信号とに基づいて、3視点以上の多視点画像信号を生成する多視点画像信号生成部と、
    を備え、
    前記多視点画像信号生成部は、
    前記視点配列信号が示す視点が左眼視点と右眼視点とのいずれに近いかを判定する視点位置判定部と、
    前記視点配列信号に基づいて、前記左眼視点または前記右眼視点よりも右側の視点では前記左眼視点または前記右眼視点より離れるに従って正方向に大きくなる係数を発生し、前記左眼視点または前記右眼視点よりも左側の視点では前記左眼視点または前記右眼視点より離れるに従って負方向に大きくなる係数を発生する係数発生部と、
    前記視点位置判定部による判定結果に基づいて、前記左眼視点画像信号と前記右眼視点画像信号とのいずれかを選択する第1の選択部と、
    前記視点位置判定部による判定結果に基づいて、前記左眼視点奥行き値と前記右眼視点奥行き値とのいずれかを選択する第2の選択部と、
    前記第2の選択部によって選択された前記左眼視点奥行き値または前記右眼視点奥行き値に、前記係数発生部が発生した係数を乗算する乗算器と、
    前記第1の選択部によって選択された前記左眼視点画像信号及び前記右眼視点画像信号を、前記乗算器より出力された奥行き値に応じて画素シフトして、多視点画像信号を生成する画素シフト部と、
    を有することを特徴とする多視点画像生成装置。
  2. 前記基本奥行きモデル生成部は、基本となる複数のシーン構造それぞれの画面内の奥行き値を示す複数の基本奥行きモデルのうちからいずれかを選択するか、前記複数の基本奥行きモデルを組み合わせて基本奥行きモデルを生成することを特徴とする請求項1記載の多視点画像生成装置。
  3. 前記基本奥行きモデル生成部は、画面内の所定の領域に含まれる高域成分の程度に応じて、前記複数の基本奥行きモデルのうちからいずれかを選択するか、前記複数の基本奥行きモデルを組み合わせることを特徴とする請求項2記載の多視点画像生成装置。
  4. 前記左眼視点画像オブジェクト情報生成部及び前記右眼視点画像オブジェクト情報生成部は、それぞれ、赤色信号に基づいて前記被写体の凹凸情報を推測することを特徴とする請求項1〜3のいずれか1項に記載の多視点画像生成装置。
  5. 左眼視点画像信号に基づいて画像内の被写体の凹凸情報を推測して、左眼視点凹凸値を生成し、
    右眼視点画像信号に基づいて画像内の被写体の凹凸情報を推測して、右眼視点凹凸値を生成し、
    所定のシーン構造の画面内の奥行き値を示す基本奥行きモデルと前記左眼視点凹凸値とを加算して左眼視点奥行き値を生成し、
    前記基本奥行きモデルと前記右眼視点凹凸値とを加算して右眼視点奥行き値を生成し、
    画面内の画素の位置に応じて複数の視点のうちのいずれの視点であるかを示す視点配列信号を生成し、
    前記視点配列信号が示す視点が左眼視点と右眼視点とのいずれに近いかを判定し、
    前記視点配列信号に基づいて、前記左眼視点または前記右眼視点よりも右側の視点では前記左眼視点または前記右眼視点より離れるに従って正方向に大きくなる係数を発生し、前記左眼視点または前記右眼視点よりも左側の視点では前記左眼視点または前記右眼視点より離れるに従って負方向に大きくなる係数を発生し、
    左眼視点と右眼視点とのいずれに近いかの判定結果に基づいて、前記左眼視点画像信号と前記右眼視点画像信号とのいずれかを選択し、
    前記判定結果に基づいて、前記左眼視点奥行き値と前記右眼視点奥行き値とのいずれかを選択し、
    選択された前記左眼視点奥行き値または前記右眼視点奥行き値に前記係数を乗算し、
    前記左眼視点画像信号及び前記右眼視点画像信号を、前記係数を乗算した前記左眼視点奥行き値または前記右眼視点奥行き値に応じて画素シフトして、多視点画像信号を生成する
    ことを特徴とする多視点画像生成方法。
JP2012215568A 2012-09-28 2012-09-28 多視点画像生成装置及び方法 Active JP5928280B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012215568A JP5928280B2 (ja) 2012-09-28 2012-09-28 多視点画像生成装置及び方法
US14/036,064 US9460550B2 (en) 2012-09-28 2013-09-25 Multi-viewpoint image generation apparatus and method
CN201310451760.XA CN103716610B (zh) 2012-09-28 2013-09-27 多视点图像生成装置以及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012215568A JP5928280B2 (ja) 2012-09-28 2012-09-28 多視点画像生成装置及び方法

Publications (2)

Publication Number Publication Date
JP2014072602A true JP2014072602A (ja) 2014-04-21
JP5928280B2 JP5928280B2 (ja) 2016-06-01

Family

ID=50384705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012215568A Active JP5928280B2 (ja) 2012-09-28 2012-09-28 多視点画像生成装置及び方法

Country Status (3)

Country Link
US (1) US9460550B2 (ja)
JP (1) JP5928280B2 (ja)
CN (1) CN103716610B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013130A1 (ja) * 2021-08-05 2023-02-09 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107509067B (zh) * 2016-12-28 2019-07-30 浙江工业大学 一种高速高质量的自由视点图像合成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP2006163547A (ja) * 2004-12-03 2006-06-22 Canon Inc 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
JP2009124308A (ja) * 2007-11-13 2009-06-04 Tokyo Denki Univ 多眼視画像作成システム及び多眼視画像作成方法
JP2012138885A (ja) * 2010-12-09 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346226A (ja) 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体
JP2003179800A (ja) * 2001-12-13 2003-06-27 Sony Corp 多視点画像生成装置、画像処理装置、および方法、並びにコンピュータ・プログラム
CN101702780A (zh) * 2009-09-07 2010-05-05 无锡景象数字技术有限公司 多视点立体内容的参数化合成方法
JP5402483B2 (ja) * 2009-10-02 2014-01-29 株式会社Jvcケンウッド 擬似立体画像作成装置及び擬似立体画像表示システム
CN101799939A (zh) * 2010-04-02 2010-08-11 天津大学 基于左右视点图像的中间视点快速、自适应生成算法
JP2011248723A (ja) * 2010-05-28 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
US9582928B2 (en) * 2011-01-13 2017-02-28 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
CN102368826A (zh) * 2011-11-07 2012-03-07 天津大学 双视点视频到多视点视频的实时自适应生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005151534A (ja) * 2003-09-24 2005-06-09 Victor Co Of Japan Ltd 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP2006163547A (ja) * 2004-12-03 2006-06-22 Canon Inc 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
JP2009124308A (ja) * 2007-11-13 2009-06-04 Tokyo Denki Univ 多眼視画像作成システム及び多眼視画像作成方法
JP2012138885A (ja) * 2010-12-09 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013130A1 (ja) * 2021-08-05 2023-02-09 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体

Also Published As

Publication number Publication date
US20140092086A1 (en) 2014-04-03
CN103716610B (zh) 2016-06-08
CN103716610A (zh) 2014-04-09
US9460550B2 (en) 2016-10-04
JP5928280B2 (ja) 2016-06-01

Similar Documents

Publication Publication Date Title
US8253740B2 (en) Method of rendering an output image on basis of an input image and a corresponding depth map
JP5402483B2 (ja) 擬似立体画像作成装置及び擬似立体画像表示システム
Schmidt et al. Multiviewpoint autostereoscopic dispays from 4D-Vision GmbH
US8311318B2 (en) System for generating images of multi-views
US8531454B2 (en) Display apparatus and stereoscopic image display method
US9270981B2 (en) Apparatus and method for adaptively rendering subpixel
EP3158536B1 (en) Method and apparatus for generating a three dimensional image
KR102130123B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
US20080309756A1 (en) Rendering Views for a Multi-View Display Device
KR102121389B1 (ko) 무안경 3d 디스플레이 장치 및 그 제어 방법
US9154765B2 (en) Image processing device and method, and stereoscopic image display device
EP2801200B1 (en) Display processor for 3d display
US10694173B2 (en) Multiview image display apparatus and control method thereof
JP2006211291A (ja) 立体視可能な表示装置および方法
JP2010226500A (ja) 立体画像表示装置および立体画像表示方法
US9529205B2 (en) Image processing apparatus and method, and printer and display apparatus
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP5928280B2 (ja) 多視点画像生成装置及び方法
JP2012060345A (ja) 多視点画像作成装置及び多視点画像作成方法並びに多視点画像表示システム
US8994791B2 (en) Apparatus and method for displaying three-dimensional images
KR20120026643A (ko) 입체 영상 변환 방법, 이를 이용한 입체 영상 표시 방법 및 상기 입체 영상 표시 방법을 수행하기 위한 입체 영상 표시 장치
JP5786807B2 (ja) 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置
JP5780214B2 (ja) 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置
JP6028427B2 (ja) 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置
JP6179282B2 (ja) 3次元画像表示装置及び3次元画像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160411

R150 Certificate of patent or registration of utility model

Ref document number: 5928280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150