JP3540626B2 - 2次元映像を3次元映像に変換する装置および方法 - Google Patents

2次元映像を3次元映像に変換する装置および方法 Download PDF

Info

Publication number
JP3540626B2
JP3540626B2 JP26265598A JP26265598A JP3540626B2 JP 3540626 B2 JP3540626 B2 JP 3540626B2 JP 26265598 A JP26265598 A JP 26265598A JP 26265598 A JP26265598 A JP 26265598A JP 3540626 B2 JP3540626 B2 JP 3540626B2
Authority
JP
Japan
Prior art keywords
image
video
parallax
information
disparity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26265598A
Other languages
English (en)
Other versions
JP2000092516A (ja
Inventor
幸夫 森
周悟 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP26265598A priority Critical patent/JP3540626B2/ja
Publication of JP2000092516A publication Critical patent/JP2000092516A/ja
Application granted granted Critical
Publication of JP3540626B2 publication Critical patent/JP3540626B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、2次元映像を3次元映像に変換する装置および方法に関する。
【0002】
【従来の技術】
2次元映像を3次元映像に変換する方法として、2次元映像信号から、複数のフィールドメモリを用いて、主映像信号と主映像信号に対して時間的に遅延された副映像信号とを生成し、主映像信号と副映像信号のうち、一方を左目用映像信号として出力し、他方を右目用映像信号として出力する方法が知られている。
【0003】
主映像信号に対する副映像信号の時間的な遅れ(以下、遅延量)は、主映像の水平方向の動きの速度に基づいて、決定される。つまり、主映像の水平方向の動きの速度が大きい程、遅延量は小さくなる。また、主映像と副映像とのうち、いずれを左目用映像信号とし、いずれを右目用映像信号とするかは、主映像の水平方向の動きの方向(左または右)に基づいて決定される。
【0004】
このような方法は、動きのある2次元映像のみしか3次元映像に変換することができないので、この方法を動画用2D/3D映像変換方法ということにする。
【0005】
本出願人は、動きのない2次元映像を3次元映像に変換するための方法(以下、静止画用2D/3D映像変換方法という)を既に開発して出願している(特願平8−208173号(特開平10−51812号公報)、特願平9−159949号(未公開))。
【0006】
この静止画用2D/3D映像変換方法は、2次元入力映像信号に基づいて、各フィールドごとに、1フィールド画面内に設定された複数の視差算出領域のそれぞれに対して、映像の遠近に関する画像特徴量を抽出し、各視差算出領域ごとに抽出された画像特徴量に基づいて、1フィールド画面内の所定単位領域ごとの視差情報を生成し、2次元入力映像信号の各所定単位領域内の信号から、その所定単位領域に対応する視差情報に応じた水平位相差を有する第1映像信号と第2映像信号とをそれぞれ生成するものである。
【0007】
【発明が解決しようとする課題】
ところで、ある物体を左眼で見た場合と、右眼で見た場合とは、異なる死角が形成される。しかしながら、静止画用2D/3D映像変換方法では、左映像と右映像とで同じ死角が形成されてしまう。
【0008】
この発明は、左映像と右映像とで異なる死角が生成され、立体感が向上する、2次元映像を3次元映像に変換する装置および方法を提供することを目的とする。
【0009】
【課題を解決するための手段】
この発明による2次元映像を3次元映像に変換する装置は、2次元入力映像に基づいて、任意画面において、画面内に設定された複数の視差算出領域のそれぞれに対して、映像の遠近に関する画像特徴量を抽出する特徴量抽出手段、各視差算出領域毎に抽出された画像特徴量に基づいて各視差算出領域毎の視差情報を算出する視差情報算出手段、画面内の各画素毎の第1の視差情報を、その周囲の視差算出領域に対する視差情報に重みを付けて加算することにより算出し、各画素毎にその画素に対応する第1の視差情報に応じた水平位相差を有する第1の左映像および第1の右映像を生成する第1映像生成手段、画面内の各画素毎の第2の視差情報を、その周囲の視差算出領域に対する視差情報のうち、遠近位置が最も遠いことを表している視差情報と等しくなるように決定し、各画素毎にその画素に対応する第2の視差情報に応じた水平位相差を有する第2の左映像および第2の右映像を生成する第2映像生成手段、第1の左映像および第2の左映像が入力され、第1の左映像から検出されたエッジ位置および上記第1の視差情報に基づいて、画素単位で第1の左映像および第2の左映像のいずれかを選択して、左出力映像として出力させる第1出力手段、ならびに第1の右映像および第2の右映像が入力され、第1の右映像から検出されたエッジ位置および上記第1の視差情報に基づいて、画素単位で第1の右映像および第2の右映像のいずれかを選択して、右出力映像として出力させる第2出力手段を備えていることを特徴とする。
【0010】
第1出力手段としては、具体的には、常時は第1の左映像を選択しており、第1の左映像から検出されたエッジ位置の左側位置に対する第1の視差情報によって表される遠近位置が、そのエッジ位置の右側位置に対する第1の視差情報によって表される遠近位置より前側にある場合には、そのエッジ位置から右側の所定水平位置までの期間において第2の左映像を選択するものが用いられる。
【0011】
第2出力手段としては、具体的には、常時は第1の右映像を選択しており、第1の右映像から検出されたエッジ位置の左側位置に対する第1の視差情報によって表される遠近位置が、そのエッジ位置の右側位置に対する第1の視差情報によって表される遠近位置より後側にある場合には、そのエッジ位置より左側の所定水平位置からそのエッジ位置までの期間において第2の右映像を選択するものが用いられる。
【0012】
映像の遠近に関する画像特徴量としては、たとえば、高周波成分の積算値、輝度コントラスト、R−Y成分の積算値、B−Y成分の積算値のうちから選択された任意の1つまたは任意の組み合わせが用いられる。
【0013】
この発明による2次元映像を3次元映像に変換する方法は、2次元入力映像に基づいて、任意画面において、画面内に設定された複数の視差算出領域のそれぞれに対して、映像の遠近に関する画像特徴量を抽出する第1ステップ、各視差算出領域毎に抽出された画像特徴量に基づいて各視差算出領域毎の視差情報を算出する第2ステップ、画面内の各画素毎の第1の視差情報を、その周囲の視差算出領域に対する視差情報に重みを付けて加算することにより算出し、各画素毎にその画素に対応する第1の視差情報に応じた水平位相差を有する第1の左映像および第1の右映像を生成する第3ステップ、画面内の各画素毎の第2の視差情報を、その周囲の視差算出領域に対する視差情報のうち、遠近位置が最も遠いことを表している視差情報と等しくなるように決定し、各画素毎にその画素に対応する第2の視差情報に応じた水平位相差を有する第2の左映像および第2の右映像を生成する第4ステップ、第1の左映像から検出されたエッジ位置および上記第1の視差情報に基づいて、画素単位で第1の左映像および第2の左映像のいずれかを選択して、左出力映像として出力させる第5ステップ、ならびに第1の右映像から検出されたエッジ位置および上記第1の視差情報に基づいて、画素単位で第1の右映像および第2の右映像のいずれかを選択して、右出力映像として出力させる第6ステップを備えていることを特徴とする。
【0014】
第5ステップでは、具体的には、常時は第1の左映像を選択しており、第1の左映像から検出されたエッジ位置の左側位置に対する第1の視差情報によって表される遠近位置が、そのエッジ位置の右側位置に対する第1の視差情報によって表される遠近位置より前側にある場合には、そのエッジ位置から右側の所定水平位置までの期間において第2の左映像を選択する。
【0015】
第6ステップでは、具体的には、常時は第1の右映像を選択しており、第1の右映像から検出されたエッジ位置の左側位置に対する第1の視差情報によって表される遠近位置が、そのエッジ位置の右側位置に対する第1の視差情報によって表される遠近位置より後側にある場合には、そのエッジ位置より左側の所定水平位置からそのエッジ位置までの期間において第2の右映像を選択する。
【0016】
映像の遠近に関する画像特徴量としては、たとえば、高周波成分の積算値、輝度コントラスト、R−Y成分の積算値、B−Y成分の積算値のうちから選択された任意の1つまたは任意の組み合わせが用いられる。
【0017】
【発明の実施の形態】
以下、図面を参照して、この発明の実施の形態について説明する。
【0018】
図1は、2次元映像を3次元映像に変換するための2D/3D映像変換装置の全体的な構成を示している。
【0019】
2次元映像信号(輝度信号Y、色差信号R−Yおよび色差信号B−Y)は、AD変換回路1(ADC)によってそれぞれデジタル信号に変換される。AD変換回路1から出力される2次元映像信号は、映像の遠近に関する画像特徴量を検出する画像特徴量検出回路2に送られる。
【0020】
AD変換回路1から出力される輝度信号Yは、左背景映像用任意画素遅延FIFO21を含む左背景映像生成回路3、右背景映像用任意画素遅延FIFO22を含む右背景映像生成回路4、左映像用任意画素遅延FIFO23を含む左映像生成回路5および右映像用任意画素遅延FIFO24を含む右映像生成回路6に送られる。
【0021】
図1では省略されているが、輝度信号Yが送られる左背景映像生成回路3、右背景映像生成回路4、左映像生成回路5および右映像生成回路6と同様な回路が、色差信号R−Yおよび色差信号B−Yのそれぞれに対して設けられている。色差信号R−Yおよび色差信号B−Yに対して設けられた左背景映像生成回路、右背景映像生成回路、左映像生成回路および右映像生成回路の動作は、輝度信号Yに対して設けられた左背景映像生成回路3、右背景映像生成回路4、左映像生成回路5および右映像生成回路6の動作と同じであるので、以下においては、輝度信号Yに対して設けられた左背景映像生成回路3、右背景映像生成回路4、左映像生成回路5および右映像生成回路6の動作についてのみ説明することにする。
【0022】
画像特徴量検出回路2は、高周波成分積算回路、輝度コントラスト算出回路、R−Y成分積算回路およびB−Y成分積算回路を含んでいる。高周波成分積算回路および輝度コントラスト算出回路としては、たとえば、特開平10−51812号公報に開示されている高周波成分積算回路および輝度コントラスト算出回路を用いることができる。また、R−Y成分積算回路およびB−Y成分積算回路としては、たとえば、特開平10−51812号公報に開示されている輝度積算回路と同じ構成の回路を用い、輝度信号Yの代わりに色差信号R−YまたはB−Yを入力させればよい。
【0023】
高周波成分積算回路は、1フィールド毎に、図2に示すように、1フィールド画面内に予め設定された複数個の視差算出領域E1〜E12それぞれに対する高周波成分の積算値を算出する。輝度コントラスト算出回路は、1フィールド毎に、各視差算出領域E1〜E12それぞれに対する輝度コントラストを算出する。R−Y成分積算回路は、1フィールド毎に、各視差算出領域E1〜E12それぞれに対するR−Y成分の積算値を算出する。B−Y成分積算回路は、1フィールド毎に、各視差算出領域E1〜E12それぞれに対するB−Y成分の積算値を算出する。
【0024】
各視差算出領域E1〜E12それぞれに対する高周波成分の積算値、各視差算出領域E1〜E12それぞれに対する輝度コントラスト、各視差算出領域E1〜E12それぞれに対するR−Y成分の積算値および各視差算出領域E1〜E12それぞれに対するB−Y成分の積算値は、視差算出領域E1〜E12ごとの映像の遠近に関する画像特徴量として用いられる。
【0025】
なお、1フィールド画面内には、実際には、図3に示すように6行10列の計60個の視差算出領域が設定されているが、説明の便宜上、図2に示すように、1フィールド画面内に、3行4列の計12個の視差算出領域E1〜E12が設定されているものとする。
【0026】
CPU7は、画像特徴量検出回路2から送られてきた情報に基づいて、各視差算出領域E1〜E12に対する視差情報を生成する。この例では、被写体のように前側にある物体ほど視差量が少なく、背景のように後側にある物体ほど視差量が大きくなるように視差情報が生成される。この視差情報の生成方法の詳細については、後述する。
【0027】
CPU7によって算出された各視差算出領域E1〜E12に対する視差情報は、視差制御回路8および背景映像用視差制御回路9に送られる。
【0028】
視差制御回路8は、1フィールド画面内の各画素位置毎の視差情報を、その周囲の視差算出領域に対する視差情報に重みを付けて加算することにより算出する。そして、視差制御回路8は、算出した各画素位置ごとの視差情報に応じた視差を有する左映像と右映像とが生成されるように、左映像生成回路5および右映像生成回路6を制御する。
【0029】
背景映像用視差制御回路9は、1フィールド画面内の各画素位置毎の視差情報を、その周囲の視差算出領域に対する視差情報のうち、遠近位置が最も遠いことを表している視差情報と等しくなるように決定する。そして、背景映像用視差制御回路9は、決定した各画素位置ごとの視差情報に応じた視差を有する左背景映像と右背景映像とが生成されるように、左背景映像生成回路3および右背景映像生成回路4を制御する。
【0030】
左映像生成回路5から出力された左映像(第1の左映像)は、エッジピーク位置検出回路11に送られるとともに第1の選択回路13に送られる。左背景映像生成回路3から出力された左背景映像(第2の左映像)は、第1の選択回路13に送られる。
【0031】
右映像生成回路6から出力された右映像(第1の右映像)は、エッジピーク位置検出回路15に送られるとともに第2の選択回路17に送られる。右背景映像生成回路4から出力された右背景映像(第2の右映像)は、第2の選択回路17に送られる。
【0032】
第1の選択回路13は、第1の背景選択制御回路12からの選択制御信号に基づいて、左映像および左背景映像のうちのいずれかを選択して出力する。第1の選択回路13の出力はDA変換器(DAC)14によってアナログ信号に変換された後、図示しない立体表示装置に送られる。
【0033】
第2の選択回路17は、第2の背景選択制御回路16からの選択制御信号に基づいて、右映像および右背景映像のうちのいずれかを選択して出力する。第2の選択回路17の出力はDA変換器(DAC)18によってアナログ信号に変換された後、図示しない立体表示装置に送られる。
【0034】
第1の背景選択制御回路12は、エッジピーク位置検出回路11の検出信号と、視差比較回路10からの比較結果信号ENLSELとに基づいて、選択制御信号を出力する。第2の背景選択制御回路16は、エッジピーク位置検出回路15の検出信号と、視差比較回路10からの比較結果信号ENRSELとに基づいて、選択制御信号を出力する。
【0035】
図4は、CPU7によって行なわれる視差算出領域毎の視差情報生成処理手順を示している。
【0036】
分割領域毎の視差情報生成処理においては、グループ分け処理(ステップ1)、空間分離処理(ステップ2)、特異点処理(ステップ3)、グループ間結合処理(ステップ4)、グループ毎の奥行き情報生成処理(ステップ5)、全領域に対する奥行き情報補正処理(ステップ6)、グループ境界に対する奥行き情報補正処理(ステップ7)、グループ内部に対する奥行き情報補正処理(ステップ8)および視差情報算出処理(ステップ9)が行なわれる。
【0037】
1フィールドに対して実際に設定されている60個の視差算出領域を例にとって、視差情報生成処理を説明する。図3は、1フィールドに対して実際に設定されている60個の視差算出領域F1〜F60を示している。
【0038】
(1)グループ分け処理の説明
【0039】
ステップ1のグループ分け処理は、1枚の画像を構成する全領域を、その画像に含まれている物体ごとにグループ分けすることを目的として行なわれる最初の処理である。
【0040】
視差算出領域F1〜F60毎に得られたR−Y成分の積算値を、0〜20の範囲の値に正規化する。そして、R−Y成分積算値の各正規化値に属する視差算出領域の数の分布(ヒストグラム)を生成する。このヒストグラムに基づいて、R−Y成分積算値の正規化値の中から、グループ間の境界値を求める。
【0041】
また、視差算出領域F1〜F60毎に得られたB−Y成分の積算値を、0〜10の範囲の値に正規化する。そして、B−Y成分積算値の各正規化値に属する視差算出領域の数の分布(ヒストグラム)を生成する。このヒストグラムに基づいて、B−Y成分積算値の正規化値の中から、グループ間の境界値を求める。
【0042】
そして、図5に示すように、このようにして得られた2種類の境界値を用いて、全視差算出領域をグループ化する。図8および図7は、このようにして各視差算出領域F1〜F60が、グループ分けされた結果を示している。図6および図7において、G1〜G5は、グループ番号を示している。
【0043】
この例では、第2方法によってグループ分け処理が行なわれたものとする。
【0044】
(2)空間分離処理の説明
【0045】
ステップ2の空間分離処理では、ステップ1の処理によって同一のグループに属している視差算出領域のうち、空間的に隣接している視差算出領域どうしが1つのグループとされる。つまり、ステップ1の処理によって同一のグループに属している視差算出領域であっても、空間的に他のグループによって分離されている視差算出領域どうしは、別々のグループとされる。
【0046】
具体的には、図8に示すように、ステップ1において、グループ3(G3)に属するとされた視差算出領域は、グループ31(G31)、グループ32(G32)およびグループ33(G33)の3つのグループに分離される。
【0047】
(3)特異点処理の説明
【0048】
この特異点処理では、1つの視差算出領域のみで構成されているグループが存在する場合に、その1つの視差算出領域が隣接する他のグループとは別の物体に対応しているのか、隣接する他のグループの物体と同じ物体に対応しているのかが判定される。
【0049】
たとえば、図9に示すように、あるグループが1つの視差算出領域Aのみで構成されているグループであるとする。視差算出領域Aの上方向にある2つの視差算出領域を、視差算出領域Aに近いものからU1、U2とする。視差算出領域Aの下方向にある2つの視差算出領域を、視差算出領域Aに近いものからD1、D2とする。視差算出領域Aの左方向にある2つの視差算出領域を、視差算出領域Aに近いものからL1、L2とする。視差算出領域Aの右方向にある2つの視差算出領域を、視差算出領域Aに近いものからR1、R2とする。
【0050】
この場合に、領域Aを中心とする上下左右のそれぞれの方向について、領域Aとそれの1つ外側の領域U1、D1、L1、R1との色距離が、領域Aより1つ外側の領域U1、D1、L1、R1とさらにその1つ外側の領域U2、D2、L2、R2との色距離より大きい場合には、領域Aのみで構成されているグループは単独で1つのグループを形成すると判別される。そうでない場合には、領域Aはその周囲のグループに属すると判別される。つまり、グループ分けが修正される。
【0051】
色距離の定義について説明する。ある視差算出領域Faに対するB−Y成分積算値、R−Y成分積算値をそれぞれFa(B−Y)、Fa(R−Y)で表し、ある視差算出領域Fbに対するB−Y成分積算値、R−Y成分積算値をそれぞれFb(B−Y)、Fb(R−Y)で表すと、領域Faと領域Fbとの間の色距離distは、次の数式1で定義される。
【0052】
【数1】
Figure 0003540626
【0053】
例えば、図9の領域Aの(B−Y成分積算値、R−Y成分積算値)が(−4,5)で、領域U1の(B−Y成分積算値、R−Y成分積算値)が(−5,4)で、領域U2の(B−Y成分積算値、R−Y成分積算値)が(−7,2)であるとする。領域Aと領域U1との色距離distは”2”となり、領域U1と領域U2との色距離distは”4”となる。
【0054】
図8のグループ31(G31)が1つの視差算出領域のみで構成されており、上記のような特異点処理により、グループ1(G1)に属すると判別されたとすると、図10に示すようにグループ分けが修正される。
【0055】
(4)グループ間結合処理の説明
【0056】
ステップ4のグループ間結合処理では、まず、各グループ毎に、そのグループを構成する視差算出領域のR−Y成分積算値の平均値およびB−Y成分積算値の平均値が算出される。
【0057】
次に、隣接している2つのグループどうし間の色距離が算出される。つまり、隣接している2つのグループをGa、Gbとする。グループGaがn個の視差算出領域a1、a2、…anで構成されているとすると、グループGaのB−Y成分積算値の平均値*Ga(B−Y)およびR−Y成分積算値の平均値*Ga(R−Y)は、次の数式2で求められる。
【0058】
【数2】
Figure 0003540626
【0059】
また、グループGbがm個の視差算出領域b1、b2、…bmで構成されているとすると、グループGbのB−Y成分積算値の平均値*Gb(B−Y)およびR−Y成分積算値の平均値*Gb(R−Y)は、次の数式3で求められる。
【0060】
【数3】
Figure 0003540626
【0061】
グループGaとグループGbとの間の色距離distは、次の数式4によって定義される。
【0062】
【数4】
Figure 0003540626
【0063】
そして、隣り合う2つのグループ間の色距離がしきい値より小さいか否かが判別され、色距離がしきい値より小さいときには、これらの2つのグループが結合される。つまり、これらの2つのグループが1つのグループにまとめられる。
【0064】
(5)グループ毎の奥行き情報生成処理の説明
【0065】
ステップ5のグループ毎の奥行き情報生成処理では、まず、視差算出領域F1〜F60毎に得られた高周波成分の積算値が、0〜10の範囲の値に正規化される。また、視差算出領域F1〜F60毎に得られた輝度コントラストが、0〜10の範囲の値に正規化される。
【0066】
そして、得られた高周波成分の積算値の正規化値と、輝度コントラストの正規化値と、図11に示すように各視差算出領域F1〜F60毎に予め与えられた背景重み成分に基づいて、グループ毎の奥行き情報が生成される。
【0067】
任意の1つのグループに対する奥行き情報の生成方法について説明する。まず、当該グループに属している視差算出領域数nが求められる。また、当該グループに属している視差算出領域に対する高周波成分の積算値の正規化値aの総和Σaが算出される。また、当該グループに属している視差算出領域に対する輝度コントラストの正規化値bの総和Σbが算出される。また、当該グループに属している視差算出領域に対する背景重み成分cの総和Σcが算出される。
【0068】
そして、次の数式5に基づいて、当該グループに対する奥行き情報Hが生成される。
【0069】
【数5】
Figure 0003540626
【0070】
数式5において、K1、K2およびK3は係数であり、たとえば、K1=3/8、K2=1/8、K3=4/8に設定されている。
【0071】
(6)全領域に対する奥行き情報補正処理の説明
【0072】
ステップ5のグループ毎の奥行き情報補正処理では、まず、視差算出領域F1〜F60の各行ごとに、奥行き情報の平均値が算出される。各視差算出領域F1〜F60ごとの奥行き情報が、たとえば、図12に示すような値であった場合には、第1〜第6行目ごとの奥行き情報の平均値は、1.2、3.6、6.0、7.2、4.0、1.2となる。
【0073】
次に、視差算出領域の各行のうち、手前位置の物体が多く映っている領域が抽出される。つまり、奥行き情報の平均値が最も大きい行が抽出される。図12の例では、第4行目の領域が抽出される。
【0074】
次に、抽出された行より下段にある行の各領域については、直上の領域に対して、急激に奥行き情報が小さくならないように、抽出された行より下段にある行の各領域の奥行き情報が調整される。具体的には、抽出された行より下段にある行の各領域の奥行き情報が直上の領域に対して3以上小さい領域に対しては、直上の領域の奥行き情報より2だけ小さい値に、その領域の奥行き情報が変更せしめられる。
【0075】
図12の例では、図13に示すように、まず、第5行の各領域F41〜F50のうち、その奥行き情報が直上の領域の奥行き情報に対して3以上小さい領域F42〜F49に対して、奥行き情報が補正される。この後、第6行の各領域F51〜F60のうち、その奥行き情報が直上の領域の奥行き情報(補正後の奥行き情報)に対して3以上小さい領域F53〜F58に対して、奥行き情報が補正される。
【0076】
つまり、任意の水平位置における画面の高さに対する奥行き情報の関係が、図14に曲線U1で示すような関係である場合には、奥行き補正によって、画面の高さに対する奥行き情報の関係が、図14に曲線U2に示すような関係となるように補正される。
【0077】
このように、視差算出領域の各行のうち、手前位置の物体が多く映っている領域より下段の領域の奥行き情報が補正されているのは次の理由による。
【0078】
一般的には、画面の下側には前方に存在する物体が映っていることが多い。また、画面の下側に映っている物体は、地面等のように変化の少ない画像であることが多い。地面等のように変化の少ない画像は、高周波成分が低いため、前方にあるにも係わらず、奥行き情報の値は小さくなる。そこで、奥行き補正により、前方にある物体であって高周波成分が低い映像に対する奥行き情報を、その直上の領域の奥行き情報の値より大きくならない程度に大きくしているのである。
【0079】
(7)グループ境界に対する奥行き情報補正処理の説明
【0080】
隣り合う2つのグループ間の境界部においては、正しくグループ分けが行なわれていないことがある。また、隣り合う2つのグループ間の境界部において、グループ毎の奥行き推定値が大きく異なると、画像歪みが顕著となる。
【0081】
そこで、ステップ7のグループ境界に対する奥行き情報補正処理では、まず、隣り合う2つのグループ間の境界部毎に、一方のグループの視差算出領域の奥行き情報と、他方のグループの視差算出領域の奥行き情報との差が、予め定められた所定値以上か否かが判別される。そして、両者の奥行き情報の差が所定値以上である場合には、両者の奥行き情報の差が所定値より小さくなるように、奥行き情報が小さい方(つまり、後方に位置している方)の視差算出領域に対する奥行き情報を増加させる。
【0082】
(8)グループ内部に対する奥行き情報補正処理の説明
【0083】
上記ステップ6および7の補正処理によって、同一グループ内においても領域によって奥行き情報に差が生じる。この差が大きくなると、画像歪みが顕著となる。そこで、ステップ8のグループ内部に対する奥行き情報補正処理では、各グループ毎に、グループ内の奥行き推定値が平滑化される。
【0084】
つまり、図15に示すように、同じグループ内において、注目領域をA、それに対する奥行き情報をHAとし、それに隣接する4つの領域をU、D、L、R、それらに対する奥行き情報をHU、HD、HL、HRとすると、注目領域Aに対する奥行き推定値HAは次の数式6により、補正される。
【0085】
【数6】
Figure 0003540626
【0086】
このようにして得られた各視差算出領域F1〜F60ごとの奥行き情報は、再度、0〜10の範囲内で正規化される。
【0087】
(9)視差情報算出処理の説明
【0088】
ステップ9の視差情報算出処理では、各視差算出領域F1〜F60ごとの奥行き情報が各領域F1〜F60ごとの視差情報に変換される。
【0089】
つまり、予め設定された奥行き情報に対する視差情報との関係に基づいて、各領域F1〜F60ごとに、奥行き情報を視差情報に変換する。奥行き情報に対する視差情報との関係は、図16に直線S1またはS2で示されるように、反比例の関係である。
【0090】
図16において、直線S1で示される奥行き情報に対する視差情報との関係は、立体感が比較的強い立体映像を得たい場合に用いられる。直線S2で示される奥行き情報に対する視差情報との関係は、立体感が比較的弱い立体映像を得たい場合に用いられる。奥行き情報に対する視差情報との関係を、直線S1と直線S2との間で調整することにより、立体感を調整することが可能である。
【0091】
このようにして得られた各視差算出領域ごとの視差情報は、視差制御回路8(図1参照)および背景映像用視差制御回路9(図1参照)に送られる。
【0092】
図17は、図1の視差制御回路8、左映像生成回路5および右映像生成回路6の構成を示している。以下においては、視差算出領域が、図2に示すように、E1〜E12であるとして説明する。
【0093】
ところで、CPU7によって算出された視差情報は、各視差算出領域E1〜E12の中心位置に対する視差情報である。視差制御回路8では、各視差算出領域E1〜E12の中心位置に対する視差情報に基づいて、1フィールド画面の各画素位置に対する視差情報が求められる。そして、各画素位置に対する2次元映像信号から、その画素位置に対する視差情報に応じた視差を有する左映像と右映像とを生成するために、各画素位置に対する視差情報に基づいて、左映像用任意画素遅延FIFO23および右映像用任意画素遅延FIFO24の読み出しアドレスが制御される。
【0094】
1フィールド画面の各画素位置に対する視差情報は、タイミング信号発生回路51、視差補間係数発生回路52、視差情報記憶手段60、視差選択回路80、第1〜第4乗算器81〜84および加算回路85によって、生成される。
【0095】
入力映像信号の水平同期信号Hsyncおよび垂直同期信号Vsyncは、タイミング信号発生回路51に入力している。また、各水平期間の水平アドレスを検出するためのクロック信号CLKもタイミング信号発生回路51に入力している。
【0096】
タイミング信号発生回路51は、水平同期信号Hsync、垂直同期信号Vsyncおよびクロック信号CLKに基づいて、入力映像信号の絶対的水平位置を表す水平アドレス信号HAD、入力映像信号の絶対的垂直位置を表す垂直アドレス信号VAD、入力映像信号の相対的水平位置を表す相対的水平位置信号HPOSおよび入力映像信号の相対的垂直位置を表す相対的垂直位置信号VPOSを生成して出力する。
【0097】
入力映像信号の相対的水平位置および相対的垂直位置について説明する。
【0098】
図18に示すように、図2の視差算出領域E1〜E12は、次のように設定されている。画面全体が図18に点線で示すように、4行5列の20個の領域(以下、第1分割領域という)に分割されている。そして、左上端の第1分割領域の中心、右上端の第1分割領域の中心、左下端の第1分割領域の中心および右下端の第1分割領域の中心を4頂点とする四角形領域が3行4列の12個の領域(以下、第2分割領域という)に分割され、各第2分割領域が視差算出領域E1〜E12として設定されている。
【0099】
第1分割領域および第2分割領域の水平方向の画素数がmで表され、第1分割領域および第2分割領域の垂直方向の画素数がnとして表されている。入力映像信号の相対的水平位置は、各第1分割領域の左端を0とし、右端をmとして、0〜(m−1)で表される。入力映像信号の相対的垂直位置は、各第1分割領域の上端を0とし、下端をnとして、0〜(n−1)で表される。
【0100】
入力映像信号の相対的水平位置信号HPOSおよび相対的垂直位置VPOSは、視差補間係数発生回路52に送られる。視差補間係数発生回路52は、相対的水平位置信号HPOS、相対的垂直位置VPOSおよび次の数式7に基づいて、第1視差補間係数KUL、第2視差補間係数KUR、第3視差補間係数KDLおよび第4視差補間係数KDRを生成して出力する。
【0101】
【数7】
Figure 0003540626
【0102】
1フィールド画面の各画素位置に対する視差情報を生成する方法の基本的な考え方について、図19を用いて説明する。水平アドレス信号HADおよび垂直アドレス信号VADによって表されている水平垂直位置(以下、注目位置という)が図19のPxyであるとする。注目位置Pxyに対する視差情報を求める場合について説明する。
【0103】
(1)まず、CPU7によって算出された各視差算出領域E1〜E12に対する視差情報のうちから、注目位置Pxyが含まれる第1分割領域の4頂点、この例ではPE1、PE2、PE5、PE6を中心とする視差算出領域E1、E2、E5、E6に対する視差情報が、それぞれUL、UR、DL、DRとして抽出される。つまり、注目位置Pxyが含まれる第1分割領域の4頂点のうち、左上の頂点を中心とする領域E1の視差情報が第1視差情報ULとして、右上の頂点を中心とする領域E2の視差情報が第2視差情報URとして、左下の頂点を中心とする領域E5の視差情報が第3視差情報DLとして、右下の頂点を中心とする領域E6の視差情報が第4視差情報DRとして抽出される。
【0104】
ただし、注目位置が含まれる第1分割領域が、図18の左上端の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち1つの頂点のみが視差検出領域の中心に該当するような場合には、その視差算出領域の視差情報が、第1〜第4の視差情報UL、UR、DL、DRとして抽出される。
【0105】
また、注目位置が含まれる第1分割領域が、図18の左上端の第1分割領域の右隣の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち下側の2つの頂点のみが視差算出領域の中心に該当するような場合には、注目位置が含まれる第1分割領域の4頂点のうち上側の2つの頂点に対応する視差情報UL、URとしては、その下側の頂点を中心とする視差算出領域の視差情報が抽出される。
【0106】
また、注目位置が含まれる第1分割領域が、図18の左上端の第1分割領域の下隣の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち右側の2つの頂点のみが視差算出領域の中心に該当するような場合には、注目位置が含まれる第1分割領域の4頂点のうち左側の2つの頂点に対応する視差情報UL、DLとしては、その右側の頂点を中心とする視差算出領域の視差情報が抽出される。
【0107】
また、注目位置が含まれる第1分割領域が、図18の右下端の第1分割領域の左隣の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち上側の2つの頂点のみが視差算出領域の中心に該当するような場合には、注目位置が含まれる第1分割領域の4頂点のうち下側の2つの頂点に対応する視差情報DL、DRとしては、その上側の頂点を中心とする視差算出領域の視差情報が抽出される。
【0108】
また、注目位置が含まれる第1分割領域が、図18の右下端の第1分割領域の上隣の第1分割領域である場合のように、注目位置が含まれる第1分割領域の4頂点のうち左側の2つの頂点のみが視差算出領域の中心に該当するような場合には、注目位置が含まれる第1分割領域の4頂点のうち右側の2つの頂点に対応する視差情報UR、DRとしては、その左側の頂点を中心とする視差算出領域の視差情報が抽出される。
【0109】
(2)次に、第1〜第4の視差補間係数KUL、KUR、KDLおよびKDRが求められる。
【0110】
第1の視差補間係数KULは、注目位置Pxyを含む第1分割領域eの水平方向幅mに対する、注目位置Pxyから第1分割領域eの右辺までの距離ΔXRとの比{(m−HPOS)/m}と、第1分割領域eの垂直方向幅nに対する、注目位置Pxyから第1分割領域eの下辺までの距離ΔYDとの比{(n−VPOS)/n}との積によって求められる。すなわち、第1の視差補間係数KULは、注目位置Pxyを含む第1分割領域eの左上頂点PE1と注目位置Pxyとの距離が小さいほど大きくなる。
【0111】
第2の視差補間係数KURは、注目位置Pxyを含む第1分割領域eの水平方向幅mに対する、注目位置Pxyから第1分割領域eの左辺までの距離ΔXLとの比(HPOS/m}と、第1分割領域eの垂直方向幅nに対する、注目位置Pxyから第1分割領域eの下辺までの距離ΔYDとの比{(n−VPOS)/n}との積によって求められる。すなわち、第2の視差補間係数KURは、注目位置Pxyを含む第1分割領域eの右上頂点PE2と注目位置Pxyとの距離が小さいほど大きくなる。
【0112】
第3の視差補間係数KDLは、注目位置Pxyを含む第1分割領域eの水平方向幅mに対する、注目位置Pxyから第1分割領域eの右辺までの距離ΔXRとの比{(m−HPOS)/m}と、第1分割領域eの垂直方向幅nに対する、注目位置Pxyから第1分割領域eの上辺までの距離ΔYUとの比(VPOS/n)との積によって求められる。すなわち、第3の視差補間係数KDLは、注目位置Pxyを含む第1分割領域eの左下頂点PE5と注目位置Pxyとの距離が小さいほど大きくなる。
【0113】
第4の視差補間係数KDRは、注目位置Pxyを含む第1分割領域eの水平方向幅mに対する、注目位置Pxyから第1分割領域eの左辺までの距離ΔXLとの比(HPOS/m)と、第1分割領域eの垂直方向幅nに対する、注目位置Pxyから第1分割領域eの上辺までの距離ΔYUとの比(VPOS/n)との積によって求められる。すなわち、第4の視差補間係数KDRは、注目位置Pxyを含む第1分割領域eの右下頂点PE6と注目位置Pxyとの距離が小さいほど大きくなる。
【0114】
(3)上記(1)で抽出された第1〜第4の視差情報UL、UR、DL、DRに、それぞれ上記(2)で算出された第1〜第4の視差補間係数KUL、KUR、KDL、KDRがそれぞれ乗算される。そして、得られた4つの乗算値が加算されることにより、注目位置Pxyに対する視差情報(請求項1記載の「各画素毎の第1の視差情報」に相当)が生成される。
上記した処理により、画面内の各画素毎の第1の視差情報を、その周囲の視差算出領域に対する視差情報に重みを付けて加算することにより算出し、各画素毎にその画素に対応する第1の視差情報に応じた水平位相差を有する第1の左映像および第1の右映像を生成している。
【0115】
視差情報記憶手段60は、領域E1〜E12にそれぞれ対応して設けられた第1〜第12の視差レジスタ61〜72を備えている。第1〜第12の視差レジスタ61〜72には、CPU7によって生成された各領域E1〜E12に対する視差情報が格納される。
【0116】
視差情報記憶手段60の後段には、視差選択回路80が設けられている。視差選択回路80には、各視差レジスタ61〜72から視差情報がそれぞれ送られる。さらに、視差選択回路80には、タイミング信号発生回路51から水平アドレス信号HADおよび垂直アドレス信号VADが送られている。
【0117】
視差選択回路80は、図20(a)に示されている規則にしたがって、水平アドレス信号HADおよび垂直アドレス信号VADに対応する領域(図19の例では、注目位置を含む第1領域の左上頂点を中心とする視差算出領域)に対する視差情報を、第1視差情報ULとして選択して出力する。さらに、視差選択回路80は、図20(b)に示されている規則にしたがって、水平アドレス信号HADおよび垂直アドレス信号VADに対応する領域(図19の例では、注目位置を含む第1領域の右上頂点を中心とする視差算出領域)に対する視差情報を、第2視差情報URとして選択して出力する。
【0118】
さらに、視差選択回路80は、図20(c)に示されている規則にしたがって、水平アドレス信号HADおよび垂直アドレス信号VADに対応する領域(図19の例では、注目位置を含む第1領域の左下頂点を中心とする視差算出領域)に対する視差情報を、第3視差情報DLとして選択して出力する。さらに、視差選択回路80は、図20(d)に示されている規則にしたがって、水平アドレス信号HADおよび垂直アドレス信号VADに対応する領域(図19の例では、注目位置を含む第1領域の右下頂点を中心とする視差算出領域)に対する視差情報を、第4視差情報DRとして選択して出力する。図20において、たとえば、0〜mのように、a〜bで表現されている記号”〜”は、a以上b未満を意味する記号として用いられている。
【0119】
視差選択回路80によって選択された第1視差情報UL、第2視差情報UR、第3視差情報DLおよび第4視差情報DRは、それぞれ第1、第2、第3および第4の乗算器81、82、83、84に入力する。
【0120】
第1、第2、第3および第4の乗算器81、82、83、84には、それぞれ視差補間係数発生回路52からの第1視差補間係数KUL、第2視差補間係数KUR、第3視差補間係数KDLおよび第4視差補間係数KDRも入力している。
【0121】
第1乗算器81は、第1視差情報ULに第1視差補間係数KULを乗算する。第2乗算器82は、第2視差情報URに第2視差補間係数KURを乗算する。第3乗算器83は、第3視差情報DLに第3視差補間係数KDLを乗算する。第4乗算器84は、第4視差情報DRに第4視差補間係数KDRを乗算する。
【0122】
各乗算器81、82、83、84の出力は、加算回路85によって加算される。これにより、注目位置に対する視差情報PRが得られる。
【0123】
各任意画素遅延FIFO23、24は、1画素より小さい単位での水平位相制御を行なうために、ぞれぞれ2つのラインメモリ23a、23b、24a、24bを備えている。各任意画素遅延FIFO23、24内の2つのラインメモリ23a、23b、24a、24bには、それぞれY信号が入力されているとともにクロック信号CLKが入力している。
【0124】
タイミング信号発生回路51から出力されている水平アドレス信号HADは、標準アドレス発生回路90にも入力している。標準アドレス発生回路90は、各任意画素遅延FIFO23、24内の2つのラインメモリ23a、23b、24a、24bに対する標準書き込みアドレスWADおよび標準読み出しアドレスRADを生成して出力する。また、標準アドレス発生回路90は、2D/3D映像変換装置によって得られる左映像信号および右映像信号に付加される同期信号Csyncをも出力する。この同期信号Csyncによって表される水平同期信号は、入力映像信号の水平同期信号Hsyncより、所定クロック数分遅れた信号となる。
【0125】
標準読み出しアドレスRADは、標準読み出しアドレスによって規定される基準水平位相に対して、各任意画素遅延FIFO23、24に入力される映像信号の水平位相を進めたり遅らしたりできるようにするために、標準書き込みアドレスWADに対して、所定クロック数分遅れている。標準アドレス発生回路90から出力される標準書き込みアドレスWADは、各任意画素遅延FIFO23、24内の2つのラインメモリ23a、23b、24a、24bに、書き込みアドレスを示す書き込み制御信号として入力する。
【0126】
標準アドレス発生回路90から出力される標準読み出しアドレスRADは、加算器91および減算器92にそれぞれ入力する。加算器91および減算器92には、加算回路85から出力される注目位置の視差情報PRも入力している。
【0127】
加算器91では、標準読み出しアドレスRADに視差情報PRが加算される。これにより、左映像用読み出しアドレスPRLが得られる。
【0128】
左映像用読み出しアドレスPRLの整数部PRL1は、左映像用任意画素遅延FIFO23内の第1のラインメモリ23aに読み出しアドレスRADL1として入力する。したがって、第1のラインメモリ23aのアドレスRADL1に対応するアドレスからY信号が読み出される。読み出されたY信号は、第1の左映像用乗算器101に入力する。
【0129】
左映像用読み出しアドレスPRLの整数部PRL1に1が加算されたアドレス値は、左映像用任意画素遅延FIFO23内の第2のラインメモリ23bに読み出しアドレスRADL2として入力する。したがって、第2のラインメモリ23bのアドレスRADL2に対応するアドレスからY信号が読み出される。読み出されたY信号は、第2の左映像用乗算器102に入力する。
【0130】
第1のラインメモリ23aに対する読み出しアドレスRADL1と、第2のラインメモリ23bに対する読み出しアドレスRADL2とは、1だけ異なっているので、第1のラインメモリ23aから読み出されたY信号と、第2のラインメモリ23bから読み出されたY信号とは、水平位置が1だけずれた信号となる。
【0131】
左映像用読み出しアドレスPRLの小数部PRL2は、第2の左映像補間係数として第2の左映像用乗算器102に入力する。左映像用読み出しアドレスPRLの小数部PRL2を1から減算した値(1−PRL2)は、第1の左映像補間係数として第1の左映像用乗算器101に入力する。
【0132】
したがって、第1の左映像用乗算器101では、第1のラインメモリ23aから読み出されたY信号に第1の左映像補間係数(1−PRL2)が乗算される。第2の左映像用乗算器102では、第2のラインメモリ23bから読み出されたY信号に第2の左映像補間係数PRL2が乗算される。そして、各乗算器101、102によって得られたY信号は加算器103で加算された後、左映像信号として、出力される。
【0133】
これにより、標準読み出しアドレスRADによって規定される基準水平位相に対して、水平位相量が注目位置に対する視差情報に応じた量だけ遅れた左映像信号が得られる。
【0134】
減算器92では、標準読み出しアドレスRADから視差情報PRが減算される。これにより、右映像用読み出しアドレスPRRが得られる。
【0135】
右映像用読み出しアドレスPRRの整数部PRR1は、右映像用任意画素遅延FIFO24内の第1のラインメモリ24aに読み出しアドレスRADR1として入力する。したがって、第1のラインメモリ24aのアドレスRADR1に対応するアドレスからY信号が読み出される。読み出されたY信号は、第1の右映像用乗算器111に入力する。
【0136】
右映像用読み出しアドレスPRRの整数部PRR1に1が加算されたアドレス値は、右映像用任意画素遅延FIFO24内の第2のラインメモリ24bに読み出しアドレスRADR2として入力する。したがって、第2のラインメモリ24bのアドレスRADR2に対応するアドレスからY信号が読み出される。読み出されたY信号は、第2の右映像用乗算器112に入力する。
【0137】
第1のラインメモリ24aに対する読み出しアドレスRADR1と、第2のラインメモリ24bに対する読み出しアドレスRADR2とは、1だけ異なっているので、第1のラインメモリ24aから読み出されたY信号と、第2のラインメモリ24bから読み出されたY信号とは、水平位置が1だけずれた信号となる。
【0138】
右映像用読み出しアドレスPRRの小数部PRR2は、第2の右映像補間係数として第2の右映像用乗算器112に入力する。右映像用読み出しアドレスPRRの小数部PRR2を1から減算した値(1−PRR2)は、第1の右映像補間係数として第1の右映像用乗算器111に入力する。
【0139】
したがって、第1の右映像用乗算器111では、第1のラインメモリ24aから読み出されたY信号に第1の右映像補間係数(1−PRR2)が乗算される。第2の右映像用乗算器112では、第2のラインメモリ24bから読み出されたY信号に第2の右映像補間係数PRR2が乗算される。そして、各乗算器111、112によって得られたY信号は加算器113で加算された後、右映像信号として、出力される。
【0140】
これにより、標準読み出しアドレスRADによって規定される基準水平位相に対して、水平位相量が注目位置に対する視差情報に応じた量だけ進んだ右映像信号が得られる。
【0141】
本出願人が既に開発した2次元映像信号を3次元映像信号に変換する方法(特願平9−159949号)では、上記左映像生成回路5によって生成された左映像信号と、上記右映像生成回路6によって生成された右映像信号とをそれぞれDA変換することにより、3次元映像信号を得ている。
【0142】
図21は、注目位置に対する視差情報が0の場合の、各部の信号を示している。
【0143】
視差情報が0の場合には、加算器91から出力される左映像用読み出しアドレスPRLと、減算器92から出力される右映像用読み出しアドレスPRRは、ともに標準読み出しアドレスRADと等しい小数部のない整数部のみからなるアドレスとなる。
【0144】
したがって、左映像用任意画素遅延FIFO23内の第1のラインメモリ23aに対する読み出しアドレスRADL1と、右映像用任意画素遅延FIFO24内の第1のラインメモリ24aに対する読み出しアドレスRADR1は、標準読み出しアドレスRADと等しいアドレスとなる。
【0145】
また、左映像用任意画素遅延FIFO23内の第2のラインメモリ23bに対する読み出しアドレスRADL2と、右映像用任意画素遅延FIFO24内の第2のラインメモリ24bに対する読み出しアドレスRADR2は、標準読み出しアドレスRADより1だけ大きい値となる。
【0146】
また、第1の左映像補間係数(1−PRL2)および第1の右映像補間係数(1−PRR2)は1となり、第2の左映像補間係数PRL2および第2の右映像補間係数PRR2は0となる。
【0147】
この結果、左映像用任意画素遅延FIFO23内の第1のラインメモリ23aの標準アドレスRADに対応するアドレスから読み出されたY信号が加算器103から左映像信号として出力され、右映像用任意画素遅延FIFO24内の第1のラインメモリ24aの標準アドレスRADに対応するアドレスから読み出されたY信号が加算器113から右映像信号として出力される。つまり、水平方向の位相ずれ量が同じ2つのY信号、すなわち視差のない2つのY信号が左映像用Y信号および右映像信号として出力される。
【0148】
図22は、ある注目位置に対する標準書き込みアドレスWADが20であり、上記注目位置に対する標準読み出しアドレスRADが10であり、上記注目位置に対する視差情報が1.2の場合の、各アドレス値の具体例を示している。図23は、その際の各部の信号を示している。
【0149】
この場合には、加算器91から出力される左映像用読み出しアドレスPRLは、11.2となり、その整数部PRL1は11となり、その小数部PRL2は0.2となる。
【0150】
したがって、左映像用任意画素遅延FIFO23内の第1のラインメモリ23aに対する読み出しアドレスRADL1は11となり、第2のラインメモリ23bに対する読み出しアドレスRADL2は12となる。また、第1の左映像補間係数KL1{=(1−PRL2)}は0.8となり、第2の左映像補間係数KL2(=PRL2)は0.2となる。
【0151】
したがって、左映像用任意画素遅延FIFO11内の第1のラインメモリ23aのアドレス11からY信号(Y11)が読み出され、第1乗算器101からは読み出されたY信号(Y11)の0.8倍の信号(0.8*Y11)が出力される。
【0152】
一方、左映像用任意画素遅延FIFO23内の第2のラインメモリ23bのアドレス12からY信号(Y12)が読み出され、第2乗算器102からは読み出されたY信号(Y12)の0.2倍の信号(0.2*Y12)が出力される。そして、加算器103からは、0.8*Y11+0.2*Y12に相当する左映像信号が出力される。つまり、読み出しアドレス11.2に相当するY信号が、左映像信号として出力される。
【0153】
減算器92から出力される右映像用読み出しアドレスPRRは、8.8となり、その整数部PRR1は8となり、その小数部PRR2は0.8となる。
【0154】
したがって、右映像用任意画素遅延FIFO24内の第1のラインメモリ24aに対する読み出しアドレスRADR1は8となり、第2のラインメモリ24bに対する読み出しアドレスRADR2は9となる。また、第1の右映像補間係数KR1{=(1−PRR2)}は0.2となり、第2の右映像補間係数KR2(=PRR2)は0.8となる。
【0155】
したがって、右映像用任意画素遅延FIFO24内の第1のラインメモリ24aのアドレス8からY信号(Y8 )が読み出され、第1乗算器111からは読み出されたY信号(Y8 )の0.2倍の信号(0.2*Y8 )が出力される。
【0156】
一方、右映像用任意画素遅延FIFO24内の第2のラインメモリ24bのアドレス9からY信号(Y9 )が読み出され、第2乗算器112からは読み出されたY信号(Y9 )の0.8倍の信号(0.8*Y9 )が出力される。そして、加算器113からは、0.2*Y8 +0.8*Y9 に相当する右映像信号が出力される。つまり、読み出しアドレス8.8に相当するY信号が、右映像信号として出力される。
【0157】
この結果、11.2−8.8=2.4の視差、つまり、視差情報1.2の2倍の視差を互いに有する左映像および右映像が得られる。
【0158】
図24は、図1の背景映像用視差制御回路9、左背景映像生成回路3および右背景映像生成回路4の構成を示している。図24において、図17と対応する部分には、同じ符号を付してその説明を省略する。
【0159】
図24の左背景映像生成回路3と、図17の左映像生成回路5とを比較すると、図17の左映像用任意遅延FIFO23を構成する2つのラインメモリ23a、23bが、図24に示すように左背景映像用任意遅延FIFO21を構成する2つのラインメモリ21a、21bと置き換えられた点のみが異なっている。
【0160】
図24の右背景映像生成回路4と、図17の右映像生成回路6とを比較すると、図17の右映像用任意遅延FIFO24を構成する2つのラインメモリ24a、24bが、図24に示すように右背景映像用任意遅延FIFO22を構成する2つのラインメモリ22a、22bと置き換えられた点のみが異なっている。
【0161】
図24の背景映像用視差制御回路9と、図17の視差制御回路8とを比較すると、図17の視差選択回路80の後段に設けられた乗算器81〜84および加算回路85が、図24に示すように最大値選択回路86に置き換えられた点のみが異なっている。
【0162】
つまり、図24に示されている背景映像用視差制御回路9では、図19における注目位置Pxyに対する視差量PRは、注目位置Pxyを含む第1分割領域(図18参照)の4頂点(PE1,PE2,PE5,PE6)の視差情報UL,UR,DL,DRのうち、最も大きな値(管面から最も奥にある領域の視差情報)に決定される(請求項1記載の「各画素毎の第2の視差情報」に相当)。この点以外については、背景映像用視差制御回路9、左背景映像生成回路3および右背景映像生成回路4の動作は、図17の視差制御回路8、左映像生成回路5および右映像生成回路6の動作と同様であるので、その説明を省略する。
【0163】
図25は、エッジピーク位置検出回路11の構成を示している。
【0164】
エッジピーク位置検出回路11は、各水平ライン毎に、図18における視差算出領域E1(E5、E9)の水平方向中心位置mからE2(E6、E10)の水平方向中心位置2mまでの第1水平領域、視差算出領域E2(E6、E10)の水平方向中心位置2mからE3(E7、E11)の水平方向中心位置3mまでの第2水平領域、および視差算出領域E3(E7、E11)の水平方向中心位置3mからE4(E8、E12)の水平方向中心位置4mまでの第3水平領域それぞれの領域におけるエッジピーク位置を検出する。
【0165】
エッジピーク位置検出回路11は、エッジ抽出回路31、レベル比較回路32、第1レジスタ群33および第2レジスタ群34を備えている。レベル比較回路32、第1レジスタ群33および第2レジスタ群34には、エッジピーク位置検出回路11に入力する映像の水平アドレス信号HADが送られている。
【0166】
第1レジスタ群33は、第1水平領域、第2水平領域および第3水平領域それぞれに対応したエッジMAX−Hアドレスレジスタ33a、33b、33cを備えている。同様に、第2レジスタ群34は、第1水平領域、第2水平領域および第3水平領域それぞれに対応したエッジMAX−Hアドレスレジスタ34a、34b、34cを備えている。
【0167】
エッジ抽出回路31に入力された信号Yは、1画素期間遅延する遅延回路31aに送られるとともに減算回路31bに送られる。遅延回路31aによって1画素期間遅延された信号は減算回路31bに送られる。したがって、減算回路31bでは、水平方向に隣合う画素間での輝度レベルの差分が算出される。
【0168】
減算回路31bによって得られた差分は絶対値回路31cに送られ、差分の絶対値を表すエッジ信号に変換される。差分の絶対値を表すエッジ信号は、減算回路31d送られ、所定のスライスレベル以下のレベルのエッジ信号が除去される。したがって、エッジ抽出回路31からは、スライスレベルより大きなエッジ信号のみが出力される。エッジ抽出回路31から出力されるエッジ信号は、レベル比較回路35に送られる。
【0169】
レベル比較回路32は、各水平ライン毎に次のような動作を行う。まず、第1水平領域内において最初のエッジ信号が入力されると、そのエッジ信号の水平アドレスを第1レジスタ群33内の第1水平領域に対応するエッジMAX−Hアドレスレジスタ33aに書き込む。そして、第1水平領域内において、より大きなエッジ信号が入力される毎に、そのエッジ信号の水平アドレスに、レジスタ33a内の水平アドレスを更新する。以下、第2水平領域および第3水平領域に対しても同様な動作を行う。
【0170】
そして、1水平ラインに対する処理が終了すると、つまり、水平アドレス(HAD)が0になると、第1アドレス群33内の各レジスタ33a、33b、33cの内容が、第2アドレス群34内の対応するレジスタ34a、34b、34cに転送される。また、第1アドレス群33内の各レジスタ33a、33b、33cに初期値、この例では0が書き込まれる。
【0171】
第2アドレス群34のレジスタ34a、34b、34cに、第1アドレス群33内の各レジスタ33a、33b、33cの内容が転送されると、その時点から開始される1水平期間において、第2アドレス群34は、各レジスタ34a、34b、34cの内容に基づいて、次のようなタイミングで背景選択信号を出力する。
【0172】
第2アドレス群34のレジスタ34a、34b、34cの少なくとも1つに0以外の水平アドレスが格納されている場合には、水平アドレス(HAD)が、レジスタ34a、34b、34cに記憶されている0以外の水平アドレスと一致する毎に、背景選択信号が出力される。第2アドレス群34のレジスタ34a、34b、34cの全てに初期値0が格納されている場合には、背景選択信号は出力されない。なお、エッジピーク位置検出回路15の構成も、エッジピーク位置検出回路11の構成と同様なので、その説明を省略する。
【0173】
図1の視差比較回路10は、図19に示すように、注目位置が含まれる第1分割領域の4頂点PE1、PE2、PE5、PE6に対する視差情報UL、UR、DL、DRに基づいて、左映像用視差比較信号ENLSELおよび右映像用視差比較信号ENRSELを出力する。
【0174】
つまり、注目画素を含む4頂点PE1、PE2、PE5、PE6の視差情報UL、UR、DL、DRが次式8で表される第1条件を満たした場合には、左映像用視差比較信号ENLSELが出力される。
【0175】
【数8】
Figure 0003540626
【0176】
また、注目画素を含む4頂点PE1、PE2、PE5、PE6の視差情報UL、UR、DL、DRが次式9で表される第2条件を満たした場合には、右映像用視差比較信号ENRSELが出力される。
【0177】
【数9】
Figure 0003540626
【0178】
図1の第1の背景選択制御回路12の動作について、図26〜図29を参照して説明する。
【0179】
図26(a)は入力映像を示し、図26(b)は左背景映像生成回路3によって生成された左背景映像を示し、図26(c)は右背景映像生成回路4によって生成された右背景映像を示している。
【0180】
図26(a)、(b)、(c)の各画像内の各ブロックは、視差算出領域を表している。また、各ブロック内の数字は、各ブロックに対する視差情報を表している。
【0181】
入力映像が図26(a)に示すような画像である場合には、左背景映像は、図26(b)に示すように、入力映像全体を視差情報”2”に応じた量だけ、左側にずらした映像となる。また、右背景映像は、図26(c)に示すように、入力映像全体を視差情報”2”に応じた量だけ、右側にずらした映像となる。
【0182】
図27(a)は入力映像を示し、図27(b)は左映像生成回路5によって生成された左映像を示し、図27(c)は右映像生成回路6によって生成された右映像を示している。
【0183】
左映像は、図27(b)に示すように、視差情報の大きな画素位置ほど、左側に大きくずれた映像となる。また、右映像は、図27(c)に示すように、視差情報の大きな画素位置ほど、右側に大きくずれた映像となる。
【0184】
図28(a)は入力映像を示し、図28(b)はDA変換回路14から出力される左出力映像を示し、図28(c)はDA変換回路18から出力される右出力映像を示している。図28(b)、(c)において、H1は第1水平領域を、H2は第2水平領域を、H3は第3水平領域を、それぞれ示している。
【0185】
第1の背景選択制御回路12の動作について説明する。第1の背景選択制御回路12は、映像切替制御信号として常時は左映像を選択させるための左映像選択信号を第1の選択回路13に出力している。したがって、第1の選択回路13は、常時は、左映像を選択して出力している。
【0186】
ある水平ラインが走査されている場合において、背景選択信号が第1の背景選択制御回路12に入力された時点で、左映像視差比較信号ENLSELが出力されている場合(つまり、注目位置より左側の視差量が右側の視差量より小さい(UL<URかつDL<DR)場合)には、第1の背景選択制御回路12は、その時点での水平アドレスを記憶する。つまり、背景より前方にある物体の正面からみて右側のエッジの水平アドレスが記憶される。
【0187】
そして、次の水平ライン走査時において、水平アドレスが、1つ前の水平ライン走査時に記憶されたエッジの水平アドレスと一致すると、第1の背景選択制御回路12は、映像切替制御信号を左背景映像選択信号に切り替える。したがって、第1の選択回路13は、左背景映像を出力するようになる。
【0188】
そして、水平アドレスが上記エッジ位置を含む水平領域(第1、第2、第3水平領域)の最終アドレスと一致すると、第1の背景選択制御回路12は、映像切替制御信号を左映像選択信号に切り替える。したがって、第1の選択回路13は、左映像を出力するようになる。
【0189】
したがって、図28(b)に示すように、背景より前方にある物体の正面からみて右側のエッジから、そのエッジを含む水平領域(この例では第3水平領域)の最終アドレス位置までの間部分(線間の広い斜線部分)において、左背景映像が選択される。
【0190】
第2の背景選択制御回路16の動作について説明する。第2の背景選択制御回路16は、映像切替制御信号として常時は右映像を選択させるための右映像選択信号を第2の選択回路17に出力している。したがって、第2の選択回路17は、常時は、右映像を選択して出力している。
【0191】
ある水平ラインが走査されている場合において、背景選択信号が第2の背景選択制御回路16に入力された時点で、右映像視差比較信号ENRSELが出力されている場合(つまり、注目位置より左側の視差量が右側の視差量より大きい(UL>URかつDL>DR)場合)には、第2の背景選択制御回路16は、その時点での水平アドレスを記憶する。つまり、背景より前方にある物体の正面からみて左側のエッジの水平アドレスが記憶される。
【0192】
そして、次の水平ライン走査時において、水平アドレスが、1つ前の水平ライン走査時に記憶されたエッジ位置を含む水平領域の開始アドレスと一致すると、第2の背景選択制御回路16は、映像切替制御信号を右背景映像選択信号に切り替える。したがって、第2の選択回路17は、右背景映像を出力するようになる。
【0193】
そして、水平アドレスが上記エッジの水平アドレスと一致すると、第2の背景選択制御回路16は、映像切替制御信号を右映像選択信号に切り替える。したがって、第2の選択回路17は、右映像を出力するようになる。
【0194】
したがって、図28(c)に示すように、背景より前方にある物体の正面からみて左側のエッジを含む水平領域(この例では第1水平領域)の開始アドレス位置からそのエッジ位置までの間部分(斜線部分)において、右背景映像が選択される。
【0195】
このようにして得られた左出力映像においては、図29(a)に符号QLで示すように左眼の死角部分が形成される。また、右出力映像においては、図29(b)に符号QRで示すように右眼の死角部分が形成される。この結果、左右2台のカメラで被写体を撮像した場合のように、死角部分を有する左出力映像および右出力映像が得られるので、立体感が向上する。
【0196】
図30(a)は、本棚の前方に顔が存在している入力映像を示している。図30(b)は図30(a)の入力映像に対して図1の左映像生成回路3によって生成される左映像を示し、図30(c)は図30(a)の入力映像に対して図1の右映像生成回路4によって生成される右映像を示している。
【0197】
図31(a)は、図30(a)と同じ入力映像を示している。図31(b)は図31(a)の入力映像に対して図1のDA変換回路14から出力される左出力映像を示し、図31(c)は図31(a)の入力映像に対して図1のDA変換回路18から出力される右出力映像を示している。
【0198】
図31における左出力映像と、図30における左映像とを比較すると、図31の左出力映像では図32に符号QLで示すように顔における正面から見て右側の輪郭(エッジ)の右側部分に死角が形成されていることがわかる。
【0199】
同様に、図31における右出力映像と、図30における右映像とを比較すると、図31の右出力映像では図32に符号QRで示すように顔における正面から見て左側の輪郭(エッジ)の左側部分に死角が形成されていることが分かる。
【0200】
【発明の効果】
この発明によれば、左映像と右映像とで異なる死角が生成されるので、立体感が向上する。
【図面の簡単な説明】
【図1】2D/3D映像変換装置の全体構成を示すブロック図である。
【図2】視差算出領域を示す模式図である。
【図3】実際に設定される視差算出領域を示す模式図である。
【図4】CPUによる視差情報の生成処理手順を示すフローチャートである。
【図5】R−Y成分積算値の正規化値を縦軸にとり、B−Y成分積算値の正規化値を横軸にとって、視差算出領域の分布を表したグラフである。
【図6】図5のグラフに基づいて得られたグループ分け結果を示す模式図である。
【図7】図5のグラフに基づいて得られたグループ分け結果を示す模式図である。
【図8】空間分離処理によって修正されたグループ分け結果を示す模式図である。
【図9】特異点処理を説明するための模式図である。
【図10】特異点処理によって修正されたグループ分け結果を示す模式図である。
【図11】各視差算出領域毎に予め設定された背景重み成分を示す模式図である。
【図12】奥行き補正前における各視差算出領域の奥行き情報の一例を示す模式図である。
【図13】奥行き補正後における各視差算出領域の奥行き情報を示す模式図である。
【図14】奥行き補正前における画面の高さ位置に対する奥行き情報との関係および奥行き補正後における画面の高さ位置に対する奥行き情報との関係を示すグラフである。
【図15】グループ内部に対する奥行き情報補正処理を説明するための模式図である。
【図16】奥行き情報と視差情報との関係を示すグラフである。
【図17】視差制御回路、左映像生成回路および右映像生成回路の構成を示すブロック図である。
【図18】相対的水平位置および相対的垂直位置等を示す模式図である。
【図19】注目画素に対する視差情報を生成する方法を説明するための説明図である。
【図20】視差選択回路による選択規則を示す図である。
【図21】視差情報が0の場合の各部の信号を示すタイムチャートである。
【図22】視差情報が1.2の場合の各アドレス値を視差制御回路に付記したブロック図である。
【図23】視差情報が1.2の場合の各部の信号を示すタイムチャートである。
【図24】背景映像用視差制御回路、左背景映像生成回路および右背景映像生成回路の構成を示すブロック図である。
【図25】エッジピーク位置検出回路の構成を示すブロック図である。
【図26】入力映像、左背景映像および右背景映像の一例を示す模式図である。
【図27】入力映像、左映像および右映像の一例を示す模式図である。
【図28】入力映像、左出力映像および右出力映像の一例を示す模式図である。
【図29】図28の左出力映像および右出力映像によって形成される死角を示す模式図である。
【図30】入力映像、左映像および右映像の他の例を示す模式図である。
【図31】入力映像、左出力映像および右出力映像の他の例を示す模式図である。
【図32】図31の左出力映像および右出力映像によって形成される死角を示す模式図である。
【符号の説明】
2 画像特徴量検出回路
3 左背景映像生成回路
4 右背景映像生成回路
5 左映像生成回路
6 右映像生成回路
7 CPU
8 視差制御回路
9 背景映像用視差制御回路
10 視差比較回路
11、15 エッジピーク位置検出回路
12、16 背景選択制御回路
13、17 選択回路

Claims (8)

  1. 2次元入力映像に基づいて、任意画面において、画面内に設定された複数の視差算出領域のそれぞれに対して、映像の遠近に関する画像特徴量を抽出する特徴量抽出手段、
    各視差算出領域毎に抽出された画像特徴量に基づいて各視差算出領域毎の視差情報を算出する視差情報算出手段、
    画面内の各画素毎の第1の視差情報を、その周囲の視差算出領域に対する視差情報に重みを付けて加算することにより算出し、各画素毎にその画素に対応する第1の視差情報に応じた水平位相差を有する第1の左映像および第1の右映像を生成する第1映像生成手段、
    画面内の各画素毎の第2の視差情報を、その周囲の視差算出領域に対する視差情報のうち、遠近位置が最も遠いことを表している視差情報と等しくなるように決定し、各画素毎にその画素に対応する第2の視差情報に応じた水平位相差を有する第2の左映像および第2の右映像を生成する第2映像生成手段、
    第1の左映像および第2の左映像が入力され、第1の左映像から検出されたエッジ位置および上記第1の視差情報に基づいて、画素単位で第1の左映像および第2の左映像のいずれかを選択して、左出力映像として出力させる第1出力手段、ならびに
    第1の右映像および第2の右映像が入力され、第1の右映像から検出されたエッジ位置および上記第1の視差情報に基づいて、画素単位で第1の右映像および第2の右映像のいずれかを選択して、右出力映像として出力させる第2出力手段、
    を備えている2次元映像を3次元映像に変換する装置。
  2. 第1出力手段は、常時は第1の左映像を選択しており、第1の左映像から検出されたエッジ位置の左側位置に対する第1の視差情報によって表される遠近位置が、そのエッジ位置の右側位置に対する第1の視差情報によって表される遠近位置より前側にある場合には、そのエッジ位置から右側の所定水平位置までの期間において第2の左映像を選択するものである請求項1に記載の2次元映像を3次元映像に変換する装置。
  3. 第2出力手段は、常時は第1の右映像を選択しており、第1の右映像から検出されたエッジ位置の左側位置に対する第1の視差情報によって表される遠近位置が、そのエッジ位置の右側位置に対する第1の視差情報によって表される遠近位置より後側にある場合には、そのエッジ位置より左側の所定水平位置からそのエッジ位置までの期間において第2の右映像を選択するものである請求項1および2のいずれかに記載の2次元映像を3次元映像に変換する装置。
  4. 映像の遠近に関する画像特徴量が、高周波成分の積算値、輝度コントラスト、R−Y成分の積算値、B−Y成分の積算値のうちから選択された任意の1つまたは任意の組み合わせである請求項1、2および3のいずれかに記載の2次元映像を3次元映像に変換する装置。
  5. 2次元入力映像に基づいて、任意画面において、画面内に設定された複数の視差算出領域のそれぞれに対して、映像の遠近に関する画像特徴量を抽出する第1ステップ、
    各視差算出領域毎に抽出された画像特徴量に基づいて各視差算出領域毎の視差情報を算出する第2ステップ、
    画面内の各画素毎の第1の視差情報を、その周囲の視差算出領域に対する視差情報に重みを付けて加算することにより算出し、各画素毎にその画素に対応する第1の視差情報に応じた水平位相差を有する第1の左映像および第1の右映像を生成する第3ステップ、
    画面内の各画素毎の第2の視差情報を、その周囲の視差算出領域に対する視差情報のうち、遠近位置が最も遠いことを表している視差情報と等しくなるように決定し、各画素毎にその画素に対応する第2の視差情報に応じた水平位相差を有する第2の左映像および第2の右映像を生成する第4ステップ、
    第1の左映像から検出されたエッジ位置および上記第1の視差情報に基づいて、画素単位で第1の左映像および第2の左映像のいずれかを選択して、左出力映像として出力させる第5ステップ、ならびに
    第1の右映像から検出されたエッジ位置および上記第1の視差情報に基づいて、画素単位で第1の右映像および第2の右映像のいずれかを選択して、右出力映像として出力させる第6ステップ、
    を備えている2次元映像を3次元映像に変換する方法。
  6. 第5ステップでは、常時は第1の左映像を選択しており、第1の左映像から検出されたエッジ位置の左側位置に対する第1の視差情報によって表される遠近位置が、そのエッジ位置の右側位置に対する第1の視差情報によって表される遠近位置より前側にある場合には、そのエッジ位置から右側の所定水平位置までの期間において第2の左映像を選択する請求項5に記載の2次元映像を3次元映像に変換する方法。
  7. 第6ステップでは、常時は第1の右映像を選択しており、第1の右映像から検出されたエッジ位置の左側位置に対する第1の視差情報によって表される遠近位置が、そのエッジ位置の右側位置に対する第1の視差情報によって表される遠近位置より後側にある場合には、そのエッジ位置より左側の所定水平位置からそのエッジ位置までの期間において第2の右映像を選択する請求項5および6のいずれかに記載の2次元映像を3次元映像に変換する方法。
  8. 映像の遠近に関する画像特徴量が、高周波成分の積算値、輝度コントラスト、R−Y成分の積算値、B−Y成分の積算値のうちから選択された任意の1つまたは任意の組み合わせである請求項5、6および7のいずれかに記載の2次元映像を3次元映像に変換する方法。
JP26265598A 1998-09-17 1998-09-17 2次元映像を3次元映像に変換する装置および方法 Expired - Fee Related JP3540626B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26265598A JP3540626B2 (ja) 1998-09-17 1998-09-17 2次元映像を3次元映像に変換する装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26265598A JP3540626B2 (ja) 1998-09-17 1998-09-17 2次元映像を3次元映像に変換する装置および方法

Publications (2)

Publication Number Publication Date
JP2000092516A JP2000092516A (ja) 2000-03-31
JP3540626B2 true JP3540626B2 (ja) 2004-07-07

Family

ID=17378802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26265598A Expired - Fee Related JP3540626B2 (ja) 1998-09-17 1998-09-17 2次元映像を3次元映像に変換する装置および方法

Country Status (1)

Country Link
JP (1) JP3540626B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100372177B1 (ko) * 2000-04-26 2003-02-14 이승현 2차원 영상을 3차원 영상으로 변환하는 방법
JP4708619B2 (ja) * 2001-07-31 2011-06-22 キヤノン株式会社 立体画像形成システムおよび立体画像形成方法
JP5569635B2 (ja) * 2008-08-06 2014-08-13 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP5347717B2 (ja) * 2008-08-06 2013-11-20 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
KR20100040236A (ko) * 2008-10-09 2010-04-19 삼성전자주식회사 시각적 관심에 기반한 2차원 영상의 3차원 영상 변환기 및 변환 방법
JP5370175B2 (ja) * 2009-07-16 2013-12-18 株式会社Jvcケンウッド 画像表示装置
JP5387377B2 (ja) * 2009-12-14 2014-01-15 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP6024110B2 (ja) 2012-01-26 2016-11-09 ソニー株式会社 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム

Also Published As

Publication number Publication date
JP2000092516A (ja) 2000-03-31

Similar Documents

Publication Publication Date Title
EP0918439B1 (en) Device for converting two-dimensional video into three-dimensional video
US6584219B1 (en) 2D/3D image conversion system
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
JP6370708B2 (ja) 例示的な類似画像と関連した例示的な近似奥行きマップを用いた、入力画像に対する奥行きマップの生成
TW521519B (en) Apparatus and method for converting a two dimensional image to a three dimensional image
JP5879713B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR101520619B1 (ko) 스테레오 동기화를 위한 스테레오스코픽 영상의 시점 결정방법 및 장치
JP2001320731A (ja) 2次元映像を3次元映像に変換する装置及びその方法
JP3005474B2 (ja) 2次元映像を3次元映像に変換する装置および方法
US20130342529A1 (en) Parallax image generating apparatus, stereoscopic picture displaying apparatus and parallax image generation method
JP3540626B2 (ja) 2次元映像を3次元映像に変換する装置および方法
JP3276931B2 (ja) 3次元映像の立体感調整方法及び立体感調整装置
JP3235776B2 (ja) 立体感調整方法および立体感調整装置
JP2951291B2 (ja) 2次元映像を3次元映像に変換する装置および方法
JP5692051B2 (ja) 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
JPH10191397A (ja) 意図適応型の2次元映像を3次元映像に変換する装置
JP3957343B2 (ja) 2次元映像を3次元映像に変換する装置および方法
WO2012098974A1 (ja) 画像処理装置および方法、画像表示装置および方法
JP2014072809A (ja) 画像生成装置、画像生成方法、画像生成装置用プログラム
JP3485764B2 (ja) 2次元映像を3次元映像に変換する装置および方法
JP3454684B2 (ja) 2次元映像を3次元映像に変換する装置
US8941647B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JPH10178594A (ja) 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末
JP5711634B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JPH04372079A (ja) 画像表示装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040325

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090402

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees