JP4080386B2 - Depth information regeneration method, depth information regeneration device, program, and recording medium - Google Patents

Depth information regeneration method, depth information regeneration device, program, and recording medium Download PDF

Info

Publication number
JP4080386B2
JP4080386B2 JP2003189556A JP2003189556A JP4080386B2 JP 4080386 B2 JP4080386 B2 JP 4080386B2 JP 2003189556 A JP2003189556 A JP 2003189556A JP 2003189556 A JP2003189556 A JP 2003189556A JP 4080386 B2 JP4080386 B2 JP 4080386B2
Authority
JP
Japan
Prior art keywords
depth information
depth
image
region
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003189556A
Other languages
Japanese (ja)
Other versions
JP2005026966A (en
Inventor
肇 能登
秋彦 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003189556A priority Critical patent/JP4080386B2/en
Publication of JP2005026966A publication Critical patent/JP2005026966A/en
Application granted granted Critical
Publication of JP4080386B2 publication Critical patent/JP4080386B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、奥行き情報の再生成方法、奥行き情報の再生成装置、プログラム、および記録媒体に係り、特に、画像に付加された奥行き情報を再生成する方法に関する。
【0002】
【従来の技術】
画像に奥行き情報を付加する方法は、大別すると2種類ある。
その一つは、実際に3D計測を行い真の奥行き値を付加する方法であり、他の一つは、画像処理等により擬似的な奥行き値を付加する方法である。
前者の例としては、ステレオ法や光切断法で計測した結果を画像に付加する方法が考えられる。これらの方法は市中の製品に広く搭載されている。
また、後者の例としては、下記特許文献1に記載の方法が知られている。この特許文献1に記載されている方法は、写真等の実写画像において、中心点に近い位置ほど撮影位置から離れているという考えを基に、画像の枠線・画像の最奥部に対応した底部の境界線・画像の中心点から等距離の点を結んでなる輪郭線を抽出し、輪郭線および枠線に囲まれる領域に撮影位置からの奥行き情報を割り当てる方法である。
また、立体感の知覚を助ける方法として、下記特許文献2に記載の方法が知られている。この特許文献2に記載されている方法は、視差画像の表示において、3次元の奥行き表示範囲の最前部に位置する枠を画像の周囲に設置し、奥行き知覚の画枠歪を除去する方法である。
【0003】
なお、本願発明に関連する先行技術文献としては以下のものがある。
【特許文献1】
特許第3116019号明細書
【特許文献2】
特許第2826710号明細書
【0004】
【発明が解決しようとする課題】
従来、物体の奥行き情報は、付加された奥行き情報をそのまま利用していた。しかしながら、これらは2次元ディスプレイヘの擬似3次元表示を前提として正しい奥行きを再現するための方法であるため、3次元ディスプレイを用いた真の3次元表示では必ずしも強い立体感を得ることができなかった。
例えば、3次元ディスプレイの奥行き表示範囲が狭い場合には、奥行きが圧縮されてしまい、特に、実写では奥行き判別の手掛かりが得にくく立体感を生じるまでに時間が掛かってしまっていた。
また、前述の特許文献2に記載の方法では、画像の周囲に画像とは別の色情報を持つ枠を追加するため、画像の表示領域が狭くなる問題や、画像の周囲の色情報が改変されてしまう問題があった。
また、枠と画像の奥行きが分離しているため、真の3次元表示では書割のように黒抜けが起こり観察者に違和感を与えるという問題がある。
【0005】
本発明は、前記従来技術の問題点を解決するためになされたものであり、本発明の目的は、真の3次元表示において画像の大きさやテクスチャの色情報を改変することなく、違和感のない立体感の強調を行うことが可能な奥行き情報の再生成方法、および、奥行き情報の再生成装置を提供することにある。
また、本発明の他の目的は、前述の奥行き情報の再生成方法をコンピュータに実行させるためのプログラムを提供することにある。
また、本発明の他の目的は、前述のプログラムが記録された記録媒体を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
【0006】
【課題を解決するための手段】
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
前述の課題を解決するために、本発明では、従来の技術により付加された画像の奥行き情報に対して、画像外辺部の枠状の領域に真の奥行き値によらない擬似の奥行き情報を合成する。
この新たに付加された枠領域の奥行きが立体知覚の手掛かりとなり、画像の立体感が心理的に強調されることになる。なお、画像の外辺部であっても十分な奥行き情報が付加されている領域については元の奥行き値を優先する。
また、枠領域の奥行き値は、画像中心に向かって改変前の奥行き値に等しくなるように滑らかに変化するように与え、既存の奥行き値との分離を防止する。これらの処理により観察者が違和感を感じることを防止する。
【0007】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を詳細に説明する。
なお、実施の形態を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
[実施の形態1]
図1は、本発明の実施の形態1の奥行き情報再生成方法の処理手順を示すフローチャートである。
なお、図1に示す奥行き情報再生成方法は、本願の請求項1に記載の発明に対応する。
以下、図1を用いて、本実施の形態の奥行き情報再生成方法について説明する。
ステップ(S1−1)は、ある画像用に生成された奥行き情報Zの読み込みを行うステップである。
図2は、奥行き情報を説明するための図である。
図2の2−1はある画像のテクスチャ、2−2はある画像の奥行き情報を示している。図2の2−2では、奥行き情報をディザ処理で表現しており点描の密度が高いほど距離が遠いことを示している。
本発明は、奥行き情報2−2を再生成することにより、3次元ディスプレイによる真の3次元表示においてテクスチャ2−1の立体感を強調する。
ステップ(S1−2)は、奥行き値の改変を行う外辺部および改変可能な領域の判別に用いる閾値を決定するステップである。
閾値は、奥行きを表す値であり必要に応じて任意に決定できる。本実施の形態では、観察者からの距離が最も遠い最奥部を表す奥行き値を閾値として設定する。
【0008】
ステップ(S1−3)は、閾値を用いて奥行き値を改変可能な改変可能領域を設定するステップである。
奥行き値を改変可能な改変可能領域は、奥行き値を改変する画像における外辺部とその外辺部から予め定めた所定の範囲内の領域の中から、奥行き値が、所定の閾値を用いた判別条件を満たす領域を選択することにより設定される。
また一旦、同様の方法を用い判別条件を適用して得られた領域に、隣接する予め定めた所定の範囲の領域を加え、その後に再度、同様のもしくは異なる判別条件を適用して得られた領域を改変可能領域として設定してもよい。
なお、改変可能領域の設定方法は、上記に限定されるものではなく、必要に応じて種々の設定方法を用いてよい。
本実施の形態では、奥行き値を改変する外辺部の決定条件を、外辺部が閾値以上の距離、即ち、最奥部である場合とする。また、改変可能領域の判別条件は、画像の周辺部15%の領域で閾値以上の距離、即ち、最奥部である場合とする。図3は、ステップ(S1−3)により設定される改変可能領域の一例を示す図である。
図3の3−1は、読み込んだ奥行き情報を閾値を用いて2値化したものを表す。奥行き値を改変する外辺部および改変可能領域は、黒く塗りつぶされた領域から判別式により選択される。
図3の3−2は、判別後の例を表す。3−21の太線は奥行き値を改変する外辺部を示している。また3−22の斜線は、奥行き値改変可能領域を示している。
【0009】
ステップ(S1−4)は、奥行き値を改変する外辺部において改変可能領域内に収まるように枠領域の奥行き値データを演算するステップである。
図4は、ステップ(S1−4)における演算例を説明するための図である。
図4の4−1において、外側の点描領域4−11が奥行き値を新たに演算する領域である枠領域を示している。
枠領域は、奥行き値を改変すると判断された外辺部から改変可能領域内に収まるように作成される。よって、枠領域内では、奥行き値を改変前の値に関わらず再生成してよい。本実施の形態では水平・垂直共に同幅の枠領域を設定した。
図4の4−2は、枠領域の奥行き情報Zを示しており、枠領域内で演算した奥行き値を、図2の2−2と同様にディザ処理で表現している。
奥行き値は、画像の中心に向かって改変前の奥行き値に等しくなるように滑らかに変化するように生成される。
図5は、ステップ(S1−4)において生成される奥行き値を説明するための図である。
図5の下のグラフにおいて、Zは、値が大きいほど手前の(観察者に近い距離の)奥行き値を表し、値が小さいほど奥の(観察者から遠い距離の)奥行き値を表すように定義された奥行き値である。
奥行き情報12−1上に描いた直線12−2の改変前の奥行き値がグラフ上の曲線12−3で表されている。このとき直線12−2上の枠領域を12−4とする。
図5の12−51は1次関数、12−52は2次関数、12−53は3次関数による奥行き値の例を示す。
図5の12−51〜12−53の奥行き値は、いずれも画像の中心に向って改変前の奥行き値12−6に等しくなるように滑らかに変化する。
【0010】
ステップ(S1−5)は、ある画像用に生成された奥行き情報Zと枠領域の奥行き情報Zを合成するステップである。
図6は、ステップ(S1−5)において、合成された後の奥行き情報の一例を示す図である。
図6の5−1では、奥行き値をディザ処理で表現している。
本実施の形態では、改変前の奥行き情報2−2における奥行き値と、枠領域の奥行き情報4−2における奥行き値との和を求めることにより、奥行き情報の合成を行っている。
ステップ(S1−6)は、合成された奥行き値を出力するステップである。
本実施の形態によれば、真の3次元表示時に画像の大きさやテクスチャの色情報を改変することなく自然な立体感強調の効果を得ることができる。
本発明は、新たな奥行き値を付加した枠状の領域によって、立体感を心理的に強調するものであるが、この立体感強調の作用に関しては、3次元ディスプレイに本発明による奥行き情報の再生成前後の画像を表示する主観評価実験によって、十分な効果が得られることを確認している。
【0011】
[実施の形態2]
図7は、本発明の実施の形態2の奥行き情報再生成方法における、枠領域の奥行き値の演算過程を説明する図である。
なお、図7に示す奥行き情報再生成方法は、本願の請求項2に記載の発明に対応する。
奥行き情報を改変する外辺部、および改変領域の決定までは、前述の実施の形態1に記載の方法などを用いるものとする。
以下、図7を用いて、本実施の形態における、枠領域の奥行き値の演算過程を説明する。
図7の6−1は、奥行き値を改変する外辺部、および改変可能領域を示す。図7の6−1において、6−11の太線は奥行き情報を改変する外辺部、6−12の斜線は奥行き値改変可能領域を示している。
枠領域の奥行き値は、奥行き値を改変すると判断された外辺部から改変可能領域内に収まるように、各辺あるいは各辺を複数個に分割した線分ごとに演算される。
本実施の形態では、奥行き情報の再生成ルールを次のように定めた。
各辺を画像中心に向けて移動したときに改変不可能領域と交わるまでを各辺ごとの枠領域の幅とする。
図7の6−1の6−13〜6−15は、前述のルールにより決定した各辺の枠領域の幅を示す。
図7の6−2に枠領域6−21を示す。奥行き情報は画像の中心に向かって改変前の奥行き値に等しくなるように滑らかに変化するように生成されるため、辺ごとの枠領域の幅が異なれば奥行き値の変化率も異なる。
【0012】
このように、シーンに合わせて枠領域の奥行き情報を生成することにより、決まりきった枠領域の奥行き情報を適用する場合に比べてより自然に立体感を強調できる。
例えば、図7では、下辺に改変不可能領域が接しているので奥行き値を持つ何らかの物体が画像外まで連続して存在していると推測される。
この場合、下辺に枠領域の奥行き値を追加してしまうと、周囲のテクスチャがこの物体に繋がってしまい違和感が生じる可能性がある。本実施の形態のルールを用いれば、上記場合に対応が可能となる。
なお、各辺の奥行き情報再生成ルールは、前述した方法に限定されるものでは無く、例えば、改変可能領域を全て枠領域とする、左辺と右辺のみに枠領域とするなどとしても良い。
また、奥行き値の変化も1次〜3次関数に限定されるものではなく、画像の中心に向かって改変前の奥行き値に等しくなるように変化しさえすれば4次以上の関数であってもよい。
本実施の形態によれば、真の3次元表示時に画像の大きさやテクスチャの色情報を改変することなくシーンに合わせてより効果の高い自然な立体感の強調の効果を得ることができる。
【0013】
図8は、前述の各奥行き情報再生成方法を実施するための奥行き情報再生成装置の概略構成を示すブロック図である。
なお、図8に示す奥行き情報再生成装置は、本願の請求項4、5に記載の発明に対応する。
図8に示す奥行き情報再生成装置において、奥行き情報入力部110は、前述のステップ(S1−1)を実行し、ある画像用に生成された奥行き情報Zを、奥行き情報(Z)格納部100から読み込む。
閾値設定部130は、前述のステップ(S1−2)を実行し、閾値を設定する。
改変領域設定部120は、前述のステップ(S1−3)を実行し、閾値設定部130で設定された閾値を用いて、奥行き値を改変可能な改変可能領域を設定する。
奥行き情報演算部140は、前述のステップ(S1−4)、あるいは、前述の実施の形態2の演算方法を実行し、奥行き値を改変する外辺部において改変可能領域内に収まるように枠領域の奥行き値データを演算する。
奥行き情報合成部150は、前述のステップ(S1−5)を実行し、ある画像用に生成された奥行き情報Zと、枠領域の奥行き情報Zを合成する。
奥行き情報合成部150で合成された奥行き情報Zは、奥行き情報(Z)格納部160に格納される。
【0014】
[実施の形態3]
図9は、本発明の実施の形態3の奥行き情報再生成方法の処理手順を示すフローチャートである。
なお、図9に示す奥行き情報再生成方法は、本願の請求項3に記載の発明に対応する。
以下、図9を用いて、本実施の形態の奥行き情報再生成方法について説明する。
ステップ(S7−1)は、画像の外辺部を含む枠状の領域において外辺部から画像の中心に向かって所定の奥行き値に等しくなるように変化する奥行き値を有するような、種々の枠領域の奥行き情報を登録するステップである。ここで、前述の所定の奥行き値は、後述する所定の閾値に対応するように、複数設定される。
図10は、本実施の形態において、登録する枠領域データFの一例を示す図である。
本実施の形態では、F〜F(8−1〜8−4)の4つの枠領域の奥行き情報を登録するものとする。点描で表現されている領域8−5が枠領域の奥行き情報の存在を示す。
なお、ステップ(S7−1)は、予め枠領域の奥行き情報が登録されており、かつ、新たに登録する必要が無い場合は省略可能である。
ステップ(S7−2)は、ある画像用に生成された奥行き情報Zの読み込みを行うステップである。
図11は、奥行き情報を説明するための図である。
図11の9−1はある画像のテクスチャ、9−2はある画像の奥行き情報を示している。図11の9−2では、奥行き情報をディザ処理で表現しており点描の密度が高いほど距離が遠いことを示している。
ステップ(S7−2)では、このような奥行き情報9−2の取り込みを行う。
【0015】
ステップ(S7−3)は、奥行き値の改変を行う外辺部および改変可能な領域の判別に用いる閾値を決定するステップである。
閾値は奥行きを表す値であり必要に応じて任意に決定できる。本実施の形態では観察者からの距離が最も遠い最奥部を表す奥行き値を閾値として設定する。
ステップ(S7−4)は、閾値を用いて奥行き値を改変可能な改変可能領域を設定するステップである。
奥行き値を改変可能な改変可能領域は、奥行き値を改変する画像における外辺部とその外辺部から予め定めた所定の範囲内の領域の中から、奥行き値が、所定の閾値を用いた判別条件を満たす領域を選択することにより設定される。
また一旦、判別条件を適用する上記の方法を用いて得られた領域に、隣接する予め定めた所定の範囲の領域を加え、その後に再度、同様のもしくは異なる判別条件を適用して得られた領域を改変可能領域として設定してもよい。
閾値を用いた判別条件は、前述の方法に限定されるものではなく必要に応じて設定してよい。
本実施の形態では、奥行き値を改変する外辺部の決定条件を外辺部が閾値以上の距離即ち最奥部である場合とする。また改変可能領域の判別条件は、画像の周辺部15%の領域で閾値以上の距離、即ち最奥部である場合とする。
【0016】
図12は、本実施の形態のステップ(S7−4)により設定される改変可能領域の一例を示す図である。
図12の10−1は、読み込んだ奥行き情報を閾値を用いて2値化したものを表す。奥行き値を改変する外辺部および改変可能領域は、黒く塗りつぶされた領域から判別式により選択される。
図12の10−2は判別後の例を表す。図12の10−2の10−21の太線は奥行き値を改変する外辺部を示している。また、10−22の斜線は奥行き値改変可能領域を示している。
ステップ(S7−5)は、予め登録された複数の枠領域の奥行き情報Fの中から、画像の奥行き値改変可能領域に適合した枠領域の奥行き情報を選択するステップである。
本実施の形態では、枠領域の奥行き情報Fの選択基準として、改変可能領域と枠領域の論理積を取る演算を行い面積が最大となるものを選択することとし、F(8−3)を選択する。
なお、枠領域の奥行き情報Fの選択基準は、前述の方法に限定されるものではなく、例えば、ステップ(S7−2)で取り込んだ奥行き情報Zの形状や位置または面積から判定を行い、選択しても良い。
【0017】
ステップ(S7−6)は、奥行き情報Zと枠領域の奥行き情報Fの合成を行うステップである。合成時には、ステップ(S7−5)の論理積の結果、検出されたZ上の領域に枠領域の奥行き情報Fを合成する。
図13は、ステップ(S7−6)において、合成された後の奥行き情報の一例を示す図である。
図13の11−1のハッチング部分が論理積結果を示す。この領域に枠領域の奥行き情報Fを合成した結果を、11−2に示している。
図13の11−2は、図11の9−2と同様に奥行き値をディザ処理で表現している。
本実施の形態では、改変前の奥行き情報9−2における奥行き値と枠領域の奥行き情報F(8−3)の、その枠領域と改変可能領域10−22の論理積を取った領域11−1における奥行き値との和を求めることにより、奥行き情報の合成を行っている。
ステップ(S7−7)は、合成された奥行き値を出力するステップである。
本実施の形態によれば、予め枠領域の奥行き値を記憶しておけるため、枠領域の演算負荷が減ずる。
したがって真の3次元表示時に画像の大きさやテクスチャの色情報を改変することなく、違和感のない立体感の強調を行う際に、計算機の演算の負荷を減ずる効果を得ることができる。
【0018】
図14は、本発明の実施の形態3の奥行き情報再生成方法を実施するための奥行き情報再生成装置の概略構成を示すブロック図である。
なお、図14に示す奥行き情報再生成装置は、本願の請求項6に記載の発明に対応する。
図14に示す奥行き情報再生成装置において、種々の枠領域の奥行き情報(F)は、枠の奥行き情報(F)格納部180に格納される。
奥行き情報入力部110は、前述のステップ(S7−2)を実行し、ある画像用に生成された奥行き情報Zを、奥行き情報(Z)格納部100から読み込み、あるいは、枠の奥行き情報Fを、枠の奥行き情報(F)格納部180から読み込む。
閾値設定部130は、前述のステップ(S7−3)を実行し、閾値を設定する。
改変領域設定部120は、前述のステップ(S7−4)を実行し、閾値設定部130で設定された閾値を用いて、奥行き値を改変可能な改変可能領域を設定する。
奥行き情報選択部170は、前述のステップ(S7−5)を実行し、予め登録された複数の枠領域の奥行き情報Fの中から、画像の奥行き値改変可能領域に適合した枠領域の奥行き情報を選択する。
奥行き情報合成部150は、前述のステップ(S7−6)を実行し、奥行き情報Zと枠領域の奥行き情報Fの合成を行う。
奥行き情報合成部150で合成された奥行き情報(Z)は、奥行き情報(Z)格納部160に格納される。
なお、前述の説明において、本発明の各実施の形態の奥行き情報の再生成方法は、コンピュータに実行させることも可能であり、その場合に、本発明の各実施の形態の奥行き情報の再生成方法は、コンピュータ内のハードディスクなどに格納されるプログラムを、コンピュータが実行することにより行われる。このプログラムは、CD−ROM、DVD−ROMなどの各種記録メディア、あるいは、ネットワークを介したダウンロードにより供給される。
以上、本発明者によってなされた発明を、前記実施の形態に基づき具体的に説明したが、本発明は、前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【0019】
【発明の効果】
本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
(1)本発明によれば、真の3次元表示時に画像の大きさやテクスチャの色情報を改変することなく、自然な立体感強調の効果を得ることが可能となる。
(2)本発明によれば、真の3次元表示時に画像の大きさやテクスチャの色情報を改変することなく、シーンに合わせてより効果の高い自然な立体の強調の効果を得ることが可能となる。
(3)本発明によれば、真の3次元表示時に画像の大きさやテクスチャの色情報を改変することなく、違和感のない立体感の強調を行う際に、計算機の演算の負荷を減ずる効果を得ることが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態1の奥行き情報再生成方法の処理手順を示すフローチャートである。
【図2】奥行き情報を説明するための図である。
【図3】本発明実施の形態1の奥行き情報再生成方法において、設定される改変可能領域の一例を示す図である。
【図4】本発明実施の形態1の奥行き情報再生成方法における演算例を説明するための図である。
【図5】本発明実施の形態1の奥行き情報再生成方法において、生成される奥行き値を説明するための図である。
【図6】本発明実施の形態1の奥行き情報再生成方法における、合成後の奥行き情報の一例を示す図である。
【図7】本発明の実施の形態2の奥行き情報再生成方法における、枠領域の奥行き値の演算過程を説明する図である。
【図8】本発明の実施の形態1、2の奥行き情報再生成方法を実施するための奥行き情報再生成装置の概略構成を示すブロック図である。
【図9】本発明の実施の形態3の奥行き情報再生成方法の処理手順を示すフローチャートである。
【図10】本発明の実施の形態3の奥行き情報再生成方法において、登録する枠領域データFの一例を示す図である。
【図11】奥行き情報を説明するための図である。
【図12】本発明実施の形態3の奥行き情報再生成方法において、設定される改変可能領域の一例を示す図である。
【図13】本発明実施の形態3の奥行き情報再生成方法における、合成後の奥行き情報の一例を示す図である。
【図14】本発明の実施の形態3の奥行き情報再生成方法を実施するための奥行き情報再生成装置の概略構成を示すブロック図である。
【符号の説明】
100…奥行き情報(Z)格納部、110…奥行き情報入力部、120…改変領域設定部、130…閾値設定部、140…奥行き情報演算部、150…奥行き情報合成部、160…奥行き情報(Z)格納部、170…奥行き情報選択部、180…枠の奥行き情報(F)格納部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a depth information regeneration method, a depth information regeneration apparatus, a program, and a recording medium, and more particularly, to a method for regenerating depth information added to an image.
[0002]
[Prior art]
There are two types of methods for adding depth information to an image.
One is a method of actually performing 3D measurement and adding a true depth value, and the other is a method of adding a pseudo depth value by image processing or the like.
As an example of the former, a method of adding a result measured by a stereo method or a light cutting method to an image can be considered. These methods are widely installed in commercial products.
As the latter example, the method described in Patent Document 1 below is known. The method described in Patent Document 1 corresponds to the frame border of the image and the innermost part of the image based on the idea that the closer to the center point, the farther from the shooting position in a photographed image or the like. This is a method of extracting a contour line connecting equidistant points from the bottom boundary line and the center point of the image, and assigning depth information from the photographing position to a region surrounded by the contour line and the frame line.
Further, as a method for assisting perception of a three-dimensional effect, a method described in Patent Document 2 below is known. The method described in Patent Document 2 is a method of removing a frame perception of depth perception by installing a frame positioned at the forefront of a three-dimensional depth display range in displaying a parallax image. is there.
[0003]
As prior art documents related to the invention of the present application, there are the following.
[Patent Document 1]
Japanese Patent No. 3116019 [Patent Document 2]
Japanese Patent No. 2826710 [0004]
[Problems to be solved by the invention]
Conventionally, the added depth information is used as it is for the depth information of the object. However, since these are methods for reproducing the correct depth on the premise of pseudo three-dimensional display on a two-dimensional display, a true three-dimensional display using a three-dimensional display cannot always obtain a strong stereoscopic effect. It was.
For example, when the depth display range of a three-dimensional display is narrow, the depth is compressed. In particular, it is difficult to obtain a clue for depth determination in live-action shooting, and it takes time until a stereoscopic effect is produced.
Further, in the method described in Patent Document 2, a frame having color information different from the image is added around the image, so that the display area of the image becomes narrow, and the color information around the image is modified. There was a problem that would have been.
In addition, since the frame and the depth of the image are separated, there is a problem that in a true three-dimensional display, black spots occur like a book split and give the viewer a sense of discomfort.
[0005]
The present invention has been made to solve the above-described problems of the prior art, and the object of the present invention is to provide a true three-dimensional display without altering the image size and texture color information, so that there is no sense of incongruity. An object of the present invention is to provide a depth information regeneration method and depth information regeneration device capable of emphasizing a three-dimensional effect.
Another object of the present invention is to provide a program for causing a computer to execute the above-described depth information regeneration method.
Another object of the present invention is to provide a recording medium on which the aforementioned program is recorded.
The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.
[0006]
[Means for Solving the Problems]
Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.
In order to solve the above-described problem, in the present invention, pseudo depth information that does not depend on the true depth value is displayed in the frame-like region on the outer edge of the image with respect to the depth information of the image added by the conventional technique. Synthesize.
The depth of the newly added frame area is a clue to stereoscopic perception, and the stereoscopic effect of the image is psychologically emphasized. Note that the original depth value is prioritized for an area to which sufficient depth information is added even at the outer edge of the image.
Further, the depth value of the frame region is given so as to change smoothly so as to be equal to the depth value before modification toward the center of the image, thereby preventing separation from the existing depth value. These processes prevent the observer from feeling uncomfortable.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiment, and the repetitive description thereof will be omitted.
[Embodiment 1]
FIG. 1 is a flowchart showing a processing procedure of the depth information regeneration method according to the first embodiment of the present invention.
The depth information regeneration method shown in FIG. 1 corresponds to the invention described in claim 1 of the present application.
Hereinafter, the depth information regeneration method of the present embodiment will be described with reference to FIG.
Step (S1-1) is a step of reading the depth information Z generated for a certain image.
FIG. 2 is a diagram for explaining the depth information.
2 indicates a texture of an image, and 2-2 indicates depth information of the image. In FIG. 2B, depth information is expressed by dither processing, and the higher the density of stippling, the farther the distance is.
The present invention enhances the stereoscopic effect of the texture 2-1 in the true three-dimensional display by the three-dimensional display by regenerating the depth information 2-2.
Step (S1-2) is a step of determining a threshold value used for discriminating the outer edge portion where the depth value is to be modified and the region that can be modified.
The threshold value is a value representing depth, and can be arbitrarily determined as necessary. In the present embodiment, a depth value representing the innermost part farthest from the observer is set as a threshold value.
[0008]
Step (S1-3) is a step of setting a modifiable region in which the depth value can be modified using a threshold value.
The modifiable region in which the depth value can be modified uses a predetermined threshold value for the depth value from the outer side of the image whose depth value is to be modified and a region within a predetermined range from the outer side. It is set by selecting an area that satisfies the discrimination condition.
Also, once obtained by applying a predetermined predetermined range adjacent to the area obtained by applying the discrimination condition using the same method, and then applying the same or different discrimination condition again. The area may be set as a modifiable area.
In addition, the setting method of a changeable area | region is not limited above, A various setting method may be used as needed.
In the present embodiment, it is assumed that the condition for determining the outer edge part for modifying the depth value is a distance that is greater than or equal to a threshold value, that is, the innermost part. Further, it is assumed that the condition for determining the modifiable area is a distance equal to or greater than a threshold in the 15% area of the image, that is, the innermost part. FIG. 3 is a diagram illustrating an example of a changeable area set in step (S1-3).
3-1 in FIG. 3 represents binarization of the read depth information using a threshold value. The outer edge part and the modifiable area for modifying the depth value are selected from the area filled in with a discriminant.
3-2 in FIG. 3 represents an example after discrimination. A thick line 3-21 indicates an outer edge part for modifying the depth value. A hatched line 3-22 indicates a depth value changeable region.
[0009]
Step (S1-4) is a step of calculating the depth value data of the frame region so that it falls within the modifiable region at the outer side where the depth value is modified.
FIG. 4 is a diagram for explaining a calculation example in step (S1-4).
In FIG. 4A, the outer stipple region 4-11 shows a frame region that is a region where a depth value is newly calculated.
The frame area is created so as to fit within the modifiable area from the outer edge determined to modify the depth value. Therefore, in the frame area, the depth value may be regenerated regardless of the value before modification. In the present embodiment, a frame region having the same width is set both horizontally and vertically.
4-2 of FIG. 4 shows the depth information Z f of the frame region, the depth value calculated in the framework regions, are represented by the same dither processing and 2-2 in FIG.
The depth value is generated so as to smoothly change so as to become equal to the depth value before modification toward the center of the image.
FIG. 5 is a diagram for explaining the depth value generated in step (S1-4).
In the lower graph of FIG. 5, Z represents a depth value in the foreground (distance closer to the observer) as the value is larger, and represents a depth value in the rear (distance away from the observer) as the value is smaller. A defined depth value.
The depth value before modification of the straight line 12-2 drawn on the depth information 12-1 is represented by a curve 12-3 on the graph. At this time, the frame area on the straight line 12-2 is set to 12-4.
In FIG. 5, 12-51 is a linear function, 12-52 is a quadratic function, and 12-53 is an example of a depth value by a cubic function.
The depth values of 12-51 to 12-53 in FIG. 5 smoothly change so as to become equal to the depth value 12-6 before modification toward the center of the image.
[0010]
Step (S1-5) is a step of synthesizing the depth information Z f of the generated depth information Z and the frame region for an image.
FIG. 6 is a diagram illustrating an example of the depth information after being combined in step (S1-5).
In FIG. 6A, the depth value is expressed by dither processing.
In the present embodiment, the depth information is synthesized by obtaining the sum of the depth value in the depth information 2-2 before modification and the depth value in the depth information 4-2 of the frame region.
Step (S1-6) is a step of outputting the synthesized depth value.
According to the present embodiment, it is possible to obtain a natural stereoscopic effect without altering the image size or texture color information during true three-dimensional display.
In the present invention, the stereoscopic effect is psychologically enhanced by a frame-like region to which a new depth value is added. With regard to the effect of this stereoscopic effect enhancement, the reproduction of depth information according to the present invention is performed on a three-dimensional display. It has been confirmed that a sufficient effect can be obtained by a subjective evaluation experiment in which images before and after the formation are displayed.
[0011]
[Embodiment 2]
FIG. 7 is a diagram for explaining the process of calculating the depth value of the frame area in the depth information regeneration method according to the second embodiment of the present invention.
The depth information regeneration method shown in FIG. 7 corresponds to the invention according to claim 2 of the present application.
The method described in the first embodiment and the like are used until the determination of the outer edge part and the modification area for modifying the depth information.
Hereinafter, the calculation process of the depth value of the frame area in the present embodiment will be described with reference to FIG.
6-1 of FIG. 7 shows the outer side part which modifies a depth value, and a modifiable area. In FIG. 7A, a thick line 6-11 indicates an outer edge portion for modifying depth information, and a hatched line 6-12 indicates a depth value modifiable region.
The depth value of the frame region is calculated for each side or for each line segment obtained by dividing each side into a plurality of segments so as to be within the modifiable region from the outer side determined to modify the depth value.
In the present embodiment, the depth information regeneration rule is defined as follows.
The width of the frame region for each side is defined as the width until the region intersects the unmodifiable region when each side is moved toward the center of the image.
Reference numerals 6-13 to 6-15 in 6-1 of FIG.
A frame region 6-21 is shown at 6-2 in FIG. Since the depth information is generated so as to change smoothly so as to become equal to the depth value before modification toward the center of the image, if the width of the frame region for each side is different, the change rate of the depth value is also different.
[0012]
In this way, by generating the depth information of the frame area in accordance with the scene, the stereoscopic effect can be emphasized more naturally than when the fixed depth information of the frame area is applied.
For example, in FIG. 7, since a non-modifiable region is in contact with the lower side, it is assumed that some object having a depth value exists continuously outside the image.
In this case, if the depth value of the frame region is added to the lower side, the surrounding texture may be connected to the object, which may cause a sense of discomfort. If the rules of the present embodiment are used, the above case can be handled.
Note that the depth information regeneration rule for each side is not limited to the above-described method. For example, all the modifiable regions may be frame regions, or only the left and right sides may be frame regions.
In addition, the change in depth value is not limited to a linear to cubic function, and is a fourth or higher order function as long as it changes toward the center of the image so as to be equal to the depth value before modification. Also good.
According to the present embodiment, it is possible to obtain a natural three-dimensional emphasis effect that is more effective in accordance with the scene without modifying the image size and texture color information during true three-dimensional display.
[0013]
FIG. 8 is a block diagram showing a schematic configuration of a depth information regeneration device for implementing each of the depth information regeneration methods described above.
The depth information regeneration device shown in FIG. 8 corresponds to the inventions according to claims 4 and 5 of the present application.
In the depth information regeneration apparatus shown in FIG. 8, the depth information input unit 110 executes the above-described step (S1-1), and the depth information Z generated for a certain image is converted into the depth information (Z) storage unit 100. Read from.
The threshold setting unit 130 executes the above-described step (S1-2) and sets a threshold.
The modification area setting unit 120 executes the above-described step (S1-3), and sets a modifiable area in which the depth value can be modified using the threshold set by the threshold setting unit 130.
The depth information calculation unit 140 executes the above-described step (S1-4) or the calculation method according to the above-described second embodiment, and the frame region so as to be within the modifiable region at the outer side portion where the depth value is modified. The depth value data is calculated.
Depth information synthesizing unit 150 performs the above-described step (S1-5), and the depth information Z generated for a certain image, to synthesize the depth information Z f of the frame region.
The depth information Z n synthesized by the depth information synthesis unit 150 is stored in the depth information (Z n ) storage unit 160.
[0014]
[Embodiment 3]
FIG. 9 is a flowchart showing a processing procedure of the depth information regeneration method according to the third embodiment of the present invention.
The depth information regeneration method shown in FIG. 9 corresponds to the invention according to claim 3 of the present application.
Hereinafter, the depth information regeneration method according to the present embodiment will be described with reference to FIG.
The step (S7-1) includes various values such that the frame-shaped region including the outer edge of the image has a depth value that changes from the outer edge toward the center of the image to be equal to a predetermined depth value. This is a step of registering the depth information of the frame region. Here, a plurality of the aforementioned predetermined depth values are set so as to correspond to a predetermined threshold described later.
10, in this embodiment, is a diagram illustrating an example of a frame area data F n to be registered.
In the present embodiment, it is assumed that the depth information of the four frame regions F 1 to F 4 (8-1 to 8-4) is registered. A region 8-5 represented by pointillism indicates the presence of depth information of the frame region.
Note that step (S7-1) can be omitted if the depth information of the frame region is registered in advance and it is not necessary to register it newly.
Step (S7-2) is a step of reading the depth information Z generated for a certain image.
FIG. 11 is a diagram for explaining the depth information.
In FIG. 11, 9-1 indicates the texture of a certain image, and 9-2 indicates the depth information of the certain image. In FIG. 11, 9-2, the depth information is expressed by dither processing, which indicates that the higher the stipple density is, the farther the distance is.
In step (S7-2), such depth information 9-2 is captured.
[0015]
Step (S7-3) is a step of determining a threshold value used for discriminating an outer edge part where the depth value is to be modified and a modifiable area.
The threshold value is a value representing depth, and can be arbitrarily determined as necessary. In the present embodiment, a depth value representing the innermost part farthest from the observer is set as a threshold value.
Step (S7-4) is a step of setting a modifiable region in which the depth value can be modified using a threshold value.
The modifiable region in which the depth value can be modified uses a predetermined threshold value for the depth value from the outer side of the image whose depth value is to be modified and a region within a predetermined range from the outer side. It is set by selecting an area that satisfies the discrimination condition.
In addition, it was obtained by adding an adjacent predetermined range area to the area obtained by using the above method for applying the discrimination condition, and then applying the same or different discrimination condition again. The area may be set as a modifiable area.
The determination condition using the threshold value is not limited to the above-described method, and may be set as necessary.
In the present embodiment, it is assumed that the condition for determining the outer edge part for modifying the depth value is a case where the outer edge part is a distance equal to or greater than a threshold, that is, the innermost part. Further, it is assumed that the condition for determining the changeable area is a distance equal to or greater than a threshold value, that is, the innermost part in the 15% peripheral area of the image.
[0016]
FIG. 12 is a diagram illustrating an example of the alterable area set in step (S7-4) of the present embodiment.
10-1 in FIG. 12 represents binarized read depth information using a threshold value. The outer edge part and the modifiable area for modifying the depth value are selected from the area filled in with a discriminant.
10-2 in FIG. 12 represents an example after discrimination. The thick line 10-21 of 10-2 of FIG. 12 has shown the outer side part which modifies a depth value. A hatched line 10-22 indicates a region where the depth value can be changed.
Step (S7-5) is a step of selecting from among the depth information F n of a plurality of frame areas registered in advance, a depth information frame region adapted to depth values modifiable area of the image.
In the present embodiment, as a selection criterion for the depth information F n of the frame region, an operation that takes the logical product of the modifiable region and the frame region is performed and the one having the largest area is selected, and F 3 (8-3 ) Is selected.
Note that the selection criterion for the depth information F n of the frame region is not limited to the above-described method. For example, the determination is performed based on the shape, position, or area of the depth information Z captured in step (S7-2). You may choose.
[0017]
Step (S7-6) is a step for synthesizing depth information F n of depth information Z and the frame region. During the synthesis, the result of the logical product of step (S7-5), to synthesize the depth information F n of the frame region in an area on the detected Z.
FIG. 13 is a diagram illustrating an example of the depth information after being combined in step (S7-6).
The hatched portion 11-1 in FIG. 13 shows the logical product result. The result of combining the depth information F 3 frame regions in this region is shown in 11-2.
11-2 of FIG. 13 expresses the depth value by dither processing, similarly to 9-2 of FIG.
In the present embodiment, a region 11 obtained by ANDing the frame region and the modifiable region 10-22 of the depth value in the depth information 9-2 before modification and the depth information F 3 (8-3) of the frame region. The depth information is synthesized by obtaining the sum of the depth value at -1.
Step (S7-7) is a step of outputting the synthesized depth value.
According to the present embodiment, since the depth value of the frame area can be stored in advance, the calculation load of the frame area is reduced.
Therefore, it is possible to obtain an effect of reducing the calculation load of a computer when emphasizing a three-dimensional feeling without changing the image size and texture color information during true three-dimensional display.
[0018]
FIG. 14 is a block diagram showing a schematic configuration of a depth information regeneration apparatus for implementing the depth information regeneration method according to Embodiment 3 of the present invention.
Note that the depth information regeneration device shown in FIG. 14 corresponds to the invention described in claim 6 of the present application.
In the depth information regeneration apparatus shown in FIG. 14, depth information (F n ) of various frame regions is stored in a frame depth information (F n ) storage unit 180.
The depth information input unit 110 executes the above-described step (S7-2) and reads the depth information Z generated for a certain image from the depth information (Z) storage unit 100 or the frame depth information F n. Are read from the frame depth information (F n ) storage unit 180.
The threshold setting unit 130 executes the above-described step (S7-3) and sets a threshold.
The modification area setting unit 120 executes the above-described step (S7-4), and sets a modifiable area in which the depth value can be modified using the threshold set by the threshold setting unit 130.
The depth information selection unit 170 executes the above-described step (S7-5), and the depth of the frame region that matches the depth value changeable region of the image from the depth information F n of the plurality of frame regions registered in advance. Select information.
Depth information synthesizing unit 150 performs the above-described step (S7-6), to synthesize the depth information F n of depth information Z and the frame region.
The depth information (Z n ) synthesized by the depth information synthesis unit 150 is stored in the depth information (Z n ) storage unit 160.
In the above description, the depth information regeneration method according to each embodiment of the present invention can be executed by a computer. In this case, the depth information regeneration according to each embodiment of the present invention is performed. The method is performed by causing a computer to execute a program stored in a hard disk or the like in the computer. This program is supplied by various recording media such as a CD-ROM and a DVD-ROM, or downloaded via a network.
Although the invention made by the present inventor has been specifically described based on the above-described embodiment, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention. Of course.
[0019]
【The invention's effect】
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.
(1) According to the present invention, it is possible to obtain a natural stereoscopic effect without changing the image size and texture color information during true three-dimensional display.
(2) According to the present invention, it is possible to obtain a natural three-dimensional enhancement effect that is more effective for a scene without modifying the image size and texture color information during true three-dimensional display. Become.
(3) According to the present invention, when emphasizing a three-dimensional feeling without changing the image size and texture color information during true three-dimensional display, the effect of reducing the computational load of the computer is achieved. Can be obtained.
[Brief description of the drawings]
FIG. 1 is a flowchart illustrating a processing procedure of a depth information regeneration method according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining depth information;
FIG. 3 is a diagram showing an example of a modifiable region set in the depth information regeneration method according to the first embodiment of the present invention.
FIG. 4 is a diagram for explaining a calculation example in the depth information regeneration method according to Embodiment 1 of the present invention;
FIG. 5 is a diagram for explaining a depth value generated in the depth information regeneration method according to Embodiment 1 of the present invention;
FIG. 6 is a diagram showing an example of combined depth information in the depth information regeneration method according to the first embodiment of the present invention.
FIG. 7 is a diagram for explaining a calculation process of a depth value of a frame region in the depth information regeneration method according to the second embodiment of the present invention.
FIG. 8 is a block diagram showing a schematic configuration of a depth information regeneration apparatus for implementing the depth information regeneration method according to Embodiments 1 and 2 of the present invention.
FIG. 9 is a flowchart showing a processing procedure of a depth information regeneration method according to the third embodiment of the present invention.
[10] In depth information regenerating method according to the third embodiment of the present invention, is a diagram illustrating an example of a frame area data F n to be registered.
FIG. 11 is a diagram for explaining depth information;
FIG. 12 is a diagram showing an example of a modifiable region set in the depth information regeneration method according to the third embodiment of the present invention.
FIG. 13 is a diagram illustrating an example of combined depth information in the depth information regeneration method according to the third embodiment of the present invention.
FIG. 14 is a block diagram showing a schematic configuration of a depth information regeneration device for implementing the depth information regeneration method according to Embodiment 3 of the present invention;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Depth information (Z) storage part, 110 ... Depth information input part, 120 ... Modified area setting part, 130 ... Threshold setting part, 140 ... Depth information calculating part, 150 ... Depth information synthetic | combination part, 160 ... Depth information (Z n ) Storage unit, 170 ... Depth information selection unit, 180 ... Frame depth information ( Fn ) storage unit.

Claims (8)

任意の画像用に生成された奥行き情報を再生成する奥行き情報の再生成方法であって、
前記画像における外辺部と、前記外辺部から予め定めた所定の範囲内の領域の中から、前記画像の奥行き値が所定の閾値を用いた判別条件を満たす領域を、奥行き値が改変可能な領域として設定する過程1と、
前記奥行き値が改変可能な領域内の前記外辺部を含む枠状の領域において、前記外辺部から前記画像の中心に向かって改変前の前記奥行き値に等しくなるように変化する奥行き値を演算し、枠領域の奥行き情報を生成する過程2と、
前記画像の奥行き情報と前記生成された枠領域の奥行き情報とを合成する過程3とを有することを特徴とする奥行き情報の再生成方法。
A method of regenerating depth information for regenerating depth information generated for an arbitrary image,
Depth value can be modified from an outer edge part of the image and an area within a predetermined range predetermined from the outer edge part, where the depth value of the image satisfies a determination condition using a predetermined threshold value Process 1 to set as a safe area,
In a frame-like region including the outer edge in the region where the depth value can be modified, a depth value that changes so as to be equal to the depth value before modification from the outer edge toward the center of the image. Process 2 for calculating and generating depth information of the frame region;
A depth information re-generation method comprising a step 3 of combining the depth information of the image and the depth information of the generated frame region.
前記過程2は、前記画像の外辺ごと、あるいは前記画像の外辺を複数個に分割した線分ごとに、前記枠状の領域の形状を決定し、前記決定された各領域において奥行き値を演算する過程を有することを特徴とする請求項1に記載の奥行き情報の再生成方法。In the step 2, the shape of the frame-like region is determined for each outer edge of the image or for each line segment obtained by dividing the outer periphery of the image into a plurality of depths, and a depth value is determined in each determined region. The depth information regenerating method according to claim 1, further comprising a calculation step. 任意の画像用に生成された奥行き情報を再生成する奥行き情報の再生成方法であって、
前記画像における外辺部と、前記外辺部から予め定めた所定の範囲内の領域の中から、前記画像の奥行き値が所定の閾値を用いた判別条件を満たす領域を、奥行き値が改変可能な領域として設定する過程1と、
予め複数種類登録されており、それぞれが画像の外辺部を含む枠状の領域において前記外辺部から前記画像の中心に向かって前記所定の閾値に対応する所定の奥行き値に等しくなるように変化する奥行き値を有する複数の枠領域の奥行き情報の中から、前記奥行き値が改変可能な領域に適合する前記枠領域の奥行き情報を選択する過程2と、
前記画像の奥行き情報と前記選択された枠領域の奥行き情報とを合成する過程3とを有することを特徴とする奥行き情報の再生成方法。
A method of regenerating depth information for regenerating depth information generated for an arbitrary image,
Depth value can be modified from an outer edge part of the image and an area within a predetermined range predetermined from the outer edge part, where the depth value of the image satisfies a determination condition using a predetermined threshold value Process 1 to set as a safe area,
A plurality of types are registered in advance, and each is equal to a predetermined depth value corresponding to the predetermined threshold value from the outer side toward the center of the image in a frame-like region including the outer side of the image. A step 2 of selecting depth information of the frame region that matches a region in which the depth value can be modified from depth information of a plurality of frame regions having varying depth values;
A method of regenerating depth information, comprising a step 3 of combining depth information of the image and depth information of the selected frame region.
任意の画像用に生成された奥行き情報を再生成する奥行き情報の再生成装置であって、
前記画像における外辺部と、前記外辺部から予め定めた所定の範囲内の領域の中から、前記画像の奥行き値が所定の閾値を用いた判別条件を満たす領域を、奥行き値が改変可能な領域として設定する手段1と、
前記奥行き値が改変可能な領域内の前記外辺部を含む枠状の領域において、前記外辺部から前記画像の中心に向かって改変前の前記奥行き値に等しくなるように変化する奥行き値を演算し、枠領域の奥行き情報を生成する手段2と、
前記画像の奥行き情報と前記生成された枠領域の奥行き情報とを合成する手段3とを有することを特徴とする奥行き情報の再生成装置。
A depth information regeneration device for regenerating depth information generated for an arbitrary image,
Depth value can be modified from an outer edge part of the image and an area within a predetermined range predetermined from the outer edge part, where the depth value of the image satisfies a determination condition using a predetermined threshold value Means 1 for setting as a safe area;
In a frame-like region including the outer edge in the region where the depth value can be modified, a depth value that changes so as to be equal to the depth value before modification from the outer edge toward the center of the image. Means 2 for calculating and generating depth information of the frame area;
An apparatus for regenerating depth information, comprising: means 3 for synthesizing the depth information of the image and the depth information of the generated frame region.
前記手段2は、前記画像の外辺ごと、あるいは前記画像の外辺を複数個に分割した線分ごとに、前記枠状の領域の形状を決定し、前記決定された各領域において奥行き値を演算する手段を有することを特徴とする請求項4に記載の奥行き情報の再生成装置。The means 2 determines the shape of the frame-shaped region for each outer edge of the image or for each line segment obtained by dividing the outer edge of the image into a plurality, and sets the depth value in each determined region. The depth information regenerating apparatus according to claim 4, further comprising a calculating unit. 任意の画像用に生成された奥行き情報を再生成する奥行き情報の再生成装置であって、
前記画像における外辺部と、前記外辺部から予め定めた所定の範囲内の領域の中から、前記画像の奥行き値が所定の閾値を用いた判別条件を満たす領域を、奥行き値が改変可能な領域として設定する手段1と、
予め複数種類登録されており、それぞれが画像の外辺部を含む枠状の領域において前記外辺部から前記画像の中心に向かって前記所定の閾値に対応する所定の奥行き値に等しくなるように変化する奥行き値を有する複数の枠領域の奥行き情報の中から、前記奥行き値が改変可能な領域に適合する前記枠領域の奥行き情報を選択する手段2と、
前記画像の奥行き情報と前記選択された枠領域の奥行き情報とを合成する手段3とを有することを特徴とする奥行き情報の再生成装置。
A depth information regeneration device for regenerating depth information generated for an arbitrary image,
Depth value can be modified from an outer edge part of the image and an area within a predetermined range predetermined from the outer edge part, where the depth value of the image satisfies a determination condition using a predetermined threshold value Means 1 for setting as a safe area;
A plurality of types are registered in advance, and each is equal to a predetermined depth value corresponding to the predetermined threshold value from the outer side toward the center of the image in a frame-like region including the outer side of the image. Means 2 for selecting depth information of the frame region that matches a region in which the depth value can be modified from depth information of a plurality of frame regions having varying depth values;
An apparatus for regenerating depth information, comprising: means 3 for combining the depth information of the image and the depth information of the selected frame region.
前記請求項1ないし請求項3のいずれか1項に記載の奥行き情報の再生成方法を、コンピュータに実行させるためのプログラム。A program for causing a computer to execute the depth information regeneration method according to any one of claims 1 to 3. 前記請求項7に記載のプログラムが記録された記録媒体。A recording medium on which the program according to claim 7 is recorded.
JP2003189556A 2003-07-01 2003-07-01 Depth information regeneration method, depth information regeneration device, program, and recording medium Expired - Fee Related JP4080386B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003189556A JP4080386B2 (en) 2003-07-01 2003-07-01 Depth information regeneration method, depth information regeneration device, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003189556A JP4080386B2 (en) 2003-07-01 2003-07-01 Depth information regeneration method, depth information regeneration device, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2005026966A JP2005026966A (en) 2005-01-27
JP4080386B2 true JP4080386B2 (en) 2008-04-23

Family

ID=34187732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003189556A Expired - Fee Related JP4080386B2 (en) 2003-07-01 2003-07-01 Depth information regeneration method, depth information regeneration device, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4080386B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010226500A (en) * 2009-03-24 2010-10-07 Toshiba Corp Device and method for displaying stereoscopic image
JP5299173B2 (en) * 2009-08-26 2013-09-25 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2011119926A (en) * 2009-12-02 2011-06-16 Sharp Corp Video processing apparatus, video processing method and computer program
TWI467516B (en) * 2011-04-26 2015-01-01 Univ Nat Cheng Kung Method for color feature extraction

Also Published As

Publication number Publication date
JP2005026966A (en) 2005-01-27

Similar Documents

Publication Publication Date Title
JP4879326B2 (en) System and method for synthesizing a three-dimensional image
US8213708B2 (en) Adjusting perspective for objects in stereoscopic images
CN108694703B (en) Method and apparatus for refining depth image
Terzić et al. Methods for reducing visual discomfort in stereoscopic 3D: A review
US8839152B2 (en) Image processing apparatus and image processing method
US8791989B2 (en) Image processing apparatus, image processing method, recording method, and recording medium
TWI524732B (en) Real-time automatic conversion of 2-dimensional images or video to 3-dimensional stereo images or video
JP4896230B2 (en) System and method of object model fitting and registration for transforming from 2D to 3D
JP5671533B2 (en) Perspective and parallax adjustment in stereoscopic image pairs
KR100957129B1 (en) Method and device for converting image
WO2008118113A1 (en) System and method for region classification of 2d images for 2d-to-3d conversion
US8819590B2 (en) Image display apparatus and image display method
US8862974B2 (en) Image display apparatus and image display method
US11561508B2 (en) Method and apparatus for processing hologram image data
WO2014013673A1 (en) Moving image generation device and moving image generation method
JP4080386B2 (en) Depth information regeneration method, depth information regeneration device, program, and recording medium
WO2000038434A1 (en) Method and apparatus for converting monoscopic images into stereoscopic images
JP6859452B2 (en) How and equipment to apply dynamic effects to an image
CN117036571A (en) Image data generation, visual algorithm model training and evaluation method and device
KR20140056073A (en) Method and system for creating dynamic floating window for stereoscopic contents
US9361689B2 (en) Image processing apparatus and method
JP5254297B2 (en) Image processing device
US10504265B2 (en) Methods, systems and tools for 3D animation
KR101978176B1 (en) Image processing apparatus and method
KR101939573B1 (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees