JP2000092513A - 立体画像生成装置及び立体画像生成方法 - Google Patents
立体画像生成装置及び立体画像生成方法Info
- Publication number
- JP2000092513A JP2000092513A JP10256903A JP25690398A JP2000092513A JP 2000092513 A JP2000092513 A JP 2000092513A JP 10256903 A JP10256903 A JP 10256903A JP 25690398 A JP25690398 A JP 25690398A JP 2000092513 A JP2000092513 A JP 2000092513A
- Authority
- JP
- Japan
- Prior art keywords
- image signal
- image
- generating
- class
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
に違和感のない立体画像を生成し得る立体画像生成装置
及び立体画像生成方法を提案する。 【解決手段】第1の画像信号D1に基づいて当該第1の
画像信号D1に対して視差のある第2の画像信号D7を
生成する際に、第1の画像信号D1の注目画素につい
て、動き情報D5及び不連続情報D6に応じた視差を有
する第2の画像信号D7を生成することにより、画像の
動きの状態やシーンチェンジの有無に応じて常に立体感
のある立体画像を視聴者に提供することができる。
Description
び立体画像生成方法に関し、入力画像信号に基づいて立
体画像信号生成する立体画像生成装置及び立体画像生成
方法に適用して好適なものである。
る方法として、視聴者の一方の眼に対する画像はそのま
ま用い、他方の眼に対する画像を遅延させることによ
り、両眼に対する2つの画像に所定の時間差を与えるよ
うになされたものが考えられている。かかる立体画像化
方法では、画像に動きが有る場合、当該2つの画像に視
差を生じさせてこの画像を見る視聴者に立体感を与える
ようになされている。
画像化方法においては、動きのない画像や画像内容が切
り換わるシーンチェンジに対して立体感のある画像を正
確に生成し得ない問題があった。
で、画像の動きやシーンチェンジの有無に応じて常に違
和感のない立体画像を生成し得る立体画像生成装置及び
立体画像生成方法を提案しようとするものである。
め本発明においては、第1の画像信号に基づいて当該第
1の画像信号に対して視差のある第2の画像信号を生成
する立体画像生成装置において、第1の画像信号に基づ
いて当該第1の画像信号に対して視差のある第2の画像
信号を生成する際に、第1の画像信号の注目画素につい
て、動き情報及び不連続情報に応じた視差を有する第2
の画像信号を生成することにより、画像の動きの状態や
シーンチェンジの有無に応じて常に立体感のある立体画
像を視聴者に提供することができる。
施の形態を詳述する。
SD(Standard Definition )画像データと呼ぶ)をそ
の各画素の信号レベル分布に応じたクラスに分類し、ク
ラス毎に所定のデータ処理を施すことにより高解像度の
画像データ(以下、これをHD(High Definition )画
像データと呼ぶ)を生成するいわゆるクラス分類適応処
理の原理について説明する。
るアップコンバータ51の回路構成を示す。アップコン
バータ1は、外部から供給される例えば8ビットのパル
ス符号変調(PCM:Pulse Code Modulation )データ
でなるSD画像データS51をクラス分類部52及び予
測演算部53に入力する。クラス分類部52は、例えば
図2に示すように、SD画像データS51のうち注目画
素及び当該注目画素を中心とした複数の周辺画素でなる
合計7画素(タップ)をクラス分類用の画素(以下、こ
れをクラスタップと呼ぶ)として設定し、それらの信号
レベル分布に基づいてクラスコードS52を生成する。
因みに、図中実線は第1フィールドを示し、点線は第2
フィールドを示す。
ドS52を生成する方法としては、PCMデータを直接
使用する(すなわちPCMデータをそのままクラスデー
タS52とする)方法や、ADRC(Adaptive Dynamic
Range Coding )等のデータ圧縮方法を用いてクラス数
を削減するような方法が考えられる。このうちPCMデ
ータをそのままクラスコードS52とする方法では、ク
ラスタップとして8ビットのPCMデータを7タップ用
いることから、クラス数が256という膨大な数のクラス
数に分類されることになり、実用上問題がある。
DRCのようなデータ圧縮処理(すなわち再量子化処
理)を施すことによりクラス数を削減するようになされ
ている。このADRCによる分類法は、注目画素を中心
とする近傍領域内の数タップからADRCコードを、次
式
いてクラスコードS52を生成する手法を用いている。
ここで、ci はADRCコード、xi は各クラスタップ
の入力画素値、MINは領域内にある各クラスタップの
入力画素値のうちの最小画素値、DRは領域内のダイナ
ミックレンジ(最大画素値と最小画素値との差分)、k
は再量子化ビット数である。
のダイナミックレンジから再量子化ビット数に応じた量
子化ステップ幅を算出し、入力画素値から最小画素値を
減算した画素値を量子化ステップ幅に応じて再量子化す
るものである。例えば領域内の7タップにおいて各クラ
スタップを1ビットに再量子化する1ビットADRCを
行う場合では、領域内のダイナミックレンジに基づいて
7タップの各入力画素値を適応的に1ビット量子化し、
その結果、7タップの入力画素値を7ビットのデータに
削減することができるので、全体としてクラス数を12
8クラスにまで削減することができる。
y Memory)54は、後述する学習回路60によって予め
生成された各クラス毎に対応した予測係数データS53
を格納しており、クラス分類部52から供給されるクラ
スコードS52に応じた予測係数データS53を読み出
し、これを予測演算部53に送出する。予測演算部53
は、例えば図3に示すように、外部から入力されるSD
画像データS51のうち、注目画素及び当該注目画素を
中心とした複数の周辺画素でなる合計13タップを予測
演算用の画素(以下、これを予測タップと呼ぶ)として
選定し、当該予測タップの各画素値と予測係数データS
53とを用いて、線形一次結合でなる次式
り、予測タップには存在しないHD画素の集まりである
HD画像データS54を生成し、これを外部に出力す
る。ここで、x′は各HD画素値、xi は各予測タップ
の画素値、wi は予測係数、nは予測タップ数であり、
この場合nは13である。
納されている予測係数データを生成する学習回路60の
回路構成を示し、当該学習回路60は、予測係数データ
を予め生成して、これを予測係数ROM54に格納する
ようになされている。学習回路60は、いわゆる教師信
号としてのHD画像データS60を垂直間引きフィルタ
61及び予測係数算出回路62に入力する。学習回路6
0は、HD画像データS60を垂直間引きフィルタ61
及び水平間引きフィルタ63によって間引くことによ
り、生徒信号としてのSD画像データS61を生成し、
これをクラス分類部64及び予測係数算出回路62に入
力するようになされている。
ンバータのクラス分類部52と同様の構成でなり、SD
画像データS61からクラスタップを選定し、その信号
レベル分布に基づいてクラスコードS62を生成した
後、これを予測係数算出回路62に送出する。予測係数
算出回路62は、HD画像データS60及びSD画像デ
ータS61を基に、クラスコードS62が示すクラスに
応じた予測係数をクラス毎に算出し、その結果得た予測
係数データS63を予測係数ROM54に格納する。
の(2)式における予測係数wを最小自乗法によって求
めるようになされている。具体的には予測係数算出回路
62は、XをSD画素値、Wを予測係数、YをHD画素
値として、いわゆる観測方程式と呼ばれる次式
こでmは予測するHD画素の画素数を示す学習データ
数、nは予測タップ数である。
式を基に、次式
係数wi は、この(4)式から、次式
る。すなわち次式
る。
ある(6)式を満たすようなw1 、w2 、……、wn を
算出すればよいことになり、上述の(4)式から、次式
式
は、上述の(4)及び(8)式から、次式
このようにして予測係数算出回路62は、予測タップ数
nと同一次数の連立方程式でなる正規方程式を生成し、
掃き出し法(Gauss Jordanの消去法)を用いてこの正規
方程式を解くことにより、各予測係数wi を算出する。
順について図5に示すフローチャートを用いて説明す
る。学習回路60はステップSP61から入り続くステ
ップSP62において、教師信号としてのHD画像デー
タS60から生徒信号としてのSD画像データS61を
生成することにより、予測係数を生成するのに必要な学
習データを生成する。ステップSP63において、学習
回路60は、予測係数を生成するのに必要十分な学習デ
ータが得られたか否か判定し、その結果、未だ必要十分
な学習データが得られていないと判断された場合にはス
テップSP63において否定結果を得ることによりステ
ップSP64に移行する。
は、SD画像データS61からクラスタップを選定し、
その信号レベル分布に基づいてクラス分類を行う。ステ
ップSP65において、学習回路60は、各クラス毎に
上述の(9)式でなる正規方程式を生成し、ステップS
P62に戻って同様の処理手順を繰り返すことにより、
予測係数を生成するのに必要十分な正規方程式を生成す
る。
定結果が得られると、このことは必要十分な学習データ
が得られたことを表しており、このとき学習回路60は
ステップSP66に移って、上述の(9)式でなる正規
方程式を掃き出し法によって解くことにより、予測係数
w1 、w2 、……、wn を各クラス毎に生成する。そし
てステップSP67において、学習回路60は、生成し
た各クラス毎の予測係数w1 、w2 、……、wn を予測
係数ROM54(図1)に格納し、ステップSP68に
おいて当該予測係数生成手順を終了する。
像生成装置 図6は図1〜図5について上述したクラス分類適応処理
を用いた立体画像生成装置100を示し、ディジタル化
された入力ビデオ信号D1を遅延回路101及び遅延回
路102を介して立体画像表示装置110の右眼用表示
部110Rに右眼用画像信号D3として供給する。
デオ信号D1をフレームメモリ103に入力することに
より1フレーム分遅延させた後、これを1フレーム遅延
ビデオ信号D4として動きベクトル検出部104及びシ
ーンチェンジ検出部105に供給する。
モリ103において1フレーム分遅延された1フレーム
遅延ビデオ信号D4と、このとき当該立体画像生成装置
100に入力されるビデオ信号D1とを例えば16×16画
素でなるブロック単位で比較することにより、ブロック
マッチング法によってフレーム間の動きベクトルを検出
する。
ベクトル検出部104は、1フレーム遅延ビデオ信号D
4及び入力ビデオ信号D1の比較すべきブロックの同じ
位置にある画素を一組の画素ペアとして、当該画素ペア
をなす2つの画素の画素値の差分を算出する。そして動
きベクトル検出部104は当該画素ペアの差分をブロッ
ク内に存在するすべての画素ペアについて合計した量
(MAE:Mean Absolute Error)が最小となるブロック
を探索し、このようにして得られた前後フレームの2つ
のブロックのずれを動きベクトルとして検出する。動き
ベクトル検出部104は検出された動きベクトルを動き
ベクトル検出データD5としてクラス分類適応処理部1
06に供給する。
レームメモリ103において1フレーム分遅延された1
フレーム遅延ビデオ信号D4と、このとき当該立体画像
生成装置100に入力されるビデオ信号D1との各画素
のフレーム間差分の絶対値和を求め、当該絶対値和が予
め設定されている所定の閾値を越えたとき、このとき比
較している前後2つのフレーム間が不連続であり当該2
つのフレーム間においてシーンチェンジが行われたこと
を検出する。
にして検出された不連続状態をシーンチェンジ検出デー
タD6としてクラス分類適応処理部106に供給する。
101から出力される遅延ビデオ信号D2と、当該遅延
ビデオ信号D2に同期したタイミングで動きベクトル検
出部104及びシーンチェンジ検出部105から供給さ
れる動きベクトル検出データD5及びシーンチェンジ検
出データD6とを入力し、動きベクトル検出データD5
及びシーンチェンジ検出データD6に基づいて遅延ビデ
オ信号D2から立体画像を生成する際の左眼用画像信号
D7を生成する。
図7に示すように、遅延回路101から供給される遅延
ビデオ信号D2を予測タップ生成回路121に入力す
る。
信号D2のうち、注目画素及び当該注目画素を中心とし
たn個の周辺画素でなる予測演算用の画素(予測タッ
プ)を選定し、当該選定された予測タップの各画素値x
i (i=1〜n)を予測タップデータD121として予
測演算部123の乗算器134A1 〜134An にそれ
ぞれ供給する。
学習処理により予め算出されている各動きベクトルの大
きさ(動き量)及びシーンチェンジに対応した各予測タ
ップの予測係数wi (i=1〜n)の組を予測係数RO
M122に記憶している。すなわち、予測係数ROM1
22は、動きベクトルの大きさ(動き量)をクラスとし
て、当該動き量クラスに応じた予測係数wi (i=1〜
n)の組KE1 〜KEx を予測係数グループGP1とし
て記憶しており、また、シーンチェンジに対応した1つ
のクラス(シーンチェンジクラス)の予測係数wi (i
=1〜n)の組KEz を予測係数グループGP2として
記憶している。
動きベクトル検出部104(図6)から供給される動き
ベクトル検出データD5をインデックスデコーダ124
においてデコードすることによりアドレスデータADi
(i=1〜x)を得、当該アドレスデータADi (i=
1〜x)を予測係数ROM122に送出することによ
り、アドレスデータADi (i=1〜x)に応じたクラ
スの組(KE1 〜KExのいずれか)の各予測係数wi
を読み出す。そしてクラス分類適応処理部106は当該
読み出した予測係数を予測演算部123の対応する各レ
ジスタ133A1〜133An を介して乗算器134A
1 〜134An に供給する。
には、遅延ビデオ信号D2の動き量に応じた予測係数w
i (i=1〜n)が入力されることになる。
該被写体の遠近感と相関を有しており、被写体が近くに
ある程、画面内における当該被写体の動き量が大きくな
る傾向がある。従って、動き量に対応した予測係数wi
としては、右眼用画像信号D3(図6)に対して例えば
動き量に比例したシフト量だけ各画素を水平方向にシフ
トさせるような係数が与えられる。
ーンチェンジ検出部105(図6)から供給されるシー
ンチェンジ検出データD6をインデックスデコーダ12
4においてデコードすることによりアドレスデータAD
Z を得、当該アドレスデータADz を予測係数ROM1
22に送出することにより、アドレスデータADz に応
じたクラスの組KEz の各予測係数wi を読み出す。そ
してクラス分類適応処理部106は当該読み出した予測
係数を予測演算部123の対応する各レジスタ133A
1 〜133An を介して乗算器134A1 〜134An
にそれぞれ供給する。
には、遅延ビデオ信号D2のシーンチェンジに応じて予
め設定された所定の予測係数wi (i=1〜n)が入力
されることになる。
連続性がないことから、シーンチェンジに対応した予測
係数wi としては、右眼用画像信号D3(図6)に対し
て各画素を例えば両眼視差として数画素分だけ水平方向
にシフトするような係数が与えられる。
n には、遅延ビデオ信号D2のうち、注目画素及び当該
注目画素を中心としたn個の周辺画素でなる予測演算用
の画素(予測タップ)の各画素値xi (i=1〜n)
と、遅延ビデオ信号D2の動き量又はシーンチェンジに
応じた各予測タップの予測係数wi が入力され、各乗算
器134A1 〜134An はこれらの入力データを乗算
する。そして各乗算器134A1 〜134An はこれら
の乗算結果を続く加算器135に供給することによりこ
れらを加算する。かくして予測演算部123は加算器1
35の加算結果として上述の(2)式の演算結果を得る
ことにより、注目画素の画素値x´を得る。
って得られた各注目画素の画素値x´を、左眼用画像信
号D7として立体画像表示装置110の左眼用表示部1
10Lに供給する。
表示部110R及び左眼用表示部110Lは、被写体の
動き量又はシーンチェンジに応じた視差分だけ互いに水
平方向にシフトした右眼用画像及び左眼用画像を表示す
ることができる。
測係数ROM122に記憶される各予測係数wi は、図
8に示す学習回路150によって予め算出される。すな
わち図8において学習回路150は、互いに所定の視差
分だけ離間して設置された左眼用ビデオカメラCML及
び右眼用ビデオカメラCMRから同一被写体を撮像する
ことにより得られる左眼用ビデオ信号D150L及び右
眼用ビデオ信号D150Rを入力し、左眼用ビデオ信号
D150Lを教師信号として遅延回路156を介して正
規方程式生成部161に与えると共に、右眼用ビデオ信
号D150Rを生徒信号として遅延回路152を介して
正規方程式生成部161に与える。
D150Rをフレームメモリ151に入力することによ
り当該右眼用ビデオ信号D150Rを1フレーム分遅延
させることにより1フレーム遅延右眼用ビデオ信号D1
51を生成し、これをクラス分類部160の動きベクト
ル検出部153及びシーンチェンジ検出部154に供給
する。
モリ151において1フレーム分遅延された1フレーム
遅延右眼用ビデオ信号D151と、このとき当該学習回
路150に入力される右眼用ビデオ信号D150Rとを
例えば16×16画素でなるブロック単位で比較することに
より、ブロックマッチング法によってフレーム間の動き
ベクトルを検出し、当該検出結果を動きベクトルデータ
D153としてインデックスデコーダ155に供給す
る。
レームメモリ151において1フレーム分遅延された1
フレーム遅延右眼用ビデオ信号D151と、このとき当
該学習回路150に入力される右眼用ビデオ信号D15
0Rとの各画素のフレーム間差分の絶対値和を求め、当
該絶対値和が予め設定されている所定の閾値を越えたと
き、このとき比較している前後2つのフレーム間におい
てシーンチェンジが行われたことを検出する。
にして検出されたシーンチェンジ状態をシーンチェンジ
検出データD154としてインデックスデコーダ155
に供給する。
トル検出データD153をデコードすることにより動き
ベクトルの大きさ(動き量)に応じたクラスコードを生
成すると共に、シーンチェンジ検出データD154をデ
コードすることによりシーンチェンジが生じたとき、こ
れを表すクラスコードを生成し、各クラスコードをクラ
スコードデータD155として正規方程式生成部161
に供給する。
6及び152から互いに同期したタイミングで供給され
る教師信号としての左眼用ビデオ信号D150L及び生
徒信号としての右眼用ビデオ信号D150Rのうち、左
眼用ビデオ信号D150Lの画素値を上述の(3)式の
Yに割り当てると共に、右眼用ビデオ信号D150Rの
画素値を上述の(3)式のXに割り当て、当該(3)式
によって表される観測方程式を生成する。
の(4)式〜(8)式について上述した方法により
(9)式について上述した場合と同様にして、予測タッ
プ数nと同一次数の連立方程式でなる正規方程式
((9)式)を生成し、これを予測係数算出部162に
供給する。予測係数算出部162は、正規方程式生成部
161から供給される正規方程式((9)式)を掃き出
し法を用いて解くことにより、各予測係数wi を算出
し、当該算出された各予測係数wi を予測係数データD
162として予測係数ROM122に対応するクラスコ
ードと共に格納する。
量及びシーンチェンジに応じたクラスコードごとに予測
タップに対応する予測係数wi の組が記憶される。
ンチェンジ検出結果に基づいて、このときの画像が連続
していると判断されるとき、インデックスデコーダ12
4において動き量検出データD5(図6及び図7)に応
じたアドレスADi (i=1〜x)をデコードし、これ
により画像の動き量に応じた予測係数wi (i=1〜
n)の組KE1 〜KEx (図7)を予測係数グループG
P1から読み出して予測演算を実行する。
量に応じた視差を有する左眼用画像信号D7及び右眼用
画像信号D3を立体画像表示装置110の左眼用表示部
110L及び右眼用表示部110Rに表示する。
した視聴者は、左眼用表示部110Lに表示された左眼
用画像を左眼だけで見ると共に、右眼用表示部110R
に表示された右眼用画像を右眼だけで見ることにより、
各表示画像が有する動き量に応じた視差によって立体感
のある画像を認識する。
が大きいほど、当該被写体像に与える視差が大きくされ
て、近距離画像であることが強調されることにより、近
距離にある被写体ほど動き量が大きくなるように見える
点を利用した立体感の強調がなされる。
は、シーンチェンジ検出結果に基づいて、このときの画
像が不連続(すなわちシーンチェンジ)であると判断さ
れるとき、インデックスデコーダ124においてシーン
チェンジに応じたアドレスADz がデコードされ、これ
によりシーンチェンジに応じた予測係数wi (i=1〜
n)の組KEz (図7)を予測係数グループGP2から
読み出して予測演算を実行する。
像が不連続であっても所定の視差を有する左眼用画像信
号D7及び右眼用画像信号D3を立体画像表示装置11
0の左眼用表示部110L及び右眼用表示部110Rに
表示する。
した視聴者は、左眼用表示部110Lに表示された左眼
用画像を左眼だけで見ると共に、右眼用表示部110R
に表示された右眼用画像を右眼だけで見ることにより、
各表示画像の視差によって立体感のある画像を認識す
る。
成装置100は、表示しようとする画像が連続画像であ
る場合には、当該連続画像の動き量に応じた視差分だけ
水平方向にシフトした右眼用画像及び左眼用画像を立体
画像表示装置110の右眼用表示部110R及び左眼用
表示部110Lに表示すると共に、表示しようとする画
像が不連続画像(すなわちシーンチェンジ)である場合
には、予め設定された所定の視差分だけ水平方向にシフ
トした右眼用画像及び左眼用画像を表示することによ
り、シーンチェンジの有無に関わらず立体感のある立体
画像を視聴者に提供することができる。
ときのみシーンチェンジ用の予測係数組を選択する場合
について述べたが、本発明はこれに限らず、例えば画像
が連続であってもその動き量が予め設定された閾値以下
となった際に強制的にシーンチェンジ用の予測係数組を
選択するようにしても良い。
クトルを検出する方法としてブロックマッチング法を用
いる場合について述べたが、本発明はこれに限らず、例
えば隣接する画素の値との差を基にして前フレームの画
素の値との差を評価して動き量を検出する勾配法を用い
るようにしても良い。
が装着するようになされた立体画像表示装置110を用
いる場合について述べたが、本発明はこれに限らず、例
えば右眼用画像及び左眼用画像をモニタに時分割で表示
し、これに同期して開閉する液晶シャッタを有する立体
視メガネを用いるようにしても良く、表示装置としては
種々のものを用いることができる。
像信号に基づいて当該第1の画像信号に対して視差のあ
る第2の画像信号を生成する際に、第1の画像信号の注
目画素について、動き情報及び不連続情報に応じた視差
を有する第2の画像信号を生成することにより、画像の
動きの状態やシーンチェンジの有無に応じて常に立体感
のある立体画像を視聴者に提供することができる。
に供するブロック図である。
に供する略線図である。
に供する略線図である。
に供するブロック図である。
に供するフローチャートである。
を示すブロック図である。
成を示すブロック図である。
ロック図である。
ラス分類部、54、122……予測係数ROM、53、
123……予測演算部、62……予測係数算出部、10
0……立体画像生成装置、104、153……動きベク
トル検出部、105、154……シーンチェンジ検出
部、106……クラス分類適応処理部、110……立体
画像表示装置、121……予測タップ生成回路、12
4、155……インデックスデコーダ、150……学習
回路、161……正規方程式生成部、162……予測係
数算出部。
Claims (8)
- 【請求項1】第1の画像信号に基づいて当該第1の画像
信号に対して視差のある第2の画像信号を生成する立体
画像生成装置において、 上記第1の画像信号の動き情報を検出する動き情報検出
手段と、 上記第1の画像信号の時間方向の不連続情報を検出する
不連続情報検出手段と、 上記第1の画像信号の注目画素について、上記動き情報
検出手段の検出結果及び上記不連続情報検出手段の検出
結果に応じたクラスを決定するクラス決定手段と、 上記決定されたクラスに応じて対応する予測データを発
生する予測データ発生手段と、 上記予測データに基づいて上記第1の画像信号の注目画
素に対応する上記第2の画像信号の注目画素を発生する
注目画素発生手段とを具えることを特徴とする立体画像
生成装置。 - 【請求項2】上記クラス決定手段は、 上記第1の画像信号の注目画素について、上記不連続情
報検出手段の検出結果が連続であるとき上記動き情報検
出手段の検出結果に応じたクラスを決定すると共に、上
記不連続情報検出手段の検出結果が不連続であるとき当
該不連続情報検出結果に応じたクラスを決定することを
特徴とする請求項1に記載の立体画像生成装置。 - 【請求項3】上記予測データは複数の予測係数の組み合
わせからなり、 上記注目画素発生手段は、上記第1の画像信号の注目画
素に対して選択された当該注目画素を特徴付ける複数画
素と当該複数画素にそれぞれ対応する上記予測データの
組み合わせとに基づいて上記第2の画像信号の上記注目
画素を発生することを特徴とする請求項1に記載の立体
画像生成装置。 - 【請求項4】上記クラス毎の予測データの組み合わせ
は、上記第2の画像信号に対応する学習データを用いて
予め生成されていることを特徴とする請求項1に記載の
立体画像生成装置。 - 【請求項5】第1の画像信号に基づいて当該第1の画像
信号に対して視差のある第2の画像信号を生成する立体
画像生成方法において、 上記第1の画像信号の動き情報を検出する動き情報検出
ステップと、 上記第1の画像信号の時間方向の不連続情報を検出する
不連続情報検出ステップと、 上記第1の画像信号の注目画素について、上記動き情報
検出手段の検出結果及び上記不連続情報検出手段の検出
結果に応じたクラスを決定するクラス決定ステップと、 上記決定されたクラスに応じて対応する予測データを発
生する予測データ発生ステップと、 上記予測データに基づいて上記第1の画像信号の注目画
素に対応する上記第2の画像信号の注目画素を発生する
注目画素発生ステップとを具えることを特徴とする立体
画像生成方法。 - 【請求項6】上記クラス決定ステップは、 上記第1の画像信号の注目画素について、上記不連続情
報検出ステップの検出結果が連続であるとき上記動き情
報検出ステップの検出結果に応じたクラスを決定すると
共に、上記不連続情報検出ステップの検出結果が不連続
であるとき当該不連続情報検出結果に応じたクラスを決
定することを特徴とする請求項5に記載の立体画像生成
方法。 - 【請求項7】上記予測データは複数の予測係数の組み合
わせからなり、 上記注目画素発生ステップは、上記第1の画像信号の注
目画素に対して選択された当該注目画素を特徴付ける複
数画素と当該複数画素にそれぞれ対応する上記予測デー
タの組み合わせとに基づいて上記第2の画像信号の上記
注目画素を発生することを特徴とする請求項5に記載の
立体画像生成方法。 - 【請求項8】上記クラス毎の予測データの組み合わせ
は、上記第2の画像信号に対応する学習データを用いて
予め生成されていることを特徴とする請求項5に記載の
立体画像生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10256903A JP2000092513A (ja) | 1998-09-10 | 1998-09-10 | 立体画像生成装置及び立体画像生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10256903A JP2000092513A (ja) | 1998-09-10 | 1998-09-10 | 立体画像生成装置及び立体画像生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000092513A true JP2000092513A (ja) | 2000-03-31 |
Family
ID=17298999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10256903A Pending JP2000092513A (ja) | 1998-09-10 | 1998-09-10 | 立体画像生成装置及び立体画像生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000092513A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007142633A (ja) * | 2005-11-16 | 2007-06-07 | Kddi Corp | ショット境界検出装置 |
JP2012191366A (ja) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | 生成装置および生成方法 |
-
1998
- 1998-09-10 JP JP10256903A patent/JP2000092513A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007142633A (ja) * | 2005-11-16 | 2007-06-07 | Kddi Corp | ショット境界検出装置 |
JP4510749B2 (ja) * | 2005-11-16 | 2010-07-28 | Kddi株式会社 | ショット境界検出装置 |
JP2012191366A (ja) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | 生成装置および生成方法 |
US9288473B2 (en) | 2011-03-09 | 2016-03-15 | Fujitsu Limited | Creating apparatus and creating method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100820129B1 (ko) | 입체 영상 재생 장치 및 입체 영상 재생 방법 | |
US6377625B1 (en) | Method and apparatus for generating steroscopic image using MPEG data | |
KR100720722B1 (ko) | 중간영상 생성방법 및 이 방법이 적용되는 입체영상디스플레이장치 | |
US8963998B2 (en) | Full reference system for predicting subjective quality of three-dimensional video | |
KR100838351B1 (ko) | 3d 이미지 생성 방법 및 장치 | |
US6078352A (en) | Stereoscopic viewing device and stereoscopic viewing method | |
KR100517517B1 (ko) | 중간 시점 영상 합성 방법 및 그를 적용한 3d 디스플레이장치 | |
US20120087571A1 (en) | Method and apparatus for synchronizing 3-dimensional image | |
US20080239144A1 (en) | Frame rate conversion device and image display apparatus | |
JP2011114861A (ja) | 3次元映像ディスプレイ装置及びディスプレイ方法 | |
KR100540732B1 (ko) | 2차원 영상신호를 3차원 영상신호로 변환하는 장치 | |
JP2000092513A (ja) | 立体画像生成装置及び立体画像生成方法 | |
JP4815004B2 (ja) | 多視点画像符号化装置 | |
CN102281423A (zh) | 3d视频场频转换系统及场频转换方法 | |
JP5700998B2 (ja) | 立体映像表示装置及びその制御方法 | |
TWI499279B (zh) | 影像處理裝置及其方法 | |
JP2001016609A (ja) | Mpegデータを用いた立体映像生成装置及び方法 | |
EP1128679A1 (en) | Method and apparatus for generating stereoscopic image using MPEG data | |
JP5387186B2 (ja) | 立体画像表示装置及び立体画像表示方法 | |
US8902286B2 (en) | Method and apparatus for detecting motion vector, and method and apparatus for processing image signal | |
JP3826434B2 (ja) | 信号変換装置および方法 | |
JP2011176523A (ja) | ステレオ映像信号制御方法、制御装置及び制御プログラム | |
JP4250807B2 (ja) | フィールド周波数変換装置および変換方法 | |
JP3653287B2 (ja) | 画像情報変換装置及び画像情報変換方法 | |
JP2004242000A (ja) | 符号化装置および方法、並びに復号装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080125 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080324 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080418 |