JPH10178594A - 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末 - Google Patents

3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末

Info

Publication number
JPH10178594A
JPH10178594A JP33923296A JP33923296A JPH10178594A JP H10178594 A JPH10178594 A JP H10178594A JP 33923296 A JP33923296 A JP 33923296A JP 33923296 A JP33923296 A JP 33923296A JP H10178594 A JPH10178594 A JP H10178594A
Authority
JP
Japan
Prior art keywords
video data
dimensional video
signal
parallax
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33923296A
Other languages
English (en)
Inventor
Akihiro Maenaka
章弘 前中
Seiji Okada
誠司 岡田
Yukio Mori
幸夫 森
Tomoji Yamamoto
友二 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP33923296A priority Critical patent/JPH10178594A/ja
Publication of JPH10178594A publication Critical patent/JPH10178594A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 この発明の目的は、ユーザ側端末に3次元映
像番組を提供する際において、伝送帯域を従来に比べて
狭くできる3次元映像伝送方法を提供することを目的と
する。 【解決手段】 3次元映像伝送方法において、2次元映
像データと、上記2次元映像データから3次元映像信号
を生成するために必要な、上記2次元映像データの各フ
ィールドにおける各分割領域毎の視差情報とを、伝送す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、3次元映像伝送
方法、デジタル放送システムおよびデジタル放送システ
ムにおけるユーザ側端末に関する。
【0002】
【従来の技術】デジタルテレビ放送システムにおいて、
ユーザ側端末に3次元映像番組を提供する場合には、放
送局は右目用映像信号および左目用映像信号をそれぞれ
伝送する必要がある。このため、通常の2次元映像信号
を送出する場合に比べて2倍の伝送帯域が必要となると
いう問題がある。
【0003】
【発明が解決しようとする課題】この発明の目的は、ユ
ーザ側端末に3次元映像番組を提供する際において、伝
送帯域を従来に比べて狭くできる、3次元映像伝送方
法、デジタル放送システムおよびデジタル放送システム
におけるユーザ側端末を提供することを目的とする。
【0004】
【課題を解決するための手段】この発明による3次元映
像伝送方法は、2次元映像データと、上記2次元映像デ
ータから3次元映像信号を生成するために必要な、上記
2次元映像データの各フィールドにおける各分割領域毎
の視差情報とを、伝送することを特徴とする。
【0005】この発明によるデジタル放送システムは、
放送局が、2次元映像データと、上記2次元映像データ
の各フィールドにおける各分割領域毎の視差情報とを伝
送する手段を備え、ユーザ側端末が、受信した2次元映
像データと、上記各分割領域毎の視差情報とに基づい
て、3次元映像データを生成する手段を備えていること
を特徴とする。
【0006】ユーザ側端末は、たとえば、受信した視差
情報に基づいて、受信した2次元映像データの各フィー
ルドにおける所定単位領域ごとの視差情報を生成する手
段、および受信した2次元映像データの各所定単位領域
内の信号から、その所定単位領域に対応する視差情報に
応じた水平位相差を有する第1映像信号と第2映像信号
とをそれぞれ生成する手段を備えている。
【0007】この発明によるデジタル放送システムにお
けるユーザ側端末は、放送局から送られてきた、2次元
映像データと、上記2次元映像データから3次元映像信
号を生成するために必要な、上記2次元映像データの各
フィールドにおける各分割領域毎の視差情報とに基づい
て、3次元映像データを生成する3次元映像データ生成
手段を備えていることを特徴とする。
【0008】上記3次元映像データ生成手段としては、
たとえば、上記視差情報に基づいて、上記2次元映像デ
ータの各フィールドにおける所定単位領域ごとの視差情
報を生成する手段、および上記2次元映像データの各所
定単位領域内の信号から、その所定単位領域に対応する
視差情報に応じた水平位相差を有する第1映像信号と第
2映像信号とをそれぞれ生成する手段を備えているもの
が用いられる。
【0009】
【発明の実施の形態】以下、図面を参照して、この発明
の実施の形態について説明する。
【0010】〔1〕デジタルテレビ放送システムにおけ
る全体的な動作説明
【0011】この実施の形態では、2次元映像データ
と、2次元映像データをユーザ側端末で3次元映像デー
タに変換するために必要な視差情報とが、放送局から送
出される。つまり、放送局では、2次元映像を複数の領
域に分割し、3次元映像を生成するための視差量を各領
域毎に計算する。そして、図1に示すように、デジタル
放送のMPEG2トランスポートストリーム上で2次元
映像データと、視差データ(視差情報)とをそれぞれパ
ケット識別子(PID:Packet Identifier)を変えて伝送す
る。
【0012】ユーザ側端末では、PIDに基づいて、映
像データと視差データ(視差情報)とが分離され、映像
データと視差データとに基づいて、3次元映像データが
生成される。
【0013】〔2〕放送局によって行われる視差情報の
生成処理について説明する。
【0014】図2は、視差情報生成回路の構成を示して
いる。
【0015】2次元映像信号を構成する輝度信号Yは、
AD変換回路1(ADC)によってディジタルのY信号
に変換される。
【0016】Y信号は、動きベクトル検出回路2に送ら
れる。動きベクトル検出回路2は、1フィールド毎に、
図3に示すように1フィールド画面内に設定された12
個の動きベクトル検出領域E1〜E12それぞれに対す
る動きベクトルを算出する。そして、動きベクトル検出
回路2は、算出された動きベクトルの信頼性が低い領域
(以下、NG領域という)を示すデータ、NG領域以外
の各領域E1〜E12ごとのX方向の動きベクトル、N
G領域以外の各領域E1〜E12のX方向の動きベクト
ルのうちの最大値(X方向の動きベクトルが最大値であ
る領域のデータを含む)、NG領域以外の各領域E1〜
E12のX方向の動きベクトルのうちの最小値(X方向
の動きベクトルが最小値である領域のデータを含む)な
らびにNG領域以外の各領域E1〜E12のX方向の動
きベクトルの絶対値の積算値を、各フィールドごとにC
PU3に送る。
【0017】CPU3は、動きベクトル検出回路2から
送られてきた情報に基づいて、各領域E1〜E12に対
する奥行き量または飛び出し量、つまり視差情報を算出
する。この例では、背景が存在する領域については奥行
き量が大きくなり、被写体が存在する領域では奥行き量
が小さくなるように、各領域E1〜E12に対する奥行
き量が算出される。この奥行き量の算出方法の詳細につ
いては、後述する。
【0018】図4は、CPU3によって行なわれる視差
情報の算出方法を示している。
【0019】被写体/背景判別手段31は、NG領域以
外の各領域E1〜E12のX方向の動きベクトルに基づ
いて、NG領域以外の各領域ごとにその領域の映像が被
写体であるか背景であるかを判別する。この判別方法と
しては、たとえば、特開平8−149517号公報に示
されている方法が用いられる。
【0020】奥行き情報生成手段32は、被写体/背景
判別手段31によるNG領域以外の各領域E1〜E12
ごとの判別結果、NG領域以外の各領域E1〜E12ご
とのX方向の動きベクトル、NG領域以外の各領域E1
〜E12のX方向の動きベクトルのうちの最大値(X方
向の動きベクトルが最大値である領域のデータを含
む)、NG領域以外の各領域E1〜E12のX方向の動
きベクトルのうちの最小値(X方向の動きベクトルが最
小値である領域のデータを含む)およびNG領域を示す
データに基づいて、各領域E1〜E12ごとに奥行き量
(奥行き情報)を決定する。
【0021】つまり、被写体/背景判別手段31による
NG領域以外の各領域E1〜E12ごとの判別結果と、
NG領域以外の各領域E1〜E12のX方向の動きベク
トルのうちの最大値(X方向の動きベクトルが最大値で
ある領域のデータを含む)と、NG領域以外の各領域E
1〜E12のX方向の動きベクトルのうちの最小値(X
方向の動きベクトルが最小値である領域のデータを含
む)とに基づいて、X方向の動きベクトルが最大値であ
る領域およびX方向の動きベクトルが最小値である領域
のうちの一方の立体視位置を管面位置PFに決定し、他
方の領域の立体視位置を最も奥の位置PRに決定する。
【0022】たとえば、X方向の動きベクトルが最大値
である領域の映像が被写体であり、X方向の動きベクト
ルが最小値である領域の映像が背景である場合には、図
5に示すように、X方向の動きベクトルが最大値である
領域の立体視位置が管面位置PFに決定され、X方向の
動きベクトルが最小値である領域の立体視位置が最も奥
の位置PRに決定される。
【0023】X方向の動きベクトルが最大値である領域
の映像が背景であり、X方向の動きベクトルが最小値で
ある領域の映像が被写体である場合には、X方向の動き
ベクトルが最大値である領域の立体視位置が最も奥の位
置PRに決定され、X方向の動きベクトルが最小値であ
る領域の立体視位置が管面位置PFに決定される。
【0024】ここでは、X方向の動きベクトルが最大値
である領域の映像が被写体であり、X方向の動きベクト
ルが最小値である領域の映像が背景であり、図5に示す
ように、X方向の動きベクトルが最大値である領域の立
体視位置が管面位置PFに決定され、X方向の動きベク
トルが最小値である領域の立体視位置が最も奥の位置P
Rに決定されたとして、各領域E1〜E12の奥行き量
の決定方法について説明する。
【0025】X方向の動きベクトルが最大値の領域およ
び最小値の領域以外の領域のうち、NG領域以外の各領
域の立体視位置は、管面位置PFと最も奥の位置PRの
間において、その領域のX方向の動きベクトルに応じた
位置に決定される。この例では、X方向の動きベクトル
が大きい領域ほど、その立体視位置が管面位置PFに近
い位置に決定され、X方向の動きベクトルが小さい領域
ほど、その立体視位置が最も奥の位置PRに近い位置に
決定される。
【0026】各NG領域の立体視位置は、そのNG領域
が画面の上段(領域E1〜E4)にあるか、中段(領域
E5〜E8)にあるか、画面の下段(領域E9〜E1
2)にあるかに応じて決定される。
【0027】画面の下段にあるNG領域の立体視位置
は、管面位置PFと最も奥の位置PRとの間の中央位置
Paに決定される。画面の上段にあるNG領域の立体視
位置は、最も奥の位置PRと同じ位置Pcに決定され
る。画面の中段にあるNG領域の立体視位置は、画面の
下段にあるNG領域の立体視位置Paと、画面の上段に
あるNG領域の立体視位置Pcとの間の中央位置Pbに
決定される。
【0028】NG領域の立体視位置を上記のようにして
決定している理由について説明する。NG領域は、その
映像が背景であると推定される。そして、通常、背景は
画面下側にあるものほど近い背景であり、画面上側にあ
るものほど遠い背景である。したがって、画面の上側の
NG領域ほどその立体視位置が管面位置PFからより奥
の位置となるように、各NG位置の立体視位置が決定さ
れているのである。また、NG領域の映像が背景である
と推定しているため、画面の下側のNG領域の立体視位
置が、被写体が存在する領域の立体視位置より奥の位置
に決定されているのである。
【0029】このようにして、各領域E1〜E12の立
体視位置が決定されることにより、各領域E1〜E12
の管面位置PFからの奥行き量(奥行き情報)が決定さ
れる。
【0030】奥行き情報選択手段33には、奥行き情報
生成手段32によって生成された現フィールドの各領域
E1〜E12に対する奥行き情報と、前回において奥行
き情報選択手段33によって選択された前フィールドの
各領域E1〜E12に対する奥行き情報とが入力してい
る。また、奥行き情報選択手段33には、NG領域以外
の各領域E1〜E12のX方向の動きベクトルの絶対値
の積算値を示すデータが送られている。
【0031】奥行き情報選択手段33は、NG領域以外
の各領域E1〜E12のX方向の動きベクトルの絶対値
の積算値が所定値以上である場合、つまり、前フィール
ドに対する現フィールドの映像の動きが大きい場合に
は、現フィールドの奥行き情報を選択して出力する。N
G領域以外の各領域E1〜E12のX方向の動きベクト
ルの絶対値の積算値が所定値より小さい場合、つまり、
前フィールドに対する現フィールドの映像の動きが小さ
い場合には、奥行き情報選択手段33は、前フィールド
の奥行き情報を選択して出力する。
【0032】奥行き情報選択手段33から出力された各
領域E1〜E12ごとの奥行き情報(以下、各領域E1
〜E12ごとの第1奥行き情報という)は、奥行き情報
が隣接するフィールド間において急激に変化するのを防
止するための平滑化処理手段40に送られ、平滑化され
る。平滑化処理手段40は、第1乗算手段34、加算手
段35および第2乗算手段36から構成されている。
【0033】各領域E1〜E12ごとの第1奥行き情報
は、第1乗算手段34によって係数αが乗算される。係
数αは、通常はたとえば1/8に設定されている。ただ
し、現フィールドのシーンが、前フィールドのシーンか
ら変化(シーンチェンジ)したときには、係数αは1に
設定される。このようなシーンチェンジの検出方法とし
ては、たとえば、特開平8−149514号公報に開示
されている方法が用いられる。
【0034】第1乗算手段34の出力(以下、各領域E
1〜E12ごとの第2奥行き情報という)は、加算手段
35に送られる。加算手段35には、第2乗算手段36
の出力(以下、各領域E1〜E12ごとの第4奥行き情
報という)も送られており、各領域E1〜E12ごとの
第1奥行き情報と、対応する領域の第4奥行き情報との
和が算出される。
【0035】第2乗算手段36では、前回の加算手段3
5の出力(以下、各領域E1〜E12ごとの第3奥行き
情報という)に係数βが乗算される。係数βは、通常は
たとえば7/8に設定されている。ただし、現フィール
ドのシーンが、前フィールドのシーンから変化(シーン
チェンジ)したときには、係数βは0に設定される。
【0036】したがって、現フィールドのシーンが、前
フィールドのシーンから変化していない場合には、第1
乗算手段34によって、奥行き情報選択手段33から出
力された各領域E1〜E12ごとの第1奥行き情報に1
/8がそれぞれ乗算される。これにより、各領域E1〜
E12ごとの第2奥行き情報が得られる。
【0037】各領域E1〜E12ごとの第2奥行き情報
は、加算手段35に送られる。加算手段35には、さら
に、加算手段35から前回出力された各領域E1〜E1
2ごとの第3奥行き情報に第2乗算手段36によって7
/8が乗算されることによって得られた各領域E1〜E
12ごとの第4奥行き情報も入力している。
【0038】加算手段35では、各領域E1〜E12の
第2奥行き情報と、対応する領域の第4奥行き情報との
和がそれぞれ算出される。これにより、各領域E1〜E
12ごとの第3奥行き情報が得られる。この各領域E1
〜E12ごとの第3奥行き情報が、視差情報として出力
される。
【0039】現フィールドのシーンが、前フィールドの
シーンから変化している場合には、第1乗算手段34に
よって、奥行き情報選択手段33から出力された各領域
E1〜E12ごとの奥行き情報に1がそれぞれ乗算され
る。したがって、第1乗算手段34からは、奥行き情報
選択手段33から出力された各領域E1〜E12ごとの
奥行き情報がそのまま出力される。
【0040】第2乗算手段36の係数は0であるので、
第2乗算手段36の出力は0である。したがって、加算
手段35からは、奥行き情報選択手段33から出力され
た各領域E1〜E12ごとの奥行き情報がそのまま出力
される。つまり、現フィールドのシーンが、前フィール
ドのシーンから変化している場合には、奥行き情報選択
手段33から出力された各領域E1〜E12ごとの奥行
き情報が、各領域E1〜E12ごとの視差情報として、
出力される。
【0041】放送局は、このようにして得られた各領域
E1〜E12ごとの視差情報と、2次元映像信号を、P
IDを変えて送出する。
【0042】〔3〕ユーザ側端末の説明
【0043】図6は、ユーザ側端末の構成を示してい
る。図6においては、音声の再生に関する部分は省略さ
れている。
【0044】チューナ201には、放送局から送られて
きたMPEG2トランスポートストリームが入力され
る。チューナ201では、周波数変換、デジタル復調等
の処理が行われる。チューナ201の出力は多重分離回
路(デマックス回路)202に送られる。多重分離回路
202は、チューナ201から送られてくるデータか
ら、PIDに基づいて映像データおよび視差データ(視
差情報)をそれぞれ分離する。
【0045】多重分離回路202で分離された映像用デ
ータは、MPEG2デコーダ(映像デコーダ)203に
送られてデコードされる。MPEG2デコーダ203に
よって得られた映像データ(2次元映像データ)および
タイミング制御信号(Hsync、Vsync、CL
K)は、立体映像生成回路205に送られる。
【0046】多重分離回路202で分離された視差デー
タは、視差デコーダ204に送られてデコードされる。
視差デコーダ204によって得られた視差情報(領域E
1〜E12ごとの視差情報)は、立体映像生成回路20
5に送られる。
【0047】立体映像生成回路205では、MPEG2
デコーダ203によって得られた映像信号(2次元映像
信号)およびタイミング制御信号ならびに視差デコーダ
204によって得られた視差情報に基づいて、右目用映
像信号と左目用映像信号とを生成する。得られた右目用
映像信号と左目用映像信号とは、図示しない3次元表示
装置に送られ、3次元映像が表示される。
【0048】図7は、立体映像生成回路205の構成を
示している。
【0049】MPEG2デコーダ203によって得られ
た映像データは、輝度データY、色差データ(R−Y)
および色差データ(B−Y)からなる。図7において
は、輝度データYに対する処理のみしか示されていない
が、色差データ(R−Y)、(B−Y)に対しても同様
な処理が行われる。
【0050】MPEG2デコーダ203によって得られ
た輝度データY(Y−IN)は、左映像用任意画素遅延
FIFO11および右映像用任意画素遅延FIFO21
に送られる。
【0051】MPEG2デコーダ203によって得られ
たタイミング制御信号(Hsync、Vsync、CL
K)は、タイミング信号発生回路51に送られる。
【0052】視差デコーダ204によって得られた領域
E1〜E12ごとの視差情報は、映像データ(Y−I
N)と同期して、視差情報記憶手段60に順次送られ
る。視差情報記憶手段60は、領域E1〜E12にそれ
ぞれ対応して設けられた第1〜第12の視差レジスタ6
1〜72を備えている。第1〜第12の視差レジスタ6
1〜72には、各領域E1〜E12に対する視差情報が
格納される。
【0053】立体映像生成回路205は、各領域E1〜
E12に対する視差情報に基づいて、映像データの各フ
ィールドの各画素位置ごとの視差情報を生成する。そし
て、得られた各画素位置ごとの視差情報に基づいて、F
IFO11、21から映像信号を読み出す際の読み出し
アドレスが左映像用任意画素遅延FIFO11と右映像
用任意画素遅延FIFO21との間でずれるように、F
IFO11、21の読み出しアドレスを制御する。した
がって、左映像用任意画素遅延FIFO11から読み出
された左映像信号の水平位相と、右映像用任意画素遅延
FIFO21から読み出された右映像信号の水平位相が
異なるようになる。
【0054】左映像用任意画素遅延FIFO11から読
み出された左映像信号(YL−OUT)は、図示しない
DA変換回路によってアナログ信号に変換された後、図
示しない立体表示装置に送られる。右映像用任意画素遅
延FIFO21から読み出された右映像信号(YR−O
UT)は、図示しないDA変換回路によってアナログ信
号に変換された後、図示しない立体表示装置に送られ
る。
【0055】左映像信号の水平位相と、右映像信号の水
平位相は異なっているので、左映像と右映像との間に視
差が発生する。この結果、左映像を左目のみで観察し、
右映像を右目のみで観察すると、被写体が背景に対して
前方位置にあるような立体映像が得られる。
【0056】ところで、視差デコーダ204によって得
られた視差情報は、各領域E1〜E12の中心位置に対
する視差情報である。立体映像生成回路205では、各
領域E1〜E12の中心位置に対する視差情報に基づい
て、1フィールド画面の各画素位置に対する視差情報が
求められる。そして、各画素位置に対する2次元映像信
号から、その画素位置に対する視差情報に応じた視差を
有する左映像と右映像とを生成するために、各画素位置
に対する視差情報に基づいて、左映像用任意画素遅延F
IFO11および右映像用任意画素遅延FIFO21の
読み出しアドレスが制御される。
【0057】1フィールド画面の各画素位置に対する視
差情報は、タイミング信号発生回路51、視差補間係数
発生回路52、視差情報記憶手段60、視差選択回路8
0、第1〜第4乗算器81〜84および加算回路85に
よって、生成される。
【0058】映像データの水平同期信号Hsyncおよ
び垂直同期信号Vsyncは、タイミング信号発生回路
51に入力している。また、各水平期間の水平アドレス
を検出するためのクロック信号CLKもタイミング信号
発生回路51に入力している。
【0059】タイミング信号発生回路51は、水平同期
信号Hsync、垂直同期信号Vsyncおよびクロッ
ク信号CLKに基づいて、映像データの絶対的水平位置
を表す水平アドレス信号HAD、映像データの絶対的垂
直位置を表す垂直アドレス信号VAD、映像データの相
対的水平位置を表す相対的水平位置信号HPOSおよび
映像データの相対的垂直位置を表す相対的垂直位置信号
VPOSを生成して出力する。
【0060】映像データの相対的水平位置および相対的
垂直位置について説明する。
【0061】図3に示されている動きベクトル検出領域
E1〜E12は、次のように設定されている。画面全体
が図3に点線で示すように、4行5列の20個の領域
(以下、第1分割領域という)に分割されている。そし
て、左上端の第1分割領域の中心、右上端の第1分割領
域の中心、左下端の第1分割領域の中心および右下端の
第1分割領域の中心を4頂点とする四角形領域が3行4
列の12個の領域(以下、第2分割領域という)に分割
され、各第2分割領域が動きベクトル検出領域E1〜E
12として設定されている。
【0062】第1分割領域の水平方向の画素数がmで表
され、第1分割領域の垂直方向の画素数がnとして表さ
れている。映像データの相対的水平位置は、各第1分割
領域の左端を0とし、右端をmとして、0〜(m−1)
で表される。映像データの相対的垂直位置は、各第1分
割領域の上端を0とし、下端をnとして、0〜(n−
1)で表される。
【0063】映像データの相対的水平位置信号HPOS
および相対的垂直位置VPOSは、視差補間係数発生回
路52に送られる。視差補間係数発生回路52は、相対
的水平位置信号HPOS、相対的垂直位置VPOSおよ
び次の数式1に基づいて、第1視差補間係数KUL、第
2視差補間係数KUR、第3視差補間係数KDLおよび
第4視差補間係数KDRを生成して出力する。
【0064】
【数1】
【0065】1フィールド画面の各画素位置に対する視
差情報を生成する方法の基本的な考え方について、図8
を用いて説明する。水平アドレス信号HADおよび垂直
アドレス信号VADによって表されている水平垂直位置
(以下、注目位置という)が図8のPxyであるとす
る。注目位置Pxyに対する視差情報を求める場合につ
いて説明する。
【0066】(1)まず、各領域E1〜E12に対する
視差情報のうちから、注目位置Pxyが含まれる第1分
割領域の4頂点、この例ではPE1、PE2、PE5、
PE6を中心とする動きベクトル検出領域E1、E2、
E5、E6に対する視差情報が、それぞれUL、UR、
DL、DRとして抽出される。つまり、注目位置Pxy
が含まれる第1分割領域の4頂点のうち、左上の頂点を
中心とする領域E1の視差情報が第1視差情報ULとし
て、右上の頂点を中心とする領域E2の視差情報が第2
視差情報URとして、左下の頂点を中心とする領域E5
の視差情報が第3視差情報DLとして、右下の頂点を中
心とする領域E6の視差情報が第4視差情報DRとして
抽出される。
【0067】ただし、注目位置が含まれる第1分割領域
が、左上端の第1分割領域である場合のように、注目位
置が含まれる第1分割領域の4頂点のうち1つの頂点の
みが動きベクトル検出領域の中心に該当するような場合
には、その動きベクトル検出領域の視差情報が、第1〜
第4の視差情報UL、UR、DL、DRとして抽出され
る。
【0068】また、注目位置が含まれる第1分割領域
が、左上端の第1分割領域の右隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち下側の2つの頂点のみが動きベクトル検出領域
の中心に該当するような場合には、注目位置が含まれる
第1分割領域の4頂点のうち上側の2つの頂点に対応す
る視差情報UL、URとしては、その下側の頂点を中心
とする領域の視差情報が抽出される。
【0069】また、注目位置が含まれる第1分割領域
が、左上端の第1分割領域の下隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち右側の2つの頂点のみが動きベクトル検出領域
の中心に該当するような場合には、注目位置が含まれる
第1分割領域の4頂点のうち左側の2つの頂点に対応す
る視差情報UL、DLとしては、その右側の頂点を中心
とする領域の視差情報が抽出される。
【0070】また、注目位置が含まれる第1分割領域
が、右下端の第1分割領域の左隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち上側の2つの頂点のみが動きベクトル検出領域
の中心に該当するような場合には、注目位置が含まれる
第1分割領域の4頂点のうち下側の2つの頂点に対応す
る視差情報DL、DRとしては、その上側の頂点を中心
とする領域の視差情報が抽出される。
【0071】また、注目位置が含まれる第1分割領域
が、右下端の第1分割領域の上隣の第1分割領域である
場合のように、注目位置が含まれる第1分割領域の4頂
点のうち左側の2つの頂点のみが動きベクトル検出領域
の中心に該当するような場合には、注目位置が含まれる
第1分割領域の4頂点のうち右側の2つの頂点に対応す
る視差情報UR、DRとしては、その左側の頂点を中心
とする領域の視差情報が抽出される。
【0072】(2)次に、第1〜第4の視差補間係数K
UL、KUR、KDLおよびKDRが求められる。
【0073】第1の視差補間係数KULは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの右辺までの距離ΔX
Rとの比{(m−HPOS)/m}と、第1分割領域e
の垂直方向幅nに対する、注目位置Pxyから第1分割
領域eの下辺までの距離ΔYDとの比{(n−VPO
S)/n}との積によって求められる。すなわち、第1
の視差補間係数KULは、注目位置Pxyを含む第1分
割領域eの左上頂点PE1と注目位置Pxyとの距離が
小さいほど大きくなる。
【0074】第2の視差補間係数KURは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの左辺までの距離ΔX
Lとの比(HPOS/m}と、第1分割領域eの垂直方
向幅nに対する、注目位置Pxyから第1分割領域eの
下辺までの距離ΔYDとの比{(n−VPOS)/n}
との積によって求められる。すなわち、第2の視差補間
係数KURは、注目位置Pxyを含む第1分割領域eの
右上頂点PE2と注目位置Pxyとの距離が小さいほど
大きくなる。
【0075】第3の視差補間係数KDLは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの右辺までの距離ΔX
Rとの比{(m−HPOS)/m}と、第1分割領域e
の垂直方向幅nに対する、注目位置Pxyから第1分割
領域eの上辺までの距離ΔYUとの比(VPOS/n)
との積によって求められる。すなわち、第3の視差補間
係数KDLは、注目位置Pxyを含む第1分割領域eの
左下頂点PE5と注目位置Pxyとの距離が小さいほど
大きくなる。
【0076】第4の視差補間係数KDRは、注目位置P
xyを含む第1分割領域eの水平方向幅mに対する、注
目位置Pxyから第1分割領域eの左辺までの距離ΔX
Lとの比(HPOS/m)と、第1分割領域eの垂直方
向幅nに対する、注目位置Pxyから第1分割領域eの
上辺までの距離ΔYUとの比(VPOS/n)との積に
よって求められる。すなわち、第4の視差補間係数KD
Rは、注目位置Pxyを含む第1分割領域eの右下頂点
PE6と注目位置Pxyとの距離が小さいほど大きくな
る。
【0077】(3)上記(1)で抽出された第1〜第4
の視差情報UL、UR、DL、DRに、それぞれ上記
(2)で算出された第1〜第4の視差補間係数KUL、
KUR、KDL、KDRがそれぞれ乗算される。そし
て、得られた4つの乗算値が加算されることにより、注
目位置Pxyに対する視差情報が生成される。
【0078】視差情報記憶手段60の後段には、視差選
択回路80が設けられている。視差選択回路80には、
各視差レジスタ61〜72から視差情報がそれぞれ送ら
れる。さらに、視差選択回路80には、タイミング信号
発生回路51から水平アドレス信号HADおよび垂直ア
ドレス信号VADが送られている。
【0079】視差選択回路80は、図9(a)に示され
ている規則にしたがって、水平アドレス信号HADおよ
び垂直アドレス信号VADに対応する領域(図8の例で
は、注目位置を含む第1領域の左上頂点を中心とする動
きベクトル検出領域)に対する視差情報を、第1視差情
報ULとして選択して出力する。さらに、視差選択回路
80は、図9(b)に示されている規則にしたがって、
水平アドレス信号HADおよび垂直アドレス信号VAD
に対応する領域(図8の例では、注目位置を含む第1領
域の右上頂点を中心とする動きベクトル検出領域)に対
する視差情報を、第2視差情報URとして選択して出力
する。
【0080】さらに、視差選択回路80は、図9(c)
に示されている規則にしたがって、水平アドレス信号H
ADおよび垂直アドレス信号VADに対応する領域(図
8の例では、注目位置を含む第1領域の左下頂点を中心
とする動きベクトル検出領域)に対する視差情報を、第
3視差情報DLとして選択して出力する。さらに、視差
選択回路80は、図9(d)に示されている規則にした
がって、水平アドレス信号HADおよび垂直アドレス信
号VADに対応する領域(図8の例では、注目位置を含
む第1領域の右下頂点を中心とする動きベクトル検出領
域)に対する視差情報を、第4視差情報DRとして選択
して出力する。図9において、たとえば、0〜mのよう
に、a〜bで表現されている記号”〜”は、a以上b未
満を意味する記号として用いられている。
【0081】視差選択回路80によって選択された第1
視差情報UL、第2視差情報UR、第3視差情報DLお
よび第4視差情報DRは、それぞれ第1、第2、第3お
よび第4の乗算器81、82、83、84に入力する。
【0082】第1、第2、第3および第4の乗算器8
1、82、83、84には、それぞれ視差補間係数発生
回路52からの第1視差補間係数KUL、第2視差補間
係数KUR、第3視差補間係数KDLおよび第4視差補
間係数KDRも入力している。
【0083】第1乗算器81は、第1視差情報ULに第
1視差補間係数KULを乗算する。第2乗算器82は、
第2視差情報URに第2視差補間係数KURを乗算す
る。第3乗算器83は、第3視差情報DLに第3視差補
間係数KDLを乗算する。第4乗算器84は、第4視差
情報DRに第4視差補間係数KDRを乗算する。
【0084】各乗算器81、82、83、84の出力
は、加算回路85によって加算される。これにより、注
目位置に対する視差情報PRが得られる。
【0085】各任意画素遅延FIFO11、21は、1
画素より小さい単位での水平位相制御を行なうために、
ぞれぞれ2つのラインメモリ11a、11b、21a、
21bを備えている。各任意画素遅延FIFO11、2
1内の2つのラインメモリ11a、11b、21a、2
1bには、それぞれY信号が入力されているとともにク
ロック信号CLKが入力している。
【0086】タイミング信号発生回路51から出力され
ている水平アドレス信号HADは、標準アドレス発生回
路90にも入力している。標準アドレス発生回路90
は、各任意画素遅延FIFO11、21内の2つのライ
ンメモリ11a、11b、21a、21bに対する標準
書き込みアドレスWADおよび標準読み出しアドレスR
ADを生成して出力する。また、標準アドレス発生回路
90は、2D/3D変換装置によって得られる左映像信
号および右映像信号に付加される同期信号Csyncを
も出力する。この同期信号Csyncによって表される
水平同期信号は、入力映像信号の水平同期信号Hsyn
cより、所定クロック数分遅れた信号となる。
【0087】標準読み出しアドレスRADは、標準読み
出しアドレスによって規定される基準水平位相に対し
て、各任意画素遅延FIFO11、21に入力される映
像信号の水平位相を進めたり遅らしたりできるようにす
るために、標準書き込みアドレスWADに対して、所定
クロック数分遅れている。タイミング信号発生回路51
から出力される標準書き込みアドレスWADは、各任意
画素遅延FIFO11、21内の2つのラインメモリ1
1a、11b、21a、21bに、書き込みアドレスを
示す書き込み制御信号として入力する。
【0088】タイミング信号発生回路51から出力され
る標準読み出しアドレスRADは、加算器91および減
算器92にそれぞれ入力する。加算器91および減算器
92には、加算回路85から出力される注目位置の視差
情報PRも入力している。
【0089】加算器91では、標準読み出しアドレスR
ADに視差情報PRが加算される。これにより、左映像
用読み出しアドレスPRLが得られる。
【0090】左映像用読み出しアドレスPRLの整数部
PRL1は、左映像用任意画素遅延FIFO11内の第
1のラインメモリ11aに読み出しアドレスRADL1
として入力する。したがって、第1のラインメモリ11
aのアドレスRADL1に対応するアドレスからY信号
が読み出される。読み出されたY信号は、第1の左映像
用乗算器101に入力する。
【0091】左映像用読み出しアドレスPRLの整数部
PRL1に1が加算されたアドレス値は、左映像用任意
画素遅延FIFO11内の第2のラインメモリ11bに
読み出しアドレスRADL2として入力する。したがっ
て、第2のラインメモリ11bのアドレスRADL2に
対応するアドレスからY信号が読み出される。読み出さ
れたY信号は、第2の左映像用乗算器102に入力す
る。
【0092】第1のラインメモリ11aに対する読み出
しアドレスRADL1と、第2のラインメモリ11bに
対する読み出しアドレスRADL2とは、1だけ異なっ
ているので、第1のラインメモリ11aから読み出され
たY信号と、第2のラインメモリ11bから読み出され
たY信号とは、水平位置が1だけずれた信号となる。
【0093】左映像用読み出しアドレスPRLの少数部
PRL2は、第2の左映像補間係数として第2の左映像
用乗算器102に入力する。左映像用読み出しアドレス
PRLの少数部PRL2を1から減算した値(1−PR
L2)は、第1の左映像補間係数として第1の左映像用
乗算器101に入力する。
【0094】したがって、第1の左映像用乗算器101
では、第1のラインメモリ11aから読み出されたY信
号に第1の左映像補間係数(1−PRL2)が乗算され
る。第2の左映像用乗算器102では、第2のラインメ
モリ11bから読み出されたY信号に第2の左映像補間
係数PRL2が乗算される。そして、各乗算器101、
102によって得られたY信号は加算器103で加算さ
れた後、左映像用Y信号YL−OUTとして、出力され
る。
【0095】これにより、標準読み出しアドレスRAD
によって規定される基準水平位相に対して、水平位相量
が注目位置に対する視差情報に応じた量だけ遅れた左映
像用Y信号が得られる。
【0096】減算器92では、標準読み出しアドレスR
ADから視差情報PRが減算される。これにより、右映
像用読み出しアドレスPRRが得られる。
【0097】右映像用読み出しアドレスPRRの整数部
PRR1は、右映像用任意画素遅延FIFO21内の第
1のラインメモリ21aに読み出しアドレスRADR1
として入力する。したがって、第1のラインメモリ21
aのアドレスRADR1に対応するアドレスからY信号
が読み出される。読み出されたY信号は、第1の右映像
用乗算器111に入力する。
【0098】右映像用読み出しアドレスPRRの整数部
PRR1に1が加算されたアドレス値は、右映像用任意
画素遅延FIFO21内の第2のラインメモリ21bに
読み出しアドレスRADR2として入力する。したがっ
て、第2のラインメモリ21bのアドレスRADR2に
対応するアドレスからY信号が読み出される。読み出さ
れたY信号は、第2の右映像用乗算器112に入力す
る。
【0099】第1のラインメモリ21aに対する読み出
しアドレスRADR1と、第2のラインメモリ21bに
対する読み出しアドレスRADR2とは、1だけ異なっ
ているので、第1のラインメモリ21aから読み出され
たY信号と、第2のラインメモリ21bから読み出され
たY信号とは、水平位置が1だけずれた信号となる。
【0100】右映像用読み出しアドレスPRRの少数部
PRR2は、第2の右映像補間係数として第2の右映像
用乗算器112に入力する。右映像用読み出しアドレス
PRRの少数部PRR2を1から減算した値(1−PR
R2)は、第1の右映像補間係数として第1の右映像用
乗算器111に入力する。
【0101】したがって、第1の右映像用乗算器111
では、第1のラインメモリ21aから読み出されたY信
号に第1の右映像補間係数(1−PRR2)が乗算され
る。第2の右映像用乗算器112では、第2のラインメ
モリ21bから読み出されたY信号に第2の右映像補間
係数PRR2が乗算される。そして、各乗算器111、
112によって得られたY信号は加算器113で加算さ
れた後、右映像用Y信号YR−OUTとして、出力され
る。
【0102】これにより、標準読み出しアドレスRAD
によって規定される基準水平位相に対して、水平位相量
が注目位置に対する視差情報に応じた量だけ進んだ右映
像用Y信号が得られる。
【0103】図10は、注目位置に対する視差情報が0
の場合の、各部の信号を示している。
【0104】視差情報が0の場合には、加算器91から
出力される左映像用読み出しアドレスPRLと、減算器
92から出力される右映像用読み出しアドレスPRR
は、ともに標準読み出しアドレスRADと等しい少数部
のない整数部のみからなるアドレスとなる。
【0105】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aに対する読み出し
アドレスRADL1と、右映像用任意画素遅延FIFO
21内の第1のラインメモリ21aに対する読み出しア
ドレスRADR1は、標準読み出しアドレスRADと等
しいアドレスとなる。
【0106】また、左映像用任意画素遅延FIFO11
内の第2のラインメモリ11bに対する読み出しアドレ
スRADL2と、右映像用任意画素遅延FIFO21内
の第2のラインメモリ21bに対する読み出しアドレス
RADR2は、標準読み出しアドレスRADより1だけ
大きい値となる。
【0107】また、第1の左映像補間係数(1−PRL
2)および第1の右映像補間係数(1−PRR2)は1
となり、第2の左映像補間係数PRL2および第2の右
映像補間係数PRR2は0となる。
【0108】この結果、左映像用任意画素遅延FIFO
11内の第1のラインメモリ11aの標準アドレスRA
Dに対応するアドレスから読み出されたY信号が加算器
103から左映像用Y信号YL−OUTとして出力さ
れ、右映像用任意画素遅延FIFO21内の第1のライ
ンメモリ21aの標準アドレスRADに対応するアドレ
スから読み出されたY信号が加算器113から右映像用
Y信号YR−OUTとして出力される。つまり、水平方
向の位相ずれ量が同じ2つのY信号、すなわち視差のな
い2つのY信号が左映像用Y信号および右映像用Y信号
として出力される。
【0109】図11は、ある注目位置に対する標準書き
込みアドレスWADが20であり、上記注目位置に対す
る標準読み出しアドレスRADが10であり、上記注目
位置に対する視差情報が1.2の場合の、各アドレス値
の具体例を示している。図12は、その際の各部の信号
を示している。
【0110】この場合には、加算器91から出力される
左映像用読み出しアドレスPRLは、11.2となり、
その整数部PRL1は11となり、その少数部PRL2
は0.2となる。
【0111】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aに対する読み出し
アドレスRADL1は11となり、第2のラインメモリ
11bに対する読み出しアドレスRADL2は12とな
る。また、第1の左映像補間係数KL1{=(1−PR
L2)}は0.8となり、第2の左映像補間係数KL2
(=PRL2)は0.2となる。
【0112】したがって、左映像用任意画素遅延FIF
O11内の第1のラインメモリ11aのアドレス11か
らY信号(Y11)が読み出され、第1乗算器101から
は読み出されたY信号(Y11)の0.8倍の信号(0.
8*Y11)が出力される。
【0113】一方、左映像用任意画素遅延FIFO11
内の第2のラインメモリ11bのアドレス12からY信
号(Y12)が読み出され、第2乗算器102からは読み
出されたY信号(Y12)の0.2倍の信号(0.2*Y
12)が出力される。そして、加算器103からは、0.
8*Y11+0.2*Y12に相当する左映像用Y信号YL
−OUTが出力される。つまり、読み出しアドレス1
1.2に相当するY信号が、左映像用Y信号YL−OU
Tとして出力される。
【0114】減算器92から出力される右映像用読み出
しアドレスPRRは、8.8となり、その整数部PRR
1は8となり、その少数部PRR2は0.8となる。
【0115】したがって、右映像用任意画素遅延FIF
O21内の第1のラインメモリ21aに対する読み出し
アドレスRADR1は8となり、第2のラインメモリ2
1bに対する読み出しアドレスRADR2は9となる。
また、第1の右映像補間係数KR1{=(1−PRR
2)}は0.2となり、第2の右映像補間係数KR2
(=PRR2)は0.8となる。
【0116】したがって、右映像用任意画素遅延FIF
O21内の第1のラインメモリ21aのアドレス8から
Y信号(Y8 )が読み出され、第1乗算器111からは
読み出されたY信号(Y8 )の0.2倍の信号(0.2
*Y8 )が出力される。
【0117】一方、右映像用任意画素遅延FIFO21
内の第2のラインメモリ21bのアドレス9からY信号
(Y9 )が読み出され、第2乗算器112からは読み出
されたY信号(Y9 )の0.8倍の信号(0.8*
9 )が出力される。そして、加算器113からは、
0.2*Y8 +0.8*Y9 に相当する右映像用Y信号
YR−OUTが出力される。つまり、読み出しアドレス
8.8に相当するY信号が、右映像用Y信号YR−OU
Tとして出力される。
【0118】この結果、11.2−8.8=2.4の視
差、つまり、視差情報1.2の2倍の視差を互いに有す
る左映像および右映像が得られる。
【0119】上記実施の形態によれば、ユーザ側端末に
3次元映像番組を提供する際には、放送局は2次元映像
データと視差情報とを送出すればよいので、従来のよう
に右目用映像データと左目用映像データとを送出する場
合に比べて、伝送帯域を狭くすることができる。
【0120】上記実施の形態では、2次元映像の各領域
E1〜E12の視差情報は2次元映像の各領域E1〜E
12の動きベクトルの水平成分に基づいて求められてい
るが、2次元映像の各領域E1〜E12の視差情報を、
2次元映像の各領域E1〜E12の映像の遠近に関する
画像特徴量に基づいて求めるようにしてもよい。映像の
遠近に関する画像特徴量としては、高周波成分の積算
値、輝度コントラスト、輝度積算値および彩度積算値の
うちから選択された任意の1つまたは任意の組み合わせ
が用いられる。
【0121】
【発明の効果】この発明によれば、ユーザ側端末に3次
元映像番組を提供する際において、伝送帯域を従来に比
べて狭くすることができる。
【図面の簡単な説明】
【図1】2次元映像データと視差データとを伝送する際
の、MPEG2トランスポートストリームを示す模式図
である。
【図2】視差情報生成回路を示すブロック図である。
【図3】動きベクトル検出領域を示す模式図である。
【図4】CPUによる奥行き情報の生成処理手順を示す
機能ブロック図である。
【図5】CPUによる奥行き情報の生成方法を説明する
ための説明図である。
【図6】ユーザ側端末の構成を示すブロック図である。
【図7】立体映像生成回路の構成を示すブロック図であ
る。
【図8】注目画素に対する視差情報を生成する方法を説
明するための説明図である。
【図9】視差選択回路による選択規則を示す図である。
【図10】視差情報が0の場合の各部の信号を示すタイ
ムチャートである。
【図11】視差情報が1.2の場合の各アドレス値を視
差制御回路に付記したブロック図である。
【図12】視差情報が1.2の場合の各部の信号を示す
タイムチャートである。
【符号の説明】
1 AD変換回路 2 動きベクトル検出回路 3 CPU 11 左映像用任意画素遅延FIFO 21 右映像用任意画素遅延FIFO 11a、11b、21a、21b ラインメモリ 51 タイミング信号発生回路 52 視差補間係数発生回路 60 視差情報記憶手段 61〜72 視差レジスタ 80 視差選択回路 81〜84 乗算器 85 加算回路 90 標準アドレス発生回路 91 加算器 92 減算器 101、102、111、112 乗算器 103、113 加算器 201 チューナ 202 多重分離回路 203 MPEG2デコーダ 204 視差デコーダ 205 立体映像生成回路
───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 友二 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 2次元映像データと、上記2次元映像デ
    ータから3次元映像信号を生成するために必要な、上記
    2次元映像データの各フィールドにおける各分割領域毎
    の視差情報とを、伝送することを特徴とする3次元映像
    伝送方法。
  2. 【請求項2】 放送局は、2次元映像データと、上記2
    次元映像データの各フィールドにおける各分割領域毎の
    視差情報とを伝送する手段を備え、 ユーザ側端末は、受信した2次元映像データと、上記各
    分割領域毎の視差情報とに基づいて、3次元映像データ
    を生成する手段を備えているデジタル放送システム。
  3. 【請求項3】 ユーザ側端末は、受信した視差情報に基
    づいて、受信した2次元映像データの各フィールドにお
    ける所定単位領域ごとの視差情報を生成する手段、およ
    び受信した2次元映像データの各所定単位領域内の信号
    から、その所定単位領域に対応する視差情報に応じた水
    平位相差を有する第1映像信号と第2映像信号とをそれ
    ぞれ生成する手段を備えている請求項2に記載のデジタ
    ル放送システム。
  4. 【請求項4】 放送局から送られてきた、2次元映像デ
    ータと、上記2次元映像データから3次元映像信号を生
    成するために必要な、上記2次元映像データの各フィー
    ルドにおける各分割領域毎の視差情報とに基づいて、3
    次元映像データを生成する3次元映像データ生成手段を
    備えているデジタル放送システムにおけるユーザ側端
    末。
  5. 【請求項5】 3次元映像データ生成手段は、上記視差
    情報に基づいて、上記2次元映像データの各フィールド
    における所定単位領域ごとの視差情報を生成する手段、
    および上記2次元映像データの各所定単位領域内の信号
    から、その所定単位領域に対応する視差情報に応じた水
    平位相差を有する第1映像信号と第2映像信号とをそれ
    ぞれ生成する手段を備えている請求項4に記載のデジタ
    ル放送システムにおけるユーザ側端末。
JP33923296A 1996-12-19 1996-12-19 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末 Pending JPH10178594A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33923296A JPH10178594A (ja) 1996-12-19 1996-12-19 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33923296A JPH10178594A (ja) 1996-12-19 1996-12-19 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末

Publications (1)

Publication Number Publication Date
JPH10178594A true JPH10178594A (ja) 1998-06-30

Family

ID=18325510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33923296A Pending JPH10178594A (ja) 1996-12-19 1996-12-19 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末

Country Status (1)

Country Link
JP (1) JPH10178594A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004004350A1 (ja) * 2002-06-28 2004-01-08 Sharp Kabushiki Kaisha 画像データ配信システムならびにその画像データ送信装置および画像データ受信装置
WO2012147596A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
JP2014052934A (ja) * 2012-09-10 2014-03-20 Mega Chips Corp 携帯端末装置、プログラムおよび入力方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004004350A1 (ja) * 2002-06-28 2004-01-08 Sharp Kabushiki Kaisha 画像データ配信システムならびにその画像データ送信装置および画像データ受信装置
US7734085B2 (en) 2002-06-28 2010-06-08 Sharp Kabushiki Kaisha Image data delivery system, image data transmitting device thereof, and image data receiving device thereof
WO2012147596A1 (ja) * 2011-04-28 2012-11-01 ソニー株式会社 画像データ送信装置、画像データ送信方法、画像データ受信装置および画像データ受信方法
CN103026725A (zh) * 2011-04-28 2013-04-03 索尼公司 图像数据发送设备、图像数据发送方法、图像数据接收设备以及图像数据接收方法
JP2014052934A (ja) * 2012-09-10 2014-03-20 Mega Chips Corp 携帯端末装置、プログラムおよび入力方法

Similar Documents

Publication Publication Date Title
KR100313178B1 (ko) 텔레비전신호송수신방법및장치
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
JP4843753B2 (ja) 三次元画像生成方法及び装置
JP5429034B2 (ja) 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
KR20000067890A (ko) 2차원 영상을 3차원 영상으로 변환하는 장치 및 방법
CA2302199A1 (en) Image processing method and apparatus
EP1199888B1 (en) Image data output device and receiving device
CN102783161A (zh) 用于3d tv的视差分布估计
JPH10150608A (ja) デジタル放送システムのユーザ側端末
JPH1051812A (ja) 2次元映像を3次元映像に変換する装置および方法
US20120307153A1 (en) Video processing device and video processing method
AU2012279594A1 (en) Transmitter, transmission method, and receiver
JP3235776B2 (ja) 立体感調整方法および立体感調整装置
JPH11239364A (ja) 立体感調整方法及び立体感調整装置
US20060017853A1 (en) Method of composing video signal, apparatus to compose video signal, display system, display apparatus and control method of display apparatus
JP3957343B2 (ja) 2次元映像を3次元映像に変換する装置および方法
JPH0918798A (ja) 文字処理機能付き映像表示装置
JPH10178594A (ja) 3次元映像伝送方法、デジタル放送システムおよびデジタル放送システムにおけるユーザ側端末
JP2000092516A (ja) 2次元映像を3次元映像に変換する装置および方法
JPH118862A (ja) 2次元映像を3次元映像に変換する装置および方法
JP3485764B2 (ja) 2次元映像を3次元映像に変換する装置および方法
KR100297831B1 (ko) 2차원 연속영상의 3차원 영상변환장치
KR101660910B1 (ko) 영상 데이터 처리장치 및 방법
JP3454684B2 (ja) 2次元映像を3次元映像に変換する装置
KR100230447B1 (ko) 2차원 연속영상의 3차원 영상 변환 장치 및 방법

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040316