JP2001238231A - 立体映像視覚効果付加装置及び方法 - Google Patents

立体映像視覚効果付加装置及び方法

Info

Publication number
JP2001238231A
JP2001238231A JP2000047668A JP2000047668A JP2001238231A JP 2001238231 A JP2001238231 A JP 2001238231A JP 2000047668 A JP2000047668 A JP 2000047668A JP 2000047668 A JP2000047668 A JP 2000047668A JP 2001238231 A JP2001238231 A JP 2001238231A
Authority
JP
Japan
Prior art keywords
depth
visual effect
dimensional
stereoscopic image
effect adding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000047668A
Other languages
English (en)
Inventor
Seiichi Tanaka
誠一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2000047668A priority Critical patent/JP2001238231A/ja
Publication of JP2001238231A publication Critical patent/JP2001238231A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【課題】 奥行きの矛盾がなく違和感や不快感がなく、
更に効果的で表現力が高い2次元奥行き効果と両眼視差
とによる奥行き感が知覚可能な立体映像が得られる。 【解決手段】 入力された立体映像は、左、右服用メモ
リ1,2に記録された後、左、右眼用立体効果付加部
6,7によって単眼奥行き手がかりによる立体効果が付
加される。この立体効果はユーザー入力部10によっ
て、好みに応じデザインすることが可能となっている。
立体効果が施された立体映像は左右眼用視差付加部8,
9によって両眼視差が与えられる。この両眼視差は奥行
き情報取得手段5によって得られた奥行き情報に従い設
定さえるものであり、単眼奥行き手がかりと視差視差に
よる奥行き感覚矛盾することはない。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、立体映像の映像処
理技術に関し、詳細には単眼奥行き手がかりから得られ
る奥行き効果と両眼視差によって得られる奥行き効果と
の整合性をとり、良好な立体映像の視聴ができるように
改良を図った立体映像視覚効果付加装置及び方法に関す
るものである。
【0002】
【従来の技術】映像表示技術や映像処理技術の向上に伴
い、映像内容を効果的に演出するため、特殊効果を付加
する技術が一般化している。その特殊効果の代表的なも
のとして絵画的に立体感を演出する立体効果がある。こ
れは、人間の奥行き知覚の単眼奥行き手がかり、或いは
絵画的奥行き手がかりを利用した効果である。人間は2
次元平面上に「陰影」「重なり」「キメ勾配」「輝度勾
配」「大きさの違い」「運動速度の違い」「明瞭差(ボ
ケ具合)の違い」「色の違い」が在ると、そこに奥行き
を知覚することができる。
【0003】この立体効果による演出の例を図27に示
す。図27の(A)は陰影による立体感を、(B)は重
なりによる立体感を、(C)は肌理勾配或いは疎密関係
による立体感を、(D)は大きさによる立体感を示して
いる。図27の(A)では、オブジェクト11に影を付
加することにより浮いているような立体感が得られる。
(B)ではオブジェクト17の手前にオブジェクト16
があり、その手前にオブジェクト15があるような立体
感が得られる。(C)では上方が奥に、下方が手前にあ
るような立体感が得られる。(D)は遠近法、パースペ
クティブといわれ、古くから絵画でよく用いられる効果
であり、オブジェクト27の手前にオブジェクト26が
あるような立体感が得られる。
【0004】この立体効果は、例えば、デスクトップパ
ブリッシング(DTP)用ソフトの文字飾りとして、或
いは映像(画像)製作装置の特殊効果として現在一般的
に使用されている技術である。この立体効果によって映
像の表現力が高まり、演出効果が向上することは周知で
ある。例えば、特開平5−46781号公報において、
簡単にさらには安価な計算コストで陰影付けできる方法
および装置が開示されている。また、特開平9−247
625号公報において、簡単な構成で現実的な影の画像
を生成する装置が開示されている。
【0005】一方、より臨場感、迫力ある映像を目指し
た立体映像表示技術の開発が盛んに行われている。立体
映像表示には色々な方法が提案されているが、現在最も
多く採用されている方法が両眼視差を利用した2眼式立
体表示方法である。これは左眼、左眼用に2枚の映像を
用意し、その映像に表示されるオブジェクトの位置を左
右で少しずらし映像を立体的に見せるものである。この
位置のずれ量を両眼視差といい、両眼視差を変化きせる
ことによってオブジェクトの奥行き位置をコントロール
することができる。
【0006】近年、立体映像はエンターテイメントの分
野を中心として普及が進んでおり、その表現力の高さか
らプレゼンテーションや医療の分野まで大きな市場が期
待されている。
【0007】
【発明が解決しようとする課題】この両眼視差を利用し
た立体映像に、上記の2次元立体効果を付加することに
より、更にその表現力が高まり、高臨場感と迫力が得ら
れるが、不適切な表示を行うと以下の問題が生じる可能
がある。即ち、単眼の奥行き手がかりで知覚される奥行
き感と、両眼視差によって知覚される奥行き感が矛盾す
るといった問題である。具体的には、図27の(B)で
示した奥行き関係、即ち手前からオブジェクト15,1
6,17といった奥行き関係が、両眼視差による奥行き
関係では同じ平面に設定される可能性がある。更には両
眼視差では逆の奥行き関係で表示される可能性もある。
【0008】人間の視覚系はいくつかの奥行き手がかり
を統合して奥行きを知覚するため、このような不適切な
表示で奥行き知覚に矛盾があると、映像の表現力が下が
るだけではなく、違和感や不快感を招き視聴の妨げにな
ってしまう。この問題を解決する技術は未だ無い。
【0009】本発明の目的は、上記の問題に鑑み、奥行
きの矛盾がなく違和感や不快感がなく、更に効果的で表
現力が高い2次元奥行き効果と両眼視差とによる奥行き
感が知覚可能な立体映像が得られる立体映像視覚効果付
加装置及び方法を提供するものである。
【0010】
【課題を解決するための手段】上記課題を解決するた
め、本発明は、右眼用と左眼用の2つの平面映像で構成
された立体映像に対し、立体的視覚効果を施す立体映像
視覚効果付加装置であって、前記立体映像のオブジェク
トに対して単眼奥行き手がかりにより奥行きを知覚させ
る2次元立体効果を施す2次元奥行き処理手段と、前記
2次元奥行き処理手段によって施された2次元立体効果
の奥行き情報を得る奥行き情報取得手段と、前記奥行き
情報取得手段からの奥行き情報と整合性を取り前記オブ
ジェクトに両眼視差を施す3次元奥行き処理手段と、を
備えるものである。
【0011】また、本発明の立体映像視覚効果付加装置
において、前記2次元奥行き処理手段は、前記オブジェ
クトに対して影を与え、陰影による奥行き感を知覚させ
ることを特徴とする。この場合、前記奥行き情報取得手
段は、前記オブジェクトと前記2次元奥行き処理手段に
より施された影との距離から奥行き量情報を取得するも
のでよい。
【0012】また、本発明の立体映像視覚効果付加装置
において、前記2次元奥行き処理手段は、前記オブジェ
クトに対して重なり効果を施し、重なりによる奥行き感
を知覚させることを特徴とする。この場合、前記奥行き
情報取得手段は、前記2次元奥行き処理手段により施さ
れたオブジェクトの重なり関係から奥行きの前後関係情
報を取得するものでよい。
【0013】また、本発明の立体映像視覚効果付加装置
において、前記2次元奥行き処理手段は、前記オブジェ
クトに対して異なる運動速度を設定し、運動視差による
奥行き感を知覚させることを特徴とする。この場合、前
記奥行き情報取得手段は、前記2次元奥行き処理手段に
より施されたオブジェクトの運動速度の差から奥行き量
情報を取得するものでよい。
【0014】また、本発明の立体映像視覚効果付加装置
において、前記2次元奥行き処理手段は、前記オブジェ
クトに対して肌理勾配をもったテクスチャをマッピング
し、粗密による奥行き感を知覚させることを特徴とす
る。この場合、前記奥行き情報取得手段は、前記2次元
奥行き処理手段によりマッピングされた肌理勾配をもっ
たテクスチャの密度差により奥行き量情報を取得するも
のでよい。
【0015】また、本発明の立体映像視覚効果付加装置
において、前記2次元奥行き処理手段は、前記オブジェ
クトに対して部分的に圧縮比を変え圧縮したテクスチャ
パターンをマッピングし、粗密効果による奥行き感を知
覚させることを特徴とする。この場合、前記奥行き情報
取得手段は、前記2次元奥行き処理ステップによりマッ
ピングされたテクスチャパターンの圧縮比から奥行き量
情報を取得することものでよい。
【0016】また、本発明の立体映像視覚効果付加装置
において、前記2次元奥行き処理手段は、前記オブジェ
クトに対して輝度勾配を施し、明るさ変化による奥行き
感を知覚させることを特徴とする。この場合、前記奥行
き情報取得手段は、前記2次元奥行き処理手段により施
されたオブジェクトの輝度差により奥行き量情報を取得
するものでよい。
【0017】また、本発明の立体映像視覚効果付加装置
において、前記2次元奥行き処理手段は、前記オブジェ
クトに対して遠近法に従った大きさ変化を施し、大きさ
変化による奥行き感を知覚させることを特徴とする。こ
の場合、前記奥行き情報取得手段は、前記2次元奥行き
処理手段により施されたオブジェクトの大きさの差によ
り奥行き量情報を取得するものでよい。
【0018】また、本発明の立体映像視覚効果付加装置
において、前記2次元奥行き処理手段は、前記オブジェ
クトに対してフィルターで画像ボケを施し、明瞭差によ
る奥行き感を知覚させることを特徴とする。この場合、
前記奥行き情報取得手段は、前記2次元奥行き処理手段
により施されたオブジェクトの明瞭差により奥行き量情
報を取得するものでよい。
【0019】また、本発明の体映像視覚効果付加装置に
おいて、前記2次元奥行き処理手段は、前記オブジェク
トに対して色味を変え、色による奥行き感を知覚させる
ことを特徴とする。この場合、前記奥行き情報取得手段
は、前記2次元奥行き処理手段により施されたオブジェ
クトの色が進出色か後退色かにより奥行きの前後関係情
報を取得するものである。
【0020】また、上記の課題を解決するため、本発明
は、右眼用と左眼用の2つの平面映像で構成された立体
映像に対し、立体的視覚効果を施す立体映像視覚効果付
加方法であって、前記立体映像のオブジェクトに対して
単眼奥行き手がかりにより奥行きを知覚させる2次元立
体効果を施す2次元奥行き処理ステップと、前記2次元
奥行き処理ステップによって施された2次元立体効果の
奥行き情報を得る奥行き情報取得ステップと、前記奥行
き情報取得ステップからの奥行き情報と整合性を取り前
記オブジェクトに両眼視差を施す3次元奥行き処理ステ
ップとを備えるものである。
【0021】また、本発明の記載の立体映像視覚効果付
加方法において、前記2次元奥行き処理ステップは、前
記オブジェクトに対して影を与え、陰影による奥行き感
を知覚させることを特徴とする。この場合、前記奥行き
情報取得ステップは、前記オブジェクトと前記2次元奥
行き処理ステップにより施された影との距離から奥行き
量情報を取得するものでよい。
【0022】また、本発明の立体映像視覚効果付加方法
において、前記2次元奥行き処理ステップは、前記オブ
ジェクトに対して重なりを施し、重なりによる奥行き感
を知覚させることを特徴とする。この場合、前記奥行き
情報取得ステップは、前記2次元奥行き処理ステップに
より施されたオブジェクトの重なり関係から奥行きの前
後関係情報を取得するものでよい。
【0023】また、本発明の立体映像視覚効果付加方法
において、前記2次元奥行き処理ステップは、前記オブ
ジェクトに対して異なる運動速度を設定し、運動視差に
よる奥行き感を知覚させることを特徴とする。この場
合、前記奥行き情報取得ステップは、前記2次元奥行き
処理ステップにより施されたオブジェクトの運動速度の
差から奥行き量情報を取得するものである。
【0024】また、本発明の立体映像視覚効果付加方法
において、前記2次元奥行き処理ステップは、前記オブ
ジェクトに対して肌理勾配をもったテクスチャをマッピ
ングし、粗密による奥行き感を知覚させることを特徴と
する。この場合、前記奥行き情報取得ステップは、前記
2次元奥行き処理ステップによりマッピングされた肌理
勾配をもったテクスチャの密度差により奥行き量の情報
を取得するものでよい。
【0025】また、本発明の立体映像視覚効果付加方法
において、前記2次元奥行き処理ステップは、前記オブ
ジェクトに対して部分的に圧縮比を変え圧縮したテクス
チャパターンをマッピングし、粗密効果による奥行き感
を知覚させることを特徴とする。この場合、前記奥行き
情報取得ステップは、前記2次元奥行き処理ステップに
よりマッピングされたテクスチャパターンの圧縮比から
奥行き量情報を取得するものでよい。
【0026】また、本発明の立体映像視覚効果付加方法
において、前記2次元奥行き処理ステップは、前記オブ
ジェクトに対して輝度勾配を施し、明るさ変化による奥
行き感を知覚きせることを特徴とする。この場合、前記
奥行き情報取得ステップは、前記2次元奥行き処理ステ
ップにより施されたオブジェクトの輝度差により奥行き
量情報を取得するものでよい。
【0027】また、本発明の立体映像視覚効果付加方法
において、前記2次元奥行き処理ステップは、前記オブ
ジェクトに対して遠近法に従った大きさ変化を施し、大
きさ変化による奥行き感を知覚させることを特徴とす
る。この場合、前記奥行き情報取得ステップは、前記2
次元奥行き処理ステップにより施されたオブジェクトの
大きさの差により奥行き量情報を取得するものである。
【0028】また、本発明の立体映像視覚効果付加方法
において、前記2次元奥行き処理ステップは、前記オブ
ジェクトに対してフィルターで画像ボケを施し、明瞭差
による奥行き感を知覚させることを特徴とする。この場
合、前記奥行き情報取得ステップは、前記2次元奥行き
処理ステップにより施されたオブジェクトの明瞭差によ
り奥行き量情報を取得するものである。
【0029】また、本発明の立体映像視覚効果付加方法
において、前記2次元奥行き処理ステップは、前記オブ
ジェクトに対して色味を変え、色による奥行きを知覚さ
せることを特徴とする。この場合、前記奥行き情報取得
ステップは、前記2次元奥行き処理ステップにより施さ
れたオブジェクトの色が進出色か後退色かにより奥行き
の前後関係情報を取得するものでよい。
【0030】本発明においては、立体映像のオブジェク
トに対して単眼奥行き手がかりにより奥行きを知覚させ
る2次元立体効果を施すとともに、2次元立体効果の奥
行き情報を得て、この奥行き情報と整合性を取り前記オ
ブジェクトに両眼視差を施すので、単眼の奥行き手がか
りで知覚される奥行き感と、両眼視差によって知覚され
る奥行き感との整合性がとられ、違和感や不快感がなく
表現力が高い立体映像を提供する装置が実現可能とな
る。特に、単眼の奥行き手がかりで知覚される奥行き感
は、上述したようにさまざまの手法があり、これらに対
してそれぞれ奥行き情報を得る手段が存在する。
【0031】
【発明の実施の形態】以下、本発明の実施形態について
図面を参照しながら説明する。
【0032】<第1実施形態>まず、立体映像視覚効果
付加装置の第1実施形態を図1を用いて説明する。図1
は本発明の第1実施形態の構成を説明するブロック図で
ある。図1中で1,2はフィールドメモリ或いはフレー
ムメモリであり、左眼用、右眼用の映像をそれぞれフィ
ールド単位、或いはフレーム単位で記憶する。3は2次
元奥行き処理手段であり、左、右眼用メモリ1,2で記
憶された映像データに単眼奥行き手がかりによる立体効
果を付加する左眼用立体効果付加部6と右眼用立体効果
付加部7とから構成される。更に2次元奥行き処理手段
3はユーザー入力部10よって操作可能であり、立体効
果の種類やその奥行き量をコントロールできる。尚ユー
ザー入力部10は、例えばキーボード、マウス、ジョイ
スティックなどから構成されるものである。5は、2次
元奥行き処理手段3によって映像に付加された立体効果
の奥行き情報を取得する奥行き情報取得手段である。4
は、奥行き情報取得手段5によって得られた奥行き情報
をもとに両眼視差を映像に付加する3次元奥行き処理都
である。3次元奥行き処理部4は、左眼用立体効果付加
部6からの映像データに左眼用の視差を付加する左眼用
視差付加部8と、右眼用立体効果付加部6からの映像デ
ータに右眼用の視差を付加する右眼用視差付加部9とか
ら構成される。
【0033】入力された立体映像は、左、右服用メモリ
1,2に記録された後、左、右眼用立体効果付加部6,
7によって単眼奥行き手がかりによる立体効果が付加さ
れる。この立体効果はユーザー入力部10によって、好
みに応じデザインすることが可能となっている。立体効
果が施された立体映像は左右眼用視差付加部8,9によ
って両眼視差が与えられる。この両眼視差は奥行き情報
取得手段5によって得られた奥行き情報に従い設定さえ
るものであり、単眼奥行き手がかりと視差視差による奥
行き感覚矛盾することはない。
【0034】次に立体映像視覚効果付加装置の第1実施
形態における処理手順について図2のフローチャートを
用いて説明する。まず右眼用、左眼用の立体映像情報が
入力され、フレーム或いはフィールドメモリ1,2に記
憶される(S101)。ユーザー入力部10により立体
効果処理を施す映像中のオブジェクトが1つ或いは複数
個選択され(S102)、処理される立体効果(陰影、
重なり、運動視差等)が選択される(S103)。この
選択はユーザー入力部10によって操作可能である。
【0035】続いて、フレーム或いはフィールドメモリ
1,2に記憶されている左右映像データに選択された立
体効果が2次元奥行き処理手段3により付加され(S1
04)、選択された立体効果に従い奥行き情報取得手段
5により奥行き情報が取得される(S105)。取得さ
れた奥行き情報に従って3時9間奥行き処理手段4によ
りい両眼視差が左右映像データに付加される(S10
6)。続いて、他に効果を施すオブジェクト有無が選択
される(S107)。効果を施すオブジェクトが在る場
合S102へ、無い場合は処理された立体映像が出力さ
れる(S108)。
【0036】以上の構成によって、単眼の奥行き手がか
りで知覚される奥行き感と、両眼視差によって知覚され
る奥行き感との整合性がとられ、違和感や不快感がなく
表現力が高い立体映像を提供する立体映像視覚効果付加
装置が実現可能となる。
【0037】<第2実施形態>続いて第2実施形態を図
1、図3、図4により説明する。第2実施形態も図1に
示す上記第1実施形態と同じ構成で実現される。図3は
2次元奥行き処理手段3により付加された陰影による奥
行き効果例を示すものである。図4は3次元奥行き処理
都4により両眼視差が付加された奥行き表示例を示すも
のである。使用者と立体映像の表示面14と立体表示さ
れるオブジェクトの奥行き位置関係を模式的に表した図
を左側に、表示面14に表示されている右眼、左眼用の
オブジェクトを示した図を右側に配置している。
【0038】図3に示すように、2次元奥行き処理手段
3はオブジェクト11に対して同じ形態の影12を位置
をずらしてスーパーインポーズする。この影12によ
り、オブジェクト11は浮き上がっているような立体効
果が得られる。ユーザーはユーザー入力部10によって
影1,2の位置を自由に変更可能である。奥行き情報取
得手段5はオブジェクト11と影12の距離13から奥
行き量の情報を取得する。3次元奥行き処理部4は奥行
き情報取得手段5からの奥行き情報に従い、図4に示す
両眼視差を映像に付加する。図4中の表示面14は、例
えば立体プロジェクターのスクリーン面、或いは立体C
TRモニターのCRT表面である。11R,11Lは両
眼視差を付加された左眼と右眼用映像のオブジェクトで
あり、立体表示装置で視聴すると奥行き位置11Aにオ
ブジェクト11が知覚される。一方両眼視差を付加され
た左眼と右眼用映像の影12R,12Lは奥行き位置1
2Aに知覚され、これらの奥行き量13Aは図3のオブ
ジェクト11と影12の距離13と対応する。
【0039】次に立体映像視覚効果付加装置の第2実施
形態における処理手順について図2,図5のフローチャ
ートを用いて説明する。図2中S103までは第1実施
形態と同一の処理フローが実施される。図2のS104
の処理は図5のS111〜S114であり、S105は
S115である。
【0040】図5に示すように、S103に続いて、選
択されたオブジェクトと同形のシャドーオブジェクトが
生成され(S111)、シャドーオブジェクトのオブジ
ェクト位置からのずらし方向とずらし量が設定される
(S112)。この設定はユーザー入力部10によって
操作可能である。続いて、シャドーオブジェクトの隠面
消去処理が行われ(Sl13)、シャドーオブジェクト
が所定の位置にスーパーインポーズされる(Sl1
4)。S112のずらし量に従い、奥行き情報が取得さ
れる(S115)。この奥行き情報取得ステップ(S1
15)は、例えば、ずらし量に対応した奥行き量テーブ
ル31を備え、その奥行き量テーブル31から奥行き量
を取得する。S115以降は図16中のS106以降と
同一処理フローが実施される。
【0041】以上の構成により、陰影による奥行きと両
眼視差による奥行きが矛盾することがない立体映像視覚
効果付加装置が実現可能である。
【0042】<第3実施形態>続いて第3実施形態を図
1、図6、図7により説明する。上記実施形態と同一部
分には同一符号を付し、その説明は省略する。第3実施
形態も図1に示す上記第1実施形態と同じ構成で実現さ
れる。図6は2次元奥行き処理手段8により付加された
オブジェクトの重なりによる奥行き効果例を示すもので
あり、図6は3次元奥行き処理部4により両眼視差が付
加された奥行き表示例を示すものである。
【0043】図6に示すように、2次元奥行き処理手段
3は3つのオブジェクト15,16,17を重なり効果
を付加し、手前からオブジェクト15,16,17の順
に奥行き的に並んでいるような立体効果が得られる。ユ
ーザーはユーザー入力部10によってオブジェクトの奥
行き関係を自由に変更可能である。奥行き情報取得手段
5はオブジェクト15,16,17の重なり関係から奥
行き前後関係情報を取得する。3次元奥行き処理部4は
奥行き情報取得手段5からの奥行き前後判断の情報に従
い、図7に示すように両眼視差を映像に付加する。15
R,15Lは両眼視差を付加された左眼と右眼用映像の
オブジェクト15であり、立体表示装置で視聴すると奥
行き位置15Aにオブジェクト15が知覚される。同様
にオブジェクト16,17についても両眼視差が付加さ
れ、それぞれ奥行き位置16A,17Aに知覚される。
図7に示すように両眼視差によるオブジェクト15,1
6,17の奥行き前後関係は、図6の重なりから得られ
る奥行き前後図係と一致する。
【0044】次に立体映像視覚効果付加装置における第
11実施形態の処理手順について図2、図8のフローチ
ャートを用いて説明する。図2中S103までは第1実
施形態と同一の処理フローが実施される。図2のS10
4の処理は図8のS121〜S123であり、S105
はS124である。
【0045】図8に示すように、S103に続いて、選
択された複数のオブジェクトの重なり関係を設定する
(S121)。この設定はユーザー入力部10によって
操作可能である。続いて、各オブジェクトの隠面消去処
理が行われ(S122)、各オブジェクトが所定の位置
にスーパーインポーズされる(S123)。S121の
重なり関係に従い奥行き関係の情報が取得される(S1
24)。S124以降は図16中のS106以降と同一
処理フローが実施される。
【0046】以上の構成により、重なりによる奥行きと
両眼視差による奥行きが矛盾することがない立体映像視
覚効果付加装置が実現可能である。
【0047】<第4実施形態>続いて第4実施形態を図
1、図9、図10により説明する。上記実施形態と同一
部分には同一符号を付し、その説明は省略する。第4実
施形態も図1に示す上記第1実施形態と同じ構成で実現
される。図9は2次元奥行き処理手段3により付加され
たオブジェクトの運動視差による奥行き効果例を示すも
のであり、図10は3次元奥行き処理部4により両眼視
差が付加された奥行き表示例を示すものである。
【0048】図9中2つのオブジェクト18,19は2
次元奥行き処理手段3により図中の矢印の長さで示すよ
うな速度差が設定され、それぞれ異なるスピードで水平
に移動する。列車に乗っている時、遠く山や書はゆっく
りと動き、手前の家などは早く動く。このように人間は
運動速度の違いにより立体感を得ることができ、これは
運動視差と呼ばれ、常に強力な奥行き手がかりとされて
いる。従って、早く動くオブジェクト19は、遅く動く
オブジェクト18の手前にあるような立体感が得られ
る。
【0049】ユーザーはユーザー入力部10によってオ
ブジェクト18,19の速度を自由に設定可能である。
奥行き情報取得手段5はオブジェクト18,19の速度
差20から奥行きの情報を取得する。3次元奥行き処理
部4は奥行き情報取得手段5からの奥行き情報に従い、
図9に示すように両眼視差を映像に付加する。19R,
19Lは両眼視差を付加された左眼と右眼用映像のオブ
ジェクト19であり、立体表示装置で視聴すると奥行き
位置19Aにオブジェクト19が知覚される。一方オブ
ジェクト18は,奥行き位置18Aに知覚され、これら
奥行き差20Aは図10の速度差20と対応する。
【0050】次に立体映像視覚効果付加方法の第12実
施形態について図2、図11のフローチャートを用いて
説明する。図2中S103までは第1実施形態と同一の
処理フローが実施される。図2のS104の処理は図1
1のS131〜S133であり、S105はS134で
ある。
【0051】図11に示すように、S103に続いて、
選択された複数のオブジェクトそれぞれに対して速度が
設定される(S131)。この設定はユーザー入力部1
0によって操作可能である。設定された運動速度に従っ
て各オブジェクトを運動させる処理が行われる(S13
2)。S131で設定された運動速度の差分が行われ、
各オブジェクト間の速度差が算出され(S133)、速
度差に従った奥行き情報が取得される(S134)。こ
のステップ(S134)は、例えば速度差に対応した奥
行き量テーブル31を備え、その奥行き量テーブル31
から奥行き量を取得する。S134以降は図2中のS1
06以降と同一処理フローが実施される。
【0052】以上の構成により、運動視差による奥行き
と両眼視差による奥行きが矛盾することがない立体映像
視覚効果付加装置が実現可能である。
【0053】<第5実施形態>続いて第5実施形態を図
1、図12、図13により説明する。上記実施形態と同
一部分には同一符号を付し、その説明は省略する。第5
実施形態も図1に示す上記第1実施形態と同じ構成で実
現される。図12は2次元奥行き処理手段3により付加
されたオブジェクトの肌理勾配による奥行き効果例を示
すものであり、図13は3次元奥行き処理部4により両
眼視差が付加された奥行き表示例を示すものである。
【0054】図12に示すように、オブジェクト20は
肌理勾配を持ち、その疎密状態からオブジェクト20の
上部21が奥に下部22が手前にあるような立体感が得
られる。ユーザーはユーザー入力部10によってオブジ
ェクト20の肌理勾配の密度を自由に変更可能である。
奥行き情報取得手段5はオブジェクト20の密度差から
奥行きの情報を取得する。3次元奥行き処理部4は奥行
き情報取得手段5からの奥行き情報に従い、図13に示
すように両眼視差を映像に付加する。22R,22Lは
両眼視差を付加されたオブジェクト20の下部22の左
右映像であり、立体表示装置で視聴すると奥行き位置2
2Aに知覚される。一方上部21は奥行き位置21Aに
知覚され、これら奥行き関係は図12の肌理勾配による
奥行き関係と対応する。
【0055】次に立体映像視覚効果付加装置の第5実施
形態における処理手順について図2、図14のフローチ
ャートを用いて説明する。図2中S103までは第1実
施形態と同一の処理フローが実施される。図2のS10
4の処理は図14のS141〜S142であり、S10
5はS143である。
【0056】図14に示すように、S103に続いて、
選択されたオブジェクトにマップする肌理勾配テクスチ
ャが選択される(S141)。このステップではあらか
じめ保存している肌理勾配テクスチャデータベース32
の中からユーザー入力部10によって選択される。
【0057】尚、肌理勾配テクスチャデータベース32
には、保存されている肌理勾配テクスチャのそれぞれ
に、そのテクスチャをマッピングした時に知覚される奥
行き量が保持されており、選択された肌理勾配テクスチ
ャの奥行き情報は後述のS143に送られる。選択され
た肌理勾配テクスチャがオブジェクトにマッピングされ
(S142)、選択された肌理勾配テクスチャに対応し
た前述の奥行き情報が取得される(S143)。S14
3以降は図2中のS106以降と同一処理フローが実施
される。
【0058】このような、肌理勾配テクスチャをマッピ
ングする他の手法を図15、図16を用いて説明する。
S103に続いて、選択されたオブジェクトにマップす
るテクスチャが選択される(S141)。このステップ
ではあらかじめ保存しているテクスチャデータベース3
3の中からユーザー入力部10によって選択される。続
いて、選択されたテクスチャを部分的に圧縮する圧縮比
が設定される(S152)。続いて、テクスチャの部分
的圧縮が実行される(S153)。
【0059】テクスチャの部分的圧縮を図16にて説明
する。図16のテクスチャパターン34の上側2頂点を
点線位置に移動させるように部分的圧縮を行う。部分的
圧縮が実行されたテクスチャは(B)のような肌理勾配
テクスチャとなる。S153に続いて部分圧縮されたテ
クスチャをオブジェクトにマッピングする(S14
2)。続いて、S152にて設定された圧縮比に従い奥
行き情報が取得される(S155)。
【0060】本ステップ(S155)は、例えば圧縮比
に対応した奥行き量テーブル31を備え、その奥行き量
テーブル31から奥行き量を取得する。S143以降は
図16中のS106以降と同一処理フローが実施され
る。
【0061】以上の構成により、肌理勾配による奥行き
と両眼視差による奥行きが矛盾することがない立体映像
視覚効果付加装置が実現可能である。
【0062】<第6実施形態>続いて第6実施形態を図
1、図17、図18により説明する。上記実施形態と同
一部分には同一符号を付し、その説明は省略する。第6
実施形態も図1に示す上記第1実施形態と同じ構成で実
現される。図17は2次元奥行き処理手段3により付加
されたオブジェクトの輝度勾配による奥行き効果例を示
すものであり、図18は3次元奥行き処理部4により両
眼視差が付加された奥行き表示例を示すものである。
【0063】図17に示すように、オブジェクト23は
輝度勾配を持ち、その輝度からオブジェクト23の上部
24が奥に、下部25が手前にあるような立体感が得ら
れる。当然、ユーザーはユーザー入力部10によってオ
ブジェクト23の輝度勾配を自由に変更可能である。奥
行き情報取得手段5はオブジェクト23の輝度差から奥
行きの情報を取得する。3次元奥行き処理部4は奥行き
情報取得手段5からの奥行き情報に従い、図18に示す
ように両眼視差を映像に付加する。25R,25Lは両
眼視差を付加されたオブジェクト23の下部25の左右
映像であり、立体表示装置で視聴すると奥行き位置25
Aに知覚される。一方上部24は奥行き位置24Aに知
覚され、これら奥行き関係は図17の肌理勾配による奥
行き関係と対応する。
【0064】次に立体映像視覚効果付加装置の第6実施
形態について図2、図19のフローチャートを用いて説
明する。図2中S103までは第1実施形態と同一の処
理フローが実施される。図2のS104の処理は図19
のS161〜S163であり、S105はS164であ
る。
【0065】図19に示すように、S103に続いて、
輝度勾配の方向が選択され(S161)、輝度勾配の輝
度レンジが設定される(S162)。これらの設定はユ
ーザー入力部10によって操作可能である。設定された
方向とレンジで輝度勾配が描画され(S163)、S1
61で選択された輝度勾配の方向によりオブジェクトの
どの部分が手前でどの部分が奥かといった奥行き傾斜方
向情報を取得し、かつS162で選択された輝度勾配の
レンジと奥行き量テーブル31により奥行き量を取得す
る(S164)。S164以降は図2中のS106以降
と同一処理フローが実施される。
【0066】以上の構成により、輝度勾配による奥行き
と両眼視差による奥行きが矛盾することがない立体映像
視覚効果付加装置が実現可能である。
【0067】<第7実施形態>続いて第7実施形態を図
1、図20、図21により説明する。上記実施形態と同
一部分には同一符号を付し、その説明は省略する。第7
実施形態も図1に示す上記第1実施形態と同じ構成で実
現される。図20は2次元奥行き処理手段3により付加
されたオブジェクトの大きさによる奥行き効果例を示す
ものであり、図21は3次元奥行き処理部4により両眼
視差が付加された奥行き表示例を示すものである。
【0068】図20に示すように、オブジェクト26,
27大きさに違いがある。絵画でも多くみられる遠近法
はオブジェクトの大きさの違いから奥行き感を演出する
方法である。従って、図20において、オブジェクト2
7は奥に、オブジェクト26は手前にあるような立体感
が得られる。ユーザーはユーザー入力部10によってオ
ブジェクト26,27の大きさを自由に変更可能であ
る。奥行き情報取得手段5はオブジェクト26,27の
大きさの差28から奥行きの情報を取得する。3次元奥
行き処理部4は奥行き情報取得手段5からの奥行き情報
に従い、図21に示すように両眼視差を映像に付加す
る。26R,26Lは両眼視差を付加されたオブジェク
ト26の左右映像であり、立体表示装置で視聴すると奥
行き位置26Aに知覚される。一方オブジェクト27は
奥行き位置27Aに知覚され、これら奥行き差28A
は、図20の大きさの違い28と対応する。
【0069】次に立体映像視覚効果付加方法の第7実施
形態について図2、図22のフローチャートを用いて説
明する。図2中S103までは第1実施形態と同一の処
理フローが実施される。図2のS104の処理は図22
のS171〜S174であり、S105はS175であ
る。
【0070】図22に示すように、S103に続いて、
複数のオブジェクトの大きさが設定される(S17
1)。この設定はユーザー入力部10によって操作可能
である。続いて、設定された大きさに従ってオブジェク
トの拡大縮小が実行され(S172)、拡大縮小された
オブジェクトが所定の位せにスーパーインポーズされる
(S173)。S171で設定されたオブジェクトの大
きさの差分が行われ各オブジェクト間の大きさ差が算出
され(S173)、大きさ差に従った奥行き情報が取得
される(S175)。このステップ(S175)は、例
えば大きさ差に対応した奥行き量テーブル31を備え、
その奥行き量テーブル31から奥行き丑を取得する。S
175以降は図2中のS106以降と同一処理フローが
実施される。
【0071】以上の構成により、大きさの違いによる奥
行きと両眼視差による奥行きが矛盾することがない立体
映像視覚効果付加装置が実現可能である。
【0072】<第8実施形態>続いて第8実施形態を図
1、図23、図24により説明する。上記実施形態と同
一部分には同一符号を付し、その説明は省略する。第8
実施形態も図1に示す上記第1実施形態と同じ構成で実
現される。図23は2次元奥行き処理手段3により付加
されたオブジェクトの鮮明さの違いによる奥行き効果例
を示すものであり、図24は3次元奥行き処理部4によ
り両眼視差が付加された奥行き表示例を示すものであ
る。
【0073】図23に示すように、オブジェクト29,
30は鮮明度を違わせる処理が施されている。この処理
は、例えばローパスフィルターを用いて高周波成分を除
去することにより可能である。線明度やボケ具合は人間
の視覚系の調節機能と関連し、ボケているほうが遠くに
見える。従って図23においてボケているオブジェクト
30は奥に、鮮明なオブジェクト29は手前にあるよう
な立体感が得られる。ユーザーは、ユーザー入力部10
によってボケ具合を、例えばローパスフィルターの周波
数特性を変更することで自由に設定可能である。奥行き
情報取得手段5はオブジェクト29,30の鮮明度の違
いから奥行きの情報を取得する。3次元奥行き処理都4
は奥行き情報取得手段5からの奥行き情報に従い、図2
4に示すように両眼視差を映像に付加する。29R,2
9Lは両眼視差を付加されたオブジェクト29の左右映
像であり、立体表示装置で視聴すると奥行き位置29A
に知覚される。一方オブジェクト30は奥行き位置30
Aに知覚され、これら奥行き関係は図23の鮮明度の違
いによる奥行き関係と対応する。
【0074】次に立体映像視覚効果付加装置の第8実施
形態について図2、図25のフローチャートを用いて説
明する。図2中S103までは第1実施形態と同一の処
理フローが実施される。図2のS104の処理は図25
のS181〜S183であり、S105はS184であ
る。
【0075】図25に示すように、S103に続いて、
複数のローパスフィルターの周波数特性が設定される
(S181)。この設定はユーザー入力部10によって
操作可能である。続いて、ローパスフィルターによって
オブジェクトの高周波成分がカットされ(S182)、
高周波成分がカットされたオブジェクトが所定の位置に
スーパーインポーズされる。(S183)。そして、S
181で設定された周波数特性に従った奥行き情報が取
得される(S184)。このステップ(S184)は、
例えば周波数特性に対応した奥行き量テーブル31を備
え、その奥行き量テーブル31から奥行き量を取得す
る。S184以降は図2中のS106以降と同一処理フ
ローが実施される。
【0076】以上の構成により、鮮明度の違いによる奥
行きと両眼視差による奥行きが矛盾することがない立体
映像視覚効果付加装置が実現可能である。
【0077】<第9実施形態>更に図は省略するが、色
によって立体効果の演出が可能である。色の見えには心
理的に進出色と後退色があるといわれており、進出色は
暖色系の赤系統の、後退色は寒色系の青系統の色といわ
れている。この色の違いにより2次元奥行き処理手段3
が奥行き効果を施し、色の違いから奥行き情報取得手段
5が奥行き情報を取得し、3次元奥行き処理部4が奥行
き情報によって両眼視差を付加することも可能である。
【0078】次に立体映像視覚効果付加方法の第9実施
形態について図2、図26のフローチャートを用いて説
明する。図2中S103までは第1実施形態と同一の処
理フローが実施される。図2のS104の処理は図26
のS191〜S192であり、S105はS193であ
る。
【0079】S103に続いて、オブジェクトの色を選
択する(S191)。この選択はユーザー入力部10に
よって操作可能である。続いて、オブジェクトに選択さ
れた色がつけられ(S192)、S191の設定した色
に従い奥行き情報が取得される(S193)。この奥行
き情報取得ステップ(S193)は、例えば各色に対応
する奥行き量テーブル31を備え、その奥行き量テーブ
ル31から奥行き量を取得する。S193以降は図2中
のS106と同一処理フローが実施される。以上の構成
により、色による奥行きと両眼視差による奥行きが矛盾
することがない立体映像視覚効果付加装置が実現可能で
ある。
【0080】
【発明の効果】以上の説明から明らかな様に、本発明に
よれば、立体映像のオブジェクトに対して2次元立体効
果を施した際の2次元立体効果の奥行き情報を得て、奥
行き情報に従い両眼視差を施すことにより、単眼の奥行
き手がかりで知覚される奥行き感と、両眼視差によって
知覚される奥行き感との整合性がとられ、違和感や不快
感がなく表現力が高い立体映像を提供可能となる。
【図面の簡単な説明】
【図1】本発明に係る立体映像視覚効果付加装置の第1
実施形態の構成を示すブロック図である。
【図2】第1実施形態における立体映像視覚効果付加装
置の処理手順を示すフローチャートである。
【図3】第2実施形態における立体映像視覚効果付加装
置の陰影による奥行き効果を説明する図である。
【図4】第2実施形態における立体映像視覚効果付加装
置の第2実施形態の両眼視差による奥行き表示を説明す
る図である。
【図5】第2実施形態における立体映像視覚効果付加装
置の処理手順を示すフローチャートである。
【図6】第3実施形態における立体映像視覚効果付加装
置の重なりによる奥行き効果を説明する図である。
【図7】第3実施形態における立体映像視覚効果付加装
置の両眼視差による奥行き表示を説明する図である。
【図8】第3実施形態における立体映像視覚効果付加装
置の処理手順を示すフローチャートである
【図9】第4実施形態における立体映像視覚効果付加装
置の運動視差による奥行き効果を説明する図である。
【図10】第4実施形態における立体映像視覚効果付加
装置の両眼視差による奥行き表示を説明する図である。
【図11】第4実施形態における立体映像視覚効果付加
装置の処理手順を示すフローチャートである。
【図12】第5実施形態における立体映像視覚効果付加
装置の肌理勾配による奥行き効果を説明する図である。
【図13】第5実施形態における立体映像視覚効果付加
装置の両眼視差による奥行き表示を説明する図である。
【図14】第5実施形態における立体映像視覚効果付加
装置の処理手順を示すフローチャートである。
【図15】第5実施形態における立体映像視覚効果付加
装置の他の処理手順を示すフローチャートである。
【図16】第5実施形態の他の例におけるテクスチャの
圧縮比変化による肌理勾配の形成を説明する図である。
【図17】第6実施形態における立体映像視覚効果付加
装置のオブジェクトの輝度勾配による奥行き効果を説明
する図である。
【図18】第6実施形態における立体映像視覚効果付加
装置の両眼視差による奥行き表示を説明する図である。
【図19】第6実施形態における立体映像視覚効果付加
装置の処理手順を示すフローチャートである。
【図20】第7実施形態における立体映像視覚効果付加
装置のオブジェクトの大きさによる奥行き効果を説明す
る図である。
【図21】第7実施形態における立体映像視覚効果付加
装置の両眼視差による奥行き表示を説明する図である。
【図22】第7実施形態における立体映像視覚効果付加
装置の処理手順を示すフローチャートである。
【図23】第8実施形態における立体映像視覚効果付加
装置のオブジェクトの鮮明度の違いによる奥行き効果を
説明する図である。
【図24】第8実施形態における立体映像視覚効果付加
装置の両眼視差による奥行き表示を説明する図である。
【図25】第8実施形態における立体映像視覚効果付加
装置の処理手順を示すフローチャートである。
【図26】第9実施形態における立体映像視覚効果付加
装置の処理手順を示すフローチャートである。
【図27】従来の立体映像視覚効果付加装置による立体
効果を説明する図である。
【符号の説明】
1,2 フィールド/フレームメモリ 3 2次元奥行き処理手段 4 3次元奥行き処理手段 5 奥行き情報処理部 6 左眼用立体効果付加部 7 右眼用立体効果付加部 8 左眼用視差付加部 9 右眼用視差付加部 10 ユーザー入力部 11 陰影効果が施されたオブジェクト 12 影 13 オブジェクトと影間の距離 14 立体映像表示面 15,16,17 重なり効果が施されたオブジェクト 18,19 運動視差が施されたオブジェクト 20 運動差 21 肌理勾配が施されたオブジェクト 22 オブジェクト21の上部 23 オブジェクト21の下部 23 輝度勾配が施されたオブジェクト 24 オブジェクト23の上部 25 オブジェクト23の下部 26,27 遠近感効果が施されたオブジェクト 29,30 明瞭差効果が施されたオブジェクト 31 奥行き量テーブル 32 肌理勾配テクスチャデータベース 33 テクスチャデータベース 34 部分圧縮されるテクスチャ
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 BA04 BA09 EA27 5B057 BA13 BA17 BA19 CA13 CB13 DB03 5C023 AA01 AA10 AA11 AA38 BA11 BA13 DA04 5C061 AB08 AB12 AB24 5C082 AA04 AA05 AA06 AA21 BA34 BA35 BA47 BD01 CA12 CA22 CA56 MM10

Claims (37)

    【特許請求の範囲】
  1. 【請求項1】 右眼用と左眼用の2つの平面映像で構成
    された立体映像に対し、立体的視覚効果を施す立体映像
    視覚効果付加装置であって、 前記立体映像のオブジェクトに対して単眼奥行き手がか
    りにより奥行きを知覚させる2次元立体効果を施す2次
    元奥行き処理手段と、 前記2次元奥行き処理手段によって施された2次元立体
    効果の奥行き情報を得る奥行き情報取得手段と、 前記奥行き情報取得手段からの奥行き情報と整合性を取
    り前記オブジェクトに両眼視差を施す3次元奥行き処理
    手段と、 を備えたことを特徴する立体映像視覚効果付加装置。
  2. 【請求項2】 請求項1に記載の立体映像視覚効果付加
    装置において、 前記2次元奥行き処理手段は、前記オブジェクトに対し
    て影を与え、陰影による奥行き感を知覚させることを特
    徴とした立体映像視覚効果付加装置。
  3. 【請求項3】 請求項2に記載の立体映像視覚効果付加
    装置において、 前記奥行き情報取得手段は、前記オブジェクトと前記2
    次元奥行き処理手段により施された影との距離から奥行
    き量情報を取得することを特徴とした立体映像視覚効果
    付加装置。
  4. 【請求項4】 請求項1に記載の立体映像視覚効果付加
    装置において、 前記2次元奥行き処理手段は、前記オブジェクトに対し
    て重なり効果を施し、重なりによる奥行き感を知覚させ
    ることを特徴とした立体映像視覚効果付加装置。
  5. 【請求項5】 請求項4に記載の立体映像視覚効果付加
    装置において、 前記奥行き情報取得手段は、前記2次元奥行き処理手段
    により施されたオブジェクトの重なり関係から奥行きの
    前後関係情報を取得することを特徴とした立体映像視覚
    効果付加装置。
  6. 【請求項6】 請求項1に記載の立体映像視覚効果付加
    装置において、 前記2次元奥行き処理手段は、前記オブジェクトに対し
    て異なる運動速度を設定し、運動視差による奥行き感を
    知覚させることを特徴とした立体映像視覚効果付加装
    置。
  7. 【請求項7】 請求項6に記載の立体映像視覚効果付加
    装置において、 前記奥行き情報取得手段は、前記2次元奥行き処理手段
    により施されたオブジェクトの運動速度の差から奥行き
    量情報を取得することを特徴とした立体映像視覚効果付
    加装置。
  8. 【請求項8】 請求項1に記載の立体映像視覚効果付加
    装置において、 前記2次元奥行き処理手段は、前記オブジェクトに対し
    て肌理勾配をもったテクスチャをマッピングし、粗密に
    よる奥行き感を知覚させることを特徴とした立体映像視
    覚効果付加装置。
  9. 【請求項9】 請求項8に記載の立体映像視覚効果付加
    装置において、 前記奥行き情報取得手段は、前記2次元奥行き処理手段
    によりマッピングされた肌理勾配をもったテクスチャの
    密度差により奥行き量情報を取得することを特徴とした
    立体映像視覚効果付加装置。
  10. 【請求項10】 請求項1に記載の立体映像視覚効果付
    加装置において、 前記2次元奥行き処理手段は、前記オブジェクトに対し
    て部分的に圧縮比を変え圧縮したテクスチャパターンを
    マッピングし、粗密効果による奥行き感を知覚させるこ
    とを特徴とした立体映像視覚効果付加方法。
  11. 【請求項11】 請求項10に記載の立体映像視覚効果
    付加装置において、 前記奥行き情報取得手段は、前記2次元奥行き処理ステ
    ップによりマッピングされたテクスチャパターンの圧縮
    比から奥行き量情報を取得することを特徴とした立体映
    像視覚効果付加装置。
  12. 【請求項12】 請求項1に記載の立体映像視覚効果付
    加装置において、 前記2次元奥行き処理手段は、前記オブジェクトに対し
    て輝度勾配を施し、明るさ変化による奥行き感を知覚さ
    せることを特徴とした立体映像視覚効果付加装置。
  13. 【請求項13】 請求項12に記載の立体映像視覚効果
    付加装置において、 前記奥行き情報取得手段は、前記2次元奥行き処理手段
    により施されたオブジェクトの輝度差により奥行き量情
    報を取得することを特徴とした立体映像視覚効果付加装
    置。
  14. 【請求項14】 請求項1に記載の立体映像視覚効果付
    加装置において、 前記2次元奥行き処理手段は、前記オブジェクトに対し
    て遠近法に従った大きさ変化を施し、大きさ変化による
    奥行き感を知覚させることを特徴とした立体映像視覚効
    果付加装置。
  15. 【請求項15】 請求項14に記載の立体映像視覚効果
    付加装置において、 前記奥行き情報取得手段は、前記2次元奥行き処理手段
    により施されたオブジェクトの大きさの差により奥行き
    量情報を取得することを特徴とした立体映像視覚効果付
    加装置。
  16. 【請求項16】 請求項1に記載の立体映像視覚効果付
    加装置において、 前記2次元奥行き処理手段は、前記オブジェクトに対し
    てフィルターで画像ボケを施し、明瞭差による奥行き感
    を知覚させることを特徴とした立体映像視覚効果付加装
    置。
  17. 【請求項17】 請求項16に記載の立体映像視覚効果
    付加装置において、 前記奥行き情報取得手段は、前記2次元奥行き処理手段
    により施されたオブジェクトの明瞭差により奥行き量情
    報を取得することを特徴とした立体映像視覚効果付加装
    置。
  18. 【請求項18】 請求項1に記載の立体映像視覚効果付
    加装置において、 前記2次元奥行き処理手段は、前記オブジェクトに対し
    て色味を変え、色による奥行き感を知覚させることを特
    徴とした立体映像視覚効果付加装置。
  19. 【請求項19】 請求項18に記載の立体映像視覚効果
    付加装置において、前記奥行き情報取得手段は、前記2
    次元奥行き処理手段により施されたオブジェクトの色が
    進出色か後退色かにより奥行きの前後関係情報を取得す
    ることを特徴とした立体映像視覚効果付加装置。
  20. 【請求項20】 右眼用と左眼用の2つの平面映像で構
    成された立体映像に対し、立体的視覚効果を施す立体映
    像視覚効果付加方法であって、 前記立体映像のオブジェクトに対して単眼奥行き手がか
    りにより奥行きを知覚させる2次元立体効果を施す2次
    元奥行き処理ステップと、 前記2次元奥行き処理ステップによって施された2次元
    立体効果の奥行き情報を得る奥行き情報取得ステップ
    と、 前記奥行き情報取得ステップからの奥行き情報と整合性
    を取り前記オブジェクトに両眼視差を施す3次元奥行き
    処理ステップと、 を備えたことを特徴とする立体映像視覚効果付加方法。
  21. 【請求項21】 請求項20に記載の立体映像視覚効果
    付加方法において、 前記2次元奥行き処理ステップは、前記オブジェクトに
    対して影を与え、陰影による奥行き感を知覚させること
    を特徴とした立体映像視覚効果付加方法。
  22. 【請求項22】 請求項21に記載の立体映像視覚効果
    付加方法において、 前記奥行き情報取得ステップは、前記オブジェクトと前
    記2次元奥行き処理ステップにより施された影との距離
    から奥行き量情報を取得することを特徴とした立体映像
    視覚効果付加方法。
  23. 【請求項23】 請求項20に記載の立体映像視覚効果
    付加方法において、 前記2次元奥行き処理ステップは、前記オブジェクトに
    対して重なりを施し、重なりによる奥行き感を知覚させ
    ることを特徴とした立体映像視覚効果付加方法。
  24. 【請求項24】 請求項23に記載の立体映像視覚効果
    付加方法において、 前記奥行き情報取得ステップは、前記2次元奥行き処理
    ステップにより施されたオブジェクトの重なり関係から
    奥行きの前後関係情報を取得することを特徴とした立体
    映像視覚効果付加方法。 【請求頑25】 請求項20に記載の立体映像視覚効果
    付加方法において、 前記2次元奥行き処理ステップは、前記オブジェクトに
    対して異なる運動速度を設定し、運動視差による奥行き
    感を知覚させることを特徴とした立体映像視覚効果付加
    方法。
  25. 【請求項25】 請求項25に記載の立体映像視覚効果
    付加方法において、 前記奥行き情報取得ステップは、前記2次元奥行き処理
    ステップにより施されたオブジェクトの運動速度の差か
    ら奥行き量情報を取得することを特徴とした立体映像視
    覚効果付加方法。
  26. 【請求項26】 請求項20に記載の立体映像視覚効果
    付加方法において、 前記2次元奥行き処理ステップは、前記オブジェクトに
    対して肌理勾配をもったテクスチャをマッピングし、粗
    密による奥行き感を知覚させることを特徴とした立体映
    像視覚効果付加方法。
  27. 【請求項27】 請求項27に記載の立体映像視覚効果
    付加方法において、 前記奥行き情報取得ステップは、前記2次元奥行き処理
    ステップによりマッピングされた肌理勾配をもったテク
    スチャの密度差により奥行き量の情報を取得することを
    特徴とした立体映像視覚効果付加方法。
  28. 【請求項28】 請求項20に記載の立体映像視覚効果
    付加方法において、 前記2次元奥行き処理ステップは、前記オブジェクトに
    対して部分的に圧縮比を変え圧縮したテクスチャパター
    ンをマッピングし、粗密効果による奥行き感を知覚させ
    ることを特徴とした立体映像視覚効果付加方法。
  29. 【請求項29】 請求項29に記載の立体映像視覚効果
    付加方法において、 前記奥行き情報取得ステップは、前記2次元奥行き処理
    ステップによりマッピングされたテクスチャパターンの
    圧縮比から奥行き量情報を取得することを特徴とした立
    体映像視覚効果付加方法。
  30. 【請求項30】 請求項20に記載の立体映像視覚効果
    付加方法において、 前記2次元奥行き処理ステップは、前記オブジェクトに
    対して輝度勾配を施し、明るさ変化による奥行き感を知
    覚きせることを特徴とした立体映像視覚効果付加方法。
  31. 【請求項31】 請求項31に記載の立体映像視覚効果
    付加方法において、 前記奥行き情報取得ステップは、前記2次元奥行き処理
    ステップにより施されたオブジェクトの輝度差により奥
    行き量情報を取得することを特徴とした立体映像視覚効
    果付加方法。
  32. 【請求項32】 請求項20に記載の立体映像視覚効果
    付加方法において、 前記2次元奥行き処理ステップは、前記オブジェクトに
    対して遠近法に従った大きさ変化を施し、大きさ変化に
    よる奥行き感を知覚させることを特徴とした立体映像視
    覚効果付加方法。
  33. 【請求項33】 請求項33に記載の立体映像視覚効果
    付加方法において、 前記奥行き情報取得ステップは、前記2次元奥行き処理
    ステップにより施されたオブジェクトの大きさの差によ
    り奥行き量情報を取得することを特徴とした立体映像視
    覚効果付加方法。
  34. 【請求項34】 請求項20に記載の立体映像視覚効果
    付加方法において、 前記2次元奥行き処理ステップは、前記オブジェクトに
    対してフィルターで画像ボケを施し、明瞭差による奥行
    き感を知覚させることを特徴とした立体映像視覚効果付
    加方法。
  35. 【請求項35】 請求項35に記載の立体映像視覚効果
    付加方法において、 前記奥行き情報取得ステップは、前記2次元奥行き処理
    ステップにより施されたオブジェクトの明瞭差により奥
    行き量情報を取得することを特徴とした立体映像視覚効
    果付加方法。
  36. 【請求項36】 請求項20に記載の立体映像視覚効果
    付加方法において、 前記2次元奥行き処理ステップは、前記オブジェクトに
    対して色味を変え、色による奥行きを知覚させることを
    特徴とした立体映像視覚効果付加方法。
  37. 【請求項37】 請求項37に記載の立体映像視覚効果
    付加方法において、 前記奥行き情報取得ステップは、前記2次元奥行き処理
    ステップにより施されたオブジェクトの色が進出色か後
    退色かにより奥行きの前後関係情報を取得することを特
    徴とした立体映像視覚効果付加方法。
JP2000047668A 2000-02-24 2000-02-24 立体映像視覚効果付加装置及び方法 Pending JP2001238231A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000047668A JP2001238231A (ja) 2000-02-24 2000-02-24 立体映像視覚効果付加装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000047668A JP2001238231A (ja) 2000-02-24 2000-02-24 立体映像視覚効果付加装置及び方法

Publications (1)

Publication Number Publication Date
JP2001238231A true JP2001238231A (ja) 2001-08-31

Family

ID=18569884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000047668A Pending JP2001238231A (ja) 2000-02-24 2000-02-24 立体映像視覚効果付加装置及び方法

Country Status (1)

Country Link
JP (1) JP2001238231A (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110360A (ja) * 2005-10-13 2007-04-26 Ntt Comware Corp 立体画像処理装置およびプログラム
JP2008281599A (ja) * 2007-05-08 2008-11-20 Nippon Telegr & Teleph Corp <Ntt> 情報強調表示方法および情報入出力装置
JP2011070450A (ja) * 2009-09-25 2011-04-07 Panasonic Corp 三次元画像処理装置およびその制御方法
JP2011087100A (ja) * 2009-10-15 2011-04-28 Jvc Kenwood Holdings Inc 擬似立体画像作成装置及び擬似立体画像表示システム
CN102082954A (zh) * 2009-11-27 2011-06-01 索尼公司 图像处理装置、图像处理方法和程序
CN102124745A (zh) * 2008-08-26 2011-07-13 升级芯片技术公司 用于将二维图像信号转换为三维图像信号的装置及方法
JP2012134725A (ja) * 2010-12-21 2012-07-12 Toshiba Corp 画像処理装置、及び画像処理方法
CN102595167A (zh) * 2012-03-07 2012-07-18 中国科学院自动化研究所 2d/3d视频转换中的深度归一化方法及装置
CN102802008A (zh) * 2011-05-26 2012-11-28 索尼公司 图像处理装置、图像处理方法以及图像处理程序
CN102949199A (zh) * 2011-08-25 2013-03-06 株式会社东芝 医用图像显示装置以及x 射线诊断装置
WO2013080439A1 (ja) * 2011-11-28 2013-06-06 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
US8630480B2 (en) 2010-11-29 2014-01-14 Sony Corporation Image processing apparatus, display apparatus, image processing method and image processing program
CN104780354A (zh) * 2014-01-14 2015-07-15 索尼公司 图像处理装置、图像处理方法及程序
JP2016208075A (ja) * 2015-04-15 2016-12-08 キヤノン株式会社 画像出力装置およびその制御方法、撮像装置、プログラム
WO2017022303A1 (ja) * 2015-08-03 2017-02-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101728724B1 (ko) * 2010-08-10 2017-04-20 엘지전자 주식회사 영상 표시 방법 및 그에 따른 영상 표시 장치

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110360A (ja) * 2005-10-13 2007-04-26 Ntt Comware Corp 立体画像処理装置およびプログラム
JP2008281599A (ja) * 2007-05-08 2008-11-20 Nippon Telegr & Teleph Corp <Ntt> 情報強調表示方法および情報入出力装置
CN102124745A (zh) * 2008-08-26 2011-07-13 升级芯片技术公司 用于将二维图像信号转换为三维图像信号的装置及方法
JP2011070450A (ja) * 2009-09-25 2011-04-07 Panasonic Corp 三次元画像処理装置およびその制御方法
JP2011087100A (ja) * 2009-10-15 2011-04-28 Jvc Kenwood Holdings Inc 擬似立体画像作成装置及び擬似立体画像表示システム
JP2011113363A (ja) * 2009-11-27 2011-06-09 Sony Corp 画像処理装置、画像処理方法、およびプログラム
KR20110059531A (ko) 2009-11-27 2011-06-02 소니 주식회사 화상 처리 장치, 화상 처리 방법 및 프로그램
EP2345993A2 (en) 2009-11-27 2011-07-20 Sony Corporation Image processing apparatus, image processing method and program
US9934575B2 (en) 2009-11-27 2018-04-03 Sony Corporation Image processing apparatus, method and computer program to adjust 3D information based on human visual characteristics
CN102082954A (zh) * 2009-11-27 2011-06-01 索尼公司 图像处理装置、图像处理方法和程序
US9098907B2 (en) 2009-11-27 2015-08-04 Sony Corporation Image processing apparatus, image processing method and program
US8660337B2 (en) 2009-11-27 2014-02-25 Sony Corporation Image processing apparatus, method and computer program to adjust 3D information based on human visual characteristics
KR101728724B1 (ko) * 2010-08-10 2017-04-20 엘지전자 주식회사 영상 표시 방법 및 그에 따른 영상 표시 장치
US8630480B2 (en) 2010-11-29 2014-01-14 Sony Corporation Image processing apparatus, display apparatus, image processing method and image processing program
JP2012134725A (ja) * 2010-12-21 2012-07-12 Toshiba Corp 画像処理装置、及び画像処理方法
CN102802008B (zh) * 2011-05-26 2015-11-18 索尼公司 图像处理装置、图像处理方法以及图像处理程序
US8780109B2 (en) 2011-05-26 2014-07-15 Sony Corporation Image processing apparatus, image processing method and an image processing program for reducing a feeling of discomfort and displeasure when presenting a three-dimensional image
CN102802008A (zh) * 2011-05-26 2012-11-28 索尼公司 图像处理装置、图像处理方法以及图像处理程序
CN102949199A (zh) * 2011-08-25 2013-03-06 株式会社东芝 医用图像显示装置以及x 射线诊断装置
WO2013080439A1 (ja) * 2011-11-28 2013-06-06 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
US9129439B2 (en) 2011-11-28 2015-09-08 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image processing apparatus and three-dimensional image processing method
JP5303692B1 (ja) * 2011-11-28 2013-10-02 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
CN102595167A (zh) * 2012-03-07 2012-07-18 中国科学院自动化研究所 2d/3d视频转换中的深度归一化方法及装置
US9438880B2 (en) 2014-01-14 2016-09-06 Sony Corporation Image processing apparatus, image processing method, and program
CN104780354A (zh) * 2014-01-14 2015-07-15 索尼公司 图像处理装置、图像处理方法及程序
CN104780354B (zh) * 2014-01-14 2018-06-05 索尼公司 图像处理装置、图像处理方法及程序
JP2016208075A (ja) * 2015-04-15 2016-12-08 キヤノン株式会社 画像出力装置およびその制御方法、撮像装置、プログラム
US10356381B2 (en) 2015-04-15 2019-07-16 Canon Kabushiki Kaisha Image output apparatus, control method, image pickup apparatus, and storage medium
WO2017022303A1 (ja) * 2015-08-03 2017-02-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Similar Documents

Publication Publication Date Title
JP2001238231A (ja) 立体映像視覚効果付加装置及び方法
US9684994B2 (en) Modifying perspective of stereoscopic images based on changes in user viewpoint
US20050253924A1 (en) Method and apparatus for processing three-dimensional images
CN102075694B (zh) 用于视频制作、后期制作和显示适应的立体编辑
US7907167B2 (en) Three dimensional horizontal perspective workstation
US9087406B2 (en) Automated stereoscopic computer-animation techniques for determining scaled stereo parameters
JP6810873B2 (ja) 電子ディスプレイの前方または上に投影されて見える仮想3次元画像を作製するためのシステム、方法、およびソフトウェア
EP2629532B1 (en) Display control program, display control apparatus, display control system, and display control method
TWI531212B (zh) 呈現立體影像之系統及方法
TW201206151A (en) Method and system for generating images of a plurality of views for 3D image reconstruction
TW201240440A (en) Depth information generator, depth information generating method, and depth adjustment apparatus
KR100436904B1 (ko) 2차원이미지에 대한 입체영상생성방법
JPH0744701B2 (ja) 立体ス−パ−インポ−ズ装置
US20130210520A1 (en) Storage medium having stored therein game program, game apparatus, game system, and game image generation method
Waidhofer et al. PanoSynthVR: Toward light-weight 360-degree view synthesis from a single panoramic input
JP2005018529A (ja) 画像処理装置
CN104052984B (zh) 一种逆视区矫正方法和装置
Guan et al. A tool for stereoscopic parameter setting based on geometric perceived depth percentage
JP2009500878A (ja) 奥行錯覚デジタル撮像
CN113034350A (zh) 一种植被模型的处理方法和装置
TWM529333U (zh) 立體嵌入式影像系統
Prema et al. 3D visualisation techniques for multi-layer display technology
Feldman et al. Interactive 2D to 3D stereoscopic image synthesis
KR20140098950A (ko) 3차원 동영상 생성 장치 및 방법
Wong View-adaptive asymmetric image detail enhancement for 360-degree stereoscopic VR content