JPWO2004071102A1 - 立体視用映像提供方法及び立体映像表示装置 - Google Patents
立体視用映像提供方法及び立体映像表示装置 Download PDFInfo
- Publication number
- JPWO2004071102A1 JPWO2004071102A1 JP2005504792A JP2005504792A JPWO2004071102A1 JP WO2004071102 A1 JPWO2004071102 A1 JP WO2004071102A1 JP 2005504792 A JP2005504792 A JP 2005504792A JP 2005504792 A JP2005504792 A JP 2005504792A JP WO2004071102 A1 JPWO2004071102 A1 JP WO2004071102A1
- Authority
- JP
- Japan
- Prior art keywords
- information
- video
- stereoscopic
- depth information
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
上記従来技術によれば、前記奥行き情報によって実写の2次元映像等から視差情報を持たせた立体視用映像を生成することができる。しかしながら、上記従来技術では、多様な立体映像表示を可能にしたり、送信する情報量を少なくすることについては実現されていない。
この発明の立体視用映像提供方法は、上記の課題を解決するために、2次元映像をデータとして提供する際に前記2次元映像のデータを立体視用映像に変換するのに役立つ奥行き情報とこの奥行き情報のスケール情報を前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする。
上記の構成であれば、スケール情報が前記2次元映像の付属情報として当該2次元映像のデータと共に提供されるので、広狭様々な奥行きを持つ立体視用映像を被提供側において作成させることが可能となる。
また、この発明の立体視用映像提供方法は、2次元映像をデータとして提供する際に前記2次元映像のデータを立体視用映像に変換するのに役立つ奥行き情報とこの奥行き情報の値により示される距離相当値を当該奥行き情報の値の等差に対して非等間隔とさせるための定義情報を付属情報として当該2次元映像のデータと共に提供することを特徴とする。
上記の構成であれば、奥行き上の任意の位置に所望の分解能を設定するといったことが可能となり、多様な立体映像表示を可能にできる。前記定義情報は、関数群から任意の関数を指定する情報としてもよい。そして、前記奥行き情報の値のなかでどの値が画像表示面位置となるかを示す情報を前記付属情報に含ませることとしてもよい。或いは、前記定義情報は、奥行き情報の値に対して視差量が予め設定されているテーブル群から任意のテーブルを指定する情報としてもよい。また、前記非等間隔の大間隔となる領域を観察者から遠い位置に形成し、小間隔となる領域を観察者に近い位置に形成するように前記定義情報を設定してもよい。また、前記非等間隔の大間隔となる領域を画像表示面位置から遠い位置に形成し、小間隔となる領域を画像表示面位置に近い位置に形成するように前記定義情報を設定してもよい。
また、この発明の立体視用映像提供方法は、2次元映像をデータとして提供する際に、前記2次元映像の画面領域によって異なるビット数で表された奥行き情報を前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする。
上記の構成であれば、2次元映像の画面全体に渡って一律のビット数を設定する場合に比べ、提供する奥行き情報量を削減しつつ被提供側での良質な立体視用映像の生成を可能にすることができる。前記2次元映像の中央側に比べて周辺側では前記奥行き情報のビット数を少なくすることとしてもよい。また、画面のどの領域では何ビットで奥行き情報が表されているかを示す情報を付属情報として当該2次元映像のデータと共に提供することとしてもよい。また、各画素ごとに何ビットで奥行き情報が表されているかを示す情報を付属情報として当該2次元映像のデータと共に提供することとしてもよい。
また、この発明の立体視用映像提供方法は、2次元映像をデータとして提供する際に、前記2次元映像の複数画素につき共通の値の奥行き情報を前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする。
上記の構成であれば、2次元映像の全画素について個々の奥行き情報を設定する場合に比べ、提供する奥行き情報量を削減しつつ被提供側での良質な立体視用映像の生成を可能にすることができる。前記2次元映像の中央側に比べて周辺側では前記共通の値の奥行き情報が与えられる画素数を多くしてもよい。
また、この発明の立体視用映像提供方法は、2次元映像をデータとして提供する際に、前記2次元映像中の各オブジェクトについて与えられた第1の奥行き情報と各オブジェクトを構成する画素について与えられた第2の奥行き情報とを前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする。
上記の構成であれば、2次元映像中の各オブジェクトについての奥行きを第1の奥行き情報にて与え、各オブジェクトを構成する画素の奥行きを第2の奥行き情報にて与えることができるので、2次元映像の全画素について個々の奥行き情報を設定する場合に比べ、提供する奥行き情報量を削減しつつ被提供側での良質な立体視用映像の生成を可能にすることができる。
また、この発明の立体視用映像提供方法は、2次元映像をデータとして提供する際に、前記2次元映像中の各オブジェクトについて与えられた奥行き情報と各オブジェクトの形状情報とを前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする。
上記の構成であれば、2次元映像中の各オブジェクトについての奥行きを奥行き情報にて与え、更にその形状情報を与えることで被提供側で保有する形状ごとの奥行き値テーブルを利用して各オブジェクトを構成する画素の奥行きが得られることになり、2次元映像の全画素について個々の奥行き情報を設定する場合に比べ、提供する奥行き情報量を削減しつつ被提供側での良質な立体視用映像の生成を可能にすることができる。
これらの立体視用映像提供方法において、情報の提供を、放送、通信、記録媒体への記録のいずれかにより行なうこととしてもよい。
また、この発明の立体映像表示装置は、取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報からスケール情報及び奥行き情報を取得する手段と、前記スケール情報と前記奥行き情報とによって視差量を生成する手段と、前記視差量に基づいて立体視用映像を生成する手段と、を備えたことを特徴とする。
また、この発明の立体映像表示装置は、取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から奥行き情報及び関数指定情報を取得する手段と、前記奥行き情報の値により示される距離相当値を当該奥行き情報の値の等差に対して非等間隔とさせる複数の関数を記憶する手段と、前記関数指定情報に基づいて関数を選択する手段と、選択した関数と前記奥行き情報とによって視差量を生成する手段と、前記視差量に基づいて立体視用映像を生成する手段と、を備えたことを特徴とする。
上記構成において、画像表示面位置を示す情報にて基準視差量を与える奥行き値を判定するように構成されていてもよい。
また、この発明の立体映像表示装置は、取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から奥行き情報及びテーブル指定情報を取得する手段と、前記奥行き情報の値により示される距離相当値を当該奥行き情報の値の等差に対して非等間隔とさせる複数のテーブルを記憶する手段と、前記テーブル指定情報に基づいてテーブルを選択する手段と、選択したテーブルと前記奥行き情報とによって視差量を生成する手段と、前記視差量に基づいて立体視用映像を生成する手段と、を備えたことを特徴とする。
また、この発明の立体映像表示装置は、取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から前記2次元映像の画面領域によって異なるビット数で表された奥行き情報を取得した場合に、前記2次元映像の画面領域で異なるビット数で表された奥行き情報を画面領域の各画素に適用して立体視用映像を生成する手段を備えたことを特徴とする。
また、この発明の立体映像表示装置は、取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から前記2次元映像の画素数よりも少ない数の奥行き情報を取得した場合に、前記2次元映像の複数画素につき共通の値の前記奥行き情報を適用して立体視用映像を生成する手段を備えたことを特徴とする。
また、この発明の立体映像表示装置は、取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から前記2次元映像中の各オブジェクトについて与えられた第1の奥行き情報と各オブジェクトを構成する画素について与えられた第2の奥行き情報とを取得する手段と、前記第1の奥行き情報に前記第2の奥行き情報を加味して各画素の奥行き情報を生成する手段と、前記各画素の奥行き情報に基づいて立体視用映像を生成する手段と、を備えたことを特徴とする。
また、この発明の立体映像表示装置は、取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から前記2次元映像中の各オブジェクトについて与えられた奥行き情報と各オブジェクトの形状情報とを取得する手段と、各形状を構成する画素群の各画素に奥行き情報を対応付けたテーブルを記憶する手段と、前記形状情報に基づいて前記テーブルを選択する手段と、前記各オブジェクトについて与えられた奥行き情報に前記テーブルから得られた奥行き情報を加味して各画素の奥行き情報を生成する手段と、前記各画素の奥行き情報に基づいて立体視用映像を生成する手段と、を備えたことを特徴とする。
図10(a)(b)(c)(d)は奥行き情報の与え方の他の例を示した説明図である。図11は図10における具体例を示した説明図である。図12は図10における他の具体例を示した説明図である。
図1に基づいて2次元映像とデプスマップ(奥行き情報)とによる立体映像の生成について説明していく。なお、この図においては、放送局やインターネット上のサーバなどとして構成される送信側装置1と、放送受信装置やネット接続環境を備えたパーソナルコンピュータや携帯電話などの受信側装置2とからなるシステムとして説明する。
同図(a)は原画像である2次元映像100を示している。送信側装置1では2次元映像100に対して画像分析を行い、同図(b)に示すように、背景映像101、山の映像102、木の映像103、人の映像104を抽出する。これら抽出された映像がオブジェクト(例えば、エッジ情報)として扱われる。また、画素単位で奥行き値を与え、デプスマップを生成する。なお、オブジェクト単位で奥行き値を与えることもできる。奥行き値は自動的(推定的)に与えるようにしてもよいし、手作業的に与えることとしてもよい。
このように、送信側装置1では、映像を提供(送信,放送)する際に、デプスマップを前記映像の付属情報として送信する。更に、この実施形態では、その他の付属情報も送信する。その他の付属情報については後で詳述する。ディジタル放送の場合、映像データと各種の付属情報を一つのトランスポートストリームに多重して放送することができる。コンピュータネットワークを用いた配信においても、映像データと各種の付属情報とを多重して送信することができる。
ところで、2次元映像とデプスマップとによって立体視用の映像を生成する場合、デプスマップを一種の2次元映像と考えることができるので、図2に示すように、2次元映像とデプスマップの2枚の映像を提供すればよい。従って、2眼式立体視においてL画像とR画像の2枚を提供するのと同様の考え方を適用することができる。ただし、2眼式立体視用の映像や多視点用の映像では各視点映像間でフォーマットが異なることがないのに対し、2次元映像とデプスマップとによって立体視用の映像を作成する場合、デプスマップはモノクロ画像でよく各画素に数ビットを割り当てた画像とすることができる。従って、デプスマップの1画素(2次元映像の各画素に対応する奥行き情報)を何ビットで表現するかを予め規定しておくか、或いは、送信側装置1から1画素のビット数を示す情報を受信装置2に提供することになる。また、デプスマップをモノクロ画像として表現する場合、より白ければ近距離相当値を表すのか、より黒ければ近距離相当値を表すのかを区別することとなるが、これについても予め規定しておいてもよいし、送信側からそのことを示す情報を送信することとしてもよい。
[他の付属情報]
▲1▼送信側装置1は、2次元映像をデータとして提供する際に前記デプスマップとこのデプスマップの値のスケール情報を前記2次元映像の付属情報として当該2次元映像のデータと共に送信する。デプスマップの1画素当りのビット数が決まったとして、さらに分解能と絶対的な距離相当値との関係を表すのが望ましい。図3は1画素の奥行き値を3ビットで表す場合を例示したものである(実際には3ビットということはありえないだろうが説明の便宜上、3ビットとしている)。1画素当り3ビットを割り当てる場合、8レベルのデプスを表現できることになるが、1つの刻みが絶対的な距離のどれだけに相当するかを示すためにスケール情報を送信することとする。図3(a)では、分解能を100mmとしており、0から800mmの広い範囲をカバーすることができる。また、図3(b)では、分解能を10mmとしており、0から80mmの狭い範囲をカバーすることができる。従って、スケール情報を送信することにより、広狭様々な奥行きを持つ立体視用映像を受信側装置2において作成させることが可能となる。
▲2▼送信側装置1は、2次元映像をデータとして提供する際に前記デプスマップとこのデプスマップの値により示される距離相当値を当該デプスマップの値の等差に対して非等間隔とさせるための定義情報を付属情報として当該2次元映像のデータと共に送信する。前述の図3では等間隔に奥行き(デプス)を表現する場合を示したが、必ずしも等間隔である必要はない。奥行きの分解能については、例えば手前は細かい方がよいが遠くは粗くてもよいと考ることもできるため、1画素当りのビット数が限られている場合、非等間隔で表現した方が効率がよいというケースも考えられる。図4(a)では手前側の分解能を細かくするlog型表現を示している。図5を用いて更に詳述する。図5では、Mを最大デプス値(ここでは7(111))とし、デプス値Aを1からMの正数とし、B=(M−A)/2とし、デプス値AとA−1との間の視差間隔を2のB乗とすることを定義している。そして、図5(a)では管面位置を(010)とし、図5(b)では管面位置を(100)としている。このような関数を用いる場合、管面位置に関係なく手前側(観察者側)の分解能が細かくなる。
一方、図4(b)に示す例では、管面(画像表示面位置)に近いほどデプスの分解能を細かくし、管面から離れるに従ってデプスの分解能を粗くしている。図6を用いて更に詳述する。図6では、最大視差(正)と最小視差(負)の差を22とし、視差間隔が”1,1,2,2,4,4,8,8”の数値の列を順に用いることが規定されることとする。そして、図6(a)では管面位置を010とし、図6(b)では管面位置を011としている。このようにすることで、管面位置付近における奥行きを細かく設定できることになる。
上述のような非等間隔表現とする場合、一つの非等間隔表現を固定的に送受信間で決めておく手法を採用できるが、幾つもの非等間隔表現を送信側で自在に指定できることとするのがよい。例えば、2ビットの指定情報を送信するとし、受信側では4つの関数(前述した数値列の規定を含む)を用意しておくことで、4種類の非等間隔表現を実現できることになる。また、管面位置についても、一つの管面位置を固定的に送受信間で決めておく手法(例えば、010を固定的に管面位置とする等)を採用できるが、任意の管面位置を送信側で指定できることとするのがよい。この場合、010を管面位置とするのであれば、管面位置情報として010を送信すればよい。
上述したような関数による非等間隔表現に限らず、テーブルを受信側が持つこととしてもよい。勿論、このようなテーブルを受信側で複数用意しておき、送信側から送られてくるテーブル指定情報によってテーブルを選択することとてもよい。
▲3▼送信側装置1は、2次元映像をデータとして提供する際に、前記2次元映像の画面領域によって異なるビット数で表されたデプスマップを前記2次元映像の付属情報として当該2次元映像のデータと共に送信することもできる。この場合においては、2次元映像の中央側に比べて周辺側では前記奥行き情報のビット数を少なくするのがよい。例えば、図7に示すように、周辺は3ビットとし、中央の50%×50%の領域は6ビットとする。一つの領域分割パターンを固定的に送受信間で決めておく手法を採用できるが、複数の領域分割パターンを用意しておき、任意のパターンを送信側で指定できることとしてもよい。或いは、各画素の最初に何ビットの情報であるかを記述することとしてもよい。例えば、0を3ビット、1を6ビットと定義すれば、画像情報は、画素1(0 000),画素2(0 000),画素3(1 000000)…のように記述できる。
なお、上記の領域分割例では2分割としたが、これに限らず、図8に示しているように、3ビット領域、4ビット領域、及び6ビット領域の3領域に分割してもよく、また、映像内容(オブジェクト配置状態)やシーンに応じて(時間軸上において)分割領域パターンを異ならせていくこととしてもよい。また、図8に示すような人物画像の場合、人物の顔・胴などの構造は一意的に定義可能であるため、それに対応したデプスマップテーブルを用意しておき、撮像対象が人物であるときにはそれに対応したデプスマップテーブルを選択(オペレータによる選択或いは、撮像対象を自動判定することによる選択)することで、図8の分割領域パターンが自動選択される構成とすることができる。
▲4▼送信側装置1は、2次元映像をデータとして提供する際に、前記2次元映像の複数画素につき共通の値のデプスマップを前記2次元映像の付属情報として当該2次元映像のデータと共に送信する。デプスマップの解像度を2次元映像と等しくすることを基本としてもよいが、これに限らず、異なるようにすることも可能である。例えば、2次元映像の2×2画素に対してデプスマップの1画素を割り当てる(デプスマップの解像度は2D画像の1/4となる)。また、2次元映像の中央側に比べて周辺側では前記共通の値の奥行き情報が与えられる画素数を多くすることとしてもよい。例えば、図9(a)に示すように、周辺は3×3ピクセルで共通の奥行き情報を与え、中央の50%×50%の領域は2×2ピクセルで共通の奥行き情報を与える。一つの領域分割パターンを固定的に送受信間で決めておく手法を採用できるが、複数の領域分割パターンを用意しておき、任意のパターンを送信側で指定できることとしてもよい。デプスマップ(モノクロ画像)の送信においては、図9(b)に示すように、4領域に分割し(領域Vは前記中央の50%×50%の領域に相当する)、各領域単位で順に送信することとする。
▲5▼送信側装置1は、2次元映像をデータとして提供する際に、前記2次元映像中の各オブジェクトについて与えられた第1のデプスマップと各オブジェクトを構成する画素について与えられた第2のデプスマップとを前記2次元映像の付属情報として当該2次元映像のデータと共に送信する。すなわち、一旦大きくデプスマップでオブジェクトを表現し、各々のオブジェクト毎に更にデプスマップ情報を細分化して割り当てる。図10はかかる方法の概念を示した説明図である。図10(a)に示す撮像状態を上側から見たときの被写体(オブジェクト)の奥行き状態を同図(b)に示している。この同図(b)の奥行き状態は映像として存在しているわけではなく、撮影時や編集時などにおいて情報として与えることを示している。すなわち、同図(c)に示すように、奥行き状態を大まかなレイヤに分割し、そのレイヤ上に位置する各オブジェクトに対してレイヤ情報(第1のデプスマップ)を与える。そして、個々のオブジェクトの画素に対して第2のデプスマップ情報を割り当てる。図11は映像送信の具体例を示している。この図11の画像番号1は原画像として送信されるものであり、これに画像番号2の映像(第1のデプスマップ)が付随する。更に、個々のオブジェクトの第2のデプスマップ情報である映像(画像番号3,画像番号4,画像番号5)が付随する。すなわち、画像番号1から画像番号5の映像が送信側から送信され、受信側ではこれらの5つの映像を用いて一つの映像を合成する。また、この例では、各オブジェクトの第2のデプスマップ情報を同じビット数とするのではなく、人は8ビット、木は4ビットのごとく異ならせることとしている。
▲6▼送信側装置1は、2次元映像をデータとして提供する際に、前記2次元映像中の各オブジェクトについて与えられたデプスマップと各オブジェクトの形状情報とを前記2次元映像の付属情報として当該2次元映像のデータと共に送信する。図12はかかる映像送信の具体例を示している。この図12の画像番号1は原画像として送信されるものであり、これに画像番号2のモノクロ映像(デプスマップ)が付随する。更に、個々のオブジェクトの構成要素の形状情報等が付随する。この形状情報等は、例えば、オブジェクト番号(例えば、人、木のどれであるかを示す情報)、構成要素番号(例えば、人の頭部、胴体、脚等の構成要素を示す情報)、形状情報(前記構成要素が球であるか、円柱であるか、円錐であるか等を示す情報)、構成要素間の配置情報(例えば、木において三角錐球の下に円柱が位置するといった情報)などから成る。形状を特定できない山については、モノクロ映像(デプスマップ)として送信する。受信側ではこれらの情報を用いて一つの映像を合成する。
[受信側装置]
図1(c)に示したように、受信側装置2は、映像データ、デプスマップ、他の付属情報を受信する。これらデータがマルチプレクスされているのであればデマルチプレクス(DEMUX)処理を行なう。映像データに対するデコード処理は、基本的には例えばMPEGに基づいた処理などが採用される。そして、受信側装置2では、映像データ及びデプスマップ等に基づいて視差を与えた右眼映像105R及び左眼映像105Lを生成する。従って、受信側装置2には、データを受信するための受信部21(モデム、チューナ等)、デマルチプレクサ22(DEMUX)、デコード部23、2次元映像のデータ及びデプスマップ等に基づいて視差映像を生成する映像生成部24、モニタ25などが備えられる。
受信側装置2は、例えばモニタ手前位置に液晶バリアを備えることにより、平面視映像の表示及び立体視映像の表示の両方が行なえるようになっている。立体視映像が、例えば、右眼映像と左眼映像とを交互に縦ストライプ状に配置したものであれば、CPU26の制御により、液晶バリアにおいて、縦ストライプ状の遮光領域が形成される。なお、右眼映像と左眼映像とを交互に縦ストライプ状に配置した立体視映像に限らず、例えば、右眼映像と左眼映像とを斜め配置配置した立体視映像としてもよく(特許第3096613号公報参照)、この場合には、液晶バリアにおいて斜めバリアを形成する。
受信側装置2のCPU26は、前述した他の付属情報をデマルチプレクサ22から受け取り、当該付属情報に基づいた映像表示制御処理を実行する。以下、この映像表示制御処理について説明する。
受信側装置2のCPU26は、付属情報としてスケール情報を取得すると、このスケール情報とデプスマップとによって視差量(画素ずらし量)を決定する。すなわち、或る画素についてAという値のデプス値が設定されていたとしても、スケール情報がBである場合とCである場合とでは(B≠C)、視差映像における画素ずらし量が異なってくることになる。CPU26は視差量情報を映像生成部24に与え、映像生成部24が視差量情報に基づいて視差映像を生成する。
受信側装置2のCPU26は、付属情報として関数指定情報を取得すると、この関数指定情報に基づいて関数を選択する。メモリ27にはデプスマップの値により示される距離相当値を当該奥行き情報の値の等差に対して非等間隔とさせる複数の関数(定義)が記憶されている。CPU26は、選択した関数と受信したデプス値とに基づいて視差量(画素ずらし量)を算出する。ここで、図5(a)を用いて具体的に説明する。受信側装置2は、B=(M−A)/2の演算及び2のB乗の演算によって、デプス値AとA−1との間の視差間隔を得る。なお、視差間隔自体はデプス値を表すビット数によって決定できるため、視差間隔自体はビット数に対応付けて前記メモリ27に格納しておいて、これを読み出すこととしてもよい。管面位置は010のデプス値とされている箇所である。受信したデプス値が101であるときには、101は010より三刻み分大きいので、4+2+2の演算によって視差量8を得ることになる。CPU26は視差量情報を映像生成部24に与え、映像生成部24が視差量情報に基づいて視差映像を生成する。
受信側装置2のCPU26は、付属情報としてテーブル指定情報を取得すると、このテーブル指定情報に基づいてテーブルを選択する。メモリ27にはデプス値と視差量とを対応付けた複数のテーブルが記憶されている。テーブルの内容は前記図5(a)を例にすると、000=−12、001=−4、010=0、…のごとく定めたテーブルとなる。CPU26は例えば受信したデプス値をアドレスとして前記テーブルに与えて当該テーブルから視差量情報を読み出し、この視差量情報を映像生成部24に与え、映像生成部24が視差量情報に基づいて視差映像を生成する。
受信側装置2は、図5(a)(b)に示した設定に従うときには、非等間隔の大間隔となる領域を観察者から遠い位置に形成し、小間隔となる領域を観察者に近い位置に形成することに相当した視差映像を生成することになる。また、受信側装置2は、図5(a)(b)に示した設定に従うときには、非等間隔の大間隔となる領域を画像表示面位置から遠い位置に形成し、小間隔となる領域を画像表示面位置に近い位置に形成することに相当した視差映像を生成することになる。
受信側装置2は、2次元映像の画面領域によって異なるビット数で表されたデプスマップを取得した場合に、前記2次元映像の画面領域で異なるビット数で表されたデプスマップを各画素に適用して立体視用映像を生成する。例えば、図7に示すように、周辺は3ビットとし、中央の50%×50%の領域は6ビットとするパターンを選択していることを示す情報を送信側から受けた場合、この情報により特定されるパターンからCPU26が各デプス値のビット数を判断する。また、各デプス値(画素)の最初に何ビットの情報であるかが記述されている場合には、その記述によって各デプス値のビット数を判断することができる。
受信側装置2は、2次元映像の画素数よりも少ない数の奥行き情報を取得した場合に、前記2次元映像の複数画素につき共通の値の前記奥行き情報を適用して立体視用映像を生成する。例えば、図9(a)に示したように、周辺は3×3ピクセルで共通の奥行き情報を与え、中央の50%×50%の領域は2×2ピクセルで共通の奥行き情報を与えるパターンを選択していることを示す情報を送信側から受けた場合、この情報により特定されるパターンから、どの画素がグループ化されて共通の奥行き情報が与えられているかをCPU26が判断する。そして、例えば、2次元映像における第1行の左から3画素分、第2行の左から3画素分、第3行の左から3画素分の合計9画素分に対する視差映像生成処理が映像生成部24において行なわれるときには、CPU26から与えられた共通の(一つの)視差量が利用されることになる。
受信側装置2は、2次元映像中の各オブジェクトについて与えられた第1の奥行き情報と各オブジェクトを構成する画素について与えられた第2の奥行き情報とを取得し、第1の奥行き情報に前記第2の奥行き情報を加味して各画素の奥行き情報を生成し、前記各画素の奥行き情報に基づいて立体視用映像を生成する。例えば、図11に示したように、受信側装置2は、送信側から送信された画像番号1から画像番号5の映像を受信し、CPU26は、画像番号2による各オブジェクトの2ビットのデプスマップと、画像番号3から画像番号5による各オブジェクトの構成画素のデプスマップとにより、各画素の視差量情報を生成する。CPU26は視差量情報を映像生成部24に与え、映像生成部24が視差量情報に基づいて視差映像を生成する。
受信側装置2は、そのメモリ27において、各形状(球、円柱、三角錐等)を構成する画素群の各画素に奥行き情報を対応付けたデプステーブルを記憶している。そして、付属情報として各オブジェクトの形状情報を取得したときには、その形状に対応したデプステーブルを選択して奥行き情報を読み出す。この奥行き情報(モノクロ映像)に対していわゆる画素補完や画素間引き処理に相当する処理を行なうことで、オブジェクトの大きさにデプスマップを対応させることができる。CPU26は、各オブジェクトについて与えられた奥行き情報に前記テーブルから得られた奥行き情報を加味して各画素の視差量情報生成する。CPU26は視差量情報を映像生成部24に与え、映像生成部24が視差量情報に基づいて視差映像を生成する。
以上説明したように、この発明によれば、多様な立体映像表示が可能になる。また、提供する情報量を削減できるという効果を奏する。
Claims (24)
- 2次元映像をデータとして提供する際に前記2次元映像のデータを立体視用映像に変換するのに役立つ奥行き情報とこの奥行き情報の値のスケール情報を前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする立体視用映像提供方法。
- 2次元映像をデータとして提供する際に前記2次元映像のデータを立体視用映像に変換するのに役立つ奥行き情報とこの奥行き情報の値により示される距離相当値を当該奥行き情報の値の等差に対して非等間隔とさせるための定義情報を付属情報として当該2次元映像のデータと共に提供することを特徴とする立体視用映像提供方法。
- 請求項2に記載の立体視用映像提供方法において、前記定義情報は、関数群から任意の関数を指定する情報であることを特徴とする立体視用映像提供方法。
- 請求項3に記載の立体視用映像提供方法において、前記奥行き情報の値のなかでどの値が画像表示面位置となるかを示す情報を付属情報に含ませることを特徴とする立体視用映像提供方法。
- 請求項2に記載の立体視用映像提供方法において、前記定義情報は、奥行き情報の値に対して視差量が予め設定されているテーブル群から任意のテーブルを指定する情報であることを特徴とする立体視用映像提供方法。
- 請求項2乃至請求項5のいずれかに記載の立体視用映像提供方法において、前記非等間隔の大間隔となる領域を観察者から遠い位置に形成し、小間隔となる領域を観察者に近い位置に形成するように前記定義情報を設定することを特徴とする立体視用映像提供方法。
- 請求項2乃至請求項5のいずれかに記載の立体視用映像提供方法において、前記非等間隔の大間隔となる領域を画像表示面位置から遠い位置に形成し、小間隔となる領域を画像表示面位置に近い位置に形成するように前記定義情報を設定することを特徴とする立体視用映像提供方法。
- 2次元映像をデータとして提供する際に、前記2次元映像の画面領域によって異なるビット数で表された奥行き情報を前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする立体視用映像提供方法。
- 請求項8に記載の立体視用映像提供方法において、前記2次元映像の中央側に比べて周辺側では前記奥行き情報のビット数を少なくすることを特徴とする立体視用映像提供方法。
- 請求項8又は請求項9に記載の立体視用映像提供方法において、画面のどの領域では何ビットで奥行き情報が表されているかを示す情報を付属情報として当該2次元映像のデータと共に提供することを特徴とする立体視用映像提供方法。
- 請求項8又は請求項9に記載の立体視用映像提供方法において、各画素ごとに何ビットで奥行き情報が表されているかを示す情報を付属情報として当該2次元映像のデータと共に提供することを特徴とする立体視用映像提供方法。
- 2次元映像をデータとして提供する際に、前記2次元映像の複数画素につき共通の値の奥行き情報を前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする立体視用映像提供方法。
- 請求項12に記載の立体視用映像提供方法において、前記2次元映像の中央側に比べて周辺側では前記共通の値の奥行き情報が与えられる画素数を多くすることを特徴とする立体視用映像提供方法。
- 2次元映像をデータとして提供する際に、前記2次元映像中の各オブジェクトについて与えられた第1の奥行き情報と各オブジェクトを構成する画素について与えられた第2の奥行き情報とを前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする立体視用映像提供方法。
- 2次元映像をデータとして提供する際に、前記2次元映像中の各オブジェクトについて与えられた奥行き情報と各オブジェクトの形状情報とを前記2次元映像の付属情報として当該2次元映像のデータと共に提供することを特徴とする立体視用映像提供方法。
- 請求項1乃至請求項15のいずれかに記載の立体視用映像提供方法において、情報の提供を、放送、通信、記録媒体への記録のいずれかにより行なうことを特徴とする立体視用映像提供方法。
- 取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報からスケール情報及び奥行き情報を取得する手段と、前記スケール情報と前記奥行き情報とによって視差量を生成する手段と、前記視差量に基づいて立体視用映像を生成する手段と、を備えたことを特徴とする立体映像表示装置。
- 取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から奥行き情報及び関数指定情報を取得する手段と、前記奥行き情報の値により示される距離相当値を当該奥行き情報の値の等差に対して非等間隔とさせる複数の関数を記憶する手段と、前記関数指定情報に基づいて関数を選択する手段と、選択した関数と前記奥行き情報とによって視差量を生成する手段と、前記視差量に基づいて立体視用映像を生成する手段と、を備えたことを特徴とする立体映像表示装置。
- 請求項18に記載の立体映像表示装置において、画像表示面位置を示す情報にて基準視差量を与える奥行き値を判定するように構成されたことを特徴とする立体映像表示装置。
- 取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から奥行き情報及びテーブル指定情報を取得する手段と、前記奥行き情報の値により示される距離相当値を当該奥行き情報の値の等差に対して非等間隔とさせる複数のテーブルを記憶する手段と、前記テーブル指定情報に基づいてテーブルを選択する手段と、選択したテーブルと前記奥行き情報とによって視差量を生成する手段と、前記視差量を利用して立体視用映像を生成する手段と、を備えたことを特徴とする立体映像表示装置。
- 取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から前記2次元映像の画面領域によって異なるビット数で表された奥行き情報を取得した場合に、前記2次元映像の画面領域で異なるビット数で表された奥行き情報を画面領域の各画素に適用して立体視用映像を生成する手段を備えたことを特徴とする立体映像表示装置。
- 取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から前記2次元映像の画素数よりも少ない数の奥行き情報を取得した場合に、前記2次元映像の複数画素につき共通の値の前記奥行き情報を適用して立体視用映像を生成する手段を備えたことを特徴とする立体映像表示装置。
- 取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から前記2次元映像中の各オブジェクトについて与えられた第1の奥行き情報と各オブジェクトを構成する画素について与えられた第2の奥行き情報とを取得する手段と、前記第1の奥行き情報に前記第2の奥行き情報を加味して各画素の奥行き情報を生成する手段と、前記各画素の奥行き情報に基づいて立体視用映像を生成する手段と、を備えたことを特徴とする立体映像表示装置。
- 取得した2次元映像データ及びその付属情報を利用して立体視用映像を生成する立体映像表示装置において、前記付属情報から前記2次元映像中の各オブジェクトについて与えられた奥行き情報と各オブジェクトの形状情報とを取得する手段と、各形状を構成する画素群の各画素に奥行き情報を対応付けたテーブルを記憶する手段と、前記形状情報に基づいて前記テーブルを選択する手段と、前記各オブジェクトについて与えられた奥行き情報に前記テーブルから得られた奥行き情報を加味して各画素の奥行き情報を生成する手段と、前記各画素の奥行き情報に基づいて立体視用映像を生成する手段と、を備えたことを特徴とする立体映像表示装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003010804 | 2003-01-20 | ||
JP2003010804 | 2003-01-20 | ||
PCT/JP2004/000376 WO2004071102A1 (ja) | 2003-01-20 | 2004-01-19 | 立体視用映像提供方法及び立体映像表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2004071102A1 true JPWO2004071102A1 (ja) | 2006-06-01 |
JP4188968B2 JP4188968B2 (ja) | 2008-12-03 |
Family
ID=32844080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005504792A Expired - Fee Related JP4188968B2 (ja) | 2003-01-20 | 2004-01-19 | 立体視用映像提供方法及び立体映像表示装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7403201B2 (ja) |
EP (1) | EP1587329B1 (ja) |
JP (1) | JP4188968B2 (ja) |
KR (1) | KR100905371B1 (ja) |
CN (1) | CN100551083C (ja) |
WO (1) | WO2004071102A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011529287A (ja) * | 2008-07-24 | 2011-12-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 多用途三次元画像フォーマット |
Families Citing this family (90)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0329312D0 (en) * | 2003-12-18 | 2004-01-21 | Univ Durham | Mapping perceived depth to regions of interest in stereoscopic images |
KR100579135B1 (ko) * | 2004-11-11 | 2006-05-12 | 한국전자통신연구원 | 수렴형 3차원 다시점 영상 획득 방법 |
JP5058820B2 (ja) * | 2005-01-12 | 2012-10-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 奥行きの知覚 |
JP4283785B2 (ja) * | 2005-05-10 | 2009-06-24 | 株式会社マーキュリーシステム | 立体視画像生成装置およびプログラム |
JP4645356B2 (ja) * | 2005-08-16 | 2011-03-09 | ソニー株式会社 | 映像表示方法、映像表示方法のプログラム、映像表示方法のプログラムを記録した記録媒体及び映像表示装置 |
JP4463215B2 (ja) * | 2006-01-30 | 2010-05-19 | 日本電気株式会社 | 立体化処理装置及び立体情報端末 |
EP1991963B1 (en) * | 2006-02-27 | 2019-07-03 | Koninklijke Philips N.V. | Rendering an output image |
KR100763753B1 (ko) * | 2006-09-21 | 2007-10-04 | 에스케이 텔레콤주식회사 | 통신망 기반의 3차원 입체방송 서비스 시스템 및 방법 |
US8711203B2 (en) | 2006-10-11 | 2014-04-29 | Koninklijke Philips N.V. | Creating three dimensional graphics data |
US8358301B2 (en) * | 2006-10-30 | 2013-01-22 | Koninklijke Philips Electronics N.V. | Video depth map alignment |
US8496575B2 (en) * | 2006-11-14 | 2013-07-30 | Olympus Corporation | Measuring endoscope apparatus, program and recording medium |
KR100913397B1 (ko) * | 2006-12-04 | 2009-08-21 | 한국전자통신연구원 | Dmb기반의 3차원 입체영상 서비스를 위한 객체 기술방법과, 그에 따른 3차원 입체영상 서비스 수신 및 영상포맷 변환 방법 |
JP2008141666A (ja) * | 2006-12-05 | 2008-06-19 | Fujifilm Corp | 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法 |
KR100905723B1 (ko) * | 2006-12-08 | 2009-07-01 | 한국전자통신연구원 | 비실시간 기반의 디지털 실감방송 송수신 시스템 및 그방법 |
WO2009034519A1 (en) * | 2007-09-13 | 2009-03-19 | Koninklijke Philips Electronics N.V. | Generation of a signal |
JP2009135686A (ja) | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
US20090148038A1 (en) * | 2007-12-10 | 2009-06-11 | Youichi Sawachi | Distance image processing apparatus and method |
JP4998956B2 (ja) * | 2007-12-10 | 2012-08-15 | 富士フイルム株式会社 | 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム |
JP2009162748A (ja) * | 2007-12-10 | 2009-07-23 | Fujifilm Corp | 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム |
JP5147650B2 (ja) * | 2007-12-10 | 2013-02-20 | 富士フイルム株式会社 | 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム |
JP2009163717A (ja) * | 2007-12-10 | 2009-07-23 | Fujifilm Corp | 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム |
KR101367282B1 (ko) * | 2007-12-21 | 2014-03-12 | 삼성전자주식회사 | 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치 |
EP2297971A1 (en) * | 2008-06-02 | 2011-03-23 | Koninklijke Philips Electronics N.V. | Video signal with depth information |
JP2010028456A (ja) * | 2008-07-18 | 2010-02-04 | Sony Corp | データ構造、再生装置および方法、並びにプログラム |
CN102132573B (zh) * | 2008-08-26 | 2013-10-23 | 皇家飞利浦电子股份有限公司 | 用于编码3d视频信号的方法和系统,用于编码3d视频信号的编码器,用于解码3d视频信号的方法和系统,用于解码3d视频信号的解码器 |
CN101754042B (zh) * | 2008-10-30 | 2012-07-11 | 华为终端有限公司 | 图像重构方法和图像重构系统 |
EP2332340B1 (en) * | 2008-10-10 | 2015-12-23 | Koninklijke Philips N.V. | A method of processing parallax information comprised in a signal |
GB2464521A (en) * | 2008-10-20 | 2010-04-21 | Sharp Kk | Processing image data for multiple view displays |
KR101502365B1 (ko) | 2008-11-06 | 2015-03-13 | 삼성전자주식회사 | 삼차원 영상 생성기 및 그 제어 방법 |
US8335425B2 (en) * | 2008-11-18 | 2012-12-18 | Panasonic Corporation | Playback apparatus, playback method, and program for performing stereoscopic playback |
WO2010064118A1 (en) | 2008-12-01 | 2010-06-10 | Imax Corporation | Methods and systems for presenting three-dimensional motion pictures with content adaptive information |
EP2194504A1 (en) * | 2008-12-02 | 2010-06-09 | Koninklijke Philips Electronics N.V. | Generation of a depth map |
EP2197217A1 (en) * | 2008-12-15 | 2010-06-16 | Koninklijke Philips Electronics N.V. | Image based 3D video format |
CN101765020B (zh) * | 2008-12-23 | 2013-10-23 | 康佳集团股份有限公司 | 一种可感应立体图像的电视机 |
JP5274359B2 (ja) | 2009-04-27 | 2013-08-28 | 三菱電機株式会社 | 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体 |
JP5627860B2 (ja) * | 2009-04-27 | 2014-11-19 | 三菱電機株式会社 | 立体映像配信システム、立体映像配信方法、立体映像配信装置、立体映像視聴システム、立体映像視聴方法、立体映像視聴装置 |
JP5369952B2 (ja) * | 2009-07-10 | 2013-12-18 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US9294751B2 (en) | 2009-09-09 | 2016-03-22 | Mattel, Inc. | Method and system for disparity adjustment during stereoscopic zoom |
US8614737B2 (en) | 2009-09-11 | 2013-12-24 | Disney Enterprises, Inc. | System and method for three-dimensional video capture workflow for dynamic rendering |
CN102428501A (zh) | 2009-09-18 | 2012-04-25 | 株式会社东芝 | 图像处理装置 |
JP5209121B2 (ja) * | 2009-09-18 | 2013-06-12 | 株式会社東芝 | 視差画像生成装置 |
US8884948B2 (en) * | 2009-09-30 | 2014-11-11 | Disney Enterprises, Inc. | Method and system for creating depth and volume in a 2-D planar image |
KR101727094B1 (ko) * | 2009-10-02 | 2017-04-17 | 코닌클리케 필립스 엔.브이. | 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법 |
JP5521913B2 (ja) * | 2009-10-28 | 2014-06-18 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP2011120233A (ja) * | 2009-11-09 | 2011-06-16 | Panasonic Corp | 3d映像特殊効果装置、3d映像特殊効果方法、および、3d映像特殊効果プログラム |
EP2323412A1 (en) * | 2009-11-13 | 2011-05-18 | Koninklijke Philips Electronics N.V. | Generating an image signal |
US8538135B2 (en) | 2009-12-09 | 2013-09-17 | Deluxe 3D Llc | Pulling keys from color segmented images |
US8638329B2 (en) * | 2009-12-09 | 2014-01-28 | Deluxe 3D Llc | Auto-stereoscopic interpolation |
US20110169818A1 (en) * | 2010-01-13 | 2011-07-14 | Sharp Laboratories Of America, Inc. | Reducing viewing discomfort |
JP5505881B2 (ja) * | 2010-02-02 | 2014-05-28 | 学校法人早稲田大学 | 立体映像制作装置およびプログラム |
KR101669486B1 (ko) * | 2010-02-12 | 2016-10-26 | 엘지전자 주식회사 | 영상표시장치 및 그 동작방법 |
GB2477793A (en) | 2010-02-15 | 2011-08-17 | Sony Corp | A method of creating a stereoscopic image in a client device |
JP5660361B2 (ja) * | 2010-03-26 | 2015-01-28 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP4860763B2 (ja) * | 2010-03-29 | 2012-01-25 | シャープ株式会社 | 画像符号化装置、画像符号化装置の制御方法、制御プログラムおよび記録媒体 |
JP5227993B2 (ja) * | 2010-03-31 | 2013-07-03 | 株式会社東芝 | 視差画像生成装置、及びその方法 |
JP2011223481A (ja) * | 2010-04-14 | 2011-11-04 | Sony Corp | データ構造、画像処理装置、画像処理方法、およびプログラム |
JP5501458B2 (ja) * | 2010-06-11 | 2014-05-21 | 富士フイルム株式会社 | 立体画像表示装置、立体撮像装置、及び方法 |
JP4806088B1 (ja) * | 2010-06-28 | 2011-11-02 | シャープ株式会社 | 画像変換装置、画像変換装置の制御方法、画像変換装置制御プログラムおよび記録媒体 |
CN101917643B (zh) * | 2010-07-09 | 2012-05-30 | 清华大学 | 一种全自动2d转3d技术中的实时镜头检测方法和装置 |
US8446461B2 (en) * | 2010-07-23 | 2013-05-21 | Superd Co. Ltd. | Three-dimensional (3D) display method and system |
KR20120023268A (ko) * | 2010-09-01 | 2012-03-13 | 삼성전자주식회사 | 디스플레이 장치 및 그 영상 생성 방법 |
JP2012089931A (ja) * | 2010-10-15 | 2012-05-10 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
WO2012060172A1 (ja) * | 2010-11-04 | 2012-05-10 | シャープ株式会社 | 動画像符号化装置、動画像復号装置、動画像伝送システム、動画像符号化装置の制御方法、動画像復号装置の制御方法、動画像符号化装置制御プログラム、動画像復号装置制御プログラム、および記録媒体 |
WO2012060168A1 (ja) * | 2010-11-04 | 2012-05-10 | シャープ株式会社 | 符号化装置、復号装置、符号化方法、復号方法、プログラム、記録媒体、および符号化データ |
WO2012060179A1 (ja) * | 2010-11-04 | 2012-05-10 | シャープ株式会社 | 符号化装置、復号装置、符号化方法、復号方法、プログラム、記録媒体、および符号化データのデータ構造 |
JP5438082B2 (ja) * | 2010-11-16 | 2014-03-12 | パナソニック株式会社 | 表示装置及び表示方法 |
US20130010077A1 (en) * | 2011-01-27 | 2013-01-10 | Khang Nguyen | Three-dimensional image capturing apparatus and three-dimensional image capturing method |
KR20120105169A (ko) * | 2011-03-15 | 2012-09-25 | 삼성전자주식회사 | 복수의 거리 픽셀들을 포함하는 3차원 이미지 센서의 구동 방법 |
JP5792662B2 (ja) * | 2011-03-23 | 2015-10-14 | シャープ株式会社 | 視差算出装置、距離算出装置及び視差算出方法 |
JP5355616B2 (ja) * | 2011-04-21 | 2013-11-27 | 株式会社エム・ソフト | 立体視画像生成方法および立体視画像生成システム |
JP5291755B2 (ja) * | 2011-04-21 | 2013-09-18 | 株式会社エム・ソフト | 立体視画像生成方法および立体視画像生成システム |
CN102158725B (zh) * | 2011-05-06 | 2013-04-10 | 深圳超多维光电子有限公司 | 一种生成立体图像的方法和系统 |
WO2012153447A1 (ja) * | 2011-05-11 | 2012-11-15 | パナソニック株式会社 | 画像処理装置、映像処理方法、プログラム、集積回路 |
JP2011211739A (ja) * | 2011-06-01 | 2011-10-20 | Fujifilm Corp | 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法 |
JP5582101B2 (ja) * | 2011-06-23 | 2014-09-03 | コニカミノルタ株式会社 | 画像処理装置、そのプログラム、および画像処理方法 |
JP5377589B2 (ja) * | 2011-07-07 | 2013-12-25 | 三菱電機株式会社 | 再生方法、再生装置、光ディスク |
JP5337218B2 (ja) | 2011-09-22 | 2013-11-06 | 株式会社東芝 | 立体画像変換装置、立体画像出力装置および立体画像変換方法 |
JP5383833B2 (ja) * | 2012-01-20 | 2014-01-08 | 三菱電機株式会社 | 映像情報記録方法、映像情報再生方法、映像情報記録装置、映像情報再生装置、光ディスク |
EP2837183A2 (en) * | 2012-04-13 | 2015-02-18 | Koninklijke Philips N.V. | Depth signaling data |
WO2013186882A1 (ja) * | 2012-06-13 | 2013-12-19 | 株式会社エム・ソフト | 立体視画像生成方法および立体視画像生成システム |
US20140267616A1 (en) | 2013-03-15 | 2014-09-18 | Scott A. Krig | Variable resolution depth representation |
JP6294780B2 (ja) * | 2014-07-17 | 2018-03-14 | 株式会社ソニー・インタラクティブエンタテインメント | 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ |
JP6415179B2 (ja) * | 2014-08-20 | 2018-10-31 | キヤノン株式会社 | 画像処理装置、画像処理方法、および撮像装置並びにその制御方法 |
JP6109371B2 (ja) * | 2016-03-31 | 2017-04-05 | 三菱電機株式会社 | 映像再生方法、映像再生装置、光ディスク |
US10042421B2 (en) | 2016-08-24 | 2018-08-07 | Disney Enterprises, Inc. | System and method of latency-aware rendering of a focal area of an animation |
US10255714B2 (en) | 2016-08-24 | 2019-04-09 | Disney Enterprises, Inc. | System and method of gaze predictive rendering of a focal area of an animation |
CN109891463B (zh) * | 2016-10-25 | 2023-08-29 | 索尼公司 | 图像处理设备和图像处理方法 |
CN110114803B (zh) * | 2016-12-28 | 2023-06-27 | 松下电器(美国)知识产权公司 | 三维模型分发方法、三维模型接收方法、三维模型分发装置以及三维模型接收装置 |
CN113709439B (zh) | 2017-04-11 | 2024-05-14 | 杜比实验室特许公司 | 用于渲染视觉对象的方法、装置及系统 |
JPWO2019167453A1 (ja) * | 2018-02-28 | 2021-03-18 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、およびプログラム |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6590573B1 (en) * | 1983-05-09 | 2003-07-08 | David Michael Geshwind | Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems |
US5257345A (en) * | 1990-05-11 | 1993-10-26 | International Business Machines Corporation | Computer system and method for displaying functional information with parallax shift |
TW335466B (en) * | 1995-02-28 | 1998-07-01 | Hitachi Ltd | Data processor and shade processor |
KR100414629B1 (ko) | 1995-03-29 | 2004-05-03 | 산요덴키가부시키가이샤 | 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법 |
US5798762A (en) * | 1995-05-10 | 1998-08-25 | Cagent Technologies, Inc. | Controlling a real-time rendering engine using a list-based control mechanism |
JP3096613B2 (ja) | 1995-05-30 | 2000-10-10 | 三洋電機株式会社 | 立体表示装置 |
JP3635359B2 (ja) * | 1995-11-09 | 2005-04-06 | 株式会社ルネサステクノロジ | 透視投影計算装置および透視投影計算方法 |
JP3231618B2 (ja) * | 1996-04-23 | 2001-11-26 | 日本電気株式会社 | 3次元画像符号化復号方式 |
DE69811050T2 (de) * | 1997-07-29 | 2003-11-06 | Koninklijke Philips Electronics N.V., Eindhoven | Rekonstruktionsverfahren, Vorrichtung und Dekodierungssystem für dreidimensionalen Szenen. |
JPH11113028A (ja) * | 1997-09-30 | 1999-04-23 | Toshiba Corp | 3次元映像表示装置 |
US6208348B1 (en) * | 1998-05-27 | 2001-03-27 | In-Three, Inc. | System and method for dimensionalization processing of images in consideration of a pedetermined image projection format |
JP2000078611A (ja) | 1998-08-31 | 2000-03-14 | Toshiba Corp | 立体映像受信装置及び立体映像システム |
JP3596314B2 (ja) * | 1998-11-02 | 2004-12-02 | 日産自動車株式会社 | 物体端の位置計測装置および移動体の通行判断装置 |
US6285779B1 (en) * | 1999-08-02 | 2001-09-04 | Trident Microsystems | Floating-point complementary depth buffer |
JP2001061164A (ja) | 1999-08-19 | 2001-03-06 | Toshiba Corp | 立体映像信号伝送方法 |
KR100381817B1 (ko) * | 1999-11-17 | 2003-04-26 | 한국과학기술원 | 제트버퍼를 이용한 입체영상 생성방법 및 기록매체 |
JP2001320731A (ja) | 1999-11-26 | 2001-11-16 | Sanyo Electric Co Ltd | 2次元映像を3次元映像に変換する装置及びその方法 |
TW521519B (en) * | 1999-11-26 | 2003-02-21 | Sanyo Electric Co | Apparatus and method for converting a two dimensional image to a three dimensional image |
CN1462416A (zh) * | 2000-08-04 | 2003-12-17 | 动态数字视距研究有限公司 | 图像变换和编码技术 |
JP2002152776A (ja) | 2000-11-09 | 2002-05-24 | Nippon Telegr & Teleph Corp <Ntt> | 距離画像符号化方法及び装置、並びに、距離画像復号化方法及び装置 |
US6677945B2 (en) | 2001-04-20 | 2004-01-13 | Xgi Cayman, Ltd. | Multi-resolution depth buffer |
JP2003131683A (ja) * | 2001-10-22 | 2003-05-09 | Sony Corp | 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体 |
KR100436904B1 (ko) | 2002-09-06 | 2004-06-23 | 강호석 | 2차원이미지에 대한 입체영상생성방법 |
ATE433590T1 (de) * | 2002-11-27 | 2009-06-15 | Vision Iii Imaging Inc | Abtastung der parallaxe durch manipulation der position der gegenstände in einer szene |
JP4463215B2 (ja) * | 2006-01-30 | 2010-05-19 | 日本電気株式会社 | 立体化処理装置及び立体情報端末 |
-
2004
- 2004-01-19 WO PCT/JP2004/000376 patent/WO2004071102A1/ja active Application Filing
- 2004-01-19 CN CNB2004800024405A patent/CN100551083C/zh not_active Expired - Fee Related
- 2004-01-19 EP EP04703251.1A patent/EP1587329B1/en not_active Expired - Lifetime
- 2004-01-19 US US10/542,728 patent/US7403201B2/en not_active Expired - Fee Related
- 2004-01-19 JP JP2005504792A patent/JP4188968B2/ja not_active Expired - Fee Related
-
2005
- 2005-07-19 KR KR1020057013297A patent/KR100905371B1/ko not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011529287A (ja) * | 2008-07-24 | 2011-12-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 多用途三次元画像フォーマット |
Also Published As
Publication number | Publication date |
---|---|
CN1739303A (zh) | 2006-02-22 |
US20060050383A1 (en) | 2006-03-09 |
US7403201B2 (en) | 2008-07-22 |
KR100905371B1 (ko) | 2009-07-01 |
KR20050092122A (ko) | 2005-09-20 |
CN100551083C (zh) | 2009-10-14 |
JP4188968B2 (ja) | 2008-12-03 |
EP1587329A1 (en) | 2005-10-19 |
WO2004071102A1 (ja) | 2004-08-19 |
EP1587329A4 (en) | 2009-12-23 |
EP1587329B1 (en) | 2015-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4188968B2 (ja) | 立体視用映像提供方法及び立体映像表示装置 | |
JP5654138B2 (ja) | 3dヒューマンマシンインターフェースのためのハイブリッドリアリティ | |
EP3712856B1 (en) | Method and system for generating an image | |
CN101636747B (zh) | 二维/三维数字信息获取和显示设备 | |
JP4649219B2 (ja) | 立体画像生成装置 | |
US9031356B2 (en) | Applying perceptually correct 3D film noise | |
KR100770019B1 (ko) | 스테레오 카메라의 영상왜곡 보정 장치 및 그 방법 | |
CN107431801A (zh) | 支持内容生成、发送和/或重放的方法和设备 | |
CN101651841A (zh) | 一种立体视频通讯的实现方法、系统和设备 | |
JP2004179702A (ja) | 立体視用映像提供方法及び立体映像表示装置 | |
CN104756489A (zh) | 一种虚拟视点合成方法及系统 | |
JP2004336701A (ja) | 立体視用映像提供方法及び立体映像表示装置 | |
JP2011078036A (ja) | 擬似立体画像作成装置及び擬似立体画像表示システム | |
JP7344988B2 (ja) | ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品 | |
Tam et al. | Three-dimensional TV: A novel method for generating surrogate depth maps using colour information | |
JP2017011520A (ja) | 立体像奥行き変換装置およびそのプログラム | |
JP2004274642A (ja) | 3次元映像情報の伝送方法 | |
Kim et al. | Multiview stereoscopic video hole filling considering spatiotemporal consistency and binocular symmetry for synthesized 3d video | |
CN102612837B (zh) | 由2d视图产生部分视图和/或立体原图以便立体重现的方法和装置 | |
CN103748872A (zh) | 立体图像的接收器侧调整 | |
Ruijters et al. | IGLANCE: transmission to medical high definition autostereoscopic displays | |
JPWO2018186287A1 (ja) | 映像データ生成装置、映像再生装置、映像データ生成方法、制御プログラム、及び記録媒体 | |
EP2469867A2 (en) | Image processing apparatus and image processing method | |
CN102404583A (zh) | 三维影像的深度加强系统及方法 | |
Kim et al. | Effects of depth map quantization for computer-generated multiview images using depth image-based rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080425 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080527 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080625 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080902 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4188968 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110919 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120919 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130919 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |