JP2006115246A - 立体表示のための画像処理プログラム、画像処理装置および立体表示システム - Google Patents

立体表示のための画像処理プログラム、画像処理装置および立体表示システム Download PDF

Info

Publication number
JP2006115246A
JP2006115246A JP2004300895A JP2004300895A JP2006115246A JP 2006115246 A JP2006115246 A JP 2006115246A JP 2004300895 A JP2004300895 A JP 2004300895A JP 2004300895 A JP2004300895 A JP 2004300895A JP 2006115246 A JP2006115246 A JP 2006115246A
Authority
JP
Japan
Prior art keywords
image
viewpoint
stereoscopic
stereoscopic display
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004300895A
Other languages
English (en)
Other versions
JP2006115246A5 (ja
JP4440067B2 (ja
Inventor
Hidetoshi Tsubaki
秀敏 椿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004300895A priority Critical patent/JP4440067B2/ja
Priority to US11/250,975 priority patent/US7443392B2/en
Publication of JP2006115246A publication Critical patent/JP2006115246A/ja
Publication of JP2006115246A5 publication Critical patent/JP2006115246A5/ja
Application granted granted Critical
Publication of JP4440067B2 publication Critical patent/JP4440067B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Abstract

【課題】 様々な立体表示デバイス間での画像コンテンツのポータビリティを高めることができるようにした画像処理プログラムを提供する。
【解決手段】 画像処理プログラムは、立体表示デバイスを用いた複数視点からの立体像観察を可能とする立体画像を生成する、コンピュータ上で動作する画像処理プログラムであって、第1の立体表示デバイスにおける立体表示に関するパラメータである第1のパラメータおよび該第1のパラメータに対応した第1の立体画像を取得する第1のステップS101,S102と、第2の立体表示デバイスにおける立体表示に関するパラメータである第2のパラメータを取得する第2のステップS103と、第1の立体画像と第1および第2のパラメータとに基づいて、第2のパラメータに対応した第2の立体画像を生成する第3のステップS104とを有する。
【選択図】 図1

Description

本発明は、立体表示のための画像を生成する画像処理プログラム、画像処理システムおよびこれらを備えた立体表示装置に関するものである。
立体表示デバイスは、レンチキュラ素子、パララックスステレオグラム、インテグラルフォト等の偏向光学素子を構成素子として含み、2視点もしくはそれ以上の多視点からの立体観察を可能とする。このような立体表示デバイスでは、画面分割方式や時分割方式で各視点に対応する画像を表示し、各画像からの光を各視点に導く。
また、立体表示のための画像データ(画像コンテンツ)をデジタル放送網やインターネット等の通信網を介して配信するサービスが提案されている。画像を配信する際に、3次元空間の奥行きデータや相当数の多視点画像群を含むデータを配信すれば、後述する任意視点画像生成処理を利用することによりユーザの手元でユーザの所有する立体表示デバイスに合わせた合成画像(これについては後述する)を生成することもできる。このため、立体表示デバイスで規定された画素配列方式、視点数その他のパラメータないし仕様(以下、これらをまとめて立体表示パラメータという)によって変化する立体像の視差量の大小を気にすることなく画像データの配信を行うことができる。
ここで、任意視点画像生成処理とは、2つ以上の視点画像を入力し、入力された視点画像とは異なる視点に対応する画像を生成する処理のことである。任意視点画像生成処理には、3次元モデルを用いる手法もあるが、3次元モデルを用いない任意視点画像生成処理はイメージベースドレンダリング処理とも呼ばれ、近年盛んに研究されている。代表的な例として、Seizらは2つの視点画像から抽出した対応関係により生成した3次元空間の奥行きデータを用いてワーピング処理を行い、中間視点の画像を生成している(非特許文献1)。
但し、通信網の効率的な利用を考えると、各シーンの3次元空間奥行きデータや多視点画像群をそのまま配信するのは非常に冗長であり、非効率となる。このため、画面分割方式の立体表示デバイスの場合、ある特定の立体表示デバイスに適合するように合成画像(立体画像)を生成し、この合成画像を配信する方がより現実的である。
ここで、合成画像とは、立体表示デバイスを用いて立体像を提示するための最終的な画像データの形である。合成画像の例を図3に示す(詳しくは実施例中にて説明する)。図3には、5視点の合成画像の例を示している。
また、図3に示すように、ディスプレイの各画素が赤(R)、緑(G)、青(B)の3つのサブ画素によって構成される場合に、観察面(視点が並んだ面)での色ずれを防止するために、隣接したR,G,Bのサブ画素が異なる視点画像を表示する方法がある(特許文献1参照)。
さらに、レンチキュラレンズを各レンズ部の母線方向が垂直方向に並ぶように配置したり、パララクスバリアの開口を垂直方向に直線上に並べたりした場合には、提示される立体像の水平方向の像解像度が低下してしまう。このため、レンチキュラレンズを各レンズ部の母線方向が斜め方向に延びるように配置したり、バリア開口を垂直および水平方向において適度に分散するように配置したり(特許文献2参照)することによって、像解像度の低下を抑制している。
このように、合成画像に求められる画素配列は、立体表示デバイスの視点数によって異なるだけでなく、視点数が同じでも立体表示デバイスの構成や表示方式といった立体表示パラメータによって異なる。
特開昭57−11592号公報(第2頁右上欄12行〜第4頁右下欄16行、第1図〜第3図等) 特開平9−236777号公報(段落0020〜0024、図2等) Steven M.Seitz,C. R. Dyer, View Morphing, Proc. SIGGRAPH 96,pp. 21-30,1996)
しかしながら、従来は、特定の立体表示デバイスのために生成された合成画像を別の立体表示パラメータが異なる立体表示デバイスで観察する手法が提案されていない。このため、特定の立体表示デバイス用に生成、配信された画像コンテンツは、該特定の立体表示デバイスでしか観察することができず、このような状況では、立体表示パラメータの異なる立体表示デバイス間での画像コンテンツのポータビリティがきわめて低い。
本発明は、様々な立体表示デバイス間での画像コンテンツのポータビリティを高めることができるようにした画像処理プログラム、画像処理装置および立体表示システムを提供することを目的の1つとしている。
上記の目的を達成するために、1つの観点としての本発明の画像処理プログラムは、立体表示デバイスを用いた立体像観察を可能とする立体画像(合成画像)を生成する、コンピュータ上で動作する画像処理プログラムであって、第1の立体表示デバイスにおける立体表示に関するパラメータである第1のパラメータおよび該第1のパラメータに対応した第1の立体画像を取得する第1のステップと、第2の立体表示デバイスにおける立体表示に関するパラメータである第2のパラメータを取得する第2のステップと、第1の立体画像と第1および第2のパラメータとに基づいて、第2のパラメータに対応した第2の立体画像(合成画像や多視点画像群)を生成する第3のステップとを有する。
また、他の観点としての本発明の画像処理装置は、立体表示デバイスを用いた立体像観察を可能とする立体画像を生成する画像処理装置であって、第1の立体表示デバイスにおける立体表示に関するパラメータである第1のパラメータ、該第1のパラメータに対応した第1の立体画像、および第2の立体表示デバイスにおける立体表示に関するパラメータである第2のパラメータを取得するデータ取得部と、第1の立体画像と第1および第2のパラメータとに基づいて、第2のパラメータに対応した第2の立体画像を生成する画像生成部とを有する。
そして、該画像処理装置と、第2の立体画像を出力(表示又は印刷)して複数視点に立体像を提示する立体表示デバイスとにより立体表示システムを構成することも可能である。
本発明によれば、ある立体表示デバイスに対応した立体画像から、立体表示パラメータが異なる他の立体表示デバイスに対応した立体画像を生成することができる。したがって、立体画像の元となる画像コンテンツのポータビリティを高めることができる。
以下、本発明の実施例について図面を参照しながら説明する。
本実施例では、第1の立体ディスプレイ(第1の立体表示デバイス)に対応した画素配列を有する第1の合成画像(第1の立体画像)を、第2の立体ディスプレイ(第2の立体表示デバイス)のデバイス特性を示す立体表示パラメータに合った第2の合成画像(第2の立体画像)に変換して立体像を提示させる立体表示システムの構成について説明する。
ここでは、第1の立体ディスプレイの視点数(および視点間隔)と第2の立体ディスプレイの視点数(および視点間隔)とが同じである場合について説明する。また、本実施例の立体表示デバイスは、各視点に対応した画像(視点画像)を構成する画素(視点画素)を所定の順序でマトリクス状に配置した合成画像を同一画面内に表示することにより、複数視点からの立体像の観察を可能とする、いわゆる画面分割方式の表示デバイスである。
図12は、本実施例の立体表示システムの構成を示すブロック図である。図12において、1201は外部とのデータの入出力部であり、第1の合成画像を入力したり、変換した第2の合成画像を出力したりする。また、合成画像の画素配列パラメータに関する情報がファイルデータとして与えられる場合には、該入出力部1201を通じて入力される。この入出力部1201は、磁気ディスク、光ディスク、半導体メモリ等の記録メディアに対してデータの読み書きを行うドライブユニットにより構成される。また、入出力部1201を、ネットワークに接続される通信ポート、デジタル放送や無線交信によるデータ送受信を行うチューナ、アンテナ、受信機、送信機等によって構成してもよい。
1202は画像処理装置であり、入力された第1の合成画像を本システムの第2の立体表示デバイスを用いて立体像を提示するための第2の合成画像に変換し、映像信号として第2の立体表示デバイスに送る。画像処理装置1202は、例えば汎用のパーソナルコンピュータにより構成される。
2次元ディスプレイ1203は、液晶パネル(LCD)等の表示素子により構成される。画像処理装置1202は、2次元ディスプレイ1203上での表示を通じて、ユーザから対話的に合成画像変換や立体表示のために必要な情報を取得したり、該情報の取得をアシストしたりする。また、このディスプレイ1203には、画像処理部1202での処理状況や各種操作メニューも表示される。
1204は操作入力部であり、マウスやキーボード、ジョイスティック等により構成される。ユーザは、2次元ディスプレイ1203上に表示されたメニュー画像を見ながら、機能を選択したりデータの入出力を行わせたりすることができる。なお、2次元ディスプレイ1203をタッチパネル等により構成し、操作入力部として機能させるようにしてもよい。
1205は第2の立体表示デバイスとしての立体ディスプレイであり、変換後の第2の合成画像を表示するLCDやブラウン管等の表示素子1205aと、該表示素子1205aの各画素(各視点画素)からの光を所定の視点1205cに向かわせ、立体像を提示する表示光学系1205bとによって構成されている。
この立体ディスプレイ1205については、特開平10−232665号公報にて提案されているように、2次元ディスプレイと3次元ディスプレイとして兼用してもよい。この場合、合成画像のみ3次元表示し、合成画像以外のデータは2次元表示する等、任意の使い分けを行うことができる。
1206は別の第2の立体表示デバイスとしてのプリンタであり、画像処理部1202で変換された合成画像を印刷する。プリンタ1206は、紙やフィルム等の通常媒体に限らず、レンチキュラシートやインテグラルフォトシート等、立体像を観察するための偏向光学素子に印刷することもできる。また、プリンタ1206として、合成画像をホログラム情報に変換して立体情報を印刷する、ホログラフィックステレオグラムプリンタ等、立体画像印刷を目的としたプリンタにより構成してもよい。なお、プリンタ1206としては、上記偏向光学素子と重ねることによって立体観察ができる紙等に印刷を行うプリンタであってもよい。
1207はインターネット等のネットワークである。画像処理装置1202は、後述するデータベース1208から合成画像や他の立体表示デバイスの立体表示パラメータデータを該ネットワーク1207を介して取得することができる。
データベース1208には、入力ソースとなる合成画像データファイルや、合成画像の画素配列方式、視点数、視点間隔、視差量等、特に画面分割方式の各種立体表示デバイスに対応する立体表示パラメータのデータを、所定のキーワードに関連付けて保存している。操作入力部1204からキーワード入力とともに上記データのダウンロードを指示することにより、画像処理装置1202は目的のデータを取り込むことができる。
1209は第1の立体表示デバイスとしての立体ディスプレイであり、前述したように、立体表示パラメータが第2の立体表示デバイス(立体ディスプレイ1205およびプリンタ1206)とは異なるものである。
次に、画像処理装置1202の構成について説明する。12021はCPU等、本画像処理装置全体の制御を司るコントローラである。
12022は大容量記憶装置であり、入力された第1の合成画像や立体表示パラメータデータを保存したり、変換後の第2の合成画像を保存したりする。この記憶装置12022は、ハードディスク等により構成されている。
12023は主記憶装置であり、RAM等で構成される。この主記憶装置12023は、入力された第1の合成画像や立体表示パラメータデータを展開したり、変換過程における中間生成画像である多視点画像群(これについては後述する)を一時的に記憶したりすることができる。また、変換後の第2の合成画像データを表示したり大容量記憶装置12022に記憶したり入出力部1201から出力したりする前に、一時的に記憶する機能も有する。
図1には、本実施例の合成画像の変換処理プログラムのフローチャートを示している。このプログラムは、画像処理装置1202(コンピュータとしてのコントローラ12021)において実行される。
ステップ(以下、Sと記す)101は第1の合成画像(以下、入力合成画像という)を入力するステップである。入力合成画像は、本実施例の第2の立体表示デバイス1205,1206とは立体表示パラメータが異なる他の画面分割方式の立体ディスプレイ1209用に生成された画像データである。
ここで、図3に、合成画像の代表的な画素配列を示す。図3において、302は合成画像の全体を示し、301はその一部分を示す。前述したように、合成画像とは、立体表示デバイスを用いて立体像を提示するための最終的な画像データの形である。図3において、1〜5の番号が付されたマスは、該番号の視点に対応した視点画像を表示するための視点画素(サブ画素)であり、赤(R)、緑(G)、青(B)の3つのサブ画素によって1画素303が構成されている。図中において同一色で色分けされたストライプ領域には、赤(R)、緑(G)、青(B)のうち同一色用のサブ画素が配置されている。但し、1画素内の3つのサブ画素は、互いに異なる視点画像を表示する。すなわち、図3に示す例では、合成画像は、それぞれ5視点画素からなる3色のストライプ画像が水平方向に循環的に配列されることにより構成されている。
なお、このような合成画像を生成するためには、予め水平方向一方から他方に所定間隔で視点を移動しながら複数の画像(視点画像)を撮影やコンピュータグラフィクス(CG)等により生成する。図3中の1〜5の番号は、この撮影又は生成順、すなわち視点の番号を示す。そして、これら複数の視点画像を上述した画素配列を持った画像データに変換することにより、合成画像が生成される。また、図3には、5視点の合成画像を示しているが、2〜4視点又は6視点以上の合成画像でもよい。
次にS102では、入力合成画像に対応する第1の立体表示デバイスにおける立体表示パラメータ(以下、単に入力合成画像の立体表示パラメータという)を取得するステップである。立体表示パラメータは、入力合成画像に対応する第1の立体ディスプレイ1209の画素配列方式、視点数、画像サイズ、視点間隔、視点画像間の視差分布範囲(最大視差量)が含まれる。視点間隔は、入力合成画像を生成する元となった各視点画像を撮影する際の撮影基線長に対応する。また、視差分布は、入力合成画像を構成する任意の2視点を基準として得られる。その他、立体表示パラメータに、撮影装置の焦点距離、撮像光軸の輻輳の有無等、各シーンの視差分布の判別に有用な情報も含まれる。
通常、合成画像を構成する多視点画像群の視点位置は、平行視もしくは輻輳視のカメラ配置により撮影される。平行視とは、カメラの光軸に垂直な面内に移動軌跡を持つカメラの撮影光軸方向が互いに平行である場合である。また、輻輳視とは、あるオブジェクト上に注視点を設定し、カメラの撮影光軸方向が常に該注視点を向くようにその位置を移動させながら複数の視点画像を撮影する場合である。
なお、画素配列方式については、その配列順序を特定できるテーブルデータでもよいし、数式や部分パターンのデータでもよい。
図2には、S102において立体表示パラメータを取得する手順を示している。まず、S201において、入力合成画像のデータに、立体表示パラメータを含むファイルヘッダがあるか否かを確認する。立体表示パラメータを含むファイルヘッダがある場合には、S202において、該ファイルヘッダを参照し、立体表示パラメータを取得する。画素配列テーブルが直接得られる場合には、視点数、画像サイズの情報は該画素配列テーブルから得られることから、省略してもよい。
ファイルヘッダに立体表示パラメータが含まれていない場合でも、対象となる立体表示デバイス名等をキーワードとしてヘッダ情報に含ませた立体表示パラメータのデータベースもしくはデータファイルを生成しておき、合成画像データファイルの読み込み時に該ファイルヘッダ中のキーワードに基づき、上記データベースもしくはデータファイル中から対応する立体表示パラメータを呼び出し、取得するようにしてもよい。データファイルやデータベースは、記憶メディアや端末の固定記憶領域、若しくは図1に示したネットワーク1207上のデータベース1208に保有されていていればよい。
立体表示パラメータを含むファイルヘッダが存在しない場合には、S203において、ユーザが入力合成画像に対応する立体表示パラメータを入力操作部1204を通じて入力する。例えば、立体表示パラメータを示す数値を直接入力したり、画素配列方式に関しては、その配列パターンを入力したり、配列を表す数式を入力したり、2次元ディスプレイ部1203に表示された画素配列の候補から該当する画素配列を選択したりする。具体的には、図3のような画素配置を示す画素配列パターン又はその全体を類推可能とする部分パターン、数式等を入力する。また、立体表示デバイスの製造誤差を補正するピッチ合わせに関連する変倍情報等がある場合には、必要に応じて入力する。
次にS103では、出力される第2の合成画像(以下、出力合成画像という)に対応する第2の立体表示デバイスにおける立体表示パラメータ(以下、単に出力合成画像の立体表示パラメータという)を入力するステップである。この立体表示パラメータにも、入力合成画像の立体表示パラメータと同様に、出力合成画像に対応する第2の立体表示デバイス1205,1206の画素配列方式、視点数、画像サイズ、視点画像間の視差分布範囲等が含まれる。
なお、実際に全てのパラメータをユーザが直接入力することは煩雑であるので、立体表示パラメータを含んだデータファイルを入出力部1201から入力したり、ユーザが出力対象の立体表示デバイス名等のキーワードを入力し、このキーワードをヘッダ情報に含む立体表示パラメータデータをデータベース等から読み出したりするとよい。
また、本画像処理装置1202がプラグアンドプレイ機能を有している場合には、第2の立体表示デバイス1205,1206から立体表示パラメータ自体もしくはデータベースから立体表示パラメータを取得するのに必要なキーワード情報を取得するようにしてもよい。キーワード情報のみが得られる場合には、該キーワード情報を用いてデータベースを検索し、該当する立体表示デバイスに対応する立体表示パラメータを取得する。
次にS104は、入力合成画像を出力合成画像に変換するステップである。具体的には、入力合成画像と、該入力合成画像に対応する立体表示パラメータと、出力合成画像に対応する立体表示パラメータとに基づいて、出力合成画像を生成する。
本実施例においては、前述したように、入力合成画像および出力合成画像(つまりは第1および第2の立体表示デバイス)の視点数および視点間隔が同じであり、視点数および視点間隔の変更に伴う視差分布調整、すなわち立体感の調整は行わないものとして説明する。つまり、主として画素配列の変更のみを行う場合について説明する。
図4には、合成画像の変換例を示している。図4において、401は変換前の合成画像(入力合成画像)の一部分の画素配列を示しており、該画素配列は図3に示したものと同一である。402は、変換後の合成画像データ(出力合成画像)の一部分の画素配列を示している。
ここで画素配列401を持つ入力合成画像は、背景技術の欄でも説明した、いわゆる斜めレンチキュラ素子を用いた立体表示デバイス用の5視点合成画像の代表例である。これに対し、画素配列402を持つ出力合成画像は、レンズ母線方向が画面の横方向に対して直交する通常のレンチキュラ素子を用いた立体表示デバイス用の5視点合成画像の代表例である。
入力合成画像では、実際の空間上で1画素を構成する赤(R)、緑(G)、青(B)の3つのサブ画素を、ディスプレイ上の異なる画素内に配置するようにしているが、出力合成画像では、実際の空間上で1画素を構成する赤(R)、緑(G)、青(B)の3つのサブ画素を、ディスプレイ上の同じ画素内に配置するようにしている。すなわち第2の合成画像データは、図6に示すように、各色のサブ画素のみが集まった赤(R)レイヤー601、緑(G)レイヤー602および青(B)レイヤー603を1サブ画素分ずつずらして重ねたものに相当する。
画面分割立体表示方式においては、本実施例に挙げた以外にも、立体表示デバイスの特性(立体表示パラメータ)に応じた様々な画素配列を持つ合成画像のバリエーションが考えられるが、変換前後の合成画像の組み合わせは任意でよい。
図5には、合成画像の変換手順を示している。S501では、図1のS101で入力した入力合成画像を多視点画像群に変換する処理を行う。
ここで、図3の401の画素配列を持った合成画像を視点ごとに注目して見てみると、図7(a)に示すように、合成画像701上での各視点画像(ここでは第1視点に対応するR,G,Bの視点画像を示す)702は、該合成画像が生成される際の画素欠落によって画素情報(画素の色情報や輝度情報)を失った、まばらなサンプリングによる画像とみなすことができる。
S501では、まず3色のサブ画素が同一平面内に配置されている視点画像702を、図7(b)に示すように、RGB各色のレイヤーに分ける。703はR画素のレイヤー、704はG画素のレイヤー、705はB画素のレイヤーである。
ここで、合成画像701上での1つの視点画像702を、各色レイヤー703〜705に分離しただけでは、各色レイヤーにおいて当該視点の各色のサブ画素がまばらに存在し、分離前に他の視点のサブ画素が存在した部分の画素情報が欠落している。そこで、視点ごとにおよび色レイヤーごとに欠落画素を補間して欠落画素のない視点画像を作る処理がS501での多視点画像データへの変換処理である。
欠落画素情報を補間した結果を図7(c)に示す。706は第1視点のR画素レイヤー、707は第1視点のG画素レイヤー、708は第1視点のB画素レイヤーを表す。こうしてまず、第1視点の視点画像の補間生成を行い、順次、他の視点の視点画像についても補間生成を行う。
補間手法については、単純には各色レイヤーで補間を行う方法が考えられる。例えば、図8に示すように、補間すべきサブ画素801の近傍に存在する1又は複数のサブ画素802のデータを用い、最近傍補間法、線形補間法、キュービックコンボリューション法等の補間手法を用いて補間を行う。補間処理の際に、相関の強い異なる色レイヤー上の画素情報を輝度情報として参照してもよい。
ここではさらに、色情報と輝度情報の分離を利用した補間手法について説明する。図11には、該補間手法を用いた処理手順を示す。
S1101は色補間ステップであり、上述した色レイヤーごとの画素補間を行う。すなわち、図7(b)に示した、合成画像から分離した各視点画像の各色レイヤーにおいて欠落している画素を、その近傍の同色、同一視点の画素の情報に基づいて予測補間を行い、図7(c)のようにRGBの全画素の情報(RGB信号)を復元する。
S1102は輝度生成ステップである。ここでは、各視点画像について、合成画像上にてR,G,Bの各色成分のデータとして分布している画素情報から色キャリア成分を除去し、RGB各成分の輝度情報を混合して輝度成分Yを算出する。
S1103は輪郭強調ステップである。ここでは、S1102において生成された各視点の輝度画像の水平および垂直方向において、近傍画素間の差分(微分情報)を輪郭成分として算出した後、その輪郭成分を元の各視点の輝度画像に加算することにより輪郭強調を行う。
S1104は輪郭強調色成分を生成する処理である。ここでは、S1101により生成された各視点の色補間画像とS1103により生成された各視点の輪郭強調輝度画像とを合成して、輪郭強調されたRGB信号からなる画像を生成する。
色補間画像と輪郭強調輝度画像との合成は、まず色補間画像に対して色差変換を行い、色情報と輝度情報とに分離する。色差変換については、例えばYCrCb変換を行い、色情報と輝度情報に分離する。なお、色差変換については、輝度情報と色情報にRGB信号を分離する手法であれば、YUV変換のような他の任意の分離方法を用いてもよい。
次に、色差変換により分離された色補間画像の輝度情報と輪郭強調輝度画像とを置き換える。そして、色補間画像の色差成分CrCbと置き換えられた輝度成分Yとを用いて原色変換を行い、RGB成分の画像を得る。これにより、各色レイヤーでの単純な補間処理を行った場合と同様に、図7(c)に示すようなRGB信号からなる視点ごとの画像(多視点画像群)が得られる。
なお、ここでは、合成画像から多視点画像群への変換処理における各視点画像内における欠落画素の補間方法として、単純に各色レイヤーで補間を行う方法と、色情報と輝度情報の分離を行う補間方法とについて説明したが、欠落画素の補間方法として、さらにインテリジェントな任意の補間方法を用いてもよい。例えば、色情報の補間の際に、輝度情報から生成したエッジ画像を補間の制御情報として用いるような手法を用いてもよい。
さらに、相互に隣接する視点の視点画像における視差量を考慮して、該隣接する視点画像内の近傍座標の画素情報を利用した補間処理を行ってもよい。これらの補間方法を用いることにより、多視点画像ひいては出力合成画像の画質を向上させることができる。
図22に、隣接する視点画像内の視差を考慮した近傍座標の画素情報を利用した補間の例を示す。ここでは、隣接視点画像内の近傍座標の画素情報を視差情報を利用してマップ化し、該マップを用いて補間を行う。
2201は合成画像を構成する多視点画像群のうち、ある視点の理想的な(欠落画素のない)視点画像であり、2202は視点画像2201の視点に隣接する視点の理想的な視点画像である。2203および2204は、合成画像から生成された、上記視点画像2201,2202のそれぞれに対応した補間処理前の視点画像であり、欠落画素を含んでいる。なお、例として、視点画像2203を第1視点の画像(第1視点画像)、視点画像2204を第2視点の画像(第2視点画像)とする。視点画像2203,2204において、内側が白色の画素が合成画像から得られる画素であり、内側が黒(灰)色の画素が合成画像上で欠落していて、補間が必要な画素であるとする。
つまり、合成画像を分解することにより、理想的には2201および2202のような視点画像群を得るのが目的ではあるが、画素欠落により、補間処理の前には2203および2204のように画素情報の欠落した視点画像群しか得られない。
2205は視差マップであり、欠落画素を含む視点画像2203,2202間の個々の画素の視差量情報を示している。ここでは、隣接視点画像間の視差マップが隣接視点画像間のマッチングにより既に得られているとして説明する。
なお、視差マップについては、欠落画素を含む視点画像間において大きなテンプレートを用いたり、縮小した画像間でその大まかな形状を見るマッチングを実施したりすることにより、良好な視差マップを得ることができる。
そして、視差マップ上の各画素は、各画素の視差量情報を表す2次元ベクトル情報を持つ。図の視差マップ2205においては、その濃淡がベクトルの大きさを表しているとする。すなわち、階調が低い(暗い)ほど遠くに位置し、階調が高い(明るい)ほど近い位置を表しているとする。
2206は第2視点画像2204を視差マップ2205の各画素の視差量情報を用いて、第1視点画像2203の視点で見えるべき画素位置へと全ての画素をマップした画像(以下、第1視点マップ画像という)である。該第1視点マップ画像2206上のベクトルは、マップによる画素の移動、つまり個々の画素の視差ベクトルを表す。
2207は第2視点画像2204をマップすることにより生成した第2視点マップ画像2206の画素情報により、第1視点画像2203を補間して生成した補間視点画像である。該補間視点画像2207は、より多くの隣接視点画像内の視差を考慮した画素情報補間を行うことによって、第1視点画像2203に対して相対的に欠落画素を減少させることができる。
さらに、補間視点画像2207の残りの欠落画素については、上述した視点画像内での補間処理を実施することによって補間を行う。このように、視差を考慮した隣接視点画像内の近傍座標の画素情報を利用することにより、合成画像内でのより多くの画素情報を多視点画像群への変換に利用することができ、より現実に忠実な補間処理を行うことが可能となる。また、視差マップが自動生成されることにより、手動で対応点を入力せずに済ませることができる。但し、補助的に手動で対応点を入力してもよい。なお、入力される合成画像が動画像である場合には、隣接するフレームの情報を補間に用いてもよい。
次に、図5のS502では、マルチプレックス処理を行う。マルチプレックス処理は、S501で得られた多視点画像群を入力として、出力合成画像を生成する処理である。なお、実質的なマルチプレックス処理に加えて、必要に応じてピッチ調整処理も行う。
出力合成画像の画素配列については、図1のS103において取得されている。また、ピッチ調整処理を行う場合には、同様に出力合成画像の立体表示パラメータの取得時にピッチ調整パラメータを取得(入力)しておく必要がある。
図9に、多視点画像群から生成される出力合成画像を示す。901から905は入力となる多視点画像群であり、901は第5視点の視点画像、902は第4視点の視点画像、903は第3視点の視点画像、904は第2視点の視点画像、905は第1視点の視点画像である。906はマルチプレックス処理により生成された出力合成画像である。
合成画像の画素配列については、例えば、レンズ母線方向が画面の横方向に対して垂直なレンチキュラ素子を用いた印刷(立体プリント)による立体表示デバイスを対象とした合成画像を生成する場合には、図9に示すように、各視点の画素とそれを構成するサブ画素とが同一位置に配置されたものとなる。
このため、多視点画像群を構成する各視点画像の同一座標の画素を、視点配列に従って、隣接画素として配列するように合成画像を生成する。具体的には、各視点画像を、1画素(3サブ画素)ごとに垂直方向に延びる短冊状の画素ストライプに分解し、これら画素ストライプを第1〜第5視点の順とは逆の順で循環的に水平方向に並べる。
一方、合成画像をディスプレイ表示する場合には、大部分のディスプレイのピクセルは水平方向に並んだ赤(R)、緑(G)、青(B)の3つのサブ画素により1画素が構成されるので、上述した印刷と同様に、画素(3サブ画素)を最小単位としてマルチプレックス処理を行うと、各視点において色ずれが発生してしまい、良好な立体像観察が行えなくなる。このため、上記大部分のディスプレイを対象とする場合、サブ画素単位で視点画像を変化させ、各視点画像の同一座標のサブ画素を、視点配列に従って、隣接サブ画素として配列するように合成画像を合成する。
さらに、マルチプレックス処理による特定方向における提示立体像の解像度劣化を、背景技術で説明したような斜めレンチキュラ配置若しくは斜めバリア開口配置により軽減する場合には、合成画像の水平画素ラインごとに、第1視点の画素(又はサブ画素)の位置が変化するマトリクス配置とする。図3に示した合成画像301は、このような画素配列を持つ合成画像の一例である。
以上説明した画素配置のうちどの画素配置で出力合成画像を生成するかは、S103で取得した出力合成画像の立体表示パラメータにより決定される。
ここでは、レンズ母線方向が画面の横方向に対して垂直なレンチキュラ素子からなるレンチキュラシートを利用した、5視点画像群からなる立体プリント用合成画像を多視点画像群から生成する手順を例として示す。
まず、多視点画像群を構成する各視点画像の同一座標の画素を視点配列に従い、隣接画素として配列するように立体ストライプ画像を合成する。
j番目の視点のピクセル値をPjmn(但し、m、nはそれぞれ水平、垂直方向の画素配列のインデックス)としたときのj番目の視点画像のデータは、以下のような2次元画素配列で表される。
Figure 2006115246
多視点画像の合成は、それぞれの視点の画像を、1画素ラインごとに垂直方向に延びる短冊状に分解して画素ストライプとし、視点順序とは逆の順に水平方向に並べることにより行う。したがって、合成後の画像は以下に示すようなストライプ合成画像となる。
Figure 2006115246
本実施例においては、5視点の多視点画像からの画像合成を行うため、
Figure 2006115246

となる。
但し、上記配列は空間中で第1視点が右端、第5視点が左端の位置関係に対応する画像をあらわす。ここで、視点配列順と逆順に画素ストライプを並べるのは、レンチキュラ素子によって観察をする際に、レンズ部の1ピッチ内で画像が左右逆に観察されるためである。
このようなストライプ合成画像は、元の多視点画像群の各視点画像がH×vのサイズのN視点画像である場合、X(=N×H)×vのサイズとなる。H×vのサイズの合成画像を生成する場合には、あらかじめ視点画像を、H/N×vに圧縮しておくか、サンプリングピッチをNとして視点画像から1画素ラインずつ取り出すかする。画素ラインをN画素おきに取り出す場合には、エイリアジングの影響を軽減するために、あらかじめ視点画像にスムージングを行っておく。
出力合成画像がカラーフィルタ配列を考慮したモザイク画像の場合には、入力される視点画像のサイズを出力サイズと同じサイズにし、出力合成画像を構成する視点画素に対応する視点画像から該視点画素と同一座標の画素を抽出することにより合成画像を生成する。
図10は、多視点画像群から合成画像を生成する様子を説明する図である。1001は多視点画像群を構成する第1視点画像であり、1002は出力合成画像である。出力合成画像1002の画素配列中で第1視点に対応する視点インデックスを持つ画素を、第1視点画像中の同一座標の画素からサンプリングする。同様にして第2視点画像、第3視点画像…と画素をサンプリングする視点画像を順に変更していくことにより、出力合成画像の画素情報を埋めていき、最終的に全ての画素情報を有する合成画像を生成していく。
本実施例においては、説明を簡単にするために、入力される多視点画像群(視点画像)のサイズを出力合成画像のサイズに合わせてスケール変換を行った後に画素サンプリングを行う場合について説明したが、実際にはスケール変換を行わずに、入力画像と出力画像間のサイズ差を考慮して直接サンプリングを行ってもよい。
なお、生成した出力合成画像に対して、必要な場合にはピッチ調整処理を行う。ピッチ調整処理は、レンチキュラ素子やパララックスバリア等の光学素子と、立体ディスプレイを構成するLCD等の表示素子とのパターン周期のずれによるモアレの発生を抑制するために行う。パターン周期にずれが無い場合には、処理を行う必要が無いためピッチ調整処理は省略される。ピッチ調整処理は、具体的には、ずれを調整するために出力合成画像に変倍処理を行う。変倍処理は、双線形補間などにより行う。
以上のような合成画像変換処理を行うことにより、第1の立体表示デバイス1209に対応した入力合成画像から、第2の立体表示デバイス1205,1206のデバイス特性(立体表示パラメータ)に合った出力合成画像を生成することができる。そして、該出力合成画像を立体ディスプレイ1025に表示したり、プリンタ1206で印刷したりすることにより、観察者に良好な立体像を提示することができる。
実施例1では、入力合成画像と出力合成画像とで視点数が同じ場合の変換処理について説明したが、本実施例2では、入力合成画像の視点数よりも出力合成画像の視点数が少ない場合の変換処理について説明する。なお、本実施例に係る立体表示システムの構成は、実施例1と同様である。
本実施例での合成画像の変換手順のうち、S101(入力合成画像の入力ステップ)、S102(入力合成画像の立体表示パラメータ取得ステップ)およびS103(出力合成画像の立体表示パラメータ取得ステップ)については実施例1と同様であるが、入力合成画像、入力合成画像の立体表示パラメータおよび出力合成画像の立体表示パラメータに基づいて入力合成画像を出力合成画像に変換するS104(合成画像変換ステップ)は実施例1と異なる。
本実施例のS104での処理は図13に示すような手順で行われる。S1301では、実施例1と同様に、入力合成画像を、該入力合成画像の視点数と同じ数の視点画像(多視点画像群)に変換する。
次に、S1302は、入力合成画像から生成された多視点画像群のうち、出力合成画像を生成するための視点画像を選択するステップである。本実施例では、入力合成画像の視点数よりも出力合成画像の視点数が少ないので、まず多視点画像群から出力合成画像の視点数に応じた任意の視点画像を選択する。
図14には、7視点を有する入力合成画像から5視点の視点画像を選択する例を示す。図中の点線は、各視点画像内の視差量情報から類推される視点の移動軌跡であり、直線若しくは曲線上に形成される。また、丸印は、各視点画像に対応する相対的な視点位置を示す。
視点の移動軌跡および各視点画像の相対的な視点位置の情報は、マッチング等の多視点画像の視差量情報等から推定される。
また、入力合成画像の立体表示パラメータに含まれる視差分布範囲、撮影基線長や撮像装置の焦点距離、カメラ輻輳の有無等も相対的な視点位置の推定の際に利用される。
図14において、(a)は入力合成画像の視点(7視点)である。(b)から(e)は、入力合成画像の視点から、出力合成画像の視点(5視点)を選択する代表例を示している。7視点から5視点を選択する場合、組み合わせの原理により、21の視点選択例が考えられるが、良好な立体像を得るためには、視点間の距離は等間隔であることが好ましい。このため、実際的に有用な組み合わせとしては、(b)か、(c)若しくは(c)の対称配置が好ましい。このように、各視点画像間の視差量を考慮して、出力合成画像を生成するための視点画像を入力合成画像から生成された多視点画像群から選択する。
S1303のマルチプレックス処理は、実施例1のS503と同様である。本実施例においてもS1301において、多視点画像内の欠落画素補間を適切に行うことにより、マルチプレックス処理が円滑に実施できる。
以上説明したように、出力合成画像(第2の立体表示デバイス)の視点数が、入力合成画像(第1の立体表示デバイス)の視点数よりも少ない場合であっても、入力合成画像から生成される多視点画像群から適切に任意の視点画像を選択して、良好な立体像の提示が可能な出力合成画像を生成することができる。
実施例1では、入力合成画像と出力合成画像とで視点数が同じ場合の変換処理について説明したが、本実施例3では、入力合成画像の視点数よりも出力合成画像の視点数が多い場合の変換処理について説明する。なお、本実施例に係る立体表示システムの構成は、実施例1と同様である。
本実施例での合成画像の変換手順のうち、S101(入力合成画像の入力ステップ)、S102(入力合成画像の立体表示パラメータ取得ステップ)およびS103(出力合成画像の立体表示パラメータ取得ステップ)については実施例1と同様であるが、入力合成画像、入力合成画像の立体表示パラメータおよび出力合成画像の立体表示パラメータに基づいて入力合成画像を出力合成画像に変換するS104(合成画像変換ステップ)は実施例1と異なる。
本実施例のS104での処理は図15に示すような手順で行われる。まず、S1501では、実施例1と同様に、入力合成画像から多視点画像群を生成する。
S1502では、出力合成画像の視点位置を入力合成画像の視点位置を基準として決定する。具体的には、入力合成画像の視点に加え、足りない視点を決定する。
図16には、(a)に示す7視点の入力合成画像の視点位置を基準にとして9視点位置を選択および決定する例を示す。図中の点線は視点の移動軌跡を、丸印は入力合成画像の視点の相対的な位置を示す。また、二重丸印は、新規に生成が必要と決定された視点位置である。
図16の(b)および(c)は、決定された出力合成画像の視点位置である。(b)および(c)においては、入力合成画像の視点位置に対して2視点を外挿した例を示しているが、新規に追加する視点位置は任意の位置でよい。但し、良好な立体感を得ることを考えた場合、出力合成画像の各視点位置は等間隔である方が好ましい。
S1503では、入力合成画像から生成された多視点画像群に基づいて、S1502で決定された出力合成画像の視点位置のうち新規に決定された視点位置に対応する新規視点画像を生成する。この処理により、出力合成画像の生成に必要な数の視点画像を含む多視点画像群が準備される。
多視点画像を入力とする任意視点画像の生成手法としては、背景技術の欄でも触れたように、イメージベースドレンダリングと呼ばれる技術がある。具体的には、入力多視点画像群から画像シーンのデプスもしくは視差分布情報を算出し、該デプスもしくは視差分布情報を利用し、入力多視点画像群の個々の画素を新たな(任意の)視点位置で観察したときに適切となる画面内位置にマップすることにより、新規な任意視点画像を生成することができる(例えば、特開2003−209858号公報参照)。
また、任意視点画像を生成する方法には、入力多視点画像群の各視点画像内に存在する個々のオブジェクトのモデル情報を抽出し、該オブジェクトモデルを用いてCG空間にシーンを構築することにより、CG上の仮想カメラを任意の位置に想定することで新規な任意視点画像を生成することのできる、イメージベースドモデリングとCGとを組み合わせた手法を用いてもよい。なお、本発明で用いる任意視点画像生成方法としては、入力合成画像を構成する多視点画像群を入力として、任意の視点に対応する視点画像を生成することのできる手法であれば、どのような手法を用いてもよい。
S1504では、実施例1と同様に、マルチプレックス処理を行う。ここでは、入力合成画像から生成された多視点画像群とS1503で生成された新規視点画像とを用いて出力合成画像を生成する。
以上説明したように、本実施例によれば、出力合成画像の視点数が入力合成画像の視点数より多い場合であっても、入力合成画像から生成された多視点画像群を入力として新規視点画像を生成し、所望の視点数を有する出力合成画像を生成することができる。
実施例3では、入力合成画像から生成された入力多視点画像群に任意視点画像生成手法により生成した新規視点画像を加えた多視点画像群から出力合成画像を生成したが、本実施例4では、入力合成画像から生成された多視点画像群の一部もしくは全部を任意視点画像生成手法によって生成した視点画像に置き換えて、第2の立体表示デバイスの視点数に対応した数の多視点画像群を用意し、出力合成画像を生成する。これにより、立体像の立体感や見えを調整した立体像を表示することができる。
ここでは、出力合成画像の視点数が入力合成画像の視点数より多く、かつ入力合成画像から生成した多視点画像群の一部を上述した任意視点画像生成処理手法により生成した新規視点画像によって置き換え、さらに該任意視点画像生成処理手法により生成した出力合成画像における新規な視点に対応した視点画像をこれに加えて、出力合成画像を生成する場合について説明する。なお、本実施例に係る立体表示システムの構成は、実施例1と同様である。また、入力合成画像から生成した多視点画像群の全てを任意視点画像生成処理手法により生成した新規視点画像によって置き換えるようにしてもよい。
本実施例での合成画像の変換手順のうち、S101(入力合成画像の入力ステップ)、S102(入力合成画像の立体表示パラメータ取得ステップ)およびS103(出力合成画像の立体表示パラメータ取得ステップ)については実施例1と同様であるが、入力合成画像、入力合成画像の立体表示パラメータおよび出力合成画像の立体表示パラメータに基づいて入力合成画像を出力合成画像に変換するS104(合成画像変換ステップ)は実施例1と異なる。
本実施例のS104での処理は、実施例3でも説明した図15に示すような手順で行われる。まず、S1501では、実施例3と同様に、入力合成画像から多視点画像群を生成する。
但し、S1502では、出力合成画像の視点を決定する。ここでは、実施例3と異なり、入力合成画像から生成された入力多視点画像群のうち少なくとも1枚の視点画像を、任意視点画像生成手法により生成された新規視点画像と置き換えるため、入力多視点画像群内の視差量を調整して立体像の見えを良くするための新規な視点位置を決定する。
図17には、説明を簡単にするために、入力合成画像と出力合成画像の視点数は同じであるが、提示される立体像の視差量を大きくするための新規視点画像を任意視点画像生成手法により生成し、該新規視点画像により入力合成画像から直接生成された多視点画像群の一部に置き換える場合の例を示す。図17の(a)には、入力合成画像の視点位置を丸印で示す。点線は視点の移動軌跡を示す。
(b)には、入力合成画像から生成された多視点画像群のうち中央の視点画像以外の入力視点画像を任意視点画像生成手法により生成された新規視点画像で置き換えた状態での視点位置を示す。新規視点を二重丸印で、元の視点位置(出力合成画像の生成には用いられない入力視点画像の視点)を点線丸印で示す。新規視点は、元の視点に比べて広い視点間隔を持つ。そして、これらの新規視点画像を用いた出力合成画像の生成により、元の多視点画像群のみから生成された出力立体画像に比べて、提示される立体像の視差量が強められる。
(c)には、(b)とは逆に、提示される視差量を弱める場合の新規視点位置の元の視点位置に対する関係を示している。
そして、本実施例では、図17にて説明した入力視点画像の新規視点画像による置き換えに加えて、さらに新規視点画像を追加することにより、出力合成画像の視点数を入力合成画像の視点数より増加させる。図18の(a),(c)はそれぞれ入力合成画像の視点位置を、(b),(d)はそれぞれ、(a),(c)の入力合成画像から変換した後の出力合成画像の視点位置を示している。また、(a)の視点位置は等間隔であるのに対し、(b)の出力合成画像の視点位置が立体像の見えを調整するために不等間隔となっている。逆に、(c)の入力合成画像の視点位置は不等間隔であったが、(d)の出力合成画像の視点位置は等間隔に補正されている。
ここで、図17では、合成画像の変換の前後において視点数が変わらず、かつ視点が等間隔である場合の例を説明した。また、図18では、変換の前後で視点数が変化し、また視点の間隔についても等間隔から非等間隔とする場合および非等間隔から等間隔とする場合の例を示した。このように、入力視点画像の新規視点画像による置き換えおよび新規視点画像の追加を行う場合、合成画像の変換前後の視点数および視点位置等の条件はどのようなものであってもよい。
言い換えれば、新規視点画像の視点位置の決定には無限の可能性が考えられる。但し、立体像の見えを考慮した場合には、新規視点画像の視点を含めて出力合成画像の全視点が等間隔になるように決定されることが望ましい。
次に、S1503では、S1502で決定された新規視点に対応する新規視点画像を任意視点画像生成手法により生成する。任意視点画像生成手法は、実施例3で説明した手法と同様である。
S1504では、実施例1で説明したマルチプレックス処理を行う。
以上説明したように、本実施例によれば、入力合成画像から生成された入力多視点画像群の一部もしくは全部を任意視点画像生成手法により生成された新規視点画像で置き換えて出力合成画像を生成するので、表示される立体像の見えや立体感を調節した出力合成画像を生成することができる。
本実施例5では、ある画素配列を持つ画面分割方式立体表示デバイスに対応した入力合成画像から多視点画像群への変換を行い、該多視点画像群を出力することができる立体表示システムについて説明する。この場合、出力される多視点画像群が第2の立体画像に相当する。多視点画像群の出力が可能になることにより、これらを時系列的に出力して時分割方式立体ディスプレイで立体像を表示することができる。
図19は本実施例の立体表示システムの構成を示している。該システムを構成する入出力部1701、画像処理装置1702、2次元ディスプレイ1703、操作入力部1704、プリンタ1706は、実施例1において説明した対応する構成要素1201〜1204,1206と同じものである。また、ネットワーク1707、データベース1708も実施例1で説明したもの(1207,1208)と同じものである。
1705は、第2の立体表示デバイスとしての時分割立体ディスプレイであり、2つの視点画像を時系列的に(交互に)表示するLCD等の2次元ディスプレイ1705に、観察者の左右の眼に2次元ディスプレイ1705aからの光を交互に導くように2つの領域で遮光状態と透光状態とが交互に切り換わる液晶シャッタ1705bとを組み合わせたものである。
また、入力合成画像から1枚の視点画像を出力し、2次元ディスプレイ1703に2次元画像を表示したり、プリンタ1705で印刷したりしてもよい。
また、上記時分割立体ディスプレイ1705と観察者の頭部の位置を検出する装置とを組み合わせることにより、特開平7−129792号公報にて提案されている立体表示デバイスのように、頭部の移動、すなわち視点の移動に応じてその視点から見た立体画像を提示することができる。
図20には、本実施例における画像変換手順を示している。S1901(入力合成画像の入力ステップ)およびS1902(入力画像生成パラメータ取得ステップ)については、実施例1のS101およびS102と同様である。
また、S1903(多視点画像生成ステップ)では、実施例1のS104におけるS501と同様の処理を行って多視点画像群を生成するが、この際に時分割立体ディスプレイ1705の立体表示パラメータである視点数(ここでは2つ)および視点間隔(左右の眼に対応する間隔)の情報を取得し、それに応じた2つの視点画像を生成(選択)する。そして、これら2視点画像を交互に時分割立体ディスプレイ1705に出力することにより、立体像を提示することができる。
本実施例6では、実施例5で説明した多視点画像群への変換処理において、上述した任意画像生成手法を用いて新規視点画像を生成し、入力合成画像から直接生成した視点画像を置き換えたり該多視点画像群に追加したりすることができる場合について説明する。これにより、実施例5で説明した時分割立体ディスプレイ1705における立体像の見えを変更することができる。また、時分割立体ディスプレイ1705と頭部位置の検出装置とを組み合わせた立体表示デバイスを用いる場合に、立体表示パラメータとして該検出装置からの頭部位置情報を取得して、任意の2視点に対応した視点画像を生成することもできる。生成した新規視点画像は、実施例5の2次元ディスプレイ1703に2次元画像として表示させたり、プリンタ1706で印刷したりすることもできる。なお、本実施例の構成は実施例5と同様である。
本実施例における画像変換手順を図20に示す。このうち、S1901(入力合成画像の入力ステップ)、S1902(入力画像生成パラメータ取得ステップ)については実施例5と同じである。
但し、S1903では、図21に示す処理を行う。図21におけるS2001(多視点画像への変換ステップ)、S2002(変換後多視点画像の視点位置決定ステップ)およびS2003(任意視点画像生成ステップ)は、実施例3における図15のS1501〜S1503と同様である。そして、S2003で生成された新規視点画像を出力する。
以上説明したように、上記各実施例によれば、ある立体表示デバイスの画素配列方式、視点数、提示視差量の大小等の該立体表示デバイスの仕様(立体表示パラメータ)に合った合成画像しか存在しない場合でも、該合成画像を入力として、別の仕様の立体表示デバイスに最適な合成画像もしくは多視点画像を生成することができる。
なお、上記各実施例から以下の発明も導くことができる。
1.任意の画素配列を持つ立体表示デバイス用の第1立体画像を別の画像配列を持つ立体表示デバイス用の第2立体画像に変換する処理を行う画像処理プログラム又は画像処理装置。
2.上記変換処理で、第2立体画像の視点数が第1立体画像の視点数よりも少ない場合に、第2立体画像の視点に対応した視点画像を選択し、出力立体画像を生成する画像処理プログラム又は画像処理装置。
3.上記変換処理で、欠落画素の補間に色情報と輝度情報の分離を利用した補間方法を用いた多視点画像への変換を行う画像処理プログラム又は画像処理装置。
4.上記変換処理で、欠落画素の補間にエッジ画像を補間の制御情報として用いる補間方法を用いて多視点画像への変換を行う画像処理プログラム又は画像処理装置。
5.上記変換処理で、欠落画素の補間に隣接する視点画像内の画素情報を用いる補間方法を利用した多視点画像への変換を行う画像処理プログラム又は画像処理装置。
6.上記変換処理で、欠落画素の補間に隣接するフレーム内の画素情報を用いた補間方法を利用した多視点画像への変換を行う画像処理プログラム又は画像処理装置。
7.上記変換処理で、第1立体画像の視点数より第2立体画像の視点数が多い場合に、新規視点画像を生成する任意視点画像生成処理を行い、該新規視点画像を用いて出力立体画像を生成する画像処理プログラム又は画像処理装置。
8.上記変換処理で、入力立体画像を構成する入力多視点画像に基づいて新規視点画像を生成する任意視点画像生成処理を行い、該新規生成画像で入力多視点画像の一部又は全部を置き換えて、立体像の見えを改善した出力立体画像を生成する画像処理プログラム又は画像処理装置。
9.上記任意視点画像生成処理で、同一な被写体部分を点対点の対応として表す対応点をマッチング処理により抽出し、視差マップを構築する画像処理プログラム又は画像処理装置。
本発明の実施例1〜4の立体表示システムにおける画像処理装置での処理を示すフローチャートである。 本発明の実施例1〜6の立体表示システムにおける画像処理装置での入力合成画像のパラメータを取得する手順を示したフローチャートである。 合成画像の一例を示す図である。 合成画像の変換の一例を示す図である。 本発明の実施例1〜4における合成画像変換処理を示すフローチャートである。 RGBの各レイヤーに分けた画像を示す図である。 視点画像における画素補間を説明する図である。 近傍画素情報を用いた画素補間方法を説明する図である。 マルチプレックス処理により生成される合成画像を示す図である。 実施例1〜4において、多視点画像群から合成画像を生成する様子を説明する図である。 ベイヤー配列補間技術を利用した補間処理手順を説明するブロック図である。 実施例1〜4の立体表示システムの構成を示すブロック図である。 実施例2における合成画像変換ステップの処理を示すフローチャートである。 実施例2における画像変換前後の視点位置の例を示す図である。 実施例3,4における合成画像変換ステップの処理を示すフローチャートである。 実施例3における画像変換前後の視点位置の例を示す図である。 実施例4における画像変換前後の視点位置の例を示す図である。 実施例4における画像変換前後の視点位置の他の例を示す図である。 実施例5,6の画像表示システムの構成を示すブロック図である。 実施例5,6における画像処理装置での処理を示すフローチャートである。 実施例6における画像変換ステップでの処理を示すフローチャートである。 実施例1における視差マップを用いた視点画像の生成を説明する図である。
符号の説明
401 変換前の合成画像(入力合成画像)
402 変換後の合成画像(出力合成画像)
901〜905 多視点画像群
906 出力合成画像
1201,1701 入出力部
1202,1702 画像処理装置
1203,1703 2次元ディスプレイ
1204,1704 操作入力部
1205,1705 立体ディスプレイ
1206,1706 プリンタ
1207,1707 ネットワーク
1208 データベース

Claims (11)

  1. 立体表示デバイスを用いた立体像観察を可能とする立体画像を生成する、コンピュータ上で動作する画像処理プログラムであって、
    第1の立体表示デバイスにおける立体表示に関するパラメータである第1のパラメータおよび該第1のパラメータに対応した第1の立体画像を取得する第1のステップと、
    第2の立体表示デバイスにおける立体表示に関するパラメータである第2のパラメータを取得する第2のステップと、
    前記第1の立体画像と前記第1および第2のパラメータとに基づいて、前記第2のパラメータに対応した第2の立体画像を生成する第3のステップとを有することを特徴とする画像処理プログラム。
  2. 前記第2の立体画像は、前記第1の立体画像に対して少なくとも画素配列が異なることを特徴とする請求項1に記載の画像処理プログラム。
  3. 前記第1および第2のパラメータは、視点数、視点間隔、画素配列方式および視差量のうち少なくとも1つを含むことを特徴とする請求項1又は2に記載の画像処理プログラム。
  4. 前記第3のステップにおいて、前記第2の立体画像を構成する画素のうち前記第1の立体画像に対応画素がない画素を生成する画素生成処理を行うことを特徴とする請求項1から3のいずれか1つに記載の画像処理プログラム。
  5. 前記画素生成処理は、前記第1の立体画像を構成する画素の情報を用いた補間処理により行われることを特徴とする請求項4に記載の画像処理プログラム。
  6. 前記第3のステップにおいて、前記第1の立体画像に基づいて該第1の立体画像の複数視点に対応する複数の視点画像を生成し、該複数の視点画像のうち少なくとも一部と前記第1および第2のパラメータとに基づいて前記第2の立体画像を生成することを特徴とする請求項1から5のいずれか1つに記載の画像処理プログラム。
  7. 前記第3のステップにおいて、前記第1の立体画像に基づいて該第1の立体画像の複数視点に対応する複数の視点画像を生成し、かつ任意視点画像生成手法を用いて前記第2の立体画像の複数視点のうち前記第1の立体画像の視点に含まれない視点に対応する新規視点画像を生成し、前記複数の視点画像と前記新規視点画像と前記第1および第2のパラメータとに基づいて前記第2の合成画像を生成することを特徴とする請求項1から5のいずれか1つに記載の画像処理プログラム。
  8. 前記第3のステップにおいて、前記複数の視点画像のうち少なくとも一部を、任意視点画像生成手法を用いて生成した新規視点画像で置換することを特徴とする請求項6又は7に記載の画像処理プログラム。
  9. 請求項1から8のいずれか1つに記載の画像処理プログラムが動作するコンピュータ部と、
    前記第1の立体画像が入力される入力部と、
    前記第2の立体画像が出力される出力部とを有することを特徴とする画像処理装置。
  10. 立体表示デバイスを用いた立体像観察を可能とする立体画像を生成する画像処理装置であって、
    第1の立体表示デバイスにおける立体表示に関するパラメータである第1のパラメータ、該第1のパラメータに対応した第1の立体画像、および第2の立体表示デバイスにおける立体表示に関するパラメータである第2のパラメータを取得するデータ取得部と、
    前記第1の立体画像と前記第1および第2のパラメータとに基づいて、前記第2のパラメータに対応した第2の立体画像を生成する画像生成部とを有することを特徴とする画像処理装置。
  11. 請求項10に記載の画像処理装置と、
    前記第2の立体画像を出力する立体表示デバイスとを有することを特徴とする立体表示システム。
JP2004300895A 2004-10-15 2004-10-15 立体表示のための画像処理プログラム、画像処理装置および立体表示システム Expired - Fee Related JP4440067B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004300895A JP4440067B2 (ja) 2004-10-15 2004-10-15 立体表示のための画像処理プログラム、画像処理装置および立体表示システム
US11/250,975 US7443392B2 (en) 2004-10-15 2005-10-14 Image processing program for 3D display, image processing apparatus, and 3D display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004300895A JP4440067B2 (ja) 2004-10-15 2004-10-15 立体表示のための画像処理プログラム、画像処理装置および立体表示システム

Publications (3)

Publication Number Publication Date
JP2006115246A true JP2006115246A (ja) 2006-04-27
JP2006115246A5 JP2006115246A5 (ja) 2007-12-20
JP4440067B2 JP4440067B2 (ja) 2010-03-24

Family

ID=36180262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004300895A Expired - Fee Related JP4440067B2 (ja) 2004-10-15 2004-10-15 立体表示のための画像処理プログラム、画像処理装置および立体表示システム

Country Status (2)

Country Link
US (1) US7443392B2 (ja)
JP (1) JP4440067B2 (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006140553A (ja) * 2004-11-10 2006-06-01 Canon Inc 立体画像生成プログラム、立体画像生成装置および立体画像生成方法
JP2009124308A (ja) * 2007-11-13 2009-06-04 Tokyo Denki Univ 多眼視画像作成システム及び多眼視画像作成方法
JP2010016463A (ja) * 2008-07-01 2010-01-21 Sharp Corp 画像表示装置
JP2010088087A (ja) * 2008-10-03 2010-04-15 Seiko Epson Corp 電気光学装置及び電子機器
JP2010088749A (ja) * 2008-10-09 2010-04-22 Kenji Yoshida 遊技ゲーム機
JP2010266850A (ja) * 2009-04-15 2010-11-25 Nec Lcd Technologies Ltd 表示コントローラ、表示装置、画像処理方法及び画像処理プログラム
JP2010266851A (ja) * 2009-04-15 2010-11-25 Nec Lcd Technologies Ltd 表示コントローラ、表示装置、画像処理方法及び画像処理プログラム
WO2011024423A1 (ja) * 2009-08-28 2011-03-03 パナソニック株式会社 立体映像表示制御装置及び立体映像撮像装置
JP2011172293A (ja) * 2011-06-07 2011-09-01 Toshiba Corp 映像処理装置及び映像処理方法並びにプログラム
JP2011205346A (ja) * 2010-03-25 2011-10-13 Canon Inc 画像処理装置および画像処理装置の制御方法
JP2011223482A (ja) * 2010-04-14 2011-11-04 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2012023488A (ja) * 2010-07-13 2012-02-02 Ntt Docomo Inc 画像処理装置、画像処理方法、表示装置及びプログラム
JP2012054862A (ja) * 2010-09-03 2012-03-15 Sony Corp 画像処理装置および画像処理方法
JP2012069090A (ja) * 2010-08-27 2012-04-05 Canon Inc 画像処理装置および方法
JP2012513728A (ja) * 2008-12-25 2012-06-14 ドルビー ラボラトリーズ ライセンシング コーポレイション アップサンプリングのためにビュー間の視差に基づく適応補間を用いるデインターリーブされたビューの再構成
WO2012176526A1 (ja) * 2011-06-21 2012-12-27 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
JP2013081133A (ja) * 2011-10-05 2013-05-02 Canon Inc 画像処理装置、画像処理方法、及びプログラム
KR101292513B1 (ko) 2010-11-22 2013-08-01 가부시끼가이샤 도시바 입체 화상 표시 장치, 입체 화상 표시 방법 및 입체 화상 결정 장치
US8619123B2 (en) 2010-01-20 2013-12-31 Kabushiki Kaisha Toshiba Video processing apparatus and method for scaling three-dimensional video
US8797231B2 (en) 2009-04-15 2014-08-05 Nlt Technologies, Ltd. Display controller, display device, image processing method, and image processing program for a multiple viewpoint display
KR101615111B1 (ko) * 2009-06-16 2016-04-25 삼성전자주식회사 다시점 영상 표시 장치 및 방법
US9363503B2 (en) 2013-02-07 2016-06-07 Mstar Semiconductor, Inc. Image access method and image access apparatus

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697751B2 (en) * 2005-12-29 2010-04-13 Graphics Properties Holdings, Inc. Use of ray tracing for generating images for auto-stereo displays
ES2625902T3 (es) * 2006-01-09 2017-07-20 Dolby International Ab Procedimientos y aparatos para la compensación de iluminación y color en la codificación de vídeo de múltiples vistas
KR100781278B1 (ko) * 2006-05-04 2007-11-30 엘지전자 주식회사 입체영상 표시장치
KR100841321B1 (ko) * 2006-09-29 2008-06-26 엘지전자 주식회사 입체영상 표시장치
KR101450670B1 (ko) * 2007-06-11 2014-10-15 삼성전자 주식회사 블록 기반의 양안식 영상 포맷 생성 방법과 장치 및 양안식영상 복원 방법과 장치
JP5342796B2 (ja) * 2008-03-27 2013-11-13 株式会社東芝 三次元画像表示方法および装置
KR101502603B1 (ko) * 2008-09-22 2015-03-13 삼성전자주식회사 입체 영상 표시 장치 및 그 방법
JP5391914B2 (ja) * 2009-08-06 2014-01-15 ソニー株式会社 撮像装置および映像記録再生システム
JP2011066507A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 画像処理装置
JP2011081605A (ja) * 2009-10-07 2011-04-21 Fujifilm Corp 画像処理装置、方法及びプログラム
JP5499778B2 (ja) * 2010-03-03 2014-05-21 株式会社ニコン 撮像装置
DE102010018083B4 (de) * 2010-04-23 2013-05-08 Tridelity Ag Gleichzeitige Wiedergabe einer Mehrzahl von Bildern mittels einer zweidimensionalen Bilddarstellungs-Matrix
KR101704685B1 (ko) * 2010-09-10 2017-02-09 삼성디스플레이 주식회사 입체 영상 변환 방법, 이를 이용한 입체 영상 표시 방법 및 상기 입체 영상 표시 방법을 수행하기 위한 입체 영상 표시 장치
JP5492311B2 (ja) * 2011-02-08 2014-05-14 富士フイルム株式会社 視点画像生成装置、視点画像生成方法及び立体画像印画装置
TWI462569B (zh) * 2011-04-22 2014-11-21 Mstar Semiconductor Inc 三維影像攝相機及其相關控制方法
TWI467514B (zh) * 2011-05-12 2015-01-01 Himax Tech Ltd 三維影像處理系統及方法
CN103368359B (zh) * 2012-04-11 2016-04-13 台达电子工业股份有限公司 变流器功率单元及其母线排
US9188433B2 (en) 2012-05-24 2015-11-17 Qualcomm Incorporated Code in affine-invariant spatial mask
JP6216143B2 (ja) * 2012-06-20 2017-10-18 キヤノン株式会社 画像処理装置、その制御方法、およびプログラム
US20150350624A1 (en) * 2012-07-02 2015-12-03 Samsung Electronics Co., Ltd. Method and apparatus for generating 3d image data stream, method and apparatus for playing 3d image data stream
JP6099892B2 (ja) * 2012-07-09 2017-03-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 映像表示装置
KR101407927B1 (ko) * 2012-11-13 2014-06-17 주식회사 엘지화학 상변화 잉크 조성물을 이용하여 형성된 차광패턴을 포함하는 입체영상표시장치
JP6128817B2 (ja) * 2012-11-30 2017-05-17 キヤノン株式会社 画像形成装置および画像形成方法
US9420262B1 (en) 2013-03-15 2016-08-16 Matthew Myers Gyroscopic two dimensions of freedom photography system and method
KR20150101915A (ko) * 2014-02-27 2015-09-04 삼성전자주식회사 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스
CN103945208B (zh) * 2014-04-24 2015-10-28 西安交通大学 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
CN104656263B (zh) * 2015-03-17 2017-07-04 京东方科技集团股份有限公司 三维显示方法和装置
US10419788B2 (en) * 2015-09-30 2019-09-17 Nathan Dhilan Arimilli Creation of virtual cameras for viewing real-time events
CN109471603A (zh) * 2017-09-07 2019-03-15 华为终端(东莞)有限公司 一种界面显示方法及装置
US10797112B2 (en) 2018-07-25 2020-10-06 Universal Display Corporation Energy efficient OLED TV

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5711592A (en) 1980-06-24 1982-01-21 Sony Corp Color three dimensional video display device
JP3032414B2 (ja) 1993-10-29 2000-04-17 キヤノン株式会社 画像処理方法および画像処理装置
US6064424A (en) 1996-02-23 2000-05-16 U.S. Philips Corporation Autostereoscopic display apparatus
JPH10232665A (ja) 1997-02-20 1998-09-02 Canon Inc 表示制御装置及び方法
GB9715397D0 (en) * 1997-07-23 1997-09-24 Philips Electronics Nv Lenticular screen adaptor
KR100304784B1 (ko) * 1998-05-25 2001-09-24 박호군 편광과광띠를이용한다자시청용3차원영상표시장치
US7277121B2 (en) * 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
JP2003209858A (ja) 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006140553A (ja) * 2004-11-10 2006-06-01 Canon Inc 立体画像生成プログラム、立体画像生成装置および立体画像生成方法
JP2009124308A (ja) * 2007-11-13 2009-06-04 Tokyo Denki Univ 多眼視画像作成システム及び多眼視画像作成方法
JP2010016463A (ja) * 2008-07-01 2010-01-21 Sharp Corp 画像表示装置
JP2010088087A (ja) * 2008-10-03 2010-04-15 Seiko Epson Corp 電気光学装置及び電子機器
JP2010088749A (ja) * 2008-10-09 2010-04-22 Kenji Yoshida 遊技ゲーム機
JP4457323B2 (ja) * 2008-10-09 2010-04-28 健治 吉田 遊技ゲーム機
JP2012513728A (ja) * 2008-12-25 2012-06-14 ドルビー ラボラトリーズ ライセンシング コーポレイション アップサンプリングのためにビュー間の視差に基づく適応補間を用いるデインターリーブされたビューの再構成
JP2010266850A (ja) * 2009-04-15 2010-11-25 Nec Lcd Technologies Ltd 表示コントローラ、表示装置、画像処理方法及び画像処理プログラム
JP2010266851A (ja) * 2009-04-15 2010-11-25 Nec Lcd Technologies Ltd 表示コントローラ、表示装置、画像処理方法及び画像処理プログラム
US8988312B2 (en) 2009-04-15 2015-03-24 Nlt Technologies, Ltd. Display controller, display device, image processing method, and image processing program
US8797231B2 (en) 2009-04-15 2014-08-05 Nlt Technologies, Ltd. Display controller, display device, image processing method, and image processing program for a multiple viewpoint display
KR101615111B1 (ko) * 2009-06-16 2016-04-25 삼성전자주식회사 다시점 영상 표시 장치 및 방법
WO2011024423A1 (ja) * 2009-08-28 2011-03-03 パナソニック株式会社 立体映像表示制御装置及び立体映像撮像装置
US8619123B2 (en) 2010-01-20 2013-12-31 Kabushiki Kaisha Toshiba Video processing apparatus and method for scaling three-dimensional video
JP2011205346A (ja) * 2010-03-25 2011-10-13 Canon Inc 画像処理装置および画像処理装置の制御方法
JP2011223482A (ja) * 2010-04-14 2011-11-04 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US9219911B2 (en) 2010-04-14 2015-12-22 Sony Corporation Image processing apparatus, image processing method, and program
JP2012023488A (ja) * 2010-07-13 2012-02-02 Ntt Docomo Inc 画像処理装置、画像処理方法、表示装置及びプログラム
JP2012069090A (ja) * 2010-08-27 2012-04-05 Canon Inc 画像処理装置および方法
US8842972B2 (en) 2010-09-03 2014-09-23 Sony Corporation Image processing device and image processing method
JP2012054862A (ja) * 2010-09-03 2012-03-15 Sony Corp 画像処理装置および画像処理方法
KR101292513B1 (ko) 2010-11-22 2013-08-01 가부시끼가이샤 도시바 입체 화상 표시 장치, 입체 화상 표시 방법 및 입체 화상 결정 장치
JP2011172293A (ja) * 2011-06-07 2011-09-01 Toshiba Corp 映像処理装置及び映像処理方法並びにプログラム
WO2012176526A1 (ja) * 2011-06-21 2012-12-27 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
JPWO2012176526A1 (ja) * 2011-06-21 2015-02-23 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
JP2013081133A (ja) * 2011-10-05 2013-05-02 Canon Inc 画像処理装置、画像処理方法、及びプログラム
US9363503B2 (en) 2013-02-07 2016-06-07 Mstar Semiconductor, Inc. Image access method and image access apparatus

Also Published As

Publication number Publication date
US20060082574A1 (en) 2006-04-20
JP4440067B2 (ja) 2010-03-24
US7443392B2 (en) 2008-10-28

Similar Documents

Publication Publication Date Title
JP4440067B2 (ja) 立体表示のための画像処理プログラム、画像処理装置および立体表示システム
EP3251346B1 (en) Digital multi-dimensional image photon platform system and methods of use
JP5011316B2 (ja) 出力画像のレンダリング
EP3158536B1 (en) Method and apparatus for generating a three dimensional image
JP4403162B2 (ja) 立体画像表示装置および立体画像の作製方法
US20110064299A1 (en) Image processing apparatus and image processing method
CN102474644B (zh) 立体图像显示系统、视差转换装置、视差转换方法
JP5406269B2 (ja) 奥行き検知装置及び方法
EP1582074B1 (en) Video filtering for stereo images
JP4958233B2 (ja) 多眼視画像作成システム及び多眼視画像作成方法
US20050105179A1 (en) Stereoscopic image producing method and stereoscopic image display device
WO2014083752A1 (ja) 別視点画像生成装置および別視点画像生成方法
KR101669619B1 (ko) 부화소 영역 가중치에 기반한 렌더링 시스템 및 방법
JP4871820B2 (ja) 映像表示システム及び該システムのパラメータ生成方法
US9529205B2 (en) Image processing apparatus and method, and printer and display apparatus
KR20080101998A (ko) 임의 시점 영상 합성 시 영상 보정 방법 및 장치
US8797383B2 (en) Method for stereoscopic illustration
JP6128748B2 (ja) 画像処理装置及び方法
JP2012094936A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2019184308A (ja) 奥行推定装置およびそのプログラム、ならびに、仮想視点映像生成装置およびそのプログラム
JP5747679B2 (ja) 3次元画像の提示方法
CN109643462B (zh) 基于渲染引擎的实时图像处理方法以及显示设备
JP2008090750A (ja) 三次元画像の作成方法および装置
JP5857606B2 (ja) 奥行き製作支援装置、奥行き製作支援方法、およびプログラム
KR20160068125A (ko) 다시점 무안경 3차원 디스플레이의 영상 처리 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071102

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081023

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20081201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140115

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees