JP4754031B2 - 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム - Google Patents
表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム Download PDFInfo
- Publication number
- JP4754031B2 JP4754031B2 JP2010238665A JP2010238665A JP4754031B2 JP 4754031 B2 JP4754031 B2 JP 4754031B2 JP 2010238665 A JP2010238665 A JP 2010238665A JP 2010238665 A JP2010238665 A JP 2010238665A JP 4754031 B2 JP4754031 B2 JP 4754031B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual camera
- virtual
- camera
- display
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/356—Image reproducers having separate monoscopic and stereoscopic modes
- H04N13/359—Switching between monoscopic and stereoscopic modes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/30—Clipping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
Description
本発明のある局面によれば、典型的には、立体表示を含むアプリケーションなどを制作する場合であっても、平面表示のみを含むアプリケーションと同様の作業量で済むような環境を提供することを目的とする。そこで、まず、本発明に係る概要および概念について、図1〜図3を参照して説明する。
図1は、本発明の実施の形態に従う立体表示処理を関連する平面表示処理と対比して説明するための図である。図1(A)を参照して、オブジェクトOBJ1およびOBJ2を含む3次元仮想空間を表現した画像を表示装置10に表示する場合を考える。この場合には、オブジェクトOBJ1およびOBJ2が配置された3次元仮想空間内のいずれかの位置に仮想カメラ300が設定される。そして、3次元仮想空間内のオブジェクトOBJ1およびOBJ2などを、仮想カメラ300で仮想的に撮影することで、画像(平面2次元画像)を生成する。この基準仮想カメラ300によって生成される画像からなる表示データに基づいて、表示装置10において平面表示がなされる。
(i) 本明細書において、「立体表示」とは、画像に含まれる少なくとも一部の対象物をユーザに立体的に視認させることができるように、当該画像を表現することを意味する。典型的には、視差を有する一対の平面2次元画像(ステレオ画像)をユーザに視認させて、眼や脳の生理的な働きを利用することで、当該ユーザに立体感を感じさせる。
(ii) 本明細書において、「右」および「左」とは、ユーザがいずれの眼で視認するかを区別するために使用される。すなわち、上述した「右画像」は、ユーザが右眼で視認されることが予定されている画像であることを示し、上述した「左画像」は、ユーザが左眼で視認されることが予定されている画像であることを示す。また、「右画像」を生成する仮想カメラを「右仮想カメラ」とも称し、「左画像」を生成する仮想カメラを「左仮想カメラ」とも称する。
(iii) 本明細書において、「視体積」とは、以下のような範囲を意味する。図2は、本発明の実施の形態に従う仮想カメラの視野範囲を説明するための図である。図2を参照して、本実施の形態に従う仮想カメラは、3次元仮想空間のうちカメラ方向の所定範囲(図2においてハッチング表示されている範囲)にあるオブジェクトのみをレンダリングする。言い換えれば、仮想カメラの視野角(図2において破線で囲む範囲)の外になる範囲はレンダリングされない。また、仮想カメラに対して、近傍側に「ニアクリップ面」が設定され、遠方側に「ファークリップ面」が設定される。これらのニアクリップ面およびファークリップ面は、仮想カメラのカメラ方向の線に対して垂直となるように設定される。このニアクリップ面とファークリップ面との間に存在するオブジェクトであり、かつ、仮想カメラの視野角の内に含まれるオブジェクトがレンダリング対象となる。
(iv) 表示装置10において立体表示を行なう場合には、表示装置10の表示面の位置に対応する平面(3次元仮想空間の中で、立体表示を見るユーザが表示装置10の表示面の位置に存在すると感じる面)である「基準仮想面」が3次元仮想空間内に設定される(図2参照)。なお、基準仮想面は、「3次元仮想空間の中で、立体表示を見るユーザが表示装置10の表示面から所定のオフセットを持った位置に存在すると感じる面」としてもよい。この「基準仮想面」についても、カメラ方向に対して垂直となるように設定される。さらに、表示装置10の表示面の実サイズは有限であるから、当該基準仮想面のうち、表示装置10の表示面にレンダリングされる範囲に対応する「基準仮想平面領域」を定義することができる。すなわち、無限面である基準仮想面のうち、レンダリングされる範囲(視体積に含まれる範囲)が、「基準仮想平面領域」である。
(v) 上述したように、本実施の形態においては、視差を有する一対の平面2次元画像を表示装置10に表示させることで、ユーザに立体感を感じさせる。この一対の平面2次元画像内のあるオブジェクトについての視差量が大きくなればなるほど、当該オブジェクトはユーザにとってより大きな立体感をもって視認されることになるが、視差量が一定値を超えて大きくなると、逆にユーザは立体感を感じにくくなる。そのため、表示装置10で立体表示を行なう際には、視差量を適切な範囲に維持する必要がある。以下では、ユーザが表示装置10において立体表示を気持ちよく受け入れることができる、表示面上における右画像と左画像との間の最大視差量を「限界視差量」と称す。この立体感を気持ちよく感じられるしきい値、すなわち限界視差量は、表示装置10の表示面についての実画面幅、ユーザの眼の実間隔、およびユーザから表示装置10の表示面までの実距離などによって決まる。
図3は、本発明の実施の形態に従う立体表示処理に係る機能を示す模式図である。図3を参照して、本実施の形態に従う立体表示処理は、仮想カメラ設定機能50と、視体積設定機能60と、変更受付機能70と、モード設定機能80と、レンダリング機能90とを含む。
[b1.表示装置]
表示装置10としては、ユーザに向けて立体表示が可能なデバイスであれば、任意の型式の表示デバイスを採用することができる。すなわち、表示装置10としては、視差を有する2つの画像をユーザがそれぞれの眼で視認できるようなデバイスであればよい。典型的には、例えば、前面視差バリアタイプの液晶表示デバイスやレンチキュラータイプの表示デバイスなどを用いることができる。あるいは、表示装置10として、それに含まれる主波長成分の異なる2つの画像をそれぞれ独立に表示するとともに、透過波長範囲の異なる2つのカラーフィルタがそれぞれ組込まれたメガネをユーザに装着させることで、立体表示を行なう構成を採用してもよい。これに類似の構成として、偏光方向を異ならせて2つの画像をそれぞれ表示するとともに、当該2つの偏光方向に対応する偏光フィルタがそれぞれ組込まれたメガネをユーザに装着させることで、立体表示を行なう構成であってもよい。
上述した本実施の形態に従う立体表示処理は、コンピュータを用いたシステムとして実装することが可能である。以下、図5を参照して、情報処理システムとして実装した場合の構成例について説明する。
本発明の実施の形態に従う情報処理システム1において実装される表示制御プログラムとしては、アプリケーションとして実装される部分と、ライブラリとして実装される部分とを含み得る。以下、図6を参照して、本実施の形態に従う情報処理システム1におけるプログラムの実装例について説明する。
本実施の形態に従う立体表示用ライブラリ218は、上述のように、基準仮想カメラの設定値が入力されると、後述するような処理を実行し、その結果として、右仮想カメラ302および左仮想カメラ304の設定値を出力する。すなわち、立体表示用ライブラリ218は、設定された右仮想カメラ302および左仮想カメラ304の視体積を示す情報を出力するとともに、設定された右仮想カメラ302と左仮想カメラ304との間の距離を示す情報を出力する。以下、図7を参照して、立体表示用ライブラリ218の入出力インターフェイスの具体例について説明する。
以下、立体表示用ライブラリ218での処理内容(仮想カメラの配置位置および視体積の設定処理など)を含めた、右画像および左画像を生成するための処理について詳述する。
図8は、本発明の実施の形態に従う立体表示処理の対象となる3次元仮想空間の一例を示す模式図である。図9は、図8に示す状態において生成される画像(右画像および左画像)の生成処理を示す模式図である。図10は、図9に示す右仮想カメラ302および左仮想カメラ304によってそれぞれ生成される画像の一例を示す図である。
「アプリケーション優先モード」においては、アプリケーションの制作者は、平面表示のみを利用する(立体表示を利用しない)アプリケーションを制作する場合と同様に、1つの基準仮想カメラ(図1に示す基準仮想カメラ300)の配置位置および視体積(描画範囲)を指定する(図7に示す(1)基準仮想カメラ情報)。同時に、制作者は、指定した視体積に含まれる空間内のいずれの平面位置が、表示装置10において立体表示をした際にその表示面付近に位置するように表示したいかを指定する(図7に示す(2)基準仮想面情報)。さらに、制作者は、右画像と左画像との間に生じる視差量を評価して、ユーザが表示装置10での立体表示を気持ちよく受け入れることができることを保証するための視差判定面を指定する(図7に示す(3)視差判定面情報)。
以下の説明においては、(1)基準仮想カメラ情報、(5)右仮想カメラ情報、および、(6)左仮想カメラ情報は、いずれもカメラ行列として定義される例を示す。先に、このカメラ行列について説明する。
基準仮想面は、図8に示すように、基準仮想カメラ300を基準として設定される。以下の説明においては、(2)基準仮想面情報として、基準仮想カメラ300から設定される基準仮想面までの基準仮想カメラ300のカメラ方向301(基準カメラ方向)に沿った仮想空間距離Dとして定義される例を示す。
図12は、本発明の実施の形態に従う右仮想カメラ302および左仮想カメラ304の設定処理を2次元的に説明するための図である。図13は、図12に示す右仮想カメラおよび左仮想カメラの設定処理の処理結果に応じて設定される視体積を示す図である。
次に、図12および図13を参照して、基準仮想カメラ300の設定に応答して、右仮想カメラ302および左仮想カメラ304がどのように設定されるかについて説明する。
上述の説明においては、右仮想カメラおよび左仮想カメラを設定する際に、基準仮想カメラ300の配置位置を基準線350に沿って右側および左側にそれぞれ等距離だけ移動させる処理について例示した。しかしながら、いずれか一方の仮想カメラを基準仮想カメラ300の配置位置に固定しておき、他方の仮想カメラのみを移動させるようにしてもよい。以下、このような場合の処理について例示する。
「リアルモード」においては、アプリケーションの制作者は、平面表示のみを利用する(立体表示を利用しない)アプリケーションを制作する場合と同様に、1つの基準仮想カメラ(図1に示す基準仮想カメラ300)の配置位置および視体積(描画範囲)を指定する(図7に示す(1)基準仮想カメラ情報)。同時に、制作者は、指定した視体積に含まれる空間内のいずれの平面位置が、表示装置10において立体表示をした際にその表示面付近に位置するように表示したいかを指定する(図7に示す(2)基準仮想面情報)。
図15は、この発明の実施の形態に従うリアルモードにおける処理内容を説明するための図である。このリアルモードでは、図15(A)に示すように、ユーザが表示装置10に対峙して表示面を見る場合の光学的な関係と等価となるようにレンダリング処理が実行される。すなわち、ユーザの右眼と左眼との間の実距離L1、ユーザの両眼から表示装置10の表示面までの実距離L2、および表示装置10の表示面の実画面幅L3で規定される位置関係に対応して、右仮想カメラおよび左仮想カメラの配置位置および視体積が決定される。
上述した、アプリケーション優先モードおよびリアルモードにおいて決定される、右仮想カメラ302と左仮想カメラ304との間の仮想空間距離Dfは、必ずしもそのまま用いるのではなく、その後に所定の条件(アプリケーションによって許容される値やユーザ操作など)によって、さらに調整された後に用いられてもよい。その場合には、仮想空間距離Dfは、アプリケーションなどから与えられた条件下における、右仮想カメラ302と左仮想カメラ304との間の最大値を示す。すなわち、右仮想カメラ302と左仮想カメラ304との間の仮想空間距離Dfは、表示装置10に表示される右画像と左画像との間に生じ得る最大視差を定めるパラメータであり、アプリケーションなどによって設定される条件下における限界視差量に応じて、その最大値が制限されることになる。
なお、スライダー1062による調整幅の最大値に、右仮想カメラ302と左仮想カメラ304との間の仮想空間距離Df(最大値)が全く一致しなくともよい。たとえば、仮想空間距離Df(最大値)に所定の定数α(0<α<1)を乗じた値をスライダー1062による調整幅の最大値に対応付けてもよい。この場合には、スライダー1062によって与えられる調整値をγとすると、立体感調整後の仮想空間距離Df’は、以下のような式で表わすことができる。
なお、右仮想カメラ302と左仮想カメラ304との間の仮想空間距離が「0」となった場合には、表示装置10では立体表示ではなく平面表示がなされる。そのため、図16に示すスライダー1062には、紙面上方向には立体表示を示す「3D」の文字が付されており、紙面下方向には平面表示を示す「2D」の文字が付されている。すなわち、ユーザがスライダー1062を「3D」の位置に変更すると、最大の仮想空間距離が設定される一方、ユーザがスライダー1062を「2D」の位置に変更すると、仮想空間距離は「0」に設定される。
再度図7を参照して、立体表示用ライブラリ218は、右仮想カメラ302および左仮想カメラ304の設定値を算出するだけでなく、所定処理の結果値を戻り値としてアプリケーションなどに返す。本実施の形態においては、立体表示用ライブラリ218は、右仮想カメラ302と左仮想カメラ304との間の位置関係を示す情報を戻り値として返す。以下の説明では、この位置関係の典型例として、3次元仮想空間内における右仮想カメラ302と左仮想カメラ304との間の仮想空間距離Dfを用いる場合の処理例について説明する。
したがって、戻り値RVは、以下のように算出することができる。
これらのパラメータのうち、仮想空間距離NWおよび仮想空間距離LNについては、立体表示用ライブラリ218に入力される(1)基準仮想カメラ情報(図7参照)に基づいて算出され、仮想空間距離Dについては、立体表示用ライブラリ218に入力される(2)基準仮想面情報に基づいて算出される。また、仮想空間距離Dfについては、上述したように、右仮想カメラ302および左仮想カメラ304の設定処理の結果として決定される。
上述の図12に示す例では、視差判定面361を、ニアクリップ面364とファークリップ面366との間の任意の位置に設定する例を示した。一例として、図7に示す立体表示用ライブラリ218では、基準仮想平面領域360からの仮想空間距離A((3)視差判定面情報)を用いて、図12に示すような、視差判定面361が定義される。
次に、図21および図22を参照して、本実施の形態に従うプログラムの処理内容について説明する。なお、図21および図22に示す各ステップは、典型的には、情報処理システム1のCPU100がプログラムを実行することで提供される。
図21は、本発明の実施の形態に従うプログラムのメインルーチンを示すフローチャートである。図21に示すフローチャートにおいては、アプリケーションの進行に伴って、図1に示すような、3次元仮想空間内のオブジェクトを表示装置10で平面表示する場合と同様のパラメータを指定することで、表示装置10において立体表示を行なう場合の処理について説明する。
図22は、本発明の実施の形態に従う立体表示用ライブラリ218の処理内容を示すフローチャートである。図22を参照して、CPU100は、まず、初期化処理を実行する(ステップS100)。この初期化処理には、表示装置10の表示面の実サイズ、ユーザの眼の実間隔、ユーザから表示装置10の表示面までの実距離、ユーザが立体表示を気持ちよく受け入れることができる限界の深さなどの初期値が所定の設定値にセットされる。これらの設定値を設定する方法としては、表示装置10のハードウェア(あるいは、ファームウェア)に予め登録されている想定値を指定する態様、アプリケーションによって指定する態様、および、ユーザが設定する態様などを利用してもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
Claims (21)
- 立体表示が可能な表示装置を制御するための表示制御プログラムであって、前記表示制御プログラムは、前記表示装置のコンピュータを、
所定の仮想空間を表現した画像を前記表示装置で立体表示するために用いられる右画像および左画像を生成するために、前記仮想空間の仮想的な撮影に用いられる右仮想カメラおよび左仮想カメラのカメラ方向が同じ方向を向き、かつ、当該カメラ方向と両仮想カメラの位置を通る直線とが垂直になるように、前記仮想空間内に両仮想カメラの位置および方向をそれぞれ設定する仮想カメラ設定手段と、
前記仮想空間の中で少なくとも前記表示装置に表示すべき領域である表示対象領域に対して、前記右仮想カメラの視体積および前記左仮想カメラの視体積の両方が当該表示対象領域を含むように、両仮想カメラの視体積を設定し、さらに、少なくとも一方の仮想カメラの視体積が、当該一方の仮想カメラの位置から前記カメラ方向に伸びる線に関して他方の仮想カメラが存在する側に偏在するように設定する視体積設定手段として機能させ、
前記仮想カメラ設定手段は、基準仮想カメラが前記仮想空間内に設定されることに応答して、前記右仮想カメラおよび前記左仮想カメラを、当該右仮想カメラおよび当該左仮想カメラの前記カメラ方向が、前記基準仮想カメラのカメラ方向である基準カメラ方向と同じ方向になるように設定し、
前記視体積設定手段は、
前記基準仮想カメラの視体積に含まれ、前記基準カメラ方向と垂直な所定の面上の領域である仮想平面領域である基準仮想平面領域を前記表示対象領域として設定し、
前記右仮想カメラの視体積における前記基準仮想平面領域に対応する位置の断面、および、前記左仮想カメラの視体積における前記基準仮想平面領域に対応する位置の断面が、いずれも前記基準仮想カメラの視体積における前記基準仮想平面領域に対応する位置の断面と一致するように、前記右仮想カメラおよび前記左仮想カメラの視体積を設定する、表示制御プログラム。 - 前記仮想カメラ設定手段は、前記基準仮想カメラの配置位置を前記基準カメラ方向と垂直な方向に沿って右側に移動させた位置に前記右仮想カメラを設定すること、および、前記基準仮想カメラの配置位置を前記基準カメラ方向と垂直な方向に沿って左側に移動させた位置に前記左仮想カメラを設定すること、の少なくとも一方を実行する、請求項1に記載の表示制御プログラム。
- 前記仮想カメラ設定手段は、前記基準仮想カメラの配置位置を前記基準カメラ方向と垂直な方向に沿って所定距離だけ右側に移動させた位置に前記右仮想カメラを設定するとともに、前記基準仮想カメラの配置位置を前記基準カメラ方向と垂直な方向に沿って前記所定距離だけ左側に移動させた位置に前記左仮想カメラを設定する、請求項2に記載の表示制御プログラム。
- 前記視体積設定手段は、
前記基準仮想カメラの視体積に含まれる前記基準仮想平面領域の複数の頂点位置を取得し、
前記右仮想カメラの位置から前記複数の頂点位置のそれぞれに向かう線によって、前記右仮想カメラの視体積を設定し、
前記左仮想カメラの位置から前記複数の頂点位置のそれぞれに向かう線によって、前記左仮想カメラの視体積を設定する、請求項1〜3のいずれか1項に記載の表示制御プログラム。 - 前記視体積設定手段は、前記基準仮想カメラの視体積のニアクリップ面およびファークリップ面を用いて、前記右仮想カメラおよび前記左仮想カメラの視体積を設定する、請求項1〜4のいずれか1項に記載の表示制御プログラム。
- 前記表示制御プログラムは、さらに前記コンピュータを、前記視体積設定手段によって設定された、前記右仮想カメラおよび前記左仮想カメラの視体積を示す情報を出力する第1情報出力手段として機能させる、請求項1〜5のいずれか1項に記載の表示制御プログラム。
- 前記表示制御プログラムは、さらに前記コンピュータを、前記仮想カメラ設定手段によって設定された、前記右仮想カメラと前記左仮想カメラとの間の距離を示す情報を出力する第2情報出力手段として機能させる、請求項1〜6のいずれか1項に記載の表示制御プログラム。
- 前記第2情報出力手段は、前記基準仮想平面領域の幅を基準とした、前記右仮想カメラと前記左仮想カメラとの間の距離の比を出力する、請求項7に記載の表示制御プログラム。
- 前記表示制御プログラムは、ライブラリとして実装されるプログラムを含む、請求項1〜8のいずれか1項に記載の表示制御プログラム。
- 前記視体積設定手段は、前記右仮想カメラの視体積および前記左仮想カメラの視体積を互いに対称的に偏在するように設定する、請求項1〜9のいずれか1項に記載の表示制御プログラム。
- 前記表示制御プログラムは、
前記右仮想カメラによって生成される前記右画像と前記左仮想カメラによって生成される前記左画像との間に生じる視差量を評価するための、前記基準仮想平面領域と平行な視差判定面の位置を指定するための情報を受付けるように構成される、請求項10に記載の表示制御プログラム。 - 前記表示制御プログラムは、
前記右仮想カメラによって生成される前記右画像と前記左仮想カメラによって生成される前記左画像との間に生じる視差量を評価するための、前記基準仮想平面領域と平行な視差判定面を、前記両仮想カメラの視体積のうち前記基準仮想カメラから最も遠い位置に設定するように構成される、請求項10に記載の表示制御プログラム。 - 前記視差判定面は、前記基準仮想平面領域に対して、前記基準仮想カメラとは反対側に設けられる、請求項12に記載の表示制御プログラム。
- 前記仮想カメラ設定手段は、前記右仮想カメラと前記左仮想カメラとの間の許容される最大距離を決定する最大距離決定手段を含む、請求項1〜13のいずれか1項に記載の表示制御プログラム。
- 前記表示制御プログラムは、さらに前記コンピュータを、第1および第2モードのいずれかを設定するモード設定手段として機能させ、
前記仮想カメラ設定手段は、
前記第1モードが設定された場合に、前記右仮想カメラによって生成される前記右画像と前記左仮想カメラによって生成される前記左画像との間に生じる視差量が予め定められた値を超えないように、前記右仮想カメラおよび前記左仮想カメラを設定し、
前記第2モードが設定された場合に、前記基準仮想平面領域から前記右仮想カメラおよび前記左仮想カメラまでの距離が予め定められた値となるように、前記右仮想カメラおよび前記左仮想カメラを設定する、請求項14に記載の表示制御プログラム。 - 前記表示制御プログラムは、さらに前記コンピュータを、立体感変更指示に応答して、前記仮想カメラ設定手段によって設定された前記右仮想カメラの位置および前記左仮想カメラの位置の少なくとも一方を変更する変更受付手段として機能させる、請求項1〜15のいずれか1項に記載の表示制御プログラム。
- 前記視体積設定手段は、前記変更受付手段によって、前記右仮想カメラの位置、または、前記左仮想カメラの位置が変更されたときに、前記右仮想カメラおよび前記左仮想カメラの視体積を変更する、請求項16に記載の表示制御プログラム。
- 前記変更受付手段は、所定の一軸方向に沿うスライド操作に応じて、前記立体感変更指示を受付ける、請求項16または17に記載の表示制御プログラム。
- 前記変更受付手段は、前記仮想カメラ設定手段により最初に設定された前記右仮想カメラと前記左仮想カメラとの間の距離を前記立体感指示の調整幅の略最大値に対応させる、請求項16〜18のいずれか1項に記載の表示制御プログラム。
- 立体表示が可能な表示装置と、
所定の仮想空間を表現した画像を前記表示装置で立体表示するために用いられる右画像および左画像を生成するために、前記仮想空間の仮想的な撮影に用いられる右仮想カメラおよび左仮想カメラのカメラ方向が同じ方向を向き、かつ、当該カメラ方向と両仮想カメラの位置を通る直線とが垂直になるように、前記仮想空間内に両仮想カメラの位置および方向をそれぞれ設定する仮想カメラ設定手段と、
前記仮想空間の中で少なくとも前記表示装置に表示すべき領域である表示対象領域に対して、前記右仮想カメラの視体積および前記左仮想カメラの視体積の両方が当該表示対象領域を含むように、両仮想カメラの視体積を設定し、さらに、少なくとも一方の仮想カメラの視体積が、当該一方の仮想カメラの位置から前記カメラ方向に伸びる線に関して他方の仮想カメラが存在する側に偏在するように設定する視体積設定手段とを備え、
前記仮想カメラ設定手段は、基準仮想カメラが前記仮想空間内に設定されることに応答して、前記右仮想カメラおよび前記左仮想カメラを、当該右仮想カメラおよび当該左仮想カメラの前記カメラ方向が、前記基準仮想カメラのカメラ方向である基準カメラ方向と同じ方向になるように設定し、
前記視体積設定手段は、
前記基準仮想カメラの視体積に含まれ、前記基準カメラ方向と垂直な所定の面上の領域である仮想平面領域である基準仮想平面領域を前記表示対象領域として設定し、
前記右仮想カメラの視体積における前記基準仮想平面領域に対応する位置の断面、および、前記左仮想カメラの視体積における前記基準仮想平面領域に対応する位置の断面が、いずれも前記基準仮想カメラの視体積における前記基準仮想平面領域に対応する位置の断面と一致するように、前記右仮想カメラおよび前記左仮想カメラの視体積を設定する、情報処理システム。 - 立体表示の制御に利用されるプログラムであって、前記プログラムはコンピュータを、
所定の仮想空間における基準仮想カメラを定義する第1プロジェクション行列および第1ビュー行列、ならびに、当該基準仮想カメラのカメラ方向である基準カメラ方向と垂直な所定の面上の領域である仮想平面領域までの当該基準仮想カメラからの距離の入力を受付ける入力手段と、
前記入力手段によって受付けられた、前記第1プロジェクション行列、前記第1ビュー行列、前記仮想平面領域までの前記基準仮想カメラからの距離に基づいて、前記仮想空間に前記基準仮想カメラを設定するとともに、前記仮想空間の仮想的な撮影に用いられる右仮想カメラおよび左仮想カメラのカメラ方向が同じ方向を向き、かつ、当該カメラ方向と両仮想カメラの位置を通る直線とが垂直になるように、前記仮想空間内に両仮想カメラの位置および方向をそれぞれ設定する仮想カメラ設定手段と、
前記仮想空間の中で少なくとも立体表示すべき領域である表示対象領域に対して、前記右仮想カメラの視体積および前記左仮想カメラの視体積の両方が当該表示対象領域を含むように、両仮想カメラの視体積を設定し、さらに、少なくとも一方の仮想カメラの視体積が、当該一方の仮想カメラの位置から前記カメラ方向に伸びる線に関して他方の仮想カメラが存在する側に偏在するように設定する視体積設定手段と、
前記仮想カメラ設定手段および前記視体積設定手段によって設定された前記右仮想カメラを定義する第2プロジェクション行列および第2ビュー行列と、前記仮想カメラ設定手段および前記視体積設定手段によって設定された前記左仮想カメラを定義する第3のプロジェクション行列および第3のビュー行列とを出力する出力手段として機能させる、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010238665A JP4754031B2 (ja) | 2009-11-04 | 2010-10-25 | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム |
US12/938,089 US11089290B2 (en) | 2009-11-04 | 2010-11-02 | Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display |
EP10189834A EP2337364A3 (en) | 2009-11-04 | 2010-11-03 | Display control program, information processing system, and program utilized for controlling stereoscopic display |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009253234 | 2009-11-04 | ||
JP2009253234 | 2009-11-04 | ||
JP2010238665A JP4754031B2 (ja) | 2009-11-04 | 2010-10-25 | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011120224A JP2011120224A (ja) | 2011-06-16 |
JP4754031B2 true JP4754031B2 (ja) | 2011-08-24 |
Family
ID=43548303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010238665A Active JP4754031B2 (ja) | 2009-11-04 | 2010-10-25 | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11089290B2 (ja) |
EP (1) | EP2337364A3 (ja) |
JP (1) | JP4754031B2 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5409107B2 (ja) * | 2009-05-13 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム |
JP5405264B2 (ja) * | 2009-10-20 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 |
JP4754031B2 (ja) | 2009-11-04 | 2011-08-24 | 任天堂株式会社 | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム |
EP2355526A3 (en) | 2010-01-14 | 2012-10-31 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US9693039B2 (en) | 2010-05-27 | 2017-06-27 | Nintendo Co., Ltd. | Hand-held electronic device |
JP5507003B2 (ja) * | 2011-03-24 | 2014-05-28 | 富士フイルム株式会社 | 立体画像処理装置及び立体画像処理方法 |
EP2506587A2 (en) * | 2011-03-31 | 2012-10-03 | Fujifilm Corporation | Stereoscopic display apparatus |
CN103026388A (zh) * | 2011-04-28 | 2013-04-03 | 松下电器产业株式会社 | 图像生成装置 |
JP2012234411A (ja) * | 2011-05-02 | 2012-11-29 | Nintendo Co Ltd | 画像生成装置、画像生成システム、画像生成プログラムおよび画像生成方法 |
JP5904526B2 (ja) * | 2011-07-12 | 2016-04-13 | 国立研究開発法人情報通信研究機構 | 立体画像制作支援装置、立体画像制作支援方法および立体画像制作支援プログラム |
JP5818674B2 (ja) * | 2011-12-21 | 2015-11-18 | 株式会社東芝 | 画像処理装置、方法、及びプログラム、並びに、画像表示装置 |
KR20130081569A (ko) * | 2012-01-09 | 2013-07-17 | 삼성전자주식회사 | 3d 영상을 출력하기 위한 장치 및 방법 |
JP5181083B1 (ja) | 2012-01-19 | 2013-04-10 | パナソニック株式会社 | 立体画像表示制御装置、立体画像表示制御方法、及びプログラム |
JP5456820B2 (ja) * | 2012-03-28 | 2014-04-02 | 株式会社スクウェア・エニックス | ゲーム装置 |
JP5773944B2 (ja) * | 2012-05-22 | 2015-09-02 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
JP6066066B2 (ja) * | 2013-02-20 | 2017-01-25 | 株式会社ジオ技術研究所 | 立体視画像出力システム |
JP6963399B2 (ja) * | 2017-03-16 | 2021-11-10 | 株式会社スクウェア・エニックス | プログラム、記録媒体、画像生成装置、画像生成方法 |
US10969740B2 (en) | 2017-06-27 | 2021-04-06 | Nvidia Corporation | System and method for near-eye light field rendering for wide field of view interactive three-dimensional computer graphics |
CN110324601A (zh) * | 2018-03-27 | 2019-10-11 | 京东方科技集团股份有限公司 | 渲染方法、计算机产品及显示装置 |
WO2023084783A1 (ja) * | 2021-11-15 | 2023-05-19 | 涼平 山中 | 投影プログラム、投影方法、投影システム、およびコンピュータ可読媒体 |
Family Cites Families (94)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69030911T2 (de) | 1989-10-25 | 1997-11-06 | Hitachi Ltd | Stereoskopisches bilderzeugendes System |
US5065236A (en) | 1990-11-02 | 1991-11-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Stereoscopic camera and viewing systems with undistorted depth presentation and reduced or eliminated erroneous acceleration and deceleration perceptions, or with perceptions produced or enhanced for special effects |
DE69313694T2 (de) | 1992-03-23 | 1998-02-19 | Canon Kk | Bildaufnahmevorrichtung mit mehreren Linsen und Korrektur von Falschregistrierung |
US5764231A (en) * | 1992-05-15 | 1998-06-09 | Eastman Kodak Company | Method and apparatus for creating geometric depth images using computer graphics |
US5309522A (en) | 1992-06-30 | 1994-05-03 | Environmental Research Institute Of Michigan | Stereoscopic determination of terrain elevation |
JP2849313B2 (ja) | 1993-09-21 | 1999-01-20 | キヤノン株式会社 | 画像記録再生装置 |
JPH0759119A (ja) | 1993-08-20 | 1995-03-03 | Seiko Epson Corp | 疑似立体映像表示装置 |
DE69417824D1 (de) | 1993-08-26 | 1999-05-20 | Matsushita Electric Ind Co Ltd | Stereoskopischer Abtastapparat |
JPH07143524A (ja) | 1993-11-19 | 1995-06-02 | Honda Motor Co Ltd | 車載用ステレオ画像表示装置 |
US5510832A (en) | 1993-12-01 | 1996-04-23 | Medi-Vision Technologies, Inc. | Synthesized stereoscopic imaging system and method |
US6118475A (en) | 1994-06-02 | 2000-09-12 | Canon Kabushiki Kaisha | Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape |
JP3157384B2 (ja) | 1994-06-20 | 2001-04-16 | 三洋電機株式会社 | 立体映像装置 |
US6236748B1 (en) | 1994-08-02 | 2001-05-22 | Canon Kabushiki Kaisha | Compound eye image pickup device utilizing plural image sensors and plural lenses |
TW269094B (en) | 1994-11-11 | 1996-01-21 | Nitendo Kk | Three dimensional visual image display device and electric game apparatus, memory device thereof |
JPH08137428A (ja) | 1994-11-11 | 1996-05-31 | Nintendo Co Ltd | 画像表示装置、画像表示システムおよびそれに用いられるプログラムカートリッジ |
JPH08136855A (ja) | 1994-11-11 | 1996-05-31 | Nintendo Co Ltd | 画像表示装置、画像表示システムおよびそれに用いられるプログラムカートリッジ |
JP2716388B2 (ja) | 1994-12-26 | 1998-02-18 | 日本電気株式会社 | 立体画像用ディスプレイ装置 |
JPH08205201A (ja) | 1995-01-31 | 1996-08-09 | Sony Corp | 疑似立体視方法 |
JPH08331607A (ja) | 1995-03-29 | 1996-12-13 | Sanyo Electric Co Ltd | 三次元表示画像生成方法 |
US6384859B1 (en) | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
JP3579162B2 (ja) | 1995-06-29 | 2004-10-20 | 松下電器産業株式会社 | 立体cg画像生成装置 |
US6005607A (en) | 1995-06-29 | 1999-12-21 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus |
JP2848291B2 (ja) | 1995-08-24 | 1999-01-20 | 松下電器産業株式会社 | 立体tv装置 |
EP0772350A3 (en) | 1995-10-30 | 1997-07-23 | Photron Kk | Inlay system and method for producing composite images |
US6088006A (en) * | 1995-12-20 | 2000-07-11 | Olympus Optical Co., Ltd. | Stereoscopic image generating system for substantially matching visual range with vergence distance |
JP3733359B2 (ja) | 1996-04-05 | 2006-01-11 | 松下電器産業株式会社 | 視差推定方法、画像伝送方法、画像表示方法、多視点画像伝送方法、多視点画像復元方法および視差推定装置 |
US6163337A (en) | 1996-04-05 | 2000-12-19 | Matsushita Electric Industrial Co., Ltd. | Multi-view point image transmission method and multi-view point image display method |
US6389179B1 (en) | 1996-05-28 | 2002-05-14 | Canon Kabushiki Kaisha | Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image |
JPH09322199A (ja) | 1996-05-29 | 1997-12-12 | Olympus Optical Co Ltd | 立体映像ディスプレイ装置 |
EP0817125B1 (en) | 1996-06-26 | 2004-09-08 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic computer graphics moving image generating apparatus |
JP3934211B2 (ja) | 1996-06-26 | 2007-06-20 | 松下電器産業株式会社 | 立体cg動画像生成装置 |
US6198484B1 (en) | 1996-06-27 | 2001-03-06 | Kabushiki Kaisha Toshiba | Stereoscopic display system |
US6310733B1 (en) | 1996-08-16 | 2001-10-30 | Eugene Dolgoff | Optical elements and methods for their manufacture |
JP3532709B2 (ja) | 1996-10-29 | 2004-05-31 | 株式会社東芝 | 動画像符号化方法および装置 |
JPH1127703A (ja) | 1997-06-30 | 1999-01-29 | Canon Inc | 表示装置及びその制御方法 |
US6762794B1 (en) | 1997-12-03 | 2004-07-13 | Canon Kabushiki Kaisha | Image pick-up apparatus for stereoscope |
JP4149037B2 (ja) | 1998-06-04 | 2008-09-10 | オリンパス株式会社 | 映像システム |
JP3420504B2 (ja) | 1998-06-30 | 2003-06-23 | キヤノン株式会社 | 情報処理方法 |
US6064354A (en) | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
JP2000078615A (ja) | 1998-09-02 | 2000-03-14 | Sanyo Electric Co Ltd | ディジタル放送受信機 |
US6559844B1 (en) * | 1999-05-05 | 2003-05-06 | Ati International, Srl | Method and apparatus for generating multiple views using a graphics engine |
JP3619063B2 (ja) | 1999-07-08 | 2005-02-09 | キヤノン株式会社 | 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体 |
US7236622B2 (en) | 1999-08-25 | 2007-06-26 | Eastman Kodak Company | Method for forming a depth image |
GB2354389A (en) | 1999-09-15 | 2001-03-21 | Sharp Kk | Stereo images with comfortable perceived depth |
JP2001142166A (ja) | 1999-09-15 | 2001-05-25 | Sharp Corp | 3dカメラ |
JP3728160B2 (ja) * | 1999-12-06 | 2005-12-21 | キヤノン株式会社 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
JP2001195582A (ja) | 2000-01-12 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体 |
GB0010685D0 (en) | 2000-05-03 | 2000-06-28 | Koninkl Philips Electronics Nv | Autostereoscopic display driver |
JP4590686B2 (ja) | 2000-05-12 | 2010-12-01 | ソニー株式会社 | 立体画像表示装置 |
JP2002095018A (ja) | 2000-09-12 | 2002-03-29 | Canon Inc | 画像表示制御装置及び画像表示システム、並びに画像データの表示方法 |
GB0105801D0 (en) | 2001-03-09 | 2001-04-25 | Koninkl Philips Electronics Nv | Apparatus |
JP4610799B2 (ja) | 2001-06-25 | 2011-01-12 | オリンパス株式会社 | 立体観察システム、及び内視鏡装置 |
US20030113012A1 (en) | 2001-08-17 | 2003-06-19 | Byoungyi Yoon | Method and system for controlling a screen ratio based on a photographing ratio |
TW584815B (en) | 2001-09-13 | 2004-04-21 | Silicon Integrated Sys Corp | Method for removing noise regions in a stereo 3D display system |
JP2003107603A (ja) | 2001-09-28 | 2003-04-09 | Namco Ltd | 立体視画像生成装置、立体視画像生成情報および情報記憶媒体 |
CA2361341A1 (en) * | 2001-11-07 | 2003-05-07 | Idelix Software Inc. | Use of detail-in-context presentation on stereoscopically paired images |
JP3749227B2 (ja) | 2002-03-27 | 2006-02-22 | 三洋電機株式会社 | 立体画像処理方法および装置 |
US8369607B2 (en) * | 2002-03-27 | 2013-02-05 | Sanyo Electric Co., Ltd. | Method and apparatus for processing three-dimensional images |
KR100977193B1 (ko) | 2002-04-25 | 2010-08-20 | 샤프 가부시키가이샤 | 화상 데이터 생성 장치, 화상 데이터 재생 장치, 및 화상데이터 기록 매체 |
JP4115188B2 (ja) | 2002-07-19 | 2008-07-09 | キヤノン株式会社 | 仮想空間描画表示装置 |
JP3973525B2 (ja) | 2002-09-24 | 2007-09-12 | シャープ株式会社 | 2d(2次元)及び3d(3次元)表示機能を備える電子機器 |
ES2392244T3 (es) | 2002-09-27 | 2012-12-07 | Sharp Kabushiki Kaisha | Dìspositivo de visualización de imágenes en 3D |
JP4228646B2 (ja) * | 2002-10-02 | 2009-02-25 | 株式会社セガ | 立体視画像生成方法および立体視画像生成装置 |
EP1408703A3 (en) | 2002-10-10 | 2004-10-13 | Fuji Photo Optical Co., Ltd. | Electronic stereoscopic imaging system |
JP4190263B2 (ja) | 2002-11-25 | 2008-12-03 | 三洋電機株式会社 | 立体視用映像提供方法及び立体映像表示装置 |
US20060203085A1 (en) | 2002-11-28 | 2006-09-14 | Seijiro Tomita | There dimensional image signal producing circuit and three-dimensional image display apparatus |
JP3962699B2 (ja) | 2003-03-20 | 2007-08-22 | 株式会社ソフィア | 遊技機 |
US7417664B2 (en) | 2003-03-20 | 2008-08-26 | Seijiro Tomita | Stereoscopic image picking up and display system based upon optical axes cross-point information |
JP2004294861A (ja) | 2003-03-27 | 2004-10-21 | Sanyo Electric Co Ltd | 立体映像表示装置 |
JP4179946B2 (ja) | 2003-08-08 | 2008-11-12 | オリンパス株式会社 | 立体内視鏡装置 |
JP2005165614A (ja) | 2003-12-02 | 2005-06-23 | Canon Inc | 画像合成装置および画像合成方法 |
GB0329312D0 (en) | 2003-12-18 | 2004-01-21 | Univ Durham | Mapping perceived depth to regions of interest in stereoscopic images |
US8094927B2 (en) | 2004-02-27 | 2012-01-10 | Eastman Kodak Company | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer |
JP3770497B2 (ja) | 2004-03-31 | 2006-04-26 | 任天堂株式会社 | 携帯ゲーム機およびゲームプログラム |
JP2005353047A (ja) * | 2004-05-13 | 2005-12-22 | Sanyo Electric Co Ltd | 立体画像処理方法および立体画像処理装置 |
WO2006114898A1 (en) | 2005-04-25 | 2006-11-02 | Yappa Corporation | 3d image generation and display system |
JP2007044244A (ja) | 2005-08-10 | 2007-02-22 | Seiko Epson Corp | 表示装置、遊技機、及び表示装置の制御方法 |
KR100893616B1 (ko) | 2006-04-17 | 2009-04-20 | 삼성모바일디스플레이주식회사 | 전자 영상 기기, 2d/3d 영상 표시 장치 및 그 구동방법 |
JP5011842B2 (ja) | 2006-06-22 | 2012-08-29 | 株式会社ニコン | 画像再生装置 |
KR101311896B1 (ko) | 2006-11-14 | 2013-10-14 | 삼성전자주식회사 | 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치 |
JP4892405B2 (ja) | 2007-05-18 | 2012-03-07 | キヤノン株式会社 | 画像処理装置および方法 |
US7884823B2 (en) * | 2007-06-12 | 2011-02-08 | Microsoft Corporation | Three dimensional rendering of display information using viewer eye coordinates |
US8358332B2 (en) * | 2007-07-23 | 2013-01-22 | Disney Enterprises, Inc. | Generation of three-dimensional movies with improved depth control |
JP4982862B2 (ja) | 2007-09-07 | 2012-07-25 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及び画像生成システム |
US8228327B2 (en) * | 2008-02-29 | 2012-07-24 | Disney Enterprises, Inc. | Non-linear depth rendering of stereoscopic animated images |
CN102124490B (zh) | 2008-06-13 | 2018-02-13 | 图象公司 | 用于缩减或者清除在显示的立体图像中感知到的重像的方法和系统 |
WO2010025458A1 (en) | 2008-08-31 | 2010-03-04 | Mitsubishi Digital Electronics America, Inc. | Transforming 3d video content to match viewer position |
US9025007B1 (en) * | 2009-04-28 | 2015-05-05 | Lucasfilm Entertainment Company Ltd. | Configuring stereo cameras |
JP5409107B2 (ja) | 2009-05-13 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム |
US20100328428A1 (en) * | 2009-06-26 | 2010-12-30 | Booth Jr Lawrence A | Optimized stereoscopic visualization |
JP2011035592A (ja) | 2009-07-31 | 2011-02-17 | Nintendo Co Ltd | 表示制御プログラムおよび情報処理システム |
JP5405264B2 (ja) | 2009-10-20 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 |
JP4754031B2 (ja) | 2009-11-04 | 2011-08-24 | 任天堂株式会社 | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム |
JP5186715B2 (ja) | 2010-06-14 | 2013-04-24 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御方法、および、表示制御システム |
-
2010
- 2010-10-25 JP JP2010238665A patent/JP4754031B2/ja active Active
- 2010-11-02 US US12/938,089 patent/US11089290B2/en active Active
- 2010-11-03 EP EP10189834A patent/EP2337364A3/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
EP2337364A3 (en) | 2011-07-06 |
EP2337364A2 (en) | 2011-06-22 |
US11089290B2 (en) | 2021-08-10 |
US20110102425A1 (en) | 2011-05-05 |
JP2011120224A (ja) | 2011-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4754031B2 (ja) | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム | |
JP5405264B2 (ja) | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 | |
KR100812905B1 (ko) | 입체 화상 처리 방법, 장치 및 컴퓨터 판독가능 기록 매체 | |
US8472702B2 (en) | Method and apparatus for processing three-dimensional images | |
US20110032252A1 (en) | Storage medium storing display control program for controlling display capable of providing three-dimensional display and information processing system | |
KR101675961B1 (ko) | 적응적 부화소 렌더링 장치 및 방법 | |
US20120306860A1 (en) | Image generation system, image generation method, and information storage medium | |
JP5757790B2 (ja) | 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法 | |
US8749547B2 (en) | Three-dimensional stereoscopic image generation | |
US7680322B2 (en) | Method of fabricating printed material for stereoscopic viewing, and printed material for stereoscopic viewing | |
KR101425321B1 (ko) | 적응형 렌즈 어레이를 구비하는 3차원 집적 영상 디스플레이 시스템 및 적응형 렌즈 어레이에 대한 요소 영상 생성 방법 | |
US20150234196A1 (en) | Image display apparatus, lenticular lens, and image display method | |
JP2018186319A (ja) | 立体画像表示制御装置、立体画像表示制御方法及び立体画像表示制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110524 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4754031 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |