JP7212519B2 - 画像生成装置および画像を生成する方法 - Google Patents

画像生成装置および画像を生成する方法 Download PDF

Info

Publication number
JP7212519B2
JP7212519B2 JP2018245221A JP2018245221A JP7212519B2 JP 7212519 B2 JP7212519 B2 JP 7212519B2 JP 2018245221 A JP2018245221 A JP 2018245221A JP 2018245221 A JP2018245221 A JP 2018245221A JP 7212519 B2 JP7212519 B2 JP 7212519B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
viewpoints
candidate
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018245221A
Other languages
English (en)
Other versions
JP2019121394A (ja
Inventor
ジェイムズ ビゴス アンドリュー
ゴードン ドイグ ジェイソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2019121394A publication Critical patent/JP2019121394A/ja
Application granted granted Critical
Publication of JP7212519B2 publication Critical patent/JP7212519B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、視点に対応した表示画像を生成する画像生成装置および画像を生成する方法に関する。
対象空間を任意の視点から見るための画像表示システムは一般的である。例えば、ヘッド・マウント・ディスプレイにパノラマ画像を表示するためのシステムが開発されており、このシステムは、ヘッド・マウント・ディスプレイを装着しているユーザが顔を向けたときに、パノラマ画像が視線の方向と対応して表示されるように構成される。ヘッド・マウント・ディスプレイを利用することにより、画像への没入感が高まり、ゲームなどのアプリケーションの操作性を向上させることができる。ヘッド・マウント・ディスプレイを装着しているユーザが、身体運動によって、画像として表示されている空間の内部を仮想的に歩き回ることができるウォークスルーシステムも開発されている。
表示装置のタイプに応じて、任意の視点に適応するための画像表示技術では、視点の移動から生じる表示の変化に対する高い応答性が必要である。他方では、画像世界における臨場感を高めるために、解像度を上げなければならず、複雑な計算を行わなければならない。このため画像処理の負荷が増大する。これは、画像が視点の移動に付いて行けず、結果として、臨場感が損なわれうることを意味する。
本発明は、これらの問題に鑑みてなされたものであり、本発明の目的は、視点に対する画像表示の応答性と画質とのバランスをとることができる技術を提供することである。
上記の問題を解決するために、本発明の一態様は、請求項1に記載の画像生成装置に関するものである。この画像生成装置は、表示されるべきオブジェクトを含む空間が複数の規定の基準視点から見られたときの画像を各々表す基準画像のデータを格納し、基準画像のうちの1つまたは複数における同じ画像を表す画素の値を使用して、出力部が表示画像のデータを出力する前に、表示画像においてオブジェクトの画像を構成する画素の値を決定する画素値決定部において使用すべき1つまたは複数の基準画像を選択する。
ここで、「規定の基準視点」とは、上記空間における規定の位置座標または規定の分配規則により設定される1つまたは複数の視点の規定の数であり、その数および/または位置は固定されていてもよく、例えば空間において発生する変化に従って経時的に変化してもよい。
本発明の別の態様は、請求項10に記載の画像を生成する方法に関するものである。
前述の構成要素の任意の組み合わせ、または、例えば、方法、装置、システム、コンピュータプログラム、データ構造、記録媒体の中での本発明の表現の変化も、本発明の有効な態様であることに留意されたい。
本発明によれば、視点に対する画像表示の応答性と画質とのバランスをとることが可能である。
本発明のさらなるそれぞれの局面および特徴は、添付の特許請求の範囲で定義される。
次に、本発明の実施形態を、例として、添付の図面を参照して説明する。
本発明の実施形態によるヘッド・マウント・ディスプレイの外観の一例を示す図である。 本発明の実施形態による情報処理システムのレイアウト図である。 本発明の実施形態による画像生成装置によってヘッド・マウント・ディスプレイに表示される画像世界の一例を説明した図である。 本発明の実施形態による情報処理装置の内部回路レイアウトを示す図である。 本発明の実施形態による画像生成装置の機能ブロックを示す図である。 本発明の実施形態による基準画像データを生成するための装置の機能ブロックを示す図である。 本発明の実施形態による基準視点の設定例を示す図である。 本発明の実施形態によるボクセルカウント配列を説明した図である。 本発明の実施形態によるレンダリングされた場面例についてのボクセルカウント配列を説明した図である。 本発明の実施形態による画素値決定部が、表示画像の画素値の決定に使用される基準画像を選択するための技法を説明した図である。 本発明の実施形態による多角形識別方式を説明した図である。 本発明の実施形態による多角形識別方式を説明した図である。 本発明の実施形態による画素値決定部が表示画像の画素値を決定するための技法を説明した図である。 本発明の実施形態による画像生成装置が視点に対応した表示画像を生成するための処理順序を示す流れ図である。 本発明の実施形態による画像を生成する方法を示す流れ図である。
画像生成装置および画像を生成する方法が開示される。以下の説明においては、本発明の実施形態の十分な理解を提供するためにいくつかの具体的詳細を提示する。しかし、これらの具体的詳細が本発明を実施するために用いられなくてもよいことが、当業者には明らかであろう。逆にいうと、当業者に公知の具体的詳細は、必要に応じて、明瞭にするために省かれる。
本発明の実施形態は、基本的に、ユーザの視点に対応した視野に画像を表示する。このため、画像を表示するのに使用される装置のタイプは特に制限されず、ウェアラブルディスプレイ、フラット・パネル・ディスプレイ、プロジェクタなどのいずれでも用いることができるが、本明細書では、ウェアラブルディスプレイの一例としてヘッド・マウント・ディスプレイについて説明する。
ウェアラブルディスプレイの場合には、組み込まれた動きセンサによってユーザの視線をおおよそ推測することができる。他の表示装置の場合には、ユーザが頭部に動きセンサを装着することによって、または注視点検出装置を使用して赤外線の反射を検出することによって視線を検出することができる。あるいは、ユーザの頭部にマーカが取り付けられ、このマーカの姿勢が取り込まれた画像を分析することによって、またはこのような技術の任意の組み合わせによって視線が推測されてもよい。
図1に、ヘッド・マウント・ディスプレイ100の外観の一例を示す。ヘッド・マウント・ディスプレイ100は、本体110と、前頭部接触部120と、側頭部接触部130とを含む。ヘッド・マウント・ディスプレイ100は、ディスプレイに表示される静止画像やビデオなどを鑑賞したり、ヘッドホンから出力される音声や音楽などを聴いたりするためにユーザの頭部に装着される表示装置である。ヘッド・マウント・ディスプレイ100に組み込まれるか、または外付けされた動きセンサにより、ヘッド・マウント・ディスプレイ100が装着されたユーザの頭部の回転角または傾きに関する姿勢情報を測定することができる。
ヘッド・マウント・ディスプレイ100は、「ウェアラブル表示装置」の一例である。ウェアラブル表示装置は、狭義のヘッド・マウント・ディスプレイ100に限定されず、眼鏡、眼鏡型ディスプレイ、眼鏡型カメラ、ヘッドホン、ヘッドセット(マイクロホン付きヘッドホン)、イヤホン、イヤリング、耳装着型カメラ、帽子、カメラ付き帽子、またはヘアバンドなどの、任意のやり方で装着されうる表示装置も含む。
図2は、本発明の実施形態による情報処理システムのレイアウト図である。ヘッド・マウント・ディスプレイ100は、無線通信、USB(登録商標)、HDMI(登録商標)などの周辺機器を接続するために使用されるインターフェース205によって画像生成装置200と接続される。画像生成装置200は、ネットワークを介してサーバにさらに接続されうる。この場合、サーバは画像生成装置200に、多数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを提供しうる。
画像生成装置200は、ヘッド・マウント・ディスプレイ100が装着されたユーザの頭部の位置および姿勢に従って視点の位置および/または視線の方向を特定し、対応した視野を提示するように表示画像を生成し、この表示画像をヘッド・マウント・ディスプレイ100に出力する。これに関して、画像表示は、様々な目的を有しうる。例えば、画像生成装置200は、ゲームのステージを構成する仮想世界を、電子ゲームが進行する間に表示画像として生成してもよいし、または仮想世界を現実世界とは別に理解するための静止画像もしくはビデオ画像を表示のために生成してもよい。表示装置100がヘッド・マウント・ディスプレイである場合、視点を中心とする広い角度範囲でパノラマ画像を表示できるようにすることにより、表示された世界への没入状態を作り出すことができる。
図3は、本発明の実施形態による画像生成装置200によってヘッド・マウント・ディスプレイ100に表示された画像世界の一例を説明した図である。この例では、ユーザ12が仮想空間を構成する部屋にいるという状態が作成される。壁、床、窓、テーブル、テーブル上の物品などのオブジェクトは、仮想空間を定義する世界座標系に図示されているように配置される。画像生成装置200は、この世界座標系におけるユーザ12の視点の位置およびユーザの視線の方向に従ってビュー画面14を定義し、ビュー画面上にオブジェクトの画像を投影して表示画像を描画する。
ユーザ12の視点の位置およびユーザの視線の方向(以下ではこれらを包括的に「視点」と呼ぶこともある)が規定の速度で取得され、ビュー画面14の位置および方向がそれに従って変更されれば、画像をユーザの視点に対応する視野で表示することができる。視差を有する立体画像が生成され、ヘッド・マウント・ディスプレイ100において左目と右目との前に表示されれば、仮想空間を立体的に見ることもできる。このようにして、ユーザ12は、ユーザが表示世界の部屋に没入しているかのように仮想現実感を体験することができる。図示の例では、表示画像はコンピュータグラフィックスに基づく仮想世界を表しているが、表示画像は、パノラマ写真などによって取り込まれた現実世界の画像とすることもでき、それと仮想世界を合成することもできることに留意されたい。
この表示に臨場感を与えるために、表示空間で生成される物理画像は、好ましくは、可能な限り表示対象を正確に反映するように作られる。例えば、オブジェクト表面での拡散/反射または鏡面反射や、周囲光など、目に届く様々な光の伝播を正確に計算することによって、視点の移動に起因するオブジェクト表面の色合いや明るさの変化をより本物らしく表すことができる。これを達成するための1つの典型的な技法が、レイトレーシングである。しかし、このような物理計算を高精度で実行することは、特に、ユーザが視点を自由に選択できる環境では、表示前に無視できないほどの待ち時間を伴いうる。
したがって、本発明の実施形態では、指定された視点から見た画像が予め取得され、任意の視点の表示画像の画素値を決定するために使用される。具体的には、表示画像に画像として表示されるオブジェクトの色は、予め取得された画像内の対応する位置から色を抽出することによって決定される。以下では、前の画像取得で設定される視点を「基準視点」と呼び、基準視点から見た、予め取得される画像を「基準画像」と呼ぶ。表示画像を描画するために使用されるデータの一部を基準画像として予め取得することによって、視点の移動から表示までの待ち時間を低減させることができる。また、基準画像の事前生成に関しては本質的に時間制限がないので、レイトレーシングなどの物理計算を、経時的に高精度で行うことができる。
表示中のユーザの視点移動に利用可能と想定される範囲内に分配された複数の基準視点を設定し、その視点でのそれぞれの基準画像を作成することにより、複数の視点から見た同じオブジェクトの彩色を考慮に入れることができ、表示中の視点に従って、一層高い精度でオブジェクトを表すことが可能になる。より具体的には、表示中の視点が基準視点のうちの1つと一致すれば、この基準視点に対応する基準画像の画素値を直接採用することができる。表示中の視点が複数の基準視点の中にある場合には、当該の複数の基準視点に対応する基準画像の画素値(またはそれらのサブセット)を組み合わせることにより、表示画像の画素値が決定される。
図4に、画像生成装置200の内部回路レイアウトを示す。画像生成装置200は、CPU(Central Processing Unit(中央処理装置))222と、GPU(Graphics Processing Unit(グラフィックス処理装置))224と、メインメモリ226とを含む。これら様々な部分は、バス230を介して相互に接続されている。加えて、バス230には入出力インターフェース228も接続されている。
入出力インターフェース228には、USBやIEEE1394などの周辺インターフェースや有線もしくは無線LANのネットワークインターフェースを含む通信部232と、ハード・ディスク・ドライブや不揮発性メモリなどの記憶部234と、ヘッド・マウント・ディスプレイ100などの表示装置にデータを出力する出力部236と、ヘッド・マウント・ディスプレイ100からデータを入力する入力部238と、磁気ディスク、光ディスク、半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部240とが接続されている。
CPU222は、記憶部234に格納されたオペレーティングシステムを動作させることにより画像生成装置200全体を制御する。CPU222はまた、リムーバブル記録媒体から読み出され、メインメモリ226にロードされるか、または通信部232を介してダウンロードされる様々なプログラムを実行する。GPU224は、ジオメトリエンジンの機能およびレンダリングプロセッサの機能を有し、CPU222からの描画コマンドに従って描画処理を行い、表示画像を図示されていないフレームバッファに格納する。フレームバッファに格納された表示画像は、次いでビデオ信号に変換され、出力部236に出力される。メインメモリ226は、RAM(Random Access Memory(ランダム・アクセス・メモリ))を含み、処理に必要なプログラムおよびデータを格納する。
図5に、本発明の一実施形態における画像生成装置200の機能ブロックを示す。上述したように、画像生成装置200は、電子ゲームの進行やサーバとの通信などの一般的な情報処理を行う必要があるが、図5では、特に、視点に対応した表示画像のデータを生成する機能に焦点をあてている。図5には、表示装置100と一体化された画像生成装置200が示されている。よって、画像生成装置200の機能の少なくとも一部はヘッド・マウント・ディスプレイ100にインストールされうることが理解されよう。あるいは、画像生成装置200の機能の少なくとも一部は、図2に示すように別個の娯楽装置にインストールされていてもよく、かつ/またはネットワークを介して画像生成装置200に接続されうる前述のサーバにインストールされていてもよい。
また、後述する図5および図6に示す機能ブロックについては、ハードウェア的には、これらの機能ブロックを、図4に示すCPU、GPU、様々なメモリなどの構成要素により実装することができ、ソフトウェア的には、これらの機能ブロックは、例えば記録媒体からメモリにロードされる、データ入力機能、データ保持機能、画像処理機能、通信機能などの様々な機能を果たすプログラムを実行することができる。当業者には理解されるように、これらの機能ブロックは、ハードウェアのみによる、ソフトウェアのみによる、またはハードウェアとソフトウェアの組み合わせによる様々な形態で実現することができ、したがって、これらの形態のいずれにも限定されない。
画像生成装置200は、ユーザの視点に関する情報を取得する視点情報取得部260と、表示されるべきオブジェクトを含む空間を構築する空間構築部262と、オブジェクトを仮想ビュー画面14上に投影する投影部264と、オブジェクトの画像を構成する画素の値を決定して表示画像を完成させる画素値決定部266と、表示画像のデータをヘッド・マウント・ディスプレイ100に出力する出力部268とを含む。画像生成装置200は、空間の構築に必要なオブジェクトモデルに関するデータを格納するオブジェクトモデル記憶部254と、基準画像のデータを格納する基準画像データ記憶部256とをさらに含む。
視点情報取得部260は、図4の入力部238と、CPU222などとを含み、ユーザの視点の位置および/またはユーザの視線の方向を規定の速度で取得する。例えば、視点情報取得部260は、ヘッド・マウント・ディスプレイ100に組み込まれた加速度センサの出力値を連続して取得して、頭部の姿勢を取得する。加えて、現実空間における頭部の位置は、ヘッド・マウント・ディスプレイ100の外部に、図示されていない発光マーカを設け、図示されていない画像取り込み装置からマーカの取り込み画像を取得することによって取得される。
あるいは、頭部の位置および/または姿勢は、ヘッド・マウント・ディスプレイ100側に、ユーザの視野に対応する画像を取り込む、図示されていない画像取り込み装置を設けることによって、SLAM(simultaneous localisation and mapping(同時の位置推定および地図作成))などの技法によって取得することもできる。このようにして頭部の位置および/または姿勢が取得されると、ユーザの視点の位置およびユーザの視線の方向を近似的に特定することができる。ユーザの視点に関する情報を取得するための様々な技法が実現可能であり、ヘッド・マウント・ディスプレイ100が用いられる場合だけに限定されないことが当業者には理解されよう。
空間構築部262は、図4のCPU222と、GPU224と、メインメモリ226などとを含み、表示されるべきオブジェクトが存在する空間の形状モデルを構築する。図3に示す例では、部屋の内部を表す壁、床、窓、テーブル、テーブル上の物品などのオブジェクトが、仮想空間を定義する世界座標系に配置されている。個々のオブジェクトの形状に関する情報がオブジェクトモデル記憶部254から読み出される。空間構築部262によって構築された空間は、固定されていてもよいし、例えばゲームの進行に従って変更されてもよい。
ここで、空間構築部262は、オブジェクトの形状、位置、および姿勢を決定する必要があり、通常のコンピュータグラフィックスにおけるサーフェスモデルに基づくモデリングの技法を用いてもよい。投影部264は、図4のGPU224と、メインメモリ226などとを含んでいてよく、視点情報取得部260によって取得された視点情報に従ってビュー画面を設定する。具体的には、表示空間は、ユーザの頭部の位置および/またはユーザの顔が向いている方向と対応した画面座標を設定することによって、ユーザの位置および/またはユーザが向いている方向に対応した視野で画面の平面上に描画される。
加えて、投影部264は、空間構築部262によって構築された空間内のオブジェクトを仮想ビュー画面上に投影する。この処理は、例えばポリゴンメッシュの透視変換のための通常のコンピュータグラフィックスの技法を利用することもできる。画素値決定部266は、図4のGPU224と、メインメモリ226などとを含み、ビュー画面上に投影されるオブジェクトの画像を構成する画素の値を決定する。上述したように、この時点で、基準画像データ記憶部256から基準画像のデータが読み出され、同じオブジェクト上の点を表す画素の値が抽出され、用いられる。
例えば、実際の視点の近くの基準視点に関して生成された基準画像から対応する画素が特定され、実際の視点と基準視点との距離および/または角度に基づいて重み付きで平均することによって、表示画像の画素値として使用される。レイトレーシングなどの方法によって経時的に予め正確な基準画像を生成することにより、画像表現を、動作中に、レイトレーシングが用いられるときと近い高精度で、ただしわずかな負荷しか課さない計算で、すなわち、対応する画素値を読み出し、重み付け平均を行うことによって、実現することができる。
好ましくは、基準視点は、ユーザの視点の可能な移動の範囲をカバーするように分配される。基準画像は、レイトレーシングによって描画されたグラフィックス画像だけに限定されず、例えば、予め基準視点から現実空間を撮影することによって得られた画像とすることもできることに留意されたい。この場合、空間構築部262は、撮影された現実空間の形状モデルを構築し、投影部264は、表示中に視点に従ってビュー画面上にこの形状モデルを投影する。あるいは、撮影されているオブジェクトの画像の位置を、表示中に視点に対応する視野において決定することができる場合には、空間構築部262および投影部264の処理を省略することもできる。
表示画像が立体的に見える場合には、投影部264および画素値決定部266は、左目と右目との視点に関してそれぞれの処理を行いうることに留意されたい。
出力部268は、図4のCPU222と、メインメモリ226と、出力部236などとを含み、規定の速度でヘッド・マウント・ディスプレイ100に、画素値を決定する画素値決定部266の結果として完成された表示画像のデータを送り出す。立体視のための立体画像が生成される場合、出力部268は、左右の関連付けられた画像を生成し、それらを表示画像として出力する。レンズを通して表示画像を楽しむように構築されたヘッド・マウント・ディスプレイ100の場合、出力部268は、このレンズからの歪みを考慮に入れることによって表示画像を補正しうる。
図6に、基準画像データが描画処理によって生成される場合の、基準画像データを生成するための装置の機能ブロックを示す。基準画像生成装置300は、図5の画像生成装置200の一部として設けられてもよいし、または図5の基準画像データ記憶部256に格納されるデータを生成する装置として独立して設けられてもよい。また、このように生成された基準画像のデータと、その生成に使用されたオブジェクトモデルとを含む電子コンテンツも、例えば記録媒体に予め格納され、動作中に画像生成装置200内のメインメモリにロードされうるように構成されていてよい。基準画像生成装置300の内部回路レイアウトは、図4に示す画像生成装置200の内部回路レイアウトと同じであってよい。
基準画像生成装置300は、基準視点を設定する基準視点設定部310と、表示のためのオブジェクトを含む空間を構築する空間構築部316と、このように構築された空間に基づいて基準視点ごとの基準画像のデータを生成する基準画像データ生成部318と、空間の構築に必要なオブジェクトモデルに関するデータを格納するオブジェクトモデル記憶部314と、このように生成された基準画像データを格納する基準画像データ記憶部320とを含む。
基準視点設定部310は、入力部238と、CPU222と、メインメモリ226などとを含み、表示空間における基準視点の位置座標を設定する。好適には、上述したように、ユーザが採用することができる視点の範囲をカバーするように複数の基準視点が分配される。このような基準視点の範囲または数の適切な値は、表示空間の構成、表示の目的、表示に必要な精度、および画像生成装置200の処理性能などに依存する。したがって、基準視点設定部310は、基準視点の位置座標に関するユーザ入力を受け入れるように構成されうる。
空間構築部316は、CPU222と、GPU224と、メインメモリ226などとを含み、表示されるべきオブジェクトが存在する空間の形状モデルを構築するのに使用される。この機能は、図5に示す空間構築部262の機能に相当する。一方で、図6の基準画像生成装置300は、レイトレーシングなどによりオブジェクトの画像を正確に描画するために、オブジェクトの色や材質を考慮に入れるソリッドモデルに基づくモデリングの技法を用いる。このために、色や材質などの情報を含むオブジェクトのモデルデータがオブジェクトモデル記憶部314に格納される。
基準画像データ生成部318は、CPU222と、GPU224と、メインメモリ226などとを含み、基準画像生成部322と、深度画像生成部324とを含む。基準画像生成部322は、基準視点設定部310によって設定された基準視点ごとに、当該の基準視点から見た表示されるべきオブジェクトを描画する。好適には、表示中の視点は、例えば、正距円筒図法によって得られた360°のパノラマ画像として基準画像を作成することによって、すべての向きで自由に変更することができる。また、好適には、それぞれの基準点における視野方向も、経時的な光線の伝播の計算によって、基準画像上に正確に示される。
本発明の一実施形態において、深度画像生成部324は、基準画像生成部322によって生成された基準画像に対応する深度画像を生成する。具体的には、基準画像の画素によって表されるオブジェクトのビュー画面からの距離(深度値)が求められ、これらを画素値として供給することによって深度画像が生成される。基準画像が360°のパノラマ画像として取り込まれる場合、ビュー画面は球面であるため、深度値は、この球面に対する法線の方向にオブジェクトと同じ距離の値であることに留意されたい。生成された深度画像は、表示画像の画素値を決定するときに用いられるべき基準画像の選択において利用される。基準画像データ生成部318は、このように生成された基準画像と深度画像とのデータを、基準視点の位置座標と関連付けて基準画像データ記憶部320に格納する。
図7に、基準視点の設定例を示す。この例では、複数の基準視点が、黒い円印で示されるように、ユーザ12が立っているときのユーザの目の高さの水平面20aと、ユーザ12が座っているときのユーザの目の高さの水平面20bとにそれぞれ設定される。非限定的な例として、水平面20aは床から1.6mであり、水平面20bは床から1.2mでありうる。また、表示内容に対応した移動範囲が、左右方向(図ではX軸方向)と前後方向(図ではY軸方向)とに、ユーザの基準位置(ホーム位置)を中心として想定されてよく、基準視点は、水平面20a、20b上の対応する矩形領域に分配されうる。
この例では、基準視点は、矩形領域をX軸方向とY軸方向とに4つの等しい部分にそれぞれ分割することによって得られる格子の交点に交互に配置されている。また、基準視点は、上下の水平面20a、20bにおける基準視点が重ならないようにずらして配置されている。その結果、図7に示す例では、上側水平面20aには13点が設定され、下側水平面20bには12点が設定され、合計25個の基準視点が設定されている。
しかし、これは、基準視点の分配がこれらに限定されることを意味するものではなく、基準点は、例えば、垂直面を含む複数の平面に分配することもでき、球面などの曲面に分配することもできる。また、分配が不均一であり、ユーザが位置している確率が他の範囲よりも高い範囲において基準視点がより高密度で分配されていてもよい。また、表示されているオブジェクトが移動または変形する移動が発生している場合、基準視点もそれに対応して移動させることができる。この場合、それぞれの基準視点の基準画像は、当該の移動を反映したビデオ画像のデータを構成する。
また、指定されたオブジェクトを囲むように複数の基準視点を設定して専用の基準画像を作成し、当該のオブジェクトを含む空間全体の表示画像を生成するときにそれらを組み合わせるように構成されてもよい。この場合、画像生成装置200は、画素値を決定する際に別個に作成される、当該のオブジェクトに専用の基準画像を、当該のオブジェクトのメッシュをビュー画面上に投影した後に、他の画像の場合と同様に用いる。このように進めることにより、例えば重要なオブジェクトや接近され、観察される可能性の高いオブジェクトの場合には、基準画像データの量を増やさずに、より詳細な表現を実現し、この指定されたオブジェクトのみを移動または変形させることが可能になる。
次にこのような技法の一実施形態について説明する。
前述したように、空間構築部316は、表示されるべきオブジェクトが存在する空間の形状モデルを構築する。この空間、または場面は、次いで、任意選択で最終的な基準画像に対してより低い解像度でレンダリングされ、深度バッファに取り込まれうる(カラーバッファは不要である)。深度カリングは行われない。よって、場面の(任意選択で低解像度の)表現が格納される。
次いでこの場面が、候補位置ごとの試験データを作成するために、場面内の複数の候補基準視点位置で深度バッファデータを使用してレンダリングされる。この段階では、従来のレンダリング(すなわち、Zカリングを行って候補基準視点位置では見えない要素を除去する)が通常は使用される。このようにして、各候補位置で見える場面のレンダリングされた要素を特定することができる。
場面内のオブジェクトの表面上の個々の点を特定することは、メモリ集約的、計算集約的となる可能性があり、わずかな位置の差に起因する重複や誤分類を招く。よって任意選択で、場面はボクセルを使用してレンダリングされ、ボクセルはその場合、それらの体積内に含まれる点のヒストグラムバケットとして働くことができる。所与のレンダリングについて、これらのボクセルは、収集した点の数を記録するか、単に少なくとも1つが収集されているというフラグを立てることができる。
この手法を使用して、V×Cデータ配列を生成することができ、Vはボクセル数(場面内の点を示す)であり、Cは候補カメラの数である。所与のカメラによる所与のレンダリングについて、所与のボクセルのカウントまたはバイナリフラグ値を配列に格納することができる。
次に図8Aを参照すると、この図には、バイナリフラグに基づく実施態様のためのそうした配列が示されている。任意選択で、配列は、カメラ可視性のビットマップとしてユーザに提示することができる。点の数およびカメラの数は単なる例示であることが理解されよう。よって、水平軸にはC個のカメラ(ここでは6個)があり、垂直軸にはV個のボクセル(ここでは8個)がある。次いで、カメラcがボクセルv内の点のレンダリングを生じさせたかどうかを示すために、配列にバイナリ値が格納される。次いでこれらの値は、場面内の各ボクセルの相対的可視性を決定するために水平方向に合計され、カメラ位置の相対的有用性を決定するために垂直方向に合計されうる。
よってこの例では、ボクセルごとのカメラの合計において、ボクセル#2はそれが現在見えていないことを示し、ボクセル#7は比較的露出されており、6つのうち5つのカメラに見えている。一方で、ボクセル#8は1つのカメラにのみ見えている。
したがって、ボクセル#2が見えるようにカメラを移動させることが望ましいが、明らかに、別のボクセル(例えば、ボクセル#8が見えているカメラ)を見るのに不可欠ではないカメラのみを移動させることが好ましいことが理解されよう。よってシステムは、ボクセル#7が見えている5つのカメラのうちの1つを移動させることを選択しうる。
カメラごとのボクセルの合計を見ると、カメラ#4およびカメラ#5は、場面中のボクセルの大部分が見えているので、値が高いことが理解されよう。一方で、カメラ#3は、多くのボクセルが見えていないので値が低く、さらにこのカメラにだけに固有に見えているボクセルもない。よって同様に、システムは、ボクセル#2が見えるようにするためにカメラ#3を移動させることを選択しうる。例えば、ボクセルが物理的近接度に基づいて列挙されているか、または順次に特定される場合、ボクセル#1とボクセル#3の両方が見えたカメラの近くの、そのカメラと異なる位置にカメラ#2を配置すると、そのボクセルが見えるようになる可能性が高くなるであろう。あるいは、ボクセルが見えない場合には、複数の視線がそのボクセル自体の位置から投影されてよく、場面の別の部分と交差することなく所定の距離に達する任意の視線が、そのようなカメラ配置のために使用できるはずの点を定義しうる。
よって、例えば図7に示すように、最初にカメラを分配し、次いで、それらのカメラが場面内のいくつの点を見ることができ、かつ/またはいくつの固有点を見ることができるかに従って、どのカメラがそれらの現在位置においてより値が高いか、または値が低いかを評価するアルゴリズムが使用されうる。値の低いカメラを別の位置に移動させ、その値を再計算することができ、その値がより高くなった場合、そのカメラは新しい位置にとどまる。任意選択で、カメラの全体の値がそれ以上上がらず、かつ/またはすべてのカメラの値の分散が、より均一的に有用な分配を示す閾値を下回るまで、このプロセスを反復して、N個の最低値のカメラを移動させることができる(Nは、1~C-1としうるが、通常は、カメラの最低値、3分の1、4分の1、5分の1または10分の1になる)。
この手法を使用して、必要に応じて低い値のカメラと高い値のカメラの両方の現在位置を試験して、その値を改善できるかどうかを確認することができる。さらに、任意選択で、低い値を有するカメラを、例えば、上述した視線の技法を使用して、現在見えていない点を見るように完全に再配置してもよい。
カメラは、ユーザの可能な視点の外部の領域に移動させる必要はないことが理解されよう。よって、例えば、ユーザが決まった高さを有する(例えば、環境内で座ったり、這ったり、跳んだりすることができない)場合には、カメラは1つの水平面を占有しうる。一方で、ユーザが状態(例えば、立った状態と座った状態)間を移動することができる場合には、カメラリソースの重み付けまたは配分が、場面内の様々な高さおよび/または位置に与えられてよく、もしあれば、遷移状態(例えば、立った状態と座った状態との間の位置)には比較的少ないリソースが与えられる。この重み付けは、上述したようにカメラの重要度に、かつ/またはカメラの再配置を選択するときにカメラによるカバレッジを必要とする領域に適用することができる。
同様に、開発中またはその後の使用中に、ユーザが場面内で最も頻繁に移動する場所とユーザが最も頻繁に見る場所とを判断するためにユーザヒートマップが作成されてもよい。最も多く見られる場面のこれらの位置および要素はその場合、しかるべく重み付けされてよく、潜在的に異なるカメラまたは新しいカメラ位置をより重要にする。
次に図8Bを参照すると、ボクセルを使用した(よって、最終的な基準画像よりも著しく低い解像度での)場面のレンダリングが、1群のカメラ30'の各々に対して行われる。この場合、各カメラにだけ固有に見える点の数の記録35が示されている。この場合、カメラ#15は最も多くの固有点を有し、よって、最も重要であるとみなされてよく、カメラ#00、カメラ#04、カメラ#16、カメラ#18、カメラ#21は相対的に少ない(例えば、所定の閾値未満の)固有点を有するので、場面の別の部分に移動されうる。
移動量(すなわち、位置の変化の大きさ)は、重要度の低いカメラが大きく移動されるように、カメラの重要度に反比例させる(例えば、上記のカバレッジの基準と、任意選択で固有点の数、最も近いカメラからの距離、および任意の他の適切な基準、任意選択で適切な重み付けとを使用してランク付けさせる)ことができる。この場合、カメラ#21を場面の右に移動させると、カメラ#21に多くの新しい画素が見えるようになるので、その重要度は著しく増加し、その他のカメラの重要度は比較すると減少する。同様に、カメラが新しい視点に移動されると、カメラ15にだけ固有に見える点の数が減少する可能性があり、その比較的な重要性がさらに低減される。最終的にどのカメラにも固有に見える点がなくなることが理想的であるが、これは、すべてのカメラが(例えば、カメラの中には不可避的により重要またはより重要ではないものがありうるため、任意選択で、閾値数のカメラをその差の計算から除外する範囲付きで、重要度または点のカバレッジに関する閾値差内まで)ほぼ等しい重要度のものであるはずのより一般的な条件の特殊事例である。よって、例えば、カメラの50%、60%、70%、80%、90%または95%が、設計者の選択に応じて、重要度に関する閾値差をつけている場合、システムはカメラの調整を停止しうる。
よって、固有に見える点の比較尺度は、カメラの重要度を決定する適切な重み付けと共に、全体的な視点の比較尺度と併用されてよく、カメラは、その所定の数または割合が、閾値許容差内まで同様に重要になるまで移動されうる。任意選択で、この基準に対する非最適な解として同じ点でカメラが収束するのを防ぐために、カメラは相互排除境界を有しうる(言い換えると、カメラ間に最小限の距離が設けられる)。さらに、これらの境界/距離は、全体的な重要度の関数として、かつ/または固有に見える点に関する重要度の関数として変動しうるので、良好な全体的視野を有するカメラは、近くの冗長なカメラによって囲まれていない。
最後に、任意の適切な技法を使用して、1つまたは複数の代替の基準画像が、基準画像の一部または全部について同様に事前に作成されてよく、それらは、レンダリングされた環境内の光源のアクティブ化や、基準画像の別個のレイトレーシングから利益を得るはずの環境内の新しいオブジェクトの出現など、ユーザまたはゲーム/アプリケーションによってトリガされたイベントに応答して使用されうる。
図9は、画像生成装置200の画素値決定部266が、表示画像の画素値の決定に使用される基準画像を選択するための第1の技法を説明した図である。この図には、オブジェクト24を含む表示空間の鳥瞰図が示されている。この空間では、5つの基準視点28a~28eが設定され、それぞれの基準画像のデータが生成される。この図において、基準視点28a~28eを中心とする円は、全天のパノラマ画像用に作成された基準画像の画面平面を図示している。
ユーザ視点が画像表示中に仮想カメラ30の位置にあると仮定される場合、投影部264は、ビュー画面をこの仮想カメラ30と符合するように決定し、オブジェクト24のモデル形状をビュー画面上に投影する。これにより、表示画像内の画素とオブジェクト24の表面上の位置との対応関係が特定される。次いで、例えばオブジェクト24の表面上の点26の画像を表す画素の値を決定するときに、画素値決定部266は、まず、この点26が表示される基準画像を画像として指定する。
世界座標系におけるそれぞれの基準視点28a~28eと点26との位置座標は既知であるため、それらの距離は容易に求めることができる。図では、これらの距離が、基準視点28a~28eと点26とを結ぶ線分の長さで示されている。また、点26が基準視点ごとにビュー画面上に逆投影される場合、点26の画像が各基準画像において現れるべき画素の位置を指定することもできる。他方、基準視点の位置によっては、点26がオブジェクトの背後にあるか、または前にあるオブジェクトによって隠されているために、画像が基準画像においてこの位置に出現しないこともありうる。
この時点で、画素値決定部266は、各基準画像に対応する深度画像を確認する。深度画像の画素値は、対応する基準画像において画像として現れるオブジェクトの画面平面からの距離を示す。したがって、基準視点から点26までの距離を、深度画像内の点26の画像が現れるはずの画素の深度値と比較することによって、当該の画像が点26の画像であるか否かが判断される。
例えば、基準視点28cから点26までの視線上では、点32はオブジェクト24の背後にあるので、点32の画像は実際には、点26の画像が対応する基準画像において現れるはずの画素として表される。したがって、対応する深度画像の画素によって示される値は点32までの距離であり、基準視点28cを始点とすることによって得られた値への変換によって得られる距離Dcは、座標値から計算される点26までの距離dcよりも明らかに小さい。したがって、深度画像から得られる距離Dcと座標値から得られる点26までの距離dcとの差が閾値以上である場合、当該の基準画像は、点26を表す画素値の値の計算から除外される。
同様に、基準視点28d、28eの深度画像から得られる対応する画素のオブジェクトまでの距離Dd、Deが、それぞれの基準視点28d、28eから点26までの距離に関して閾値以上の差を有する場合も、それらは計算から除外される。他方、閾値判断によって、基準視点28a、28bの深度画像から得られる対応する画素のオブジェクトまでの距離Da、Dbは、それぞれの基準視点28a、28bから点26までの距離と実質的に同じであると特定することが可能である。画素値決定部266は、深度値を使用して、このようにスクリーニングを行うことによって、表示画像の画素ごとの画素値の計算に用いられるべき基準画像を選択する。
しかし、上記の技法では問題が発生する可能性がある。相対深度を基準としてオブジェクト上のサンプル点が基準視点において表されるかどうか判断することは、オブジェクトが、布やパネルなどの場合のように、3次元環境内で薄いか、または隣接する表面のエッジもしくは頂点に近い場合、予期しない結果を引き起こす可能性がある。この場合、基準視点は、仮想カメラに対してオブジェクトの反対側にありうるが、分析対象の点までの距離は実質的に同じである(または上述の閾値を有する)ので、その基準視点が、サンプル点のビューを含むものとして誤って分類されることになる。
したがって、本発明の一実施形態では、図10A~図10Bに示すように、代替の手法が使用されうる。これらの図には、図9と同じオブジェクト24、基準視点28a~28eおよび基準視野画像の画面平面が示されているが、点26における表示画像の画素値を決定する場合にどの基準視点を使用すべきか判断するための異なるスクリーニングの技法が示されている。
図10Aに、本発明の一実施形態による基準視野画像を生成するプロセスの一部を示す。図9に関連して前述したように深度画像を作成する代わりに、またはそれに加えて、多角形IDの技法が用いられうる。
図10Aでは、識別子p、q、r、s、tおよびuがオブジェクト24の多角形に割り当てられている。特に、多角形は、通常、レンダリングプロセスの一部としてグラフィックスプロセッサによって識別子を割り当てられる。あるいは、例えば、適切なソフトウェア命令によって、別個の識別子セットが作成され、追跡されてもよい。適切な場合には、グラフィックスプロセッサによって割り当てられた識別子が、(例えば、グラフィックスプロセッサによって割り当てられる識別子がレンダリングごとに変化する場合)永続的な識別子セットを提供するために、そのような別個の識別子セットに逆マップされうる。
次いで、視点28cと視点28dとに基準視野画像について示されているように、これらの基準視野画像がレンダリングされ、多角形識別子は、その多角形を示す基準視野画像のそれぞれの部分(図10Aの基準画像球の関連部分に隣接して浮いている弧状部分として概略的に示されている)と関連付けられる。その他の視点28a、28b、28e(およびより一般的には使用されるすべての視点)の基準画像をレンダリングするために同じ手法が使用されるが、これらは明瞭にするために図10Aには示されていないことが理解されよう。
このようにして、多角形IDマップまたは多角形ID画像が、レンダリングされた基準視野画像ごとに作成され、その基準視野画像内の所与の画素でどの多角形が画像化されているかを特定する。次に図10Bを参照すると、図10Bには、基準視野画像ごとのオブジェクト24に関する多角形IDマップが、やはり図9に示すように現在分析されているオブジェクト24上の点26を見ている仮想カメラ30と共に示されている。いずれの場合も、多角形IDマップは、図において、画像球のその部分に画像化される対応する多角形IDでラベル付けされた画像球の弧状部分によって表されている。
続いて、オブジェクトの点26の画素値を生成するときに使用すべき基準視野画像をスクリーニングするために、次いで、先に説明した深度スクリーニングの技法の代わりに、またはそれに加えて、点26(この例では点26は多角形「u」上にある)に対応する多角形IDが、点26とそれぞれの基準視点28との間の線と交差する基準視野画像の画素の多角形IDマップの値と比較される。
多角形IDが一致しない場合には、その基準視点の基準視野画像が除外される。多角形IDが一致する基準視点の基準視野画像のみが選択されうる。
よって、図10Bに示す例では、基準視点28aおよび28bについて、多角形IDは一致する(u=u)。一方で、基準視点28cについては、多角形IDは一致せず(r!=u)、基準視点28d(s!=u)と基準視点28e(p!=u)とについても同様である。よって、視点28c、28d、および28eの基準視野画像は除外され、視点28a、28bの基準視野画像のみが視点26の画素値の生成で使用するために考慮されうる。
図9および図10A~図10Bには例として5つの基準視点が示されているが、実際には、図7および図8A~図8Bに示すように、比較は、深度値を使用して、または代替として、もしくはこれに加えてすべての分配された基準視点の多角形IDを使用して行われうる。このようにして、高精度の表示画像を描画することができる。他方、約25の深度画像および/または多角形ID画像と、表示画像のすべての画素に関する基準画像とを参照することは、装置の処理性能によっては、無視できないほどの負荷を生じさせうる。したがって、選択候補として使用される基準画像の数は、上述したように、画素値の決定に使用されるべき基準画像の選択の前に、規定の標準を使用して範囲を狭められうる。例えば、仮想カメラ30から規定の範囲内に存在する基準視点が抽出され、これらの中からの基準画像に限定された選択処理が、深度値および/または多角形IDを使用して実行されうる。よって、例えば、対象画素について、基準画像が、仮想カメラからの距離の関数として順番に評価されてもよく、N個の基準画像が、本明細書で前述した深度および/または多角形IDマッチング基準を満たすことが判明すると、その画素の生成ではそれ以上の基準画像が使用されない。Nは1、2、3、4またはそれ以上であってもよく、任意選択で、他の因子または基準の関数として変化してもよい。よって例えば、第1の基準画像が仮想カメラ位置の閾値距離内にある場合にはNは1でありうるが、この基準が満たされない場合には2以上でありうる。同様に、所与の多角形IDの基準画像の表面積が閾値量よりも小さい(それがその多角形についての相対的に低品質の光源情報であることを示す)場合にも、Nは増加しうる。適格な基準画像の数Nを増加させ、または制限するための他の戦略は、当業者には明らかであり、品質と計算負荷との所望のバランスをとるように選択することができる。
このプロセスにおいて、抽出される基準視点の数の上限は、例えば10基準視点または20基準視点として設定されてよく、基準点の範囲が調整されてもよく、または抽出される基準視点の数をこの上限内に保つために、受入れ/拒絶選択が、無作為に、もしくは規定の規則に従って行われてもよい。また、抽出される基準視点の数は、表示画像上の領域に応じて変更されてもよい。例えば、仮想現実がヘッド・マウント・ディスプレイを使用して実施される場合、表示画像の中央領域がユーザの視線の方向と一致するようにするために、周辺領域よりも高い精度で画像を描画することが望ましい。
したがって、表示画像の中心から規定の範囲にある画素に関しては、ある程度多い数の基準視点(基準画像)が、候補として選択されてよく、この範囲の外部にある画素に関しては、選択候補の数が低減されうる。例えば、中央領域では選択候補として約20枚の基準画像を用い、周辺領域では約10枚を用いることが可能である。しかし、領域の数は2つに限定されず、3つ以上の領域を用いることもできる。また、領域の定義の仕方も、表示画像の中心からの距離に依存することに限定されず、例えば、関心対象のオブジェクトの画像に関する領域であることに従って、領域を動的に定義することも可能なはずである。このようにして、オブジェクトの画像が投影されるか否か以外のいくつかの要因に従って、参照される基準画像の数を制御することによって、例えば、装置の処理性能や、表示に必要な精度や、表示の内容を考慮に入れた最適な条件の下で表示画像の描画を行うことができる。
図11は、画素値決定部266が表示画像の画素値を決定するための技法を説明した図である。図9または図10Bに示すように、オブジェクト24の点26の画像が、基準視点28a、28bの基準画像上に表されることが確立されているものと仮定する。基本的には、画素値決定部266は、実際の視点に対応する表示画像における点26の画像の画素値を、これらの基準画像における点26の画像の画素値を混合することによって決定する。
この時点で、基準視点28a、28bの基準画像における点26の画像の画素値(色値)が、それぞれc、cである場合、表示画像における画素値Cは、以下のように計算される。
C=w+w
式中、係数w、wは、w+w=1の関係を有する重み付けであり、すなわち、基準画像に対する寄与率を表す重み付けであり、これらの重み付けは、基準視点28a、28bと、実際の視点を表す仮想カメラ30との位置関係に基づいて決定される。例えば、仮想カメラ30から基準視点までの距離が小さい場合には、寄与率の係数をより大きい値とすることによって寄与率を増加させる。
この場合、仮想カメラ30から基準視点28a、28bまでの距離をΔa、Δbとして、sum=1/Δa+1/Δbとした場合、重み係数は以下の関数として表すことができる。
=(1/Δa)/sum
=(1/Δb)/sum
上記の式が、用いられる基準画像の数をNとし、基準視点の識別番号をi(i≦N)とし、仮想カメラ30からi番目の基準視点までの距離をΔiとし、それぞれの基準画像における対応する画素値をcとし、重み係数をwとすることによって生成される場合、以下の式が得られる。ただし、これは、この計算式への限定を意味するものではないことに留意されたい。
Figure 0007212519000001
上記の式において、Δiが0である場合、すなわち、仮想カメラ30が基準視点のいずれかと一致する場合には、対応する基準画像の画素値に関する重み係数は1とされ、その他の基準画像の画素値に関する係数は0とされる。このようにして、当該の視点に対して高精度で作成された基準画像を表示画像において直接反映させることができる。
また、重み係数の計算で使用されるパラメータは、仮想カメラから基準視点までの距離に限定されない。例えば、基準視点から点26までの視線ベクトルVa、Vbと、仮想カメラ30から点26までの視線ベクトルVrとによって形成される角度θa、θb(0≦θa、θb≦90°)に基づくものとすることもできる。例えば、重み係数は、ベクトルVa、VbとベクトルVrとの内積(Va・Vr)、(Vb・Vr)を使用して次のように計算される。
=(Va・Vr)/((Va・Vr)+(Vb・Vr))
=(Vb・Vr)/((Va・Vr)+(Vb・Vr))
上記の式が、用いられる基準画像の数をNとし、基準視点iから点26までの視線ベクトルをVとし、重み係数をwとすることによって上述したのと同じように一般化される場合、以下の式が得られる。
Figure 0007212519000002
いずれの場合であっても、点26に対する仮想カメラ30の状態が基準視点に近づくに従って重み係数が大きくなるように計算規則が導入される限り、特定の計算式には限定されない。距離と角度の両方から「状態の近さ」を多元的に評価することによって重み係数を決定することも可能である。加えて、点26におけるオブジェクト24の表面形状を考慮に入れることも可能である。一般に、オブジェクトからの反射光の明るさは、表面の傾き(すなわち、表面に対する法線)に基づく角度依存性を有する。したがって、点26における法線ベクトルと仮想カメラ30からの視線ベクトルVrとによって形成される角度と、それぞれの基準視点からの視線ベクトルVa、Vbと当該の法線ベクトルとによって形成される角度とが比較されてよく、この差が小さくなるに従って重み係数が大きくなる。
また、重み係数を計算するために使用される実際の関数は、オブジェクト24の材質や色などの属性に応じて切り替えられうる。例えば、正反射成分が支配的な材質の場合、観察される色は強い方向性を有する、すなわち視線ベクトルの角度に応じてかなり変化する。他方、拡散反射成分が支配的な材質の場合、色は視線ベクトルの角度に対して大きく変化しない。したがって、前者の場合には、基準視点の視線ベクトルが仮想カメラ30から点26までの視線ベクトルVrに近づくほど重み係数が増える関数が用いられてよく、後者の場合には、重み係数がすべての基準視点について同じとされてもよいし、正反射成分が支配的な場合には角度依存性がより小さくなるような関数が用いられてもよい。
また、同じ理由で、拡散反射成分が支配的な材質の場合には、表示画像の画素値Cを決定するのに使用される基準画像の実際の数をデシメーションにより減らすことによって、または少なくとも規定の値で、実際の視線ベクトルVrに近い角度の視線ベクトルを有する基準画像だけを用いることによって、計算処理の負荷を制限することができる。画素値Cを決定するための規則がオブジェクト属性に従ってこのように変更される場合、これが表すオブジェクトの材質など、当該の属性を示すデータが、基準画像ごとに、基準画像データ記憶部256に、関連付けて格納されうる。
上述したモードでは、正反射によって生成される光の方向性などを、オブジェクトの表面形状および/または材質を考慮に入れることによって、表示画像をより正確に反映させるようにすることができる。重み係数の決定は、オブジェクトの形状に基づく計算、オブジェクトの属性に基づく計算、仮想カメラから基準視点までの距離に基づく計算、およびそれぞれの視線ベクトルによって形成される角度に基づく計算、のうちの任意の2つ以上の組み合わせを利用しうる。
次に、上述した構築によって実施可能な画像生成装置の動作について説明する。図12は、画像生成装置200が視点に対応した表示画像を生成するための処理手順を示す流れ図である。この流れ図は、ユーザの操作によりアプリケーションなどが起動され、初期画像が表示されたときに開始され、視点の移動が受け入れられる状態が生成される。上述したように、電子ゲームなどの様々なタイプの情報処理が、図示される表示処理と並行して行われうる。まず、空間構築部262は、世界座標系において、表示されるべきオブジェクトが存在する3次元空間を構築する(S10)。
一方で、視点情報取得部260は、ユーザの頭部の位置および/または姿勢に基づいて、この時点における視点の位置および/または視線方向を特定する(S12)。次に、投影部264は、視点に対するビュー画面を設定し、表示空間に存在するオブジェクトをビュー画面に投影する(S14)。上述したように、この処理では、例えば、3次元モデルを形成するポリゴンメッシュの頂点の透視変換により、表面形状のみを考慮に入れるように構成されうる。次に、画素値決定部266は、このように投影されたメッシュの内部における画素の中の関心対象の1つの画素を設定(S16)し、その画素値の決定に使用されるべき基準画像を選択する(S18)。
具体的には、上述したように、それぞれの基準画像の深度画像に基づいて、当該の画素によって表されるオブジェクト上の点が画像として表示される基準画像が決定される。次いで、画素値決定部266は、これらの基準画像の基準視点と実際の視点に対応する仮想カメラとの位置関係、および/または、オブジェクトの形状や材質などに基づいて、重み係数を決定し、次いで、例えば、それぞれの基準画像の対応する画素値の重み付け平均によって、関心対象の画素の値を決定する(S20)。基準画像の画素値から関心対象の画素の画素値を導出するための計算では、重み付け平均以外の様々なタイプの統計処理および/または補間処理が可能であることが、当業者には理解されよう。
S18およびS20の処理は、ビュー画面上のすべての画素について繰り返される(S22、S16のいいえ)。すべての画素の画素値が決定されると(S22のはい)、出力部268は、当該のデータを表示画像データとしてヘッド・マウント・ディスプレイ100に出力する(S24)。左目用表示画像と右目用表示画像とが生成される場合には、これらそれぞれの画像についてS16~S22の処理が実行され、好適な方法で出力されることに留意されたい。表示の完了が不要である場合には、次の視点情報の取得後に表示画像の生成処理およびその出力が繰り返される(S26、S12~S24のいいえ)。表示処理の完了が必要である場合には、すべての処理が終了される(S26のはい)。
図12の例では、画素値がすべての画素に関して基準画像を使用して決定されたが、表示画像上の領域および/または視点の位置に応じて、描画技法を切り替えることも可能であることに留意されたい。例えば、視点の移動による光または色合いの変化が不要なオブジェクトの画像に関してのみ従来のテクスチャマッピングを行うことも可能であろう。また、方向性の高い反射光など、場合によっては、周囲の基準画像から、局所的な視点のみで観察される状態を完全に表現することができない場合もある。基本的には、基準視点の数を増やすことによって描画の正確さを向上させることができるが、基準画像として使用するために作成されるデータの量は、視点が当該の範囲内に含まれる場合にのみレイトレーシングを使用した描画に切り替えることによって、減らすことができる。
本発明の一概略的実施形態において、画像生成装置(コンソール200やHMD100やこれら2つの組み合わせ、または開発構成におけるPCやコンソールなどの開発キット)は、前述したように、表示されるべきオブジェクトを含む空間が複数の候補基準視点のうちの1つから見られたときの画像を各々表す試験画像をレンダリングするレンダリング部(適切なソフトウェア命令の下で動作する画像プロセッサなど)と、前述したように、候補基準視点の重要度値を、少なくとも、空間内の点のそれらの比較的カバレッジの関数として評価する候補基準視点評価部(適切なソフトウェア命令の下で動作するプロセッサなど)と、前述したように、重要度値が低い1つまたは複数の候補基準視点の位置を変更し、候補基準視点評価部から再評価を取得し、空間内の点のその比較的カバレッジが増加した場合には、候補基準視点の位置は元に戻さない更新部(適切なソフトウェア命令の下で動作するプロセッサなど)と、を含むことを特徴とする。
概略的実施形態の一例では、レンダリング部は、試験画像を、続いてレンダリングされる、最終的な基準視点に対応する基準画像よりも低い実効解像度を有するボクセルとしてレンダリングする。
概略的実施形態の一例では、候補基準視点評価部は、空間内のリストされた位置に対する候補視点の配列を維持し、配列のフィールドは、所与の候補視点のレンダリングが所与のリストされた位置における点を含んでいたかどうかを表す。
概略的実施形態の一例では、候補基準視点評価部は、候補視点ごとに、配列から、空間内の点のカバレッジを示す、候補視点においてレンダリングされたリストされた位置の数を合計するように構成され、それぞれの合計数の比較に応じて、空間の比較的カバレッジが低い1つまたは複数の視点を特定するように構成される。
概略的実施形態の一例では、候補基準視点評価部は、候補視点ごとに、配列から、空間内の点の固有のカバレッジを示す、候補視点においてのみレンダリングされたリストされた位置の数を合計するように構成され、それぞれの合計数の比較に応じて、空間の固有のカバレッジが高い1つまたは複数の視点を特定するように構成される。空間内の点の固有のカバレッジは、任意選択で、空間内の点のより一般的なカバレッジと併用して、任意の他の適切な値または尺度と共に、重要度を評価するのに使用することができる。
概略的実施形態の一例では、重要度が低い1つまたは複数の候補基準視点の位置の変化の大きさは、候補基準視点の重要度に反比例する。
概略的実施形態の一例では、候補基準視点は最小限の距離だけ離される。前述したように、本明細書では、これにより、同様の重要度を有することへの解決策としてカメラが同じ位置で収束することが回避される。
概略的実施形態の一例では、更新部は、1つまたは複数の候補基準視点の位置を、所定数の候補基準視点が、相互の閾値許容差内の点のそれぞれのカバレッジを各々有するようになるまで変更するように構成される。代替として、または加えて、更新部は、1つまたは複数の候補基準視点の位置を、所定の割合のボクセルが、少なくとも1つの候補基準視点によるカバレッジを登録するまで変更するように構成されてもよい。
同様に、概略的実施形態の一例では、画像生成装置は、表示されるべきオブジェクト24の多角形の多角形識別データを格納するオブジェクトデータ記憶部(RAM、フラッシュメモリ、HDDなど)と、表示されるべきオブジェクトを含む空間が複数の規定の基準視点のうちの1つから見られたときの画像を各々表す基準画像(画像球28a~28eなど)のデータを格納し、各基準画像に対応する多角形識別データをさらにコントローラする基準画像データ記憶部(RAM、フラッシュメモリ、HDDなど)と、視点(仮想カメラ30など)に関する情報を取得する視点情報取得部(適切なソフトウェア命令の下で動作するプロセッサなど)と、表示画像の平面14上に、前記空間が前記視点から見られたときの前記オブジェクトの画像の位置および形状を表す投影部(適切なソフトウェア命令の下で動作するプロセッサなど)と、前記複数の基準画像のうちの1つまたは複数における同じ画像を表す画素の値を使用して、前記表示画像において前記オブジェクトの画像を構成する画素の値を決定する画素値決定部(適切なソフトウェア命令の下で動作するプロセッサなど)と、前記表示画像のデータを出力する出力部と、を含み、(例えば、対象の特定の点26における)対象画素について、前記画素値決定部は、前述したように、オブジェクト上の対象画素の位置に対応する基準画像上の位置を決定し、前述したように、基準画像上の決定された位置に対応する多角形識別を取得し、前述したように、取得された多角形識別を、オブジェクト上の対象画素の位置に対応する多角形の多角形識別と比較し、比較された多角形識別が一致する場合に基準画像を選択する、ように構成される。
次に図13を参照すると、本発明の一概略的実施形態において、画像を生成する方法は、以下を含む。
第1のステップs1310で、表示されるべきオブジェクトを含む空間が複数の候補基準視点のうちの1つから見られたときの画像を各々表す試験画像をレンダリングする。
第2のステップs1320で、候補基準視点の重要度値を、少なくとも、空間内の点のそれらの比較的カバレッジの関数として評価する。
2つのサブステップを含む第3のステップs1330において、サブステップs1332で、重要度値が低い1つまたは複数の候補基準視点の位置を変更し、候補基準視点評価部から再評価を取得し、サブステップ1334で、空間内の点のその比較的カバレッジが増加した場合には、候補基準視点の位置を元に戻さない(言い換えると、空間内の点のその比較的カバレッジが、または同様に、固有点などの追加的な基準を使用して計算される、その全体的な重要度が増加した場合には、候補基準視点の新しい位置のみを保持する)。
当業者には明らかなように、本明細書に記載され、特許請求される装置の様々な実施形態の動作に対応する上記方法の変形は、本発明の範囲内とみなされ、以下を含むがこれに限定されない:
試験画像を、続いてレンダリングされる、最終的な基準視点に対応する基準画像よりも低い実効解像度を有するボクセルとしてレンダリングすること;
空間内のリストされた位置に対する候補視点の配列を維持し、配列のフィールドが、所与の候補視点のレンダリングが所与のリストされた位置における点を含んでいたかどうかを表すこと;
候補視点ごとに、配列から、空間内の点のカバレッジを示す、候補視点においてレンダリングされたリストされた位置の数を合計し、それぞれの合計数の比較に応じて、空間の比較的カバレッジが低い1つまたは複数の視点を特定すること;および
1つまたは複数の候補基準視点の位置を、所定数の候補基準視点が、相互の閾値許容差内の点のそれぞれのカバレッジを各々有するようになるまで変更すること。
上記の方法は、ソフトウェア命令によって、または専用ハードウェアを含め、または専用ハードウェアで代用することにより、適宜、好適に適応させた従来のハードウェア上で実行されうることが理解されよう。
よって、従来の等価の装置の既存部分への必要な適応は、フロッピー(登録商標)ディスク、光ディスク、ハードディスク、PROM、RAM、フラッシュメモリもしくはこれらの任意の組み合わせまたは他の記憶媒体といった非一時的な機械可読媒体上に格納されたプロセッサ実装可能命令を含むコンピュータプログラム製品として実施されてもよく、ASIC(特定用途向け集積回路)またはFPGA(フィールド・プログラマブル・ゲート・アレイ)または従来の等価の装置を適応させる際に使用するのに適した他の構成可能な回路としてハードウェアで実現されてもよい。それとは別に、そうしたコンピュータプログラムは、イーサネット(登録商標)、無線ネットワーク、インターネット、もしくはこれらおよびその他のネットワークの任意の組み合わせなどのネットワーク上でデータ信号によって伝送されてもよい。
上述したように本発明の実施形態では、任意の視点から画像を表示するための技術において、事前設定基準視点に関して画像データが予め作成される。よって、表示画像が描画されるときに、表示画像の画素値は、予め作成された基準画像から、同じオブジェクトを表す画素の値を取得することによって決定される。画素値を計算するために、実際の視点と基準視点との位置関係および/またはオブジェクトの属性に基づく規則が導入される。基準画像は、各視点に対応する表示から異なるタイミングで経時的に生成することができ、そのため高品質の基準画像を作成することができる。表示中に、これらの高品質画像から値を抽出することによって、さほど時間をかけずに高品質画像を提供することができる。
また、実際の視点の移動の想定範囲において複数の基準視点を設定して基準画像を作成し、視点の位置関係および/またはオブジェクトの属性に従ってその画素値を組み合わせることによって、任意の視点に関して安定した制度を有する表示画像を描画することができる。例えば、所与の基準視点の位置から別の基準視点の位置までの視点移動が発生した場合、前者に対応する基準画像から後者に対応する基準画像にシームレスに色合いを変更することができる。また、基準画像がそれぞれの基準視点を中心とした全天パノラマ画像になるように構成することによって、視点の位置および/または方向に関して高い自由度を与えることもできる。その結果、高品質画像を、任意の視点に対する良好な応答性で表示することができ、より強い臨場感を提供する画像表示の実現が可能になる。
以上、本発明の実施形態を説明した。実施形態は単なる例にすぎず、構成要素とその処理プロセスを組み合わせることによって様々な改変例を実現することができること、およびそのような改変例は、本発明の範囲内であることが、当業者には理解されよう。
100 ヘッド・マウント・ディスプレイ
200 画像生成装置
222 CPU
224 GPU
226 メインメモリ
236 出力部
238 入力部
254 オブジェクトモデル記憶部
256 基準画像データ記憶部
260 視点情報取得部
262 空間構築部
264 投影部
266 画素値決定部
268 出力部
300 基準画像生成装置
310 基準視点設定部
314 オブジェクトモデル記憶部
316 空間構築部
318 基準画像データ生成部
320 基準画像データ記憶部
322 基準画像生成部
324 深度画像生成部

Claims (15)

  1. 表示されるべきオブジェクトを含む空間が複数の候補基準視点のうちの1つから見られたときの画像を各々表す試験画像をレンダリングするレンダリング部と、
    前記候補基準視点の重要度値を、少なくとも、前記空間内の点の前記候補基準視点の比較的カバレッジの関数として評価する候補基準視点評価部と、
    重要度値が低い1つまたは複数の候補基準視点の位置を変更し、前記候補基準視点評価部から再評価を取得し、前記空間内の点の候補基準視点の比較的カバレッジが増加した場合には、前記候補基準視点の前記位置を元に戻さない更新部と
    を含むことを特徴とする、画像生成装置。
  2. 前記レンダリング部が、試験画像を、続いてレンダリングされる、最終的な基準視点に対応する基準画像よりも低い実効解像度を有するボクセルとしてレンダリングする、
    請求項1に記載の画像生成装置。
  3. 前記候補基準視点評価部が、前記空間内のリストされた位置に対する候補視点の配列を維持し、前記配列のフィールドが、所与の候補視点のレンダリングが所与のリストされた位置における点を含んでいたかどうかを表す、
    請求項1または2に記載の画像生成装置。
  4. 前記候補基準視点評価部が、候補視点ごとに、前記配列から、前記空間内の点の前記カバレッジを示す、前記候補視点においてレンダリングされたリストされた位置の数を合計するように構成され、
    それぞれの合計数の比較に応じて、前記空間の比較的カバレッジが低い1つまたは複数の視点を特定するように構成される、
    請求項3に記載の画像生成装置。
  5. 前記候補基準視点評価部が、候補視点ごとに、前記配列から、前記空間内の点の固有のカバレッジを示す、前記候補視点においてのみレンダリングされたリストされた位置の数を合計するように構成され、
    それぞれの合計数の比較に応じて、前記空間の固有のカバレッジが高い1つまたは複数の視点を特定するように構成される、
    請求項3または4に記載の画像生成装置。
  6. 重要度が低い前記1つまたは複数の候補基準視点の位置の変化の大きさが、前記候補基準視点の重要度に反比例する、
    請求項1から5のいずれか一項に記載の画像生成装置。
  7. 候補基準視点が最小限の距離だけ離される、
    請求項1から6のいずれか一項に記載の画像生成装置。
  8. 前記更新部が、1つまたは複数の候補基準視点の位置を、所定数の前記候補基準視点が、相互の閾値許容差内の点のそれぞれのカバレッジを各々有するようになるまで変更するように構成される、
    請求項1から7のいずれか一項に記載の画像生成装置。
  9. 表示されるべきオブジェクトの多角形の多角形識別データを格納するオブジェクトデータ記憶部と、
    各基準画像に対応する多角形識別データを格納する基準画像データ記憶部と、
    視点に関する情報を取得する視点取得部と、
    表示画像の平面上に、前記空間が前記視点から見られたときの前記オブジェクトの画像の位置および形状を表す投影部と、
    前記複数の基準画像のうちの1つまたは複数における同じ画像を表す画素の値を使用して、前記表示画像において前記オブジェクトの画像を構成する画素の値を決定する画素値決定部と、
    前記表示画像のデータを出力する出力部と、
    を含み、
    対象画素について、前記画素値決定部が、
    前記オブジェクト上の前記対象画素の位置に対応する基準画像上の位置を決定し、
    前記基準画像上の前記決定された位置に対応する前記多角形識別を取得し、
    前記取得された多角形識別を、前記オブジェクト上の前記対象画素の前記位置に対応する多角形の多角形識別と比較し、
    前記比較された多角形識別が一致する場合に前記基準画像を選択する、
    ように構成される、
    ことを特徴とする、請求項1から8のいずれか一項に記載の画像生成装置。
  10. 表示されるべきオブジェクトを含む空間が複数の候補基準視点のうちの1つから見られたときの画像を各々表す試験画像をレンダリングするステップと、
    前記候補基準視点の重要度値を、少なくとも、前記空間内の点の前記候補基準視点の比較的カバレッジの関数として評価するステップと、
    重要度値が低い1つまたは複数の候補基準視点の位置を変更し、候補基準視点を評価するステップから再評価を取得し、前記空間内の点の候補基準視点の比較的カバレッジが増加した場合には、前記候補基準視点の前記位置を元に戻さないステップと、
    を含む、画像生成方法。
  11. 試験画像を、続いてレンダリングされる、最終的な基準視点に対応する基準画像よりも低い実効解像度を有するボクセルとしてレンダリングするステップ
    を含む、請求項10に記載の画像生成方法。
  12. 前記空間内のリストされた位置に対する候補視点の配列を維持するステップを含み、前記配列のフィールドが、所与の候補視点のレンダリングが所与のリストされた位置における点を含んでいたかどうかを表す、
    請求項10または11に記載の画像生成方法。
  13. 候補視点ごとに、
    前記配列から、前記空間内の点の前記カバレッジを示す、前記候補視点においてレンダリングされたリストされた位置の数を合計するステップと、
    それぞれの合計数の比較に応じて、前記空間の比較的カバレッジが低い1つまたは複数の視点を特定するステップと、
    を含む、請求項12に記載の画像生成方法。
  14. 1つまたは複数の候補基準視点の位置を、所定数の前記候補基準視点が、相互の閾値許容差内の点のそれぞれのカバレッジを各々有するようになるまで変更するステップ
    を含む、請求項10~13のいずれか一項に記載の画像生成方法。
  15. コンピュータシステムに、請求項10~14のいずれか一項に記載の方法を行わせるように構成されたコンピュータ実行可能命令を有するコンピュータ可読媒体。
JP2018245221A 2018-01-05 2018-12-27 画像生成装置および画像を生成する方法 Active JP7212519B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1800195.8 2018-01-05
GB1800195.8A GB2569979B (en) 2018-01-05 2018-01-05 Rendering a mixed reality scene using a combination of multiple reference viewing points

Publications (2)

Publication Number Publication Date
JP2019121394A JP2019121394A (ja) 2019-07-22
JP7212519B2 true JP7212519B2 (ja) 2023-01-25

Family

ID=61190470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018245221A Active JP7212519B2 (ja) 2018-01-05 2018-12-27 画像生成装置および画像を生成する方法

Country Status (4)

Country Link
US (1) US10848733B2 (ja)
EP (1) EP3509037B1 (ja)
JP (1) JP7212519B2 (ja)
GB (1) GB2569979B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7248901B2 (ja) * 2019-06-28 2023-03-30 サミー株式会社 弾球遊技機
JP7248898B2 (ja) * 2019-06-28 2023-03-30 サミー株式会社 弾球遊技機
GB2586838B (en) * 2019-09-05 2022-07-27 Sony Interactive Entertainment Inc Free-viewpoint method and system
KR102242710B1 (ko) * 2019-12-31 2021-04-22 서울과학기술대학교 산학협력단 반자유 시점 영상을 제공하는 장치
JP6892937B1 (ja) * 2020-02-03 2021-06-23 株式会社Cg工房 建築物表示システム、建築物表示方法及びプログラム
GB202109687D0 (en) * 2021-07-05 2021-08-18 Charcoalblue Llp Determination of seating arrangements
CN114463104B (zh) * 2022-04-12 2022-07-26 贝壳技术有限公司 用于处理vr场景的方法、装置和计算机可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099665A (ja) 2014-11-18 2016-05-30 株式会社東芝 視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042169A (ja) * 2000-07-06 2002-02-08 Infiniteface.Com Inc 三次元画像提供システム及び方法並びにモーフィング画像提供システム及び方法
US7567248B1 (en) * 2004-04-28 2009-07-28 Mark William R System and method for computing intersections between rays and surfaces
RU2454025C2 (ru) * 2006-12-19 2012-06-20 Конинклейке Филипс Электроникс Н.В. Способ и система для преобразования двухмерного видео в трехмерное видео
KR20140113066A (ko) * 2013-03-15 2014-09-24 한국전자통신연구원 차폐 영역 정보를 기반으로 하는 다시점 영상 생성 방법 및 장치
CN104298758A (zh) * 2014-10-22 2015-01-21 天津大学 一种多视角目标检索的方法
US10102672B2 (en) * 2015-03-16 2018-10-16 Square Enix Co., Ltd. Storage medium, information processing apparatus and control method
JP6097377B1 (ja) * 2015-11-27 2017-03-15 株式会社コロプラ 画像表示方法及びプログラム
EP3223245B1 (en) * 2016-03-24 2024-04-24 Ecole Nationale de l'Aviation Civile Point of view selection in virtual 3d environment
KR102535031B1 (ko) * 2017-07-19 2023-05-22 삼성전자주식회사 디스플레이장치, 그 제어방법 및 그 컴퓨터프로그램제품

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099665A (ja) 2014-11-18 2016-05-30 株式会社東芝 視点位置算出装置、画像生成装置、視点位置算出方法、画像生成方法、視点位置算出プログラム、及び、画像生成プログラム

Also Published As

Publication number Publication date
GB201800195D0 (en) 2018-02-21
GB2569979A (en) 2019-07-10
US10848733B2 (en) 2020-11-24
GB2569979B (en) 2021-05-19
EP3509037A1 (en) 2019-07-10
US20190215504A1 (en) 2019-07-11
EP3509037B1 (en) 2021-10-06
JP2019121394A (ja) 2019-07-22

Similar Documents

Publication Publication Date Title
JP7212519B2 (ja) 画像生成装置および画像を生成する方法
JP7364809B2 (ja) レイキャスティングおよびライブ深度を使用したオクルージョンレンダリングの方法
JP6824579B2 (ja) 画像生成装置および画像生成方法
US11663778B2 (en) Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display
CN110889890A (zh) 图像处理方法及装置、处理器、电子设备及存储介质
US11315309B2 (en) Determining pixel values using reference images
EP3827299A1 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
JP6934957B2 (ja) 画像生成装置、基準画像データ生成装置、画像生成方法、および基準画像データ生成方法
JP6980031B2 (ja) 画像生成装置および画像生成方法
JP2020173529A (ja) 情報処理装置、情報処理方法、及びプログラム
US11893705B2 (en) Reference image generation apparatus, display image generation apparatus, reference image generation method, and display image generation method
WO2019193698A1 (ja) 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
WO2019193699A1 (ja) 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
JP2021028853A (ja) 電子コンテンツのデータ構造

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230113

R150 Certificate of patent or registration of utility model

Ref document number: 7212519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150