JP6260924B2 - レーザスキャンデータの画像レンダリング - Google Patents

レーザスキャンデータの画像レンダリング Download PDF

Info

Publication number
JP6260924B2
JP6260924B2 JP2016533620A JP2016533620A JP6260924B2 JP 6260924 B2 JP6260924 B2 JP 6260924B2 JP 2016533620 A JP2016533620 A JP 2016533620A JP 2016533620 A JP2016533620 A JP 2016533620A JP 6260924 B2 JP6260924 B2 JP 6260924B2
Authority
JP
Japan
Prior art keywords
map
scan data
patch
laser
displacement map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016533620A
Other languages
English (en)
Other versions
JP2017505471A (ja
Inventor
フリードマン、アーロン
エルトン、ポール
Original Assignee
アヴィバ ソリューションズ リミテッド
アヴィバ ソリューションズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アヴィバ ソリューションズ リミテッド, アヴィバ ソリューションズ リミテッド filed Critical アヴィバ ソリューションズ リミテッド
Publication of JP2017505471A publication Critical patent/JP2017505471A/ja
Application granted granted Critical
Publication of JP6260924B2 publication Critical patent/JP6260924B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • G06T15/405Hidden part removal using Z-buffer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Description

本発明は、レーザスキャンデータの画像をレンダリングする方法およびシステムに関する。
3次元レーザスキャナは、プロセスプラント、船舶または他の施設等の環境を調査するために使用され得る。典型的なスキャナは、スキャナとビュー内にある表面上のポイントとの間の距離を測定し得るレーザ距離計を含む。視野全体(通常、水平方向に360度、鉛直方向にほぼ180度)を一斉にスイープすることによって、スキャナは、周囲環境についての一式のレンジ(本明細書において「レーザスキャンデータ」と称される)をキャプチャし得る。これらは、3次元空間において、「ポイントクラウド」としばしば称されるポイントのセットを生成するために使用され得る。ポイントクラウドの例は、EP1 176 393 A2に記載されている。
複数のスキャンは、環境における複数の異なる位置で実行され得、複数の異なるスキャンからの複数のポイントクラウドが、より広いエリアをカバーする複合(または「統合」)ポイントクラウドを生成するべく、組み合わされ得る。ポイントクラウドデータを組み合わせることの例は、WO2004/003844 A1において見つけことができる。
レンジデータを取得することに加え、スキャナは、また、反射したレーザ光の強度を測定するか、またはカメラを使用することによっても周囲環境の複数の画像をキャプチャし得る。
1または複数のポイントクラウドおよび複数の画像は、ポイントクラウド・ビューアー・アプリケーションまたは3次元コンピュータ支援設計(CAD)アプリケーションを使用して環境を可視化および/または解析するために使用され得る。通常、これらのアプリケーションは、2つのカテゴリ、すなわち、複数の個々のスキャンからの複数のポイントで機能するものと、複数のスキャンから組み合わされた複数のポイントで機能するものとに該当する。
レーザスキャンの複数の最も単純な応用の1つは、個々のスキャンによってキャプチャされた画像を表示することである。レーザスキャンからの画像は球状であり、レーザスキャナの周囲のエリアを対象に含めることから、ソフトウェアアプリケーションは画像を球体内へとマッピングし得る。アプリケーションは、球体の一部をコンピュータスクリーンに表示し得る。
ユーザは、全体画像の異なる複数の部分を見るべく、ビューを回転させ得る。この表示は、「バブルビュー」と呼ばれる。
バブルビューにおいて、ユーザは、画像上においてスポットを選択し得、そのレーザスキャンのポイントクラウドデータを使用してその位置の3次元座標を取得し得る。2つのポイントを選択することによって、ユーザは、複数の距離を測定し得る。
1つのタイプのアプリケーションは、バブルビューにおいて3次元CADモデルを重ねることができる。アプリケーションは、バブルビューにおける複数のポイントの3次元位置を知っていることから、それは、バブルビューの背後のCADモデルの適切な複数の部分を不明瞭にし得る。この組み合わせられた画像は、施設の新しい複数のエリアを設計する場合に有用であり得る。
バブルビューの魅力的な特徴は、それがリアルに見えることである。リアリズムは、スキャナ位置でキャプチャされた画像によってもたらされる。しかしながら、複数のバブルビューの制限は、それらが、レーザスキャナが配置された複数の位置に対してのみ生成され得ることである。ユーザは、バブルビューを選択し、左右に、または上下に回転させ得るが、彼/彼女は、異なる視点から環境を見るべく、前方向、後方向、水平方向または鉛直方向には移動できない。
フリーローミングを可能にするべく、いくつかのソフトウェアアプリケーションは、複数のスキャンから組み合わされたポイントクラウドと連携する。そのようなアプリケーションを使用し、ユーザは、施設内の位置および見る方向を選択する。アプリケーションは、次に、ユーザの視点からその位置の周囲の組み合わされたポイントクラウドにおける各ポイントを表示する。ユーザは、複数の異なる視点から複数のポイントを見るべく、見る位置および方向を移動させ得る。
いくつかのアプリケーションは、組み合わされたポイントクラウドと同じ3次元空間におけるCADモデルとして表示し得る。ユーザは、次に、CADモデルにおける複数の位置とポイントクラウドにおける複数のポイントとの間の複数の距離を測定し得る。ユーザは、また、ポイントクラウドの複数の部分がCADモデルの複数の部分と交差するかどうかも判断し得る。
組み合わされたポイントクラウドを表示することにより、ユーザは1より多くの視点から複数のポイントを見ることが可能になるものの、このアプローチは、1または複数の欠点を有し得る。
複数の個々のポイントの表示は、計算的に費用が高くなる傾向がある。複数の近い距離でスキャンされた表面の描写において複数の空隙が生じ得ることから、複数の表面を判別することは困難になり得る。
本発明の第1の態様に従って、3次元レーザスキャンデータの画像をレンダリングする方法が提供される。方法は、所定のスキャンについてのレーザスキャンデータのセットを球状変位マップとして提供する段階と、球状変位マップをサンプリングすることによってテッセレーションパターンを生成する段階とを備える。方法は、テッセレーションパターンを使用して画像をレンダリングする段階を備える。
所定のスキャンのためのレーザスキャンデータを(複数のスキャンのためのレーザスキャンデータを統合することとは対照的に)ポイントのセットとして保つことによって、およびレーザスキャンデータがグラフィックスシステムによって直接処理され得る変位マップの形で提供され得るという事実をうまく利用することによって、レーザスキャンデータの画像は、効率的におよび/または素早くレンダリングされ得る。これは、複数のスキャンからの複数の画像を組み合わせる場合に特に有用であり得る。なぜならば、各スキャンは独立して処理され得、複数の異なるスキャンからの複数の画像は、共通のバッファにおいて容易に組み合わされ得るからである。これにより、複数の静止画像のみならず、例えばユーザが環境を「通って歩く」ことから、複数の動画の効率的/迅速なレンダリングもまた可能になる。
所定のスキャンのためのレーザスキャンデータのセットを、球状変位マップとして提供する段階は、所定の位置でレーザスキャナによって生成されるレーザスキャンデータのセットを受信する段階と、レーザスキャンデータから所定の方位角および所定の仰角における所定のレーザスキャンポイントについてのレンジの値を、所定の方位角および所定の仰角に対応するテクセル位置における2次元テクスチャ(またはより高い次元のテクスチャ)のそれぞれのテクセルにコピーする段階とを備えてよい。
方法は、テッセレーションパターンを生成するグラフィック処理ユニット(GPU)を備えてよい。しかしながら、方法は、テッセレーションパターンを生成する中央演算処理装置(CPU)を備えてもよい。
処理装置は、マイクロソフト(登録商標)DirectX(登録商標)11(またはより最新)またはOpenGL4.4(またはより最新の)アプリケーション・プログラミング・インタフェース(API)を使用して構成されてよい。
方法は、さらに、球状変位マップにおける複数の隣接するポイント間における複数の不連続性を識別する段階と、複数の隣接するポイントをマーク付けする段階とを備えてよい。複数の隣接するポイントをマーク付けする段階は、変位値を、0または−1等、予め定められた数に設定する段階を備えてよい。
方法は、さらに、上記球状変位マップに基づいて法線マップを生成する段階を備えてよい。変位マップおよび法線マップは、1つのテクスチャに組み合わされてよい。1つのテクスチャは、少なくとも4個のチャネルを備えてよい。
法線マップを生成する段階は、球状変位マップにおける各ポイントについての法線を算出する段階と、法線マップに法線を格納する段階とを備えてよい。法線は、第1、第2および第3のベクトル成分値を備えてよい。
方法は、さらに、球状変位マップに基づいて混合テクスチャを生成する段階を備えてよい。混合テクスチャは、複数の混合テクセルのアレイを備えてよく、各混合テクセルは、不連続からの距離に依存する値を有する。
方法は、所定のスキャンについて複数のパッチを有するパッチマップを生成する段階をさらに備えてよい。
パッチマップは、複数の多角形のパッチを備えてよく、各パッチは、3またはそれより多くの頂点を有する。複数のパッチは、同じ形状であってよい。複数のパッチは、同じサイズであってよい。複数のパッチは、長方形であってよい。複数のパッチは長方形である場合、パッチマップは、複数の向かい合った頂点の位置を有してよい。
複数のパッチの位置、形状および/またはサイズは、球状変位マップの複数の不連続に依存してよい。
パッチマップは、各パッチについての相対テッセレーションレベルを含んでよい。方法は、複数の不連続性に基づいて所定のパッチの相対テッセレーションレベルを設定する段階を備えてよい。方法は、所定のパッチの全域にわたる正常変動量に基づいて所定のパッチの相対テッセレーションレベルを設定する段階を備えてよい。
方法は、所定のパッチのビュー位置および/または可視性に基づいて所定のパッチについて絶対テッセレーションレベルを算出する段階を備えてよい。
方法は、さらに、テッセレーションパターンにおける三角形の頂点形成部分が、不連続に隣接しているとしてマーク付けされているかどうかを判断する段階、および頂点が無効であると判断する段階に基づいて、三角形をカリング(culling)(または「破棄」)する段階を備えてよい。
方法は、さらに、スキャンについて画素のセットを生成する段階、および深度テストを実行する段階を備えてよい。
方法は、画素の法線に基づいて画素を着色する段階を備えてよい。方法は、画像の対応する部分における強度および/または色に基づいて画素を着色する段階を備えてよい。
方法は、1より多くのレーザスキャンデータのセットを提供する段階を備えてよく、レーザスキャンデータのセットの各々は、それぞれのスキャンに対応する。レーザスキャンデータのセットの各々は、それぞれの球状変位マップとして提供される。方法は、複数の異なるスキャンからレンダリングされた複数の画像を組み合わせる段階を備えてよい。複数の異なるスキャンからの複数のレンダリングされた画像を組み合わせる段階は、深度バッファを使用する段階を備えてよい。
本発明の第2態様に従って、方法を実行するための複数の命令を備えるコンピュータプログラムが提供される。
本発明の第3態様に従って、コンピュータプログラムを格納しているコンピュータ可読媒体または非一時的コンピュータ可読媒体が提供される。
本発明の第4態様に従って、メモリおよび少なくとも1つの処理装置を有するコンピュータシステムが提供される。メモリは、所定のスキャンのためのレーザスキャンデータのセットを球状変位マップとして格納し、少なくとも1つの処理装置は、球状変位マップをサンプリングすることによってテッセレーションパターンを生成するように構成されている。
少なくとも1つの処理装置は、少なくとも1つの図形処理装置を備えてよい。少なくとも1つの処理装置は、少なくとも1つの中央演算処理装置を備えてよい。少なくとも1つの処理装置は、1つの処理装置、例えば1つのグラフィック処理ユニットを備えてよい。
少なくとも1つの処理装置は、マイクロソフト(登録商標)DirectX(登録商標)11(またはより最新の)アプリケーション・プログラミング・インタフェースを使用して構成可能であってよい。少なくとも1つの処理装置は、OpenGLアプリケーション・プログラミング・インタフェースを使用して構成可能であってよい。
本発明の複数の特定の実施形態が、ここで、複数の添付の図面を参照して例を手段として記載されるであろう。
レーザスキャンデータを取得し処理し、且つ画像をレンダリングするためのシステムの概略ブロック図である。 レーザスキャンデータを処理し、画像をレンダリングするために使用され得るコンピュータシステムの概略ブロック図である。 レーザスキャンデータを処理する方法の処理フロー図である。 球状変位マップの生成を示す。 2つの表面の間における不連続を示す。 不連続をマーク付けするための球状変位マップを更新する段階を示す。 法線マップの生成を示す。 混合マップの生成を示す。 複数の規則的な、長方形のパッチの配置を示す。 複数の不規則な長方形のパッチの配置を示す。 複数の不規則な非長方形のパッチの配置を示す。 パッチマップを示す。 パッチマップに対する相対テッセレーションデータを追加する段階を示す。 グラフィックパイプラインおよびグラフィックメモリの概略ブロック図である。 ハルシェーダの出力を示す。 パッチについてのテッセレーションレベルを示す。 テッセレーションシェーダの出力およびドメインシェーダの入力を示す。 変位マップおよび法線マップを含むテクスチャを使用してドメインシェーダの動作を示す。 ドメインシェーダからの頂点リストの出力を示す。 複数の無効な三角形を選抜除去するジオメトリシェーダの動作を示す。 ラスタライザーの動作を示す。 画素シェーダの動作を示す。 深度テストの処理フロー図である。 複数のスキャンの並列処理を示す。 複数のスキャンから生成された組み合わされたポイントクラウドを示す。 図25に示されるポイントクラウドの一部の拡大図である。 図25に示されるポイントクラウドの複数の個々のスキャンから生成された、組み合わされテッセレーションされた画像を示す。 図26に示されるテッセレーションされた画像の一部の拡大図である。 図26に示されるテッセレーションされた画像の他の部分の拡大図である。 図26に示されるテッセレーションを使用して生成された、組み合わされレンダリングされた画像を示す。 異なる視点から図25に示されるポイントクラウドの複数の個々のスキャンから生成された、組み合わされレンダリングされた画像を示す。
システム概要 図1を参照すると、レーザスキャンデータを生成し処理し、画像をレンダリングするためのシステム1が示される。
システム1は、多数の標的表面4を含む環境3を調査するための1または複数の3次元レーザスキャナ2を含む。その、またはそれぞれのレーザスキャナ2は、レーザスキャンデータ6を生成する(本明細書において、単に「スキャンデータ」と称される)レーザスキャニングユニット5、画像データ8を、例えばJPEGファイルの形式で生成するために使用され得るオプションのカメラ7、およびデータ6、8を格納するための内蔵(on−board)記憶装置9を含む。その、またはそれぞれのレーザスキャナ2は、例えばデータをフォーマットするべく、レーザスキャンデータ6を処理するために使用され得る1または複数のプロセッサ10およびメモリ11を含む。別々のコンピュータシステム(図示せず)が、データを処理するために使用され得る。
レーザスキャニングユニット5は、所定の方向(すなわち、所定の水平方向の角度および所定の鉛直方向の角度)においてパルス状のレーザビーム12を放射することによってポイントのスキャンデータ6の要素を生成し、標的表面4から反射され、レーザスキャナ2へ戻る反射ビーム13を感知し、レーザビーム12、13の飛行時間に基づいて標的表面4へのレンジを決定する。スキャンデータ6のセットは、スキャナ2の周囲にポイントのセットを構築するように、レーザビーム12を水平方向および鉛直方向にスキャンすることによって取得され得る。スキャンデータ6におけるそれぞれのポイントは、デカルト座標のセット、すなわちそれぞれのポイント(x,y,z)において表現される形で提供される。データ6のセットにおける複数のポイントは、方位角および仰角によって順序付けられる。
スキャンデータ6、およびオプションとして画像データ8は、テクスチャ18、19、20、21のセット17、単一のテクスチャ22へと組み合わされるいくつかのテクスチャ、およびそれぞれのスキャンのためのパッチマップ23を生成するスキャンデータ処理モジュール16を含むコンピュータシステム15に供給される。コンピュータシステム15は、また、データを格納するための1または複数のハードドライブの形で記憶装置24を含む。1または複数のハードドライブは、複数のハードディスクドライブ、ソリッドステートドライブ、光学ドライブまたは他の形式の適した記憶装置であってよい。
後により詳細に説明されるように、テクスチャ17のセットは、(本明細書において、深度マップともまた称される)球状変位マップ18およびスキャンデータ6から得られた法線マップ19を含む。後により詳細にまた説明されるように、変位マップ18および法線マップ19は、単一の、4チャネルテクスチャ22(本明細書において「組み合わされたテクスチャ」と称される)で組み合わされる。
テクスチャ17のセットは、混合マップ20を含み得る。テクスチャ17のセットは、画像データ8から取得されたカラーマップ21を含み得る。
コンピュータシステム15は、ユーザ入力デバイス25(マウスおよび/またはキーボード等)、レンダリングシステム26およびユーザ入力デバイス25を介してユーザによって供給される視点29からの画像28を表示するためのディスプレイ27を含む。レンダリングシステム26は、テクスチャ17のセットおよび1または複数の異なるスキャンから取得されたパッチマップ23を使用して複数の三角形に分割された3次元表面を生成し、任意の視点から複数の表面をリアルタイムで1または複数のスキャンから取得された複数の表面を画像28において組み合わせてレンダリングする。
スキャンデータ処理モジュール16およびレンダリングシステム26は、複数の異なるコンピュータシステムで実装されてよい。例えば、スキャンデータ処理モジュール16は、レーザスキャナ2によって全体または部分的に実装されてよい。代替的に、レーザスキャナ2は、変位マップ18を生成してよく、第1のコンピュータシステムは、1または複数の他のテクスチャ19、20、21およびパッチマップ23、あるいはパッチマップ23のみを生成してよく、1または複数のテクスチャ18、19、20、21およびパッチマップ23を、レンダリングシステム26を実装する第2のコンピュータシステムに供給してよい。
また、図2も参照すると、コンピュータシステム15は、より詳細に示される。
コンピュータシステム15は、それぞれのメモリキャッシュ(図示せず)を有する1または複数の中央演算処理装置(CPU)31、システムメモリ32、グラフィック処理ユニット(GPU)34および(「ビデオRAM」と称されてよい)グラフィックメモリ35を含む、例えばグラフィックカードの形でグラフィックモジュール33、およびバス37によって動作可能に接続された入出力(I/O)インタフェース36を含む。適しているグラフィックモジュール33の例は、1GBのビデオRAMを持つNVIDIA(登録商標)GeForce460GPUである。
I/Oインタフェース36は、その、またはそれぞれのスキャナ2からスキャンデータ6を受信するためのバスおよび/または1または複数のネットワークインタフェース38(USBインタフェースまたはWLANインタフェース等)に動作可能に接続されている。I/Oインタフェース36は、また、ユーザ入力デバイス25および記憶装置24に、例えば1または複数のハードディスクドライブおよび/またはソリッドステートドライブの形で動作可能なように接続されている。着脱可能記憶装置等のいくつかの周辺機器および他の複数のコンピュータ構成要素は図示されていない。コンピュータシステム15は、図2に示されるものとは異なる構成を有してよい。
スキャンデータ処理モジュール16は、ソフトウェアにおいて実装される。スキャンデータ処理モジュール16を実施するためのコンピュータコード39は、記憶装置24において保持され、1または複数のCPU31による実行のためのメモリ32へとロードされる。
レンダリングシステム26は、好ましくは、GPUの複数の向上されたグラフィック処理能力、特にテッセレーションをうまく利用するようにGPUを使用して実装される。しかしながら、レンダリングシステム26は、1または複数のCPUを使用して実装され得る。
後により詳細に説明されるように、レンダリングシステム26は、プログラマブルであり、一定の機能のシェーダ61、62、63、64、65、67、68およびラスタライザー66を含む複数のモジュール61、62、63、64、65、66、67、68(図14)を含むグラフィックパイプライン60(図14)を実装する。
スキャン処理 図1、図2および図3を参照し、スキャンデータ処理モジュール16の動作が、ここでより詳細に記載されるであろう。
モジュール16は、バスまたはネットワーク(図示せず)、またはポータブル記憶装置(図示せず)を介してスキャナ2から、および/または記憶装置24から、スキャンについてのスキャンデータ6のセットをロードする(段階S1)。スキャンデータ6は、デカルト座標にあることから、モジュール16は、スキャンデータ6を球状変位マップ18として変換し、格納する(段階S2)。
また、図4も参照すると、球座標系41が示されている。球座標系41は、原点42(すなわち、スキャナ2における基準点)および水平および鉛直方向の基準軸43、44を含む。図4に示されるように、スキャナ2は、原点42と標的表面4上(図1)のポイント45との間の距離(または「レンジ」)di,jをキャプチャする。
スキャンについてのスキャンデータ6は、テクスチャ22にコピーされる。テクスチャ22は、複数のテクスチャ要素(または「テクセル」)46の2次元アレイを含む(u,v)マップの形を取る。それぞれのテクセル46は、第1、第2、第3および第4の要素46、46、46、46を有する。
先に説明されたように、テクスチャ22は、4個のチャネルを有する。第1のチャネルは、変位マップ18を格納し、第2、第3および第4チャネルは、法線マップ19を格納する。
テクスチャ22の水平軸uは、レーザスキャナ2の水平方向の角度(または「方位角」)に比例する。テクスチャの鉛直軸vは、レーザスキャナ2の鉛直方向の角度(「仰角」)に比例する。それぞれのテクセル46は、スキャンにおけるポイントのレンジの値をその(u,v)位置に対応する方位角および仰角で深度、di,jとして格納する。よって、レンジの複数の値は、テクスチャ22に格納される場合、レーザスキャンの球状変位マップ18を提供する。
RGB成分値の形としての画像データ8は、同様のやり方でカラーマップ21にコピーされ得る。
図1、図2、図3、図5および図6を参照すると、スキャンデータ処理モジュール16は、特定された閾値ΔdTHを超える深度の差Δdを持つ複数の隣接するテクセル46を探すことによって変位マップ18において何らかの不連続があるかどうかを判断するべく複数のテクセル46を検査し、もし不連続がある場合、その位置がテッセレーションされないように不連続をマーク付けする(段階S3)。不連続は、0または−1等、予め定められた数を使用してマーク付けされる。
変位マップ18は、球状であって、レーザスキャナ2の視点から取られる。よって、球状変位マップ18における複数の隣接するテクセル46間の不連続は、レーザスキャナ2が1つの表面48から他の表面48まで移動した領域または線47を表す。従って、このエリアでは表面は描かれるべきでない。
例えば、図5に示されるように、2つの隣接するスキャンポイントが、縁47の何れかの側に収まる。図6に示されるように、対応するテクセル46は、例えば、それぞれ深度値855および22を有する。閾値ΔdTHは、例えば300であってよい。よって、深度の差Δd=855‐22=833およびΔd>ΔdTHであるから、モジュール16は両方の値をゼロに等しく設定することによって不連続をマーク付けする。
u方向および/またはv方向における複数の隣接するテクセル46が比較され得る。
図1、図2、図3および図7を参照すると、スキャンデータ処理モジュール16は、変位マップ18から法線マップ19を生成し、法線マップ19を格納する(段階S4)。
変位マップ18における各テクセル46について、モジュール16は、テクセル46によって表される球座標からデカルト座標を算出する。モジュールは、デカルト座標において、テクセル46に隣接している、複数の水平方向の隣接するテクセル46間の第1ベクトルと複数の鉛直方向の隣接するテクセル46間の第2ベクトルとの外積を取ることによって、所定のテクセル46の法線49(図7で網掛けされて示される)を算出する。モジュール16は、不連続にわたって法線49を算出しない。
モジュール16は、法線49のx、yおよびz成分(n,n,n)を第2、第3および第4の要素46、46、46におけるテクセル46に格納する。
図1、図2、図3および図8を参照すると、スキャンデータ処理モジュール16は、オプションとして、不連続の近くの表面の縁を滑らかにするために使用される情報を含む混合テクスチャ20を生成し得る(段階S5)。
混合テクスチャ20における各テクセル50は、0と1との間の範囲に存在する混合値sを含む。
スキャンデータ処理モジュール16は、不連続に沿った複数のポイントに対応する変位マップ18において複数のテクセル46を識別し、混合テクスチャ20における複数の対応するテクセル50が0の混合値を有する(すなわち、uおよびvと同じ値を有する)ように設定する。スキャンデータ処理モジュール16は、混合テクスチャ20、すなわち徐々に増える複数の値を通って徐々に伝播する複数の混合値をさらに生成する。例えば、図8に示されるように、0.5という値が、不連続に最も近い隣りのテクセル50に与えられ、0.8という値が、2番目に最も近い隣りのテクセル50に与えられ、1という値が3番目に最も近い隣りのテクセル50に与えられる。
図1、図2、図3および図9を参照すると、スキャンデータ処理モジュール16は、スキャンを複数のパッチ51へと分け、パッチマップ23を格納する(段階S6)。
各パッチ51は、(u,v)座標において複数のテクスチャのスキャンの領域を定義する。各パッチは、頂点52のセットを有する。
複数のパッチ51は、任意の形状であり得、スキャンにおいて規則的または不規則に分配され得る。複数のパッチ51の形状および位置は、予め定められているか、または複数の不連続の複数の位置または複数の法線の変動量等、スキャンの任意の態様に基づいてよい。
例えば、図9は、全てが同じ形状およびサイズである複数の長方形のパッチ51の配置を示す。
他の例において、図10は、複数の不連続47の位置を考慮する異なるサイズの複数の長方形のパッチ51の配置を示す。例えば、図10に示されるように、複数の一定サイズのパッチ51を使用する代わりに、スキャンデータ処理モジュール16は、不連続がパッチ51内に見つかるかどうかに従って、より大きいパッチ51をより小さいパッチ51、51、51、51、51に分けてよい。
さらに他の例において、図11は、スキャンデータ処理モジュール16が、分岐する不連続47を考慮する複数の縁を有する(例えば、それと一直線になっている)非長方形のパッチ51、51、51、51を生成する配置を示す。明確にするため、パッチ51、51、51、51の複数の外側の縁が、先を切断されて示され、それにより、それらは直線で鉛直のまたは水平の複数の縁として見える。しかしながら、複数のパッチは、先を切断される必要はなく、例えば図11のパッチ51の鎖で示されるような不規則な輪郭を有し得ることは理解されるであろう。
図12をまた参照すると、パッチ51のそれぞれについて、要素54のセットは、各パッチ51のパッチマップ23に格納され、各要素54は、パッチ頂点52の位置を有する。長方形のパッチ51(図9に示されるもの等)の場合、パッチ51は、2つの頂点52のみ、例えば左上および右下の頂点52を使用して特定され得る。しかしながら、特に複数の不規則な形状のパッチについては、2より多くの要素54があってよい。
図1、図2、図3および図13を参照すると、モジュール16は、各パッチ51の相対テッセレーションレベル55を算出する(段階S7)。
相対テッセレーションレベル55は、パッチ51が他の複数のパッチ51に対してどの程度テッセレーションされるかを表す。絶対テッセレーションレベルは、ビューに依存するファクタまたは他の複数のファクタが適用された後、後に算出される。相対テッセレーションレベル55は、予め定められているか、または複数の不連続の位置もしくは複数の法線の変動量等、パッチの任意の態様に基づいてよい。
変位マップ18、法線マップ19、混合テクスチャ20およびパッチマップ23は、各スキャンにつき一回生成され得、後の使用のために格納され得る。
レンダリング 図1、図2および図14を参照すると、スキャンデータ処理モジュール16は、各スキャンのためのテクスチャ18、19、20およびパッチマップ23をレンダリングシステム26にロードする。
レンダリングシステム26は、パッチマップ23における情報を使用して、スキャンの1または複数のテッセレーションされた表面を生成するために使用される。テッセレーションをサポートするレンダリングシステムが使用され得る。好ましくは、毎秒1億個の三角形またはそれより速い速度で処理するレンダリングシステムが使用される。レンダリングシステムは、CPUまたはGPUにおいて実行され得る。
レンダリングシステム26は、GPU34で実行されるマイクロソフト(登録商標)DirectX11(登録商標)を利用する。しかしながら、OpenGL4.x等の他の複数のグラフィックスシステムが使用され得る。
テクスチャ18、19、20およびパッチマップ23は、レンダリングシステム26によって効率的に処理され得る形で格納される。
テクスチャ18、19、20は、複数の2次元テクスチャ資源として格納され、パッチマップ23は、一制御ポイントのパッチリストのトポロジーを持つ頂点バッファとして格納される。先に説明されたように、変位および法線マップ18、19は、4個のチャネルを持つ組み合わされたテクスチャ22に組み合わされる。
テクスチャ18、19、20および頂点バッファ23、すなわちパッチマップ23は、GPU34に送信される。
図14を参照すると、グラフィックスシステム用のグラフィックパイプライン60が示されている。グラフィックパイプライン60は、頂点シェーダ61、ハルシェーダ62、テッセレーションシェーダ63(本明細書においては、また、単に「テッセレータ」とも称される)、ドメインシェーダ64、ジオメトリシェーダ65、ラスタライザー66、画素シェーダ67および出力合併ステージ68を含み、出力合併ステージ68は、数ある中で、深度バッファ69(また、「zバッファ」とも称される)と併せて深度テストを実行する。
OpenGLにおいて、ハルシェーダは、「テッセレーション制御シェーダ」と称され、テッセレーションシェーダは「プリミティブジェネレータ」と称され、ドメインシェーダは「テッセレーション評価シェーダ」と称され、画素シェーダは、「断片シェーダ」と称される。
図14および図15を参照すると、頂点バッファ23における各パッチ51は、ハルシェーダ62によって処理される。ハルシェーダ62は、各パッチ51の絶対テッセレーションレベル70を算出する。テッセレーションレベル70は、予め定められているか、または視点29からのパッチ51の距離またはその可視性等、1または複数のファクタに基づいてよい。パッチ51の相対テッセレーションレベル55が、考慮されてよい。
この例において、各パッチ51の絶対テッセレーションレベル70は、視点28および相対テッセレーションレベル55に基づいて算出される。ハルシェーダ62は、また、隣の複数のパッチ51のテッセレーションレベルに一致するように、パッチ51の縁の周囲でテッセレーションレベルを調節する。これは、複数のパッチ51にわたって連続的なテッセレーションを生成する。
図16および図17もまた参照すると、テッセレーションシェーダ63は、各パッチ51のそれぞれのテッセレーションパターン71を生成する一定の機能のモジュールである。
テッセレーションシェーダ63は、ハルシェーダ62によって算出される絶対テッセレーションレベル70に基づいてテッセレーションパターン71(本明細書においては「テッセレーションされたパッチ」と称される)を生成する。テッセレーションパターン71は、複数の三角形72から成る。テッセレーションパターン71における複数のポイント73は、組み合わされたテクスチャ22内にそれらの(u,v)座標を含む。
図17に示されるように、テッセレーションシェーダ63は、各パッチ51を構成する複数の三角形72の複数のポイント73の座標を載せるポイントリストの形でテッセレーションパターン71を出力する。それぞれの(u,v)ポイント73は、一度に一個ずつドメインシェーダ64に送信される。
図18および図19をまた参照すると、それぞれのパッチ51におけるそれぞれのポイント73は、ドメインシェーダ64によって処理される。
ドメインシェーダ64は、組み合わされた深度/法線テクスチャ22をサンプリングし、複数のテッセレーションされたポイントを3次元空間へと投影する。
ドメインシェーダ64は、パッチ51においてテッセレーションパターン71における各ポイント73の位置を算出する。
ドメインシェーダ64は、深度および法線の値を取り出すべく、ポイント73の(u,v)座標における組み合わされた深度/法線テクスチャ22をサンプリングする。サンプルが不連続の隣にあるテクセル46を含む場合、そのポイントは無効とマーク付けされる。
ドメインシェーダ64は、パッチ51における情報を使用して(u,v)座標から方位角および仰角を算出する。ドメインシェーダ64は、次に、球座標(すなわち方位角、仰角、深度)を、直接または(図18に示されるように)段階的の何れかでビュー座標74へと変換する。すなわち、それは、球座標を、スキャンの座標系におけるデカルト位置75へと変換し、次に、その位置および法線を、世界座標へと転換し、そして次にビュー座標74へと転換する。座標74は、頂点リスト76の形で出力される。
ドメインシェーダ64は、(球状)変位マップ19で特定された深度によって球状表面上の複数のポイントを効果的にずらす。
図20を参照すると、テッセレーションされたパッチ71におけるそれぞれの三角形72は、次に、ジオメトリシェーダ65によって処理される。ジオメトリシェーダ65は、複数の不連続において複数の三角形72をカリングする。ジオメトリシェーダ65は、三角形72が任意の無効の頂点77を含むかどうかを判断する。頂点74は、不連続の隣にある場合、無効である。無効な頂点77が存在する場合、ジオメトリシェーダ65は、三角形72を破棄、すなわち無効な三角形78を破棄する。ジオメトリシェーダ65は、また、三角形72がレーザスキャナ位置に対して過度に傾斜した角度にあるかどうかを判断する。そうである場合、三角形72もまた破棄される。ジオメトリシェーダ65は、更新された頂点リスト79を出力する。
図21を参照すると、ラスタライザー66は、更新された頂点リスト79におけるそれぞれの三角形72を、複数の画素81を有するラスタデータ80へと変換する。各画素81は、深度82の値を含む。
それぞれのラスタライズされた三角形72は、次に、画素シェーダ67によって処理される。
図22を参照すると、画素シェーダ67は、画素81が不連続47(図5)に過度に近いかどうかを判断するべく、混合テクスチャ20をサンプリングする。画素81が不連続に過度に近い場合、それは破棄される。画素シェーダ67は、画素81で法線49(図7)を取り出すべく、組み合わされた深度/法線テクスチャ22をサンプリングする。画素シェーダ67は、世界空間において、法線49
(図7)をベクトル(図示せず)へと転換する。画素シェーダ67は、画素81の色83を算出し、各画素81の深度82および色83を含むためのラスタデータ84を出力する。
図14および図23を参照すると、複数のスキャンが1つの画像へとレンダリングされる場合、スキャンデータが深度バッファ69を使用して組み合わされ得る。
画素シェーダ67は、所定の位置およびオフセットで深度82をサンプリングすることによって深度の品質を測定し得る。画素シェーダ67は、同じスクリーン座標ではより高い品質の複数のサンプルを支持(favor)し得る。画素シェーダ67は、サンプルの品質を判断するべく、混合テクスチャ20および/または組み合わされた深度/法線テクスチャ22における情報を使用し得る。
出力合併ステージ68は、数ある中でも深度テストを実行する。
また、図24も参照すると、各画素81は、深度バッファ69における対応する画素に比較される(段階S11,S12およびS13)。入ってくる画素81が、深度バッファ69に格納されている対応する画素より小さい値の深度を有する場合、その入ってくる画素81は、バッファ69に書き込まれる(段階S14)。入ってくる画素81が、深度バッファ69に格納されている対応する画素より大きい値の深度を有する場合、その入ってくる画素81は破棄される(段階S15)。
数回のスキャンから生成された画素データは、同じ深度バッファ69に書き込まれ得、よって、数回のスキャンからのデータを有する画像が形成され得る。
図25から図28を参照すると、レーザスキャンデータを処理し、画像をレンダリングする方法が、処理中の複数の異なるステージにおける一式のスキャンについて示される。
図25は、複数のスキャンから生成されたポイントクラウドの画像91である。図25aは、図25において示される画像91の部分91aの拡大されたビューである。
画像91は、数ある中で、フロア92、天井93、貯蔵タンク94、3つの反応容器の列95、様々なパイプ96、4つの制御パネル97の列、天井93から吊り下がっているケーブルトレイ98、ライティングユニット99(または「照明」)および4つのパレット型液体貯蔵容器の列100を含むプロセスプラントの内側を示す。
図25aは、中央反応容器95、パイプ96および対応する制御パネル97のより詳細な図である。画像91、91aは、ポイントクラウドの複数のポイント45から形成される。この場合、各ポイント45は、スキャンの時にキャプチャされたそれぞれの色を有する。
図25aに示されるように、制御パネル97等の複数の比較的遠くの物体は、反応容器95等、複数の比較的近い物体がそれの前にあり、遠くの物体を不明瞭にするはずであるにもかかわらず、可視である。この効果は、画像が拡大される場合、より顕著になる。
図26は、図25に示されるポイントクラウドの複数の個々のスキャンから生成された、組み合わされテッセレーションされた画像101を示す。図26aおよび図26bは、図26に示される画像111の部分111a、111bの拡大図である。
図25aおよび図26bを参照すると、ポイントクラウドからの複数のポイント45は、複数の三角形72から成るテッセレーションパターン71を形成するために使用される。
図26bは、複数の異なるサイズを有する、言い換えれば複数の異なるテッセレーションレベルを有する複数の三角形72を示す。
反応容器95等、隠されるべきである複数の物体は、複数の三角形72がラスタライズされておらず、よって塗りつぶされなかったことから、未だに透明である。
図27は、テッセレーションを使用して生成された、組み合わされレンダリングされた画像28、111を示す。
図27に示されるように、複数の制御パネル97等、複数の比較的遠くの物体は、ここで、複数の反応容器95等、複数の比較的近い物体によってはっきり見えなくなる。
先に説明されたように、レンダリングシステム26(図1)は、複数のスキャンを使用してリアルタイムで複数の画像をレンダリングし得る。さらに、システム26(図1)により、位置は変更されることが可能になり、複数の異なる位置から見られる複数のテッセレーションされた画像を生成する。位置は、増加的または連続的に変更され得、ユーザが調査された環境を介して「歩く」または「飛ぶ」のを可能にする。
図28は、図25に示される同じポイントクラウドからではあるが、異なる視点から生成された、別の組み合わされレンダリングされた画像28、111'を示す。
図28に示されるように、画像111'は、複数の制御パネル97および複数の反応容器95等の複数の同じ物体を示すが、別の視点から示す。図27に示される画像111は、図28に示される複数のドア112の前の視点から取られている。
図28は、スキャンを実行する場合のスキャナ2(図1)の複数の位置を示す。それぞれの暗い円形領域113は、スキャナ2が複数のポイントを記録しない、スキャナ2の下のエリアに対応する。
ポイントクラウド画像91(図25)およびレンダリングされた画像111'(図28)の比較は、複数のスキャンから生成されたポイントクラウドの画像91を表示することに関連する視覚アーティファクトを示す。レンダリングされた画像111'は、複数の制御パネル97の前面を示す。それぞれの前面は、製造業者ラベル113および警告サイン114を持つ。しかしながら、これらのラベル113およびサイン114は、それらが実世界においておそらく可視でない場合、ポイントクラウド画像91において可視である。
複数の個々のスキャンについてのスキャンデータを1つの、スキャンデータのより大きいセットに統合しないことによって、システムは、スキャンデータが収集される順番をうまく利用し得る。それぞれのスキャンデータのセットは、球状変位マップとして取り扱われ得、複数の計算的に効率的な技術を使用してテッセレーションパターンを生成するべくサンプリングされ得る。ラスタライズ等、さらなる複数のグラフィック処理が実行され得、そのときになって初めて複数の異なるスキャンからの複数の画像が組み合わされる。よって、システムにより、スキャンデータの画像は、特にGPUの複数のグラフィック能力が使用される場合に、効率的および/または素早くレンダリングされることが可能になる。
様々な変更が以上に記載された複数の実施形態に対して作成されてもよいことは理解されるであろう。そのような複数の変更は、複数のレーザスキャンシステムおよび/またはグラフィック処理システムおよびこれらの構成要素部分の設計、製造、および使用において既に公知であり、本明細書において既に記載された複数の特徴の代わりに、またはそれらに加えて使用されてよい複数の同等な他の特徴を伴ってよい。1つの実施形態の複数の特徴は、他の実施形態の複数の特徴によって置き換えられるか、または補足されてよい。
特許請求の範囲は、本出願において特定の複数の特徴の組み合わせに対して明確に述べられたが、本発明の開示の範囲は、また、本明細書で開示された任意の新規の特徴または任意の新規の特徴の組み合わせを明示的または暗黙的の何れかのやり方で含み、またはそれらの任意の一般化を、それが任意の請求項において現時点で請求されているものと同じ発明に関するか否かを問わず、および本発明がするようにそれが同じ技術的課題のいずれかまたは全てを軽減するか否かを問わず、含むことは理解されるべきである。これにより出願人らは、新しい特許請求の範囲が、本出願またはそこから導出される任意のさらなる出願の遂行中に、複数のそのような特徴および/またはそのような特徴の複数の組み合わせに対して明確に述べられてよいことを告示する。

Claims (14)

  1. 3次元レーザスキャンデータの画像をレンダリングする方法であって、
    所定のスキャンのレーザスキャンデータのセットを球状変位マップとしてグラフィック処理ユニットに提供する段階と、
    前記グラフィック処理ユニットにより、前記球状変位マップをサンプリングすることによってテッセレーションパターンを生成する段階と、を備える、方法。
  2. 前記所定のスキャンの前記レーザスキャンデータのセットを前記球状変位マップとして提供する段階は、
    所定の位置でレーザスキャナによって生成されたレーザスキャンデータのセットを受信する段階と、
    所定の方位角および所定の仰角における所定のレーザスキャンポイントについてのレンジの値を、前記レーザスキャンデータから、レーザスキャンの方位角及び迎角により定義されるテクスチャにおける前記所定の方位角および前記所定の仰角に対応するテクセル位置のテクセルコピーする段階と、
    を備える、請求項1に記載の方法。
  3. 前記球状変位マップにおける複数の隣接ポイントの間における複数の不連続を識別する段階と、
    前記複数の隣接ポイントをマーク付けする段階とをさらに備える、請求項1または2に記載の方法。
  4. 前記球状変位マップに基づいて法線マップを生成する段階をさらに備える、請求項1からのいずれか一項に記載の方法。
  5. 前記法線マップを生成する段階は、前記球状変位マップにおけるそれぞれのポイントについて法線を算出する段階と、前記法線を法線マップに格納する段階とを備える、請求項に記載の方法。
  6. 前記球状変位マップに基づいて混合テクスチャを生成する段階をさらに備える、請求項1からのいずれか一項に記載の方法。
  7. 所定のスキャンについて、複数のパッチを有するパッチマップを生成する段階をさらに備える、請求項1からのいずれか一項に記載の方法。
  8. 前記パッチマップは、それぞれのパッチにつき相対テッセレーションレベルを含、請求項に記載の方法。
  9. 前記テッセレーションパターンにおける三角形の頂点形成部分は、不連続上にあるか、または不連続に隣接するとしてマーク付けされているかを判断する段階と、前記頂点が無効であると判断することに基づいて、前記三角形をカリングする段階と、をさらに備える、請求項1からのいずれか一項に記載の方法。
  10. 前記スキャンに対して画素のセットを生成する段階と、深度テストを実行する段階と、を備える、請求項1からのいずれか一項に記載の方法。
  11. 請求項1から10のいずれか一項に記載の方法を実行するための複数の命令を備える、コンピュータプログラム。
  12. 請求項11に記載のコンピュータプログラムを格納している、コンピュータ可読媒体。
  13. メモリと、
    少なくとも1つのグラフィック処理ユニットを有する少なくとも1つの処理装置と、を備え、
    前記メモリは、所定のスキャンについてレーザスキャンデータのセットを球状変位マップとして格納し、前記少なくとも1つのグラフィック処理ユニットは、前記球状変位マップをサンプリングすることによってテッセレーションパターンを生成する、
    コンピュータシステム。
  14. 前記少なくとも1つの処理装置は、マイクロソフト(登録商標)DirectX(登録商標)11アプリケーション・プログラミング・インタフェースを使用して構成される、請求項13に記載のコンピュータシステム。
JP2016533620A 2013-12-13 2014-12-05 レーザスキャンデータの画像レンダリング Expired - Fee Related JP6260924B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1322113.0A GB2518019B (en) 2013-12-13 2013-12-13 Image rendering of laser scan data
GB1322113.0 2013-12-13
PCT/GB2014/053616 WO2015087055A1 (en) 2013-12-13 2014-12-05 Image rendering of laser scan data

Publications (2)

Publication Number Publication Date
JP2017505471A JP2017505471A (ja) 2017-02-16
JP6260924B2 true JP6260924B2 (ja) 2018-01-17

Family

ID=50030919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016533620A Expired - Fee Related JP6260924B2 (ja) 2013-12-13 2014-12-05 レーザスキャンデータの画像レンダリング

Country Status (8)

Country Link
US (1) US10467805B2 (ja)
EP (1) EP3080781B1 (ja)
JP (1) JP6260924B2 (ja)
CN (1) CN105830126B (ja)
AU (1) AU2014363213B2 (ja)
GB (1) GB2518019B (ja)
RU (1) RU2679964C1 (ja)
WO (1) WO2015087055A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2518019B (en) 2013-12-13 2015-07-22 Aveva Solutions Ltd Image rendering of laser scan data
GB2520822B (en) * 2014-10-10 2016-01-13 Aveva Solutions Ltd Image rendering of laser scan data
US10792566B1 (en) 2015-09-30 2020-10-06 Electronic Arts Inc. System for streaming content within a game application environment
US10726611B1 (en) * 2016-08-24 2020-07-28 Electronic Arts Inc. Dynamic texture mapping using megatextures
EP3315907A1 (de) * 2016-10-27 2018-05-02 Leica Geosystems AG Verfahren zur visuellen darstellung von scandaten
US10489967B2 (en) * 2017-02-22 2019-11-26 Microsoft Technology Licensing, Llc Indexed value blending for use in image rendering
US10096133B1 (en) 2017-03-31 2018-10-09 Electronic Arts Inc. Blendshape compression system
US10878540B1 (en) 2017-08-15 2020-12-29 Electronic Arts Inc. Contrast ratio detection and rendering system
US10535174B1 (en) 2017-09-14 2020-01-14 Electronic Arts Inc. Particle-based inverse kinematic rendering system
KR101856426B1 (ko) * 2017-11-27 2018-06-20 세종대학교산학협력단 3차원 기하 증강 방법 및 그 장치
US10846914B2 (en) * 2018-01-11 2020-11-24 Sony Interactive Entertainment Inc. Back-facing patch culling with displacement
US10860838B1 (en) 2018-01-16 2020-12-08 Electronic Arts Inc. Universal facial expression translation and character rendering system
JP7377215B2 (ja) * 2018-04-27 2023-11-09 ベクトン・ディキンソン・アンド・カンパニー 粒子分析器画像の画像制御および表示のための方法および装置
JP7223610B2 (ja) * 2019-03-22 2023-02-16 任天堂株式会社 画像処理プログラム、画像処理システム、画像処理装置、および画像処理方法
US10902618B2 (en) 2019-06-14 2021-01-26 Electronic Arts Inc. Universal body movement translation and character rendering system
US11504625B2 (en) 2020-02-14 2022-11-22 Electronic Arts Inc. Color blindness diagnostic system
US11232621B2 (en) 2020-04-06 2022-01-25 Electronic Arts Inc. Enhanced animation generation based on conditional modeling
US11648480B2 (en) 2020-04-06 2023-05-16 Electronic Arts Inc. Enhanced pose generation based on generative modeling
GB2593819B (en) * 2020-09-18 2022-03-30 Off World Live Ltd Efficient graphical processing in 360-degree spherical space
US11830121B1 (en) 2021-01-26 2023-11-28 Electronic Arts Inc. Neural animation layering for synthesizing martial arts movements
US20230027890A1 (en) * 2021-05-03 2023-01-26 University Of Southern California Systems and methods for physically-based neural face shader via volumetric lightmaps
CN113269860B (zh) * 2021-06-10 2022-10-04 广东奥普特科技股份有限公司 一种高精度三维数据实时渐进式渲染方法和系统
US11887232B2 (en) 2021-06-10 2024-01-30 Electronic Arts Inc. Enhanced system for generation of facial models and animation
US11670030B2 (en) 2021-07-01 2023-06-06 Electronic Arts Inc. Enhanced animation generation based on video with local phase
US11562523B1 (en) 2021-08-02 2023-01-24 Electronic Arts Inc. Enhanced animation generation based on motion matching using local bone phases

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5790086A (en) 1995-01-04 1998-08-04 Visualabs Inc. 3-D imaging system
FR2735253B1 (fr) * 1995-06-08 1999-10-22 Hewlett Packard Co Synchronisation de donnees entre plusieurs dispositifs de restitution asynchrones de donnees
JPH09330423A (ja) * 1996-06-13 1997-12-22 Fujitsu Ltd 三次元形状データ変換装置
US6420698B1 (en) * 1997-04-24 2002-07-16 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three-dimensional objects
US6300960B1 (en) * 1997-08-04 2001-10-09 Pixar Animation Studios Realistic surface simulation in computer animation
US6608913B1 (en) 2000-07-17 2003-08-19 Inco Limited Self-contained mapping and positioning system utilizing point cloud data
US6701006B2 (en) 2002-06-26 2004-03-02 Nextengine, Inc. Apparatus and method for point cloud assembly
JP2005208868A (ja) 2004-01-22 2005-08-04 Hitachi Eng Co Ltd 点群データ比較方法、点群データ比較装置、点群データ取得装置および点群データ比較システム
US7643966B2 (en) * 2004-03-10 2010-01-05 Leica Geosystems Ag Identification of 3D surface points using context-based hypothesis testing
EP2048621B1 (en) 2007-10-09 2010-05-26 Agfa HealthCare NV Method and apparatus for volume rendering of medical data sets
US20100079454A1 (en) * 2008-09-29 2010-04-01 Legakis Justin S Single Pass Tessellation
GB0908200D0 (en) 2009-05-13 2009-06-24 Red Cloud Media Ltd Method of simulation of a real physical environment
EP2251832A1 (en) 2009-05-14 2010-11-17 Alcatel Lucent Method for generating a 3-dimensional model of an object
TWI471821B (zh) 2009-11-17 2015-02-01 Inst Information Industry A system, a method, and a recording medium for establishing a correlation for a plurality of images
US20110141112A1 (en) * 2009-12-11 2011-06-16 William Allen Hux Image processing techniques
JP5430456B2 (ja) 2010-03-16 2014-02-26 キヤノン株式会社 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
EP2659458B1 (en) * 2010-12-30 2019-05-15 TomTom Global Content B.V. System and method for generating textured map object images
JP5711039B2 (ja) * 2011-04-27 2015-04-30 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理方法、三次元点群位置データ処理システムおよびプログラム
US8793107B2 (en) * 2011-12-01 2014-07-29 Harris Corporation Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling
WO2013142819A1 (en) 2012-03-22 2013-09-26 University Of Notre Dame Du Lac Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
US9536345B2 (en) * 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
GB2518019B (en) 2013-12-13 2015-07-22 Aveva Solutions Ltd Image rendering of laser scan data

Also Published As

Publication number Publication date
GB2518019A (en) 2015-03-11
CN105830126B (zh) 2019-09-17
US10467805B2 (en) 2019-11-05
RU2016127919A (ru) 2018-01-25
WO2015087055A1 (en) 2015-06-18
JP2017505471A (ja) 2017-02-16
US20160307369A1 (en) 2016-10-20
RU2679964C1 (ru) 2019-02-14
EP3080781A1 (en) 2016-10-19
GB2518019B (en) 2015-07-22
AU2014363213A1 (en) 2016-06-09
CN105830126A (zh) 2016-08-03
GB201322113D0 (en) 2014-01-29
EP3080781B1 (en) 2019-02-13
AU2014363213B2 (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP6260924B2 (ja) レーザスキャンデータの画像レンダリング
US11551418B2 (en) Image rendering of laser scan data
US20130057653A1 (en) Apparatus and method for rendering point cloud using voxel grid
US7528831B2 (en) Generation of texture maps for use in 3D computer graphics
JP7038683B2 (ja) 合成装置、方法及びプログラム
JP5624457B2 (ja) 三次元データ処理装置、方法及びプログラム
KR20170025099A (ko) 렌더링 방법 및 장치
JP4584956B2 (ja) グラフィックスプロセッサおよび描画処理方法
JP5937957B2 (ja) リアルタイム大局照明レンダリングシステム
KR101118597B1 (ko) 모바일용 컴퓨터 그래픽 랜더링 방법 및 시스템
US20110074777A1 (en) Method For Displaying Intersections And Expansions of Three Dimensional Volumes
CN117333598B (zh) 一种基于数字场景的3d模型渲染系统及方法
KR20220154780A (ko) 3d 환경에서의 실시간 광선 추적을 위한 시스템 및 방법
Corns et al. DEVELOPING ENHANCED AND ENRICHED 3D MODELS OF CULTURAL HERITAGE ASSETS AS PART OF THE EU CO-FUNDED 5DCULTURE PROJECT
Drury et al. Method for Displaying Intersections and Expansions of Three Dimensional Volumes

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171202

R150 Certificate of patent or registration of utility model

Ref document number: 6260924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees