JP2013117958A - 三次元(3d)カメラのシミュレーション - Google Patents

三次元(3d)カメラのシミュレーション Download PDF

Info

Publication number
JP2013117958A
JP2013117958A JP2012261811A JP2012261811A JP2013117958A JP 2013117958 A JP2013117958 A JP 2013117958A JP 2012261811 A JP2012261811 A JP 2012261811A JP 2012261811 A JP2012261811 A JP 2012261811A JP 2013117958 A JP2013117958 A JP 2013117958A
Authority
JP
Japan
Prior art keywords
image
imaging system
environment
simulation
simulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012261811A
Other languages
English (en)
Inventor
A Erignac Charles
チャールズ エー. エリニャック,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2013117958A publication Critical patent/JP2013117958A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】三次元撮像システムによって生成されるシミュレーション画像をシミュレーションするための方法及び装置を提供する。
【解決手段】三次元撮像システム102によって生成される画像に生じる一組の影響130の一組のモデル128が特定される。一組のモデル128及び三次元レンダリングシステム115を使用して、三次元撮像システム102によって生成される画像をシミュレーションするシミュレーション画像152が生成される。シミュレーション画像152を生成するステップは、一組の影響130の一組のモデル128、環境モデル116、センサモデル118、及び三次元レンダリングシステム115を使用して、画像バッファ140と深度バッファ142とを含むシミュレーションデータ138を生成する。
【選択図】図1

Description

本発明は、概して三次元撮像システムに関し、具体的には三次元撮像システムによりほぼ実時間で生成される画像のシミュレーションの方法及びシステムに関する。
撮像システムは、様々な種類の作業を実行するための種々のアプリケーションに使用される。例えば、撮像システムは、ロボットシステム、航法システム、検査システム、監視システム、及び他の適切な種類のシステムに使用されうる。これらのアプリケーションの1つに使用される撮像システムの性能は、例えば、限定しないが、撮像システムの動作環境、撮像システムのコンポーネントの特性、及び/又は他の適切な種類の要因を含む任意の数の要因によって決まる。
撮像システムのコンポーネントには、ハードウェアコンポーネント、ソフトウェアコンポーネント、及び/又はハードウェアとソフトウェアの両方を含むコンポーネントが含まれる。例えば、撮像システムは、画像処理ソフトウェアに加えて、任意の数のレンズ、ミラー、光学フィルタ、光センサ、焦点面アレイ、及び他のデバイスを含むことができる。
選択された公差内で要求通りに機能する撮像システムの開発及び試験は、撮像システムの動作をシミュレーションすることにより行われる。このようなシミュレーションの実行により生成されたシミュレーションデータは、次いで撮像システムのコンポーネントの調節に使用することができる。
例えば、シミュレーションデータは、撮像システムを動作中に望み通りに機能させることを目的とした、撮像システムに含まれるレンズとミラーの構成の変更、撮像システムに使用される画像処理ソフトウェアの修正、撮像システムに使用されるソフトウェアのデバッグ、及び/又は他の何らかの適切な方式での撮像システムの調節に使用することができる。
現在利用可能な幾つかのシミュレーションシステムは、ほぼ実時間で撮像システムの動作をシミュレーションすることができる。例えば、現在利用可能なこれらのシミュレーションシステムは、撮像システムによって作製される画像をシミュレーションするシミュレーション画像を生成することができる。しかしながら、現在利用可能なこれらのシミュレーションシステムは、環境要因及び/又は撮像システムを形成するコンポーネントの特性に応じて、撮像システムによって生成される画像に生じる影響を考慮しない。具体的には、現在利用可能な幾つかのシミュレーションシステムは、環境要因及び/又は三次元撮像システムを形成するコンポーネントの特性に応じて、三次元(3D)撮像システムによって生成される画像に生じる影響を考慮しない。
したがって、上述の問題点の少なくとも幾つかと、起こりうる他の問題点を考慮する方法及び装置を有することが有利であろう。
例示的な一実施形態では、三次元撮像システムによって生成される画像をシミュレーションするための方法が提供される。三次元撮像システムによって生成される画像に生じる一組の影響の一組のモデルが特定される。三次元撮像システムによって生成される画像をシミュレーションするシミュレーション画像は、一組のモデル及び三次元レンダリングシステムを使用して生成することができる。
別の例示的な実施形態では、三次元撮像システムによって生成される画像をシミュレーションするための装置は、センサモデル、環境モデル、及び三次元レンダリングシステムを備えている。センサモデルは、三次元撮像システムを表現するように構成されている。環境モデルは、三次元撮像システムの動作環境を表現するように構成されている。三次元レンダリングシステムは、センサモデル及び環境モデルと通信する。さらに、三次元レンダリングシステムは、三次元撮像システムによって生成される画像に生じる一組の影響の一組のモデルを特定する。
また別の例示的な実施形態では、三次元撮像システムの動作をシミュレーションするためのシミュレーションシステムは、センサモデル、環境モデル、一組のモデル、及び三次元レンダリングシステムを備えている。センサモデルは、三次元撮像システムを表現するように構成されている。環境モデルは、三次元撮像システムが動作する実際の環境及び概念的環境のうちの一方を表現するように構成されている。一組のモデルは、三次元撮像システムによって生成される画像に生じる一組の影響に対するものである。三次元レンダリングシステムは、センサモデル、環境モデル、及び一組の影響の一組のモデルのうちの1つ又は複数と通信する。さらに、三次元レンダリングシステムは、環境モデルを使用して仮想環境を作り出し、センサモデル及び一組の影響の一組のモデルを使用して、この仮想環境において三次元撮像システムの動作をシミュレーションするように構成されている。
これらのフィーチャ、及び機能は、本発明の様々な実施形態において独立に達成可能であるか、又は他の実施形態において組み合わせることが可能である。これらの実施形態について、後述の説明及び添付図面を参照してさらに詳細に説明する。
新規のフィーチャと考えられる例示的実施形態の特徴は、特許請求の範囲に明記される。しかしながら、例示的実施形態と、好ましい使用モード、さらなる目的、及びそのフィーチャとは、添付図面を参照して本発明の例示的一実施形態の後述の詳細な説明を読むことにより最もよく理解されるであろう。
例示的一実施形態によるシミュレーションシステムのブロック図である。 例示的一実施形態による、画像に生じる一組の影響のブロック図である。 例示的一実施形態による、三次元撮像システムにより生成される画像に生じる一組の影響を引き起こしうる要因のブロック図である。 例示的一実施形態による、三次元撮像システムの視野を示している。 例示的一実施形態による仮想環境を示している。 例示的一実施形態による、シミュレーションした輝度の画像を示している。 例示的一実施形態による、シミュレーションした深度の画像を示している。 例示的一実施形態によるポイントクラウドを示している。 例示的一実施形態による、三次元撮像システムのシミュレーションプロセスを示すフロー図である。 例示的一実施形態によるデータ処理システムを示している。
種々の例示的実施形態は、様々な検討事項を認識し、考慮する。例えば、種々の例示的実施形態は、時に、環境要因及び/又は三次元撮像システムのコンポーネントの特性により、三次元撮像システムによって生成される画像に影響が生じることを認識し、考慮する。このような影響には、例えば、限定されないが、歪み、色収差、ぼけ、陰影、及び/又は他の種類の影響が含まれる。
さらに、種々の例示的実施形態は、現在利用可能な幾つかのシミュレーションシステムは、三次元撮像システムによって生成される画像をシミュレーションするとき、これらの影響をシミュレーションすることができないことを認識し、考慮する。種々の例示的実施形態は、これらの影響をシミュレーションすることは、三次元撮像システムに使用される画像処理ソフトウェアの微調整、三次元撮像撮像システムに使用されるソフトウェアのデバッグ、三次元撮像システムに使用される様々なコンポーネントの構成の調節、及び/又は三次元撮像システムに対する他の修正にとって重要であることを認識し、考慮する。
このようにして、種々の例示的実施形態により、三次元撮像システムの動作をシミュレーションするための方法及び装置が提供される。例示的な一実施形態では、三次元撮像システムによって生成される画像をシミュレーションするための方法が提供される。三次元撮像システムによって生成される画像に生じる一組の影響の一組のモデルが特定される。三次元撮像システムによって生成される画像をシミュレーションするシミュレーション画像は、一組のモデル及び三次元レンダリングシステムを使用して生成される。
ここで図面を参照する。具体的には、図1は、本発明の例示的な一実施形態によるシミュレーションシステムのブロック図を示している。このような実施例では、シミュレーションシステム100は、このような実施例における三次元撮像システム102の動作をシミュレーションするように構成される。
三次元撮像システム102は、深度情報106を提供する画像104を生成する任意のセンサシステムの形態をとりうる。例えば、三次元撮像システム102は、三次元撮像システム102の動作環境105の、三次元撮像システム102の視野107に含まれる部分の画像を生成することができる。三次元撮像システム102の視野107は、環境105内の三次元領域とすることができる。
このような実施例では、環境105は任意の数の異なる形態をとることができる。例えば、限定しないが、環境105は、屋外領域、屋内領域、市街、近隣、ハイウェイの一部、森林の一領域、宇宙の一区域、水中領域、空間内の一領域、製造工場の一領域、又は他の何らかの適切な種類の対象領域の形態をとることができる。さらに、環境105内には任意の数のオブジェクトが存在してよい。これらのオブジェクトには、例えば、限定されないが、地形、芝生、樹木、空、雲、人工的構造物、人、動物、水域、道路、車両、航空機、建造物、橋、及び/又は他の適切な種類のオブジェクトが含まれる。
実装態様に応じて、三次元撮像システム102によって生成される画像104は、環境105の、三次元画像102の視野107に含まれる部分の静止画像でありうる、及び/又は映像を形成しうる。例えば、三次元撮像システム102は、環境105の三次元映像を生成する三次元ビデオカメラの形態をとることができる。
このような実施例では、深度情報106は、三次元で画像104内の環境105を知覚するために必要な情報である。具体的には、画像104の深度情報106は、各画像104に含まれる各画素の深度値を含む。画像内の特定の画素に関連付けられた深度値は、例えば、限定しないが、三次元撮像システム102と、特定の画素が表わす環境105内のオブジェクト表面との間の距離の測定値である。
例えば、三次元撮像システム102によって生成される画像104は、環境105のカラー画像でも、グレースケール画像でもよく、画像内の各画素は、環境105の深度情報106の深度値に関連付けられている。このように、三次元撮像システム102は、深度カメラシステム又は深度カメラとも呼ばれる。
先述のように、三次元撮像システム102は、画像104を生成するように構成された任意の数のコンポーネント108を含む。本明細書で使用する「任意の数のアイテム」は、1つ又は複数のアイテムを意味する。例えば、「任意の数のコンポーネント108」は、1つ又は複数のコンポーネントを意味する。任意の数のコンポーネント108には、ハードウェアコンポーネント、ソフトウェアコンポーネント、及び/又はハードウェアとソフトウェアの両方を含むコンポーネントが含まれる。例えば、限定しないが、任意の数のコンポーネント108には、レンズ、光センサ、ミラー、プリズム、光学フィルタ、コンピュータ、マイクロプロセッサ、集積回路、画像処理ソフトウェア、制御ソフトウェア、及び他の適切な種類のコンポーネントのうちの少なくとも1つが含まれる。
本明細書において、列挙されたアイテムと共に使用する「〜のうちの少なくとも1つ」という表現は、列挙されたアイテムのうちの1つ又は複数からなる様々な組み合わせが使用可能であり、且つ、場合によっては列挙された各アイテムが1つだけあればよいことを意味する。例えば、レンズ、ミラー、及びプリズムのうちの少なくとも1つは、レンズでも、又はレンズとミラーでもよい。場合によっては、レンズ、ミラー、及びプリズムのうちの少なくとも1つは、レンズとミラーとプリズムでもよく、又はミラーとプリズムでもよい。
他の例では、レンズ、ミラー、及び光学フィルタのうちの少なくとも1つは、例えば、限定しないが、2つのレンズと1つのミラーと10個の光学フィルタでもよく、4つのミラーと7つの光学フィルタでもよく、或いは他の何らかの適切な組み合わせとすることができる。このように、任意の数のコンポーネント108は、三次元撮像システム102に使用するために適したコンポーネントのあらゆる組み合わせを含みうる。
このような実施例において、シミュレーションシステム100は、三次元撮像システム102のシミュレーションに使用することができる。幾つかの事例では、このようなシミュレーションは、三次元撮像システム102の開発及び試験に使用される。例えば、シミュレーションシステム100は、三次元撮像システム102の仮想プロトタイピングのシミュレーションを実行するために使用される。三次元撮像システム102の仮想プロトタイピングには、三次元撮像システム102の物理的プロトタイプを構築する前の、三次元撮像システム102の設計及び構成の開発、試験、認証、及び/又は修正が含まれる。
シミュレーションシステム100は、ハードウェア、ソフトウェア、またはそれら二つの組み合わせを使用して実施される。一実施例では、シミュレーションシステム100は、コンピュータシステム110において実施される。コンピュータシステム110は、任意の数のコンピュータを備える。コンピュータシステム110内に複数のコンピュータが存在する場合には、これらのコンピュータは相互に通信することができる。このように、実装態様に応じて、これらのコンピュータは同じ位置にあっても、異なる位置にあってもよい。
シミュレーションシステム100は、三次元レンダリングシステム115を使用して、環境105のような環境における三次元撮像システム102の動作をシミュレーションする。三次元レンダリングシステム115は、例えば環境105の一部のような三次元のシーンを、二次元に表わすように構成されている。
三次元レンダリングシステム115は、三次元撮像システム102の動作がほぼ実時間でシミュレーションされるように構成される。三次元レンダリングシステム115は、現在利用可能な三次元レンダリングシステムを使用して実施することができる。例えば、三次元レンダリングシステム115は、Silicon Graphics International Corporationによって市販されているOpenGL(登録商標)、Microsoft Corporationから市販されているDirectX(登録商標)、及び/又は他の何らかの適切な種類の三次元レンダリングシステムを使用して実施することができる。
図示のように、三次元レンダリングシステム115は、三次元撮像システム102の動作をシミュレーションするための仮想環境114を作り出す。仮想環境114は、三次元撮像システム102が動作しうる実際の環境又は概念的な環境の表現である。例えば、仮想環境114は、三次元撮像システム102が動作しうる環境105の、コンピュータによって生成される表現といえる。
このような実施例では、三次元レンダリングシステム115は、環境モデル116を使用して仮想環境114を生成することができる。環境モデル116は、例えば、環境105の三次元の数学的表現である。さらに、環境モデル116は、仮想環境114内に表現されるオブジェクトのモデルを含みうる。一実施例では、環境モデル116は、コンピュータ支援設計(CAD)モデルの形態をとることができる。
さらに、シミュレーションシステム100は、センサモデル118を使用して仮想環境114に仮想撮像システム120を加えることができる。センサモデル118は、三次元撮像システム102の1つの表現である。幾つかの事例では、センサモデル118は、三次元撮像システム102の動作をシミュレーションするように構成された任意の数のアルゴリズム及び/又はプロセスを含むことができる。
このような実施例では、三次元レンダリングシステム115は、シーン122としての環境モデル116に基づいて生成された仮想環境114を格納するように構成される。シーン122は、仮想環境114の二次元表現とすることができる。
シーン122は、任意の数の仮想オブジェクト124、仮想撮像システム120、及び任意の数の仮想光源126を含みうる。幾つかの実施例では、任意の数の仮想オブジェクト124の各々は、表現されているオブジェクト表面の色及び/又は鏡面性を規定する特性を有する多角形メッシュの形態をとることができる。オブジェクト表面の鏡面性は、オブジェクト表面の鏡面反射率の測定値とすることができる。
さらに、任意の数の仮想光源126は、異なる種類の光源の表現とすることができる。このような異なる種類の光源には、例えば、限定されないが、三次元撮像システム102に関連付けられた光源、自然光源、ランプ、及び/又は他の適切な種類の光源が含まれる。
他の実施例では、シーン122には、仮想撮像システム120に関連付けられた仮想プラットフォーム127が含まれる。仮想プラットフォーム127は、例えば、限定されないが、三次元撮像システム102が取り付けられるプラットフォーム129を表わすことができる。プラットフォーム129は、固定プラットフォーム又は移動プラットフォームの形態をとることができる。すなわち、三次元撮像システム102は、プラットフォーム129に関連付けられているとき、概ね固定されたままである、及び/又は環境105内で移動できる。
加えて、シミュレーションシステム100は、三次元撮像システム102の動作をシミュレーションするために、センサモデル118及び環境モデルと共に一組のモデル128も使用する。本明細書で使用する「一組の」アイテムは、1つ又は複数のアイテムを意味する。例えば、「一組のモデル128」は、1つ又は複数のアイテムである。
一組のモデル128は、三次元撮像システム102によって生成される画像104内に生じうる一組の影響130をシミュレーションするように構成される。本明細書で使用する三次元撮像システム102によって生成される画像内の「影響」は、画像に捕獲されたシーン及び実際のシーンの見た目の、いずれかの種類の相違又は差異である。場合によっては、三次元撮像システム102によって生成される画像内の「影響」は、画像内における望ましくないフィーチャでありうる。
一実施例として、ぼけは、画像104内に生じうる、一組の影響130のうちの一つである。画像のぼけは、画像内に捕獲されたシーン中の、1つ又は複数のオブジェクトのクリアでない又は不明瞭な見た目である。ぼけは、三次元撮像システム102の焦点が合わないときに生じうる。
幾つかの実施例では、一組のモデル128のうちの1つは、一組の影響130のうちの1つ又は複数をシミュレーションすることができる。他の事例では、一組のモデル128のうちの複数のモデルを使用して、一組の影響130のうちの1つをシミュレーションすることができる。
図示のように、一組の影響130のうちの1つは、要因132のうちの1つ又は複数によって生じる。さらに、要因132のうちの1つ又は複数により、一組の影響130のうちの複数が生じうる。要因132には、例えば、限定されないが、環境要因134、コンポーネント要因136、及び/又は他の適切な種類の要因が含まれる。環境要因134は、三次元撮像システム102が動作する環境に関連する要因である。コンポーネント要因136は、二三次元撮像システム102の任意の数のコンポーネント108の1つ又は複数に関連する要因である。
シミュレーションシステム100内の三次元レンダリングシステム115は、環境モデル116、センサモデル118、及び一組のモデル128を使用してシミュレーションデータ138を生成することができる。幾つかの事例では、三次元レンダリングシステム115は、シミュレーションデータ138を生成するために、一組のモデル128のうちの1つ又は複数を、センサモデル118及び/又は環境モデル116に導入することができる。
一実施例では、シミュレーションデータ138は、画像バッファ140及び深度バッファ142の形態をとる。画像バッファ140は、シミュレーションした色の画像144及びシミュレーションした輝度の画像145の少なくとも1つを含む。三次元撮像システム102が仮想環境114に物理的にほぼ等価な環境内で動作している場合、シミュレーションした色の画像144及びシミュレーションした輝度の画像145は、三次元撮像システム102によって生成される画像104に付与される色情報及び輝度情報をそれぞれ表わすと考えられる。
深度バッファ142は、シュミレーションした深度情報148を供給するシミュレーションした深度の画像146を含みうる。例えば、限定しないが、シミュレーションした深度の画像146の1つに含まれる各画素は、シミュレーションした色の画像144のうちの対応する1つに含まれる対応する画素のシミュレーションした深度値を表わす。
シミュレーションした深度の画像146、シミュレーションした色の画像144、及びシミュレーションした輝度の画像145の各々は、仮想環境114及び任意の数の仮想オブジェクト124の現状と、仮想環境114内における仮想撮像システム120及び任意の数の仮想光源126の位置に基づいて生成される。任意の数の仮想オブジェクト124の状態には、これらのオブジェクトが仮想環境114内において占める位置が含まれる。
幾つかの実施例では、三次元レンダリングシステム115は、ポイントクラウド150を形成するために、深度バッファ142に含まれるシミュレーションした深度の画像146を使用することができる。ポイントクラウド150は、複数の三次元座標内に複数の頂点を含む。ポイントクラウド150中の頂点は、仮想環境114内においてシミュレーションされた様々な表面上の点を表している。例えば、幾つかの事例では、ポイントクラウド150は、仮想環境114内の任意の数の仮想オブジェクト124の1つ又は複数について形成される。他の実施例では、ポイントクラウド150は、仮想環境114内の空間全体について形成される。
三次元撮像システム102が仮想環境114に物理的にほぼ等価な環境内で動作している場合、三次元レンダリングシステム115は、ポイントクラウド150と共に画像バッファ140を使用して、三次元撮像システム102によって生成される画像104をシミュレーションするシミュレーション画像152を生成すると考えられる。さらに、シミュレーション画像152は、三次元撮像システム102によって生成される画像104内に生じうる一組の影響130を表わす一組のシミュレーションされた影響154を含むことができる。
このように、シミュレーションシステム100は、三次元撮像システム102の動作をシミュレーションするためのシステムを提供する。一実施例では、三次元撮像システム102は、例えば、自動ロボットマシンのようなデバイスに埋め込まれたシステムの形態をとることができる。この実施例では、シミュレーションシステム100によって生成されるシミュレーション画像152は、自動ロボットマシンの、SIL(software-in-the-loop)試験及び/又はHIL(hardware-in-the-loop)試験の実行に使用することができる。
次に図2を参照する。図2は、例示的な一実施形態による、画像内に生じる一組の影響のブロック図である。図1の一組の影響130に含まれる影響の例が図2に示されている。
図示のように、一組の影響130には、例えば、歪み200、色収差202、陰影204、照度の影響206、ぼけ108、深度測定値の不整合210、フィールド効果の深度212、口径食214、及びアナログ/デジタル変換の影響216が含まれる。言うまでもなく、他の実施例では、上記に加えて又は代えて、他の影響が一組の影響130に含まれてよい。
歪み200は、シーン内の直線が、シーンの画像内において実質的に直線として現れないとき、シーンの画像に生じているといえる。歪み200には、例えば、放射状の歪み218、接線方向の歪み220、及び/又は他の適切な種類の歪みが含まれる。放射状の歪み218は、放射方向に対称な歪みである。接線方向の歪み220は、図1の三次元撮像システム102内におけるレンズと焦点面アレイとのミスアラインメントによって作り出される歪みである。
色収差202は、三次元撮像システム102内のレンズが同じ収束点にすべての色の焦点を合わせることができない種類の歪みである。一般に、色収差202は、画像生成に使用される三次元撮像システム102内のレンズが光の異なる波長について異なる屈折率を有するときに画像に生じうる。
陰影204は、三次元撮像システム102の光源が、環境105内において、三次元撮像システム102と実質的に同じ位置に存在しないときに生じうる。画像内の照度の影響206は、シーン内の異なる表面間で跳ね返ることによりシーン全体に、及びシーンと三次元撮像システム102との間の半透明及び/又は透明媒質に光が伝播すると生じる照明効果とすることができる。照度の影響206には、例えば、光拡散、反射、及び屈折効果が含まれる。
ぼけ208は、画像内の1つ又は複数のオブジェクトのクリアでない又は不明瞭な見た目である。ぼけ208は、三次元撮像システム102が環境105内で移動したとき、及び/又は環境105内のオブジェクトが三次元撮像システム102に対して移動したときに生じうる。
さらに、深度測定値の不整合210は、不正確な深度値である。不正確な深度値は、ノイズ、表面反射、及び/又は他の適切な要因があると、三次元撮像システム102によって生成される。
フィールド効果の深度212は、画像内のシーンの他の部分の焦点が合っているとき、シーンの一部のぼけとして画像内に生じうる。口径食214は、画像の周囲領域の明度が中央領域より低いとき、画像内に存在しているといえる。
アナログ/デジタル変換の影響216は、例えば、焦点面アレイにより、三次元撮像システム102において検出された光の変換結果として、例えば、三次元撮像システム102内のプロセッサによって処理することが可能な電気信号に生じうる。さらに、幾つかの事例では、アナログ/デジタル変換の影響216は、画像形成を目的としたこのような電気信号の処理の結果として生じうる。
アナログ/デジタル変換の影響には、例えば、限定されないが、ノイズ222、飽和224、及び/又は他の適切な種類の影響が含まれる。ノイズ222には、画像内における明度及び/又は色及び/又は他の収差のランダムな局所的変化が含まれる。幾つかの事例では、ノイズ222は「ごま塩」ノイズの形態をとることがある。
飽和224は、撮像されているシーンの照度レベルが、画像内の画素に可能な値の範囲に基づいて、画像に捕獲するには高すぎるか、又は低すぎるときに生じうる。すなわち、シーン内の輝度レベルの範囲が、画像内の画素に可能な値の範囲より大きい。この結果、画像内の画素の値の範囲を超えた明度又は暗度の変化は、画像内の一部の画素には表現されない。このような画素は「飽和している」と言われる。
言うまでもなく、他の実施例では、上記に加えて又は代えて、他の影響が、図1の三次元撮像システム102によって生成される画像内に現れてよい。例えば、限定しないが、非線型性、ぼやけ、レンズのフレア、目視可能なアーチファクト、望ましくないフィーチャ、及び/又は他の適切な種類の影響といった影響が画像内に現れうる。
ここで図3を参照する。図3は、例示的一実施形態による、三次元撮像システムにより生成される画像に生じる一組の影響を引き起こす要因を示すブロック図である。この実施例には、図1の要因132の例が記載されている。
環境要因134には、例えば、限定されないが、表面特性300、大気粒子302、鏡面マテリアル304、環境の種類306、及び/又は他の適切な種類の環境要因が含まれる。表面特性300には、図1の環境105内の異なる表面の特性が含まれる。例えば、表面特性300は、環境105内における任意の数の航空機の表面の特性を含みうる。
大気粒子302には、例えば、限定されないが、煙、霧、靄、雲、スモッグ、及び/又は他の大気条件の粒子が含まれる。大気粒子302は、画像をぼやけさせる場合がある。
鏡面マテリアル304は、光源、反射表面、及び三次元撮像システム102の視点の間の特定の相対的角度において、ミラーのように働く任意の材料とすることができる。鏡面マテリアル304は、画像に鏡面ハイライトをもたらす。鏡面ハイライトは、光源の色を有する極めて明るい区域である。
環境の種類306は、三次元撮像システム102が動作する環境の種類である。例えば、限定しないが、環境の種類306として、水中環境、陸上環境、空中環境、空洞、宇宙環境、又は他の何らかの適切な種類の環境のうちの一つを選択することができる。
このような実施例では、コンポーネント要因136には、光学システムの特性308、焦点面アレイの構成310、画像処理ソフトウェア312、及び/又は他の適切な要因が含まれる。光学システムの特性308には、例えば、限定されないが、使用されるレンズの数、使用されるレンズの種類、レンズを構成する材料、使用される光学フィルタの特性、及び/又は三次元撮像システム102の光学的コンポーネントの他の特性が含まれる。光学システムの特性308は、画像をぼやけさせることがあり、レンズのフレア、及び/又は他の種類の影響を引き起こすことがある。
焦点面の構成310は、三次元撮像システム102の焦点面アレイの構成を含む。焦点面アレイが選択された公差内で適切に較正されていないとき、焦点面アレイの構成310によって画像に1つ又は複数の影響が生じることがある。
さらに、三次元撮像システム102に使用される画像処理ソフトウェア312によって、画像に1つ又は複数の影響が生じることがある。一実施例として、三次元撮像システム102によって生成される情報を圧縮して圧縮画像を形成する画像処理ソフトウェア312によって、画像内に望ましくないフィーチャが現れることがある。例えば、圧縮画像において、特定のオブジェクトがクリアでない又は不明瞭になることがある。
図1に示すシミュレーションシステム100、図2に示す一組の影響130、及び図3に示す要因132は、例示的な実施形態を実施可能な方式を物理的又はアーキテクチャ的に限定するものではない。図示したコンポーネントに加えて又は代えて、他のコンポーネントを使用することができる。幾つかのコンポーネントは不必要になることがある。また、ブロックは、幾つかの機能的なコンポーネントを示すために提示されている。例示的な実施形態において実施される場合、これらのブロックの一又は複数を、異なるブロックに統合、分割、或いは統合且つ分割することができる。
例えば、幾つかの実施例では、三次元撮像システム102に加えて1つ又は複数の撮像システムをシミュレーションすることができる。具体的には、仮想撮像システム120に加えて、1つ又は複数の仮想撮像システムを仮想環境114に加えることができる。
次に図4を参照する。図4は、例示的な一実施形態による、三次元撮像システムの視野を示している。この実施例では、視野400は、図1の視野107の一実装態様の一例である。視野400は、三次元撮像システム(例えば、図1に示す三次元撮像システム102)の位置401における視野である。
図示のように、視野400は、前面402、上面404、左側面406、背面408、底面410、及び右側面412によって画定される。さらに、三次元撮像システムの視線414は、位置401から始まって視野400の中央を通って延びる。
次に図5を参照。図5は、例示的な一実施形態による仮想環境を示している。この実施例では、仮想環境500は、図1の仮想環境114の一実装態様の一例である。図示のように、仮想撮像システム502は仮想環境500内に存在している。
仮想撮像システム502は、三次元撮像システム(例えば、図1の三次元撮像システム102)の一表現である。この実施例では、仮想光源504は、仮想環境500内の仮想撮像システム502に関連付けられている。
さらに、仮想環境500内には仮想オブジェクト506も存在している。図示の実施例では、仮想オブジェクト506は航空機を表現したものである。仮想環境500は、仮想撮像システム502が表わす三次元撮像システムによって生成される、仮想オブジェクト506が表わす航空機の画像がシミュレーションされるように、生成される。
次に図6を参照する。図6は、例示的な実施形態による、シミュレーションした輝度の画像を示している。この実施例では、シミュレーションした輝度の画像600は、図1の画像バッファ140に含まれるシミュレーションした輝度の画像145の1つの一実装態様の一例である。
シミュレーションした輝度の画像600は、例えば、図1の三次元レンダリングシステム115を使用して生成される。シミュレーションした輝度の画像600は、図5の仮想環境500内の仮想撮像システム502を使用して生成された画像の一実施例である。この実施例では、シミュレーションした輝度の画像600に含まれる各画素は、画像に捕獲された図5の仮想オブジェクト506上の1点の強度値を表わす。
次に図7を参照する。図7は、例示的な実施形態による、シミュレーションした深度の画像を示している。この実施例では、シミュレーションした深度の画像700は、図1の深度バッファ142内のシミュレーションした深度の画像146の1つの一実装態様の一例である。
シミュレーションした深度の画像700は、例えば、図1の三次元レンダリングシステム115を使用して生成される。シミュレーションした深度の画像700に含まれる各画素は、図6のシミュレーションした輝度の画像600内の対応する画素に対応する深度値を表わす。
次に図8を参照する。図8は、有利な一実施形態によるポイントクラウドを示している。この実施例では、ポイントクラウド800は、図1のポイントクラウド150の一実装態様の一例である。ポイントクラウド800は、例えば、図1の三次元レンダリングシステム115を使用して形成される。
具体的には、三次元レンダリングシステム115は、シミュレーションした深度の画像700及び/又は図5の仮想環境500内の仮想撮像システム502について生成された他のシミュレーションした深度の画像を使用して、ポイントクラウド800を形成する。図示のように、ポイントクラウド800の各頂点802は、図5の仮想オブジェクト506の表面上の一点を表わす。
次に図9を参照する。図9は、例示的な一実施形態による、三次元撮像システムのシミュレーションプロセスのフロー図である。図9に示されるプロセスは、図1の三次元撮像システム102をシミュレーションするために、図1のシミュレーションシステム100を使用して実施される。
このプロセスは、仮想環境を生成するための環境モデルを特定することにより開始される(工程900)。プロセスは、次いで、仮想環境内における三次元撮像システムの動作をシミュレーションするためのセンサモデルを特定する(工程902)。その後、プロセスは、三次元撮像システムによって生成される画像内に生じる一組の影響の一組のモデルを特定する(工程904)。
プロセスは、次いで、環境モデル、センサモデル、及び一組のモデルを使用して、シミュレーションデータを生成する(工程906)。次に、プロセスは、シミュレーションデータを使用して、三次元撮像システムが、仮想環境に物理的にほぼ等価な環境内で動作した場合に三次元撮像システムによって生成されるであろう画像をシミュレーションするシミュレーション画像を生成し(工程908)、その後終了する。
図示された種々の実施形態のフローチャート及びブロック図は、例示的な一実施形態における装置及び方法の幾つかの実施可能なアーキテクチャ、機能性、及び工程を説明するものである。これに関して、フロー図又はブロック図の各ブロックは、工程又はステップの1つのモジュール、セグメント、機能及び/又は部分を表わすことができる。例えば、ブロックの一又は複数は、ハードウェア内のプログラムコードとして、又はプログラムコードとハードウェアの組合せとして実施可能である。ハードウェアにおいて実施されるとき、ハードウェアは、例えば、フロー図又はブロック図の1つ又は複数の工程を実施するように製造又は構成された集積回路の形態をとることができる。
例示的な一実施形態の幾つかの代替的な実装態様では、ブロックに記載された1つ又は複数の機能は、図中に記載の順序を逸脱して現れることがある。例えば、場合によっては、連続して示されている2つのブロックは、含まれる機能によって、ほぼ同時に実行されても、又は時には逆の順番で実施されてもよい。また、フロー図又はブロック図に示されるブロックに他のブロックが追加されてもよい。
次に図10を参照する。図10は、例示的な一実施形態によるデータ処理システムを示している。この実施例では、データ処理システム1000は、図1のコンピュータシステム110の1つ又は複数のコンピュータを実施するために使用される。データ処理システム1000は通信ファブリック1002を含み、この通信ファブリック1002はプロセッサユニット1004、メモリ1006、固定記憶域1008、通信ユニット1010、入出力(I/O)ユニット1012、及びディスプレイ1014の間の通信を行う。
プロセッサユニット1004は、メモリ1006にローディングされるソフトウェアに対する命令を実行するように働く。プロセッサユニット1004は、特定の実装態様に応じて、任意の数のプロセッサ、マルチプロセッサコア、グラフィック処理装置(GPU)、及び/又は他の何らかの種類のプロセッサを含みうる。本明細書でアイテムに言及して「任意の数の」というとき、1つ又は複数のアイテムを意味する。さらに、プロセッサユニット1004は、単一チップ上にメインプロセッサと二次プロセッサとが共存する任意の数の異種プロセッサシステムを使用して実施されてもよい。別の実施例では、プロセッサユニット1004は同種のプロセッサを複数個含む対称型マルチプロセッサシステムであってもよい。
メモリ1006及び固定記憶域1008は、記憶装置1016の例である。記憶装置は、例えば、限定しないが、データ、機能的な形態のプログラムコード、及び/又は他の適切な情報などの情報を、一時的に及び/又は永続的に格納することができる任意のハードウェア部分である。記憶装置1016は、このような実施例では、コンピュータで読込可能な記憶装置とも呼ばれる。このような実施例では、メモリ1006は、例えば、ランダムアクセスメモリ又は他の何らかの適切な揮発性又は不揮発性の記憶装置であってもよい。固定記憶域1008は、特定の実装態様に応じて様々な形態をとることができる。
例えば、固定記憶域1008は、1つ又は複数のコンポーネント又はデバイスを含みうる。例えば、固定記憶域1008は、ハードドライブ、フラッシュメモリ、書換え形光ディスク、書換え可能磁気テープ、又はそれらの何らかの組み合わせであってよい。固定記憶域1008によって使用される媒体は、取り外し可能なものでもよい。例えば、取り外し可能なハードドライブを固定記憶域1008に使用することができる。
このような実施例では、通信ユニット1010は、他のデータ処理システム又はデバイスとの通信を行う。このような実施例では、通信ユニット1010はネットワークインターフェースカードである。通信ユニット1010は、物理的通信リンク及び無線の通信リンクの一方又は両方を使用することによって通信することができる。
入出力ユニット1012により、データ処理システム1000に接続可能な他のデバイスによるデータの入出力が可能になる。例えば、入出力ユニット1012は、キーボード、マウス、及び/又は他の何らかの適切な入力装置を介してユーザ入力のための接続を提供することができる。さらに、入出力ユニット1012は、プリンタに出力を送ることができる。ディスプレイ1014は、ユーザに対して情報を表示する機構を提供する。
オペレーティングシステム、アプリケーション、及び/又はプログラムに対する命令は記憶装置1016に格納されており、この記憶装置は通信ファブリック1002を介してプロセッサユニット1004と通信する。このような実施例では、命令は固定記憶域1008上において機能的な形態になっている。これらの命令は、メモリ1006にローディングされてプロセッサユニット1004によって実行される。種々の実施形態のプロセスは、メモリ(例えば、メモリ1006)に配置される、コンピュータで実施される命令を使用して、プロセッサユニット1004によって実行されうる。
これらの命令は、プログラムコード、コンピュータで使用可能なプログラムコード、又はコンピュータで読込可能なプログラムコードと呼ばれ、プロセッサユニット1004内の1つのプロセッサによって読込まれて実行されうる。種々の実施形態のプログラムコードは、様々な物理的記憶媒体又はコンピュータで読込可能な記憶媒体(例えば、メモリ1006又は固定記憶域1008)上に具現化されうる。
プログラムコード1018は、選択的に取り外し可能なコンピュータで読込可能な媒体1020上に機能的な形態で位置し、データ処理システム1000にローディング又は転送されて、プロセッサユニット1004によって実行される。プログラムコード1018及びコンピュータで読込可能な媒体1020は、このような実施例ではコンピュータプログラム製品1022を形成する。一実施例では、コンピュータで読込可能な媒体1020は、コンピュータで読込可能な記憶媒体1024又はコンピュータで読込可能な信号媒体1026である。コンピュータで読込可能な記憶媒体1024は、例えば、固定記憶域1008の一部であるドライブ又は他のデバイスに挿入又は配置されて、固定記憶域1008の一部である、ハードドライブなどの記憶装置上に転送される光ディスク又は磁気ディスクを含みうる。
コンピュータで読込可能な記憶媒体1024は、データ処理システム1000に接続されているハードドライブ、サムドライブ、又はフラッシュメモリなどの固定記憶域の形態もとりうる。幾つかの例では、コンピュータで読込可能な記憶媒体1024は、データ処理システム1000から取り外し可能でなくともよい。このような実施例では、コンピュータで読込可能な記憶媒体1024は、プログラムコード1018を伝搬又は転送する媒体ではなく、プログラムコード1018を格納するために使用される物理的な又は有形の記憶装置である。コンピュータで読込可能な記憶媒体1024は、コンピュータで読込可能な有形の記憶装置又はコンピュータで読込可能な物理的な記憶装置とも呼ばれる。換言すると、コンピュータで読込可能な記憶媒体1024は、人が触れることのできる媒体である。
代替的に、プログラムコード1018は、コンピュータで読込可能な信号媒体1026を用いてデータ処理シスム1000に転送可能である。コンピュータで読込可能な信号媒体1026は、例えば、プログラムコード1018を含む伝播されたデータ信号であってもよい。例えば、コンピュータで読込可能な信号媒体1026は、電磁信号、光信号、及び/又は他のいずれかの適切な種類の信号であってもよい。これらの信号は、無線通信リンク、光ファイバケーブル、同軸ケーブル、有線、及び/又は他のいずれかの適切な種類の通信リンクといった通信リンクによって転送される。換言すると、本発明の実施例では、通信リンク及び/又は接続は物理的なもの又は無線によるものでありうる。
幾つかの実施形態では、プログラムコード1018は、コンピュータで読込可能な信号媒体1026により、ネットワークを介して別のデバイス又はデータ処理システムから固定記憶域1008にダウンロードされて、データ処理システム1000内で使用される。例えば、サーバーデータ処理システムのコンピュータで読込可能な記憶媒体に格納されたプログラムコードは、ネットワークを介してサーバーからデータ処理システム1000にダウンロードすることができる。プログラムコード1018を提供するデータ処理システムは、サーバーコンピュータ、クライアントコンピュータ、又はグラムコード1018を格納及び転送することができる他の何らかのデバイスであってもよい。
データ処理システム1000に例示されている種々のコンポーネントは、種々の実施形態を実施できる方式をアーキテクチャ的に制限するものではない。異なる例示的実施形態が、データ処理システム1000について示されているコンポーネントに追加的又は代替的なコンポーネントを含むデータ処理システムにおいて実施されうる。図10に示す他のコンポーネントは、図示の実施例から変更することができる。種々の実施形態は、プログラムコードを実行できる任意のハードウェアデバイス又はシステムを使用して実施することができる。一実施例として、データ処理システムは、無機コンポーネントと一体化した有機コンポーネントを含むことができる、及び/又は全体を人間を除く有機コンポーネントで構成することができる。例えば、記憶装置は、有機半導体で構成することができる。
別の実施例では、プロセッサユニット1004は、特定の用途のために製造又は構成された回路を有するハードウェアユニットの形態をとってもよい。この種のハードウェアは、工程を実行するように構成された記憶装置からメモリにプログラムコードをローディングする必要なく、工程を実施することができる。
例えば、プロセッサユニット1004がハードウェアユニットの形態をとる場合、プロセッサユニット1004は、回路システム、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス、又は任意の数の工程を実行する他の何らかの適切な種類のハードウェアであってもよい。プログラマブルロジックデバイスの場合、このデバイスは任意の数の工程を実行する。このデバイスは、その後再構成することも、又は任意の数の工程を実行するように恒久的に構成することもできる。プログラマブルロジックデバイスの例として、例えば、プログラマブルロジックアレイ、プログラマブルアレイロジック、フィールドプログラマブルロジックアレイ、フィールドプログラマブルゲートアレイ、及び他の適切なハードウェアデバイスが挙げられる。この種の実装態様では、種々の実施形態のプロセスがハードウェア装置で実施されるため、プログラムコード1018は省略されてもよい。
さらに別の実施例では、プロセッサユニット1004は、コンピュータ及びハードウェアユニットの中に見出されるプロセッサの組み合わせを使用して実施することができる。プロセッサユニット1004は、プログラムコード1018を実行するように構成された任意の数のハードウェアユニット及び任意の数のプロセッサを有することができる。この実施例では、プロセスの幾つかは、任意の数のハードウェアユニットにおいて実施することができ、他のプロセスは任意の数のプロセッサで実施することができる。
別の実施例では、バスシステムは、通信ファブリック1002を実施するために使用することができ、システムバス又は入出力バスといった1つ又は複数のバスから構成することができる。言うまでもなく、バスシステムは、バスシステムに取り付けられた種々のコンポーネント又はデバイスの間でのデータ伝送を行う任意の適切な種類のアーキテクチャを使用して実施することができる。
加えて、通信ユニットは、データの送信、データの受信、又はデータの送受信を行う任意の数のデバイスを含みうる。通信ユニットは、例えば、モデム又はネットワークアダプタ、2個のネットワークアダプタ、又はこれらの何らかの組み合わせであってもよい。さらに、メモリは、例えば、通信ファブリック1002内に存在することがあるインターフェース及びメモリコントローラハブにみられるような、メモリ1006又はキャッシュであってもよい。
テキスト及び図面において、三次元撮像システム102によって生成される画像104のシミュレーション方法が開示される。この方法は、三次元撮像システム102によって生成される画像に生じる一組の影響130の一組のモデル128を特定すること、及び一組のモデル128と三次元レンダリングシステム115とを使用して、三次元撮像システム102によって生成される画像をシミュレーションするシミュレーション画像152を生成することを含む。一実施例では、方法は、三次元撮像システム102が動作する環境105を表わす環境モデル116を特定することをさらに含む。一例では、方法は、環境モデル116を使用して仮想環境114を生成することをさらに含み、この仮想環境114は、三次元撮像システム102が動作する実際の環境及び概念的環境の一方を表している。一実施例では、方法は、三次元撮像システム102をシミュレーションするように構成されたセンサモデル118を特定することをさらに含む。
一変形例では、シミュレーション画像152を生成するステップは、一組の影響130の一組のモデル128、環境モデル116、センサモデル118、及び三次元レンダリングシステム115を使用してシミュレーションデータ138を生成することを含み、このシミュレーションデータには画像バッファ140と深度バッファ142とが含まれる。また別の実施例では、シミュレーション画像152を生成するステップは、画像バッファ140と深度バッファ142とを使用して三次元撮像システム102によって生成される画像104をシミュレーションするシミュレーション画像152を生成することをさらに含む。また別の場合には、画像バッファ140と深度バッファ142とを使用して三次元撮像システム102によって生成される画像104をシミュレーションするシミュレーション画像152を生成するステップは、深度バッファ142を使用してポイントクラウドを生成すること、並びに、ポイントクラウドと、画像バッファ140内のシミュレーションした色の画像144及びシミュレーションした輝度の画像145のうちの少なくとも1つとを使用してシミュレーション画像152を生成することを含む。
また別の実施例では、方法は、三次元撮像システム102によって生成される画像104に生じた一組の影響130を特定することをさらに含む。一例では、一組の影響130のうちの1つは任意の数の要因によって生じ、これら任意の数の要因132には、環境要因134及びコンポーネント要因136のうちの少なくとも1つが含まれ、一組の影響130には、歪み200、放射状の歪み218、接線方向の歪み220、色収差202、陰影210、ぼけ208、深度測定値の不整合210、フィールド効果の深さ212、口径食214、アナログ/デジタル変換の影響216、ノイズ222、及び飽和224のうちの少なくとも一つが含まれる。
一態様では、三次元撮像システム102によって生成される画像104のシミュレーション装置が開示される。この装置は、三次元撮像システム102を表わすように構成されたセンサモデル118、三次元撮像システム102が動作する環境105を表わすように構成された環境モデル116、並びに、センサモデル118及び環境モデル116と通信し、三次元撮像システム102によって生成される画像104内に生じる一組の影響130の一組のモデル128を特定するように構成された三次元レンダリングシステム115を含んでいる。一例では、装置は、環境モデル116を使用して三次元レンダリングシステム115が生成した仮想環境114をさらに含み、この仮想環境114は、三次元撮像システム102が動作する実際の環境及び概念的環境のうちの一方を表している。また別の例では、三次元レンダリングシステム115は、さらに、センサモデル118及び一組の影響130の一組のモデル128を使用して仮想環境114内における三次元撮像システム102の動作をシミュレーションするように構成される。一実施例では、三次元撮像システム102は、さらに、センサモデル118、環境モデル116、及び一組の影響130の一組のモデル128を使用してシミュレーションデータ138を生成するように構成され、このシミュレーションデータには画像バッファ140と深度バッファ142とが含まれる。別の実施例では、深度バッファ142には、シミュレーションした深度の画像104が含まれ、画像バッファ140には、シミュレーションした色の画像144及びシミュレーションした輝度の画像145のうちの少なくとも1つが含まれる。一変形例では、三次元レンダリングシステム115は、さらに、シミュレーションした深度の画像104、シミュレーションした色の画像144、及びシミュレーションした輝度の画像145のうちの少なくとも1つを使用してシミュレーション画像152を生成するように構成されており、シミュレーション画像152は、三次元撮像システム102が三次元レンダリングシステム115によって作成された仮想環境114に物理的にほぼ等価な環境105内で動作するときに、三次元撮像システム102によって生成される画像104を表わす。一変形例では、三次元レンダリングシステム115は、さらに、シミュレーションした深度の画像104を使用してポイントクラウド150を生成し、ポイントクラウド150と、画像バッファ140に含まれるシミュレーションした色の画像144及びシミュレーションした輝度の画像145のうちの少なくとも1つとを使用してシミュレーション画像152を作成するように構成される。別の変形例では、シミュレーション画像152は、三次元撮像システム102が、三次元レンダリングシステム115によって形成された仮想環境114に物理的にほぼ等価な環境内で動作しているとき、三次元撮像システム102によって生成される画像内に生じる一組の影響130を表わすシミュレーションされた一組の影響を含む。また別の変形例では、一組の影響130のうちの1つは任意の数の要因によって生じ、これら任意の数の要因には、環境要因及びコンポーネント要因のうちの少なくとも1つが含まれ、一組の影響130には、歪み、放射状の歪み、接線方向の歪み、色収差、陰影、ぼけ、深度測定値の不整合、フィールド効果の深さ、口径食、アナログ/デジタル変換の影響、ノイズ、及び飽和のうちの少なくとも一つが含まれる。
一態様では、三次元撮像システム102の動作をシミュレーションするためのシミュレーションシステムが開示される。このシミュレーションシステムは、三次元撮像システム102を表わすように構成されたセンサモデル118、三次元撮像システム102が動作する実際の環境及び概念的な環境のうちの一方を表わす環境モデル116、三次元撮像システム102によって生成される画像内に生じる一組の影響130の一組のモデル128、並びに、センサモデル118、環境モデル116、及び一組影響130の一組のモデル128のうちの1つ又は複数と通信して、環境モデルを使用して仮想環境114を作成し、センサモデル118と、一組の影響130の一組のモデル128とを使用して仮想環境114内における三次元撮像システム102の動作をシミュレーションするように構成された三次元レンダリングシステム115を含む。別の例では、三次元レンダリングシステム115は、環境モデル116、センサモデル118、及び一組のモデル128を使用した三次元撮像システム102の動作のシミュレーションに基づいて、シミュレーション画像152を生成するように構成されており、シミュレーション画像152には、三次元撮像システム102が、三次元レンダリングシステム115によって作成された仮想環境114に物理的にほぼ等価な環境内で動作するときに、三次元撮像システム102によって生成される画像内に生じる一組の影響130のうちの1つ又は複数を表わすシミュレーションされた一組の影響が含まれる。
このようにして、種々の例示的実施形態により、三次元撮像システムの動作をシミュレーションするための方法及び装置が提供される。例示的な一実施形態では、三次元撮像システムによって生成される画像をシミュレーションするための方法が提供される。三次元撮像システムによって生成される画像に生じる一組の影響の一組のモデルが特定される。三次元撮像システムによって生成される画像をシミュレーションするシミュレーション画像は、一組のモデル及び三次元レンダリングシステムを使用して生成される。
上述した種々の例示的な実施形態の説明は、例示及び説明を目的とするものであり、完全な説明であること、又はこれらの実施形態を開示された形態に限定することを意図していない。当業者には、多数の修正例及び変形例が明らかであろう。さらに、種々の例示的な実施形態は、他の例示的な実施形態とは異なる利点を提供することができる。選択された1つ又は複数の実施形態は、実施形態の原理、実際の用途を最もよく説明するため、及び他の当業者に対し、様々な実施形態の開示内容と、考慮される特定の用途に適した様々な修正との理解を促すために選択及び記述されている。
400 視野
401 三次元撮像システムの位置
402 全面
404 上面
406 左側面
408 背面
410 底面
412 右側面
414 視線
500 仮想環境
502 仮想撮像システム
504 仮想光源
506 仮想オブジェクト
600 シミュレーションした輝度の画像
700 シミュレーションした深度の画像
800 ポイントクラウド
802 頂点

Claims (12)

  1. 三次元撮像システム(102)によって生成される画像(104)のシミュレーション方法であって、
    三次元撮像システム(102)によって生成される画像に生じる一組の影響(130)の一組のモデル(128)を特定すること、及び
    一組のモデル(128)及び三次元レンダリングシステム(115)を使用して、三次元撮像システム(102)によって生成される画像をシミュレーションするシミュレーション画像(152)を生成すること
    を含む方法。
  2. 三次元撮像システム(102)が動作する環境(105)を表わす環境モデル(116)を特定すること、
    三次元撮像システム(102)によって生成される画像(104)に生じる一組の影響(130)を特定すること、
    環境モデル(116)を使用して、三次元撮像システム(102)が動作する実際の環境及び概念的環境のうちの一方を表わす仮想環境(114)を生成すること、並びに
    三次元撮像システム(102)をシミュレーションするように構成されたセンサモデル(118)を特定すること
    をさらに含む、請求項1に記載の方法。
  3. シミュレーション画像(152)を生成するステップが、
    一組の影響(130)の一組のモデル(128)、環境モデル(116)、センサモデル(118)、及び三次元レンダリングシステム(115)を使用して、画像バッファ(140)と深度バッファ(142)とを含むシミュレーションデータ(138)を生成すること
    を含む、請求項1又は2に記載の方法。
  4. シミュレーション画像(152)を生成するステップが、
    画像バッファ(140)及び深度バッファ(142)を使用して、三次元撮像システム(102)によって生成される画像(104)をシミュレーションするシミュレーション画像(152)を生成すること
    をさらに含む、請求項3に記載の方法。
  5. 画像バッファ(140)及び深度バッファ(142)を使用して、三次元撮像システム(102)によって生成される画像(104)をシミュレーションするシミュレーション画像(152)を生成するステップが、
    深度バッファ(142)を使用してポイントクラウドを生成すること、並びに
    ポイントクラウドと、画像バッファ(140)に含まれるシミュレーションした色の画像(144)及びシミュレーションした輝度の画像(145)のうちの少なくとも1つとを使用して、シミュレーション画像(152)を生成すること
    を含む、請求項4に記載の方法。
  6. 一組の影響(130)のうちの1つは任意の数の要因によって生じ、任意の数の要因(132)には、環境要因(134)及びコンポーネント要因(136)のうちの少なくとも1つが含まれ、一組の影響(130)には、歪み(200)、放射状の歪み(218)、接線方向の歪み(220)、色収差(202)、陰影(210)、ぼけ(208)、深度測定値の不整合(210)、フィールド効果の深さ(212)、口径食(214)、アナログ/デジタル変換の影響(216)、ノイズ(222)、及び飽和(224)のうちの少なくとも1つが含まれる、請求項1ないし5のいずれか一項に記載の方法。
  7. 三次元撮像システム(102)によって生成される画像(104)のシミュレーション装置であって、
    三次元撮像システム(102)を表わすように構成されているセンサモデル(118)、
    三次元撮像システム(102)が動作する環境(105)を表わす環境モデル(116)、並びに
    センサモデル(118)及び環境モデル(116)と通信しており、三次元撮像システム(102)によって生成される画像(104)に生じる一組の影響(130)の一組のモデル(128)を特定するように構成されている三次元レンダリングシステム(115)
    を備える装置。
  8. 環境モデル(116)を使用して三次元レンダリングシステム(115)によって作成された仮想環境(114)をさらに含んでおり、仮想環境(114)が、三次元撮像システム(102)が動作する実際の環境及び概念的環境のうちの一方を表し、
    三次元レンダリングシステム(115)は、さらに、センサモデル(118)及び一組の影響(130)の一組のモデル(128)を使用して仮想環境(114)内における三次元撮像システム(102)の動作をシミュレーションするように構成されている、
    請求項7に記載の装置。
  9. 三次元撮像システム(102)は、さらに、センサモデル(118)、環境モデル(116)、及び一組の影響(130)の一組のモデル(128)を使用してシミュレーションデータ(138)を生成するように構成されており、シミュレーションデータには画像バッファ(140)と深度バッファ(142)とが含まれている、請求項7又は8に記載の装置。
  10. 深度バッファ(142)には、シミュレーションした深度の画像(104)が含まれており、画像バッファ(140)には、シミュレーションした色の画像(144)及びシミュレーションした輝度の画像(145)のうちの少なくとも1つが含まれている、請求項7に記載の装置。
  11. 三次元レンダリングシステム(115)は、さらに、シミュレーションした深度の画像(104)、シミュレーションした色の画像(144)、及びシミュレーションした輝度の画像(145)のうちの少なくとも1つを使用してシミュレーション画像(152)を生成するように構成されており、シミュレーション画像(152)は、三次元撮像システム(102)が三次元レンダリングシステム(115)によって作成された仮想環境(114)に物理的にほぼ等価な環境(105)内で動作するときに、三次元撮像システム(102)によって生成される画像(104)を表わしている、請求項10に記載の装置。
  12. 三次元レンダリングシステム(115)は、さらに、シミュレーションした深度の画像(104)を使用してポイントクラウド(150)を生成し、且つポイントクラウド(150)と、画像バッファ(140)に含まれるシミュレーションした色の画像(144)及びシミュレーションした輝度の画像(145)のうちの少なくとも1つとを使用してシミュレーション画像(152)を生成するように構成されており、シミュレーション画像(152)は、三次元撮像システム(102)が三次元レンダリングシステム(115)によって作成された仮想環境(114)に物理的にほぼ等価な環境内で動作するときに、三次元撮像システム(102)によって生成される画像に生じる一組の影響(130)を表わすシミュレーションされた一組の影響を含んでいる、請求項9又は10に記載の装置。
JP2012261811A 2011-12-02 2012-11-30 三次元(3d)カメラのシミュレーション Pending JP2013117958A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/310,021 2011-12-02
US13/310,021 US20130141420A1 (en) 2011-12-02 2011-12-02 Simulation of Three-Dimensional (3D) Cameras

Publications (1)

Publication Number Publication Date
JP2013117958A true JP2013117958A (ja) 2013-06-13

Family

ID=47189743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012261811A Pending JP2013117958A (ja) 2011-12-02 2012-11-30 三次元(3d)カメラのシミュレーション

Country Status (3)

Country Link
US (1) US20130141420A1 (ja)
EP (1) EP2600314A1 (ja)
JP (1) JP2013117958A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9760837B1 (en) 2016-03-13 2017-09-12 Microsoft Technology Licensing, Llc Depth from time-of-flight using machine learning
US10062201B2 (en) 2015-04-21 2018-08-28 Microsoft Technology Licensing, Llc Time-of-flight simulation of multipath light phenomena

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105511093B (zh) * 2015-06-18 2018-02-09 广州优视网络科技有限公司 3d成像方法及装置
CN105570734B (zh) * 2015-11-06 2017-08-29 扬州市润源灯饰有限公司 防爆照明灯
DE102018201651A1 (de) * 2018-02-02 2019-08-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Erzeugung sensorrealistischer Bilder
DE102018130230A1 (de) * 2018-11-29 2020-06-04 Gestigon Gmbh Verfahren und System zur Erzeugung von Synthesebilddaten
CA3137651A1 (en) 2020-12-19 2022-06-19 The Boeing Company Combined multi-spectral and polarization sensor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026845A (ja) * 2008-07-22 2010-02-04 Yokogawa Electric Corp 車載カメラ用電子ユニットの評価システム
JP2010079453A (ja) * 2008-09-24 2010-04-08 Canon Inc 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068274B2 (en) * 2001-08-15 2006-06-27 Mitsubishi Electric Research Laboratories, Inc. System and method for animating real objects with projected images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026845A (ja) * 2008-07-22 2010-02-04 Yokogawa Electric Corp 車載カメラ用電子ユニットの評価システム
JP2010079453A (ja) * 2008-09-24 2010-04-08 Canon Inc 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10062201B2 (en) 2015-04-21 2018-08-28 Microsoft Technology Licensing, Llc Time-of-flight simulation of multipath light phenomena
US9760837B1 (en) 2016-03-13 2017-09-12 Microsoft Technology Licensing, Llc Depth from time-of-flight using machine learning
US10311378B2 (en) 2016-03-13 2019-06-04 Microsoft Technology Licensing, Llc Depth from time-of-flight using machine learning

Also Published As

Publication number Publication date
US20130141420A1 (en) 2013-06-06
EP2600314A1 (en) 2013-06-05

Similar Documents

Publication Publication Date Title
US11869139B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
KR102164471B1 (ko) 복합 현실 환경을 작성하기 위한 시스템 등
JP2013117958A (ja) 三次元(3d)カメラのシミュレーション
US9082213B2 (en) Image processing apparatus for combining real object and virtual object and processing method therefor
JP2021182404A (ja) 日常シーン復元エンジン
JP7247248B2 (ja) コンピュータビジョン方法及びシステム
US20190122374A1 (en) Systems and methods for motion capture
US20150097834A1 (en) Photorealistic Rendering of Scenes with Dynamic Content
CN105900143B (zh) 从图像确定镜面反射性
Gruyer et al. Modeling and validation of a new generic virtual optical sensor for ADAS prototyping
CN115205441A (zh) 图像渲染方法和装置
KR20230024982A (ko) 카메라 고유 교정
CN116091684B (zh) 基于WebGL的图像渲染方法、装置、设备及存储介质
JP2022151746A (ja) 画像レンダリング方法および装置
US11727535B2 (en) Using intrinsic functions for shadow denoising in ray tracing applications
CN115205439A (zh) 图像渲染方法和设备
JP2017228268A (ja) 複合現実環境を作成するためのシステム等
KR102242327B1 (ko) 조명 공간 정보 획득 장치 및 그 방법과 대상 공간의 조명 환경 평가 방법
CN116485984B (zh) 全景影像车辆模型全局光照模拟方法、装置、设备及介质
Hempe et al. Combining realistic virtual environments with real-time sensor simulations for close-to-reality testing and development in eRobotics applications
CN116977535B (zh) 一种实时光线追踪的方法、装置、存储介质及电子设备
US20230196665A1 (en) Techniques for improved lighting models for appearance capture
Lai Augmented Reality visualization of building information model
Cao et al. Shape and albedo recovery by your phone using stereoscopic flash and no-flash photography
Tehrani et al. Auto-calibration of multi-projector systems on arbitrary shapes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170321