JP2021519967A - 3dデバイスシミュレータビジュアライザのサービスとしてのプラットフォーム - Google Patents

3dデバイスシミュレータビジュアライザのサービスとしてのプラットフォーム Download PDF

Info

Publication number
JP2021519967A
JP2021519967A JP2020549037A JP2020549037A JP2021519967A JP 2021519967 A JP2021519967 A JP 2021519967A JP 2020549037 A JP2020549037 A JP 2020549037A JP 2020549037 A JP2020549037 A JP 2020549037A JP 2021519967 A JP2021519967 A JP 2021519967A
Authority
JP
Japan
Prior art keywords
model
view
perspective
space
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020549037A
Other languages
English (en)
Other versions
JP7177171B2 (ja
Inventor
エルドー レイフ,
エルドー レイフ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi America Ltd
Original Assignee
Hitachi America Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi America Ltd filed Critical Hitachi America Ltd
Publication of JP2021519967A publication Critical patent/JP2021519967A/ja
Application granted granted Critical
Publication of JP7177171B2 publication Critical patent/JP7177171B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Generation (AREA)

Abstract

本明細書で説明される例示的な実装形態は、高解像度3Dモデルを通じる、施設に設置されるデバイスのシミュレーションを対象とする。高解像度キャプチャデバイスを利用して施設の3D画像をキャプチャし、3Dモデルを生成し、それにより、3Dモデル内の自由空間においてデバイスを位置付けてシミュレーションを行い、デバイスの視点から施設のシミュレーション済みの斜視図を提供することができる。

Description

本開示は、デバイスシミュレーションを対象とし、より具体的には、三次元(3D)デバイスシミュレータビジュアライザのサービスとしてのプラットフォーム(PaaS)を対象とする。
オフィス空間、建物、屋外建造物などの施設の管理者は、彼らの予算や施設レイアウトに基づいて、ある機能を生み出すために、無数の可能なデバイスの中から彼らの施設用にどんなデバイスを購入及び設置するかをしばしば決定する必要がある。例えば、監視システムの設置は、施設内の多種多様な可能な位置において多種多様なカメラ、センサ及び他のデバイスの検討及び試験を行い、そのようなデバイスが彼らの施設内で彼らの意図する目的で効果的に機能するかどうかを判断することを伴い得る。施設用の照明、音声スピーカ、スプリンクラ及び他のものなどのデバイスの設置は、多くの異なるデバイスを購入し、施設内の多くの異なる位置において試験を行うことで、それらの有効性を決定することを伴い得る。特に、監視カメラ、センサ、照明などの機能の特定のエリア範囲を有する機器は、それらの機器が施設内の所望のエリアをカバーするかどうかを判断するために、物理的に試験及び監視が行われる。例えば、デバイスの物理的な試験が行われるまで、特定タイプの監視カメラが、施設内の特定のエリア又は物体をキャプチャするのに十分かどうか、又は、所望の目的に対して十分な解像度若しくは有効範囲で動作するかどうか分からない可能性がある。
関連技術では、施設管理者が施設のレイアウトを描写若しくは図示できるようにする及び/又はソフトウェアにおいて描写されたフロアプランに基づいて施設の三次元(3D)モデルを生成できるようにするコンピュータ支援設計(CAD)に基づくソフトウェアソリューションが存在する。また、そのようなソフトウェアソリューションは、施設管理者が、家具、ドア及び他の物体を表すポリゴン画像を3Dモデル内に置いて、施設のコンピュータグラフィックシミュレーションを提供することもできる。施設が構築されて、実際の試験を行うために施設管理者がデバイスを購入する前に、3Dモデル内に置いた際にデバイスがどのように機能するかに関するおおまかな推定を施設管理者に提供するために、3Dモデル内で斜視図を取ることができる。しかし、そのような実装形態は、実際の実装形態と設計された実装形態との差が大幅に異なるほど非現実的である場合が多い。
関連技術の実装形態では、施設が構築され、施設の対応する物体のすべての装備が整うと、施設管理者は、所定の施設に対するデバイスからの実景又はテレメトリを得るためにデバイスを物理的に設置し、デバイスをネットワークに接続し、次いで、施設内でデバイスがどのように機能するか(例えば、どんなカメラ視野又はテレメトリが実際に生成されるか、デバイスの視線の範囲など)の試験を行うためにデバイスを起動しなければならない。デバイスがその目的に対して不十分であるか又は施設の設置の観点から位置が不適切である場合は、施設管理者は、デバイスを取り除き、新しいデバイスを再設置するか又はそのデバイスを異なる位置に再設置しなければならない。そのような修正は、施設内でのデバイスの実際の機能を決定するために新しいデバイスを購入及び/又は再配置し、ネットワークに再接続し、再試験を行わなければならないため、高価である。
さらに、施設のモデルを提供するための関連技術のソフトウェアソリューションは、十分に現実的なものではないため、施設の装備が整って実際のデバイスがどのように機能するかを決定するには不十分である。このように、関連技術のソリューションは、施設がどのように配置されるかについてのCADレンダリングフロアプランに基づくものであり、そのようなプラットフォーム上でのデバイスシミュレーションは、施設の設置がされると実際のデバイスがどのように機能するかに関する推測しか提供せず、実際の実装形態と比べて不正確である場合が多い。さらに、そのような関連技術のソフトウェアソリューションでは、CADレンダリングフロアプラン内においてデバイスがどこに配置されているかを理解することが難しい場合がある。例えば、CADレンダリングフロアプランが3Dである場合は、物理的な報告書又はエクスポートされたドキュメントファイルへの3Dビューの投影は、実際の施設設置に関するそのようなデバイスの位置として紛らわしいビューを提供する。フロアプランのそのようなCADレンダリング3Dモデルは、非現実的である場合が多く、デバイスのコンピュータ図示3Dモデルと実際の実装形態との差が原因で、施設管理者が必要以上のデバイスの購入及び試験をもたらしかねない。
本明細書で説明される例示的な実装形態は、施設に設置されるデバイス潜在的な解像度及び範囲のすべてを包含する解像度を有し、且つ、3Dでイメージをキャプチャするように構成されたキャプチャデバイスによって撮られた画像から生成された3Dモデルを利用することによって、前述の問題に対処することを対象とする。試験を通じて、本明細書で説明される例示的な実装形態を実行する上で、例示的な実装形態に従って実行されたデバイスのモデル及びシミュレーションが、施設管理者がもはやデバイスが実際にどのように機能するかを決定するためにデバイスの物理的な購入及び彼らの施設内での設置/試験を行う必要がないほど十分に現実的なシミュレーションを提供したという点で、予想外の効果が見出された。例示的な実装形態から得られたシミュレーションは、そのようなコストを回避できるほど十分に現実的なものであった。
本開示の態様は、施設の3D画像を生成するように構成された装置によって提供された施設の画像から生成された施設の三次元(3D)モデルに対して、デバイスの配置のための3Dモデル上の3D空間における位置を受信することと、3D空間における位置からの3Dモデルの斜視図にデバイスのパラメータを適用することにより、3D空間における位置からの3Dモデルの制限斜視図を決定することであって、デバイスのパラメータが、デバイスの能力を示すことと、表示のために、デバイスをシミュレーションするための3D空間における位置からの3Dモデルの制限斜視図を生成することと、を伴う、方法を含み得る。
本開示の態様は、プロセスを実行するための命令を格納する非一時的なコンピュータ可読媒体であって、命令が、施設の3D画像を生成するように構成された装置によって提供された施設の画像から生成された施設の三次元(3D)モデルに対して、デバイスの配置のための3Dモデル上の3D空間における位置を受信することと、3D空間における場所からの3Dモデルの斜視図にデバイスのパラメータを適用することから、3D空間における位置からの3Dモデルの制限斜視図を決定することであって、デバイスのパラメータが、デバイスの能力を示す、ことと、表示のために、デバイスをシミュレーションするための3D空間における位置からの3Dモデルの制限斜視図を生成することとを含む、非一時的なコンピュータ可読媒体を含み得る。
本開示の態様は、施設の3D画像を生成するように構成された装置によって提供された施設の画像から生成された施設の三次元(3D)モデルに対して、デバイスの配置のための3Dモデル上の3D空間における位置を受信するための手段と、3D空間における位置からの3Dモデルの斜視図にデバイスのパラメータを適用することから、3D空間における位置からの3Dモデルの制限斜視図を決定するための手段であって、デバイスのパラメータが、デバイスの能力を示す、手段と、表示のために、デバイスをシミュレーションするための3D空間における位置からの3Dモデルの制限斜視図を生成するための手段と、を含む、システムを含み得る。
本開示の態様は、施設の3D画像をキャプチャするように構成されたキャプチャデバイスによって撮られた画像から生成された施設の三次元(3D)モデルを管理するように構成されたメモリと、デバイスの配置のための3Dモデル上の3D空間における位置を受け付けることと、3D空間における位置からの3Dモデルの斜視図にデバイスのパラメータを適用することから、3D空間における位置からの3Dモデルの制限斜視図を決定することであって、デバイスのパラメータが、デバイスの能力を示す、決定することと、表示のために、デバイスをシミュレーションするための3D空間における位置からの3Dモデルの制限斜視図を生成することとを行うように構成されたプロセッサとを含むシステムをさらに含み得る。
図1は、例示的な実装形態に従う、クラウドシステム用の物理的な構成例を示す。
図2は、例示的な実装形態に従う、3Dキャプチャデバイスによってキャプチャされた施設の高解像度画像を使用した3Dモデルの例を示す。
図3は、例示的な実装形態に従う、3Dモデルを有するインタフェースの例を示す。
図4は、例示的な実装形態に従う、3Dモデルの斜視図の例を示す。
図5は、例示的な実装形態に従う、3Dモデルに配置されたデバイスの制限斜視図を提供するインタフェースの例を示す。
図6は、例示的な実装形態に従う、3Dモデルから2Dビューへの変換の例を示す。
図7は、例示的な実装形態に従う、選択可能なデバイスに対する管理情報の例を示す。
図8は、例示的な実装形態に従う、シミュレーションのための3Dモデル上のデバイスの選択及び配置を処理するためのフロー図の例を示す。
図9は、例示的な実装形態に従う、3Dモデルビューを2Dビューに変換するためのフローの例を示す。
図10は、例示的な実装形態に従う、3Dモデルに配置されたデバイスに対する修正を処理するためのフロー図の例を示す。
以下の詳細な説明は、本出願の図及び例示的な実装形態のさらなる詳細を提供する。各図の相互間の冗長要素の参照番号及び説明は、明確にするために省略される。説明全体を通じて使用される用語は、例として提供され、制限することを意図しない。例えば、「自動」という用語の使用は、本出願の実装形態を実践する当業者の所望の実装形態に応じて、実装形態のある態様におけるユーザ又は管理者による制御を伴う全自動又は半自動の実装形態を含んでもよい。選択は、ユーザインタフェース又は他の入力手段を介してユーザによって行われることや、所望のアルゴリズムを介して行われることもできる。本明細書で説明される例示的な実装形態は、単独で又は組合せで利用することができ、例示的な実装形態の機能は、所望の実装形態に従って、いかなる手段を介しても実装することができる。
関連技術の問題に対処するため、本明細書で説明される例示的な実装形態は、施設の3D画像をキャプチャするように構成されたキャプチャデバイス(例えば、3Dカメラ、360度カメラ、魚眼カメラ、3Dモバイル深度検知デバイスなど)によって撮られた画像から生成された施設の3Dモデルを利用する。高解像度3Dキャプチャデバイスの出現により、典型的な監視デバイス及び他のセンサ並びに施設に典型的に設置されるデバイスの解像度を超える解像度での施設の極めて詳細なモデルのレンダリングが可能である。施設は所望の実装形態(例えば、監視すべき建物のフロア、オーディトリアム、屋外デッキ又はあずまや、家、オフィス空間など)に応じて本質的に非常に異なり得るため、本明細書で説明される例示的な実装形態は、所望の実装形態に従っていかなるタイプの施設までも拡張できるほど十分に柔軟である。
例示的な実装形態では、施設の3Dモデルがそのような高解像度画像でレンダリングされる際、起こる予想外の結果の1つは、典型的な監視デバイス及び他のセンサ/デバイスのすべてを現実的にシミュレーションすることができ、その結果、そのようなデバイスが施設内の所定の位置においてどのように動作するかをデバイスの視点からユーザに示すことができることである。施設に典型的に設置されるほとんどのデバイスは、或る解像度で動作し、高解像度3Dキャプチャデバイスより低い能力を有するため、そのような実装形態は可能である。従って、そのような実装形態を用いることで、デバイスの購入や物理的な設置の実施を実際に行う必要なく、所定の施設におけるデバイスの設置を現実的にシミュレーションすることができるようになる。従って、本明細書で説明される例示的な実装形態は、施設のそれらのデバイスの動作をシミュレーションするためにデバイスの購入及び物理的な設置の実施に対する費用及び時間を伴う関連技術のソリューションより優れたソリューションを提供する。そのような例示的な実装形態は、施設のグラフィカルにレンダリングされたCADモデルより優れており、施設のグラフィカルにレンダリングされたCADモデルは、施設の人工的な図示を提供することはできるが、本明細書で説明されるような高解像度3Dキャプチャデバイスからキャプチャされた3D画像の利用と同じくらい現実的なものでなく、設置の実際の影響を決定するために、施設管理者が施設内のデバイス設置の試験及び再試験を行わなければならなくなることをしばしばもたらす。
そのような3Dキャプチャデバイスの高解像度の本質により、汎用コンピュータの能力を超える可能性があるモデルをレンダリングするための処理能力が必要とされる。そのような問題に対処するため、例示的な実装形態は、撮像された画像の処理及びバックグラウンドでの3Dモデルのレンダリングを行うためにクラウドベースのソリューションを利用し、モバイルデバイス、ラップトップなどのクライアントデバイス)は、施設に設置予定のデバイスのシミュレーションを実施するために、クラウドを介して3Dモデルにアクセスすることができる。このような実装形態を用いることで、施設の3Dモデルをバックグラウンドで生成することができ、施設の高解像度3Dモデルのレンダリングに必要な時間を低減する(例えば、汎用コンピュータでの1週間をクラウドシステムでの1日以内に)ために、クラウドシステムからの追加のコンピューティング及び資源を活用することができる。さらに、3Dモデルを生成する際、選択された位置からの3Dモデル内の斜視図を生成するための当技術分野で知られているアルゴリズムを採用することができ、追加のレンダリング又は過度の処理タイムラグなしで、リアルタイムでクライアントデバイスにビューを表示することができる。
さらに、そのようなモデルの高解像度の本質により、例示的な実装形態は、ドキュメントファイルにエクスポートするための3D画像から2Dへのシームレスな変換を提供することができる。そのような実装形態は、施設に関するそのようなデバイスの配置の2Dでの斜視図を提供し、それにより、3D画像をドキュメントファイルに直接エクスポートすることに比して、ドキュメントファイルでのより理解し易いビューを提供することができ、それを利用して、施設管理者は、施設内の所望のデバイスの設置位置を容易に理解し、正確に決定することができる。
図1は、例示的な実装形態に従う、クラウドシステム用の物理的な構成の例を示す。1以上のクライアントデバイス(例えば、ラップトップ、モバイルデバイスなど)1、ストレージ2及び1以上のサーバ3は、ネットワーク4を介して互いに接続される。各クライアントデバイス1は、中央処理装置(CPU)11、メモリ12、記憶装置13及びネットワークポート14を含み得る。ストレージ2は、CPU 21、メモリ22、記憶装置23及びネットワークポート24を含み得る。サーバ3は、CPU 31、メモリ32、記憶装置33及びネットワークポート34を含み得る。ネットワーク4は、インターネットプロトコル(IP)又はストレージエリアネットワーク(SAN)など、所望の実装形態に従って、いかなるタイプのネットワークとしても実装することができる。CPU 11、21、31は、1つ又は複数の物理的なハードウェアプロセッサの形態を取ることができる。
例示的な実装形態では、ストレージシステム2の記憶装置23は、1以上の施設の1以上の3Dモデル及び未処理のイメージを管理することができる。クライアントデバイス1がサーバ3のうちの1つに施設の3Dモデルを要求すると、サーバ3は、クライアントデバイス1に提示するために、施設の対応する3Dモデルをストレージシステム2から回収し、その3Dモデルを記憶装置33及びメモリ32にロードすることができる。新しい施設の3D画像をキャプチャするように構成された高解像度キャプチャデバイスから撮られた未処理の画像がストレージシステム2に提供されると、ストレージシステム2は、1以上のサーバ3と協働して、CPU 31、メモリ32、CPU 21、メモリ22などの資源を仮想化し、記憶装置23に格納するために撮像された画像から施設の3Dモデルを生成することができる。施設の3Dモデルが生成されると、その3Dモデルをサーバ3のメモリ32に提供されることができ、その結果、メモリ32は、デバイス1からの要求に応答して施設の3Dモデルを管理する。また、メモリ32及びメモリ22は、図7に示されるように、シミュレーションに利用可能なデバイス及びそれらの対応するパラメータのすべてを示す管理情報を管理するように構成することもできる。
クライアントデバイス1が、その対応するメモリ32から3Dモデルをロードするサーバ3のうちの1つに接続されると、対応するプロセッサ31は、デバイスの配置のための3Dモデル上の3D空間における位置をクライアントデバイス1から受信し、図3に示されるように3Dモデルにデバイスを配置するために図8のフロー図を実行するように構成することができる。また、プロセッサ31は、図7に示されるようなメモリ32内の管理情報から選択された複数の可能なデバイスの中からの特定のデバイスの選択を受け取るように構成することもできる。また、プロセッサ31は、所望の実装形態に従って、方向ベクトルの形態で又は他の任意の入力手段を介して、デバイスの方向を受け取るように構成することもできる。プロセッサ31は、3D空間における位置からの3Dモデルの斜視図に、図7の管理情報から決定されるデバイスのパラメータを適用することから、3D空間における位置からの3Dモデルの制限斜視図を決定する。デバイスのパラメータは、デバイスの能力(例えば、デバイスが所定の方向においてどれほど撮像及び表示できるかという形態のデバイスの許容視界、最大、利用可能な範囲、及び利用可能な解像度能力を示す解像度、ズーム能力を示すための許容ズーム、デバイスのパン及びティルト能力という形態のデバイスのパラメータに従う許容視線移動、デバイスの回転/移動速度など)を示す。プロセッサ31は、図3及び5に示されるように、表示のために、クライアントデバイス1上に、デバイスをシミュレーションするための3D空間における位置からの3Dモデルの制限斜視図を生成することができる。プロセッサ31は、システムによって管理されるデバイス以上の解像度で3Dモデルが生成されることにより、デバイスによってシミュレーションされる斜視図のすべての可能なレンダリングのスーパーセットとしての斜視図の機能に応じて、デバイスのパラメータに従って許容視界、解像度、許容ズーム及び許容視線移動の少なくとも1つを修正することによって、3D空間における位置からの3Dモデルの斜視図に、デバイスのパラメータを適用することから、3D空間における位置からの3Dモデルの制限斜視図を生成することができる。
図7の管理情報及び図3のインタフェースに示されるように、デバイスは、複数のタイプのカメラ(例えば、異なるモデルの監視カメラ、赤外線、ビデオ、追跡、3Dなどの異なるタイプのカメラ)及び複数のタイプのセンサ(例えば、赤外線、光、異なるセキュリティセンサモデルなど)の少なくとも1つから選択することができる。所望の実装形態に従って、異なるタイプの音声スピーカ、照明、照明用ポール、煙探知器、スプリンクラ、及び施設に設置できる他の任意のデバイスなどの他のデバイスが利用及びシミュレートされてもよい。
例示的な実装形態では、クライアントデバイス1が、3Dモデルをドキュメントファイルにエクスポートする命令を提示すると、プロセッサ31は、図6に示されるように3Dモデルの2Dビューを生成するために、図9のフロー図を実行して、3Dモデルが軸に直交するまで3Dモデルを回転させることに基づいて、3D空間における位置のインジケータを有する3Dモデルの他の斜視図を生成し、3D空間における位置のインジケータを有する3Dモデルの他の斜視図をドキュメントファイルにエクスポートするように構成することができる。
また、プロセッサ31は、3D空間においてシミュレーションされているデバイスの位置の変更を受信することに応答して、3D空間における位置からの3Dモデルの斜視図を変更し、3D空間における位置からの3Dモデルの変更された斜視図にデバイスのパラメータを適用することで、3D空間における位置からの3Dモデルの制限斜視図を再生成することによって、図10のフロー図を実行するように構成してもよい。3Dモデルは対応するサーバ3によって管理され、モデルが利用可能な際はモデル用の斜視図生成アルゴリズムが演算的に高価ではないため、そのようなビューは、クライアントデバイス1によって提示された命令に応答してリアルタイムで提供されることができる。
同様に、プロセッサ31は、図3に示されるように、デバイスのパラメータを示すインタフェースを提供し、クライアントデバイス1によるインタフェース上のパラメータのうちの1以上の修正が受け付けられると、図10のフロー図を実行することによって、パラメータのうちの1以上の修正に基づいて制限斜視図を修正するように構成することができる。同様に、デバイスを別のデバイスに変更するというインタフェースへの命令が受け付けられると、プロセッサ31は、図10のフロー図の実行を通じて、3D空間における位置からの3Dモデルの斜視図に別のデバイスのパラメータを適用することにより、3D空間における位置からの3Dモデルの制限斜視図を再生成することができる。
図2は、例示的な実装形態に従う、3Dキャプチャデバイスによってキャプチャされた施設の高解像度画像を使用した3Dモデルの例を示す。図2の例では、施設の3Dモデル200は、高解像度3Dキャプチャデバイスによってキャプチャされる施設の利用可能な画像からレンダリングされる。そのようなモデルは、3D画像スティッチングを通じて、または、所望の実装形態に従って画像から3Dモデルを生成するための他の任意の方法を通じて構築することができ、本開示は、特定の実装形態による制限を受けない。例示的な実装形態では、インタフェースは、施設に設置するデバイスのタイプ及び3Dモデル内の位置を選択するために提供される。デバイスのタイプ及び位置が選択されると、201−1、201−2、202−3で示されるように、デバイスが3Dモデル上に示される。所望の実装形態に応じて、202−1、202−2、202−3で示されるように、デバイスの範囲(例えば、視界、センサ範囲、有効エリアなど)が3Dモデル上に示され、その範囲は、任意の所望の実装形態に従って決定されて表示され得る。
図3は、例示的な実装形態に従う、3Dモデルを有するインタフェースの例を示す。3Dモデル300は、所望の実装形態に従って、1以上のインタフェース301、302と関連付けることもできる。インタフェースの例示的な実装形態では、デバイスは、インタフェース301を通じて選択することができ、インタフェースには、デバイスパラメータを表示することもできる。デバイスは、選択されたデバイス上のドラッグ&ドロップ操作を通じて、座標の入力を通じて、又は、所望の実装形態による他の任意の方法を通じて、3Dモデル300内の自由空間において自由に割り当てることができる。所望の実装形態に応じて、デバイスの方向は、ドラッグ操作を通じて、ボタンクリックを通じて選択することも、デフォルトに設定することもできる。デバイスからのシミュレーションされた斜視図は、自由空間の位置へのデバイスの配置及びデバイスの方向の選択に応答して、インタフェース302において提供することができる。インタフェース302は、所望の実装形態に従って、ズーム、視界など、デバイスの制御をシミュレーションするための制御を含み得る。
図4は、例示的な実装形態に従う、3Dモデルの斜視図の例を示す。具体的には、図4は、3Dモデル上の配置されたデバイスの空間におけるポイント及びベクトル方向からの3Dモデルの未処理の斜視図の例を示す。そのような斜視図は、所望の実装形態に従っていかなる方法によっても生成することができる。3Dモデルは3Dキャプチャデバイスからキャプチャされた画像の合成物から生成されるため、3Dモデルのレンダリングに利用される実装形態に応じて、施設の不完全なキャプチャによって生じるアーチファクト401が存在し得る。しかし、そのようなアーチファクトはデバイスのシミュレーションの目的では少ない傾向にあるため、斜視図の例は、設置されるデバイスのシミュレーションのために制限斜視図を生成することができる高解像度画像を提供する。施設の画像をキャプチャするために使用される3Dキャプチャデバイスの解像度は、所望の実装形態に従うものであり得、「高」解像度は、キャプチャされた解像度がシミュレーションされるデバイスの解像度を満たすか又は超えるという意味で利用される。従って、そのような高解像度モデリングから、デバイス設置の現実的なシミュレーションが実行され得る。
図5は、例示的な実装形態に従う、3Dモデルに配置されたデバイスの制限斜視図を提供するインタフェースの例を示す。具体的には、図5は、選択されたデバイスに基づく図4の制限斜視図の例を示し、図3に示されるようなインタフェース302の別の例示的な実装形態である。この例では、選択されたデバイスは監視カメラであるが、本明細書で説明されるように他のデバイスをシミュレーションしてもよく、本開示はそれに限定されない。3Dキャプチャデバイスの使用を通じて高解像度3D画像をキャプチャする能力や、そのような画像から3Dモデルを生成する能力を用いることで、施設に設置される典型的なデバイスのほとんどを現実的にシミュレーションすることができるという点で予想外の結果が起こり、シミュレーションされたビューは、そのようなデバイスの実際の物理的な購入及び設置に匹敵する。その理由は、そのようなデバイス機能のほとんどが未処理の斜視図より低い解像度又は少ない能力を有することを理由に、制限斜視図結果を生成するためにデバイスのパラメータ及び能力に基づいて未処理の斜視図を修正することにより、デバイスの現実的なシミュレーションが行われるためである。例えば、デバイスが1024×768の最大解像度を有するカメラである場合は、斜視図の解像度は、デバイスの最大解像度を満たすように低減することができ、生成される制限斜視図は、その最大解像度に修正された斜視図であり得る。別の例では、デバイスが白黒画像しか生成できないカメラである場合は、斜視図は、デバイスのカメラビューをシミュレーションするために、グレースケールに変更することができる。別の例では、デバイスが赤外線セキュリティセンサである場合は、カラーパレットの変更に基づいて、画像は、赤外線画像に見えるように修正され得る。
図5のインタフェースの例では、制限斜視図501は、上述されているような図4の未処理の斜視図の修正に基づいて提供される。図5の例では、制限斜視図501は、3D画像を生成するために使用されたキャプチャデバイスより低い解像度を有する監視カメラのテレメトリをシミュレーションするために、図4の未処理の斜視図のディスプレイ解像度を低下させることから形成される。インタフェースオプションの例は、ビューが一時停止中又はライブであるかを示すためのインジケータ502、デバイスをシミュレーションするための再生オプション503、シミュレーションを停止するための停止オプション504、ドキュメントファイルに組み込むためのビューのスナップショットを取るためのスナップショット505及びデバイスの制御をシミュレーションするためのコントローラ506を含み得る。
デバイスをシミュレーションするための再生503を選択する例示的な実装形態では、インジケータ502は、ライブに切り替えられ、制限斜視図501は、デバイスの機能をシミュレーションするために、リアルタイムでリフレッシュされる。例えば、デバイスが施設を90度で周期的にパンする監視カメラである場合は、制限斜視図501は、そのパラメータに従ってデバイスの周期的なパンニングをシミュレーションするために、リアルタイムで絶えず変更される。デバイスがスプリンクラ又はある種の照明である場合は、パラメータに基づいて、制限斜視図のエリアは、スプリンクラ又は照明が届かないところを示すために様々なエリアで薄暗くされたり、スプリンクラ又は照明が届くところを示すためにエリアをハイライトされたりする。シミュレーションされるデバイスのタイプに応じて、デバイスをシミュレーションするための他の実装形態を採用することもできる。
コントローラ506の例示的な実装形態では、デバイスのパラメータに従って制限されるように、制御は、斜視図のパン、ズーム及びティルトを変更することができる。例えば、デバイスが4×の倍率のズームのみ可能である場合は、コントローラは、最大で4×の倍率までズームインするように制限斜視図501を制御することができる。デバイスが特定の範囲に限定される視界を有する場合は、コントローラは、最大でその特定の範囲まで変更するように制限斜視図501を制御することができる。所望の実装形態に従って、他の実装形態を利用することもできる。
別の例示的な実装形態では、図3に示されるような3Dモデルと併せて、デバイスの位置を変更することもできる。例えば、特定のデバイスの設置に対して提案された位置が不十分であると見なされることを制限斜視図501が示す場合は、図3に示されるような3Dモデル上に位置するデバイスをドラッグ&ドロップすることを通じて、コントローラ506を通じて、又は、所望の実装形態による他の任意の実装形態を通じて、デバイスの位置を再配置することができる。デバイスの位置が変更されると、所望の実装形態に従って、配置及び新しい位置からの画角並びにデバイスのパラメータに基づいて、制限斜視図501は修正され得る。
別の例示的な実装形態では、提供された制限斜視図501に基づいてデバイスが不十分であると見なされる場合は、インタフェース301などのインタフェースを通じて、又は、所望の実装形態による他のいくつかの方法を通じて、デバイスを変更することができる。インタフェース301を通じて又は他の方法を通じて別のデバイスの選択が受け付けられると、デバイスは、3Dモデルの自由空間における対応する位置において、選択されたデバイスと交換され、制限斜視図501は、新しく選択されたデバイスのパラメータ及び能力に基づいて再生成される。
図6は、例示的な実装形態に従う、3Dモデルから2Dビューへの変換の例を示す。例示的な実装形態では、図2に示されるような3Dモデルは、デバイスの配置位置を理解し易くするために2Dビューに変換され、2Dビューは、3Dモデルの直角図から導出することができる。そのような図は、直角回転における上面図及び側面図を含み得る。
図7は、例示的な実装形態に従う、選択可能なデバイスに対する管理情報の例を示す。図3に示されるようなインタフェースでは、デバイスは、選択され(例えば、インタフェース301を通じて)、3Dモデル300上に配置され、及び、シミュレーション(例えば、インタフェース302を通して)され得る。選択可能なデバイスのパラメータは、図7に示されるような管理情報によって管理され得る。選択可能なデバイスの例は、これらに限定されないが、所望の実装形態に従って、異なるタイプのカメラ(例えば、様々なタイプの監視カメラ、赤外線カメラなど)、異なるタイプのセンサ(例えば、超音波、セキュリティ、光)又は照明、スプリンクラ、火災報知器、スピーカなどの他のデバイスを含み得る。パラメータの例は、所望の実装形態に従って、解像度(例えば、デバイスに対する表示可能な解像度オプション、最大解像度など)、視界(例えば、最大パンニング範囲、最大ズーム範囲、最大ティルト範囲、所定の方向に対する最大視界など)、制限斜視図を生成するために斜視図にもたらすべき効果(例えば、白黒又はグレースケール視覚化、カラーフィルタリング、スプリンクラ/照明/センサの有効エリアを示すためのあるエリアの減光/照光など)及びデバイスをシミュレーションするための他のパラメータ(例えば、デバイスのパンニング/ズーム/ティルト時間、自動物体追跡など)を含み得る。制限斜視図は、選択されたデバイスのパラメータに基づいて、デバイスの位置及び方向からの高解像度斜視図から生成される。
図8は、例示的な実装形態に従う、シミュレーションのための3Dモデル上のデバイスの選択及び配置を処理するためのフロー図の例を示す。801では、図3に示されるように、3Dモデル上に選択されたデバイスを配置するための、デバイス選択、3Dモデル上の3D空間における位置選択及び方向選択が受信される。802では、3D空間における選択された位置からの選択された方向に沿った3Dモデルの斜視図を取り入れることによって、3Dモデルの制限斜視図が生成され、次いで、図3、5及び7で説明されるように、選択されたデバイスのパラメータに基づいて斜視が修正される。803では、表示のために、図5に示されるような生成された制限斜視図に従って選択されたデバイスがシミュレーションされる。図8のフローの実行を通じて、デバイスがその目的に適切であることを確認するために、そのようなデバイスの物理的な購入及び設置を必要とすることなく、施設に対してデバイス設置を現実的にシミュレーションすることができる。そのような実装形態により、施設管理者は、デバイスの物理的な設置から生じるコストを節約することや、高解像度3Dキャプチャデバイスから構築された3Dモデルの使用によってポリゴンベースのCAD実装形態からより現実的な結果を生み出すことができる。3Dモデルは高解像度3Dキャプチャデバイスから構築されるため、施設に設置される典型的なデバイスのほとんどの解像度を包含することができ、従って、典型的なデバイスのほとんどは、物理的な設置を必要とすることなく、所定の施設に対して現実的にシミュレーションすることができる。
図9は、例示的な実装形態に従う、3Dモデルビューを2Dビューに変換するためのフローの例を示す。901では、3Dモデルのビューが1つの軸(例えば、3D空間におけるX、Y、Z又は所望の平面)に直交するまで、図3に示されるような3Dモデルが回転される。このステップは、生成されるビューが1つの軸に直交するまで回転させることによって遂行すること及び/又は事前に定義された2Dビュー(例えば、上面、側面、正面、背面など)から選択することができる。902では、回転に基づいて、図6に示されるように軸に直交するように回転させた3Dビューから2Dビューが生成される。従って、表示のために、所望の実装形態に応じて、回転させた斜視図を2Dビューとして提供することができる。903では、印刷又はEメール送信のために、所望の実装形態に応じて、2Dビューはドキュメントファイルにエクスポートされ得る。そのような実装形態を通じて、施設レイアウトに対するデバイスの位置を示す鮮明な2Dフロアプランを生成し、施設管理者によってそのようなデバイスを物理的に設置するために利用することができる。
図10は、例示的な実装形態に従う、3Dモデルに配置されたデバイスへの修正を処理するためのフロー図の例を示す。1001では、3Dモデル上に配置されたデバイスのうちの1つへの修正が受け付けられる。1002では、修正のタイプが決定される。修正のタイプがデバイスを別の新しいデバイスに変更することである場合は、フローは1003に進む。修正のタイプがデバイスの位置又は方向を変更することである場合は、フローは1004に進む。
1003では、デバイスが異なる新しいデバイスに変更されると、制限斜視図が、新しいデバイスのパラメータに基づいて更新される。1004では、位置又は方向が変更されると、制限斜視図がデバイスの再配置又は方向変更に基づいて再生成される。1005では、デバイスに対して行われたパラメータ変更に応答して、制限斜視図が、変更されたパラメータに基づいて変更される。上述のフローは、図8のフローに修正を加えて再実行することによって遂行され得る。
図8及び10のフローの実行を通じて、施設管理者は、試験のためにそのようなデバイスの物理的な購入及び設置を必要とすることなく、施設に設置されるデバイスのシミュレーション、試験、変更及び再配置を行うことができる。さらに、3Dモデルはクラウドシステムにおいてレンダリングされるため、制限斜視図の変更及び再生成は、3Dモデル内の位置からの斜視図を生成するために当技術分野で知られている任意の方法を利用することを通じて、インタフェースに対して行われた修正に応答して、リアルタイムで実施することができる。従って、施設管理者は、演算的に高価なモデリング又は物理的な設置を必要とすることなく、修正に応答して速やかに、設置を検討中のデバイスの現実的なシミュレーションを生成することができる。
詳細な説明のいくつかの部分は、コンピュータ内の動作のアルゴリズム及び象徴的表象の観点から提示される。これらのアルゴリズム記述及び象徴的表象は、データ処理分野の当業者によって、彼らの革新の本質を当技術分野の他の者に伝えるために使用される手段である。アルゴリズムは、所望の最終状態又は結果をもたらす定義された一連のステップである。例示的な実装形態では、実行されるステップは、目に見える結果を達成するための具体的な量の物理的な操作を必要とする。
別段の具体的な言明がない限り、論考から明らかであるように、説明全体を通じて、「処理すること」、「演算すること」、「計算すること」、「決定すること」、「表示すること」などの用語又は同様の用語を利用する論考は、コンピュータシステムのレジスタ及びメモリ内の物理(電子)量として表現されるデータをコンピュータシステムのメモリ若しくはレジスタ、又は、他の情報記憶装置、伝送若しくは表示デバイス内の物理量として同様に表現される他のデータに操作及び変換するコンピュータシステム又は他の情報処理デバイスのアクション及びプロセスを含み得ることが理解される。
また、例示的な実装形態は、本明細書の動作を実行するための装置にも関連してもよい。この装置は、必要な目的のために特別に構築することも、1つ以上のコンピュータプログラムによって選択的に起動又は再構成される1つ以上の汎用コンピュータを含むことも可能である。そのようなコンピュータプログラムは、コンピュータ可読記憶媒体又はコンピュータ可読信号媒体などのコンピュータ可読媒体に格納することができる。コンピュータ可読記憶媒体は、これらに限定されないが、光ディスク、磁気ディスク、読み取り専用メモリ、ランダムアクセスメモリ、ソリッドステートデバイス及びドライブ、又は、電子情報の格納に適した他の任意のタイプの有形若しくは非一時的な媒体など、有形媒体に関与し得る。コンピュータ可読信号媒体は、搬送波などの媒体を含み得る。本明細書で提示されるアルゴリズム及び表示は、特定のコンピュータ又は他の装置に本質的に関連するものではない。コンピュータプログラムは、所望の実装形態の動作を実行する命令を伴う純粋なソフトウェア実装形態に関与し得る。
本明細書の例によるプログラム及びモジュールと共に様々な汎用システムを使用してもよく、所望の方法ステップを実行するためにより専門的な装置を構築する方が便利であることが判明することもあり得る。それに加えて、例示的な実装形態は、特定のプログラミング言語に関して説明されるものではない。本明細書で説明されるような例示的な実装形態の教示を実施するため、様々なプログラミング言語を使用できることが理解されよう。プログラミング言語の命令は、例えば、中央処理装置(CPU)、プロセッサ又はコントローラなどの1以上の処理デバイスによって実行することができる。
当技術分野で知られているように、上述の動作は、ハードウェア、ソフトウェア又はソフトウェアとハードウェアの何らかの組合せによって実行することができる。例示的な実装形態の様々な態様は、回路及び論理デバイス(ハードウェア)を使用して実装することができる一方で、他の態様は、機械可読媒体(ソフトウェア)上に格納される命令を使用して実装することができ、その命令は、プロセッサによって実行されれば、本出願の実装形態を実行するための方法をプロセッサに実行させることになる。さらに、本出願のいくつかの例示的な実装形態は、ハードウェアにおいてのみ実行することができるのに対して、他の例示的な実装形態は、ソフトウェアにおいてのみ実行することができる。その上、説明される様々な機能は、単一のユニットにおいて実行することも、任意の数の方法で多くのコンポーネントにわたって散在することもできる。ソフトウェアによって実行される際、方法は、汎用コンピュータなどのプロセッサによって、コンピュータ可読媒体上に格納された命令に基づいて実行することができる。必要に応じて、命令は、圧縮及び/又は暗号化フォーマットで媒体上に格納することができる。
その上、本出願の他の実装形態は、本出願の仕様及び教示の実践を考慮することによって、当業者に明らかになるであろう。説明される例示的な実装形態の様々な態様及び/又はコンポーネントは、単独で又は任意の組合せで使用することができる。仕様及び例示的な実装形態は単なる例と見なされることが意図され、本出願の真の範囲及び精神は、以下の特許請求の範囲によって示される。

Claims (20)

  1. 施設の3D画像をキャプチャするように構成されたキャプチャデバイスによって撮られた前記施設の画像から生成された前記施設の三次元(3D)モデルに対して、
    デバイスの配置のための前記3Dモデル上の3D空間における位置を受け付けることと、
    3D空間における前記位置からの前記3Dモデルの斜視図に前記デバイスのパラメータを適用することから、3D空間における前記位置からの前記3Dモデルの制限斜視図を決定することであって、前記デバイスの前記パラメータは、前記デバイスの能力を示す、ことと、
    表示のために、前記デバイスのシミュレーションをするための3D空間における前記位置からの前記3Dモデルの前記制限斜視図を生成することと、
    を含む、方法。
  2. 前記デバイスは、複数のタイプのカメラ及び複数のタイプのセンサの少なくとも1つから選択される、請求項1に記載の方法。
  3. 前記3Dモデルの2Dビューを生成するという命令を受け取ると、
    前記3Dモデルが軸に直交するまで前記3Dモデルを回転させることに基づいて、3D空間における前記位置のインジケータを有する前記3Dモデルの他の斜視図を生成し、
    前記他の斜視図を前記2Dビューとして提供する、請求項1に記載の方法。
  4. 3D空間における前記位置の変更を受け取ると、3D空間における前記位置からの前記3Dモデルの前記斜視図を変更し、3D空間における前記位置からの前記3Dモデルの前記変更された斜視図に、前記デバイスの前記パラメータを適用して、3D空間における前記位置からの前記3Dモデルの前記制限斜視図を再生成する、請求項1に記載の方法。
  5. 3D空間における前記位置からの前記3Dモデルの斜視図に前記デバイスのパラメータを適用することから、3D空間における前記位置からの前記3Dモデルの前記制限斜視図を前記決定することは、前記デバイスの前記パラメータに従って、許容視界、解像度、許容ズーム及び許容視線移動の少なくとも1つを修正することを含む、請求項1に記載の方法。
  6. 前記デバイスの前記パラメータを示すインタフェースを提供することと、
    前記インタフェース上の前記パラメータのうちの1以上の修正を受け取ると、前記パラメータのうちの1以上の前記修正に基づいて前記制限斜視図を修正することと、
    をさらに含む、請求項1に記載の方法。
  7. 前記デバイスを別のデバイスに変更するという命令が受け取ると、3D空間における前記位置からの前記3Dモデルの前記斜視図に前記別のデバイスの前記パラメータを適用することから、3D空間における前記位置からの前記3Dモデルの前記制限斜視図を再生成すること
    をさらに含む、請求項1に記載の方法。
  8. プロセスを実行するための命令を格納する非一時的コンピュータ可読媒体であって、前記命令は、
    施設の3D画像をキャプチャするように構成されたキャプチャデバイスによって撮られた前記施設の画像から生成された前記施設の三次元(3D)モデルに対して、
    デバイスの配置のための前記3Dモデル上の3D空間における位置を受け付けることと、
    3D空間における前記位置からの前記3Dモデルの斜視図に前記デバイスのパラメータを適用することから、3D空間における前記位置からの前記3Dモデルの制限斜視図を決定することであって、前記デバイスの前記パラメータは、前記デバイスの能力を示す、ことと、
    表示のために、前記デバイスをシミュレーションするための3D空間における前記位置からの前記3Dモデルの前記制限斜視図を生成することと
    を含む、非一時的コンピュータ可読媒体。
  9. 前記デバイスは、複数のタイプのカメラ及び複数のタイプのセンサの少なくとも1つから選択される、請求項8に記載の非一時的コンピュータ可読媒体。
  10. 前記命令は、
    前記3Dモデルの2Dビューを生成するという命令を受け取ると、
    前記3Dモデルが軸に直交するまで前記3Dモデルを回転させることに基づいて、3D空間における前記位置のインジケータを有する前記3Dモデルの別の斜視図を生成することと、
    前記別の斜視図を前記2Dビューとして提供することと
    をさらに含む、請求項8に記載の非一時的コンピュータ可読媒体。
  11. 前記命令は、
    3D空間における前記位置の変更を受け取ると、3D空間における前記位置からの前記3Dモデルの前記斜視図を変更し、3D空間における前記位置からの前記3Dモデルの前記変更された斜視図に前記デバイスの前記パラメータを適用し、3D空間における前記位置からの前記3Dモデルの前記制限斜視図を再生成すること
    をさらに含む、請求項8に記載の非一時的コンピュータ可読媒体。
  12. 3D空間における前記位置からの前記3Dモデルの斜視図に前記デバイスのパラメータを適用することから、3D空間における前記位置からの前記3Dモデルの前記制限斜視図を前記決定することは、前記デバイスの前記パラメータに従って、許容視界、解像度、許容ズーム及び許容視線移動の少なくとも1つを修正することを含む、請求項8に記載の非一時的コンピュータ可読媒体。
  13. 前記命令は、
    前記デバイスの前記パラメータを示すインタフェースを提供することと、
    前記インタフェース上の前記パラメータのうちの1つ又は複数の修正を受け取ると、前記パラメータのうちの1つ又は複数の前記修正に基づいて前記制限斜視図を修正することと
    をさらに含む、請求項8に記載の非一時的コンピュータ可読媒体。
  14. 前記命令は、
    前記デバイスを別のデバイスに変更するという命令を受け取ると、3D空間における前記位置からの前記3Dモデルの前記斜視図に前記別のデバイスの前記パラメータを適用することから、3D空間における前記位置からの前記3Dモデルの前記制限斜視図を再生成すること
    をさらに含む、請求項8に記載の非一時的コンピュータ可読媒体。
  15. 施設の3D画像をキャプチャするように構成されたキャプチャデバイスによって撮られた画像から生成された前記施設の三次元(3D)モデルを管理するように構成されたメモリと、
    デバイスの配置のための前記3Dモデル上の3D空間における位置を受け付けることと、
    3D空間における前記位置からの前記3Dモデルの斜視図に前記デバイスのパラメータを適用することから、3D空間における前記位置からの前記3Dモデルの制限斜視図を決定することであって、前記デバイスの前記パラメータが、前記デバイスの能力を示す、ことと、
    表示のために、前記デバイスをシミュレーションするための3D空間における前記位置からの前記3Dモデルの前記制限斜視図を生成することとを行うように構成されたプロセッサと、
    を含むシステム。
  16. 前記デバイスは、複数のタイプのカメラ及び複数のタイプのセンサの少なくとも1つから選択される、請求項15に記載のシステム。
  17. 前記3Dモデルの2Dビューを生成するという命令を受け取ると、前記プロセッサは、
    前記3Dモデルが軸に直交するまで前記3Dモデルを回転させることに基づいて、3D空間における前記位置のインジケータを有する前記3Dモデルの別の斜視図を生成することと、
    前記2Dビューとして前記別の斜視図を提供することと
    を行うように構成される、請求項15に記載のシステム。
  18. 3D空間における前記位置の変更を受け取ると、前記プロセッサは、3D空間における前記位置からの前記3Dモデルの前記斜視図を変更し、3D空間における前記位置からの前記3Dモデルの前記変更された斜視図に前記デバイスの前記パラメータを適用し、3D空間における前記位置からの前記3Dモデルの前記制限斜視図を再生成するように構成される、請求項15に記載のシステム。
  19. 前記プロセッサは、前記デバイスの前記パラメータに従って、許容視界、解像度、許容ズーム及び許容視線移動の少なくとも1つを修正することを通じて、3D空間における前記位置からの前記3Dモデルの斜視図に前記デバイスのパラメータを適用することから、3D空間における前記位置からの前記3Dモデルの前記制限斜視図を決定するように構成される、請求項15に記載のシステム。
  20. 前記プロセッサは、
    前記デバイスの前記パラメータを示すインタフェースを提供することと、
    前記インタフェース上の前記パラメータのうちの1つ又は複数の修正を受け取ると、前記パラメータのうちの1以上の前記修正に基づいて前記制限斜視図を修正することと
    前記デバイスを別のデバイスに変更するという前記インタフェースへの命令が受信され次第、3D空間における前記位置からの前記3Dモデルの前記斜視図に前記別のデバイスの前記パラメータを適用することから、3D空間における前記位置からの前記3Dモデルの前記制限斜視図を再生成すること
    を行うように構成される、請求項15に記載のシステム。
JP2020549037A 2018-03-27 2018-03-27 3dデバイスシミュレータビジュアライザのサービスとしてのプラットフォーム Active JP7177171B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2018/024648 WO2019190485A1 (en) 2018-03-27 2018-03-27 3d device simulator visualizer platform as a service

Publications (2)

Publication Number Publication Date
JP2021519967A true JP2021519967A (ja) 2021-08-12
JP7177171B2 JP7177171B2 (ja) 2022-11-22

Family

ID=68060306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020549037A Active JP7177171B2 (ja) 2018-03-27 2018-03-27 3dデバイスシミュレータビジュアライザのサービスとしてのプラットフォーム

Country Status (5)

Country Link
US (1) US11189107B2 (ja)
JP (1) JP7177171B2 (ja)
CA (1) CA3093875A1 (ja)
SG (1) SG11202008886UA (ja)
WO (1) WO2019190485A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11282268B1 (en) * 2021-10-27 2022-03-22 Flyreel, Inc. Top-down view mapping of interior spaces

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050002662A1 (en) * 2003-07-01 2005-01-06 Sarnoff Corporation Method and apparatus for placing sensors using 3D models
JP2006003280A (ja) * 2004-06-18 2006-01-05 Topcon Corp 撮影装置及び撮影方法
JP2012043419A (ja) * 2010-08-13 2012-03-01 Fujitsu Ltd 三次元モデル検索装置、三次元モデル検索方法、モデルライブラリ生成装置及びモデルライブラリ生成方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5099846A (en) * 1988-12-23 1992-03-31 Hardy Tyrone L Method and apparatus for video presentation from a variety of scanner imaging sources
US5729471A (en) 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US7085409B2 (en) 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US9369679B2 (en) 2006-11-07 2016-06-14 The Board Of Trustees Of The Leland Stanford Junior University System and process for projecting location-referenced panoramic images into a 3-D environment model and rendering panoramic images from arbitrary viewpoints within the 3-D environment model
US8482609B1 (en) 2006-11-22 2013-07-09 Sightlogix, Inc. Methods and apparatus related to surveillance system marketing, planning and/or integration
AU2008271910A1 (en) * 2007-06-29 2009-01-08 Three Pixels Wide Pty Ltd Method and system for generating a 3D model from images
US8248417B1 (en) * 2008-08-28 2012-08-21 Adobe Systems Incorporated Flattening 3D images
US8442306B2 (en) 2010-08-13 2013-05-14 Mitsubishi Electric Research Laboratories, Inc. Volume-based coverage analysis for sensor placement in 3D environments
US8830230B2 (en) 2011-01-31 2014-09-09 Honeywell International Inc. Sensor placement and analysis using a virtual environment
US8934017B2 (en) 2011-06-01 2015-01-13 Honeywell International Inc. System and method for automatic camera placement
US10057546B2 (en) 2014-04-10 2018-08-21 Sensormatic Electronics, LLC Systems and methods for automated cloud-based analytics for security and/or surveillance
US9591286B2 (en) * 2014-05-14 2017-03-07 3M Innovative Properties Company 3D image capture apparatus with depth of field extension

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050002662A1 (en) * 2003-07-01 2005-01-06 Sarnoff Corporation Method and apparatus for placing sensors using 3D models
JP2006003280A (ja) * 2004-06-18 2006-01-05 Topcon Corp 撮影装置及び撮影方法
JP2012043419A (ja) * 2010-08-13 2012-03-01 Fujitsu Ltd 三次元モデル検索装置、三次元モデル検索方法、モデルライブラリ生成装置及びモデルライブラリ生成方法

Also Published As

Publication number Publication date
JP7177171B2 (ja) 2022-11-22
US20210065461A1 (en) 2021-03-04
US11189107B2 (en) 2021-11-30
CA3093875A1 (en) 2019-10-03
SG11202008886UA (en) 2020-10-29
WO2019190485A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
US11385760B2 (en) Augmentable and spatially manipulable 3D modeling
CA2971280C (en) System and method for interactive projection
US20150262426A1 (en) Spatial Augmented Reality (SAR) Application Development System
CN109032348B (zh) 基于增强现实的智能制造方法与设备
US20170186219A1 (en) Method for 360-degree panoramic display, display module and mobile terminal
US9672648B2 (en) Augmented reality aided navigation
CN111681320B (zh) 三维房屋模型中的模型展示方法及装置
US10921796B2 (en) Component information retrieval device, component information retrieval method, and program
CN110807413B (zh) 目标显示方法以及相关装置
JP7177171B2 (ja) 3dデバイスシミュレータビジュアライザのサービスとしてのプラットフォーム
US10445047B2 (en) Automatic real-time configuration of a multi-head display system
US9881419B1 (en) Technique for providing an initial pose for a 3-D model
TWI559269B (zh) 擬真實境教學系統及其方法以及電腦程式產品
CN114092645A (zh) 三维场景的可视化搭建方法、装置、电子设备及存储介质
US10963205B2 (en) Augmented reality state room
Eiris et al. Applying 360-degree virtual reality for construction safety training
Petitprez et al. PoLAR: A portable library for augmented reality
WO2022199325A1 (en) Robotic geometric camera calibration and monitoring alert configuration and testing
Archdeacon et al. An operationally based vision assessment simulator for domes
WO2019160112A1 (ja) 表示システム、表示制御装置、表示方法及び表示制御プログラム
CN112948221A (zh) 硬件系统监控方法、装置
CN115357435A (zh) 一种驾考模拟器vr服务的测试方法、装置以及处理设备
Croft et al. An Augmented Reality Command and Control Sand Table Visualization on Top of an Advanced User Interface Display on Large Touch Table Interface
WO2020053899A1 (en) Systems and methods for optimizing lighting in a three dimensional (3-d) scene(s)
CN117351177A (zh) 三维场景中虚拟物体展示方法、装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220328

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

R155 Notification before disposition of declining of application

Free format text: JAPANESE INTERMEDIATE CODE: R155

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221110

R150 Certificate of patent or registration of utility model

Ref document number: 7177171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150