JPWO2017017790A1 - 画像生成装置、画像生成システム及び画像生成方法 - Google Patents

画像生成装置、画像生成システム及び画像生成方法 Download PDF

Info

Publication number
JPWO2017017790A1
JPWO2017017790A1 JP2017504845A JP2017504845A JPWO2017017790A1 JP WO2017017790 A1 JPWO2017017790 A1 JP WO2017017790A1 JP 2017504845 A JP2017504845 A JP 2017504845A JP 2017504845 A JP2017504845 A JP 2017504845A JP WO2017017790 A1 JPWO2017017790 A1 JP WO2017017790A1
Authority
JP
Japan
Prior art keywords
image
virtual
image generation
virtual screen
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017504845A
Other languages
English (en)
Other versions
JP6310149B2 (ja
Inventor
宇都木 契
契 宇都木
小林 美保
美保 小林
宏視 荒
宏視 荒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2017017790A1 publication Critical patent/JPWO2017017790A1/ja
Application granted granted Critical
Publication of JP6310149B2 publication Critical patent/JP6310149B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

表示装置に表示される画像を生成する画像生成装置であって、プログラムを実行するプロセッサと、前記プログラムを格納するメモリとを備え、前記プロセッサは、現実空間に存在する物体の三次元モデルを仮想三次元空間に配置し、所定の撮影位置を包含する筒型の少なくとも一つの仮想スクリーンを前記仮想三次元空間に配置し、及び、前記撮影位置から撮影された全周囲画像を前記少なくとも一つの仮想スクリーンにマッピングする演算処理を実行し、前記三次元モデル及び前記少なくとも一つの仮想スクリーンが配置された前記仮想三次元空間を俯瞰して表示するための画像データを生成する。

Description

本発明は、画像生成装置に関する。
この技術分野の背景技術として、特表2010−531007号公報(特許文献1)及び特開2007−226580号公報(特許文献2)がある。
特表2010−531007号公報は、一システムが、パノラマのイメージを閲覧するために用いられ得る。該システムは、第1のパノラマのイメージの少なくとも一部を受け取るパノラマビューアであって、該パノラマビューアは、ビューポートを与え、該ビューポートは、該第1のパノラマのイメージの一部を表示する、パノラマビューアを含む。該ビューポートは、該パノラマのイメージと共に描画される3次元の覆いを含む。該パノラマビューアは、該パノラマのイメージと共に該3次元の覆いが描画される場合、該ビューポート内の該パノラマのイメージの向きにおける変更と一致するように、3次元の空間において該3次元の覆いの向きを変更する。ことが開示される。
また、特開2007−226580号公報は、2以上の背景オブジェクト画像と、その背景オブジェクト画像の位置を示す情報である背景位置情報とが対応付けられて記憶される画像記憶部、ユーザの位置及びユーザの視線方向を示す位置情報を受け付ける位置情報受付部、位置情報の示すユーザの位置に対応する背景オブジェクト画像を選択する画像選択部、3次元円筒の内面にマッピングされた、画像選択部が選択した背景オブジェクト画像から、位置情報を用いて出力画像を生成するレンダリング部、出力画像を出力する出力部を備える画像出力装置を開示する。
特表2010−531007号公報 特開2007−226580号公報
一つ又は複数のカメラによって全周囲を撮影する技術がある。しかし、全周囲の方向を撮影した画像はひずみが大きく違和感を与えるため、その提示方法は、通常のカメラの画像を表示するときのように自明ではない。多くの場合には、特許文献1のように全周囲画像の一部分を切り出した画像が用いられる。このような表示では、特に複数の位置で全周囲画像を撮影している場合、それぞれの画像に映っている物体の位置関係の把握は著しく困難となる。一方、複数の画像から完全な三次元モデルを再構築するためには、大量の画像や奥行き情報が必要であり、完成した画像にも十分な再現精度が得られないことが多い。そのため、各物体の三次元的な位置と、全周囲画像によって得られる視覚情報の対応付けを自然に与え、俯瞰的に状況を理解させる実用的な表示手段の確立が課題であった。
前述した特表2010−531007号公報に開示されたシステムでは、地図位置に関連付けて、撮影された全周囲画像の一部を表示するが、地図と写真とは別ウィンドウに表示され、地図で示されている位置と写真における視点位置との関係が分かりにくい。また、複数の地点で撮影された全周囲画像を併せて表示すると、画像と地図や、画像間の関係の直感的な把握が難しくなる。
また、特開2007−226580号公報に開示された装置では、円筒状の仮想スクリーンにパノラマ画像をマッピングして表示し、仮想空間の背景画像として使用する。しかし、一度に一枚のパノラマ画像だけを表示するものであり、複数のパノラマ画像を表示することは考慮されていない。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、表示装置に表示される画像を生成する画像生成装置であって、プログラムを実行するプロセッサと、前記プログラムを格納するメモリとを備え、前記プロセッサは、現実空間に存在する物体の三次元モデルを仮想三次元空間に配置し、所定の撮影位置を包含する筒型の少なくとも一つの仮想スクリーンを前記仮想三次元空間に配置し、及び、前記撮影位置から撮影された全周囲画像を前記少なくとも一つの仮想スクリーンにマッピングする演算処理を実行し、前記三次元モデル及び前記少なくとも一つの仮想スクリーンが配置された前記仮想三次元空間を俯瞰して表示するための画像データを生成する。
本発明の一形態によれば、全周囲画像を仮想三次元空間に分かりやすく配置することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
現実の作業が行われている空間を示す図である。 第1実施例の計算機システムによって表現される仮想空間を示す図である。 第1実施例の仮想空間のモデルを表示する計算機システムの構成を示すブロック図である。 第1実施例の画像生成装置のハードウェア構成を示すブロック図である。 第1実施例のカメラの斜視図である。 第1実施例のカメラの側面図である。 半球面を撮影した画像フォーマットの例を示す。 第1実施例において、円筒形状の仮想スクリーンの内側に全周囲カメラが撮影した画像を描画する例を示す図である。 第1実施例において、側面の一部が平面となった筒形状の仮想スクリーンの内側に全周囲カメラが撮影した画像を描画する例を示す図である。 第1実施例において、現実空間を上から見た図であり、作業者と設備の存在位置の例を示す。 第1実施例において、仮想スクリーン上の画像の投影位置を示す図である。 第1実施例の撮影ルーチンのフローチャートである。 第1実施例の機器情報収集のフローチャートである。 第1実施例の情報表示ルーチンのフローチャートである。 第1実施例の初期化処理のフローチャートである。 第1実施例の画像管理情報の例を示す図である。 第1実施例のカメラ配置情報の構造例を示す図である。 第1実施例の機器情報の構造例を示す図である。 第2実施例の全周囲画像を撮影するカメラの配置と、仮想スクリーンの配置を示す図である。 第2実施例の全周囲画像を撮影するカメラの配置と、仮想スクリーンの配置を示す図である。 第2実施例において、カメラ位置を母点としたボロノイ図である。 第2実施例において、カメラ位置を母点としたボロノイ図である。 第2実施例のカメラ選択処理のフローチャートである。 第2実施例のカメラ配置情報の構造例を示す図である。 第3実施例の仮想スクリーンに表示されるユーザインタラクションの例を示す図である。 第4実施例のカメラの側面図である。 第4実施例の作業空間を示す図である。 第4実施例の計算機システムによって表現される仮想空間を示す図である。 第4実施例のカメラが移動可能な経路を格納するデータ構造を示す図である。 第4実施例のカメラの移動及び撮影の処理のフローチャートである。 第5実施例の仮想スクリーンへの三次元モデルの表示を示す図である。 第5実施例の仮想スクリーンへの三次元モデルの表示を示す図である。 第5実施例の情報表示ルーチンのフローチャートである。
以下、図面を用いて実施例を説明する。
なお、以下に説明する実施例は特許請求の範囲に係る発明を限定するものではなく、実施例の中で説明されている要素の組み合わせの全てが発明の解決手段に必須であるとは限らない。また、以下の説明では、「xxxテーブル」、「xxxリスト」、「xxxDB」、「xxxキュー」等の表現で各種の情報を説明することがあるが、各種情報はテーブル、リスト、DB、キュー、等以外のデータ構造で表現されていてもよい。そのため、データ構造に依存しないことを示すため、「xxxのテーブル」、「xxxリスト」、「xxxDB」、「xxxキュー」等を「xxx情報」と称することがある。
さらに、各情報の内容を説明する際に、「識別情報」、「識別子」、「名」、「名前」、「ID」という表現を用いるが、これらについてはお互いに置換が可能である。
さらに、後述する本発明の実施例は、汎用コンピュータ上で稼動するソフトウェアで実装してもよいし、専用ハードウェア又はソフトウェアとハードウェアの組み合わせで実装してもよい。
さらに、以下の説明では「プログラム」を主語として処理を説明することがあるが、プログラムはプロセッサ(例えば、CPU:Central Processing Unit)によって実行されることによって、定められた処理を記憶資源(例えば、メモリ)、通信I/F、ポートを用いて処理を実行するため、プロセッサを主語として説明してもよい。
プログラムを主語として説明された処理は、プロセッサを有する計算機(例えば、計算ホスト、ストレージ装置)が行う処理としてもよい。また、以下の説明では、「コントローラ」の表現で、プロセッサ又はプロセッサが行う処理の一部又は全部を行うハードウェア回路を指してもよい。プログラムは、プログラムソース(例えば、プログラム配布サーバや、計算機が読み取り可能な記憶メディア)から各計算機にインストールされてもよい。この場合、プログラム配布サーバはCPUと記憶資源を含み、記憶資源はさらに配布プログラムと配布対象であるプログラムを記憶している。そして、配布プログラムをCPUが実行することで、プログラム配布サーバのCPUは配布対象のプログラムを他の計算機に配布する。
なお、管理サーバは入出力デバイスを有する。入出力デバイスの例としてはディスプレイとキーボードとポインタデバイスであるが、これ以外のデバイスであってもよい。また、入出力デバイスの代わりにシリアルインタフェースやイーサーネットインタフェースを入出力デバイスとし、当該インタフェースにディスプレイ又はキーボード又はポインタデバイスを有する表示用計算機を接続し、表示用情報を表示用計算機に送信したり、入力用情報を表示用計算機から受信することで、表示用計算機で表示を行ったり、入力を受け付けることで入出力デバイスでの入力及び表示を代替してもよい。
<実施例1>
本発明の第1実施例のシステムは、現実空間100(図1)の状況を仮想空間200(図2)上に可視化する。図1は、現実の作業が行われている空間100を示す図である。
現実空間100は、表現されるべき現実空間を示している。この空間100内には、後述する360度方向を撮影可能なカメラ111〜112が設置されている。カメラ111〜112は、作業空間100を構成する部屋の天井に設置されるが、床面や、所定の高さ位置(例えば1メートル)に設置されるものでもよい。
また、この空間100内にはドア121が存在する。ドア121は、作業空間100を構成する部屋へ出入りするためのドアでも、エレベータのドアでもよい。
さらに、この空間100内には固定的に設置された設備131〜133が存在する。後述するように、設備131〜133は、設備131〜133の状態を電子的に収集可能な機能を有する電子機器を含む。例えば、設備131〜133が倉庫に設けられた棚である場合、作業者は自分のIDを入力して物品を取り出す作業を行う。例えば、設備131〜133は、倉庫に設けられた棚であり、棚に収容された物品の数や重量や増減数を収集して、出力する。また、設備131〜133は、モータなどの工場設備であり、その稼働回数、回転数、印加電圧、電流、温度を収集して、出力する。また、設備131〜133は、データセンタに設置されたコンピュータであり、リソース使用量を収集して、出力する。
また、当該空間100内には作業者141、142が存在する。
図2は、第1実施例の計算機システムによって表現される仮想空間200を示す図である。
図2に示す仮想空間200は、現実空間100の状況を視覚的に示すための3Dモデルとして構成され、現実の空間に配置されている様々な物体に対応づけられた三次元モデルと、当該三次元モデルが配置される三次元点(x,y,z)によって構成される。
仮想空間200を構成する三次元物体モデルについて説明する。図2において、現実空間100の固定設備に対応する三次元モデルが仮想空間200内に配置されている。具体的には、ドア121に対応する位置に三次元モデル221と、設備131〜133に対応する位置に三次元モデル231〜233とがそれぞれ表示される。
また、設備131〜133に対応する三次元モデル231〜233に関連付けて、当該設備の状態を表す数値や文字列251〜253がそれぞれ表示される。設備131〜133の状態を表す数値は、例えば、機器の温度、稼働頻度、リソース残量などである。
仮想空間200には、カメラ111〜112の撮影点211〜212が表示され、撮影点211〜212を中心として仮想スクリーン271〜272が表示される。仮想スクリーン271上には、カメラ111に写った作業者141の像241が表示される。また、仮想スクリーン272上には、カメラ112に写った作業者141、142の像241、242がそれぞれ表示される。さらに、仮想スクリーン272上には、カメラ112に写った設備131の像236が表示される。
図3は、第1実施例の仮想空間のモデルを表示する計算機システムの構成を示すブロック図である。
仮想空間200の情報は、ネットワーク301に接続した画像生成装置302によって画像化され、出力装置303に出力される。出力装置303は、表示装置やプリンタである。画像生成装置302は、中央計算部と、メモリ部と、外部とのインタフェース機器とによって構成される汎用的な計算機である。
ネットワーク301には、データベース304、305、306が接続される。データベース304、305、306は、ネットワーク301に接続された装置からアクセス可能なストレージ領域である。データベース304は、撮影点211〜212のカメラが撮影した画像を格納する。データベース305は、カメラが撮影した画像の画像管理情報を格納する。データベース306、設備131〜133の状態を格納する。
図4は、第1実施例の画像生成装置302のハードウェア構成を示すブロック図である。
画像生成装置302は、主記憶装置404に格納されたプログラムに従って動作する演算処理装置(CPU)401と、演算処理装置401が実行するプログラムを格納する主記憶装置404と、入力デバイス308からの信号を受信する入力インタフェース403と、動作に必要なデータを保存する補助記憶装置405と、ネットワークとの通信を制御するネットワークインタフェース402と、出力装置303から出力する画像を生成する画像処理部406を有する。
主記憶装置404は、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、補助記憶装置405に格納されたプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。
補助記憶装置405は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置で構成され、演算処理装置401が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。すなわち、プログラムは、補助記憶装置405から読み出されて、主記憶装置404にロードされて、演算処理装置401によって実行される。
画像処理部406が実行する画像生成処理は、予め登録された三角形メッシュなどの集合による三次元モデルを用いて、ある視点位置から見たときの二次元画像をシミュレーションで計算するレンダリング処理を実行する。本発明の特徴は、このような一般的なレンダリング処理を用いて、複数のカメラ111〜112によって撮影された360度画像を組み合わせて俯瞰的な表示を実現することにある。
演算処理装置401が実行するプログラムは、リムーバブルメディア(CD−ROM、フラッシュメモリなど)又はネットワークを介して画像生成装置302に提供され、非一時的記憶媒体である補助記憶装置405に格納される。このため、画像生成装置302は、リムーバブルメディアからデータを読み込むインタフェースを有するとよい。
画像生成装置302は、物理的に一つの計算機上で、又は、論理的又は物理的な複数の計算機上で構成される計算機システムであり、前述したプログラムが、同一の計算機上で別個のスレッドで動作してもよく、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。また、画像生成装置302と他の装置が一つの物理的又は論理的計算機に収容されてもよい。演算処理装置401が提供する機能の一部は、他の論理回路(例えば、FPGA)で実装されてもよい。
作業空間100に設置されるカメラ111〜112は、例えば、魚眼レンズを用いて天井から下面(横方向360度、縦方向180度の半球面)を撮影するネットワークカメラや、複数の広角カメラの画像を組み合わせて上下360度(全球面)を撮影するネットワークカメラでよい。
図5Aは、第1実施例のカメラ111〜112を下方から見た斜視図であり、図5Bは、第1実施例のカメラ111〜112の側面図である。カメラ111〜112には、図5A、図5Bに示すような全周囲型のカメラ501を用いることができる。
カメラ501は、天井に設置され、床側の下半球面(横方向360度)を撮影して、その画像をデータベース304に保存し、画像管理情報をデータベース305に保存する。カメラ501は、魚眼撮影レンズとCCD素子510と、キャリブレーションパターンを保存したメモリ511と、カメラ画像を保存するメモリ部512と、ネットワーク接続部513と、これらを制御する演算制御部514とから構成される。カメラ501は、ネットワークを経由して送信された静止画像撮影の命令や、動画撮影の開始命令及び終了命令によって、その動作を制御することができる。このような個別のネットワークカメラ自体は既存技術の組み合わせによって実現可能である。
カメラ501では、所定のテストパターンを用いて、あらかじめカメラの内部パラメータをキャリブレーションして、カメラが撮像した画像上の点と画像フォーマット上の点とを対応付けるための対応テーブルがメモリ511に保存されている。
図6は、半球面を撮影した画像フォーマットの例を示す。
撮影時の横方向の角度値θ、縦方向の角度値φに対して、画像サイズが横PX、縦PYの画像内の点(px,py)への対応関係は式(1)で表される。
Figure 2017017790
また、本発明で用いるカメラ111〜112は、図5に示す天井に設置される半球面を撮影する全周囲型のカメラ501や、図4に示すフォーマットの画像に限定されるものではなく、異なる方向の複数の広角画像を撮影した画像をつなぎ合わせて全球面画像を撮影するカメラや、角度と画素色が一意に対応付けられた別の画像フォーマットを用いて実現してもよい。
第1実施例では、筒型の仮想スクリーンに全周囲カメラが撮影した画像を表示する。筒型の仮想スクリーンは、様々な形状を採用しうるが、例えば、図2に示す円筒形状271、272である。
以下の説明では、カメラ111の撮影位置に対応する仮想空間上の点211を、撮影点(x,y,z)と称する。仮想スクリーンは、この撮影点(x,y,z)を取り囲むように配置される。
図7Aは、第1実施例において、仮想スクリーン272を円筒形状に構成し、仮想スクリーン272の内側に全周囲カメラが撮影した画像を描画する例を示す図である。描画される画像は円筒の内側面にマッピングし、円筒の外側面と上面には描画しない。なお、円筒の底面に画像を描画してもよい。
第1実施例では、この円筒型の幾何形状を64角形の筒形状で近似して三角形メッシュによって表し、各三角形メッシュ内で画像を線形補間して、画像の歪みが少なくなるように描画する。
円筒面は、式(2)及び式(3)で表される点(x,y,z)の集合で表される。
Figure 2017017790
Figure 2017017790
式(2)、式(3)において、hは円筒の高さ、rは円筒の半径である。
このとき、以下の手法で、円筒上の点701と撮影画像の点とを対応付けてマッピングする。(x,y,z)から、円筒面上の点701(x,y,z)への相対的な位置ズレ量を(x,y,z)で表す。
Figure 2017017790
式(4)において、円筒の半径rと、360度カメラの画像方向(θ,φ)を以下のように対応させる。なお、撮影点を中心とした縦方向の角度をφ、横方向の角度をθと定める。
Figure 2017017790
Figure 2017017790
前述したような対応関係に基づいて、テクスチャマッピング処理を行うことによって、撮影点212のカメラ112が撮影した画像が投影された筒型の仮想スクリーンを作成することができる。
図7Aに示す円筒形状の仮想スクリーンは、全周の画像が等しく表示されるので、人や設備の存在位置が分からない場合に有効である。
なお、仮想スクリーンに床面750を含めて、画像の一部を床面750に投影してもよい。前述した方法では三次元上の撮影点からの相対的な角度(φ、θ)のみが必要条件であるため、撮影点212から角度(φ、θ)の方向に延伸した線と床面750との交点702に画像を投影すればよい。全周囲画像のうち床面750に投影される範囲は、仮想スクリーンの大きさによって定まる。例えば、図6のφ<30°の範囲が円筒の底面(床面750)に投影されるように、仮想スクリーンの大きさを設定してもよい。
また、仮想スクリーンを床面750のみで構成して、画像の全部を床面750に投影してもよい。この場合も、撮影点212から角度(φ、θ)の方向に延伸した線と床面750との交点702に画像を投影すればよい。床面750に投影される画像は広範囲に広がることから、床面750に所定の半径の円を規定して、その範囲に画像を投影するとよい。
さらに、仮想スクリーンは円筒以外で、底面が多角形の筒型でもよい。
図7Bは、第1実施例において、仮想スクリーン273を円柱の側面の一部が平面273Aとなった筒形状に構成し、仮想スクリーン273の内側に全周囲カメラが撮影した画像を描画する例を示す図である。描画される画像は円筒の内側面にマッピングし、円筒の外側面と上面には描画しない。円筒の底面には画像を描画してもよい。
図7Bに示す仮想スクリーン273も、図7Aに示す仮想スクリーン272と同様に、筒型の幾何形状を64角形の筒形状で近似して三角形メッシュによって表し、各三角形メッシュ内で画像を線形補間して、画像の歪みが少なくなるように描画する。そして、図7Aに示す仮想スクリーン272と同様の対応関係に基づいて、テクスチャマッピング処理を行うことによって、撮影点212のカメラ112が撮影した画像が投影された筒型の仮想スクリーンを作成することができる。
例えば、作業者143及び設備134が、図7Cに示す位置に存在する場合、平面部分273Aが人や設備の存在場所に位置するように、仮想スクリーン273を配置する。すると、撮影点212から角度(φ、θ)の方向に延伸した線と平面部分273Aとの交点711にマッピングされるように画像が投影される。このため、作業者143の像731が仮想スクリーン273の平面部分273Aに描画され、設備134の像732が仮想スクリーン273の平面部分273Aに描画される。
図7Bに示す側面の一部が平面273Aとなった筒形状の仮想スクリーンは、側面の平面部分273Aに人や設備が存在する場合に有効である。すなわち、人や設備が存在する位置に平面273Aを配置すると有効である。例えば、現実空間100に存在する設備と当該設備の操作者の位置に仮想スクリーンの面を構成するとよい。これは、仮想スクリーンの平面部分では、その位置に存在する物(人や設備)の正しい大きさが分かり、床面750の位置に表示される(床面750から浮いた位置に表示されることがない)ためである。
図7Dを用いて、仮想スクリーン上の画像の投影位置を説明する。例えば、作業者144が仮想スクリーン274の面から遠い位置に存在する場合、作業者144の像741はスクリーン上に小さく表示される。一方、作業者145が仮想スクリーン274の面から近い位置に存在する場合、作業者145の像742は、周辺の3Dモデルとほぼ同じ縮尺で表示される。
このため、仮想スクリーンに表示すべき人や設備の位置があらかじめ分かっている場合、表示対象の位置を通るように仮想スクリーンの面を設定することによって、当該表示対象の像を適切な大きさで見ることができる。
図7Bでは、側面の1箇所が平面となった筒形状の仮想スクリーンを示したが、仮想スクリーンの側面の2箇所以上が平面となってもよい。さらに、仮想スクリーンの側面の全てが複数の平面によって構成されてもよい。
以下、図8〜図12に従って、第1実施例のシステムの動作を説明する。本システムの動作は、カメラによる撮影ルーチン(図8)、設備情報収集ルーチン(図9)、情報表示ルーチン(図10)の三つから構成される。図8と図9のルーチンは所定のタイミングで繰り返し実行される処理である。
図8に示す撮影ルーチンでは、カメラ111〜112が所定のタイミングで繰り返し(例えば、定期的に)、画像を撮影する。
まず、カメラ111〜112は、所定のタイミング(例えば、所定の時間間隔)で撮影トリガを判定する(ステップ802)。撮影トリガは、タイマが計測した所定時間のタイムアップや、外部から入力される撮影命令などである。例えば、ユーザが現時点の画像を見たい場合、図18に示すマーカ1805を操作することによって、画像生成装置302は指定されたカメラ111〜112に撮影命令を送信する。
そして、撮影トリガであると判定された場合、画像を撮影し、撮影された画像を内部メモリに保存する(ステップ803)。そして、キャリブレーション用のテーブルを用いて、撮影された画像を、所定のフォーマット(例えば、図6に示すフォーマット)変換し(ステップ804)、変換された画像をエンコードして圧縮し(ステップ805)。そして、エンコードされた画像を、データベース304に保存する(ステップ806)。また、撮影したカメラのID番号と撮影時刻などの画像管理情報をデータベース305に登録する(ステップ807)。
図12は、第1実施例の画像管理情報の例を示す図である。
第1実施例の画像管理情報は、カメラを一意に識別するための識別情報1201と、画像が撮影された日付及び時刻1202と、データベース304に保存されるファイル名1203とを含む。
図9に示す機器情報収集ルーチンでは、設備131〜133が所定のタイミングで繰り返し(例えば、定期的に)、各設備の状態を出力する。
まず、設備131〜133は、所定のタイミング(例えば、所定の時間間隔)で読み取りトリガを判定する(ステップ902)。読み取りトリガは、タイマが計測した所定時間のタイムアップや、外部から入力される読取命令などである。例えば、ユーザが現時点の設備の状態を知りたい場合、画像生成装置302は指定された設備131〜133に読取命令を送信する。
そして、読み取りトリガであると判定された場合、設備131〜133の状態を取得し(ステップ903)、取得した値を、ネットワークを介してデータベース306に格納する(ステップ904)。データベース306に格納される状態は、設備の種類や構成によって様々に定義できる。例えば、棚に収容された物品の数や重量や増減数、設備の稼働回数、一定時間毎の使用人数、電池の残容量、設備の温度などである。
図10は、第1実施例の情報表示ルーチンのフローチャートである。図10に示す情報表示ルーチンでは、撮影されたカメラ画像及び機器の状態を3Dマップに投影し、画像を作成する。
まず、画像生成装置302は、補助記憶装置405にあらかじめ保存された3D画像の制御用プログラムと情報を読み込む初期化処理を実行する(ステップ1001)。
初期化処理の詳細を図11に示す。まず、画像生成装置302はネットワーク301を介してデータベース305にアクセスし、カメラ配置情報を取得する(ステップ1101)。カメラ配置情報の構造例を図13Aに示す。カメラ配置情報は、各カメラ111〜112を一意に識別するための識別情報1301と、カメラ111〜112が設置された位置の情報1302と、カメラ111〜112が撮影した画像が投影される仮想スクリーンの形状の初期値1303と、画像が投影される仮想スクリーンの大きさ1304及び高さ1305と、カメラ111〜112にアクセスするためのアドレス1306とを含む。カメラ111〜112がwebサーバ機能を有する場合、アドレス1306には、アクセスするためのURLを記載するとよい。
図11に戻って説明を続ける。画像生成装置302は、ネットワーク301を介してデータベース306にアクセスし、設備配置情報を取得する(ステップ1102)。カメラ配置情報の構造例を図13Bに示す。設備配置情報は、各設備131〜133を一意に識別するための識別情報1311と、設備131〜133が設置された位置の情報1312と、設備131〜133の形状1313と、設備131〜133にアクセスするためのアドレス1314とを含む。設備131〜133に付随する電子機器がwebサーバ機能を有する場合、アドレス1314には、アクセスするためのURLを記載するとよい。
図10に戻って説明を続ける。初期化処理(ステップ1001)を終えた後、画像定期的更新処理を行う。画像定期的更新処理では、入力デバイス308に入力されたデータを受け取り(ステップ1002)、受け取ったデータに従って仮想空間を観察する視点位置を修正し、始点情報を作成する(ステップ1003)。具体的に、ステップ1003では、仮想空間上の三次元モデルを観察する視点の位置及び向きを定め、仮想空間上の三次元点pを二次元画面上の点pに投影する4×4次元の変換行列を設定する。第1実施例では、視点の位置及び角度を中心とした三次元座標系に変換するView行列Vと、三次元座標系を二次元座標系に変換するProjection行列Pとを定めることによって、式(7)のように三次元点を変換する。但し、P及びVは、それぞれ4×4の変換行列であり、pは三次元上の点を三次座標表現で表す4次元ベクトルであり、pは二次元画像上の位置を三次座標表現で表す4次元ベクトルである。このような行列による三次元点の変換処理は、OpenGLなどの既存技術において広く用いられている方法を利用できる。
Figure 2017017790
次に、画像表示用の二次元画像領域を主記憶装置404に確保し、確保した二次元画像領域を初期化する(ステップ1004)。二次元画像領域に格納される二次元画像は、ピクセルと称される二次元配列によって構成され、各ピクセルは色情報(例えば、RGBの3色)を持つ。
そして、各機器から出力された情報を取得する(ステップ1005)。具体的には、各設備131〜133に関連付けられた文字列(例えば、数値)をデータベース306から読み込む。
そして、読み込んだ情報に基づいて、対応する物体の色を変更して、三次元モデル231〜233を描画する(ステップ1006)。例えば、読み込んだ数値があらかじめ定められた閾値1より大きかったら赤色、閾値2より小さかったら緑色、閾値1から閾値2の間であれば黄色で三次元モデルを描画する。第1実施例では三次元モデルは直方体で表され、直方体は三角形の集合のデータ構造として主記憶装置404の二次元画像領域に保存される。このデータ構造は、三角形の頂点データと、各面を構成する三つの頂点を結ぶ順序データとによって構成される。三角形の各頂点は、式(7)を用いて二次元画像上の点に変換され、頂点を結んだ三角形が三次元モデルの色として定められた色で塗られる。
この際、この色情報に、特定の光源条件によって陰影をつけたり、既に描かれた背景とブレンドして描画する半透明処理を適用してもよい。このような陰影をつけたり半透明化する方法は、OpenGLなどの既存技術によって広く用いられている方法を利用できる。また、各三次元モデル231〜233の近傍の位置に、データベース306から読み込んだ文字列251〜253を描画する。以下、この描画された文字列をテキストキャプションと称する。
そして、カメラ111〜112が撮影した画像を取得する(ステップ1007)。例えば、データベース305を検索し、各カメラ111〜112が撮影した画像を検索し、撮影時刻1202が最も新しい画像のファイル名1203を取得する。次いで、取得したファイル名の画像をデータベース304から読み込んで主記憶装置404に展開し、テクスチャ画像として参照できるようにする。
次に、三次元モデルを仮想スクリーンに描画する(ステップ1008)。第1実施例では、図7に示すように、仮想スクリーンは、床面750の平面形状と円筒形状700とで表される。この床面750と円筒形状700は、三角形の集合のデータ構造として主記憶装置404の二次元画像領域に保存される。このデータ構造は、三角形の頂点データと、各面を構成する三つの頂点を結ぶ順序データと、各頂点とテクスチャ画像の対応関係を示すテクスチャマッピングデータとによって構成される。三角形の各頂点は、式(7)を用いて二次元画像上の点に変換され、頂点を結んだ三角形が前記指定されたテクスチャによって塗られる。
第1実施例において、テクスチャの色情報を参照して三角形メッシュの領域を塗りつぶす処理は、スキャンライン法のラスタライズ処理として一般的に用いられている方法を利用できる。すなわち、三角形の各頂点が二次元画像上に変換された3点を結んだ三角形の内側に存在するピクセルを選択し、選択されたピクセルのテクスチャ座標を、3点のテクスチャ座標の線形補間によって求める。この補間されたテクスチャ座標位置の色を当該ピクセルの色に設定する。全ての三角形についてこの処理を繰り返す。
この際、この色情報に、特定の光源条件によって陰影をつけたり、既に描かれた背景とブレンドして描画する半透明処理を適用してもよい。このような陰影をつけたり半透明化する方法は、OpenGLなどの既存技術によって広く用いられている方法を利用できる。
また、この三角形の描画において、三角形の向きから表面と裏面を分けて表示の可否や異なる透明度で描画してもよい。第1実施例では、円筒の内側には画像を描画し、円筒の外側には画像を描画しない。
また、第1実施例におけるテクスチャ画像のフォーマット(図6参照)では、画像が非線形に変換されている。このため、線形補間処理によってテクスチャ座標の計算精度を向上するため、通常のレンダリングに用いる三角形分割より細かく分解した三次元モデルを保持するとよい。
そして、ステップ1006で描画された画像と、ステップ1008で描画された画像とを出力装置303に出力する(ステップ1009)。ステップ1002〜1009を繰り返すことによって、利用者は三次元マップ上に配置された複数の全周囲画像を俯瞰して確認することができる。
以上に説明したように、本発明の第1実施例によると、画像生成装置302は、現実空間100に存在する物体の三次元モデルを仮想三次元空間200に配置し、所定の撮影位置から撮影された全周囲画像を、前記撮影位置を包含する筒型の仮想スクリーンにマッピングし、及び、仮想スクリーンを前記仮想三次元空間に配置し、三次元モデル及び仮想スクリーンが配置された仮想三次元空間を俯瞰して表示するための画像データを生成するので、全周囲画像を仮想三次元空間に分かりやすく配置することができる。
また、仮想スクリーンは円筒形状なので、歪みが少なく全周囲画像を仮想スクリーンにマッピングすることができる。
<実施例2>
第2実施例として、円筒形状の仮想スクリーンを配置するための計算方法を説明する。なお、第2実施例では、第1実施例と異なる構成及び処理のみを説明し、同じ構成及び処理の説明は省略する。
図14A、図14Bは、全周囲画像を撮影するカメラの配置と、仮想スクリーンの配置を示す図である。
図14Aに示すように、仮想スクリーンが過密に配置されていると(ステップ1401)、互いに円筒が重複して見づらい表示形態となる。しかし、図14Bに示すように、一部のカメラを非表示状態にすると、仮想スクリーンが間引かれて配置される(ステップ1402)。このように、第2実施例では、あらかじめ登録されたカメラ位置の集合から、この仮想スクリーンに表現するために適正な数のカメラを選択し、仮想スクリーンの円筒半径を自動的に計算するための方法を説明する。
第2実施例のハードウェア構成は、第1実施例(図1、図3)と同じである。第2実施例と第1実施例との差異は、カメラの位置をカメラからデータベース305に登録する処理(図16)の追加と、データベース305から画像生成装置302に送るカメラの配置情報を動的に生成する処理である。第2実施例では、各カメラ501は自己の位置を認識する機能と、データベース305にアクセスするためのネットワーク接続部513を有する。自己の位置を認識する機能は、GPSを利用したり、WiFiのアクセスポイントやビーコンからの信号を利用する既存の方法を利用できる。なお、カメラ501の位置を手動で入力する方法でもよい。
第2実施例では現実空間100に全周囲カメラを設置した際に、それぞれのカメラで初期設定を行う。この初期設定において、カメラはGPSを用いて自己の位置情報を取得し、ネットワーク301を経由してデータベース305にアクセスし、位置情報と、カメラの固有IDと、ネットワークからアクセスするためのアドレスとをデータベース305に格納する。
画像生成装置302は、初期化処理(ステップ1001)において、カメラの設定をデータベース305から読み込む。第1実施例において、全周囲画像を表現する円筒の位置と大きさのデータは利用者が手動で作成し、補助記憶装置405にあらかじめ登録されている。第2実施例では、図16示すフローチャートに示す処理によって、データベース305に登録されたカメラ501から画像が表示されるカメラを選択し、仮想スクリーンとして表示する円筒の半径の大きさを調整する。以下、処理を詳細に説明する。
まず、各カメラの位置情報をデータベース305から取得し(ステップ1601)、図17に示すデータ構造1700を作成する(ステップ1602)。
データ構造1700は、カメラを位置に識別するための識別情報1701と、カメラの位置1702と、カメラの位置をボロノイ点としたボロノイ領域の情報1703とが含まれる。ボロノイ領域は、頂点の配列として記述され、この頂点を結ぶ領域に含まれる点からは、当該カメラが最も近いカメラとなるように定義される領域である。また、データ構造1700は、カメラを初期状態の表示に使用するかを示すフラグ1704を含む。すなわち、当該カメラを初期状態の表示に使用する場合、フラグ1704にTrueが設定される。一方、当該カメラを初期状態の表示に使用しない場合、フラグ1704にFalseが設定される。フラグ1704の初期状態はTrueである。
データ構造1700を作成する際、半径1705にはあらかじめ初期値として定められた値R1を格納する。次に、作成されたデータ構造1700を参照し、フラグ1704がTrueである点をボロノイ点としたボロノイ図を作成する(ステップ1603)。そして、各カメラのボロノイ領域に対して、ボロノイ境界上でボロノイ点に最も近い点までの距離を算出し、その値を半径1705に格納する(ステップ1604)。
次に、不要なカメラを削除する。各カメラ点のうち、半径1705がもっとも小さいものを選択する(ステップ1605)。この半径値が定数としてあらかじめ保存された閾値R1より小さい場合(ステップ1606でYES)、当該カメラを非表示にするカメラとするため、フラグ1704をFalseに設定する(ステップ1607)。そして、フラグ1704がTrueであるカメラについてボロノイ図を再作成して、ステップ1603〜1606を繰り返す。すべてのカメラの半径が初期値R1より大きくなった場合(ステップ1606でNO)、ステップ1608に進む。
次に、フラグ1704をFalseに設定された非表示のカメラについて、親カメラを設定する(ステップ1608)。非表示のカメラの設置位置を含むボロノイ領域を形成するカメラの識別情報を親カメラ1706に格納する。また、親カメラに選択されたカメラのデータの子カメラ1707に当該カメラの識別情報を格納する。
なお、フラグ1704を用いず、非表示にするカメラの半径1705を0に設定してもよい。
以上に説明した処理によって得られたカメラ群を用いると、図15Aに示すように仮想スクリーン同士が重複することなく、図15Bに示すようにボロノイ領域が一定以上の大きさとなるようにカメラを配置することができる。そして、半径1705に格納された値を仮想スクリーンの半径値として使用することによって、仮想スクリーン同士の重複を避けることができる。
また、半径1705に格納された値に1.0未満の定数を乗じた値を仮想スクリーンの半径値として使用することによって、仮想スクリーンの間に隙間が空き、仮想スクリーンをより見やすく表示することができる。
また、半径の上限値をR2に設定し、R2と半径1705の値との小さい方を仮想スクリーンの半径値として使用することによって、仮想スクリーンの大きさのばらつきを減少でき、仮想スクリーンをより見やすく表示することができる。
以上に説明したように、本発明の第2実施例によると、画像生成装置302は、仮想スクリーン同士が重ならないような半径の円筒形状の仮想スクリーンを仮想三次元空間に配置するので、仮想スクリーンにマッピングされた全周囲画像が重ならず、見やすく表示することができる。
<実施例3>
第3実施例では、カメラの撮影位置に配置された三次元マーカを用いたユーザインタラクションについて説明する。第3実施例のシステムは、三次元モデルを描画する視点位置の変更、全周囲画像を投影する仮想スクリーンの変形、および全周囲画像の選択が可能である。なお、第3実施例では、前述した各実施例と異なる構成及び処理のみを説明し、同じ構成及び処理の説明は省略する。
第3実施例のハードウェア構成は、第1実施例(図1、図3)と同じである。画像生成装置302への入力デバイス308として、マウスなどの一般的なポインティングデバイスを用いる。一般に、マウスでは、画像内の位置を指定するクリックやドラッグなどの操作を感知して、アプリケーションが登録したコールバックサブルーチンを実行する手段をオペレーティングシステムが提供している。このコールバックを実現する手段は既知の方法を利用できる。第3実施例の以下の記述では、マウスによるドラッグの検出からコールバック関数を呼び出すまでの処理は公知の方法を利用する。
第3実施例において、仮想空間200を観察する仮想視点の位置と角度を設定する手順を説明する。第3実施例では、視野の中心(被写体の位置)となる三次元座標U1と視点(カメラ)の位置となる三次元座標U2によって定義する、ターゲットカメラと称される方法を用いる。U2を中心とする平行移動行列Tと、U1からU2の方向をカメラの視線方向(Z軸)として設定する回転行列Rとを定義する。View行列Vは、行列の積V=RTによって定義される。このような視点位置の設定方法はターゲットカメラとして一般に用いられている方法である。以下の説明では、U1を注目点と称し、U2を仮想視点と称する。また、U2とU1との距離|U2−U1|をターゲットカメラ距離dと称する。角度R、ターゲットカメラ距離d、注目点U1を入力として、視点位置U2を定義してView行列Vを作成する計算処理は、一般に利用されている方法を採用することができる。
各仮想スクリーンの内部またはその近傍に、三次元マーカを配置する。図18は、第3実施例において、円筒形状の仮想スクリーン272に表示されるユーザインタラクションの例を示す図である。
仮想スクリーン272のカメラ撮影位置にマーカ1801を配置し、その周辺にマーカ1802〜1805を配置する。また、第2実施例の操作によって非表示に設定された子カメラ1707を選択し、当該子カメラの設置場所1702に、マーカ1810〜1812を配置する。
入力デバイス(マウス)308によって、マーカ1802〜1805を操作した場合、以下に述べるイベント関数が実行される。
<選択による視点中心の移動>
マーカ1801の操作が検出された場合、注目点U1の位置を、該当する仮想スクリーン272の撮影位置に一致させる。この操作によって、仮想スクリーン272が画像の中心となる。このカメラ視点の移動は、画像を連続的に変化させたアニメーションによって表示するとよい。
<視点距離の変化>
マーカ1802を始点としたドラッグ操作が検出された場合、ターゲットカメラ距離dを変化させる。例えば、上方向にAピクセル分のドラッグ操作が検出された場合、ターゲットカメラ距離dのカメラの移動を、画像を連続的に変化させたアニメーションによって表示するとよい。ターゲットカメラ距離dが0に近い条件においては、スクリーンの画角とカメラ画角とがほぼ等しくなるため、全周囲画像の一部を切り出した画像と同等の画像となる。
<スクリーンの大きさ調整>
マーカ1803を始点としたドラッグ操作が検出された場合、該当する仮想スクリーンの半径を変化させる。例えば、上方向にAピクセル分のドラッグ操作が検出された場合、仮想スクリーン272の表示半径rを、r×(100+A)/100に変化させる。
<スクリーン形状の変化>
マーカ1804の操作が検出された場合、仮想スクリーン272を四角柱に変化させる。なお、マーカ1804の操作後に、変化後の仮想スクリーンの形状を選択するサブ画面を表示してもよい。
<リアルタイム画像の取得>
マーカ1805の操作が検出された場合、画像生成装置302は撮影命令を指定されたカメラ111〜112に送信する。カメラ111〜112は、撮影命令を受信すると、画像を撮影し、所定の処理の後、データベース304に画像を保存する。画像生成装置302は撮影命令を指定されたデータベース304に保存された画像を取得することによって、最新の画像を仮想スクリーン272に表示することができる。
なお、マーカ1805の操作が検出された場合、カメラ111〜112に対する撮影命令の他に、設備131〜133に対する読取命令を送信してもよい。
<全周囲画像の変更>
また、第2実施例の操作によって非表示に設定された子カメラの設置場所に、マーカ1810〜1803を配置してもよい。これらのマーカの操作が検出された場合、当該選択された子カメラの位置を中心として仮想スクリーン272を表示し、当該選択された子カメラが撮影した全周囲画像を仮想スクリーン272に描画する。
第3実施例では、マーカの操作によるコールバック機能によって、仮想スクリーンに描画される画像を変えることができる。
以上に説明したように、本発明の第3実施例によると、画像生成装置302は、撮影位置の近傍の前記仮想三次元空間内に少なくとも一つのマーカを表示するための画像データを生成し、マーカの操作を検出した場合、仮想スクリーンの形状又は仮想スクリーンにマッピングされる全周囲画像を変化させるので、ユーザの操作に従って、ユーザが見たい画像を表示することができる。
また、第3実施例によると、マーカは、異なる撮影位置の全周囲画像に変更するために操作されるマーカ1801であるので、異なる位置から見た全周囲画像を表示することができる。また、マーカは、前記仮想三次元空間の視点距離を変更するために操作されるマーカ1802であるので、異なる位置から見た、異なる大きさで全周囲画像を表示することができる。マーカは、前記仮想スクリーンの大きさを変更するために操作されるマーカ1803であるので、異なる大きさで全周囲画像を表示することができる。マーカは、前記仮想スクリーンの形状を変更するために操作されるマーカ1804であるので、異なる位置の注視するための全周囲画像を表示することができる。マーカは、前記全周囲画像を最新の画像に更新するために操作されるマーカ1805であるので、最新の画像を表示することができる。
<実施例4>
第4実施例では、視聴者が三次元マップ上の表示マーカにインタラクションすることによって、現実空間100に存在する全周囲画像の撮影機器を操作する方法について説明する。なお、第4実施例では、前述した各実施例と異なる構成及び処理のみを説明し、同じ構成及び処理の説明は省略する。
第4実施例の基本ハードウェア構成は、カメラ112を除いて、第1実施例(図1、図3)と同じである。ただし、第4実施例において、カメラ112の代わりに物理的移動機能を有するカメラ2001を用いる。図19は、第4実施例で用いるカメラ2001の構成を示す図である。
カメラ2001は、図5A、図5Bで示したカメラの構成に加えて、車輪1911と動力伝達機構1912とモータ1913とを有しており、モータ1913に駆動して車輪1911を回転させることによってレール1920に沿って移動する機能を有する。また演算制御部514は、モータ制御部1914を介して電圧又は電流を制御することによってモータ1913を駆動することができる。
図20Aは、第4実施例の作業空間100を示す図である。カメラ2001の移動可能な範囲は、レール1920に依存する。
図21は、カメラが移動可能な経路を格納するデータ構造2100を示す図である。
データ構造2100は、カメラを一意に識別するための識別情報2101と、カメラの位置(移動先)2102と、所定の起点から当該位置に移動するためのモータ1913の駆動量2103とを含む。データ構造2100の各データは、識別情報2101で識別されるカメラ2001が設置されるレール1920の通過点に対応する。データ構造2100は、データベース305に登録しておき、カメラID2101の値を指定することによって取得できるとよい。
カメラ2001は、ネットワーク301を介して、移動命令や撮影命令を受信し動作する機能を有する。カメラ2001は固有IPアドレスを有しており、所定のポートにメッセージを受け取ると、モータ1913を所定量だけ駆動して、メッセージ送信元に応答メッセージを返信する。カメラ2001は移動可能なカメラの一例であり、レールに沿って移動せず、床面を自走するカメラでもよい。また、このようなカメラの移動機構は、既存の技術の組み合わせにより実施可能である。
初期化処理(ステップ1001)において、画像生成装置302は、カメラ2001の現在の場所の情報、及び移動可能な経路の情報2100も取得する。そして、図20Bに示すように、この情報を用いて、カメラ2001が移動可能な軌跡2020を画面上に描画する(ステップ1006)。
図20Bに、第2実施例のシステムによって表現される仮想空間200の表示例を示す。カメラ2001が移動可能な経路上の点を示すマーカ2021〜2029をユーザがマウスの操作によって指定した場合、カメラの移動と撮影を命じるメッセージをカメラ2001に送信する。カメラ2001は、指示された場所に移動し、周囲の画像を撮影して、データベース305に格納する。
なお、カメラ2001が動きながら、全周囲画像を撮影してもよい。この場合、全周囲画像を撮影した位置にマーカを表示するとよい。
図22は、カメラ2001の移動及び撮影の処理のフローチャートである。
画像生成装置302が通過点(マーカ)の選択を感知すると(ステップ2201)、選択されたマーカが表す通過点のデータをデータ構造2100から読み込み(ステップ2202)、データ構造2100から取得した駆動量2103をカメラ2001に送信し、カメラの移動を命令する(ステップ2203)。
カメラ2001は、移動命令を受信すると、モータを駆動し(ステップ2211)、選択されたマーカの位置に移動した後、周囲の画像を撮影し、撮影した画像をデータベース305に格納する(ステップ2212)。撮影後の画像の圧縮とデータベースへの登録は、第1実施例1のステップ802〜807と同じである。撮影作業の終了後に、撮影終了メッセージを画像生成装置302に送信する(ステップ2213)。
画像生成装置302は、撮影終了メッセージを受信すると(ステップ2204)、データベース305から画像を読み込み、新たな撮影位置に仮想スクリーンを動かし、画像を表示する(ステップ2205)。
なお、第4実施例において、データベース305に格納される画像管理情報に、カメラの位置と撮影時刻を含める。そして、ユーザがマーカを選択すると、選択されたマーカの位置(又は最も近い位置)で撮影された最新の画像をデータベース305から検索し、検索された画像をデータベース304から取得して、取得した画像を仮想スクリーンに表示してもよい。このとき、選択したマーカの位置を中心とする仮想スクリーンを新たに表示してもよい。さらに、選択したマーカの位置に視点を移動してもよい。
さらに、ユーザが入力した時刻(又は最も近い時刻)に撮影された画像をデータベース305から検索し、検索された画像をデータベース304から取得して、取得した画像を、撮影位置に対応する仮想スクリーンに表示してもよい。このとき、撮影位置に対応する仮想スクリーンを新たに表示してもよい。さらに、撮影位置に対応する仮想スクリーンの中心に視点を移動してもよい。
以上に説明したように、本発明の第4実施例によると、画像生成装置302は、カメラ2001に移動命令及び撮影命令を送信し、カメラ2001は、移動命令によって指定された場所に移動し、移動後の場所で全周囲画像を撮影し、画像生成装置302は、撮影された全周囲画像を取得するので、ユーザが見たい位置の現在の画像を表示することができる。
また、画像生成装置302は、ユーザによって指定された時刻に撮影された全周囲画像をデータベース304から取得し、取得した全周囲画像を仮想スクリーンにマッピングするので、ユーザが見たい時刻の画像を表示することができる。
また、画像生成装置302は、仮想三次元空間内の位置の選択を検出した場合、選択された位置を包含する仮想スクリーンを生成し、生成された仮想スクリーンに全周囲画像をマッピングし、生成された仮想スクリーンを前記仮想三次元空間に配置するので、ユーザが見たい位置の現在の画像を表示することができる。
また、画像生成装置302は、カメラ2001の移動を指示するためのマーカ2021〜2029を仮想三次元空間内に表示するための画像データを生成し、マーカ2021〜2029の選択を検出した場合、カメラ2001に移動命令及び撮影命令を送信するので、ユーザの意思に従ってカメラを移動することができる。
<実施例5>
第5実施例では、仮想空間200に表示された三次元モデルと、仮想空間200内の仮想スクリーン上に表示された画像とを関連付けて表示する方法について説明する。なお、第5実施例では、前述した各実施例と異なる構成及び処理のみを説明し、同じ構成及び処理の説明は省略する。
第1実施例においては、現実空間100内に存在する設備131〜133の状態を、仮想空間200内に描画された三次元モデルの色やテキストキャプションによって表示した。しかし、第1実施例の方法では、仮想空間200内に描かれた三次元モデル231〜233の位置と、仮想スクリーン上に描かれた全周囲画像の像の位置とは、通常は異なっており、撮影位置と仮想スクリーンに描画される画像の撮影位置とが等しい場合に、一致する。このため、第5実施例では、図23Aに示すように、仮想スクリーン272内で当該設備の像が描画される位置に、仮想空間200内の特定の三次元モデル231と同じ三次元モデル2301を描画することによって、全周囲画像と三次元マップとの対応関係を直観的に分かりやすく表すことができる。
第5実施例のハードウェア構成は、第1実施例(図1、図3)と同じである。
図24は、第5実施例の情報表示ルーチンのフローチャートである。
第5実施例では、三次元モデルと機器情報を描画する処理(ステップ2406)が、第1実施例と異なる。ステップ2406では、設備の三次元モデルを、第1実施例と同様に仮想空間200内に描画し(ステップ2412)、仮想スクリーン272内にも描画する(ステップ2415)。
具体的には、まず、画像生成装置302は、仮想空間200内に含まれる設備のうち、処理されていない設備の有無を判定する(ステップ2411)。そして、未処理の設備を一つ選択し、選択された設備の三次元モデルを仮想空間200内に描画する(ステップ2412)。
そして、選択された設備が、撮影位置に最も近い仮想スクリーンに表示すべき設備であるかを判定する(ステップ2413)。例えば、当該仮想スクリーン上に表示される当該設備の大きさが所定値以上であるかを判定するとよい。
そして、当該仮想スクリーン上に表示すべき設備であると判定された場合、データベース305にアクセスし、カメラ配置情報(図13A)を取得し、処理すべき仮想スクリーンの情報を抽出する(ステップ2414)。視点から前方(視線方向)で、視点に最も近い仮想スクリーンを処理すべき仮想スクリーンとして選択する。第3実施例にて説明したユーザインタフェースと併用する場合、マーカ1801を操作して指定された仮想スクリーンを選択するとよい。
そして、当該設備の三次元モデルを当該仮想スクリーン上に描画する(ステップ2415)。
その後、仮想空間200内に描画された三次元モデルと仮想スクリ―ン上に描画された三次元モデルとを対応付けるために、二つの三次元モデルを結ぶ直線2320を描画する(ステップ2416)。具体的には、三次元モデル231の各頂点座標pと、三次元モデル2301の頂点座標p’を結ぶ線分を描画する。二つの三次元モデルを結ぶ線分によって、仮想空間200内の物体と仮想スクリーン272に表示された物体とを、俯瞰状態でも容易に関係付けることができる。
この二つの三次元モデルを結ぶ線分は、二つの三次元モデルの全部又は一部の頂点同士を結ぶとよい。また、二つの三次元モデルを結ぶ線分は、オプショナルであり、表示しなくてもよい。また、二つの三次元モデルを結ぶ線分は、全ての設備について表示しなくても、画面が煩雑にならない程度の数だけ表示すればよい。さらに、二つの三次元モデルを結ぶ線分は、通常は描画せず、ユーザが設備を選択した(例えば、三次元モデルにマウスオンした)場合に描画してもよい。
図23Bに、設備の三次元モデルを当該仮想スクリーン上に描画する例を示す。ステップ2415において、三次元モデル231を仮想スクリーン272の内部に描画する場合、三次元モデル231のデータ構造は、第1実施例と同様に、三角形の頂点データと、各面を構成する三つの頂点を結ぶ順序データとによって構成される。また、仮想スクリーンの撮影位置をc=(x,y,z)で表し、円筒の半径はRで表される。
そして、仮想スクリーン272を構成する円筒の中心の撮影点212からの距離がr〜rの領域2320を、円筒面内側の筒付近の領域2330に変換する。領域2330は円筒中心からの距離がr’〜r’の領域を定義すると、式(8)及び式(9)を用いて点p=[x,y,z]の座標を変換できる。
Figure 2017017790
Figure 2017017790
式(8)、式(9)において、pは、撮影点に相当する座標[x,y,z]を原点として点p=[x,y,z]を変換した場合の相対座標であり、式(9)によって、撮影点からの距離|p|を変換することができる。式(8)及び式(9)を用いて、三次元モデル231の各頂点pを変換した点p’を頂点とした三次元モデル2301を描画する。
仮想スクリーン272上の三次元モデル2301は、円筒形状の内側面の狭い領域2330に描画される。この領域を撮影点212から観察すると、全周囲画像の像236と、三次元モデル2301は重なって見える。すなわち、仮想スクリーン272にマッピングされた全周囲画像として撮影された物体と、当該物体の三次元モデルとが重畳して表示される。また、領域2330が十分に小さい場合、撮影点212以外の場所から見た場合にも、三次元モデルは重畳して見える。
以上に説明したように、本発明の第5実施例によると、画像生成装置302は、現実空間100に存在する物体の三次元モデルを仮想スクリーン上で当該物体が表示される位置にマッピングするので、全周囲画像の像236と三次元モデル2301とが仮想スクリーン上で重畳して表示されるため、俯瞰状態のまま複数の全周囲画像を把握できる。
また、画像生成装置302は、仮想三次元空間200に配置された三次元モデルと、仮想スクリーン上にマッピングされた三次元モデルとを関連付ける線分を表示するので、仮想空間200内の物体と仮想スクリーン272に表示された物体とを、俯瞰状態でも容易に関係付けることができる。
なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。

Claims (15)

  1. 表示装置に表示される画像を生成する画像生成装置であって、
    プログラムを実行するプロセッサと、
    前記プログラムを格納するメモリとを備え、
    前記プロセッサは、
    現実空間に存在する物体の三次元モデルを仮想三次元空間に配置し、所定の撮影位置を包含する筒型の少なくとも一つの仮想スクリーンを前記仮想三次元空間に配置し、及び、前記撮影位置から撮影された全周囲画像を前記少なくとも一つの仮想スクリーンにマッピングする演算処理を実行し、
    前記三次元モデル及び前記少なくとも一つの仮想スクリーンが配置された前記仮想三次元空間を俯瞰して表示するための画像データを生成する画像生成装置。
  2. 請求項1に記載の画像生成装置であって、
    前記少なくとも一つの仮想スクリーンは円筒の形状であることを特徴とする画像生成装置。
  3. 請求項2に記載の画像生成装置であって、
    前記仮想三次元空間には複数の仮想スクリーンが配置されており、
    前記プロセッサは、
    複数の前記複数の仮想スクリーンの各々が重ならないように前記円筒の半径を計算し、
    前記計算された半径の円筒形状の仮想スクリーンを前記仮想三次元空間に配置する画像生成装置。
  4. 請求項1に記載の画像生成装置であって、
    前記プロセッサは、
    前記撮影位置の近傍の前記仮想三次元空間内に少なくとも一つのマーカを表示するための画像データを生成し、
    前記マーカの操作を検出した場合、前記少なくとも一つの仮想スクリーンの形状又は前記少なくとも一つの仮想スクリーンにマッピングされる全周囲画像を変化させる演算処理を実行する画像生成装置。
  5. 請求項4に記載の画像生成装置であって、
    前記少なくとも一つのマーカは、異なる撮影位置の全周囲画像に変更するために操作されるマーカ、前記仮想三次元空間の視点距離を変更するために操作されるマーカ、前記少なくとも一つの仮想スクリーンの大きさを変更するために操作されるマーカ、前記少なくとも一つの仮想スクリーンの形状を変更するために操作されるマーカ、及び、前記全周囲画像を最新の画像に更新するために操作されるマーカの、少なくとも一つである画像生成装置。
  6. 請求項1に記載の画像生成装置であって、
    前記プロセッサは、
    前記全周囲画像を撮影するカメラに移動命令及び撮影命令を送信し、
    前記移動命令による移動後の場所で撮影された全周囲画像を取得する画像生成装置。
  7. 請求項1に記載の画像生成装置であって、
    前記全周囲画像を格納するデータベースに接続されており、
    前記プロセッサは、
    ユーザによって指定された時刻に撮影された全周囲画像を前記データベースから取得し、
    前記取得した全周囲画像を前記少なくとも一つの仮想スクリーンにマッピングする画像生成装置。
  8. 請求項1に記載の画像生成装置であって、
    前記プロセッサは、
    前記仮想三次元空間内の位置の選択を検出した場合、前記選択された位置を包含する仮想スクリーンを生成し、
    前記生成された仮想スクリーンに全周囲画像をマッピングし、
    前記生成された仮想スクリーンを前記仮想三次元空間に配置する画像生成装置。
  9. 請求項1に記載の画像生成装置であって、
    前記プロセッサは、前記現実空間に存在する物体の三次元モデルを前記少なくとも一つの仮想スクリーン上で当該物体が表示される位置にマッピングする画像生成装置。
  10. 請求項9に記載の画像生成装置であって、
    前記プロセッサは、前記仮想三次元空間に配置された三次元モデルと、前記少なくとも一つの仮想スクリーン上にマッピングされた三次元モデルとを関連付ける表示を前記仮想三次元空間に配置する画像生成装置。
  11. 画像生成システムであって、
    表示装置に表示される画像を生成する画像生成装置と、
    現実空間において全周囲画像を撮影するカメラとを有し
    前記画像生成装置は、プログラムを実行するプロセッサと、前記プログラムを格納するメモリと、前記カメラが撮影した全周囲画像を取得するインターフェースとを有し、
    前記画像生成装置は、
    前記カメラが撮影した全周囲画像を取得し、
    現実空間に存在する物体の三次元モデルを仮想三次元空間に配置し、所定の撮影位置を包含する筒型の少なくとも一つの仮想スクリーンを前記仮想三次元空間に配置し、及び、前記撮影位置から撮影された全周囲画像を前記少なくとも一つの仮想スクリーンにマッピングする演算処理を実行し、
    前記三次元モデル及び前記少なくとも一つの仮想スクリーンが配置された前記仮想三次元空間を俯瞰して表示するための画像データを生成する画像生成システム。
  12. 請求項11に記載の画像生成システムであって、
    前記画像生成装置は、前記カメラに移動命令及び撮影命令を送信し、
    前記カメラは、前記移動命令によって指定された場所に移動し、前記移動後の場所で全周囲画像を撮影し、
    前記画像生成装置は、前記撮影された全周囲画像を取得する画像生成システム。
  13. 請求項11に記載の画像生成システムであって、
    前記画像生成装置は、
    前記カメラの移動を指示するためのマーカを前記仮想三次元空間内に表示するための画像データを生成し、
    前記マーカの選択を検出した場合、前記カメラに移動命令及び撮影命令を送信する画像生成システム。
  14. 画像生成装置によって画像を生成する画像生成方法であって、
    前記画像生成装置は、プログラムを実行するプロセッサと、前記プログラムを格納するメモリとを有し、
    前記画像生成方法は、
    前記プロセッサが、
    現実空間に存在する物体の三次元モデルを仮想三次元空間に配置し、所定の撮影位置を包含する筒型の少なくとも一つの仮想スクリーンを前記仮想三次元空間に配置し、及び、前記撮影位置から撮影された全周囲画像を前記少なくとも一つの仮想スクリーンにマッピングする演算処理を実行し、
    前記プロセッサが、前記三次元モデル及び前記少なくとも一つの仮想スクリーンが配置された前記仮想三次元空間を俯瞰して表示するための画像データを生成する画像生成方法。
  15. 請求項14に記載の画像生成方法であって、
    前記プロセッサは、前記仮想三次元空間内の位置の選択を検出した場合、前記選択された位置を包含する仮想スクリーンを生成し、
    前記プロセッサは、前記生成された仮想スクリーンに全周囲画像をマッピングし、
    前記プロセッサは、前記生成された仮想スクリーンを前記仮想三次元空間に配置する画像生成方法。
JP2017504845A 2015-07-28 2015-07-28 画像生成装置、画像生成システム及び画像生成方法 Active JP6310149B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/071392 WO2017017790A1 (ja) 2015-07-28 2015-07-28 画像生成装置、画像生成システム及び画像生成方法

Publications (2)

Publication Number Publication Date
JPWO2017017790A1 true JPWO2017017790A1 (ja) 2017-07-27
JP6310149B2 JP6310149B2 (ja) 2018-04-11

Family

ID=57885443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017504845A Active JP6310149B2 (ja) 2015-07-28 2015-07-28 画像生成装置、画像生成システム及び画像生成方法

Country Status (5)

Country Link
US (1) US20180204387A1 (ja)
EP (1) EP3330928A4 (ja)
JP (1) JP6310149B2 (ja)
CN (1) CN107851333A (ja)
WO (1) WO2017017790A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833348B2 (ja) * 2016-05-25 2021-02-24 キヤノン株式会社 情報処理装置、画像処理システム、情報処理装置の制御方法、仮想視点画像の生成方法、及び、プログラム
JPWO2018012355A1 (ja) * 2016-07-13 2019-04-25 ソニー株式会社 サーバ装置、サーバ装置の送信処理方法、クライアント装置、クライアント装置の受信処理方法およびサーバシステム
WO2019198784A1 (ja) * 2018-04-12 2019-10-17 凸版印刷株式会社 ライトフィールド画像生成システム、画像表示システム、形状情報取得サーバ、画像生成サーバ、表示装置、ライトフィールド画像生成方法及び画像表示方法
CN111858388B (zh) * 2019-04-24 2024-06-18 北京京东尚科信息技术有限公司 数据存储、内存访问控制的方法、系统、设备和存储介质
JP7226534B2 (ja) 2019-05-22 2023-02-21 日本電気株式会社 モデル生成装置、モデル生成システム、モデル生成方法、プログラム
WO2020250387A1 (ja) * 2019-06-13 2020-12-17 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
JP6924799B2 (ja) * 2019-07-05 2021-08-25 株式会社スクウェア・エニックス プログラム、画像処理方法及び画像処理システム
CN111563961B (zh) * 2020-05-11 2023-08-22 南方电网科学研究院有限责任公司 一种变电站的三维建模方法和相关装置
KR102543899B1 (ko) * 2020-08-27 2023-06-20 네이버랩스 주식회사 헤드업 디스플레이 및 그 제어방법
CN114007017A (zh) * 2021-11-18 2022-02-01 浙江博采传媒有限公司 一种视频生成方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250560A (ja) * 2004-03-01 2005-09-15 Mitsubishi Electric Corp 景観表示装置
JP2008287696A (ja) * 2007-05-17 2008-11-27 Monolith Co Ltd 画像処理方法と装置
JP2009129183A (ja) * 2007-11-22 2009-06-11 Internatl Business Mach Corp <Ibm> 仮想空間を構築するための画像処理方法、装置
JP2010531007A (ja) * 2007-05-25 2010-09-16 グーグル インコーポレイテッド パノラマのイメージを描画すること、閲覧すること、および注釈をつけること、ならびにそのアプリケーション
US8325187B2 (en) * 2009-10-22 2012-12-04 Samsung Electronics Co., Ltd. Method and device for real time 3D navigation in panoramic images and cylindrical spaces

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6928314B1 (en) * 1998-01-23 2005-08-09 Mayo Foundation For Medical Education And Research System for two-dimensional and three-dimensional imaging of tubular structures in the human body
JP2007537771A (ja) * 2003-11-03 2007-12-27 ブラッコ イメージング エス.ピー.エー. 内腔組織スクリーニングのためのシステム及び方法
CN100485720C (zh) * 2006-10-13 2009-05-06 浙江师范大学 一种基于序列静态图像的360°环视全景生成方法
CN101146231A (zh) * 2007-07-03 2008-03-19 浙江大学 根据多视角视频流生成全景视频的方法
CN101344707A (zh) * 2008-01-09 2009-01-14 上海海事大学 自动多投影仪非线性几何校正与边缘融合方法
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
JP5020398B1 (ja) * 2011-06-29 2012-09-05 パナソニック株式会社 画像変換装置、カメラ、画像変換方法およびプログラム
CN102509348B (zh) * 2011-09-26 2014-06-25 北京航空航天大学 一种共享增强现实场景的真实物体多方位表示方法
CN102750724B (zh) * 2012-04-13 2018-12-21 广东赛百威信息科技有限公司 一种基于图像的三维和全景系统自动生成方法
JP5891131B2 (ja) * 2012-07-11 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250560A (ja) * 2004-03-01 2005-09-15 Mitsubishi Electric Corp 景観表示装置
JP2008287696A (ja) * 2007-05-17 2008-11-27 Monolith Co Ltd 画像処理方法と装置
JP2010531007A (ja) * 2007-05-25 2010-09-16 グーグル インコーポレイテッド パノラマのイメージを描画すること、閲覧すること、および注釈をつけること、ならびにそのアプリケーション
JP2009129183A (ja) * 2007-11-22 2009-06-11 Internatl Business Mach Corp <Ibm> 仮想空間を構築するための画像処理方法、装置
US8325187B2 (en) * 2009-10-22 2012-12-04 Samsung Electronics Co., Ltd. Method and device for real time 3D navigation in panoramic images and cylindrical spaces

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
青木利道, 外2名: ""多地点全方位画像による環境記述"", 電子情報通信学会技術研究報告, vol. 第98巻, 第677号, JPN6017045622, 18 March 1999 (1999-03-18), JP, pages 57 - 64, ISSN: 0003691273 *

Also Published As

Publication number Publication date
WO2017017790A1 (ja) 2017-02-02
EP3330928A1 (en) 2018-06-06
JP6310149B2 (ja) 2018-04-11
CN107851333A (zh) 2018-03-27
EP3330928A4 (en) 2019-02-27
US20180204387A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
JP6310149B2 (ja) 画像生成装置、画像生成システム及び画像生成方法
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
JP5093053B2 (ja) 電子カメラ
JP6423435B2 (ja) 物理的光景を表すための方法および装置
CN114155299B (zh) 一种建筑数字孪生构建方法及系统
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR101871764B1 (ko) 가상현실 기반의 시설관리 플랫폼 구축 시스템
CN114329747B (zh) 一种面向建筑数字孪生的虚实实体坐标映射方法及系统
US20130187905A1 (en) Methods and systems for capturing and moving 3d models and true-scale metadata of real world objects
JP2011095797A (ja) 画像処理装置、画像処理方法及びプログラム
JP2016006627A (ja) 画像処理装置と画像処理方法
JP6174968B2 (ja) 撮像シミュレーション装置
US9239892B2 (en) X-ray vision for buildings
IE86364B1 (en) Closed loop 3D video scanner for generation of textured 3D point cloud
JP6126501B2 (ja) カメラ設置シミュレータ及びそのコンピュータプログラム
JPWO2015107665A1 (ja) 作業支援用データ作成プログラム
CN107950019A (zh) 信息处理装置、信息处理方法和程序
WO2016019390A1 (en) Image-based object location system and process
JP6152888B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP2004030408A (ja) 三次元画像表示装置及び表示方法
JP2018088065A (ja) 情報可視化システム、情報可視化方法、及びプログラム
CN113228117A (zh) 创作装置、创作方法和创作程序
JP2020060907A (ja) 避雷保護範囲生成システムおよびプログラム
CN113836337A (zh) Bim的展示方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180315

R150 Certificate of patent or registration of utility model

Ref document number: 6310149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150