以下、本発明の好ましい実施の形態として、添付図面を参照して具体的に説明する。
第1実施形態に係る画像表示制御装置1は、AR技術を利用して、現場の風景画像に建築予定の建築物の画像を合成して表示する。本実施形態においては、建築物の現在の段階で完成している予定の部分のみの画像が合成されて、表示される。例えば、図1(a)に示す建築予定の8階建ての建築物について、現在の段階で1〜3階部分が完成している予定である(図1(b)参照)が、実際には1〜2階部分しか完成していない場合(図1(c)参照)、実際の1〜2階部分の画像に、1〜3階部分が完成した画像が合成される(図1(d)参照)。この合成画像によって、予定では完成しているはずの3階部分が実際にはまだ完成しておらず、施行計画と比べて実際の工事が遅れていることを、直感的に認識することができる。なお、図1においては、簡略化した建築物を例にしているが、実際には、より複雑な構造をしている。また、施行計画はフロアごとではなく、同じフロアでも区画ごとに、また、建築物を構成する要素(壁、床、天井、窓、扉など)ごとに設定されていてもよい。この場合は、施行計画で完成している予定の区画、要素のみが合成される。
画像表示制御装置1は、汎用的なコンピュータにAR表示プログラムをインストールすることで実現される。AR表示プログラムは、後述するAR表示処理を、制御部11に実行させるためのプログラムである。本実施形態では、カメラなどの撮像装置、液晶画面などの表示装置、および各種センサを備えたタブレット型コンピュータにAR表示プログラムをインストールしたものを、画像表示制御装置1としている。
図2は、画像表示制御装置1の内部構成の一例を示す機能ブロック図である。画像表示制御装置1は、制御部11、記憶部12、操作部13、撮像部14、センサ部15、表示部16、通信部17、および、バス18を備えている。制御部11、記憶部12、操作部13、撮像部14、センサ部15、表示部16および通信部17は、バス18によって相互にデータ伝送可能に接続されている。
画像表示制御装置1は、通信回線2を介してサーバ3からAR表示プログラムをダウンロードして、記憶部12に読み込んでいる。なお、当該プログラムをフラッシュメモリやCD−ROMなどの他の記録メディアから読み込むようにしてもよい。
記憶部12は、各種情報を記憶するものである。記憶部12は、一次記憶部としてのROM(Read Only Memory)およびRAM(Random Access Memory)と、二次記憶部とを備えている。ROMは、読み取り専用の記憶媒体であって、基本プログラムが記憶されている。RAMは、書き換え可能な記憶媒体であって、応用プログラムを格納するエリアとプログラムを処理するためのワークエリアとを提供する。二次記憶部は、例えばフラッシュメモリやハードディスクなどであり、ダウンロードした応用プログラムや各種データを記憶している。本実施形態では、サーバ3からダウンロードされたAR表示プログラムが、記憶部12の二次記憶部に記憶されている。また、後述する三次元画像データも二次記憶部に記憶されている。記憶部12が、本発明に係る「プログラム記憶部」および「記憶装置」に相当する。
操作部13は、操作者からの操作入力を受け付けるものであり、各種操作ボタンおよびタッチパネルを備えている。操作部13は、操作者によって操作ボタンが押下された場合に、対応する操作信号を制御部11に入力する。また、操作部13は、タッチパネルから入力されるタッチ情報(タッチパネルのパネル面に格子状に配置された微小コンデンサまたは微小抵抗の変化情報)に基づいてパネル面における接触位置を算出し、その接触位置の情報を操作信号として制御部11に入力する。タッチパネルは、後述する表示装置の表示画面上に配置されている。
撮像部14は、CCD(Charge Coupled Device)などの撮像素子を有する撮像装置(カメラ)を備えている。撮像部14は、撮像装置によって撮像された静止画または動画の画像データを制御部11に入力する。
センサ部15は、各種センサを備えており、各センサが検出した検出信号を制御部11に入力する。本実施形態では、センサ部15は、3軸加速度センサ、3軸ジャイロセンサ、方位センサ、GPS(Global Positioning System)を備えている。3軸加速度センサは、それぞれ直交する3軸の各方向の加速度を検出するセンサである。3軸ジャイロセンサは、それぞれ直交する3軸の各軸周りの角速度を検出するセンサである。方位センサは、方位を検出するセンサである。GPSは、衛星から発信される信号を受信して、位置情報を検出する。なお、これらの全てのセンサを備えていなくてもよいし、その他のセンサを備えていてもよい。
表示部16は、例えば液晶表示装置などの表示装置を備えている。表示部16は、制御部11から入力される画像を表示装置に表示させる。
通信部17は、通信回線2を介して、外部の装置との間で通信を行うものであり、例えば無線LANモジュールなどの通信手段を備えている。なお、通信部17は、無線通信を行うものに限定されず、有線通信を行うものであってもよい。本実施形態では、通信部17は、サーバ3からAR表示プログラムを受信している。また、三次元画像データを、他のコンピュータやサーバ3から受信している。
制御部11は、画像表示制御装置1が備える各部の動作を統括制御するものであり、CPU(Central Processing Unit)によって実現されている。制御部11は、機能ブロックとして、少なくとも、データ取得部111、日時設定部112、撮像情報取得部113、撮像画像取得部114、および、表示制御部115を備えている。機能ブロックである各部111〜115は、制御部11が記憶部12に記憶されたAR表示プログラムを実行することで実現される。
データ取得部111は、記憶部12に記憶されている三次元画像データを取得する。三次元画像データは、あらかじめ取得されて、記憶部12に記憶されている。本実施形態では、三次元画像データは、建築物の三次元モデルのデータであり、建築物を構成する壁や、床、天井、窓、扉などを、それぞれ複数に分割した構成要素ごとにデータとして備えている。本実施形態では、構成要素を、三次元コンピュータグラフィックスにおける描画の最小単位の多角形であるポリゴンとしている。つまり、三次元画像データは、複数のポリゴンのデータを備えている。図3は、三次元画像データの一例を示している。図3に示すように、三次元画像データは、ポリゴンごとに、番号、位置データ、テクスチャデータ、日時データ、および表示フラグを含んでいる。番号はポリゴンごとに付されている番号である。位置データは、ポリゴンの各頂点の位置を示す座標である。本実施形態では、ポリゴンを三角形としているので、3つの頂点の座標が含まれている。各座標は、三次元モデルを設計したときの三次元仮想空間上の座標である。なお、現実の位置を示す座標(緯度、経度、高さに基づく座標)であってもよい。テクスチャデータは、ポリゴンに貼り付けられるテクスチャを示すデータである。日時データは、当該ポリゴンを含む部分が完成する予定の日付を示すデータである。日時データは、施行計画に応じて設定される。なお、日時データは、設計時の三次元モデルのデータには含まれておらず、施行計画が決定されてから追加される。なお、データ取得部111が、設計時の三次元モデルのデータと、施行計画のデータとから、三次元画像データを作成するようにしてもよい。表示フラグは、ポリゴンを表示するか否かを表すものであり、「1」の場合(フラグが立っている場合)に表示が行われる。図3においては、n番目のポリゴンについて、位置データとして3つの頂点の座標(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)が設定され、テクスチャデータとしてTnが設定され、日時データとしてDnが設定され、表示フラグには「0」が設定されていることを示している。データ取得部111は、取得した三次元画像データを表示制御部115に出力する。
日時設定部112は、日時を設定するものである。本実施形態では、現在の日付を設定するので、日時設定部112は、画像表示制御装置1が備えている時計やカレンダーから現在の日付を入手して、表示制御部115に出力する。なお、日時設定部112は、現在の日付を設定するものに限定されず、所望の日付を設定するようにしてもよい。この場合は、表示装置に所望の日付の入力を促すメッセージを表示して、操作者の操作によって操作部13から入力される操作信号に基づいて、日付を設定すればよい。
撮像情報取得部113は、撮像装置の位置および撮像方向を示す撮像情報を取得するものである。撮像情報取得部113は、センサ部15より入力される各種検出信号に基づいて、撮像装置の位置および撮像方向を演算し、演算結果を撮像情報として表示制御部115に出力する。撮像装置の位置はGPSの検出信号に基づいて演算され、撮像方向の水平面での方向は方位センサの検出信号に基づいて演算され、撮像方向の水平面に対する傾きは3軸加速度センサまたは3軸ジャイロセンサの検出信号に基づいて演算される。なお、各演算は、他のセンサの検出信号によって補正されてもよい。撮像情報取得部113による撮像情報の演算手法および演算に利用するセンサは限定されず、撮像装置の位置および撮像方向を演算できればよい。
撮像画像取得部114は、撮像装置が撮像している画像を取得するものである。撮像画像取得部114は、撮像部14より入力される画像データを表示制御部115に出力する。
表示制御部115は、表示部16の表示装置に表示させる表示画像を生成するものである。表示制御部115は、データ取得部111より入力される三次元画像データ、日時設定部112より入力される日時の情報、撮像情報取得部113より入力される撮像情報、および、撮像画像取得部114より入力される画像データに基づいて、表示画像の画像データを生成する。表示制御部115は、抽出部115a、投影処理部115b、および、合成部115cを備えている。
抽出部115aは、三次元画像データによる三次元画像のうち、表示画像に表示する部分を抽出するものである。抽出部115aは、データ取得部111より三次元画像データを入力され、日時設定部112より日時の情報(以下では、「日時情報」とする)を入力される。そして、三次元画像データに含まれる日時データと日時設定部112より入力された日時情報とを比較する。抽出部115aは、日時データが示す日時が、日時情報が示す日時より前であるポリゴンだけを抽出する。本実施形態では、日時データが当該ポリゴンを含む部分が完成する予定の日付を示しており、日時情報が現在の日付を示しているので、現在までに完成している予定の部分のポリゴンだけが抽出される。これら抽出されたポリゴンのみが表示画像に表示される。抽出部115aで抽出されたポリゴンのデータは、表示フラグを立てて(「1」を設定して)、抽出されなかったポリゴンのデータと区別される。なお、ポリゴンのデータの番号によって、抽出されたか否かを区別するようにしてもよい。三次元画像データのうち、抽出されたポリゴンのデータが、投影処理部115bに出力される。
投影処理部115bは、三次元のデータであるポリゴンの各頂点の座標を、表示画面に表示するための二次元のデータに変換するものである。投影処理部115bは、抽出部115aより抽出されたポリゴンのデータが入力され、撮像情報取得部113より撮像情報が入力される。投影処理部115bは、まず、抽出部115aより入力される抽出されたポリゴンのデータの各頂点の座標を、現実の位置を示す座標に変換する。つまり、三次元モデルを実際の建築物として建築予定地に建築した場合に、各頂点が位置することになる位置座標に変換される。当該変換には、三次元画像データとともに記憶部12に記憶されている、建築予定地の位置座標、建築物の向きおよび各寸法などの情報が用いられる。なお、ポリゴンのデータの各頂点の座標が現実の位置を示す座標で設定されていれば、当該変換は省略される。次に、投影処理部115bは、現実の位置座標に変換された各頂点の座標を、表示画面に透視投影した二次元の座標に変換する。透視投影とは、三次元コンピュータグラフィックスにおいて、三次元の物体を二次元平面に描画するための手法であって、視点から三次元の物体に視線を延ばし、視点と物体との間に仮想的に配置されたスクリーンと視線との交点に物体を描画するものである。透視投影の視点および視線の方向は、撮像情報取得部113より入力される撮像情報に基づいて設定される。すなわち、撮像情報に含まれる撮像装置の位置が透視投影の視点として設定され、撮像情報に含まれる撮像方向が透視投影の視線の方向として設定される。各頂点の座標が変換されたポリゴンのデータが、合成部115cに出力される。
合成部115cは、表示画像を生成するものである。合成部115cは、投影処理部115bより各頂点の座標が変換されたポリゴンのデータが入力され、撮像画像取得部114より画像データが入力される。合成部115cは、撮像画像取得部114より入力される画像データに基づく画像に、投影処理部115bより入力されるポリゴンを描画することで合成し、表示画像を生成する。ポリゴンの描画は、三つの頂点の座標からなる三角形を描画し、テクスチャを貼り付けることで行われる。このとき、視点(撮像装置の位置)側に存在するポリゴンによって見えなくなるポリゴンについては描画を行わないようにしてもよい。また、テクスチャは、実際の画像が透けて見えるように、半透明のテクスチャとしている。生成された表示画像は、表示部16に出力されて、表示装置に表示される。なお、投影処理部115bおよび合成部115cの処理は、CPUとは別に設けられた描画のためのプロセッサで行うようにしてもよい。
これらの制御部11での処理は、リアルタイムで行われる。すなわち、撮像画像取得部114は撮像装置が撮像している現在の画像を取得して、撮像情報取得部113はその時の撮像情報を取得する。そして、投影処理部115bが当該撮像情報に基づいて透視投影した各ポリゴンを、合成部115cが現在の画像に合成する。したがって、撮像装置が撮像している現在の実際の画像に、実際には存在しない建築物が合成されて、当該建築物が実際に存在するかのように表示される。また、本実施形態では、撮像画像取得部114より入力される画像データは、動画の画像データである。この場合、動画を構成する各静止画の画像データが入力される毎に、撮像情報取得部113はその時の撮像情報を取得し、投影処理部115bが当該撮像情報に基づいて透視投影した各ポリゴンを、合成部115cが静止画の画像に合成することを繰り返す。したがって、画像表示制御装置1を持った操作者が移動したり、撮像装置の撮像方向を変化させると、これに応じて建築物の位置や向きが変化する。これにより、建築物が実際に存在して、撮像装置に撮像されているかのように、表示画像を表示することができる。
図4は、制御部11が行うAR表示処理を説明するためのフローチャートである。当該AR表示処理は、例えば、メニュー画面で操作者がAR表示を選択した場合に開始される。なお、AR表示処理を開始する前に、三次元画像データを入手して、記憶部12に記憶しておく必要がある。
まず、データ取得部111が、記憶部12に記憶されている三次元画像データを取得する(S1)。次に、日時設定部112が現在の日時を示す日時情報を取得する(S2)。そして、抽出部115aが、三次元画像データに含まれる日時データと日時情報とを比較して、日時データが示す日時が、日時情報が示す日時より前であるポリゴンのデータだけを抽出する(S3)。以後の処理では、抽出されたポリゴンのデータのみが用いられる。
次に、撮像情報取得部113が、センサ部15より入力される各種検出信号に基づいて、撮像情報を取得する(S4)。次に、投影処理部115bが、抽出されたポリゴンのデータの各頂点の座標を、現実の位置を示す座標に変換し、さらに、表示画面に透視投影した二次元の座標に変換する(S5)。
次に、撮像画像取得部114が、撮像装置が撮像している画像の画像データを取得する(S6)。次に、合成部115cが、撮像画像に、各頂点の座標が変換されたポリゴンを描画することで合成し、表示画像を生成する(S7)。次に、表示制御部115は、生成した表示画像を、表示部16に出力して、表示装置に表示させる(S8)。そして、ステップS4に戻って、ステップS4〜S8を繰り返す。
AR表示処理は、操作者が終了を選択(例えば、表示画面に表示されている終了ボタンを操作者がタッチして、当該タッチをタッチパネルが読み取った場合など)した場合に終了される。なお、図4に示すフローチャートはAR表示処理の一例であって、制御部11が行うAR表示処理は、これに限定されない。
例えば、先にまとめて、該当するポリゴンのデータを抽出する(図4のS3参照)のではなく、図5に示すフローチャートのように、該当するポリゴンのデータを抽出しながら、抽出されたデータに対して投影処理および画像の合成を行うようにしてもよい。図5に示すフローチャートでは、制御部11は、三次元画像データ、日時情報、撮像情報および撮像画像を取得(ステップS1,S2,S4,S6)した後、ポリゴンの番号を示す変数nを増加させながら、ステップS9、S5、S7を、ポリゴンの数だけ繰り返す(S3’)。ステップS9では、制御部11は、対応するポリゴンの日時データDnが日時情報D0より小さい(日時データDnの示す日付が日時情報D0の示す日付より前)であるか否かを判別する。そして、Dn<D0の場合(S9:YES)は投影処理(S5)および画像の合成(S7)を行い、Dn≧D0の場合(S9:NO)は、投影処理および画像の合成を行わない。これをポリゴンの数だけ繰り返した後、表示装置に表示させる(S8)。
次に、本実施形態に係る画像表示制御装置1の作用および効果について説明する。
本実施形態によると、抽出部115aは、データ取得部111より入力される三次元画像データに含まれる日時データと日時設定部112より入力された日時情報とを比較して、日時データが示す日時が日時情報が示す日時より前であるポリゴンだけを抽出する。日時データが当該ポリゴンを含む部分が完成する予定の日付を示しており、日時情報が現在の日付を示しているので、現在の日時までに完成している予定の部分のポリゴンだけが抽出される。そして、抽出されたポリゴンだけが、撮像装置によって撮像された画像に合成されて、表示装置に表示される。したがって、表示装置には、建築物のうち現在の日時までに完成している予定の部分だけが、実際の画像に合成されて表示される。これにより、完成予定部分の画像と実際の画像との違いから、施行計画の遅れを直感的に認識させることができる。また、本実施形態では、ポリゴンに貼り付けるテクスチャを半透明としているので、ポリゴンによる建築物が半透明に表示される。これにより、実際の画像が透けて見えるので、完成予定部分の画像と実際の画像との違いを見分けやすくできる。
また、本実施形態によると、撮像画像取得部114は撮像装置が撮像している現在の画像を取得して、撮像情報取得部113はその時の撮像情報を取得する。そして、投影処理部115bが当該撮像情報に基づいて透視投影した各ポリゴンを、合成部115cが現在の画像に合成する。これにより、撮像装置が撮像している現在の実際の画像に、撮像装置の現在の位置および撮像方向に応じた、ポリゴンからなる建築物が合成されて、当該建築物が実際に存在するかのように表示される。したがって、建築現場で、リアルタイムに、合成された画像を示すことができる。
また、本実施形態によると、撮像画像取得部114より入力される画像データは動画の画像データである。そして、制御部11は、動画を構成する各静止画の画像データが入力される毎に、その時の撮像情報を取得して、当該撮像情報に基づいて透視投影した各ポリゴンを静止画の画像に合成することを繰り返す。したがって、画像表示制御装置1を持った操作者が移動したり、撮像装置の撮像方向を変化させると、これに応じて建築物の位置や向きが変化する。これにより、建築物を様々な方向から見た画像を、表示することができる。
なお、上記第1実施形態においては、三次元画像データの日時データとして、当該ポリゴンを含む部分が完成する予定の日付を設定する場合について説明したが、これに限られない。例えば、日付の代わりに、着工からの日数で設定(例えば40日後など)してもよい。この場合、日時設定部112が設定する日時情報も着工からの日数で設定する必要がある。また、日付だけでなく時間まで指定して設定してもよい。この場合、日時設定部112が設定する日時も時間を含めて設定すればよい。この場合、施行状態をより細かく確認することができる。
上記第1実施形態においては、実際の画像にポリゴンからなる建築物の全体(完成している予定の部分の全体)が合成された画像が表示される場合について説明したが、これに限られない。例えば、ポリゴンからなる建築物のうち実際の画像に表示されていない部分(予定では完成しているはずであるが実際には完成していない部分)だけを合成するようにしてもよい。具体的には、画像処理によって、ポリゴンからなる建築物と実際の画像の建築物との共通部分を検出し、当該共通部分に対応するポリゴンを表示しないようにすればよい。図1の例であれば、図1(d)において、実際の1〜2階部分の画像に、ポリゴンからなる3階部分だけが合成されるようになる。
上記第1実施形態においては、三次元画像データをポリゴンごとのデータとした場合について説明したが、これに限られない。例えば、三次元画像データを、複数のポリゴンからなる、建築物を構成する要素(壁、床、天井、窓、扉など)ごとのデータとしてもよい。また、建築物の三次元モデルの各点ごとのデータとしてもよい。なお、この場合、座標上同じ点であっても、日時データが異なる点は別の点として設定されている必要がある。例えば、日時D1に完成予定の部分の点と、日時D2に完成予定の部分の点とは、座標上は同じ点であっても、異なる点として設定される。
上記第1実施形態においては、いわゆるセンサ方式でAR表示を行う場合について説明したが、これに限られない。その他の方式(例えば、マーカー方式やマーカーレス方式)でAR表示を行うようにしてもよい。
上記第1実施形態においては、撮像装置が撮像している現在の画像に、透視投影したポリゴンからなる建築物をリアルタイムで合成する場合について説明したが、これに限られない。過去に撮像装置が撮像した画像に合成するようにしてもよい。この場合、画像が撮像された時に取得された撮像情報に基づいて透視投影を行う必要がある。また、上記第1実施形態においては、撮像装置が動画を撮像して、建築物を合成した動画が表示装置に表示される場合について説明したが、これに限られない。撮像装置が静止画を撮像して、建築物を合成した静止画が表示装置に表示されるようにしてもよい。
上記第1実施形態においては、三次元画像データが位置データなどの他に日時データを含んでおり、画像表示制御装置1が施行計画の進捗状況を確認するのに適していることを説明した。さらに、三次元画像データが建築費用に関するデータを含むようにして、予算の進捗状況を確認できるようにした場合を、第2実施形態として、以下に説明する。
図6は、第2実施形態に係る画像表示制御装置1’の内部構成の一例を示す機能ブロック図である。図6においては、記憶部12、操作部13、撮像部14、センサ部15、表示部16、通信部17およびバス18を省略して、制御部11のみを記載している。また、図6においては、第1実施形態に係る画像表示制御装置1(図2参照)と同一または類似の要素には、同一の符号を付している。図6に示すように、画像表示制御装置1’は、機能ブロックとして、選択受付部116、削除処理部117、および、費用算出部118を備えている点で、第1実施形態に係る画像表示制御装置1と異なる。
画像表示制御装置1’は、AR表示プログラムに加えて、費用算出プログラムをサーバ3からダウンロードして、記憶部12に読み込んでいる。機能ブロックである選択受付部116、削除処理部117、および、費用算出部118は、制御部11が記憶部12に記憶された費用算出プログラムを実行することで実現される。
費用算出プログラムは、現在の完成部分の予定費用を算出するものであり、AR表示プログラムによって作成された表示画像から、未実施部分を削除して、残り部分(実際の完成部分)の予定費用を算出して表示する。このため、第2実施形態に係る三次元画像データには、予定費用を算出するための費用データが含まれている。
図7(a)は、第2実施形態に係る三次元画像データの一例を示している。当該三次元画像データは、第1実施形態に係る三次元画像データに、さらに費用データを追加したものである。費用データは、当該ポリゴンが含まれる部分(例えば、壁、床、天井、窓、扉など)の建築費用を、含まれるポリゴンの数で除算したものである。例えば、ある壁の建築費用が100万円で、当該壁が100個のポリゴンで構成されている場合、各ポリゴンには費用データとして1万円(=100万円÷100個)が設定される。費用データは、見積書に応じて設定される。なお、費用データは、設計時の三次元モデルのデータには含まれていないので、見積書に応じて、後で追加される。なお、データ取得部111が、設計時の三次元モデルのデータと、施行計画のデータ(日時データの設定に使用)と、見積書のデータとから、三次元画像データを作成するようにしてもよい。
図8は、画像表示制御装置1’の表示画面41の一例を示しており、AR表示プログラムによって作成された表示画像42が表示されている状態を示している。表示画像42の右側には、複数の機能ボタン43が表示されている。表示画面41上にはタッチパネルが配置されているので、操作者が表示画面41上をタッチすることで、タッチパネルからタッチ位置の操作信号が制御部11に入力される。これにより、制御部11は、操作者がタッチした位置を認識して、何が選択されたかを認識することができる。機能ボタン43としては、AR表示を開始する「表示開始」ボタン、AR表示を終了する「表示終了」ボタン、AR表示を一時停止する「一時停止」ボタン、表示画像42から削除する部分の選択を開始する「選択開始」ボタン、および、選択を終了する「選択終了」ボタンが配置されている。また、表示画像42上をタッチすることで、削除する部分を選択することができる。なお、選択はポリゴンごとに行うようにしてもよいし、複数のポリゴンをまとめた部分ごとに行うようにしてもよい。なお、表示画面41のレイアウトや、表示される機能ボタン43の種類および数は限定されない。また、表示画像42上での選択の方法も限定されない。
選択受付部116は、AR表示プログラムによって作成された表示画像42から削除するために、操作者が選択した部分の指定を受け付ける。選択受付部116は、操作部13から入力される操作信号に基づいて、表示画像42上で選択された部分に対応するポリゴンを認識し、該当するポリゴンの番号を削除処理部117に出力する。なお、選択受付部116は、AR表示が一時停止され、選択開始の入力が行われてから、選択の受付を開始する。
削除処理部117は、三次元画像データから、選択されたポリゴンの削除を行うものである。削除処理部117は、抽出部115aより抽出されたポリゴンのデータ(表示フラグが反映された三次元画像データ)が入力され、選択受付部116よりポリゴンの番号が入力される。削除処理部117は、抽出部115aより入力された三次元画像データにおいて、選択受付部116より入力された番号に対応するポリゴンの表示フラグを「0」にする。これにより、削除処理部117によって削除されたポリゴンは、表示画像42に表示されなくなる。削除処理部117は、ポリゴンの削除処理を行った後の三次元画像データを、費用算出部118に出力する。
費用算出部118は、表示画像42に表示されている部分の予定費用を算出するものである。費用算出部118は、削除処理部117より、削除処理後の三次元画像データを入力される。費用算出部118は、入力された削除処理後の三次元画像データのうち、表示フラグが立っている(「1」が設定されている)ポリゴン(表示画像42に表示されているポリゴン)の費用データを合計する。これにより、表示画像42に表示されている、実際の完成部分の予定費用を算出することができる。算出された予定費用は、表示画面41に表示される(図8参照)。
図9は、制御部11が行う費用算出処理を説明するためのフローチャートである。当該費用算出処理は、AR表示が一時停止され、選択開始の入力が行われた場合に開始される。
まず、制御部11は、選択終了の入力が行われたか否かを判別する(S11)。具体的には、操作部13から、「選択終了」の機能ボタン43のタッチを示す操作信号が入力されたか否かを判別する。選択終了の入力が行われていない場合(S11:NO)、選択受付部116は、選択指定があったか否かを判別する(S12)。具体的には、操作部13から、表示画像42上での選択を示す操作信号が入力されたか否かを判別する。選択指定があった場合(S12:YES)、選択されたポリゴンが削除される。具体的には、選択受付部116が選択されたポリゴンの番号を削除処理部117に出力し、削除処理部117が抽出部115aより入力された三次元画像データにおいて、選択受付部116より入力された番号に対応するポリゴンの表示フラグを「0」にする。そして、ステップS11に戻る。ステップS12において、選択指定がなかった場合(S12:NO)も、ステップS11に戻る。また、ステップS11において、選択終了の入力が行わた場合(S11:YES)、ステップS14に進む。すなわち、選択終了の入力が行われるまで、ステップS11〜S13が繰り返され、選択指定があった場合には選択されたポリゴンが削除される。
そして、費用算出部118は、削除処理後の三次元画像データに基づいて、表示画像42に表示されている部分の予定費用を算出する(S14)。具体的には、費用算出部118は、削除処理後の三次元画像データのうち、表示フラグが立っているポリゴンの費用データを合計する。そして、表示制御部115が、算出された合計費用を表示画面41に表示して(S15)、費用算出処理が終了される。
なお、図9に示すフローチャートは費用算出処理の一例であって、制御部11が行う費用算出処理は、これに限定されない。
第2実施形態においても、第1実施形態と同様の効果を奏することができる。さらに、第2実施形態においては、費用算出処理によって、現在の完成部分の予定費用を算出することができる。現在の完成部分の予定費用を実際に現在までにかかっている費用と比較することで、計画通りかどうか、どの程度予算をオーバーしているかを知ることができる。また、AR表示プログラムによって作成された表示画像42を操作するだけなので、現場で容易に、予算の進捗状況を確認することができる。
なお、図7(b)に示すように、建築費用を例えば材料費や人件費などの項目に細分化して、費用データとして項目ごとに設定してもよい。この場合、項目ごとの予定費用を算出して、項目ごとに実際にかかっている費用と比較することができる。
上記第2実施形態においては、AR表示プログラムによって作成された表示画像42から、操作者が未実施部分を選択して削除する場合について説明したが、これに限られない。画像処理によって、未実施部分を自動的に削除するようにしてもよい。具体的には、画像処理によって、表示画像42と実際の画像(撮像装置が撮像して、撮像画像取得部114が取得した画像)との差異部分を検出し、検出された差異部分に対応するポリゴンを自動的に削除すればよい。この場合、操作者による選択が必要ないので、予算の進捗状況をより容易に確認することができる。また、画像処理によって検出した差異部分を、色を変化させたり点滅表示させたりして、操作者による選択を補助するようにしてもよい。
上記第1または第2実施形態においては、日時データに基づいて表示するポリゴンを抽出する場合について説明したが、これに限られない。例えば、費用データに基づいて表示するポリゴンを抽出するようにしてもよい。費用データに基づいて表示するポリゴンを抽出する場合を、第3実施形態として、以下に説明する。
図10は、第3実施形態に係る画像表示制御装置1”の内部構成の一例を示す機能ブロック図である。図10においては、記憶部12、操作部13、撮像部14、センサ部15、表示部16、通信部17およびバス18を省略して、制御部11のみを記載している。また、図10においては、第1実施形態に係る画像表示制御装置1(図2参照)と同一または類似の要素には、同一の符号を付している。図10に示すように、画像表示制御装置1”は、機能ブロックとして、日時設定部112に代えて費用設定部112’を備え、抽出部115aに代えて抽出部115a’を備えている点で、第1実施形態に係る画像表示制御装置1と異なる。
第3実施形態では、三次元画像データとして、図7(a)に示す第2実施形態に係る三次元画像データを用いる。なお、日時データを備えていなくても構わない。つまり、第3実施形態に係る三次元画像データは、少なくとも、番号、位置データ、テクスチャデータ、費用データ、および表示フラグを含んでいる。番号は、実際に建設される順に、振られている。
費用設定部112’は、総費用を設定するものである。本実施形態では、現在までに支出した費用の合計額の入力を促すメッセージを表示装置に表示して、操作者の操作によって操作部13から入力される操作信号に基づいて、費用設定部112’は総費用を取得する。費用設定部112’は、取得した総費用を、表示制御部115に出力する。なお、費用設定部112’は、現在までに支出した費用を経理のシステムから自動的に読み出して、その合計額を算出して設定するようにしてもよい。なお、現在までの総費用に限定されず、所望の総費用を設定するようにしてもよい。
抽出部115a’は、三次元画像データによる三次元画像のうち、表示画像に表示する部分を抽出するものである。抽出部115a’は、データ取得部111より三次元画像データを入力され、費用設定部112’より総費用を入力される。そして、抽出部115a’は、三次元画像データに含まれる費用データを番号の順に積算していき、積算値を費用設定部112’より入力された総費用と比較する。抽出部115a’は、積算値が総費用を超える前までのポリゴンを抽出する。本実施形態では、費用データがポリゴン毎の建築費用を示しており、総費用が現在までに支出した費用の合計額を示しているので、現在までに支出した費用で完成している予定の部分のポリゴンだけが抽出される。これら抽出されたポリゴンのみが表示画像に表示される。抽出部115a’で抽出されたポリゴンのデータは、表示フラグを立てて(「1」を設定して)、抽出されなかったポリゴンのデータと区別される。三次元画像データのうち、抽出されたポリゴンのデータが、投影処理部115bに出力される。
第3実施形態によると、抽出部115a’は、三次元画像データに含まれる費用データを番号の順に積算していき、積算値が総費用を超える前までのポリゴンを抽出する。したがって、現在までに支出した費用で完成している予定の部分のポリゴンだけが抽出され、撮像装置によって撮像された画像に合成されて、表示装置に表示される。したがって、表示装置には、建築物のうち、現在までに支出した費用で完成している予定の部分だけが、実際の画像に合成されて表示される。これにより、完成予定部分の画像と実際の画像との違いから、かかっている費用の多寡を直感的に認識させることができる。すなわち、完成予定部分の画像が実際の画像より工程が進んでいる場合、例えば図1(d)のような表示となった場合、計画より多くの費用がかかっていることが判る。逆に、実際の画像が完成予定部分の画像より工程が進んでいる場合、支出した費用が計画より少なくて済んでいることが判る。
なお、上記第1〜第3実施形態では、タブレット型コンピュータを用いて画像表示制御装置1を実現した場合について説明したが、これに限られない。例えば、スマートフォンやノートパソコンを用いるようにしてもよい。また、デスクトップ型のコンピュータを用いて、画像表示制御装置を実現してもよい。デスクトップ型のコンピュータを用いた場合について、第4実施形態として、以下に説明する。
図11(a)は、第4実施形態に係る画像表示制御装置6を含むシステムの内部構成の一例を示す機能ブロック図である。図11(a)においては、第1実施形態に係る画像表示制御装置1(図2参照)と同一または類似の要素には、同一の符号を付している。図11(a)に示すように、画像表示制御装置6は、撮像部14およびセンサ部15を備えておらず、代わりに、第2通信部19を備えている点で、第1実施形態に係る画像表示制御装置1と異なる。
画像表示制御装置6は、デスクトップ型のコンピュータに、AR表示プログラムをインストールしたものである。画像表示制御装置6は、一般的に机上に据え置きするものであって、操作者が現場に持って行くものではない。画像表示制御装置6は、第1実施形態に係る画像表示制御装置1における撮像部14およびセンサ部15を備えておらず、表示部16も据え置き型の液晶表示装置などである。第3実施形態においては、第1実施形態に係る画像表示制御装置1の撮像部14、センサ部15および表示部16に代わるものとして、例えばヘッドマウントディスプレイ5を使用する。
第2通信部19は、ヘッドマウントディスプレイ5の通信部59(後述)との間で、例えばBluetooth(登録商標)などの無線通信を行うものである。なお、第2通信部19と通信部59とは、無線通信を行うものに限定されず、有線通信を行うものであってもよい。
図11(b)は、ヘッドマウントディスプレイ5の一例を簡略化して示す図である。ヘッドマウントディスプレイ5は、操作者が頭部に装着する眼鏡型の表示装置であり、制御部51、撮像部54、センサ部55、表示部56、通信部59、および、バス58を備えている。
撮像部54は、撮像装置(カメラ)を備えている。撮像部54は、撮像装置によって撮像された静止画または動画の画像データを制御部51に入力する。センサ部55は、3軸加速度センサ、3軸ジャイロセンサ、方位センサ、GPSを備えている。センサ部55は、各センサが検出した検出信号を制御部51に入力する。表示部56は、例えば液晶表示装置などの表示装置を備えている。表示部56は、制御部51から入力される画像を表示装置に表示させる。通信部59は、画像表示制御装置6の第2通信部19との間で無線通信を行うものである。制御部51は、ヘッドマウントディスプレイ5が備える各部の動作を統括制御するものであり、CPUによって実現されている。制御部51は、撮像部54より入力される画像データ、および、センサ部55より入力される検出信号を、通信部59によって、画像表示制御装置6に送信させる。また、制御部51は、通信部59が画像表示制御装置6より受信した画像を、表示部56に表示させる。
つまり、ヘッドマウントディスプレイ5は、第1実施形態に係る画像表示制御装置1における撮像部14、センサ部15および表示部16の機能を有するデバイスであって、操作者の移動に伴って移動可能としたものである。ヘッドマウントディスプレイ5と画像表示制御装置6とは、通信部59と第2通信部19とで各種信号を送受信することにより、全体として、第1実施形態に係る画像表示制御装置1と同様の機能を有する。
第4実施形態においても、第1実施形態と同様の効果を奏することができる。
なお、上記第1〜第4実施形態においては、汎用的なコンピュータにAR表示プログラム(および費用算出プログラム)をインストールすることで画像表示制御装置1(1’,1”,6)を実現した場合について説明したが、これに限られない。例えば、初めから(製造時から)、AR表示プログラム(および費用算出プログラム)を記憶している、専用の画像表示制御装置1(1’,1”,6)であってもよい。
上記第1〜第4実施形態においては、本発明を建物の建築に利用した場合について説明したが、これに限られない。本発明は、高速道路や橋の建設などにも利用することができるし、土木工事においても利用することができる。
また、本発明は、建設工事や土木工事以外でも利用することができる。例えば、AR技術で、実際の画像に実在しない物体を合成した合成画像をリアルタイムに表示するときに、合成する物体が日時によって変化する場合に、本発明を利用することができる。
本発明に係る画像表示制御装置およびプログラムは、上述した実施形態に限定されるものではない。本発明に係る画像表示制御装置およびプログラムの各部の具体的な構成は、種々に設計変更自在である。