JP2018128894A - Image display controller and program - Google Patents
Image display controller and program Download PDFInfo
- Publication number
- JP2018128894A JP2018128894A JP2017021957A JP2017021957A JP2018128894A JP 2018128894 A JP2018128894 A JP 2018128894A JP 2017021957 A JP2017021957 A JP 2017021957A JP 2017021957 A JP2017021957 A JP 2017021957A JP 2018128894 A JP2018128894 A JP 2018128894A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- unit
- date
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 99
- 239000000470 constituent Substances 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 44
- 238000004891 communication Methods 0.000 description 32
- 238000000034 method Methods 0.000 description 27
- 238000000605 extraction Methods 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 20
- 238000010276 construction Methods 0.000 description 18
- 238000012217 deletion Methods 0.000 description 18
- 230000037430 deletion Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000002194 synthesizing effect Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Abstract
Description
本発明は、拡張現実による画像を表示させる画像表示制御装置、および、当該画像表示制御装置を実現するためのプログラムに関する。 The present invention relates to an image display control apparatus that displays an image based on augmented reality, and a program for realizing the image display control apparatus.
カメラで撮像された現実の風景画像に実在しない物体を合成した合成画像を、リアルタイムに表示する拡張現実(AR:Augmented Reality)と呼ばれる技術が提案されている。例えば、特許文献1には、建物の建築予定場所を含む風景画像に、建築を検討中の建物の画像を合成して表示するシミュレーション装置が記載されている。
A technique called augmented reality (AR) has been proposed in which a composite image obtained by combining an object that does not actually exist with a real landscape image captured by a camera is displayed in real time. For example,
また、建設工事や土木工事においては、施行計画の遅れやかかっている費用を管理する必要がある。設計段階で作成された建築物などの三次元モデルのデータを用いて、AR技術を利用することで、現場の風景画像に建築予定の建築物の画像を合成して表示することができる。しかし、現在の工事が計画通りにすすんでいるのか、どの程度遅れているのかということや、現在までにかかっている費用は妥当であるかということは、当該合成画像を見てもわからず、施行計画の工程表や見積書などを確認する必要がある。 In construction work and civil engineering work, it is necessary to manage delays in implementation plans and costs. By using the AR technology using the data of a three-dimensional model such as a building created at the design stage, it is possible to synthesize and display an image of the building planned for construction on the scene image at the site. However, it is not clear from the composite image whether the current construction is proceeding as planned, how late it is, and whether the cost to date is reasonable. It is necessary to confirm the schedule of the execution plan and the estimate.
本発明は、上記の課題に鑑みてなされたものであって、施行計画の遅れやかかっている費用の多寡を直感的に認識させることができる画像表示制御装置、および、当該画像表示制御装置を実現するためのプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and provides an image display control device and an image display control device capable of intuitively recognizing a delay in an execution plan and a large amount of costs. The purpose is to provide a program for realizing this.
本発明の第1の側面によって提供されるプログラムは、コンピュータを、記憶装置に記憶されている三次元物体のデータを取得するデータ取得手段と、撮像装置が撮像した画像を取得する撮像画像取得手段と、前記撮像画像取得手段が取得した画像に、前記データ取得手段が取得したデータに基づく前記三次元物体の画像を合成して、表示装置に表示させる表示制御手段と、日時または総費用を設定する設定手段として機能させ、前記三次元物体のデータは、構成要素ごとのデータを含んでおり、各構成要素のデータは、三次元の位置データと、日時データまたは費用データとを含んでおり、前記表示制御手段は、前記日時データおよび前記設定手段によって設定された日時、または、前記費用データおよび前記設定手段によって設定された総費用に基づいて、前記三次元物体の画像を合成することを特徴とする。 The program provided by the first aspect of the present invention includes a data acquisition unit that acquires data of a three-dimensional object stored in a storage device, and a captured image acquisition unit that acquires an image captured by the imaging device. And a display control means for combining the image acquired by the captured image acquisition means with the image of the three-dimensional object based on the data acquired by the data acquisition means and displaying it on the display device, and setting the date and time or the total cost The data of the three-dimensional object includes data for each component, and the data of each component includes three-dimensional position data and date / time data or cost data, The display control means is the date and time set by the date and time data and the setting means, or set by the expense data and the setting means. Based on the cost, and wherein the combining images of the three-dimensional object.
本発明の「構成要素」とは、三次元物体を構成する要素であり、例えばポリゴンなどの描画の最小単位の多角形を示している。なお、複数のポリゴンを合わせた要素も、「構成要素」に含まれる。また、三次元物体を構成する各点も、「構成要素」に含まれる。 The “component” of the present invention is an element that constitutes a three-dimensional object, and indicates, for example, a polygon that is a minimum unit of drawing, such as a polygon. An element obtained by combining a plurality of polygons is also included in the “component”. Each point constituting the three-dimensional object is also included in the “component”.
本発明の好ましい実施の形態においては、前記表示制御手段は、前記日時データが前記設定手段によって設定された日時より前を示す構成要素に基づいて、前記三次元物体の画像を合成する。 In a preferred embodiment of the present invention, the display control unit synthesizes the image of the three-dimensional object based on a component indicating that the date / time data is before the date / time set by the setting unit.
本発明の好ましい実施の形態においては、前記各構成要素のデータは、順番を示す番号データをさらに含んでおり、前記表示制御手段は、前記構成要素の費用データを番号データの順に積算していき、積算値が前記設定手段によって設定された総費用を超える前までの各構成要素に基づいて、前記三次元物体の画像を合成する。 In a preferred embodiment of the present invention, the data of each component further includes number data indicating the order, and the display control means accumulates the cost data of the components in the order of the number data. The image of the three-dimensional object is synthesized based on each component before the integrated value exceeds the total cost set by the setting means.
本発明の好ましい実施の形態においては、前記プログラムは、前記コンピュータを、前記撮像装置の位置および撮像方向を示す撮像情報を取得する撮像情報取得手段としてさらに機能させ、前記表示制御手段は、前記撮像情報に基づいて前記三次元物体を投影した二次元画像を合成する。 In a preferred embodiment of the present invention, the program causes the computer to further function as imaging information acquisition means for acquiring imaging information indicating a position and an imaging direction of the imaging device, and the display control means includes the imaging A two-dimensional image obtained by projecting the three-dimensional object is synthesized based on the information.
本発明の好ましい実施の形態においては、前記設定手段が設定する日時は現在の日時である。 In a preferred embodiment of the present invention, the date and time set by the setting means is the current date and time.
本発明の好ましい実施の形態においては、前記撮像画像取得手段が取得した画像に合成される前記三次元物体の画像は、半透明である。 In a preferred embodiment of the present invention, the image of the three-dimensional object synthesized with the image acquired by the captured image acquisition means is translucent.
本発明の好ましい実施の形態においては、前記三次元物体は建築物である。 In a preferred embodiment of the present invention, the three-dimensional object is a building.
本発明の第2の側面によって提供される画像表示制御装置は、本発明の第1の側面によって提供されるプログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムに基づいて処理を実行する制御部とを備えていることを特徴とする。 The image display control device provided by the second aspect of the present invention is a program storage unit storing the program provided by the first aspect of the present invention, and processing based on the program stored in the program storage unit And a control unit for executing the above.
本発明によると、日時データおよび日時、または、費用データおよび総費用に基づいて、前記三次元物体の画像が、撮像装置によって撮像された画像に合成されて、表示装置に表示される。したがって、設定された日時または総費用に応じた三次元物体の画像を実際の画像に合成して表示させることができる。各構成要素の日時データを施行計画に応じて設定しておき、現在の日時を設定すれば、現在の日時までに完成している予定の部分の画像が、実際の画像に合成されて表示される。完成予定部分の画像と実際の画像との違いから、施行計画の遅れを直感的に認識させることができる。また、各構成要素の費用データを見積書に応じて設定しておき、現在までにかかっている総費用を設定すれば、当該総費用によって完成している予定の部分の画像が、実際の画像に合成されて表示される。完成予定部分の画像と実際の画像との違いから、かかっている費用の多寡を直感的に認識させることができる。 According to the present invention, the image of the three-dimensional object is combined with the image captured by the imaging device based on the date / time data and date / time, or the cost data and the total cost, and displayed on the display device. Therefore, an image of a three-dimensional object corresponding to the set date and time or total cost can be combined with an actual image and displayed. If the date and time data of each component is set according to the enforcement plan, and the current date and time are set, the image of the part that is scheduled to be completed by the current date and time is combined with the actual image and displayed. The From the difference between the image of the planned completion part and the actual image, it is possible to intuitively recognize the delay in the execution plan. In addition, if the cost data of each component is set according to the estimate and the total cost that has been taken up to now is set, the image of the part that is scheduled to be completed by the total cost will be the actual image Is synthesized and displayed. From the difference between the image of the planned completion part and the actual image, it is possible to intuitively recognize the amount of the cost.
本発明のその他の特徴および利点は、添付図面を参照して以下に行う詳細な説明によって、より明らかとなろう。 Other features and advantages of the present invention will become more apparent from the detailed description given below with reference to the accompanying drawings.
以下、本発明の好ましい実施の形態として、添付図面を参照して具体的に説明する。 Hereinafter, a preferred embodiment of the present invention will be specifically described with reference to the accompanying drawings.
第1実施形態に係る画像表示制御装置1は、AR技術を利用して、現場の風景画像に建築予定の建築物の画像を合成して表示する。本実施形態においては、建築物の現在の段階で完成している予定の部分のみの画像が合成されて、表示される。例えば、図1(a)に示す建築予定の8階建ての建築物について、現在の段階で1〜3階部分が完成している予定である(図1(b)参照)が、実際には1〜2階部分しか完成していない場合(図1(c)参照)、実際の1〜2階部分の画像に、1〜3階部分が完成した画像が合成される(図1(d)参照)。この合成画像によって、予定では完成しているはずの3階部分が実際にはまだ完成しておらず、施行計画と比べて実際の工事が遅れていることを、直感的に認識することができる。なお、図1においては、簡略化した建築物を例にしているが、実際には、より複雑な構造をしている。また、施行計画はフロアごとではなく、同じフロアでも区画ごとに、また、建築物を構成する要素(壁、床、天井、窓、扉など)ごとに設定されていてもよい。この場合は、施行計画で完成している予定の区画、要素のみが合成される。
The image
画像表示制御装置1は、汎用的なコンピュータにAR表示プログラムをインストールすることで実現される。AR表示プログラムは、後述するAR表示処理を、制御部11に実行させるためのプログラムである。本実施形態では、カメラなどの撮像装置、液晶画面などの表示装置、および各種センサを備えたタブレット型コンピュータにAR表示プログラムをインストールしたものを、画像表示制御装置1としている。
The image
図2は、画像表示制御装置1の内部構成の一例を示す機能ブロック図である。画像表示制御装置1は、制御部11、記憶部12、操作部13、撮像部14、センサ部15、表示部16、通信部17、および、バス18を備えている。制御部11、記憶部12、操作部13、撮像部14、センサ部15、表示部16および通信部17は、バス18によって相互にデータ伝送可能に接続されている。
FIG. 2 is a functional block diagram illustrating an example of the internal configuration of the image
画像表示制御装置1は、通信回線2を介してサーバ3からAR表示プログラムをダウンロードして、記憶部12に読み込んでいる。なお、当該プログラムをフラッシュメモリやCD−ROMなどの他の記録メディアから読み込むようにしてもよい。
The image
記憶部12は、各種情報を記憶するものである。記憶部12は、一次記憶部としてのROM(Read Only Memory)およびRAM(Random Access Memory)と、二次記憶部とを備えている。ROMは、読み取り専用の記憶媒体であって、基本プログラムが記憶されている。RAMは、書き換え可能な記憶媒体であって、応用プログラムを格納するエリアとプログラムを処理するためのワークエリアとを提供する。二次記憶部は、例えばフラッシュメモリやハードディスクなどであり、ダウンロードした応用プログラムや各種データを記憶している。本実施形態では、サーバ3からダウンロードされたAR表示プログラムが、記憶部12の二次記憶部に記憶されている。また、後述する三次元画像データも二次記憶部に記憶されている。記憶部12が、本発明に係る「プログラム記憶部」および「記憶装置」に相当する。
The
操作部13は、操作者からの操作入力を受け付けるものであり、各種操作ボタンおよびタッチパネルを備えている。操作部13は、操作者によって操作ボタンが押下された場合に、対応する操作信号を制御部11に入力する。また、操作部13は、タッチパネルから入力されるタッチ情報(タッチパネルのパネル面に格子状に配置された微小コンデンサまたは微小抵抗の変化情報)に基づいてパネル面における接触位置を算出し、その接触位置の情報を操作信号として制御部11に入力する。タッチパネルは、後述する表示装置の表示画面上に配置されている。
The
撮像部14は、CCD(Charge Coupled Device)などの撮像素子を有する撮像装置(カメラ)を備えている。撮像部14は、撮像装置によって撮像された静止画または動画の画像データを制御部11に入力する。
The
センサ部15は、各種センサを備えており、各センサが検出した検出信号を制御部11に入力する。本実施形態では、センサ部15は、3軸加速度センサ、3軸ジャイロセンサ、方位センサ、GPS(Global Positioning System)を備えている。3軸加速度センサは、それぞれ直交する3軸の各方向の加速度を検出するセンサである。3軸ジャイロセンサは、それぞれ直交する3軸の各軸周りの角速度を検出するセンサである。方位センサは、方位を検出するセンサである。GPSは、衛星から発信される信号を受信して、位置情報を検出する。なお、これらの全てのセンサを備えていなくてもよいし、その他のセンサを備えていてもよい。
The
表示部16は、例えば液晶表示装置などの表示装置を備えている。表示部16は、制御部11から入力される画像を表示装置に表示させる。
The
通信部17は、通信回線2を介して、外部の装置との間で通信を行うものであり、例えば無線LANモジュールなどの通信手段を備えている。なお、通信部17は、無線通信を行うものに限定されず、有線通信を行うものであってもよい。本実施形態では、通信部17は、サーバ3からAR表示プログラムを受信している。また、三次元画像データを、他のコンピュータやサーバ3から受信している。
The
制御部11は、画像表示制御装置1が備える各部の動作を統括制御するものであり、CPU(Central Processing Unit)によって実現されている。制御部11は、機能ブロックとして、少なくとも、データ取得部111、日時設定部112、撮像情報取得部113、撮像画像取得部114、および、表示制御部115を備えている。機能ブロックである各部111〜115は、制御部11が記憶部12に記憶されたAR表示プログラムを実行することで実現される。
The
データ取得部111は、記憶部12に記憶されている三次元画像データを取得する。三次元画像データは、あらかじめ取得されて、記憶部12に記憶されている。本実施形態では、三次元画像データは、建築物の三次元モデルのデータであり、建築物を構成する壁や、床、天井、窓、扉などを、それぞれ複数に分割した構成要素ごとにデータとして備えている。本実施形態では、構成要素を、三次元コンピュータグラフィックスにおける描画の最小単位の多角形であるポリゴンとしている。つまり、三次元画像データは、複数のポリゴンのデータを備えている。図3は、三次元画像データの一例を示している。図3に示すように、三次元画像データは、ポリゴンごとに、番号、位置データ、テクスチャデータ、日時データ、および表示フラグを含んでいる。番号はポリゴンごとに付されている番号である。位置データは、ポリゴンの各頂点の位置を示す座標である。本実施形態では、ポリゴンを三角形としているので、3つの頂点の座標が含まれている。各座標は、三次元モデルを設計したときの三次元仮想空間上の座標である。なお、現実の位置を示す座標(緯度、経度、高さに基づく座標)であってもよい。テクスチャデータは、ポリゴンに貼り付けられるテクスチャを示すデータである。日時データは、当該ポリゴンを含む部分が完成する予定の日付を示すデータである。日時データは、施行計画に応じて設定される。なお、日時データは、設計時の三次元モデルのデータには含まれておらず、施行計画が決定されてから追加される。なお、データ取得部111が、設計時の三次元モデルのデータと、施行計画のデータとから、三次元画像データを作成するようにしてもよい。表示フラグは、ポリゴンを表示するか否かを表すものであり、「1」の場合(フラグが立っている場合)に表示が行われる。図3においては、n番目のポリゴンについて、位置データとして3つの頂点の座標(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)が設定され、テクスチャデータとしてTnが設定され、日時データとしてDnが設定され、表示フラグには「0」が設定されていることを示している。データ取得部111は、取得した三次元画像データを表示制御部115に出力する。
The
日時設定部112は、日時を設定するものである。本実施形態では、現在の日付を設定するので、日時設定部112は、画像表示制御装置1が備えている時計やカレンダーから現在の日付を入手して、表示制御部115に出力する。なお、日時設定部112は、現在の日付を設定するものに限定されず、所望の日付を設定するようにしてもよい。この場合は、表示装置に所望の日付の入力を促すメッセージを表示して、操作者の操作によって操作部13から入力される操作信号に基づいて、日付を設定すればよい。
The date and
撮像情報取得部113は、撮像装置の位置および撮像方向を示す撮像情報を取得するものである。撮像情報取得部113は、センサ部15より入力される各種検出信号に基づいて、撮像装置の位置および撮像方向を演算し、演算結果を撮像情報として表示制御部115に出力する。撮像装置の位置はGPSの検出信号に基づいて演算され、撮像方向の水平面での方向は方位センサの検出信号に基づいて演算され、撮像方向の水平面に対する傾きは3軸加速度センサまたは3軸ジャイロセンサの検出信号に基づいて演算される。なお、各演算は、他のセンサの検出信号によって補正されてもよい。撮像情報取得部113による撮像情報の演算手法および演算に利用するセンサは限定されず、撮像装置の位置および撮像方向を演算できればよい。
The imaging
撮像画像取得部114は、撮像装置が撮像している画像を取得するものである。撮像画像取得部114は、撮像部14より入力される画像データを表示制御部115に出力する。
The captured
表示制御部115は、表示部16の表示装置に表示させる表示画像を生成するものである。表示制御部115は、データ取得部111より入力される三次元画像データ、日時設定部112より入力される日時の情報、撮像情報取得部113より入力される撮像情報、および、撮像画像取得部114より入力される画像データに基づいて、表示画像の画像データを生成する。表示制御部115は、抽出部115a、投影処理部115b、および、合成部115cを備えている。
The
抽出部115aは、三次元画像データによる三次元画像のうち、表示画像に表示する部分を抽出するものである。抽出部115aは、データ取得部111より三次元画像データを入力され、日時設定部112より日時の情報(以下では、「日時情報」とする)を入力される。そして、三次元画像データに含まれる日時データと日時設定部112より入力された日時情報とを比較する。抽出部115aは、日時データが示す日時が、日時情報が示す日時より前であるポリゴンだけを抽出する。本実施形態では、日時データが当該ポリゴンを含む部分が完成する予定の日付を示しており、日時情報が現在の日付を示しているので、現在までに完成している予定の部分のポリゴンだけが抽出される。これら抽出されたポリゴンのみが表示画像に表示される。抽出部115aで抽出されたポリゴンのデータは、表示フラグを立てて(「1」を設定して)、抽出されなかったポリゴンのデータと区別される。なお、ポリゴンのデータの番号によって、抽出されたか否かを区別するようにしてもよい。三次元画像データのうち、抽出されたポリゴンのデータが、投影処理部115bに出力される。
The
投影処理部115bは、三次元のデータであるポリゴンの各頂点の座標を、表示画面に表示するための二次元のデータに変換するものである。投影処理部115bは、抽出部115aより抽出されたポリゴンのデータが入力され、撮像情報取得部113より撮像情報が入力される。投影処理部115bは、まず、抽出部115aより入力される抽出されたポリゴンのデータの各頂点の座標を、現実の位置を示す座標に変換する。つまり、三次元モデルを実際の建築物として建築予定地に建築した場合に、各頂点が位置することになる位置座標に変換される。当該変換には、三次元画像データとともに記憶部12に記憶されている、建築予定地の位置座標、建築物の向きおよび各寸法などの情報が用いられる。なお、ポリゴンのデータの各頂点の座標が現実の位置を示す座標で設定されていれば、当該変換は省略される。次に、投影処理部115bは、現実の位置座標に変換された各頂点の座標を、表示画面に透視投影した二次元の座標に変換する。透視投影とは、三次元コンピュータグラフィックスにおいて、三次元の物体を二次元平面に描画するための手法であって、視点から三次元の物体に視線を延ばし、視点と物体との間に仮想的に配置されたスクリーンと視線との交点に物体を描画するものである。透視投影の視点および視線の方向は、撮像情報取得部113より入力される撮像情報に基づいて設定される。すなわち、撮像情報に含まれる撮像装置の位置が透視投影の視点として設定され、撮像情報に含まれる撮像方向が透視投影の視線の方向として設定される。各頂点の座標が変換されたポリゴンのデータが、合成部115cに出力される。
The
合成部115cは、表示画像を生成するものである。合成部115cは、投影処理部115bより各頂点の座標が変換されたポリゴンのデータが入力され、撮像画像取得部114より画像データが入力される。合成部115cは、撮像画像取得部114より入力される画像データに基づく画像に、投影処理部115bより入力されるポリゴンを描画することで合成し、表示画像を生成する。ポリゴンの描画は、三つの頂点の座標からなる三角形を描画し、テクスチャを貼り付けることで行われる。このとき、視点(撮像装置の位置)側に存在するポリゴンによって見えなくなるポリゴンについては描画を行わないようにしてもよい。また、テクスチャは、実際の画像が透けて見えるように、半透明のテクスチャとしている。生成された表示画像は、表示部16に出力されて、表示装置に表示される。なお、投影処理部115bおよび合成部115cの処理は、CPUとは別に設けられた描画のためのプロセッサで行うようにしてもよい。
The synthesizing
これらの制御部11での処理は、リアルタイムで行われる。すなわち、撮像画像取得部114は撮像装置が撮像している現在の画像を取得して、撮像情報取得部113はその時の撮像情報を取得する。そして、投影処理部115bが当該撮像情報に基づいて透視投影した各ポリゴンを、合成部115cが現在の画像に合成する。したがって、撮像装置が撮像している現在の実際の画像に、実際には存在しない建築物が合成されて、当該建築物が実際に存在するかのように表示される。また、本実施形態では、撮像画像取得部114より入力される画像データは、動画の画像データである。この場合、動画を構成する各静止画の画像データが入力される毎に、撮像情報取得部113はその時の撮像情報を取得し、投影処理部115bが当該撮像情報に基づいて透視投影した各ポリゴンを、合成部115cが静止画の画像に合成することを繰り返す。したがって、画像表示制御装置1を持った操作者が移動したり、撮像装置の撮像方向を変化させると、これに応じて建築物の位置や向きが変化する。これにより、建築物が実際に存在して、撮像装置に撮像されているかのように、表示画像を表示することができる。
The processing in these
図4は、制御部11が行うAR表示処理を説明するためのフローチャートである。当該AR表示処理は、例えば、メニュー画面で操作者がAR表示を選択した場合に開始される。なお、AR表示処理を開始する前に、三次元画像データを入手して、記憶部12に記憶しておく必要がある。
FIG. 4 is a flowchart for explaining the AR display process performed by the
まず、データ取得部111が、記憶部12に記憶されている三次元画像データを取得する(S1)。次に、日時設定部112が現在の日時を示す日時情報を取得する(S2)。そして、抽出部115aが、三次元画像データに含まれる日時データと日時情報とを比較して、日時データが示す日時が、日時情報が示す日時より前であるポリゴンのデータだけを抽出する(S3)。以後の処理では、抽出されたポリゴンのデータのみが用いられる。
First, the
次に、撮像情報取得部113が、センサ部15より入力される各種検出信号に基づいて、撮像情報を取得する(S4)。次に、投影処理部115bが、抽出されたポリゴンのデータの各頂点の座標を、現実の位置を示す座標に変換し、さらに、表示画面に透視投影した二次元の座標に変換する(S5)。
Next, the imaging
次に、撮像画像取得部114が、撮像装置が撮像している画像の画像データを取得する(S6)。次に、合成部115cが、撮像画像に、各頂点の座標が変換されたポリゴンを描画することで合成し、表示画像を生成する(S7)。次に、表示制御部115は、生成した表示画像を、表示部16に出力して、表示装置に表示させる(S8)。そして、ステップS4に戻って、ステップS4〜S8を繰り返す。
Next, the captured
AR表示処理は、操作者が終了を選択(例えば、表示画面に表示されている終了ボタンを操作者がタッチして、当該タッチをタッチパネルが読み取った場合など)した場合に終了される。なお、図4に示すフローチャートはAR表示処理の一例であって、制御部11が行うAR表示処理は、これに限定されない。
The AR display process is terminated when the operator selects termination (for example, when the operator touches the termination button displayed on the display screen and the touch panel reads the touch). Note that the flowchart shown in FIG. 4 is an example of the AR display process, and the AR display process performed by the
例えば、先にまとめて、該当するポリゴンのデータを抽出する(図4のS3参照)のではなく、図5に示すフローチャートのように、該当するポリゴンのデータを抽出しながら、抽出されたデータに対して投影処理および画像の合成を行うようにしてもよい。図5に示すフローチャートでは、制御部11は、三次元画像データ、日時情報、撮像情報および撮像画像を取得(ステップS1,S2,S4,S6)した後、ポリゴンの番号を示す変数nを増加させながら、ステップS9、S5、S7を、ポリゴンの数だけ繰り返す(S3’)。ステップS9では、制御部11は、対応するポリゴンの日時データDnが日時情報D0より小さい(日時データDnの示す日付が日時情報D0の示す日付より前)であるか否かを判別する。そして、Dn<D0の場合(S9:YES)は投影処理(S5)および画像の合成(S7)を行い、Dn≧D0の場合(S9:NO)は、投影処理および画像の合成を行わない。これをポリゴンの数だけ繰り返した後、表示装置に表示させる(S8)。
For example, instead of extracting the corresponding polygon data first (see S3 in FIG. 4), the extracted data is extracted while extracting the corresponding polygon data as shown in the flowchart of FIG. On the other hand, projection processing and image synthesis may be performed. In the flowchart shown in FIG. 5, the
次に、本実施形態に係る画像表示制御装置1の作用および効果について説明する。
Next, operations and effects of the image
本実施形態によると、抽出部115aは、データ取得部111より入力される三次元画像データに含まれる日時データと日時設定部112より入力された日時情報とを比較して、日時データが示す日時が日時情報が示す日時より前であるポリゴンだけを抽出する。日時データが当該ポリゴンを含む部分が完成する予定の日付を示しており、日時情報が現在の日付を示しているので、現在の日時までに完成している予定の部分のポリゴンだけが抽出される。そして、抽出されたポリゴンだけが、撮像装置によって撮像された画像に合成されて、表示装置に表示される。したがって、表示装置には、建築物のうち現在の日時までに完成している予定の部分だけが、実際の画像に合成されて表示される。これにより、完成予定部分の画像と実際の画像との違いから、施行計画の遅れを直感的に認識させることができる。また、本実施形態では、ポリゴンに貼り付けるテクスチャを半透明としているので、ポリゴンによる建築物が半透明に表示される。これにより、実際の画像が透けて見えるので、完成予定部分の画像と実際の画像との違いを見分けやすくできる。
According to the present embodiment, the
また、本実施形態によると、撮像画像取得部114は撮像装置が撮像している現在の画像を取得して、撮像情報取得部113はその時の撮像情報を取得する。そして、投影処理部115bが当該撮像情報に基づいて透視投影した各ポリゴンを、合成部115cが現在の画像に合成する。これにより、撮像装置が撮像している現在の実際の画像に、撮像装置の現在の位置および撮像方向に応じた、ポリゴンからなる建築物が合成されて、当該建築物が実際に存在するかのように表示される。したがって、建築現場で、リアルタイムに、合成された画像を示すことができる。
Further, according to the present embodiment, the captured
また、本実施形態によると、撮像画像取得部114より入力される画像データは動画の画像データである。そして、制御部11は、動画を構成する各静止画の画像データが入力される毎に、その時の撮像情報を取得して、当該撮像情報に基づいて透視投影した各ポリゴンを静止画の画像に合成することを繰り返す。したがって、画像表示制御装置1を持った操作者が移動したり、撮像装置の撮像方向を変化させると、これに応じて建築物の位置や向きが変化する。これにより、建築物を様々な方向から見た画像を、表示することができる。
According to the present embodiment, the image data input from the captured
なお、上記第1実施形態においては、三次元画像データの日時データとして、当該ポリゴンを含む部分が完成する予定の日付を設定する場合について説明したが、これに限られない。例えば、日付の代わりに、着工からの日数で設定(例えば40日後など)してもよい。この場合、日時設定部112が設定する日時情報も着工からの日数で設定する必要がある。また、日付だけでなく時間まで指定して設定してもよい。この場合、日時設定部112が設定する日時も時間を含めて設定すればよい。この場合、施行状態をより細かく確認することができる。
In the first embodiment, the case has been described in which the date when the part including the polygon is scheduled to be completed is set as the date / time data of the 3D image data. However, the present invention is not limited to this. For example, instead of the date, the number of days from the start of construction may be set (for example, after 40 days). In this case, the date / time information set by the date /
上記第1実施形態においては、実際の画像にポリゴンからなる建築物の全体(完成している予定の部分の全体)が合成された画像が表示される場合について説明したが、これに限られない。例えば、ポリゴンからなる建築物のうち実際の画像に表示されていない部分(予定では完成しているはずであるが実際には完成していない部分)だけを合成するようにしてもよい。具体的には、画像処理によって、ポリゴンからなる建築物と実際の画像の建築物との共通部分を検出し、当該共通部分に対応するポリゴンを表示しないようにすればよい。図1の例であれば、図1(d)において、実際の1〜2階部分の画像に、ポリゴンからなる3階部分だけが合成されるようになる。 In the first embodiment described above, a case has been described in which an image in which an entire building made up of polygons (the entire part to be completed) is combined with an actual image is displayed. However, the present invention is not limited to this. . For example, only a portion of a building made of polygons that is not displayed in an actual image (a portion that should have been completed but not actually completed) may be synthesized. Specifically, a common part between a building made of polygons and a building of an actual image may be detected by image processing so that the polygon corresponding to the common part is not displayed. In the example of FIG. 1, in FIG. 1D, only the third floor portion composed of polygons is combined with the actual image of the first and second floor portions.
上記第1実施形態においては、三次元画像データをポリゴンごとのデータとした場合について説明したが、これに限られない。例えば、三次元画像データを、複数のポリゴンからなる、建築物を構成する要素(壁、床、天井、窓、扉など)ごとのデータとしてもよい。また、建築物の三次元モデルの各点ごとのデータとしてもよい。なお、この場合、座標上同じ点であっても、日時データが異なる点は別の点として設定されている必要がある。例えば、日時D1に完成予定の部分の点と、日時D2に完成予定の部分の点とは、座標上は同じ点であっても、異なる点として設定される。 In the first embodiment, the case where the three-dimensional image data is data for each polygon has been described. However, the present invention is not limited to this. For example, the three-dimensional image data may be data for each element (wall, floor, ceiling, window, door, etc.) comprising a plurality of polygons and constituting a building. Moreover, it is good also as the data for every point of the three-dimensional model of a building. In this case, even if the points are the same on the coordinates, points with different date / time data need to be set as different points. For example, the point of the part scheduled to be completed at the date and time D1 and the point of the part scheduled to be completed at the date and time D2 are set as different points even if they are the same point on the coordinates.
上記第1実施形態においては、いわゆるセンサ方式でAR表示を行う場合について説明したが、これに限られない。その他の方式(例えば、マーカー方式やマーカーレス方式)でAR表示を行うようにしてもよい。 In the first embodiment, the case where AR display is performed by a so-called sensor method has been described, but the present invention is not limited to this. The AR display may be performed by other methods (for example, a marker method or a markerless method).
上記第1実施形態においては、撮像装置が撮像している現在の画像に、透視投影したポリゴンからなる建築物をリアルタイムで合成する場合について説明したが、これに限られない。過去に撮像装置が撮像した画像に合成するようにしてもよい。この場合、画像が撮像された時に取得された撮像情報に基づいて透視投影を行う必要がある。また、上記第1実施形態においては、撮像装置が動画を撮像して、建築物を合成した動画が表示装置に表示される場合について説明したが、これに限られない。撮像装置が静止画を撮像して、建築物を合成した静止画が表示装置に表示されるようにしてもよい。 In the first embodiment described above, a case has been described in which a building made up of a perspective-projected polygon is combined with a current image captured by an imaging device in real time, but is not limited thereto. You may make it synthesize | combine with the image imaged by the imaging device in the past. In this case, it is necessary to perform perspective projection based on the imaging information acquired when the image is captured. Moreover, in the said 1st Embodiment, although the imaging device imaged the moving image and demonstrated the case where the moving image which synthesize | combined the building was displayed on a display apparatus, it is not restricted to this. The imaging device may capture a still image, and the still image obtained by combining the buildings may be displayed on the display device.
上記第1実施形態においては、三次元画像データが位置データなどの他に日時データを含んでおり、画像表示制御装置1が施行計画の進捗状況を確認するのに適していることを説明した。さらに、三次元画像データが建築費用に関するデータを含むようにして、予算の進捗状況を確認できるようにした場合を、第2実施形態として、以下に説明する。
In the first embodiment, it has been described that the 3D image data includes date / time data in addition to position data and the like, and the image
図6は、第2実施形態に係る画像表示制御装置1’の内部構成の一例を示す機能ブロック図である。図6においては、記憶部12、操作部13、撮像部14、センサ部15、表示部16、通信部17およびバス18を省略して、制御部11のみを記載している。また、図6においては、第1実施形態に係る画像表示制御装置1(図2参照)と同一または類似の要素には、同一の符号を付している。図6に示すように、画像表示制御装置1’は、機能ブロックとして、選択受付部116、削除処理部117、および、費用算出部118を備えている点で、第1実施形態に係る画像表示制御装置1と異なる。
FIG. 6 is a functional block diagram showing an example of the internal configuration of the image
画像表示制御装置1’は、AR表示プログラムに加えて、費用算出プログラムをサーバ3からダウンロードして、記憶部12に読み込んでいる。機能ブロックである選択受付部116、削除処理部117、および、費用算出部118は、制御部11が記憶部12に記憶された費用算出プログラムを実行することで実現される。
In addition to the AR display program, the image
費用算出プログラムは、現在の完成部分の予定費用を算出するものであり、AR表示プログラムによって作成された表示画像から、未実施部分を削除して、残り部分(実際の完成部分)の予定費用を算出して表示する。このため、第2実施形態に係る三次元画像データには、予定費用を算出するための費用データが含まれている。 The cost calculation program calculates the planned cost of the current completed part, deletes the unimplemented part from the display image created by the AR display program, and calculates the planned cost of the remaining part (actual completed part). Calculate and display. For this reason, the 3D image data according to the second embodiment includes cost data for calculating the planned cost.
図7(a)は、第2実施形態に係る三次元画像データの一例を示している。当該三次元画像データは、第1実施形態に係る三次元画像データに、さらに費用データを追加したものである。費用データは、当該ポリゴンが含まれる部分(例えば、壁、床、天井、窓、扉など)の建築費用を、含まれるポリゴンの数で除算したものである。例えば、ある壁の建築費用が100万円で、当該壁が100個のポリゴンで構成されている場合、各ポリゴンには費用データとして1万円(=100万円÷100個)が設定される。費用データは、見積書に応じて設定される。なお、費用データは、設計時の三次元モデルのデータには含まれていないので、見積書に応じて、後で追加される。なお、データ取得部111が、設計時の三次元モデルのデータと、施行計画のデータ(日時データの設定に使用)と、見積書のデータとから、三次元画像データを作成するようにしてもよい。
FIG. 7A shows an example of 3D image data according to the second embodiment. The 3D image data is obtained by adding cost data to the 3D image data according to the first embodiment. The cost data is obtained by dividing the construction cost of a portion (for example, a wall, a floor, a ceiling, a window, or a door) including the polygon by the number of included polygons. For example, if the construction cost of a wall is 1 million yen and the wall is composed of 100 polygons, 10,000 yen (= 1 million yen / 100 pieces) is set as cost data for each polygon. . Cost data is set according to the estimate. Note that the cost data is not included in the data of the three-dimensional model at the time of design, and is added later according to the estimate. Note that the
図8は、画像表示制御装置1’の表示画面41の一例を示しており、AR表示プログラムによって作成された表示画像42が表示されている状態を示している。表示画像42の右側には、複数の機能ボタン43が表示されている。表示画面41上にはタッチパネルが配置されているので、操作者が表示画面41上をタッチすることで、タッチパネルからタッチ位置の操作信号が制御部11に入力される。これにより、制御部11は、操作者がタッチした位置を認識して、何が選択されたかを認識することができる。機能ボタン43としては、AR表示を開始する「表示開始」ボタン、AR表示を終了する「表示終了」ボタン、AR表示を一時停止する「一時停止」ボタン、表示画像42から削除する部分の選択を開始する「選択開始」ボタン、および、選択を終了する「選択終了」ボタンが配置されている。また、表示画像42上をタッチすることで、削除する部分を選択することができる。なお、選択はポリゴンごとに行うようにしてもよいし、複数のポリゴンをまとめた部分ごとに行うようにしてもよい。なお、表示画面41のレイアウトや、表示される機能ボタン43の種類および数は限定されない。また、表示画像42上での選択の方法も限定されない。
FIG. 8 shows an example of the
選択受付部116は、AR表示プログラムによって作成された表示画像42から削除するために、操作者が選択した部分の指定を受け付ける。選択受付部116は、操作部13から入力される操作信号に基づいて、表示画像42上で選択された部分に対応するポリゴンを認識し、該当するポリゴンの番号を削除処理部117に出力する。なお、選択受付部116は、AR表示が一時停止され、選択開始の入力が行われてから、選択の受付を開始する。
The
削除処理部117は、三次元画像データから、選択されたポリゴンの削除を行うものである。削除処理部117は、抽出部115aより抽出されたポリゴンのデータ(表示フラグが反映された三次元画像データ)が入力され、選択受付部116よりポリゴンの番号が入力される。削除処理部117は、抽出部115aより入力された三次元画像データにおいて、選択受付部116より入力された番号に対応するポリゴンの表示フラグを「0」にする。これにより、削除処理部117によって削除されたポリゴンは、表示画像42に表示されなくなる。削除処理部117は、ポリゴンの削除処理を行った後の三次元画像データを、費用算出部118に出力する。
The
費用算出部118は、表示画像42に表示されている部分の予定費用を算出するものである。費用算出部118は、削除処理部117より、削除処理後の三次元画像データを入力される。費用算出部118は、入力された削除処理後の三次元画像データのうち、表示フラグが立っている(「1」が設定されている)ポリゴン(表示画像42に表示されているポリゴン)の費用データを合計する。これにより、表示画像42に表示されている、実際の完成部分の予定費用を算出することができる。算出された予定費用は、表示画面41に表示される(図8参照)。
The
図9は、制御部11が行う費用算出処理を説明するためのフローチャートである。当該費用算出処理は、AR表示が一時停止され、選択開始の入力が行われた場合に開始される。
FIG. 9 is a flowchart for explaining a cost calculation process performed by the
まず、制御部11は、選択終了の入力が行われたか否かを判別する(S11)。具体的には、操作部13から、「選択終了」の機能ボタン43のタッチを示す操作信号が入力されたか否かを判別する。選択終了の入力が行われていない場合(S11:NO)、選択受付部116は、選択指定があったか否かを判別する(S12)。具体的には、操作部13から、表示画像42上での選択を示す操作信号が入力されたか否かを判別する。選択指定があった場合(S12:YES)、選択されたポリゴンが削除される。具体的には、選択受付部116が選択されたポリゴンの番号を削除処理部117に出力し、削除処理部117が抽出部115aより入力された三次元画像データにおいて、選択受付部116より入力された番号に対応するポリゴンの表示フラグを「0」にする。そして、ステップS11に戻る。ステップS12において、選択指定がなかった場合(S12:NO)も、ステップS11に戻る。また、ステップS11において、選択終了の入力が行わた場合(S11:YES)、ステップS14に進む。すなわち、選択終了の入力が行われるまで、ステップS11〜S13が繰り返され、選択指定があった場合には選択されたポリゴンが削除される。
First, the
そして、費用算出部118は、削除処理後の三次元画像データに基づいて、表示画像42に表示されている部分の予定費用を算出する(S14)。具体的には、費用算出部118は、削除処理後の三次元画像データのうち、表示フラグが立っているポリゴンの費用データを合計する。そして、表示制御部115が、算出された合計費用を表示画面41に表示して(S15)、費用算出処理が終了される。
Then, the
なお、図9に示すフローチャートは費用算出処理の一例であって、制御部11が行う費用算出処理は、これに限定されない。
The flowchart shown in FIG. 9 is an example of the cost calculation process, and the cost calculation process performed by the
第2実施形態においても、第1実施形態と同様の効果を奏することができる。さらに、第2実施形態においては、費用算出処理によって、現在の完成部分の予定費用を算出することができる。現在の完成部分の予定費用を実際に現在までにかかっている費用と比較することで、計画通りかどうか、どの程度予算をオーバーしているかを知ることができる。また、AR表示プログラムによって作成された表示画像42を操作するだけなので、現場で容易に、予算の進捗状況を確認することができる。
In the second embodiment, the same effect as that of the first embodiment can be obtained. Furthermore, in the second embodiment, the planned cost of the current completed part can be calculated by the cost calculation process. By comparing the planned cost of the current completed part with the actual cost, it is possible to know whether it is as planned and how much the budget has been exceeded. Moreover, since the
なお、図7(b)に示すように、建築費用を例えば材料費や人件費などの項目に細分化して、費用データとして項目ごとに設定してもよい。この場合、項目ごとの予定費用を算出して、項目ごとに実際にかかっている費用と比較することができる。 In addition, as shown in FIG.7 (b), a construction cost may be subdivided into items, such as material cost and a labor cost, and you may set for every item as expense data. In this case, the planned cost for each item can be calculated and compared with the actual cost for each item.
上記第2実施形態においては、AR表示プログラムによって作成された表示画像42から、操作者が未実施部分を選択して削除する場合について説明したが、これに限られない。画像処理によって、未実施部分を自動的に削除するようにしてもよい。具体的には、画像処理によって、表示画像42と実際の画像(撮像装置が撮像して、撮像画像取得部114が取得した画像)との差異部分を検出し、検出された差異部分に対応するポリゴンを自動的に削除すればよい。この場合、操作者による選択が必要ないので、予算の進捗状況をより容易に確認することができる。また、画像処理によって検出した差異部分を、色を変化させたり点滅表示させたりして、操作者による選択を補助するようにしてもよい。
In the second embodiment, the case where the operator selects and deletes an unexecuted portion from the
上記第1または第2実施形態においては、日時データに基づいて表示するポリゴンを抽出する場合について説明したが、これに限られない。例えば、費用データに基づいて表示するポリゴンを抽出するようにしてもよい。費用データに基づいて表示するポリゴンを抽出する場合を、第3実施形態として、以下に説明する。 In the first or second embodiment, the case of extracting the polygon to be displayed based on the date / time data has been described, but the present invention is not limited to this. For example, polygons to be displayed may be extracted based on cost data. The case of extracting polygons to be displayed based on cost data will be described below as a third embodiment.
図10は、第3実施形態に係る画像表示制御装置1”の内部構成の一例を示す機能ブロック図である。図10においては、記憶部12、操作部13、撮像部14、センサ部15、表示部16、通信部17およびバス18を省略して、制御部11のみを記載している。また、図10においては、第1実施形態に係る画像表示制御装置1(図2参照)と同一または類似の要素には、同一の符号を付している。図10に示すように、画像表示制御装置1”は、機能ブロックとして、日時設定部112に代えて費用設定部112’を備え、抽出部115aに代えて抽出部115a’を備えている点で、第1実施形態に係る画像表示制御装置1と異なる。
FIG. 10 is a functional block diagram illustrating an example of the internal configuration of the image
第3実施形態では、三次元画像データとして、図7(a)に示す第2実施形態に係る三次元画像データを用いる。なお、日時データを備えていなくても構わない。つまり、第3実施形態に係る三次元画像データは、少なくとも、番号、位置データ、テクスチャデータ、費用データ、および表示フラグを含んでいる。番号は、実際に建設される順に、振られている。 In the third embodiment, three-dimensional image data according to the second embodiment shown in FIG. 7A is used as the three-dimensional image data. The date / time data may not be provided. That is, the 3D image data according to the third embodiment includes at least a number, position data, texture data, cost data, and a display flag. Numbers are assigned in the order they are actually built.
費用設定部112’は、総費用を設定するものである。本実施形態では、現在までに支出した費用の合計額の入力を促すメッセージを表示装置に表示して、操作者の操作によって操作部13から入力される操作信号に基づいて、費用設定部112’は総費用を取得する。費用設定部112’は、取得した総費用を、表示制御部115に出力する。なお、費用設定部112’は、現在までに支出した費用を経理のシステムから自動的に読み出して、その合計額を算出して設定するようにしてもよい。なお、現在までの総費用に限定されず、所望の総費用を設定するようにしてもよい。
The cost setting unit 112 'sets the total cost. In the present embodiment, a message prompting the input of the total amount of expenses spent up to now is displayed on the display device, and the
抽出部115a’は、三次元画像データによる三次元画像のうち、表示画像に表示する部分を抽出するものである。抽出部115a’は、データ取得部111より三次元画像データを入力され、費用設定部112’より総費用を入力される。そして、抽出部115a’は、三次元画像データに含まれる費用データを番号の順に積算していき、積算値を費用設定部112’より入力された総費用と比較する。抽出部115a’は、積算値が総費用を超える前までのポリゴンを抽出する。本実施形態では、費用データがポリゴン毎の建築費用を示しており、総費用が現在までに支出した費用の合計額を示しているので、現在までに支出した費用で完成している予定の部分のポリゴンだけが抽出される。これら抽出されたポリゴンのみが表示画像に表示される。抽出部115a’で抽出されたポリゴンのデータは、表示フラグを立てて(「1」を設定して)、抽出されなかったポリゴンのデータと区別される。三次元画像データのうち、抽出されたポリゴンのデータが、投影処理部115bに出力される。
The
第3実施形態によると、抽出部115a’は、三次元画像データに含まれる費用データを番号の順に積算していき、積算値が総費用を超える前までのポリゴンを抽出する。したがって、現在までに支出した費用で完成している予定の部分のポリゴンだけが抽出され、撮像装置によって撮像された画像に合成されて、表示装置に表示される。したがって、表示装置には、建築物のうち、現在までに支出した費用で完成している予定の部分だけが、実際の画像に合成されて表示される。これにより、完成予定部分の画像と実際の画像との違いから、かかっている費用の多寡を直感的に認識させることができる。すなわち、完成予定部分の画像が実際の画像より工程が進んでいる場合、例えば図1(d)のような表示となった場合、計画より多くの費用がかかっていることが判る。逆に、実際の画像が完成予定部分の画像より工程が進んでいる場合、支出した費用が計画より少なくて済んでいることが判る。
According to the third embodiment, the
なお、上記第1〜第3実施形態では、タブレット型コンピュータを用いて画像表示制御装置1を実現した場合について説明したが、これに限られない。例えば、スマートフォンやノートパソコンを用いるようにしてもよい。また、デスクトップ型のコンピュータを用いて、画像表示制御装置を実現してもよい。デスクトップ型のコンピュータを用いた場合について、第4実施形態として、以下に説明する。
In addition, although the said 1st-3rd embodiment demonstrated the case where the image
図11(a)は、第4実施形態に係る画像表示制御装置6を含むシステムの内部構成の一例を示す機能ブロック図である。図11(a)においては、第1実施形態に係る画像表示制御装置1(図2参照)と同一または類似の要素には、同一の符号を付している。図11(a)に示すように、画像表示制御装置6は、撮像部14およびセンサ部15を備えておらず、代わりに、第2通信部19を備えている点で、第1実施形態に係る画像表示制御装置1と異なる。
FIG. 11A is a functional block diagram illustrating an example of an internal configuration of a system including the image
画像表示制御装置6は、デスクトップ型のコンピュータに、AR表示プログラムをインストールしたものである。画像表示制御装置6は、一般的に机上に据え置きするものであって、操作者が現場に持って行くものではない。画像表示制御装置6は、第1実施形態に係る画像表示制御装置1における撮像部14およびセンサ部15を備えておらず、表示部16も据え置き型の液晶表示装置などである。第3実施形態においては、第1実施形態に係る画像表示制御装置1の撮像部14、センサ部15および表示部16に代わるものとして、例えばヘッドマウントディスプレイ5を使用する。
The image
第2通信部19は、ヘッドマウントディスプレイ5の通信部59(後述)との間で、例えばBluetooth(登録商標)などの無線通信を行うものである。なお、第2通信部19と通信部59とは、無線通信を行うものに限定されず、有線通信を行うものであってもよい。
The
図11(b)は、ヘッドマウントディスプレイ5の一例を簡略化して示す図である。ヘッドマウントディスプレイ5は、操作者が頭部に装着する眼鏡型の表示装置であり、制御部51、撮像部54、センサ部55、表示部56、通信部59、および、バス58を備えている。
FIG. 11B is a diagram schematically illustrating an example of the head mounted
撮像部54は、撮像装置(カメラ)を備えている。撮像部54は、撮像装置によって撮像された静止画または動画の画像データを制御部51に入力する。センサ部55は、3軸加速度センサ、3軸ジャイロセンサ、方位センサ、GPSを備えている。センサ部55は、各センサが検出した検出信号を制御部51に入力する。表示部56は、例えば液晶表示装置などの表示装置を備えている。表示部56は、制御部51から入力される画像を表示装置に表示させる。通信部59は、画像表示制御装置6の第2通信部19との間で無線通信を行うものである。制御部51は、ヘッドマウントディスプレイ5が備える各部の動作を統括制御するものであり、CPUによって実現されている。制御部51は、撮像部54より入力される画像データ、および、センサ部55より入力される検出信号を、通信部59によって、画像表示制御装置6に送信させる。また、制御部51は、通信部59が画像表示制御装置6より受信した画像を、表示部56に表示させる。
The
つまり、ヘッドマウントディスプレイ5は、第1実施形態に係る画像表示制御装置1における撮像部14、センサ部15および表示部16の機能を有するデバイスであって、操作者の移動に伴って移動可能としたものである。ヘッドマウントディスプレイ5と画像表示制御装置6とは、通信部59と第2通信部19とで各種信号を送受信することにより、全体として、第1実施形態に係る画像表示制御装置1と同様の機能を有する。
That is, the head mounted
第4実施形態においても、第1実施形態と同様の効果を奏することができる。 In the fourth embodiment, the same effect as that of the first embodiment can be obtained.
なお、上記第1〜第4実施形態においては、汎用的なコンピュータにAR表示プログラム(および費用算出プログラム)をインストールすることで画像表示制御装置1(1’,1”,6)を実現した場合について説明したが、これに限られない。例えば、初めから(製造時から)、AR表示プログラム(および費用算出プログラム)を記憶している、専用の画像表示制御装置1(1’,1”,6)であってもよい。 In the first to fourth embodiments, the image display control device 1 (1 ′, 1 ″, 6) is realized by installing the AR display program (and cost calculation program) in a general-purpose computer. However, the present invention is not limited to this, for example, the dedicated image display control device 1 (1 ′, 1 ″, which stores the AR display program (and the cost calculation program) from the beginning (from the time of manufacture). 6).
上記第1〜第4実施形態においては、本発明を建物の建築に利用した場合について説明したが、これに限られない。本発明は、高速道路や橋の建設などにも利用することができるし、土木工事においても利用することができる。 In the said 1st-4th embodiment, although the case where this invention was utilized for building construction was demonstrated, it is not restricted to this. The present invention can be used for construction of highways and bridges, and can also be used for civil engineering work.
また、本発明は、建設工事や土木工事以外でも利用することができる。例えば、AR技術で、実際の画像に実在しない物体を合成した合成画像をリアルタイムに表示するときに、合成する物体が日時によって変化する場合に、本発明を利用することができる。 The present invention can also be used for other than construction work and civil engineering work. For example, the present invention can be used when an object to be synthesized changes according to the date and time when a synthesized image obtained by synthesizing an object that does not exist in an actual image is displayed in real time using the AR technology.
本発明に係る画像表示制御装置およびプログラムは、上述した実施形態に限定されるものではない。本発明に係る画像表示制御装置およびプログラムの各部の具体的な構成は、種々に設計変更自在である。 The image display control apparatus and program according to the present invention are not limited to the above-described embodiments. The specific configuration of each part of the image display control device and the program according to the present invention can be varied in design in various ways.
1,1’,1”,6 :画像表示制御装置
11 :制御部
111 :データ取得部
112 :日時設定部(設定手段)
112’ :費用設定部(設定手段)
113 :撮像情報取得部
114 :撮像画像取得部
115 :表示制御部
115a,115a’ :抽出部
115b :投影処理部
115c :合成部
116 :選択受付部
117 :削除処理部
118 :費用算出部
12 :記憶部(記憶装置、プログラム記憶部)
13 :操作部
14 :撮像部
15 :センサ部
16 :表示部
17 :通信部
18 :バス
19 :第2通信部
2 :通信回線
3 :サーバ
41 :表示画面
42 :表示画像
43 :機能ボタン
5 :ヘッドマウントディスプレイ
51 :制御部
54 :撮像部
55 :センサ部
56 :表示部
58 :バス
59 :通信部
1, 1 ′, 1 ″, 6: Image display control device 11: Control unit 111: Data acquisition unit 112: Date and time setting unit (setting means)
112 ': Cost setting section (setting means)
113: Imaging information acquisition unit 114: Captured image acquisition unit 115:
13: Operation unit 14: Imaging unit 15: Sensor unit 16: Display unit 17: Communication unit 18: Bus 19: Second communication unit 2: Communication line 3: Server 41: Display screen 42: Display image 43: Function button 5: Head mounted display 51: Control unit 54: Imaging unit 55: Sensor unit 56: Display unit 58: Bus 59: Communication unit
Claims (8)
記憶装置に記憶されている三次元物体のデータを取得するデータ取得手段と、
撮像装置が撮像した画像を取得する撮像画像取得手段と、
前記撮像画像取得手段が取得した画像に、前記データ取得手段が取得したデータに基づく前記三次元物体の画像を合成して、表示装置に表示させる表示制御手段と、
日時または総費用を設定する設定手段と、
して機能させ、
前記三次元物体のデータは、構成要素ごとのデータを含んでおり、
各構成要素のデータは、三次元の位置データと、日時データまたは費用データとを含んでおり、
前記表示制御手段は、前記日時データおよび前記設定手段によって設定された日時、または、前記費用データおよび前記設定手段によって設定された総費用に基づいて、前記三次元物体の画像を合成する、
ことを特徴とするプログラム。 Computer
Data acquisition means for acquiring data of a three-dimensional object stored in a storage device;
Captured image acquisition means for acquiring an image captured by the imaging device;
Display control means for combining the image acquired by the captured image acquisition means with the image of the three-dimensional object based on the data acquired by the data acquisition means, and displaying it on a display device;
A setting means to set the date and time or total cost,
To function,
The data of the three-dimensional object includes data for each component,
The data of each component includes three-dimensional position data and date / time data or cost data.
The display control unit synthesizes the image of the three-dimensional object based on the date and time set by the setting unit or the total cost set by the cost data and the setting unit.
A program characterized by that.
請求項1に記載のプログラム。 The display control means synthesizes the image of the three-dimensional object based on a component indicating the date and time before the date and time set by the setting means;
The program according to claim 1.
前記表示制御手段は、前記構成要素の費用データを番号データの順に積算していき、積算値が前記設定手段によって設定された総費用を超える前までの各構成要素に基づいて、前記三次元物体の画像を合成する、
請求項1に記載のプログラム。 The data of each component further includes number data indicating the order,
The display control means integrates the cost data of the constituent elements in the order of number data, and based on the constituent elements until the integrated value exceeds the total cost set by the setting means, the three-dimensional object Combining images of
The program according to claim 1.
前記表示制御手段は、前記撮像情報に基づいて前記三次元物体を投影した二次元画像を合成する、
請求項1ないし3のいずれかに記載のプログラム。 Causing the computer to further function as imaging information acquisition means for acquiring imaging information indicating a position and an imaging direction of the imaging device;
The display control means synthesizes a two-dimensional image obtained by projecting the three-dimensional object based on the imaging information;
The program according to any one of claims 1 to 3.
前記プログラム記憶部に記憶されたプログラムに基づいて処理を実行する制御部と、
を備えていることを特徴とする画像表示制御装置。 A program storage unit storing the program according to claim 1;
A control unit that executes processing based on a program stored in the program storage unit;
An image display control device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017021957A JP6687556B2 (en) | 2017-02-09 | 2017-02-09 | Image display control device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017021957A JP6687556B2 (en) | 2017-02-09 | 2017-02-09 | Image display control device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018128894A true JP2018128894A (en) | 2018-08-16 |
JP6687556B2 JP6687556B2 (en) | 2020-04-22 |
Family
ID=63172982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017021957A Active JP6687556B2 (en) | 2017-02-09 | 2017-02-09 | Image display control device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6687556B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015011368A (en) * | 2013-06-26 | 2015-01-19 | 国立大学法人佐賀大学 | Display control device |
-
2017
- 2017-02-09 JP JP2017021957A patent/JP6687556B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015011368A (en) * | 2013-06-26 | 2015-01-19 | 国立大学法人佐賀大学 | Display control device |
Non-Patent Citations (1)
Title |
---|
石井裕剛ほか: "拡張現実感を利用した原子力発電プラントの解体支援手法の提案と評価", 日本バーチャルリアリティ学会論文誌, vol. 第13巻 第2号, JPN6019040833, 30 June 2008 (2008-06-30), JP, pages 289 - 300, ISSN: 0004139581 * |
Also Published As
Publication number | Publication date |
---|---|
JP6687556B2 (en) | 2020-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2020202551B2 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
US9525964B2 (en) | Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers | |
JP6329343B2 (en) | Image processing system, image processing apparatus, image processing program, and image processing method | |
US8902288B1 (en) | Photo-image-based 3D modeling system on a mobile device | |
US20160269631A1 (en) | Image generation method, system, and apparatus | |
JP6144364B2 (en) | Work support data creation program | |
US9239892B2 (en) | X-ray vision for buildings | |
KR101989969B1 (en) | Contents experience system of architectural sites based augmented reality | |
JP2008191717A (en) | Information processing apparatus, image display apparatus, information processing system, method for controlling them, and program for causing computer to execute the method | |
JP5363971B2 (en) | Landscape reproduction system | |
JP3245336B2 (en) | Modeling method and modeling system | |
JP2018128815A (en) | Information presentation system, information presentation method and information presentation program | |
Devaux et al. | 3D urban geovisualization: In situ augmented and mixed reality experiments | |
JP5862865B2 (en) | Composite image display device and composite image display program | |
US9881419B1 (en) | Technique for providing an initial pose for a 3-D model | |
JP6687556B2 (en) | Image display control device and program | |
JP5513806B2 (en) | Linked display device, linked display method, and program | |
JP2013092888A (en) | Data processor | |
JP2009123076A (en) | Three-dimensional cad system program | |
JP6267381B1 (en) | Sign installation data generation and transmission program, information processing communication terminal and information processing communication server for executing sign installation data generation and transmission program | |
JP6405539B2 (en) | Label information processing apparatus for multi-viewpoint image and label information processing method | |
US10080963B2 (en) | Object manipulation method, object manipulation program, and information processing apparatus | |
JP6123618B2 (en) | Video output apparatus, video output method, and program | |
JP2015121892A (en) | Image processing apparatus, and image processing method | |
JP6051835B2 (en) | Video output apparatus, video output method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180919 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200310 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6687556 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |