JP2018128894A - Image display controller and program - Google Patents

Image display controller and program Download PDF

Info

Publication number
JP2018128894A
JP2018128894A JP2017021957A JP2017021957A JP2018128894A JP 2018128894 A JP2018128894 A JP 2018128894A JP 2017021957 A JP2017021957 A JP 2017021957A JP 2017021957 A JP2017021957 A JP 2017021957A JP 2018128894 A JP2018128894 A JP 2018128894A
Authority
JP
Japan
Prior art keywords
image
data
unit
date
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017021957A
Other languages
Japanese (ja)
Other versions
JP6687556B2 (en
Inventor
竜夫 川合
Tatsuo Kawai
竜夫 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nabtesco Corp
Original Assignee
TS Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TS Corp filed Critical TS Corp
Priority to JP2017021957A priority Critical patent/JP6687556B2/en
Publication of JP2018128894A publication Critical patent/JP2018128894A/en
Application granted granted Critical
Publication of JP6687556B2 publication Critical patent/JP6687556B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image display controller capable of intuitively recognizing a delay in an enforcement plan.SOLUTION: An image display controller 1 includes: a data acquisition unit 111 configured to acquire data of a three-dimensional object stored in a storage device; a captured image acquisition unit 114 configured to acquire an image captured by an imaging apparatus; a display control unit 115 configured to synthesize the image acquired by the captured image acquisition unit 114 with an image of the three-dimensional object obtainable based on the data acquired by the data acquisition unit 111 and cause a display device to display the synthesized image; and a date/time setting unit 112 configured to set date and time. The data of the three-dimensional object includes data representing each constituent element. The data of each constituent element includes three-dimensional position data and date-and-time data. The display control unit 115 synthesizes the image of the three-dimensional object on the basis of the constituent elements in which date/time data indicates date and time preceding the date and time set by the date/time setting unit 112.SELECTED DRAWING: Figure 2

Description

本発明は、拡張現実による画像を表示させる画像表示制御装置、および、当該画像表示制御装置を実現するためのプログラムに関する。   The present invention relates to an image display control apparatus that displays an image based on augmented reality, and a program for realizing the image display control apparatus.

カメラで撮像された現実の風景画像に実在しない物体を合成した合成画像を、リアルタイムに表示する拡張現実(AR:Augmented Reality)と呼ばれる技術が提案されている。例えば、特許文献1には、建物の建築予定場所を含む風景画像に、建築を検討中の建物の画像を合成して表示するシミュレーション装置が記載されている。   A technique called augmented reality (AR) has been proposed in which a composite image obtained by combining an object that does not actually exist with a real landscape image captured by a camera is displayed in real time. For example, Patent Document 1 describes a simulation apparatus that combines and displays an image of a building under consideration for a landscape image including a planned building location of the building.

また、建設工事や土木工事においては、施行計画の遅れやかかっている費用を管理する必要がある。設計段階で作成された建築物などの三次元モデルのデータを用いて、AR技術を利用することで、現場の風景画像に建築予定の建築物の画像を合成して表示することができる。しかし、現在の工事が計画通りにすすんでいるのか、どの程度遅れているのかということや、現在までにかかっている費用は妥当であるかということは、当該合成画像を見てもわからず、施行計画の工程表や見積書などを確認する必要がある。   In construction work and civil engineering work, it is necessary to manage delays in implementation plans and costs. By using the AR technology using the data of a three-dimensional model such as a building created at the design stage, it is possible to synthesize and display an image of the building planned for construction on the scene image at the site. However, it is not clear from the composite image whether the current construction is proceeding as planned, how late it is, and whether the cost to date is reasonable. It is necessary to confirm the schedule of the execution plan and the estimate.

特開2014−115957号公報JP 2014-115957 A

本発明は、上記の課題に鑑みてなされたものであって、施行計画の遅れやかかっている費用の多寡を直感的に認識させることができる画像表示制御装置、および、当該画像表示制御装置を実現するためのプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and provides an image display control device and an image display control device capable of intuitively recognizing a delay in an execution plan and a large amount of costs. The purpose is to provide a program for realizing this.

本発明の第1の側面によって提供されるプログラムは、コンピュータを、記憶装置に記憶されている三次元物体のデータを取得するデータ取得手段と、撮像装置が撮像した画像を取得する撮像画像取得手段と、前記撮像画像取得手段が取得した画像に、前記データ取得手段が取得したデータに基づく前記三次元物体の画像を合成して、表示装置に表示させる表示制御手段と、日時または総費用を設定する設定手段として機能させ、前記三次元物体のデータは、構成要素ごとのデータを含んでおり、各構成要素のデータは、三次元の位置データと、日時データまたは費用データとを含んでおり、前記表示制御手段は、前記日時データおよび前記設定手段によって設定された日時、または、前記費用データおよび前記設定手段によって設定された総費用に基づいて、前記三次元物体の画像を合成することを特徴とする。   The program provided by the first aspect of the present invention includes a data acquisition unit that acquires data of a three-dimensional object stored in a storage device, and a captured image acquisition unit that acquires an image captured by the imaging device. And a display control means for combining the image acquired by the captured image acquisition means with the image of the three-dimensional object based on the data acquired by the data acquisition means and displaying it on the display device, and setting the date and time or the total cost The data of the three-dimensional object includes data for each component, and the data of each component includes three-dimensional position data and date / time data or cost data, The display control means is the date and time set by the date and time data and the setting means, or set by the expense data and the setting means. Based on the cost, and wherein the combining images of the three-dimensional object.

本発明の「構成要素」とは、三次元物体を構成する要素であり、例えばポリゴンなどの描画の最小単位の多角形を示している。なお、複数のポリゴンを合わせた要素も、「構成要素」に含まれる。また、三次元物体を構成する各点も、「構成要素」に含まれる。   The “component” of the present invention is an element that constitutes a three-dimensional object, and indicates, for example, a polygon that is a minimum unit of drawing, such as a polygon. An element obtained by combining a plurality of polygons is also included in the “component”. Each point constituting the three-dimensional object is also included in the “component”.

本発明の好ましい実施の形態においては、前記表示制御手段は、前記日時データが前記設定手段によって設定された日時より前を示す構成要素に基づいて、前記三次元物体の画像を合成する。   In a preferred embodiment of the present invention, the display control unit synthesizes the image of the three-dimensional object based on a component indicating that the date / time data is before the date / time set by the setting unit.

本発明の好ましい実施の形態においては、前記各構成要素のデータは、順番を示す番号データをさらに含んでおり、前記表示制御手段は、前記構成要素の費用データを番号データの順に積算していき、積算値が前記設定手段によって設定された総費用を超える前までの各構成要素に基づいて、前記三次元物体の画像を合成する。   In a preferred embodiment of the present invention, the data of each component further includes number data indicating the order, and the display control means accumulates the cost data of the components in the order of the number data. The image of the three-dimensional object is synthesized based on each component before the integrated value exceeds the total cost set by the setting means.

本発明の好ましい実施の形態においては、前記プログラムは、前記コンピュータを、前記撮像装置の位置および撮像方向を示す撮像情報を取得する撮像情報取得手段としてさらに機能させ、前記表示制御手段は、前記撮像情報に基づいて前記三次元物体を投影した二次元画像を合成する。   In a preferred embodiment of the present invention, the program causes the computer to further function as imaging information acquisition means for acquiring imaging information indicating a position and an imaging direction of the imaging device, and the display control means includes the imaging A two-dimensional image obtained by projecting the three-dimensional object is synthesized based on the information.

本発明の好ましい実施の形態においては、前記設定手段が設定する日時は現在の日時である。   In a preferred embodiment of the present invention, the date and time set by the setting means is the current date and time.

本発明の好ましい実施の形態においては、前記撮像画像取得手段が取得した画像に合成される前記三次元物体の画像は、半透明である。   In a preferred embodiment of the present invention, the image of the three-dimensional object synthesized with the image acquired by the captured image acquisition means is translucent.

本発明の好ましい実施の形態においては、前記三次元物体は建築物である。   In a preferred embodiment of the present invention, the three-dimensional object is a building.

本発明の第2の側面によって提供される画像表示制御装置は、本発明の第1の側面によって提供されるプログラムを記憶したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムに基づいて処理を実行する制御部とを備えていることを特徴とする。   The image display control device provided by the second aspect of the present invention is a program storage unit storing the program provided by the first aspect of the present invention, and processing based on the program stored in the program storage unit And a control unit for executing the above.

本発明によると、日時データおよび日時、または、費用データおよび総費用に基づいて、前記三次元物体の画像が、撮像装置によって撮像された画像に合成されて、表示装置に表示される。したがって、設定された日時または総費用に応じた三次元物体の画像を実際の画像に合成して表示させることができる。各構成要素の日時データを施行計画に応じて設定しておき、現在の日時を設定すれば、現在の日時までに完成している予定の部分の画像が、実際の画像に合成されて表示される。完成予定部分の画像と実際の画像との違いから、施行計画の遅れを直感的に認識させることができる。また、各構成要素の費用データを見積書に応じて設定しておき、現在までにかかっている総費用を設定すれば、当該総費用によって完成している予定の部分の画像が、実際の画像に合成されて表示される。完成予定部分の画像と実際の画像との違いから、かかっている費用の多寡を直感的に認識させることができる。   According to the present invention, the image of the three-dimensional object is combined with the image captured by the imaging device based on the date / time data and date / time, or the cost data and the total cost, and displayed on the display device. Therefore, an image of a three-dimensional object corresponding to the set date and time or total cost can be combined with an actual image and displayed. If the date and time data of each component is set according to the enforcement plan, and the current date and time are set, the image of the part that is scheduled to be completed by the current date and time is combined with the actual image and displayed. The From the difference between the image of the planned completion part and the actual image, it is possible to intuitively recognize the delay in the execution plan. In addition, if the cost data of each component is set according to the estimate and the total cost that has been taken up to now is set, the image of the part that is scheduled to be completed by the total cost will be the actual image Is synthesized and displayed. From the difference between the image of the planned completion part and the actual image, it is possible to intuitively recognize the amount of the cost.

本発明のその他の特徴および利点は、添付図面を参照して以下に行う詳細な説明によって、より明らかとなろう。   Other features and advantages of the present invention will become more apparent from the detailed description given below with reference to the accompanying drawings.

第1実施形態に係る画像表示制御装置が生成する合成画像を説明するための図である。It is a figure for demonstrating the synthesized image which the image display control apparatus which concerns on 1st Embodiment produces | generates. 第1実施形態に係る画像表示制御装置の内部構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of an internal structure of the image display control apparatus which concerns on 1st Embodiment. 第1実施形態に係る三次元画像データの一例を示す図である。It is a figure which shows an example of the three-dimensional image data which concerns on 1st Embodiment. AR表示処理を示すフローチャートの一例である。It is an example of the flowchart which shows AR display processing. AR表示処理を示すフローチャートの他の例である。It is another example of the flowchart which shows AR display processing. 第2実施形態に係る画像表示制御装置の内部構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of an internal structure of the image display control apparatus which concerns on 2nd Embodiment. 第2実施形態に係る三次元画像データの一例を示す図である。It is a figure which shows an example of the three-dimensional image data which concern on 2nd Embodiment. 画像表示制御装置の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of an image display control apparatus. 費用算出処理を示すフローチャートの一例である。It is an example of the flowchart which shows a cost calculation process. 第3実施形態に係る画像表示制御装置の内部構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of an internal structure of the image display control apparatus which concerns on 3rd Embodiment. 第4実施形態に係る画像表示制御装置を含むシステムを説明するための図であり、(a)は当該システムの内部構成の一例を示す機能ブロック図であり、(b)はヘッドマウントディスプレイの一例を簡略化して示す図である。It is a figure for demonstrating the system containing the image display control apparatus which concerns on 4th Embodiment, (a) is a functional block diagram which shows an example of the internal structure of the said system, (b) is an example of a head mounted display It is a figure which simplifies and shows.

以下、本発明の好ましい実施の形態として、添付図面を参照して具体的に説明する。   Hereinafter, a preferred embodiment of the present invention will be specifically described with reference to the accompanying drawings.

第1実施形態に係る画像表示制御装置1は、AR技術を利用して、現場の風景画像に建築予定の建築物の画像を合成して表示する。本実施形態においては、建築物の現在の段階で完成している予定の部分のみの画像が合成されて、表示される。例えば、図1(a)に示す建築予定の8階建ての建築物について、現在の段階で1〜3階部分が完成している予定である(図1(b)参照)が、実際には1〜2階部分しか完成していない場合(図1(c)参照)、実際の1〜2階部分の画像に、1〜3階部分が完成した画像が合成される(図1(d)参照)。この合成画像によって、予定では完成しているはずの3階部分が実際にはまだ完成しておらず、施行計画と比べて実際の工事が遅れていることを、直感的に認識することができる。なお、図1においては、簡略化した建築物を例にしているが、実際には、より複雑な構造をしている。また、施行計画はフロアごとではなく、同じフロアでも区画ごとに、また、建築物を構成する要素(壁、床、天井、窓、扉など)ごとに設定されていてもよい。この場合は、施行計画で完成している予定の区画、要素のみが合成される。   The image display control apparatus 1 according to the first embodiment uses the AR technology to synthesize and display an image of a building planned for construction on a scene image at the site. In the present embodiment, an image of only a part scheduled to be completed at the current stage of the building is synthesized and displayed. For example, the 8-story building scheduled for construction shown in Fig. 1 (a) is scheduled to be completed on the first to third floors at the current stage (see Fig. 1 (b)). When only the first and second floor portions are completed (see FIG. 1C), an image in which the first to third floor portions are completed is combined with the actual first and second floor portions (FIG. 1D). reference). This composite image makes it possible to intuitively recognize that the 3rd floor part, which should have been completed by the schedule, is not yet completed, and that the actual construction is delayed compared to the implementation plan. . In addition, in FIG. 1, although the simplified building is taken as an example, it has a more complicated structure in practice. Moreover, the enforcement plan may be set not for each floor but for each section on the same floor and for each element (wall, floor, ceiling, window, door, etc.) constituting the building. In this case, only the sections and elements scheduled to be completed in the implementation plan are synthesized.

画像表示制御装置1は、汎用的なコンピュータにAR表示プログラムをインストールすることで実現される。AR表示プログラムは、後述するAR表示処理を、制御部11に実行させるためのプログラムである。本実施形態では、カメラなどの撮像装置、液晶画面などの表示装置、および各種センサを備えたタブレット型コンピュータにAR表示プログラムをインストールしたものを、画像表示制御装置1としている。   The image display control device 1 is realized by installing an AR display program in a general-purpose computer. The AR display program is a program for causing the control unit 11 to execute an AR display process described later. In the present embodiment, an image display control device 1 is an image display control device 1 in which an AR display program is installed in a tablet computer equipped with an imaging device such as a camera, a display device such as a liquid crystal screen, and various sensors.

図2は、画像表示制御装置1の内部構成の一例を示す機能ブロック図である。画像表示制御装置1は、制御部11、記憶部12、操作部13、撮像部14、センサ部15、表示部16、通信部17、および、バス18を備えている。制御部11、記憶部12、操作部13、撮像部14、センサ部15、表示部16および通信部17は、バス18によって相互にデータ伝送可能に接続されている。   FIG. 2 is a functional block diagram illustrating an example of the internal configuration of the image display control apparatus 1. The image display control device 1 includes a control unit 11, a storage unit 12, an operation unit 13, an imaging unit 14, a sensor unit 15, a display unit 16, a communication unit 17, and a bus 18. The control unit 11, the storage unit 12, the operation unit 13, the imaging unit 14, the sensor unit 15, the display unit 16, and the communication unit 17 are connected to each other via a bus 18 so that data transmission is possible.

画像表示制御装置1は、通信回線2を介してサーバ3からAR表示プログラムをダウンロードして、記憶部12に読み込んでいる。なお、当該プログラムをフラッシュメモリやCD−ROMなどの他の記録メディアから読み込むようにしてもよい。   The image display control device 1 downloads the AR display program from the server 3 via the communication line 2 and reads it into the storage unit 12. The program may be read from another recording medium such as a flash memory or a CD-ROM.

記憶部12は、各種情報を記憶するものである。記憶部12は、一次記憶部としてのROM(Read Only Memory)およびRAM(Random Access Memory)と、二次記憶部とを備えている。ROMは、読み取り専用の記憶媒体であって、基本プログラムが記憶されている。RAMは、書き換え可能な記憶媒体であって、応用プログラムを格納するエリアとプログラムを処理するためのワークエリアとを提供する。二次記憶部は、例えばフラッシュメモリやハードディスクなどであり、ダウンロードした応用プログラムや各種データを記憶している。本実施形態では、サーバ3からダウンロードされたAR表示プログラムが、記憶部12の二次記憶部に記憶されている。また、後述する三次元画像データも二次記憶部に記憶されている。記憶部12が、本発明に係る「プログラム記憶部」および「記憶装置」に相当する。   The storage unit 12 stores various information. The storage unit 12 includes a read only memory (ROM) and a random access memory (RAM) as a primary storage unit, and a secondary storage unit. The ROM is a read-only storage medium and stores a basic program. The RAM is a rewritable storage medium and provides an area for storing application programs and a work area for processing the programs. The secondary storage unit is, for example, a flash memory or a hard disk, and stores downloaded application programs and various data. In the present embodiment, the AR display program downloaded from the server 3 is stored in the secondary storage unit of the storage unit 12. In addition, three-dimensional image data, which will be described later, is also stored in the secondary storage unit. The storage unit 12 corresponds to a “program storage unit” and a “storage device” according to the present invention.

操作部13は、操作者からの操作入力を受け付けるものであり、各種操作ボタンおよびタッチパネルを備えている。操作部13は、操作者によって操作ボタンが押下された場合に、対応する操作信号を制御部11に入力する。また、操作部13は、タッチパネルから入力されるタッチ情報(タッチパネルのパネル面に格子状に配置された微小コンデンサまたは微小抵抗の変化情報)に基づいてパネル面における接触位置を算出し、その接触位置の情報を操作信号として制御部11に入力する。タッチパネルは、後述する表示装置の表示画面上に配置されている。   The operation unit 13 receives an operation input from the operator, and includes various operation buttons and a touch panel. The operation unit 13 inputs a corresponding operation signal to the control unit 11 when the operation button is pressed by the operator. The operation unit 13 calculates a contact position on the panel surface based on touch information input from the touch panel (change information on minute capacitors or minute resistances arranged in a grid pattern on the panel surface of the touch panel), and the contact position. Is input to the control unit 11 as an operation signal. The touch panel is disposed on a display screen of a display device described later.

撮像部14は、CCD(Charge Coupled Device)などの撮像素子を有する撮像装置(カメラ)を備えている。撮像部14は、撮像装置によって撮像された静止画または動画の画像データを制御部11に入力する。   The imaging unit 14 includes an imaging device (camera) having an imaging element such as a CCD (Charge Coupled Device). The imaging unit 14 inputs still image or moving image data captured by the imaging device to the control unit 11.

センサ部15は、各種センサを備えており、各センサが検出した検出信号を制御部11に入力する。本実施形態では、センサ部15は、3軸加速度センサ、3軸ジャイロセンサ、方位センサ、GPS(Global Positioning System)を備えている。3軸加速度センサは、それぞれ直交する3軸の各方向の加速度を検出するセンサである。3軸ジャイロセンサは、それぞれ直交する3軸の各軸周りの角速度を検出するセンサである。方位センサは、方位を検出するセンサである。GPSは、衛星から発信される信号を受信して、位置情報を検出する。なお、これらの全てのセンサを備えていなくてもよいし、その他のセンサを備えていてもよい。   The sensor unit 15 includes various sensors, and inputs detection signals detected by the sensors to the control unit 11. In the present embodiment, the sensor unit 15 includes a triaxial acceleration sensor, a triaxial gyro sensor, an orientation sensor, and a GPS (Global Positioning System). The triaxial acceleration sensor is a sensor that detects acceleration in each direction of three orthogonal axes. The triaxial gyro sensor is a sensor that detects angular velocities around the three axes that are orthogonal to each other. The direction sensor is a sensor that detects the direction. The GPS receives a signal transmitted from a satellite and detects position information. Note that all of these sensors may not be provided, or other sensors may be provided.

表示部16は、例えば液晶表示装置などの表示装置を備えている。表示部16は、制御部11から入力される画像を表示装置に表示させる。   The display unit 16 includes a display device such as a liquid crystal display device. The display unit 16 displays the image input from the control unit 11 on the display device.

通信部17は、通信回線2を介して、外部の装置との間で通信を行うものであり、例えば無線LANモジュールなどの通信手段を備えている。なお、通信部17は、無線通信を行うものに限定されず、有線通信を行うものであってもよい。本実施形態では、通信部17は、サーバ3からAR表示プログラムを受信している。また、三次元画像データを、他のコンピュータやサーバ3から受信している。   The communication unit 17 communicates with an external device via the communication line 2 and includes communication means such as a wireless LAN module. In addition, the communication part 17 is not limited to what performs wireless communication, You may perform wired communication. In the present embodiment, the communication unit 17 receives the AR display program from the server 3. In addition, 3D image data is received from another computer or server 3.

制御部11は、画像表示制御装置1が備える各部の動作を統括制御するものであり、CPU(Central Processing Unit)によって実現されている。制御部11は、機能ブロックとして、少なくとも、データ取得部111、日時設定部112、撮像情報取得部113、撮像画像取得部114、および、表示制御部115を備えている。機能ブロックである各部111〜115は、制御部11が記憶部12に記憶されたAR表示プログラムを実行することで実現される。   The control unit 11 performs overall control of the operation of each unit included in the image display control device 1, and is realized by a CPU (Central Processing Unit). The control unit 11 includes at least a data acquisition unit 111, a date and time setting unit 112, a captured information acquisition unit 113, a captured image acquisition unit 114, and a display control unit 115 as functional blocks. The units 111 to 115 as functional blocks are realized by the control unit 11 executing the AR display program stored in the storage unit 12.

データ取得部111は、記憶部12に記憶されている三次元画像データを取得する。三次元画像データは、あらかじめ取得されて、記憶部12に記憶されている。本実施形態では、三次元画像データは、建築物の三次元モデルのデータであり、建築物を構成する壁や、床、天井、窓、扉などを、それぞれ複数に分割した構成要素ごとにデータとして備えている。本実施形態では、構成要素を、三次元コンピュータグラフィックスにおける描画の最小単位の多角形であるポリゴンとしている。つまり、三次元画像データは、複数のポリゴンのデータを備えている。図3は、三次元画像データの一例を示している。図3に示すように、三次元画像データは、ポリゴンごとに、番号、位置データ、テクスチャデータ、日時データ、および表示フラグを含んでいる。番号はポリゴンごとに付されている番号である。位置データは、ポリゴンの各頂点の位置を示す座標である。本実施形態では、ポリゴンを三角形としているので、3つの頂点の座標が含まれている。各座標は、三次元モデルを設計したときの三次元仮想空間上の座標である。なお、現実の位置を示す座標(緯度、経度、高さに基づく座標)であってもよい。テクスチャデータは、ポリゴンに貼り付けられるテクスチャを示すデータである。日時データは、当該ポリゴンを含む部分が完成する予定の日付を示すデータである。日時データは、施行計画に応じて設定される。なお、日時データは、設計時の三次元モデルのデータには含まれておらず、施行計画が決定されてから追加される。なお、データ取得部111が、設計時の三次元モデルのデータと、施行計画のデータとから、三次元画像データを作成するようにしてもよい。表示フラグは、ポリゴンを表示するか否かを表すものであり、「1」の場合(フラグが立っている場合)に表示が行われる。図3においては、n番目のポリゴンについて、位置データとして3つの頂点の座標(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)が設定され、テクスチャデータとしてTnが設定され、日時データとしてDnが設定され、表示フラグには「0」が設定されていることを示している。データ取得部111は、取得した三次元画像データを表示制御部115に出力する。   The data acquisition unit 111 acquires 3D image data stored in the storage unit 12. The three-dimensional image data is acquired in advance and stored in the storage unit 12. In the present embodiment, the three-dimensional image data is data of a three-dimensional model of a building, and data for each component obtained by dividing a wall, a floor, a ceiling, a window, a door, and the like constituting the building into a plurality of parts. As prepared. In the present embodiment, the constituent elements are polygons that are polygons that are the minimum unit of drawing in three-dimensional computer graphics. That is, the three-dimensional image data includes a plurality of polygon data. FIG. 3 shows an example of 3D image data. As shown in FIG. 3, the three-dimensional image data includes a number, position data, texture data, date / time data, and a display flag for each polygon. The number is a number assigned to each polygon. The position data is coordinates indicating the position of each vertex of the polygon. In this embodiment, since the polygon is a triangle, the coordinates of three vertices are included. Each coordinate is a coordinate on the three-dimensional virtual space when the three-dimensional model is designed. In addition, the coordinates (coordinates based on latitude, longitude, and height) indicating the actual position may be used. The texture data is data indicating the texture pasted on the polygon. The date / time data is data indicating the date on which the portion including the polygon is scheduled to be completed. Date and time data is set according to the implementation plan. The date / time data is not included in the data of the 3D model at the time of design, and is added after the enforcement plan is determined. Note that the data acquisition unit 111 may create 3D image data from the data of the 3D model at the time of design and the data of the enforcement plan. The display flag represents whether or not to display a polygon, and is displayed when “1” (when the flag is set). In FIG. 3, for the nth polygon, coordinates (X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3) of three vertices are set as position data, and Tn as texture data. Is set, Dn is set as date and time data, and “0” is set in the display flag. The data acquisition unit 111 outputs the acquired 3D image data to the display control unit 115.

日時設定部112は、日時を設定するものである。本実施形態では、現在の日付を設定するので、日時設定部112は、画像表示制御装置1が備えている時計やカレンダーから現在の日付を入手して、表示制御部115に出力する。なお、日時設定部112は、現在の日付を設定するものに限定されず、所望の日付を設定するようにしてもよい。この場合は、表示装置に所望の日付の入力を促すメッセージを表示して、操作者の操作によって操作部13から入力される操作信号に基づいて、日付を設定すればよい。   The date and time setting unit 112 sets the date and time. In the present embodiment, since the current date is set, the date / time setting unit 112 acquires the current date from a clock or calendar provided in the image display control device 1 and outputs the current date to the display control unit 115. Note that the date and time setting unit 112 is not limited to setting the current date, and may set a desired date. In this case, a message prompting the user to input a desired date may be displayed on the display device, and the date may be set based on an operation signal input from the operation unit 13 by the operator's operation.

撮像情報取得部113は、撮像装置の位置および撮像方向を示す撮像情報を取得するものである。撮像情報取得部113は、センサ部15より入力される各種検出信号に基づいて、撮像装置の位置および撮像方向を演算し、演算結果を撮像情報として表示制御部115に出力する。撮像装置の位置はGPSの検出信号に基づいて演算され、撮像方向の水平面での方向は方位センサの検出信号に基づいて演算され、撮像方向の水平面に対する傾きは3軸加速度センサまたは3軸ジャイロセンサの検出信号に基づいて演算される。なお、各演算は、他のセンサの検出信号によって補正されてもよい。撮像情報取得部113による撮像情報の演算手法および演算に利用するセンサは限定されず、撮像装置の位置および撮像方向を演算できればよい。   The imaging information acquisition unit 113 acquires imaging information indicating the position and imaging direction of the imaging device. The imaging information acquisition unit 113 calculates the position and imaging direction of the imaging device based on various detection signals input from the sensor unit 15 and outputs the calculation result to the display control unit 115 as imaging information. The position of the imaging device is calculated based on the GPS detection signal, the direction of the imaging direction on the horizontal plane is calculated based on the detection signal of the direction sensor, and the inclination of the imaging direction with respect to the horizontal plane is a triaxial acceleration sensor or a triaxial gyro sensor. Is calculated based on the detected signal. Each calculation may be corrected by detection signals of other sensors. The imaging information calculation method and the sensor used for the calculation by the imaging information acquisition unit 113 are not limited as long as the position and imaging direction of the imaging device can be calculated.

撮像画像取得部114は、撮像装置が撮像している画像を取得するものである。撮像画像取得部114は、撮像部14より入力される画像データを表示制御部115に出力する。   The captured image acquisition unit 114 acquires an image captured by the imaging apparatus. The captured image acquisition unit 114 outputs the image data input from the imaging unit 14 to the display control unit 115.

表示制御部115は、表示部16の表示装置に表示させる表示画像を生成するものである。表示制御部115は、データ取得部111より入力される三次元画像データ、日時設定部112より入力される日時の情報、撮像情報取得部113より入力される撮像情報、および、撮像画像取得部114より入力される画像データに基づいて、表示画像の画像データを生成する。表示制御部115は、抽出部115a、投影処理部115b、および、合成部115cを備えている。   The display control unit 115 generates a display image to be displayed on the display device of the display unit 16. The display control unit 115 includes 3D image data input from the data acquisition unit 111, date information input from the date setting unit 112, imaging information input from the imaging information acquisition unit 113, and a captured image acquisition unit 114. Based on the input image data, image data of the display image is generated. The display control unit 115 includes an extraction unit 115a, a projection processing unit 115b, and a synthesis unit 115c.

抽出部115aは、三次元画像データによる三次元画像のうち、表示画像に表示する部分を抽出するものである。抽出部115aは、データ取得部111より三次元画像データを入力され、日時設定部112より日時の情報(以下では、「日時情報」とする)を入力される。そして、三次元画像データに含まれる日時データと日時設定部112より入力された日時情報とを比較する。抽出部115aは、日時データが示す日時が、日時情報が示す日時より前であるポリゴンだけを抽出する。本実施形態では、日時データが当該ポリゴンを含む部分が完成する予定の日付を示しており、日時情報が現在の日付を示しているので、現在までに完成している予定の部分のポリゴンだけが抽出される。これら抽出されたポリゴンのみが表示画像に表示される。抽出部115aで抽出されたポリゴンのデータは、表示フラグを立てて(「1」を設定して)、抽出されなかったポリゴンのデータと区別される。なお、ポリゴンのデータの番号によって、抽出されたか否かを区別するようにしてもよい。三次元画像データのうち、抽出されたポリゴンのデータが、投影処理部115bに出力される。   The extraction unit 115a extracts a portion to be displayed on the display image from the three-dimensional image based on the three-dimensional image data. The extraction unit 115 a receives 3D image data from the data acquisition unit 111 and receives date and time information (hereinafter, “date and time information”) from the date and time setting unit 112. Then, the date / time data included in the 3D image data is compared with the date / time information input from the date / time setting unit 112. The extraction unit 115a extracts only polygons whose date and time indicated by the date and time data is earlier than the date and time indicated by the date and time information. In this embodiment, the date / time data indicates the date on which the portion including the polygon is scheduled to be completed, and the date / time information indicates the current date. Therefore, only the polygon of the portion scheduled to be completed up to now is included. Extracted. Only these extracted polygons are displayed in the display image. The polygon data extracted by the extraction unit 115a is distinguished from polygon data that has not been extracted by setting a display flag ("1" is set). Note that whether or not the data has been extracted may be distinguished based on the polygon data number. Of the three-dimensional image data, the extracted polygon data is output to the projection processing unit 115b.

投影処理部115bは、三次元のデータであるポリゴンの各頂点の座標を、表示画面に表示するための二次元のデータに変換するものである。投影処理部115bは、抽出部115aより抽出されたポリゴンのデータが入力され、撮像情報取得部113より撮像情報が入力される。投影処理部115bは、まず、抽出部115aより入力される抽出されたポリゴンのデータの各頂点の座標を、現実の位置を示す座標に変換する。つまり、三次元モデルを実際の建築物として建築予定地に建築した場合に、各頂点が位置することになる位置座標に変換される。当該変換には、三次元画像データとともに記憶部12に記憶されている、建築予定地の位置座標、建築物の向きおよび各寸法などの情報が用いられる。なお、ポリゴンのデータの各頂点の座標が現実の位置を示す座標で設定されていれば、当該変換は省略される。次に、投影処理部115bは、現実の位置座標に変換された各頂点の座標を、表示画面に透視投影した二次元の座標に変換する。透視投影とは、三次元コンピュータグラフィックスにおいて、三次元の物体を二次元平面に描画するための手法であって、視点から三次元の物体に視線を延ばし、視点と物体との間に仮想的に配置されたスクリーンと視線との交点に物体を描画するものである。透視投影の視点および視線の方向は、撮像情報取得部113より入力される撮像情報に基づいて設定される。すなわち、撮像情報に含まれる撮像装置の位置が透視投影の視点として設定され、撮像情報に含まれる撮像方向が透視投影の視線の方向として設定される。各頂点の座標が変換されたポリゴンのデータが、合成部115cに出力される。   The projection processing unit 115b converts the coordinates of each vertex of the polygon, which is three-dimensional data, into two-dimensional data for display on the display screen. The projection processing unit 115 b receives polygon data extracted from the extraction unit 115 a and receives imaging information from the imaging information acquisition unit 113. The projection processing unit 115b first converts the coordinates of each vertex of the extracted polygon data input from the extraction unit 115a into coordinates indicating the actual position. That is, when a three-dimensional model is constructed as an actual building on a planned construction site, it is converted into position coordinates where each vertex is located. For the conversion, information such as the position coordinates of the planned construction site, the direction of the building, and each dimension stored in the storage unit 12 together with the three-dimensional image data is used. If the coordinates of each vertex of the polygon data are set as coordinates indicating the actual position, the conversion is omitted. Next, the projection processing unit 115b converts the coordinates of each vertex converted into the actual position coordinates into two-dimensional coordinates that are perspective-projected on the display screen. Perspective projection is a technique for drawing a three-dimensional object on a two-dimensional plane in three-dimensional computer graphics, extending the line of sight from the viewpoint to the three-dimensional object, and creating a virtual space between the viewpoint and the object. The object is drawn at the intersection of the screen and the line of sight arranged in the screen. The perspective of the perspective projection and the direction of the line of sight are set based on the imaging information input from the imaging information acquisition unit 113. That is, the position of the imaging device included in the imaging information is set as the perspective of perspective projection, and the imaging direction included in the imaging information is set as the direction of the line of sight of perspective projection. Polygon data obtained by converting the coordinates of each vertex is output to the synthesis unit 115c.

合成部115cは、表示画像を生成するものである。合成部115cは、投影処理部115bより各頂点の座標が変換されたポリゴンのデータが入力され、撮像画像取得部114より画像データが入力される。合成部115cは、撮像画像取得部114より入力される画像データに基づく画像に、投影処理部115bより入力されるポリゴンを描画することで合成し、表示画像を生成する。ポリゴンの描画は、三つの頂点の座標からなる三角形を描画し、テクスチャを貼り付けることで行われる。このとき、視点(撮像装置の位置)側に存在するポリゴンによって見えなくなるポリゴンについては描画を行わないようにしてもよい。また、テクスチャは、実際の画像が透けて見えるように、半透明のテクスチャとしている。生成された表示画像は、表示部16に出力されて、表示装置に表示される。なお、投影処理部115bおよび合成部115cの処理は、CPUとは別に設けられた描画のためのプロセッサで行うようにしてもよい。   The synthesizing unit 115c generates a display image. The composition unit 115c receives polygon data obtained by converting the coordinates of each vertex from the projection processing unit 115b, and receives image data from the captured image acquisition unit 114. The synthesizing unit 115c synthesizes the image based on the image data input from the captured image acquisition unit 114 by drawing the polygon input from the projection processing unit 115b, and generates a display image. Polygon drawing is performed by drawing a triangle composed of the coordinates of three vertices and pasting a texture. At this time, drawing may not be performed for polygons that cannot be seen by the polygons existing on the viewpoint (position of the imaging device) side. The texture is a translucent texture so that an actual image can be seen through. The generated display image is output to the display unit 16 and displayed on the display device. Note that the processing of the projection processing unit 115b and the combining unit 115c may be performed by a drawing processor provided separately from the CPU.

これらの制御部11での処理は、リアルタイムで行われる。すなわち、撮像画像取得部114は撮像装置が撮像している現在の画像を取得して、撮像情報取得部113はその時の撮像情報を取得する。そして、投影処理部115bが当該撮像情報に基づいて透視投影した各ポリゴンを、合成部115cが現在の画像に合成する。したがって、撮像装置が撮像している現在の実際の画像に、実際には存在しない建築物が合成されて、当該建築物が実際に存在するかのように表示される。また、本実施形態では、撮像画像取得部114より入力される画像データは、動画の画像データである。この場合、動画を構成する各静止画の画像データが入力される毎に、撮像情報取得部113はその時の撮像情報を取得し、投影処理部115bが当該撮像情報に基づいて透視投影した各ポリゴンを、合成部115cが静止画の画像に合成することを繰り返す。したがって、画像表示制御装置1を持った操作者が移動したり、撮像装置の撮像方向を変化させると、これに応じて建築物の位置や向きが変化する。これにより、建築物が実際に存在して、撮像装置に撮像されているかのように、表示画像を表示することができる。   The processing in these control units 11 is performed in real time. That is, the captured image acquisition unit 114 acquires the current image captured by the imaging device, and the imaging information acquisition unit 113 acquires the imaging information at that time. Then, the synthesizing unit 115c synthesizes each polygon that is projected by the projection processing unit 115b based on the imaging information. Therefore, a building that does not actually exist is combined with the current actual image captured by the imaging device, and displayed as if the building actually exists. In the present embodiment, the image data input from the captured image acquisition unit 114 is moving image data. In this case, each time image data of each still image constituting the moving image is input, the imaging information acquisition unit 113 acquires the imaging information at that time, and each of the polygons projected by the projection processing unit 115b based on the imaging information. Are repeatedly synthesized by the synthesizing unit 115c into a still image. Therefore, when the operator who has the image display control device 1 moves or changes the imaging direction of the imaging device, the position and orientation of the building change accordingly. Thereby, a display image can be displayed as if the building actually exists and is imaged by the imaging device.

図4は、制御部11が行うAR表示処理を説明するためのフローチャートである。当該AR表示処理は、例えば、メニュー画面で操作者がAR表示を選択した場合に開始される。なお、AR表示処理を開始する前に、三次元画像データを入手して、記憶部12に記憶しておく必要がある。   FIG. 4 is a flowchart for explaining the AR display process performed by the control unit 11. The AR display process is started, for example, when the operator selects AR display on the menu screen. Before starting the AR display process, it is necessary to obtain three-dimensional image data and store it in the storage unit 12.

まず、データ取得部111が、記憶部12に記憶されている三次元画像データを取得する(S1)。次に、日時設定部112が現在の日時を示す日時情報を取得する(S2)。そして、抽出部115aが、三次元画像データに含まれる日時データと日時情報とを比較して、日時データが示す日時が、日時情報が示す日時より前であるポリゴンのデータだけを抽出する(S3)。以後の処理では、抽出されたポリゴンのデータのみが用いられる。   First, the data acquisition unit 111 acquires 3D image data stored in the storage unit 12 (S1). Next, the date and time setting unit 112 acquires date and time information indicating the current date and time (S2). Then, the extraction unit 115a compares the date and time data included in the 3D image data with the date and time information, and extracts only polygon data whose date and time indicated by the date and time data is earlier than the date and time indicated by the date and time information (S3). ). In the subsequent processing, only the extracted polygon data is used.

次に、撮像情報取得部113が、センサ部15より入力される各種検出信号に基づいて、撮像情報を取得する(S4)。次に、投影処理部115bが、抽出されたポリゴンのデータの各頂点の座標を、現実の位置を示す座標に変換し、さらに、表示画面に透視投影した二次元の座標に変換する(S5)。   Next, the imaging information acquisition unit 113 acquires imaging information based on various detection signals input from the sensor unit 15 (S4). Next, the projection processing unit 115b converts the coordinates of each vertex of the extracted polygon data into coordinates indicating the actual position, and further converts them into two-dimensional coordinates that are perspective-projected on the display screen (S5). .

次に、撮像画像取得部114が、撮像装置が撮像している画像の画像データを取得する(S6)。次に、合成部115cが、撮像画像に、各頂点の座標が変換されたポリゴンを描画することで合成し、表示画像を生成する(S7)。次に、表示制御部115は、生成した表示画像を、表示部16に出力して、表示装置に表示させる(S8)。そして、ステップS4に戻って、ステップS4〜S8を繰り返す。   Next, the captured image acquisition unit 114 acquires image data of an image captured by the imaging device (S6). Next, the synthesizing unit 115c synthesizes the captured image by drawing a polygon in which the coordinates of each vertex are converted, and generates a display image (S7). Next, the display control unit 115 outputs the generated display image to the display unit 16 for display on the display device (S8). Then, returning to step S4, steps S4 to S8 are repeated.

AR表示処理は、操作者が終了を選択(例えば、表示画面に表示されている終了ボタンを操作者がタッチして、当該タッチをタッチパネルが読み取った場合など)した場合に終了される。なお、図4に示すフローチャートはAR表示処理の一例であって、制御部11が行うAR表示処理は、これに限定されない。   The AR display process is terminated when the operator selects termination (for example, when the operator touches the termination button displayed on the display screen and the touch panel reads the touch). Note that the flowchart shown in FIG. 4 is an example of the AR display process, and the AR display process performed by the control unit 11 is not limited to this.

例えば、先にまとめて、該当するポリゴンのデータを抽出する(図4のS3参照)のではなく、図5に示すフローチャートのように、該当するポリゴンのデータを抽出しながら、抽出されたデータに対して投影処理および画像の合成を行うようにしてもよい。図5に示すフローチャートでは、制御部11は、三次元画像データ、日時情報、撮像情報および撮像画像を取得(ステップS1,S2,S4,S6)した後、ポリゴンの番号を示す変数nを増加させながら、ステップS9、S5、S7を、ポリゴンの数だけ繰り返す(S3’)。ステップS9では、制御部11は、対応するポリゴンの日時データDnが日時情報D0より小さい(日時データDnの示す日付が日時情報D0の示す日付より前)であるか否かを判別する。そして、Dn<D0の場合(S9:YES)は投影処理(S5)および画像の合成(S7)を行い、Dn≧D0の場合(S9:NO)は、投影処理および画像の合成を行わない。これをポリゴンの数だけ繰り返した後、表示装置に表示させる(S8)。 For example, instead of extracting the corresponding polygon data first (see S3 in FIG. 4), the extracted data is extracted while extracting the corresponding polygon data as shown in the flowchart of FIG. On the other hand, projection processing and image synthesis may be performed. In the flowchart shown in FIG. 5, the control unit 11 acquires the three-dimensional image data, the date information, the imaging information, and the captured image (steps S1, S2, S4, and S6), and then increases the variable n indicating the polygon number. However, steps S9, S5, and S7 are repeated by the number of polygons (S3 ′). In step S9, the control unit 11, time data Dn corresponding polygon to determine whether the smaller date information D 0 (before the date indicating the date indicated by the date data Dn is the date and time information D 0). In the case of Dn <D 0 (S9: YES ) performs the synthesis of projection process (S5) and the image (S7), if the Dn ≧ D 0 (S9: NO ) , the perform synthesis of projection processing and image Absent. This is repeated for the number of polygons, and then displayed on the display device (S8).

次に、本実施形態に係る画像表示制御装置1の作用および効果について説明する。   Next, operations and effects of the image display control apparatus 1 according to the present embodiment will be described.

本実施形態によると、抽出部115aは、データ取得部111より入力される三次元画像データに含まれる日時データと日時設定部112より入力された日時情報とを比較して、日時データが示す日時が日時情報が示す日時より前であるポリゴンだけを抽出する。日時データが当該ポリゴンを含む部分が完成する予定の日付を示しており、日時情報が現在の日付を示しているので、現在の日時までに完成している予定の部分のポリゴンだけが抽出される。そして、抽出されたポリゴンだけが、撮像装置によって撮像された画像に合成されて、表示装置に表示される。したがって、表示装置には、建築物のうち現在の日時までに完成している予定の部分だけが、実際の画像に合成されて表示される。これにより、完成予定部分の画像と実際の画像との違いから、施行計画の遅れを直感的に認識させることができる。また、本実施形態では、ポリゴンに貼り付けるテクスチャを半透明としているので、ポリゴンによる建築物が半透明に表示される。これにより、実際の画像が透けて見えるので、完成予定部分の画像と実際の画像との違いを見分けやすくできる。   According to the present embodiment, the extraction unit 115a compares the date / time data included in the 3D image data input from the data acquisition unit 111 with the date / time information input from the date / time setting unit 112, and indicates the date / time indicated by the date / time data. Extract only those polygons whose date is before the date and time indicated by the date and time information. Since the date and time data indicates the date when the part including the polygon is scheduled to be completed, and the date and time information indicates the current date, only the polygons of the part scheduled to be completed by the current date and time are extracted. . Then, only the extracted polygon is combined with the image captured by the imaging device and displayed on the display device. Therefore, only the part of the building that is scheduled to be completed by the current date and time is synthesized and displayed on the actual image. Thereby, it is possible to intuitively recognize the delay of the execution plan from the difference between the image of the planned completion part and the actual image. In the present embodiment, since the texture to be pasted on the polygon is made translucent, the building made of the polygon is displayed translucently. Thereby, since the actual image can be seen through, it is possible to easily distinguish the difference between the image of the part to be completed and the actual image.

また、本実施形態によると、撮像画像取得部114は撮像装置が撮像している現在の画像を取得して、撮像情報取得部113はその時の撮像情報を取得する。そして、投影処理部115bが当該撮像情報に基づいて透視投影した各ポリゴンを、合成部115cが現在の画像に合成する。これにより、撮像装置が撮像している現在の実際の画像に、撮像装置の現在の位置および撮像方向に応じた、ポリゴンからなる建築物が合成されて、当該建築物が実際に存在するかのように表示される。したがって、建築現場で、リアルタイムに、合成された画像を示すことができる。   Further, according to the present embodiment, the captured image acquisition unit 114 acquires the current image captured by the imaging device, and the imaging information acquisition unit 113 acquires the imaging information at that time. Then, the synthesizing unit 115c synthesizes each polygon that is projected by the projection processing unit 115b based on the imaging information. As a result, a building made of polygons is synthesized with the current actual image captured by the imaging device according to the current position and imaging direction of the imaging device, and the building actually exists. Is displayed. Therefore, the synthesized image can be shown in real time at the construction site.

また、本実施形態によると、撮像画像取得部114より入力される画像データは動画の画像データである。そして、制御部11は、動画を構成する各静止画の画像データが入力される毎に、その時の撮像情報を取得して、当該撮像情報に基づいて透視投影した各ポリゴンを静止画の画像に合成することを繰り返す。したがって、画像表示制御装置1を持った操作者が移動したり、撮像装置の撮像方向を変化させると、これに応じて建築物の位置や向きが変化する。これにより、建築物を様々な方向から見た画像を、表示することができる。   According to the present embodiment, the image data input from the captured image acquisition unit 114 is moving image data. Then, every time image data of each still image constituting the moving image is input, the control unit 11 acquires imaging information at that time, and converts each polygon that is perspective-projected based on the imaging information into a still image. Repeat the synthesis. Therefore, when the operator who has the image display control device 1 moves or changes the imaging direction of the imaging device, the position and orientation of the building change accordingly. Thereby, the image which looked at the building from various directions can be displayed.

なお、上記第1実施形態においては、三次元画像データの日時データとして、当該ポリゴンを含む部分が完成する予定の日付を設定する場合について説明したが、これに限られない。例えば、日付の代わりに、着工からの日数で設定(例えば40日後など)してもよい。この場合、日時設定部112が設定する日時情報も着工からの日数で設定する必要がある。また、日付だけでなく時間まで指定して設定してもよい。この場合、日時設定部112が設定する日時も時間を含めて設定すればよい。この場合、施行状態をより細かく確認することができる。   In the first embodiment, the case has been described in which the date when the part including the polygon is scheduled to be completed is set as the date / time data of the 3D image data. However, the present invention is not limited to this. For example, instead of the date, the number of days from the start of construction may be set (for example, after 40 days). In this case, the date / time information set by the date / time setting unit 112 must also be set by the number of days since the start of construction. Further, not only the date but also the time may be specified and set. In this case, the date and time set by the date and time setting unit 112 may be set including the time. In this case, the enforcement state can be confirmed in more detail.

上記第1実施形態においては、実際の画像にポリゴンからなる建築物の全体(完成している予定の部分の全体)が合成された画像が表示される場合について説明したが、これに限られない。例えば、ポリゴンからなる建築物のうち実際の画像に表示されていない部分(予定では完成しているはずであるが実際には完成していない部分)だけを合成するようにしてもよい。具体的には、画像処理によって、ポリゴンからなる建築物と実際の画像の建築物との共通部分を検出し、当該共通部分に対応するポリゴンを表示しないようにすればよい。図1の例であれば、図1(d)において、実際の1〜2階部分の画像に、ポリゴンからなる3階部分だけが合成されるようになる。   In the first embodiment described above, a case has been described in which an image in which an entire building made up of polygons (the entire part to be completed) is combined with an actual image is displayed. However, the present invention is not limited to this. . For example, only a portion of a building made of polygons that is not displayed in an actual image (a portion that should have been completed but not actually completed) may be synthesized. Specifically, a common part between a building made of polygons and a building of an actual image may be detected by image processing so that the polygon corresponding to the common part is not displayed. In the example of FIG. 1, in FIG. 1D, only the third floor portion composed of polygons is combined with the actual image of the first and second floor portions.

上記第1実施形態においては、三次元画像データをポリゴンごとのデータとした場合について説明したが、これに限られない。例えば、三次元画像データを、複数のポリゴンからなる、建築物を構成する要素(壁、床、天井、窓、扉など)ごとのデータとしてもよい。また、建築物の三次元モデルの各点ごとのデータとしてもよい。なお、この場合、座標上同じ点であっても、日時データが異なる点は別の点として設定されている必要がある。例えば、日時D1に完成予定の部分の点と、日時D2に完成予定の部分の点とは、座標上は同じ点であっても、異なる点として設定される。   In the first embodiment, the case where the three-dimensional image data is data for each polygon has been described. However, the present invention is not limited to this. For example, the three-dimensional image data may be data for each element (wall, floor, ceiling, window, door, etc.) comprising a plurality of polygons and constituting a building. Moreover, it is good also as the data for every point of the three-dimensional model of a building. In this case, even if the points are the same on the coordinates, points with different date / time data need to be set as different points. For example, the point of the part scheduled to be completed at the date and time D1 and the point of the part scheduled to be completed at the date and time D2 are set as different points even if they are the same point on the coordinates.

上記第1実施形態においては、いわゆるセンサ方式でAR表示を行う場合について説明したが、これに限られない。その他の方式(例えば、マーカー方式やマーカーレス方式)でAR表示を行うようにしてもよい。   In the first embodiment, the case where AR display is performed by a so-called sensor method has been described, but the present invention is not limited to this. The AR display may be performed by other methods (for example, a marker method or a markerless method).

上記第1実施形態においては、撮像装置が撮像している現在の画像に、透視投影したポリゴンからなる建築物をリアルタイムで合成する場合について説明したが、これに限られない。過去に撮像装置が撮像した画像に合成するようにしてもよい。この場合、画像が撮像された時に取得された撮像情報に基づいて透視投影を行う必要がある。また、上記第1実施形態においては、撮像装置が動画を撮像して、建築物を合成した動画が表示装置に表示される場合について説明したが、これに限られない。撮像装置が静止画を撮像して、建築物を合成した静止画が表示装置に表示されるようにしてもよい。   In the first embodiment described above, a case has been described in which a building made up of a perspective-projected polygon is combined with a current image captured by an imaging device in real time, but is not limited thereto. You may make it synthesize | combine with the image imaged by the imaging device in the past. In this case, it is necessary to perform perspective projection based on the imaging information acquired when the image is captured. Moreover, in the said 1st Embodiment, although the imaging device imaged the moving image and demonstrated the case where the moving image which synthesize | combined the building was displayed on a display apparatus, it is not restricted to this. The imaging device may capture a still image, and the still image obtained by combining the buildings may be displayed on the display device.

上記第1実施形態においては、三次元画像データが位置データなどの他に日時データを含んでおり、画像表示制御装置1が施行計画の進捗状況を確認するのに適していることを説明した。さらに、三次元画像データが建築費用に関するデータを含むようにして、予算の進捗状況を確認できるようにした場合を、第2実施形態として、以下に説明する。   In the first embodiment, it has been described that the 3D image data includes date / time data in addition to position data and the like, and the image display control device 1 is suitable for confirming the progress of the enforcement plan. Further, a case where the progress of the budget can be confirmed by making the three-dimensional image data include data related to construction costs will be described below as a second embodiment.

図6は、第2実施形態に係る画像表示制御装置1’の内部構成の一例を示す機能ブロック図である。図6においては、記憶部12、操作部13、撮像部14、センサ部15、表示部16、通信部17およびバス18を省略して、制御部11のみを記載している。また、図6においては、第1実施形態に係る画像表示制御装置1(図2参照)と同一または類似の要素には、同一の符号を付している。図6に示すように、画像表示制御装置1’は、機能ブロックとして、選択受付部116、削除処理部117、および、費用算出部118を備えている点で、第1実施形態に係る画像表示制御装置1と異なる。   FIG. 6 is a functional block diagram showing an example of the internal configuration of the image display control device 1 ′ according to the second embodiment. In FIG. 6, the storage unit 12, the operation unit 13, the imaging unit 14, the sensor unit 15, the display unit 16, the communication unit 17, and the bus 18 are omitted, and only the control unit 11 is described. In FIG. 6, the same or similar elements as those in the image display control apparatus 1 (see FIG. 2) according to the first embodiment are denoted by the same reference numerals. As shown in FIG. 6, the image display control device 1 ′ includes an image display according to the first embodiment in that it includes a selection receiving unit 116, a deletion processing unit 117, and a cost calculation unit 118 as functional blocks. Different from the control device 1.

画像表示制御装置1’は、AR表示プログラムに加えて、費用算出プログラムをサーバ3からダウンロードして、記憶部12に読み込んでいる。機能ブロックである選択受付部116、削除処理部117、および、費用算出部118は、制御部11が記憶部12に記憶された費用算出プログラムを実行することで実現される。   In addition to the AR display program, the image display control device 1 ′ downloads a cost calculation program from the server 3 and reads it into the storage unit 12. The selection reception unit 116, the deletion processing unit 117, and the cost calculation unit 118, which are functional blocks, are realized by the control unit 11 executing the cost calculation program stored in the storage unit 12.

費用算出プログラムは、現在の完成部分の予定費用を算出するものであり、AR表示プログラムによって作成された表示画像から、未実施部分を削除して、残り部分(実際の完成部分)の予定費用を算出して表示する。このため、第2実施形態に係る三次元画像データには、予定費用を算出するための費用データが含まれている。   The cost calculation program calculates the planned cost of the current completed part, deletes the unimplemented part from the display image created by the AR display program, and calculates the planned cost of the remaining part (actual completed part). Calculate and display. For this reason, the 3D image data according to the second embodiment includes cost data for calculating the planned cost.

図7(a)は、第2実施形態に係る三次元画像データの一例を示している。当該三次元画像データは、第1実施形態に係る三次元画像データに、さらに費用データを追加したものである。費用データは、当該ポリゴンが含まれる部分(例えば、壁、床、天井、窓、扉など)の建築費用を、含まれるポリゴンの数で除算したものである。例えば、ある壁の建築費用が100万円で、当該壁が100個のポリゴンで構成されている場合、各ポリゴンには費用データとして1万円(=100万円÷100個)が設定される。費用データは、見積書に応じて設定される。なお、費用データは、設計時の三次元モデルのデータには含まれていないので、見積書に応じて、後で追加される。なお、データ取得部111が、設計時の三次元モデルのデータと、施行計画のデータ(日時データの設定に使用)と、見積書のデータとから、三次元画像データを作成するようにしてもよい。   FIG. 7A shows an example of 3D image data according to the second embodiment. The 3D image data is obtained by adding cost data to the 3D image data according to the first embodiment. The cost data is obtained by dividing the construction cost of a portion (for example, a wall, a floor, a ceiling, a window, or a door) including the polygon by the number of included polygons. For example, if the construction cost of a wall is 1 million yen and the wall is composed of 100 polygons, 10,000 yen (= 1 million yen / 100 pieces) is set as cost data for each polygon. . Cost data is set according to the estimate. Note that the cost data is not included in the data of the three-dimensional model at the time of design, and is added later according to the estimate. Note that the data acquisition unit 111 may also create 3D image data from the 3D model data at the time of design, the data of the execution plan (used for setting date / time data), and the data of the estimate sheet. Good.

図8は、画像表示制御装置1’の表示画面41の一例を示しており、AR表示プログラムによって作成された表示画像42が表示されている状態を示している。表示画像42の右側には、複数の機能ボタン43が表示されている。表示画面41上にはタッチパネルが配置されているので、操作者が表示画面41上をタッチすることで、タッチパネルからタッチ位置の操作信号が制御部11に入力される。これにより、制御部11は、操作者がタッチした位置を認識して、何が選択されたかを認識することができる。機能ボタン43としては、AR表示を開始する「表示開始」ボタン、AR表示を終了する「表示終了」ボタン、AR表示を一時停止する「一時停止」ボタン、表示画像42から削除する部分の選択を開始する「選択開始」ボタン、および、選択を終了する「選択終了」ボタンが配置されている。また、表示画像42上をタッチすることで、削除する部分を選択することができる。なお、選択はポリゴンごとに行うようにしてもよいし、複数のポリゴンをまとめた部分ごとに行うようにしてもよい。なお、表示画面41のレイアウトや、表示される機能ボタン43の種類および数は限定されない。また、表示画像42上での選択の方法も限定されない。   FIG. 8 shows an example of the display screen 41 of the image display control device 1 ′, and shows a state where the display image 42 created by the AR display program is displayed. A plurality of function buttons 43 are displayed on the right side of the display image 42. Since the touch panel is arranged on the display screen 41, when the operator touches the display screen 41, an operation signal at the touch position is input from the touch panel to the control unit 11. Thereby, the control part 11 can recognize the position which the operator touched and can recognize what was selected. As the function buttons 43, a “display start” button for starting AR display, a “display end” button for ending AR display, a “pause” button for temporarily stopping AR display, and a portion to be deleted from the display image 42 are selected. A “selection start” button for starting and a “selection end” button for ending selection are arranged. Further, a part to be deleted can be selected by touching the display image 42. The selection may be performed for each polygon, or may be performed for each portion where a plurality of polygons are collected. The layout of the display screen 41 and the types and number of function buttons 43 to be displayed are not limited. Further, the selection method on the display image 42 is not limited.

選択受付部116は、AR表示プログラムによって作成された表示画像42から削除するために、操作者が選択した部分の指定を受け付ける。選択受付部116は、操作部13から入力される操作信号に基づいて、表示画像42上で選択された部分に対応するポリゴンを認識し、該当するポリゴンの番号を削除処理部117に出力する。なお、選択受付部116は、AR表示が一時停止され、選択開始の入力が行われてから、選択の受付を開始する。   The selection accepting unit 116 accepts designation of a part selected by the operator for deletion from the display image 42 created by the AR display program. Based on the operation signal input from the operation unit 13, the selection receiving unit 116 recognizes the polygon corresponding to the portion selected on the display image 42 and outputs the number of the corresponding polygon to the deletion processing unit 117. The selection receiving unit 116 starts receiving the selection after the AR display is temporarily stopped and the selection start input is performed.

削除処理部117は、三次元画像データから、選択されたポリゴンの削除を行うものである。削除処理部117は、抽出部115aより抽出されたポリゴンのデータ(表示フラグが反映された三次元画像データ)が入力され、選択受付部116よりポリゴンの番号が入力される。削除処理部117は、抽出部115aより入力された三次元画像データにおいて、選択受付部116より入力された番号に対応するポリゴンの表示フラグを「0」にする。これにより、削除処理部117によって削除されたポリゴンは、表示画像42に表示されなくなる。削除処理部117は、ポリゴンの削除処理を行った後の三次元画像データを、費用算出部118に出力する。   The deletion processing unit 117 deletes the selected polygon from the 3D image data. The deletion processing unit 117 receives the polygon data (three-dimensional image data reflecting the display flag) extracted by the extraction unit 115 a and the polygon number from the selection receiving unit 116. The deletion processing unit 117 sets the polygon display flag corresponding to the number input from the selection receiving unit 116 to “0” in the three-dimensional image data input from the extraction unit 115 a. As a result, the polygon deleted by the deletion processing unit 117 is not displayed on the display image 42. The deletion processing unit 117 outputs the three-dimensional image data after performing the polygon deletion processing to the cost calculation unit 118.

費用算出部118は、表示画像42に表示されている部分の予定費用を算出するものである。費用算出部118は、削除処理部117より、削除処理後の三次元画像データを入力される。費用算出部118は、入力された削除処理後の三次元画像データのうち、表示フラグが立っている(「1」が設定されている)ポリゴン(表示画像42に表示されているポリゴン)の費用データを合計する。これにより、表示画像42に表示されている、実際の完成部分の予定費用を算出することができる。算出された予定費用は、表示画面41に表示される(図8参照)。   The cost calculation unit 118 calculates the planned cost of the part displayed on the display image 42. The cost calculation unit 118 receives the 3D image data after the deletion processing from the deletion processing unit 117. The cost calculation unit 118 includes the cost of the polygon (the polygon displayed in the display image 42) with the display flag set (“1” is set) among the input three-dimensional image data after the deletion process. Sum the data. Thereby, the estimated cost of the actual completion part currently displayed on the display image 42 is computable. The calculated scheduled cost is displayed on the display screen 41 (see FIG. 8).

図9は、制御部11が行う費用算出処理を説明するためのフローチャートである。当該費用算出処理は、AR表示が一時停止され、選択開始の入力が行われた場合に開始される。   FIG. 9 is a flowchart for explaining a cost calculation process performed by the control unit 11. The cost calculation process is started when the AR display is temporarily stopped and selection start input is performed.

まず、制御部11は、選択終了の入力が行われたか否かを判別する(S11)。具体的には、操作部13から、「選択終了」の機能ボタン43のタッチを示す操作信号が入力されたか否かを判別する。選択終了の入力が行われていない場合(S11:NO)、選択受付部116は、選択指定があったか否かを判別する(S12)。具体的には、操作部13から、表示画像42上での選択を示す操作信号が入力されたか否かを判別する。選択指定があった場合(S12:YES)、選択されたポリゴンが削除される。具体的には、選択受付部116が選択されたポリゴンの番号を削除処理部117に出力し、削除処理部117が抽出部115aより入力された三次元画像データにおいて、選択受付部116より入力された番号に対応するポリゴンの表示フラグを「0」にする。そして、ステップS11に戻る。ステップS12において、選択指定がなかった場合(S12:NO)も、ステップS11に戻る。また、ステップS11において、選択終了の入力が行わた場合(S11:YES)、ステップS14に進む。すなわち、選択終了の入力が行われるまで、ステップS11〜S13が繰り返され、選択指定があった場合には選択されたポリゴンが削除される。   First, the control unit 11 determines whether or not a selection end input has been performed (S11). Specifically, it is determined whether or not an operation signal indicating touch of the “selection end” function button 43 is input from the operation unit 13. When the selection end input is not performed (S11: NO), the selection receiving unit 116 determines whether or not a selection is specified (S12). Specifically, it is determined whether or not an operation signal indicating selection on the display image 42 is input from the operation unit 13. If there is a selection designation (S12: YES), the selected polygon is deleted. Specifically, the selection receiving unit 116 outputs the number of the selected polygon to the deletion processing unit 117, and the deletion processing unit 117 inputs the 3D image data input from the extraction unit 115a from the selection receiving unit 116. The display flag of the polygon corresponding to the number is set to “0”. Then, the process returns to step S11. Also in step S12, when there is no selection specification (S12: NO), it returns to step S11. In step S11, when the selection end input is performed (S11: YES), the process proceeds to step S14. In other words, steps S11 to S13 are repeated until selection completion is input, and if a selection is made, the selected polygon is deleted.

そして、費用算出部118は、削除処理後の三次元画像データに基づいて、表示画像42に表示されている部分の予定費用を算出する(S14)。具体的には、費用算出部118は、削除処理後の三次元画像データのうち、表示フラグが立っているポリゴンの費用データを合計する。そして、表示制御部115が、算出された合計費用を表示画面41に表示して(S15)、費用算出処理が終了される。   Then, the cost calculation unit 118 calculates the planned cost of the portion displayed on the display image 42 based on the three-dimensional image data after the deletion process (S14). Specifically, the cost calculation unit 118 totals the cost data of polygons for which display flags are set out of the three-dimensional image data after the deletion process. Then, the display control unit 115 displays the calculated total cost on the display screen 41 (S15), and the cost calculation process ends.

なお、図9に示すフローチャートは費用算出処理の一例であって、制御部11が行う費用算出処理は、これに限定されない。   The flowchart shown in FIG. 9 is an example of the cost calculation process, and the cost calculation process performed by the control unit 11 is not limited to this.

第2実施形態においても、第1実施形態と同様の効果を奏することができる。さらに、第2実施形態においては、費用算出処理によって、現在の完成部分の予定費用を算出することができる。現在の完成部分の予定費用を実際に現在までにかかっている費用と比較することで、計画通りかどうか、どの程度予算をオーバーしているかを知ることができる。また、AR表示プログラムによって作成された表示画像42を操作するだけなので、現場で容易に、予算の進捗状況を確認することができる。   In the second embodiment, the same effect as that of the first embodiment can be obtained. Furthermore, in the second embodiment, the planned cost of the current completed part can be calculated by the cost calculation process. By comparing the planned cost of the current completed part with the actual cost, it is possible to know whether it is as planned and how much the budget has been exceeded. Moreover, since the display image 42 created by the AR display program is only operated, the progress of the budget can be easily confirmed on site.

なお、図7(b)に示すように、建築費用を例えば材料費や人件費などの項目に細分化して、費用データとして項目ごとに設定してもよい。この場合、項目ごとの予定費用を算出して、項目ごとに実際にかかっている費用と比較することができる。   In addition, as shown in FIG.7 (b), a construction cost may be subdivided into items, such as material cost and a labor cost, and you may set for every item as expense data. In this case, the planned cost for each item can be calculated and compared with the actual cost for each item.

上記第2実施形態においては、AR表示プログラムによって作成された表示画像42から、操作者が未実施部分を選択して削除する場合について説明したが、これに限られない。画像処理によって、未実施部分を自動的に削除するようにしてもよい。具体的には、画像処理によって、表示画像42と実際の画像(撮像装置が撮像して、撮像画像取得部114が取得した画像)との差異部分を検出し、検出された差異部分に対応するポリゴンを自動的に削除すればよい。この場合、操作者による選択が必要ないので、予算の進捗状況をより容易に確認することができる。また、画像処理によって検出した差異部分を、色を変化させたり点滅表示させたりして、操作者による選択を補助するようにしてもよい。   In the second embodiment, the case where the operator selects and deletes an unexecuted portion from the display image 42 created by the AR display program has been described. However, the present invention is not limited to this. The unexecuted portion may be automatically deleted by image processing. Specifically, a difference portion between the display image 42 and an actual image (image captured by the imaging device and acquired by the captured image acquisition unit 114) is detected by image processing, and the detected difference portion is handled. Polygons can be deleted automatically. In this case, since the selection by the operator is not necessary, the progress of the budget can be confirmed more easily. Further, the difference portion detected by the image processing may be changed in color or blinked to assist the selection by the operator.

上記第1または第2実施形態においては、日時データに基づいて表示するポリゴンを抽出する場合について説明したが、これに限られない。例えば、費用データに基づいて表示するポリゴンを抽出するようにしてもよい。費用データに基づいて表示するポリゴンを抽出する場合を、第3実施形態として、以下に説明する。   In the first or second embodiment, the case of extracting the polygon to be displayed based on the date / time data has been described, but the present invention is not limited to this. For example, polygons to be displayed may be extracted based on cost data. The case of extracting polygons to be displayed based on cost data will be described below as a third embodiment.

図10は、第3実施形態に係る画像表示制御装置1”の内部構成の一例を示す機能ブロック図である。図10においては、記憶部12、操作部13、撮像部14、センサ部15、表示部16、通信部17およびバス18を省略して、制御部11のみを記載している。また、図10においては、第1実施形態に係る画像表示制御装置1(図2参照)と同一または類似の要素には、同一の符号を付している。図10に示すように、画像表示制御装置1”は、機能ブロックとして、日時設定部112に代えて費用設定部112’を備え、抽出部115aに代えて抽出部115a’を備えている点で、第1実施形態に係る画像表示制御装置1と異なる。   FIG. 10 is a functional block diagram illustrating an example of the internal configuration of the image display control device 1 ″ according to the third embodiment. In FIG. 10, the storage unit 12, the operation unit 13, the imaging unit 14, the sensor unit 15, The display unit 16, the communication unit 17, and the bus 18 are omitted, and only the control unit 11 is described, and in Fig. 10, the same as the image display control device 1 (see Fig. 2) according to the first embodiment. Alternatively, similar elements are denoted by the same reference numerals. As shown in FIG. 10, the image display control device 1 ″ includes a cost setting unit 112 ′ instead of the date / time setting unit 112 as a functional block, It differs from the image display control apparatus 1 according to the first embodiment in that an extraction unit 115a ′ is provided instead of the extraction unit 115a.

第3実施形態では、三次元画像データとして、図7(a)に示す第2実施形態に係る三次元画像データを用いる。なお、日時データを備えていなくても構わない。つまり、第3実施形態に係る三次元画像データは、少なくとも、番号、位置データ、テクスチャデータ、費用データ、および表示フラグを含んでいる。番号は、実際に建設される順に、振られている。   In the third embodiment, three-dimensional image data according to the second embodiment shown in FIG. 7A is used as the three-dimensional image data. The date / time data may not be provided. That is, the 3D image data according to the third embodiment includes at least a number, position data, texture data, cost data, and a display flag. Numbers are assigned in the order they are actually built.

費用設定部112’は、総費用を設定するものである。本実施形態では、現在までに支出した費用の合計額の入力を促すメッセージを表示装置に表示して、操作者の操作によって操作部13から入力される操作信号に基づいて、費用設定部112’は総費用を取得する。費用設定部112’は、取得した総費用を、表示制御部115に出力する。なお、費用設定部112’は、現在までに支出した費用を経理のシステムから自動的に読み出して、その合計額を算出して設定するようにしてもよい。なお、現在までの総費用に限定されず、所望の総費用を設定するようにしてもよい。   The cost setting unit 112 'sets the total cost. In the present embodiment, a message prompting the input of the total amount of expenses spent up to now is displayed on the display device, and the cost setting unit 112 ′ is based on an operation signal input from the operation unit 13 by an operator's operation. To get the total cost. The cost setting unit 112 ′ outputs the acquired total cost to the display control unit 115. Note that the expense setting unit 112 ′ may automatically read the expense spent so far from the accounting system and calculate and set the total amount. The total cost up to the present time is not limited, and a desired total cost may be set.

抽出部115a’は、三次元画像データによる三次元画像のうち、表示画像に表示する部分を抽出するものである。抽出部115a’は、データ取得部111より三次元画像データを入力され、費用設定部112’より総費用を入力される。そして、抽出部115a’は、三次元画像データに含まれる費用データを番号の順に積算していき、積算値を費用設定部112’より入力された総費用と比較する。抽出部115a’は、積算値が総費用を超える前までのポリゴンを抽出する。本実施形態では、費用データがポリゴン毎の建築費用を示しており、総費用が現在までに支出した費用の合計額を示しているので、現在までに支出した費用で完成している予定の部分のポリゴンだけが抽出される。これら抽出されたポリゴンのみが表示画像に表示される。抽出部115a’で抽出されたポリゴンのデータは、表示フラグを立てて(「1」を設定して)、抽出されなかったポリゴンのデータと区別される。三次元画像データのうち、抽出されたポリゴンのデータが、投影処理部115bに出力される。   The extraction unit 115a 'extracts a portion to be displayed on the display image from the three-dimensional image based on the three-dimensional image data. The extraction unit 115a 'receives the three-dimensional image data from the data acquisition unit 111 and the total cost from the cost setting unit 112'. Then, the extraction unit 115a 'integrates the cost data included in the three-dimensional image data in the order of the numbers, and compares the integrated value with the total cost input from the cost setting unit 112'. The extraction unit 115a 'extracts polygons before the integrated value exceeds the total cost. In the present embodiment, the cost data indicates the construction cost for each polygon, and the total cost indicates the total amount of expenses that have been spent so far. Only polygons of are extracted. Only these extracted polygons are displayed in the display image. Polygon data extracted by the extraction unit 115a 'is distinguished from polygon data that has not been extracted by setting a display flag ("1" is set). Of the three-dimensional image data, the extracted polygon data is output to the projection processing unit 115b.

第3実施形態によると、抽出部115a’は、三次元画像データに含まれる費用データを番号の順に積算していき、積算値が総費用を超える前までのポリゴンを抽出する。したがって、現在までに支出した費用で完成している予定の部分のポリゴンだけが抽出され、撮像装置によって撮像された画像に合成されて、表示装置に表示される。したがって、表示装置には、建築物のうち、現在までに支出した費用で完成している予定の部分だけが、実際の画像に合成されて表示される。これにより、完成予定部分の画像と実際の画像との違いから、かかっている費用の多寡を直感的に認識させることができる。すなわち、完成予定部分の画像が実際の画像より工程が進んでいる場合、例えば図1(d)のような表示となった場合、計画より多くの費用がかかっていることが判る。逆に、実際の画像が完成予定部分の画像より工程が進んでいる場合、支出した費用が計画より少なくて済んでいることが判る。   According to the third embodiment, the extraction unit 115a 'integrates the cost data included in the three-dimensional image data in the order of the numbers, and extracts polygons until the integrated value exceeds the total cost. Therefore, only the polygons that are scheduled to be completed at the expense spent up to now are extracted, combined with the image captured by the imaging device, and displayed on the display device. Therefore, on the display device, only the portion of the building that is scheduled to be completed at the expense spent up to now is synthesized and displayed on the actual image. Thereby, it is possible to intuitively recognize the amount of the cost that is being taken from the difference between the image of the planned completion part and the actual image. That is, when the process of the image of the part to be completed is progressing from the actual image, for example, when the display is as shown in FIG. 1D, it can be understood that the cost is higher than the plan. On the contrary, if the actual image is processed more than the image of the part to be completed, it can be understood that the expense spent is less than the plan.

なお、上記第1〜第3実施形態では、タブレット型コンピュータを用いて画像表示制御装置1を実現した場合について説明したが、これに限られない。例えば、スマートフォンやノートパソコンを用いるようにしてもよい。また、デスクトップ型のコンピュータを用いて、画像表示制御装置を実現してもよい。デスクトップ型のコンピュータを用いた場合について、第4実施形態として、以下に説明する。   In addition, although the said 1st-3rd embodiment demonstrated the case where the image display control apparatus 1 was implement | achieved using the tablet computer, it is not restricted to this. For example, a smartphone or a notebook computer may be used. Further, the image display control apparatus may be realized using a desktop computer. A case where a desktop computer is used will be described below as a fourth embodiment.

図11(a)は、第4実施形態に係る画像表示制御装置6を含むシステムの内部構成の一例を示す機能ブロック図である。図11(a)においては、第1実施形態に係る画像表示制御装置1(図2参照)と同一または類似の要素には、同一の符号を付している。図11(a)に示すように、画像表示制御装置6は、撮像部14およびセンサ部15を備えておらず、代わりに、第2通信部19を備えている点で、第1実施形態に係る画像表示制御装置1と異なる。   FIG. 11A is a functional block diagram illustrating an example of an internal configuration of a system including the image display control device 6 according to the fourth embodiment. In FIG. 11A, the same or similar elements as those in the image display control apparatus 1 (see FIG. 2) according to the first embodiment are denoted by the same reference numerals. As shown in FIG. 11A, the image display control device 6 does not include the imaging unit 14 and the sensor unit 15, but instead includes the second communication unit 19. This is different from the image display control device 1.

画像表示制御装置6は、デスクトップ型のコンピュータに、AR表示プログラムをインストールしたものである。画像表示制御装置6は、一般的に机上に据え置きするものであって、操作者が現場に持って行くものではない。画像表示制御装置6は、第1実施形態に係る画像表示制御装置1における撮像部14およびセンサ部15を備えておらず、表示部16も据え置き型の液晶表示装置などである。第3実施形態においては、第1実施形態に係る画像表示制御装置1の撮像部14、センサ部15および表示部16に代わるものとして、例えばヘッドマウントディスプレイ5を使用する。   The image display control device 6 is obtained by installing an AR display program on a desktop computer. The image display control device 6 is generally installed on a desk and is not taken by the operator to the site. The image display control device 6 does not include the imaging unit 14 and the sensor unit 15 in the image display control device 1 according to the first embodiment, and the display unit 16 is also a stationary liquid crystal display device or the like. In the third embodiment, for example, a head mounted display 5 is used as a substitute for the imaging unit 14, the sensor unit 15, and the display unit 16 of the image display control device 1 according to the first embodiment.

第2通信部19は、ヘッドマウントディスプレイ5の通信部59(後述)との間で、例えばBluetooth(登録商標)などの無線通信を行うものである。なお、第2通信部19と通信部59とは、無線通信を行うものに限定されず、有線通信を行うものであってもよい。   The second communication unit 19 performs wireless communication such as Bluetooth (registered trademark) with the communication unit 59 (described later) of the head mounted display 5. In addition, the 2nd communication part 19 and the communication part 59 are not limited to what performs wireless communication, You may perform wired communication.

図11(b)は、ヘッドマウントディスプレイ5の一例を簡略化して示す図である。ヘッドマウントディスプレイ5は、操作者が頭部に装着する眼鏡型の表示装置であり、制御部51、撮像部54、センサ部55、表示部56、通信部59、および、バス58を備えている。   FIG. 11B is a diagram schematically illustrating an example of the head mounted display 5. The head mounted display 5 is a glasses-type display device worn by an operator on the head, and includes a control unit 51, an imaging unit 54, a sensor unit 55, a display unit 56, a communication unit 59, and a bus 58. .

撮像部54は、撮像装置(カメラ)を備えている。撮像部54は、撮像装置によって撮像された静止画または動画の画像データを制御部51に入力する。センサ部55は、3軸加速度センサ、3軸ジャイロセンサ、方位センサ、GPSを備えている。センサ部55は、各センサが検出した検出信号を制御部51に入力する。表示部56は、例えば液晶表示装置などの表示装置を備えている。表示部56は、制御部51から入力される画像を表示装置に表示させる。通信部59は、画像表示制御装置6の第2通信部19との間で無線通信を行うものである。制御部51は、ヘッドマウントディスプレイ5が備える各部の動作を統括制御するものであり、CPUによって実現されている。制御部51は、撮像部54より入力される画像データ、および、センサ部55より入力される検出信号を、通信部59によって、画像表示制御装置6に送信させる。また、制御部51は、通信部59が画像表示制御装置6より受信した画像を、表示部56に表示させる。   The imaging unit 54 includes an imaging device (camera). The imaging unit 54 inputs still image or moving image data captured by the imaging device to the control unit 51. The sensor unit 55 includes a triaxial acceleration sensor, a triaxial gyro sensor, an orientation sensor, and a GPS. The sensor unit 55 inputs detection signals detected by the sensors to the control unit 51. The display unit 56 includes a display device such as a liquid crystal display device. The display unit 56 displays the image input from the control unit 51 on the display device. The communication unit 59 performs wireless communication with the second communication unit 19 of the image display control device 6. The control unit 51 performs overall control of the operation of each unit included in the head mounted display 5, and is realized by a CPU. The control unit 51 causes the image display control device 6 to transmit the image data input from the imaging unit 54 and the detection signal input from the sensor unit 55 via the communication unit 59. In addition, the control unit 51 causes the display unit 56 to display the image received by the communication unit 59 from the image display control device 6.

つまり、ヘッドマウントディスプレイ5は、第1実施形態に係る画像表示制御装置1における撮像部14、センサ部15および表示部16の機能を有するデバイスであって、操作者の移動に伴って移動可能としたものである。ヘッドマウントディスプレイ5と画像表示制御装置6とは、通信部59と第2通信部19とで各種信号を送受信することにより、全体として、第1実施形態に係る画像表示制御装置1と同様の機能を有する。   That is, the head mounted display 5 is a device having the functions of the imaging unit 14, the sensor unit 15, and the display unit 16 in the image display control device 1 according to the first embodiment, and is movable with the movement of the operator. It is a thing. The head mounted display 5 and the image display control device 6 transmit and receive various signals between the communication unit 59 and the second communication unit 19, so that functions similar to those of the image display control device 1 according to the first embodiment as a whole. Have

第4実施形態においても、第1実施形態と同様の効果を奏することができる。   In the fourth embodiment, the same effect as that of the first embodiment can be obtained.

なお、上記第1〜第4実施形態においては、汎用的なコンピュータにAR表示プログラム(および費用算出プログラム)をインストールすることで画像表示制御装置1(1’,1”,6)を実現した場合について説明したが、これに限られない。例えば、初めから(製造時から)、AR表示プログラム(および費用算出プログラム)を記憶している、専用の画像表示制御装置1(1’,1”,6)であってもよい。   In the first to fourth embodiments, the image display control device 1 (1 ′, 1 ″, 6) is realized by installing the AR display program (and cost calculation program) in a general-purpose computer. However, the present invention is not limited to this, for example, the dedicated image display control device 1 (1 ′, 1 ″, which stores the AR display program (and the cost calculation program) from the beginning (from the time of manufacture). 6).

上記第1〜第4実施形態においては、本発明を建物の建築に利用した場合について説明したが、これに限られない。本発明は、高速道路や橋の建設などにも利用することができるし、土木工事においても利用することができる。   In the said 1st-4th embodiment, although the case where this invention was utilized for building construction was demonstrated, it is not restricted to this. The present invention can be used for construction of highways and bridges, and can also be used for civil engineering work.

また、本発明は、建設工事や土木工事以外でも利用することができる。例えば、AR技術で、実際の画像に実在しない物体を合成した合成画像をリアルタイムに表示するときに、合成する物体が日時によって変化する場合に、本発明を利用することができる。   The present invention can also be used for other than construction work and civil engineering work. For example, the present invention can be used when an object to be synthesized changes according to the date and time when a synthesized image obtained by synthesizing an object that does not exist in an actual image is displayed in real time using the AR technology.

本発明に係る画像表示制御装置およびプログラムは、上述した実施形態に限定されるものではない。本発明に係る画像表示制御装置およびプログラムの各部の具体的な構成は、種々に設計変更自在である。   The image display control apparatus and program according to the present invention are not limited to the above-described embodiments. The specific configuration of each part of the image display control device and the program according to the present invention can be varied in design in various ways.

1,1’,1”,6 :画像表示制御装置
11 :制御部
111 :データ取得部
112 :日時設定部(設定手段)
112’ :費用設定部(設定手段)
113 :撮像情報取得部
114 :撮像画像取得部
115 :表示制御部
115a,115a’ :抽出部
115b :投影処理部
115c :合成部
116 :選択受付部
117 :削除処理部
118 :費用算出部
12 :記憶部(記憶装置、プログラム記憶部)
13 :操作部
14 :撮像部
15 :センサ部
16 :表示部
17 :通信部
18 :バス
19 :第2通信部
2 :通信回線
3 :サーバ
41 :表示画面
42 :表示画像
43 :機能ボタン
5 :ヘッドマウントディスプレイ
51 :制御部
54 :撮像部
55 :センサ部
56 :表示部
58 :バス
59 :通信部
1, 1 ′, 1 ″, 6: Image display control device 11: Control unit 111: Data acquisition unit 112: Date and time setting unit (setting means)
112 ': Cost setting section (setting means)
113: Imaging information acquisition unit 114: Captured image acquisition unit 115: Display control unit 115a, 115a ′: Extraction unit 115b: Projection processing unit 115c: Composition unit 116: Selection reception unit 117: Deletion processing unit 118: Cost calculation unit 12: Storage unit (storage device, program storage unit)
13: Operation unit 14: Imaging unit 15: Sensor unit 16: Display unit 17: Communication unit 18: Bus 19: Second communication unit 2: Communication line 3: Server 41: Display screen 42: Display image 43: Function button 5: Head mounted display 51: Control unit 54: Imaging unit 55: Sensor unit 56: Display unit 58: Bus 59: Communication unit

Claims (8)

コンピュータを、
記憶装置に記憶されている三次元物体のデータを取得するデータ取得手段と、
撮像装置が撮像した画像を取得する撮像画像取得手段と、
前記撮像画像取得手段が取得した画像に、前記データ取得手段が取得したデータに基づく前記三次元物体の画像を合成して、表示装置に表示させる表示制御手段と、
日時または総費用を設定する設定手段と、
して機能させ、
前記三次元物体のデータは、構成要素ごとのデータを含んでおり、
各構成要素のデータは、三次元の位置データと、日時データまたは費用データとを含んでおり、
前記表示制御手段は、前記日時データおよび前記設定手段によって設定された日時、または、前記費用データおよび前記設定手段によって設定された総費用に基づいて、前記三次元物体の画像を合成する、
ことを特徴とするプログラム。
Computer
Data acquisition means for acquiring data of a three-dimensional object stored in a storage device;
Captured image acquisition means for acquiring an image captured by the imaging device;
Display control means for combining the image acquired by the captured image acquisition means with the image of the three-dimensional object based on the data acquired by the data acquisition means, and displaying it on a display device;
A setting means to set the date and time or total cost,
To function,
The data of the three-dimensional object includes data for each component,
The data of each component includes three-dimensional position data and date / time data or cost data.
The display control unit synthesizes the image of the three-dimensional object based on the date and time set by the setting unit or the total cost set by the cost data and the setting unit.
A program characterized by that.
前記表示制御手段は、前記日時データが前記設定手段によって設定された日時より前を示す構成要素に基づいて、前記三次元物体の画像を合成する、
請求項1に記載のプログラム。
The display control means synthesizes the image of the three-dimensional object based on a component indicating the date and time before the date and time set by the setting means;
The program according to claim 1.
前記各構成要素のデータは、順番を示す番号データをさらに含んでおり、
前記表示制御手段は、前記構成要素の費用データを番号データの順に積算していき、積算値が前記設定手段によって設定された総費用を超える前までの各構成要素に基づいて、前記三次元物体の画像を合成する、
請求項1に記載のプログラム。
The data of each component further includes number data indicating the order,
The display control means integrates the cost data of the constituent elements in the order of number data, and based on the constituent elements until the integrated value exceeds the total cost set by the setting means, the three-dimensional object Combining images of
The program according to claim 1.
前記コンピュータを、前記撮像装置の位置および撮像方向を示す撮像情報を取得する撮像情報取得手段としてさらに機能させ、
前記表示制御手段は、前記撮像情報に基づいて前記三次元物体を投影した二次元画像を合成する、
請求項1ないし3のいずれかに記載のプログラム。
Causing the computer to further function as imaging information acquisition means for acquiring imaging information indicating a position and an imaging direction of the imaging device;
The display control means synthesizes a two-dimensional image obtained by projecting the three-dimensional object based on the imaging information;
The program according to any one of claims 1 to 3.
前記設定手段が設定する日時は現在の日時である、請求項1ないし4のいずれかに記載のプログラム。   The program according to any one of claims 1 to 4, wherein the date and time set by the setting means is a current date and time. 前記撮像画像取得手段が取得した画像に合成される前記三次元物体の画像は、半透明である、請求項1ないし5のいずれかに記載のプログラム。   The program according to any one of claims 1 to 5, wherein an image of the three-dimensional object combined with an image acquired by the captured image acquisition unit is translucent. 前記三次元物体は建築物である、請求項1ないし6のいずれかに記載のプログラム。   The program according to any one of claims 1 to 6, wherein the three-dimensional object is a building. 請求項1ないし7のいずれかに記載のプログラムを記憶したプログラム記憶部と、
前記プログラム記憶部に記憶されたプログラムに基づいて処理を実行する制御部と、
を備えていることを特徴とする画像表示制御装置。
A program storage unit storing the program according to claim 1;
A control unit that executes processing based on a program stored in the program storage unit;
An image display control device comprising:
JP2017021957A 2017-02-09 2017-02-09 Image display control device and program Active JP6687556B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017021957A JP6687556B2 (en) 2017-02-09 2017-02-09 Image display control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017021957A JP6687556B2 (en) 2017-02-09 2017-02-09 Image display control device and program

Publications (2)

Publication Number Publication Date
JP2018128894A true JP2018128894A (en) 2018-08-16
JP6687556B2 JP6687556B2 (en) 2020-04-22

Family

ID=63172982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017021957A Active JP6687556B2 (en) 2017-02-09 2017-02-09 Image display control device and program

Country Status (1)

Country Link
JP (1) JP6687556B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011368A (en) * 2013-06-26 2015-01-19 国立大学法人佐賀大学 Display control device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011368A (en) * 2013-06-26 2015-01-19 国立大学法人佐賀大学 Display control device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石井裕剛ほか: "拡張現実感を利用した原子力発電プラントの解体支援手法の提案と評価", 日本バーチャルリアリティ学会論文誌, vol. 第13巻 第2号, JPN6019040833, 30 June 2008 (2008-06-30), JP, pages 289 - 300, ISSN: 0004139581 *

Also Published As

Publication number Publication date
JP6687556B2 (en) 2020-04-22

Similar Documents

Publication Publication Date Title
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US9525964B2 (en) Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
JP6329343B2 (en) Image processing system, image processing apparatus, image processing program, and image processing method
US8902288B1 (en) Photo-image-based 3D modeling system on a mobile device
US20160269631A1 (en) Image generation method, system, and apparatus
JP6144364B2 (en) Work support data creation program
US9239892B2 (en) X-ray vision for buildings
KR101989969B1 (en) Contents experience system of architectural sites based augmented reality
JP2008191717A (en) Information processing apparatus, image display apparatus, information processing system, method for controlling them, and program for causing computer to execute the method
JP5363971B2 (en) Landscape reproduction system
JP3245336B2 (en) Modeling method and modeling system
JP2018128815A (en) Information presentation system, information presentation method and information presentation program
Devaux et al. 3D urban geovisualization: In situ augmented and mixed reality experiments
JP5862865B2 (en) Composite image display device and composite image display program
US9881419B1 (en) Technique for providing an initial pose for a 3-D model
JP6687556B2 (en) Image display control device and program
JP5513806B2 (en) Linked display device, linked display method, and program
JP2013092888A (en) Data processor
JP2009123076A (en) Three-dimensional cad system program
JP6267381B1 (en) Sign installation data generation and transmission program, information processing communication terminal and information processing communication server for executing sign installation data generation and transmission program
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
US10080963B2 (en) Object manipulation method, object manipulation program, and information processing apparatus
JP6123618B2 (en) Video output apparatus, video output method, and program
JP2015121892A (en) Image processing apparatus, and image processing method
JP6051835B2 (en) Video output apparatus, video output method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200402

R150 Certificate of patent or registration of utility model

Ref document number: 6687556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250