JP2012189433A - Surface formation supporting system, surface formation supporting device, and surface formation supporting program - Google Patents

Surface formation supporting system, surface formation supporting device, and surface formation supporting program Download PDF

Info

Publication number
JP2012189433A
JP2012189433A JP2011052922A JP2011052922A JP2012189433A JP 2012189433 A JP2012189433 A JP 2012189433A JP 2011052922 A JP2011052922 A JP 2011052922A JP 2011052922 A JP2011052922 A JP 2011052922A JP 2012189433 A JP2012189433 A JP 2012189433A
Authority
JP
Japan
Prior art keywords
construction
image
projection
information
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011052922A
Other languages
Japanese (ja)
Inventor
Shunsuke Someya
俊介 染谷
Hiroshi Tabai
宏 多葉井
Jun Oishi
潤 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2011052922A priority Critical patent/JP2012189433A/en
Publication of JP2012189433A publication Critical patent/JP2012189433A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a surface formation supporting system, a surface formation supporting device, and a surface formation supporting program that are capable of shortening time required for construction work.SOLUTION: A surface formation supporting system comprises: an information generating device for generating image information for each photographic position obtained by virtually photographing a prescribed image displayed on a predetermined target surface in a preset photographic direction from a plurality of preset photographic positions in a virtual space; and a plurality of projecting devices installed such that the positional relationship is the same as the plurality of photographic positions on the target surface to project an image displayed according to the corresponding image information in a corresponding photographing direction on a foundation surface that is a foundation when forming the target surface in a real space.

Description

本発明は、面形成支援システム、面形成支援装置、及び面形成支援プログラムに関し、特に、予め定められた目標面の形成を支援する面形成支援システム、面形成支援装置、及び面形成支援プログラムに関する。   The present invention relates to a surface formation support system, a surface formation support device, and a surface formation support program, and more particularly, to a surface formation support system, a surface formation support device, and a surface formation support program that support formation of a predetermined target surface. .

近年、像解析によって面形状の計測対象とする対象物の表面の三次元形状情報を得る技術が多く用いられるようになってきた。表面の三次元形状情報を得る際に使用される技術として、所定の撮像視野内に存在する計測対象に光パタンを投影し、計測対象の三次元形状に応じて変形した光パタンの変形量を解析する技術が知られている。この代表的な方法としては、光切断法や空間コード法、縞解析法などが挙げられる。これらは全て三角測量の原理に基づいているが、中でも、縞解析法に関しては空間縞解析や時間縞解析など多くの手法が提案されており、高い計測精度を得る手法として知られている。   In recent years, a technique for obtaining three-dimensional shape information of the surface of an object to be measured for surface shape by image analysis has been used. As a technique used to obtain the three-dimensional shape information of the surface, the optical pattern is projected onto the measurement target existing within the predetermined imaging field of view, and the deformation amount of the optical pattern deformed according to the three-dimensional shape of the measurement target is calculated. Techniques for analysis are known. Typical examples of the method include a light cutting method, a space code method, and a fringe analysis method. These are all based on the principle of triangulation, but among them, many methods such as space fringe analysis and time fringe analysis have been proposed for the fringe analysis method and are known as methods for obtaining high measurement accuracy.

通常、これらの手法では、光パタンが投影された計測対象面の読み取りにエリアセンサを用いているが、エリアセンサを用いると、計測対象面が1撮像視野内に収まらないことが多く、エリアセンサを縦及び横の双方に移動させながら1撮像視野ずつ複数回に分けて撮像する必要が度々生じ、撮像時間が長くなってしまうという問題が起こっている。
この対応策として、例えば、迅速かつ高精度に三次元形状情報を計測できる三次元形状計測装置が提案されている(特許文献1参照)。この装置は、位置に応じて周期的に輝度が変化する光パタンを、計測対象物が計測される搬送ステージ上の一部の領域へ投影し、光パタン照射領域を撮像する第1のラインセンサと、光パタンの非照射領域を撮像する第2のラインセンサとを有し、第1のラインセンサが撮像した画像および第2のラインセンサが撮像した画像から、背景情報を除去した画像に含まれるある画素における光パタンの位相を、画像における画素とその周辺の画素との輝度値に基づいて算出し、算出した位相に基づいて計測対象の高さ情報を算出するものである。これにより、ラインセンサに対して計測対象を主走査方向に相対的に移動させる回数を減らしつつ、高解像度で計測対象を撮像することが可能になった。
Usually, in these methods, an area sensor is used to read a measurement target surface on which an optical pattern is projected. However, when an area sensor is used, the measurement target surface often does not fit within one imaging field of view. There is a problem in that it is often necessary to divide the field of view in multiple directions while moving the image both vertically and horizontally, and the imaging time becomes long.
As a countermeasure, for example, a three-dimensional shape measuring apparatus capable of measuring three-dimensional shape information quickly and with high accuracy has been proposed (see Patent Document 1). This apparatus projects a light pattern whose luminance periodically changes according to a position onto a partial area on a conveyance stage where a measurement object is measured, and first line sensor for imaging a light pattern irradiation area And a second line sensor that images a non-irradiated area of the optical pattern, and is included in an image obtained by removing background information from an image captured by the first line sensor and an image captured by the second line sensor. The phase of the light pattern in a certain pixel is calculated based on the luminance values of the pixel in the image and the surrounding pixels, and the height information of the measurement target is calculated based on the calculated phase. This makes it possible to capture the measurement target with high resolution while reducing the number of times the measurement target is moved relative to the line sensor in the main scanning direction.

特開2009−31150号公報JP 2009-31150 A

ところで、前述した三次元形状を計測する技術を利用して、建設物における予め定められた面を目標とする高さとなるように施工する際に、当該技術により計測された三次元形状により示される上記予め定められた面の高さと、上記目標とする高さとのズレを施工作業者に提示する技術(以下、「施工支援技術」という。)が考えられる。   By the way, using the above-described technology for measuring a three-dimensional shape, the construction surface is indicated by the three-dimensional shape measured by the technology when it is constructed so that a predetermined surface of the building has a target height. A technique (hereinafter referred to as “construction support technology”) that presents a construction worker with a deviation between the predetermined height of the surface and the target height is conceivable.

上記特許文献1に開示されている技術を上記施工支援技術として適用して、実空間にある立体的な施工対象物に施工を施して面を形成する場合、施工途中の面の形状を計測して施工作業者に提示することはできるが、提示された施工途中の面の形状を参照しつつ施工対象物に対して施工する必要があるため、施工作業に時間がかかってしまう、という問題点があった。   When the technique disclosed in Patent Document 1 is applied as the construction support technique and a surface is formed by performing construction on a three-dimensional construction object in real space, the shape of the surface during construction is measured. Although it can be presented to the construction worker, it is necessary to construct the construction object while referring to the shape of the surface in the middle of construction, so the construction work takes time. was there.

本発明は、このような課題を解決するためになされたものであり、その目的は、施工作業に要する時間を短縮させることができる面形成支援システム、面形成支援装置、及び面形成支援プログラムを提供することにある。   The present invention has been made to solve such a problem, and its purpose is to provide a surface formation support system, a surface formation support device, and a surface formation support program capable of reducing the time required for construction work. It is to provide.

上記目的を達成するために、請求項1に記載の面形成支援システムは、仮想空間において、予め定められた目標面に表示された所定画像を予め設定した複数の撮影位置から予め設定した撮影方向に向けて仮想的に撮影することにより得られる前記撮影位置毎の画像情報を生成する情報生成装置と、実空間において、前記目標面に対応する形成目標面に対して、前記目標面に対する前記複数の撮影位置と同一の位置関係になるよう各々設置され、対応する前記画像情報により示される画像を、前記形成目標面を形成する際の基礎となる基礎面に、前記撮影方向に対応する投影方向に向けて投影する複数の投影装置と、を備えている。   In order to achieve the above object, the surface formation support system according to claim 1, in the virtual space, a predetermined image displayed on a predetermined target surface is set in advance from a plurality of predetermined shooting positions. An information generation device that generates image information for each of the shooting positions obtained by virtually shooting toward the object, and the plurality of the target surfaces corresponding to the target surfaces in the real space A projection direction corresponding to the photographing direction is set on the base surface that is the base position when forming the formation target surface, and the image indicated by the corresponding image information is installed so as to have the same positional relationship as the photographing position of A plurality of projection devices that project toward the screen.

請求項1に記載の面形成支援システムによれば、情報生成装置が、仮想空間において、予め定められた目標面に表示された所定画像を予め設定された複数の撮影位置から予め設定された撮影方向に対して仮想的に撮影することにより得られる位置毎の画像情報を生成し、複数の投影装置が、実空間において、目標面に対応する形成目標面に対して、目標面に対する複数の撮影位置と同一の位置関係になるよう各々設置され、情報生成装置により生成された各々対応する画像情報により得られる画像を、目標面を形成する際の基礎となる基礎面に、各々対応する撮影方向に対応する投影方向に向けて投影する。これにより、施工面とは異なる位置において表示された三次元位置の測定結果を参照しながら施工する場合に比較して、より短時間で施工を完了することができる。   According to the surface formation support system according to claim 1, the information generation apparatus captures a predetermined image displayed on a predetermined target surface in a virtual space from a plurality of predetermined photographing positions. Image information for each position obtained by virtually shooting with respect to a direction is generated, and a plurality of projection apparatuses capture a plurality of images of a target surface with respect to a formation target surface corresponding to the target surface in real space. Shooting directions corresponding to the base plane that forms the target plane for the images obtained by the corresponding image information each installed so as to have the same positional relationship as the position and generated by the information generating device Projecting toward the projection direction corresponding to. Thereby, compared with the case where it constructs, referring the measurement result of the three-dimensional position displayed in the position different from a construction surface, construction can be completed in a shorter time.

なお、請求項1に記載の面形成支援システムにおいて、請求項2に記載の発明のように、前記情報生成装置は、前記実空間における前記複数の投影装置の各々の設置位置及び投影方向の入力を受け付ける受付手段を備え、前記受付手段により受け付けられた複数の前記設置位置及び前記投影方向をそれぞれ複数の前記撮影位置及び前記撮影方向として設定するようにしても良い。これにより、情報生成装置において設定された撮影位置及び撮影方向に投影装置を位置決めする場合に比較して、投影装置の設置作業を容易に行うことができる。   In the surface formation support system according to claim 1, as in the invention according to claim 2, the information generation device is configured to input an installation position and a projection direction of each of the plurality of projection devices in the real space. And a plurality of installation positions and projection directions received by the reception means may be set as the plurality of imaging positions and the imaging directions, respectively. Thereby, the installation operation of the projection apparatus can be easily performed as compared with the case where the projection apparatus is positioned in the imaging position and the imaging direction set in the information generation apparatus.

また、請求項1または2に記載の面形成支援システムは、請求項3に記載の発明のように、前記複数の投影装置の各々より投影された画像を撮影する撮影装置と、前記撮影装置により撮影された画像における前記複数の投影装置の各々より投影された画像間のずれ量に基づいて、前記形成目標面と前記基礎面との前記投影方向に対するずれ量を示す物理量を計測する計測装置と、前記計測装置により計測された物理量が予め定められた範囲内となるように前記基礎面に対して前記目標面を形成する面形成装置とを更に備えるようにしてもよい。これにより、目標面を自動的に且つ高精度で形成することができる。   According to a first aspect of the present invention, there is provided a surface formation support system according to the third aspect of the present invention, comprising: an imaging device that captures an image projected from each of the plurality of projection devices; and the imaging device. A measuring device that measures a physical quantity indicating a shift amount between the formation target surface and the base surface with respect to the projection direction based on a shift amount between images projected from each of the plurality of projection devices in a captured image; A surface forming device that forms the target surface with respect to the base surface may be further provided so that the physical quantity measured by the measuring device falls within a predetermined range. As a result, the target surface can be formed automatically and with high accuracy.

また、請求項3記載の面形成支援システムにおいて、請求項4に記載の発明のように、前記所定画像は格子模様の画像であり、前記計測装置は、前記撮影装置により撮影された画像における複数の前記投影装置の各々より投影された画像間の対応する格子点のずれ量に基づいて、前記物理量を計測するようにしても良い。これにより、簡単かつ正確にずれ量を示す物理量を計測することができる。   Further, in the surface formation support system according to claim 3, as in the invention according to claim 4, the predetermined image is a lattice pattern image, and the measuring device includes a plurality of images taken by the photographing device. The physical quantity may be measured based on the shift amount of the corresponding grid point between the images projected from each of the projection apparatuses. Thereby, the physical quantity indicating the amount of deviation can be measured easily and accurately.

一方、上記目的を達成するために、請求項5に記載の面形成支援装置は、仮想空間において、予め定められた目標面に表示された所定画像を予め設定した複数の撮影位置から予め設定した撮影方向に向けて仮想的に撮影することにより得られる前記撮影位置毎の画像情報を生成する情報生成手段と、実空間において、前記目標面に対応する形成目標面に対して、前記目標面に対する前記複数の撮影位置と同一の位置関係になるよう各々設置され、対応する前記画像情報により示される画像を、前記目標面を形成する際の基礎となる基礎面に、前記撮影方向に対応する投影方向に向けて投影する複数の投影手段と、を備えている。   On the other hand, in order to achieve the above object, the surface formation support device according to claim 5 presets a predetermined image displayed on a predetermined target surface from a plurality of predetermined shooting positions in a virtual space. Information generating means for generating image information for each shooting position obtained by virtually shooting in the shooting direction; and in a real space, with respect to the formation target surface corresponding to the target surface, Projecting images corresponding to the shooting directions onto the base planes that are installed so as to have the same positional relationship as the plurality of shooting positions and that are indicated by the corresponding image information and form the target plane. A plurality of projection means for projecting in the direction.

従って、請求項5に記載の面形成支援装置によれば、請求項1に記載の発明と同様に作用させることができるので、請求項1に記載の発明のように、施工面とは異なる位置において表示された三次元位置の測定結果を参照しながら施工する場合に比較して、より短時間で施工を完了することができる。   Therefore, according to the surface formation support device according to claim 5, since it can be operated in the same manner as the invention according to claim 1, the position different from the construction surface as in the invention according to claim 1. The construction can be completed in a shorter time compared to the construction with reference to the measurement result of the three-dimensional position displayed in (1).

また、上記目的を達成するために、請求項6に記載の面形成支援プログラムは、仮想空間において、予め定められた目標面に表示された所定画像を予め設定した複数の撮影位置から予め設定した撮影方向に向けて仮想的に撮影することにより得られる前記撮影位置毎の画像情報を生成する情報生成ステップと、実空間において、前記目標面に対応する形成目標面に対して、前記目標面に対する前記複数の撮影位置と同一の位置関係になるよう各々設置された複数の投影装置に対して、対応する前記画像情報により示される画像を、前記目標面を形成する際の基礎となる基礎面に、前記撮影方向に対応する前記投影方向に向けて投影させる投影ステップとをコンピュータに実行させるためのものである。   In order to achieve the above object, the surface formation support program according to claim 6 presets a predetermined image displayed on a predetermined target surface in a virtual space from a plurality of preset photographing positions. An information generation step for generating image information for each shooting position obtained by virtually shooting in the shooting direction; and in a real space, with respect to the formation target surface corresponding to the target surface, For a plurality of projection devices installed so as to be in the same positional relationship as the plurality of photographing positions, the images indicated by the corresponding image information are used as a base surface that forms the basis for forming the target surface. And causing the computer to execute a projection step of projecting in the projection direction corresponding to the imaging direction.

従って、請求項6に記載の面形成支援プログラムによれば、コンピュータを請求項1に記載の発明と同様に作用させることができるので、請求項1に記載の発明のように、施工面とは異なる位置において表示された三次元位置の測定結果を参照しながら施工する場合に比較して、より短時間で施工を完了することができる。   Therefore, according to the surface formation support program according to claim 6, since the computer can be operated in the same manner as the invention according to claim 1, the construction surface is the same as the invention according to claim 1. The construction can be completed in a shorter time compared to the case of construction with reference to the measurement results of the three-dimensional positions displayed at different positions.

本発明によれば、施工面とは異なる位置において表示された三次元位置の測定結果を参照しながら施工する場合に比較して、施工作業に要する時間を短縮させることができる、という効果が得られる。   According to the present invention, it is possible to reduce the time required for the construction work as compared with the case of construction while referring to the measurement result of the three-dimensional position displayed at a position different from the construction surface. It is done.

実施形態に係る面形成支援システムの原理を説明するための概念図である。It is a conceptual diagram for demonstrating the principle of the surface formation assistance system which concerns on embodiment. 第1実施形態に係る面形成支援システムの全体構成図である。1 is an overall configuration diagram of a surface formation support system according to a first embodiment. 第1実施形態に係る面形成支援システムの電気系の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the electric system of the surface formation assistance system which concerns on 1st Embodiment. 第1実施形態に係る面形成支援システムにおけるPCの記憶部の記憶内容を示す模式図である。It is a schematic diagram which shows the memory content of the memory | storage part of PC in the surface formation assistance system which concerns on 1st Embodiment. 実施形態に係る面形成支援システムにおけるプロジェクタの投影方向を示す図であり、(A)は上面図であり、(B)は側面図である。It is a figure which shows the projection direction of the projector in the surface formation assistance system which concerns on embodiment, (A) is a top view, (B) is a side view. 第1実施形態に係る投影情報生成処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the projection information generation process program which concerns on 1st Embodiment. 第1実施形態に係る施工支援処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the construction assistance processing program which concerns on 1st Embodiment. 第1実施形態に係る施工支援処理プログラムにおいて表示される設置支援画面を示す図である。It is a figure which shows the installation assistance screen displayed in the construction assistance processing program which concerns on 1st Embodiment. (A)乃至(C)は、施工対象物の施工状態を示す側面概略図であり、(D)乃至(F)は、(A)乃至(C)に示す各々の施工状態において2台のプロジェクタにより施工面に表示される格子模様を示す図である。(A) thru | or (C) is a side schematic diagram which shows the construction state of a construction target object, (D) thru | or (F) are two projectors in each construction state shown to (A) thru | or (C). It is a figure which shows the lattice pattern displayed on a construction surface by. 第2実施形態に係る面形成支援システムの全体構成図である。It is a whole block diagram of the surface formation assistance system which concerns on 2nd Embodiment. 第2実施形態に係る施工支援処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the construction assistance processing program which concerns on 2nd Embodiment. 第2実施形態に係る施工支援処理プログラムにおいて表示される入力画面を示す図である。It is a figure which shows the input screen displayed in the construction assistance processing program which concerns on 2nd Embodiment. 第2実施形態に係る投影情報生成処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the projection information generation process program which concerns on 2nd Embodiment. 第3実施形態に係る面形成支援システムの電気系の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the electric system of the surface formation assistance system which concerns on 3rd Embodiment. (A)は、ずれ量の導出方法を説明するための正面概略図であり、(B)は、ずれ量の導出方法を説明するための上面概略図である。(A) is a schematic front view for explaining a method for deriving a deviation amount, and (B) is a schematic top view for explaining a method for deriving a deviation amount. 第3実施形態に係る施工処理プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the construction processing program which concerns on 3rd Embodiment. 本発明の応用例の説明に供する側面概略図である。It is a schematic side view for explaining an application example of the present invention. 本発明の応用例の説明に供する側面概略図である。It is a schematic side view for explaining an application example of the present invention. 本発明の応用例の説明に供する図であり、(A)及び(B)は側面図、(C)及び(D)は斜視図である。It is a figure where it uses for description of the application example of this invention, (A) and (B) are side views, (C) and (D) are perspective views.

以下、図面を参照して、本発明の実施形態について詳細に説明する。なお、ここでは、本発明を、建築物を構成する構成物(本実施の形態では、柱)の表面に発泡ウレタンを吹き付ける施工を支援する面形成支援システムに適用した場合の形態例について説明する。また、ここでは、本発明の投影装置が2台である場合の形態例について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, a description will be given of a form example in the case where the present invention is applied to a surface formation support system that supports a construction in which urethane foam is sprayed onto the surface of a component (in this embodiment, a pillar) constituting a building. . Further, here, a description will be given of an example in which there are two projection apparatuses of the present invention.

図1は、実施形態に係る面形成支援システム1の原理を説明するための概念図である。図1に示すように、本実施形態に係る面形成支援システム1では、仮想空間10において、施工対象とする建物の三次元CAD情報により示される施工対象とする面の施工完了後の面(以下、「目標面11」という。)に仮想的に所定画像(本実施の形態では、格子模様であり、以下、「目標画像」という。)を表示した状態で、当該目標画像を予め設定した複数(本実施形態では2箇所)の撮影位置から予め設定した撮影方向に向けて仮想的に撮影することによって得られる上記撮影位置毎の画像情報を生成する。   FIG. 1 is a conceptual diagram for explaining the principle of the surface formation support system 1 according to the embodiment. As shown in FIG. 1, in the surface formation support system 1 according to the present embodiment, in a virtual space 10, a surface after the completion of construction of the surface to be constructed indicated by the three-dimensional CAD information of the building to be constructed (hereinafter referred to as the construction target) , Referred to as “target surface 11”) in a state where a predetermined image (in this embodiment, a lattice pattern, hereinafter referred to as “target image”) is virtually displayed, a plurality of preset target images are displayed. Image information for each shooting position obtained by virtually shooting from two shooting positions (in this embodiment) toward a preset shooting direction is generated.

一方、本実施形態に係る面形成支援システム1では、実空間20において、仮想空間10における目標面11と対応する面(形成目標面であり、以下、「目標面A」という。)に対して、仮想空間10における上記目標面11に対する上記複数の撮影位置と同一の位置関係になるよう、目標面Aに対して各々設置された複数(本実施形態では2台)のプロジェクタ22A、22Bにより、対応する上記画像情報により示される画像を、上記目標面Aを形成する際の基礎となる面(以下、「施工面21A」という。)に、対応する上記撮影方向に向けて投影する。なお、本実施形態に係る面形成支援システム1では、各プロジェクタ22A、22Bによる投影方向の設定を、各プロジェクタ22A、22Bをトランシットの上部測定部に個別に取り付け、当該トランシットにより測定される方向が上記撮影方向と一致するように設定することにより行う。但し、この形態に限らず、他の方位測定装置を用いて設定する形態としてもよいことは言うまでもない。   On the other hand, in the surface formation support system 1 according to the present embodiment, in the real space 20, a surface corresponding to the target surface 11 in the virtual space 10 (a formation target surface, hereinafter referred to as “target surface A”). The plurality of (two in this embodiment) projectors 22A and 22B respectively installed on the target surface A so as to have the same positional relationship as the plurality of shooting positions with respect to the target surface 11 in the virtual space 10 The image indicated by the corresponding image information is projected toward the corresponding photographing direction onto a surface (hereinafter referred to as “construction surface 21 </ b> A”) that forms the basis for forming the target surface A. In the surface formation support system 1 according to the present embodiment, the setting of the projection direction by each projector 22A, 22B is individually attached to the upper measurement unit of the transit, and the direction measured by the transit is determined. This is done by setting to match the shooting direction. However, it is needless to say that the configuration is not limited to this configuration, and may be set using another azimuth measuring device.

以上により、施工面21Aが目標面Aと一致しない状態では、各プロジェクタ22A、22Bから投影された画像がずれるため、施工作業者は、当該ずれが施工面21Aの全域で生じなくなるまで施工作業を継続して行うことにより、当該施工作業を高精度で完遂することができる。   As described above, in a state where the construction surface 21A does not coincide with the target surface A, the images projected from the projectors 22A and 22B are displaced, so that the construction worker performs the construction work until the displacement does not occur in the entire area of the construction surface 21A. By performing it continuously, the construction work can be completed with high accuracy.

このように、本実施の形態に係る面形成支援システム1では、施工面21Aに投影されている画像の状態を参照しながら当該施工面21Aに対する施工を行っているので、当該施工面とは異なる位置において表示された三次元位置の測定結果を参照しながら施工する場合に比較して、より短時間で施工を完了することができる。   Thus, in the surface formation support system 1 which concerns on this Embodiment, since it constructs with respect to the said construction surface 21A, referring the state of the image projected on the construction surface 21A, it differs from the said construction surface. The construction can be completed in a shorter time compared to the construction with reference to the measurement result of the three-dimensional position displayed at the position.

投影される目標画像は、整形なグリッド模様(格子模様)、同一位置を中心とした各々半径の異なる複数の円により構成される同心円模様、複数のドットが格子状に配列されたドット模様などであり、複数のプロジェクタ22A、22Bから投影させたときに、各々のプロジェクタ22A、22Bによる投影画像のずれが判断できる画像であれば任意である。または、複数のプロジェクタ22A、22Bから各々異なる色でベタ塗りされた画像を投影させ、各々の投影画像が重なることにより色が変化することを利用して、投影画像のずれを判断するようにしても良い。例えば、3つのプロジェクタから各々光の三原色である赤・緑・青のいずれかのベタ塗り画像をそれぞれ投影面が目標面と同じ高さとなった場合に各色の領域が全て重なるように投影させることにより、投影画像における白く表示されている領域の面積から、施工作業者が投影画像のずれを視覚的に容易に判断することができる。なお、ここでは、上述したように、格子模様を例に挙げて説明する。   The target image to be projected is a shaped grid pattern (a lattice pattern), a concentric circle pattern composed of a plurality of circles with different radii around the same position, a dot pattern in which a plurality of dots are arranged in a grid pattern, etc. Yes, any image can be used as long as it is possible to determine the deviation of the projection image of each projector 22A, 22B when projected from the plurality of projectors 22A, 22B. Alternatively, by projecting solid images with different colors from the plurality of projectors 22A and 22B, and using the fact that the colors change when the projected images overlap, the deviation of the projected images is determined. Also good. For example, solid images of red, green, and blue, which are the three primary colors of light, are projected from three projectors so that each color area overlaps when the projection plane is the same height as the target plane. Thus, the construction worker can easily visually determine the deviation of the projection image from the area of the region displayed in white in the projection image. Here, as described above, a lattice pattern will be described as an example.

なお、三次元CAD情報から目標面11を構成するとともに目標面11に格子模様を併せて表示させ、仮想空間10におけるプロジェクタ22A、22Bの位置にそれぞれ仮想的なカメラ(以下、「仮想カメラ12A、12B」という。)を配置させて、仮想カメラ12A、12Bで格子模様を撮影することで実空間20に投影させるための画像を示す画像情報を生成し、それらの画像を実空間20のそれぞれのプロジェクタ22A、22Bから投影させるようにすると良い。   Note that the target surface 11 is configured from the three-dimensional CAD information and a lattice pattern is displayed on the target surface 11, and virtual cameras (hereinafter referred to as “virtual cameras 12A, 12B ”), and image information indicating an image to be projected onto the real space 20 is generated by photographing the lattice pattern with the virtual cameras 12A and 12B. It is preferable to project from the projectors 22A and 22B.

〔第1実施形態〕
図2は、第1実施形態に係る面形成支援システム1の構成を示す全体構成図である。図2に示すように、本第1実施形態に係る面形成支援システム1は、上述した仮想空間における処理を担うパーソナル・コンピュータ(以下、「PC」という。)13と、上述した実空間における処理を担うPC24と、を備えている。なお、本実施形態に係る面形成支援システム1では、PC13が予め定められた複数の建物(以下、「管理対象建物」という。)に対する施工を統括的に管理する施工管理センタに設けられており、PC24が管理対象建物の各々の施工現場の近傍に設けられている。
[First Embodiment]
FIG. 2 is an overall configuration diagram showing the configuration of the surface formation support system 1 according to the first embodiment. As illustrated in FIG. 2, the surface formation support system 1 according to the first embodiment includes a personal computer (hereinafter referred to as “PC”) 13 that performs processing in the virtual space described above, and processing in the real space described above. PC24 which bears. In the surface formation support system 1 according to the present embodiment, the PC 13 is provided in a construction management center that comprehensively manages construction for a plurality of predetermined buildings (hereinafter referred to as “managed buildings”). PC24 is provided in the vicinity of each construction site of a management object building.

PC13は、上述したように、施工対象とする建物の三次元CAD情報により示される三次元画像を描画することにより目標面11を仮想的に構成して目標画像を表示させた状態で、当該目標画像を予め設定した2箇所の撮影位置から予め設定した撮影方向に向けて仮想的に撮影することによって得られる各撮影位置毎の画像情報を生成するものである。本実施形態に係るPC13では、この際の仮想的な撮影に仮想カメラ12Aおよび仮想カメラ12Bの2台の仮想カメラを用いる。   As described above, the PC 13 virtually configures the target surface 11 by drawing the three-dimensional image indicated by the three-dimensional CAD information of the building to be constructed, and displays the target image. Image information for each photographing position obtained by virtually photographing an image from two preset photographing positions toward a preset photographing direction is generated. In the PC 13 according to the present embodiment, two virtual cameras, a virtual camera 12A and a virtual camera 12B, are used for virtual shooting at this time.

なお、本実施形態に係る面形成支援システム1では、上記撮影位置および上記撮影方向を示す座標系として、処理対象とする建物の三次元CAD情報で用いられている3次元座標系と同一の座標系を用いており、その原点(0,0,0)の位置は当該三次元CAD情報の原点の位置と同一とされている。   In the surface formation support system 1 according to the present embodiment, the coordinate system that is the same as the three-dimensional coordinate system used in the three-dimensional CAD information of the building to be processed is used as the coordinate system indicating the photographing position and the photographing direction. The position of the origin (0, 0, 0) is the same as the position of the origin of the three-dimensional CAD information.

一方、PC24は、上述したように、目標面11に対する上記2箇所の撮影位置と同一の位置関係になるよう各々設置された2台のプロジェクタ22A、22Bにより、対応する画像情報により示される画像を施工対象物21の施工面21Aに、撮影方向と対応する投影方向に向けて投影する制御を行うものである。   On the other hand, as described above, the PC 24 displays the image indicated by the corresponding image information by the two projectors 22A and 22B installed so as to have the same positional relationship as the above two shooting positions with respect to the target surface 11. Control is performed to project onto the construction surface 21A of the construction object 21 in the projection direction corresponding to the imaging direction.

本実施形態に係るPC24は、PC13により生成された画像情報と、当該画像情報を生成する際に設定した仮想カメラ12Aおよび仮想カメラ12Bの各々の撮影位置および撮影方向の各情報とをPC13から受信する。なお、この際にPC13からPC24に送信される画像情報、撮影位置情報、および撮影方向情報を、以下ではまとめて「投影情報」という。   The PC 24 according to the present embodiment receives from the PC 13 the image information generated by the PC 13 and the information on the shooting positions and shooting directions of the virtual camera 12A and the virtual camera 12B set when the image information is generated. To do. Note that image information, shooting position information, and shooting direction information transmitted from the PC 13 to the PC 24 at this time are collectively referred to as “projection information” below.

そして、PC24は、受信した投影情報に含まれる撮影位置情報および撮影方向情報を提示する。これに応じて、施工作業者は、提示された撮影位置情報および撮影方向情報により示される撮影位置および撮影方向と一致するようにプロジェクタ22A及びプロジェクタ22Bの設置位置および投影方向を位置決めする。   Then, the PC 24 presents shooting position information and shooting direction information included in the received projection information. In response to this, the construction worker positions the installation position and the projection direction of the projector 22A and the projector 22B so as to coincide with the shooting position and the shooting direction indicated by the presented shooting position information and shooting direction information.

施工作業者による各プロジェクタ22A、22Bの位置決めが終了すると、PC24は、受信した投影情報に含まれる画像情報を対応するプロジェクタ22A、22Bに送信することにより、各プロジェクタ22A、22Bに対して、対応する画像情報により示される画像(目標画像)を施工面21Aに向けて投影させる。   When the positioning of the projectors 22A and 22B by the construction worker is completed, the PC 24 responds to the projectors 22A and 22B by transmitting the image information included in the received projection information to the corresponding projectors 22A and 22B. An image (target image) indicated by the image information to be projected is projected toward the construction surface 21A.

図3は、第1実施形態に係る面形成支援システム1の電気系の要部構成を示すブロック図である。図3に示すように、PC13は、CPU(Central Processing Unit)やRAM(Random Access Memory)を備えるとともにCPUの制御によりPC13全体を総括的に制御する制御部30、PC24に対する通信を制御する通信部31、キーボードやマウスなどの入力装置を備えるとともにこれらに対するユーザ操作により指示された情報を入力情報として制御部30に伝達する入力部32、液晶ディスプレイなどの表示装置を備えるとともに制御部30の制御に基づいて各種情報を表示装置に表示する表示部33、ROM(Read Only Memory)やその他の不揮発性メモリやハードディスクなどを備えるとともに制御部30による制御に使用されるプログラムや制御に使用される各種情報を記憶する記憶部34を備えている。   FIG. 3 is a block diagram showing a main configuration of the electrical system of the surface formation support system 1 according to the first embodiment. As shown in FIG. 3, the PC 13 includes a CPU (Central Processing Unit) and a RAM (Random Access Memory), and a control unit 30 that generally controls the entire PC 13 under the control of the CPU, and a communication unit that controls communication with the PC 24. 31, an input device such as a keyboard and a mouse, an input unit 32 that transmits information instructed by a user operation on the input device to the control unit 30 as input information, a display device such as a liquid crystal display, and the control of the control unit 30 A display unit 33 for displaying various information on the display device, a ROM (Read Only Memory), other non-volatile memory, a hard disk, etc., and a program used for control by the control unit 30 and various information used for control Is stored.

また、PC24は、CPUやRAMを備えるとともにCPUの制御によりPC24全体を総括的に制御する制御部35、PC13に対する通信を制御する通信部36、キーボードやマウスなどの入力装置を備えるとともにこれらに対するユーザ操作により指示された情報を入力情報として制御部35に伝達する入力部37、液晶ディスプレイなどの表示装置を備えるとともに制御部35の制御に基づいて各種情報を表示装置に表示する表示部38、ROMやその他の不揮発性メモリやハードディスクなどを備えるとともに制御部35による制御に使用されるプログラムや制御に使用される各種情報を記憶する記憶部39を備えている。   The PC 24 includes a CPU and a RAM, and a control unit 35 that controls the entire PC 24 under the control of the CPU, a communication unit 36 that controls communication with the PC 13, an input device such as a keyboard and a mouse, and a user for these. An input unit 37 that transmits information instructed by operation to the control unit 35 as input information, a display unit 38 that includes a display device such as a liquid crystal display and displays various information on the display device based on the control of the control unit 35, ROM And a non-volatile memory, a hard disk, and the like, and a storage unit 39 for storing programs used for control by the control unit 35 and various information used for control.

また、PC24にはプロジェクタ22A、プロジェクタ22Bが有線にて電気的に接続されており、制御部35は、各々のプロジェクタ22A、22Bに対して画像情報を出力する。画像情報を入力したプロジェクタ22A、22Bは、各々入力した画像情報を予め設定された方向に投影する。さらに、PC24はカメラ23が有線にて電気的に接続されており、制御部35は、カメラ23から撮影によって得られた画像情報(以下、「撮影情報」という。)を入力する。なお、PC24とプロジェクタ22A、22B、カメラ23とはそれぞれ有線で接続される代わりに、無線通信によって画像情報や撮影情報を送受信するようにしても良い。   Further, a projector 22A and a projector 22B are electrically connected to the PC 24 by wire, and the control unit 35 outputs image information to the projectors 22A and 22B. The projectors 22A and 22B that have input the image information project the input image information in a preset direction. Further, the camera 24 is electrically connected to the PC 24 by wire, and the control unit 35 inputs image information (hereinafter referred to as “photographing information”) obtained by photographing from the camera 23. The PC 24, the projectors 22A and 22B, and the camera 23 may transmit and receive image information and shooting information by wireless communication instead of being connected by wire.

なお、PC13とPC24との通信方式は、無線でも有線でも良く、インターネット、無線LAN(Local Area Network)など既存の通信媒体を利用することができる。   Note that the communication method between the PC 13 and the PC 24 may be wireless or wired, and an existing communication medium such as the Internet or a wireless local area network (LAN) can be used.

図4は、第1実施形態の面形成支援システム1におけるPC13の記憶部34の記憶内容を示す模式図である。図4に示すように、記憶部34は、少なくとも、三次元CAD情報34a1が記憶されたデータベース領域34a、制御部30により使用されるプログラムが記憶されたプログラム領域34bを備えている。データベース領域34aには、各々異なる建物を示す三次元CAD情報が対応する建物を特定する情報に関連付けられて予め記憶されている。そして、施工作業者などにより施工対象とする建物が指定されることにより、その建物に関連付けられた三次元CAD情報が選択されて用いられる。   FIG. 4 is a schematic diagram showing the storage contents of the storage unit 34 of the PC 13 in the surface formation support system 1 of the first embodiment. As shown in FIG. 4, the storage unit 34 includes at least a database region 34a in which three-dimensional CAD information 34a1 is stored and a program region 34b in which a program used by the control unit 30 is stored. In the database area 34a, three-dimensional CAD information indicating different buildings is stored in advance in association with information specifying the corresponding building. When a building to be constructed is designated by a construction worker or the like, 3D CAD information associated with the building is selected and used.

図5(A)は、実施形態におけるプロジェクタ22A及びプロジェクタ22Bの投影方向を示す上面図であり、図5(B)は、実施形態におけるプロジェクタ22A及びプロジェクタ22Bの投影方向を示す側面図である。プロジェクタ22A及びプロジェクタ22Bの投影方向は、投影面に垂直な軸に対する水平方向の角度θxと、投影面に垂直な軸に対する鉛直方向の角度θzにより決定される。従って、本実施形態に係る面形成支援システム1では、角度θx及び角度θzの2つの角度により、各プロジェクタ22A、22Bの投影方向を規定している。   FIG. 5A is a top view showing the projection directions of the projector 22A and the projector 22B in the embodiment, and FIG. 5B is a side view showing the projection directions of the projector 22A and the projector 22B in the embodiment. The projection directions of the projectors 22A and 22B are determined by the horizontal angle θx with respect to the axis perpendicular to the projection plane and the vertical angle θz with respect to the axis perpendicular to the projection plane. Therefore, in the surface formation support system 1 according to the present embodiment, the projection directions of the projectors 22A and 22B are defined by the two angles of the angle θx and the angle θz.

次に、本実施形態に係る面形成支援システム1の作用を説明する。   Next, the operation of the surface formation support system 1 according to the present embodiment will be described.

本実施形態に係る面形成支援システム1では、PC13によって投影情報生成処理プログラムが実行される一方、PC24によって施工支援処理プログラムが実行される。そこで、まず、図6を参照して、投影情報生成処理プログラムを実行する際のPC13の作用を説明する。なお、図6は、施工作業者等からの実行指示が入力部32を介して受け付けられた際に、PC13の制御部30により実行される投影情報生成処理プログラムの処理の流れを示すフローチャートであり、当該プログラムは記憶部34のプログラム領域34bに予め記憶されている。   In the surface formation support system 1 according to the present embodiment, the PC 13 executes the projection information generation processing program, while the PC 24 executes the construction support processing program. First, the operation of the PC 13 when executing the projection information generation processing program will be described with reference to FIG. FIG. 6 is a flowchart showing a flow of processing of the projection information generation processing program executed by the control unit 30 of the PC 13 when an execution instruction from a construction worker or the like is received via the input unit 32. The program is stored in advance in the program area 34b of the storage unit 34.

始めに、PC13の制御部30は、記憶部34から、施工対象物21を含む建物に対応する三次元CAD情報を読み出す(S101)。なお、施工対象物21を含む建物は、ステップS101にて施工作業者により入力されても、予め施工作業者により選択されて設定されていても良い。   First, the control unit 30 of the PC 13 reads out the three-dimensional CAD information corresponding to the building including the construction object 21 from the storage unit 34 (S101). The building including the construction object 21 may be input by the construction worker in step S101 or may be selected and set in advance by the construction worker.

制御部30は、施工対象物21において施工対象とする目標面11の選択指示を受け付ける(S103)。この際、制御部30は、例えばステップS101にて読み出した三次元CAD情報から三次元CADモデルを生成して表示部33に表示させるとともに、施工作業者により入力部32を介してこの三次元CADモデルからいずれかの面を選択させることにより目標面11の選択指示を受け付ける。   The control unit 30 receives an instruction to select the target surface 11 to be constructed in the construction object 21 (S103). At this time, for example, the control unit 30 generates a three-dimensional CAD model from the three-dimensional CAD information read out in step S101 and causes the display unit 33 to display the three-dimensional CAD model. An instruction to select the target surface 11 is accepted by selecting any surface from the model.

また、制御部30は、仮想空間10における仮想カメラ12A、12Bの撮影位置・撮影方向の入力を受け付ける(S105)。この際、制御部30は、例えばステップS101にて読み出した三次元CAD情報から三次元CADモデルを生成して表示部33に表示させるとともに、施工作業者により入力部32を介して仮想カメラ12A、12Bの各々の撮影位置・撮影方向の入力を促すことで、この入力を受け付ける。   In addition, the control unit 30 receives input of the shooting positions and shooting directions of the virtual cameras 12A and 12B in the virtual space 10 (S105). At this time, for example, the control unit 30 generates a three-dimensional CAD model from the three-dimensional CAD information read out in step S101 and causes the display unit 33 to display the virtual model 12A, via the input unit 32 by the construction worker. This input is accepted by prompting the user to input the shooting position and shooting direction of 12B.

なお、上記複数の仮想カメラ12A、12Bによる撮影位置は任意の位置とすることができるが、この位置が実空間20におけるプロジェクタ22A、22Bの設置位置となるため、実際に施工作業を行う際にプロジェクタ22A、22Bを設置する空間を十分に有する位置を適用する必要がある。また、施工面21Aからの距離が遠過ぎるとプロジェクタ22A、22Bにより施工面21Aに表示される画像が薄くなってしまう一方、近過ぎると施工作業の妨げとなるため、これらの点を考慮する必要がある。   Note that the shooting position by the plurality of virtual cameras 12A and 12B can be any position, but this position is the installation position of the projectors 22A and 22B in the real space 20, so when actually performing construction work. It is necessary to apply a position having a sufficient space for installing the projectors 22A and 22B. Further, if the distance from the construction surface 21A is too far, the images displayed on the construction surface 21A by the projectors 22A and 22B become thin, while if too close, the construction work is hindered. There is.

制御部30は、ステップS101にて読み出した三次元CAD情報から目標面11を仮想的に構成するとともに、この目標面11に格子模様を仮想的に描画する(S107)。   The control unit 30 virtually constructs the target surface 11 from the three-dimensional CAD information read in step S101, and virtually draws a lattice pattern on the target surface 11 (S107).

制御部30は、ステップS105にて受け付けられた撮影位置及び撮影方向となるように仮想カメラ12A、12Bを位置決めした場合の各仮想カメラ12A、12Bによって仮想的に撮影された画像を示す画像情報を生成した後に、撮影位置及び撮影方向の各情報と画像情報とを各仮想カメラ12A、12B毎に関連付けた投影情報を生成する(S109)。なお、上記画像情報の生成は、従来既知の汎用コンピュータ・グラフィックス用のアプリケーションプログラムにより行うことができるため、ここでは詳細な説明を省略する。   The control unit 30 displays image information indicating images virtually captured by the virtual cameras 12A and 12B when the virtual cameras 12A and 12B are positioned so as to be in the capturing position and the capturing direction received in step S105. After the generation, projection information is generated by associating each piece of information and image information of the shooting position and shooting direction with each virtual camera 12A, 12B (S109). The generation of the image information can be performed by a conventionally known application program for general-purpose computer graphics. Therefore, detailed description thereof is omitted here.

制御部30は、ステップS109にて生成された投影情報をPC24に対して送信する(S111)。の後に本投影情報生成処理プログラムを終了する。   The control unit 30 transmits the projection information generated in step S109 to the PC 24 (S111). After this, the projection information generation processing program is terminated.

次に、図7を参照して、施工支援処理プログラムを実行する際のPC24の作用を説明する。なお、図7は、施工作業者等からの実行指示が入力部37を介して受け付けられた際に、PC24の制御部35により実行される施工支援処理プログラムの処理の流れを示すフローチャートであり、当該プログラムは記憶部39の所定領域に予め記憶されている。   Next, the operation of the PC 24 when executing the construction support processing program will be described with reference to FIG. FIG. 7 is a flowchart showing a processing flow of the construction support processing program executed by the control unit 35 of the PC 24 when an execution instruction from the construction worker or the like is received via the input unit 37. The program is stored in advance in a predetermined area of the storage unit 39.

始めに、PC24の制御部35は、ステップS111にてPC13から送信された投影情報を受信したか否かを判断する(S201)。受信していない場合(S201;N)は、制御部35はそのまま待機する。   First, the control unit 35 of the PC 24 determines whether or not the projection information transmitted from the PC 13 in step S111 has been received (S201). If not received (S201; N), the control unit 35 stands by as it is.

投影情報を受信した場合(S201;Y)は、制御部35は、ステップS201にて受信した投影情報に含まれる撮影位置及び撮影方向を各プロジェクタ22A,22Bの設置位置及び投影方向として表示部38に表示させる(S203)。   When the projection information is received (S201; Y), the control unit 35 displays the shooting position and shooting direction included in the projection information received in step S201 as the installation position and projection direction of each projector 22A, 22B. (S203).

図8は、ステップ203にて表示させる設置支援画面40を示す図である。図8に示すように、施工支援画面40には、左側のプロジェクタ22Aの設置位置、投影方向、右側のプロジェクタ22Bの設置位置、投影方向が表示されるとともに、施工作業者が設置完了の情報を入力するための設置完了ボタン41が表示されている。施工作業者は、各々のプロジェクタ22A、22Bの設置位置・投影方向を施工支援画面40で確認し、それらの情報に応じて各々のプロジェクタ22A、22Bを設置した後に、それらの設置が完了したことを示すために設置完了ボタン41を指定する。   FIG. 8 is a diagram showing the installation support screen 40 displayed in step 203. As shown in FIG. 8, on the construction support screen 40, the installation position and projection direction of the left projector 22A, the installation position and projection direction of the right projector 22B are displayed, and the construction operator provides information on the completion of installation. An installation completion button 41 for inputting is displayed. The construction worker confirms the installation position / projection direction of each projector 22A, 22B on the construction support screen 40, and after installing each projector 22A, 22B according to the information, the installation has been completed. The installation completion button 41 is designated to indicate

制御部35は、プロジェクタ22A、22Bの設置が完了したか否かを判断する(S205)。この際、ユーザ操作により設置完了ボタン41が指定された場合に、プロジェクタ22A、22Bの設置が完了したものと判断する。   The control unit 35 determines whether or not the projectors 22A and 22B have been installed (S205). At this time, when the installation completion button 41 is designated by the user operation, it is determined that the installation of the projectors 22A and 22B is completed.

プロジェクタ22A、22Bの設置が完了した場合(S205;Y)は、制御部35は、ステップS201にて受信した投影情報に含まれる画像情報に基づいて、プロジェクタ22A、22Bからそれぞれ対応する画像を投影させ(S207)、その後に、本施工支援処理プログラムを終了させる。   When the installation of the projectors 22A and 22B is completed (S205; Y), the control unit 35 projects corresponding images from the projectors 22A and 22B based on the image information included in the projection information received in step S201. (S207), and then the construction support processing program is terminated.

図9(A)乃至図9(C)は、施工対象物21の施工状態を示す側面概略図であり、図9(D)乃至図9(F)は、複数のプロジェクタ22A、22Bにより施工面21Aに投影される格子模様を示す図である。   9 (A) to 9 (C) are schematic side views showing a construction state of the construction object 21, and FIGS. 9 (D) to 9 (F) are construction surfaces by a plurality of projectors 22A and 22B. It is a figure which shows the lattice pattern projected on 21A.

図9(A)に示すように、目標面Aと施工対象物21の施工面21Aとが一致していない場合には、図9(D)に示すように、プロジェクタ22Aから投影された格子模様42と、プロジェクタ22Bから投影された格子模様43との位置が各々一致せず、ずれた位置に表示される。   As shown in FIG. 9A, when the target surface A and the construction surface 21A of the construction object 21 do not match, as shown in FIG. 9D, the lattice pattern projected from the projector 22A 42 and the lattice pattern 43 projected from the projector 22B do not coincide with each other, and are displayed at shifted positions.

図9(B)に示すように、施工作業者による施工作業が進み、図9(A)に示すよりも目標面Aと施工対象物21の施工面21Aとが近付いた場合には、図9(E)に示すように、プロジェクタ22Aから投影される格子模様42と、プロジェクタ22Bから投影される格子模様43との位置が、図9(D)に示す格子模様よりも近付いた位置に表示される。   As shown in FIG. 9 (B), when the construction work by the construction worker proceeds and the target surface A and the construction surface 21A of the construction object 21 are closer than shown in FIG. 9 (A), FIG. As shown in FIG. 9E, the positions of the lattice pattern 42 projected from the projector 22A and the lattice pattern 43 projected from the projector 22B are displayed at positions closer to the lattice pattern shown in FIG. The

このように目標面Aと施工対象物21の施工面21Aとが徐々に近付いていき、図9(C)に示すように、目標面Aと施工面21Aとが一致すると、図9(F)に示すように、プロジェクタ22Aから投影される格子模様42と、プロジェクタ22Bから投影される格子模様43との位置が完全に一致する。施工作業者は、施工面21Aに投影された格子模様42、43によって施工対象面Aが目標面Aに一致したことを視覚的に認識することができる。   Thus, when the target surface A and the construction surface 21A of the construction object 21 gradually approach each other and the target surface A and the construction surface 21A coincide as shown in FIG. 9C, FIG. As shown in FIG. 4, the positions of the lattice pattern 42 projected from the projector 22A and the lattice pattern 43 projected from the projector 22B completely coincide. The construction worker can visually recognize that the construction target surface A matches the target surface A by the lattice patterns 42 and 43 projected on the construction surface 21A.

本実施形態に係る面形成支援システム1によれば、情報生成装置であるPC13が、仮想空間10において、予め定められた目標面11に表示された目標画像を予め設定された複数の撮影位置から予め設定された撮影方向に対して仮想的に撮影することにより得られる位置毎の画像情報を生成し、複数の投影装置であるプロジェクタ22A、22Bが、実空間20において、目標面11に対する複数の撮影位置と同一の位置関係になるよう各々設置され、情報生成装置であるPC13により生成された各々対応する画像情報により得られる画像を、目標面Aを形成する際の基礎となる基礎面(施工面21A)に、各々対応する撮影方向に対応する投影方向に向けて投影する。   According to the surface formation support system 1 according to the present embodiment, the PC 13 that is the information generation device uses the virtual space 10 to display the target image displayed on the predetermined target surface 11 from a plurality of preset shooting positions. Image information for each position obtained by virtually shooting in a preset shooting direction is generated, and a plurality of projectors 22A and 22B, which are a plurality of projection devices, are connected to the target plane 11 in the real space 20. A base surface (construction) that is installed so as to have the same positional relationship as the photographing position and that is obtained from the corresponding image information generated by the PC 13 that is the information generation device is used as a basis when the target surface A is formed. Projection is performed on the surface 21A) in the projection direction corresponding to the corresponding imaging direction.

このように、施工作業者が施工面21Aに投影されている画像(例えば格子模様)の状態を参照しながら当該施工面21Aに対する施工を行うことができるので、当該施工面21Aとは異なる位置において表示された三次元位置の測定結果を参照しながら施工する場合に比較して、より短時間で施工を完了することができる。   As described above, the construction worker can perform the construction on the construction surface 21A while referring to the state of the image (for example, a lattice pattern) projected on the construction surface 21A, and therefore, at a position different from the construction surface 21A. The construction can be completed in a shorter time compared to the construction with reference to the displayed measurement result of the three-dimensional position.

また、面形成支援システム1によると、目標面Aと施工面21Aとの位置関係をリアルタイムに視覚的に認識できることにより、施工と検査を同時に行うことができ、施工完了を検査完了とすることができるため、工数を削減することができる。さらに面形成支援システム1によると、施工作業者は、既存のAR(現実拡張)技術のようにHMD(ヘッドマウントディスプレイ)といったインターフェイスを介することなく、面形状を裸眼で確認できるため、利便性に優れている。   Moreover, according to the surface formation support system 1, since the positional relationship between the target surface A and the construction surface 21A can be visually recognized in real time, construction and inspection can be performed at the same time, and construction completion can be regarded as inspection completion. Therefore, man-hours can be reduced. Furthermore, according to the surface formation support system 1, the construction worker can confirm the surface shape with the naked eye without using an interface such as an HMD (head mounted display) as in the existing AR (reality augmentation) technology. Are better.

なお、三次元CAD情報内の属性情報を活用することにより、施工目標とする位置だけでなく性能等の解析結果を投影するようにしても良い。例えば、壁の位置によって異なる室内の温度分布を、等高線や色分布で表示するなどといった形態である。   In addition, you may make it project not only the position made into a construction target but analysis results, such as performance, by utilizing the attribute information in three-dimensional CAD information. For example, the temperature distribution in the room that varies depending on the position of the wall is displayed with contour lines or color distribution.

また、図9に示すように、本実施形態では目標面Aが平面である場合について示したが、これに限定されず、目標面Aが曲面であっても、同様の手順で施工作業者の面形成を支援することができる。この際には、施工開始段階で施工面21Aが平面であった場合に、目標画像として表示される格子模様の各々のラインが曲線として表示されるが、施工作業により施工面21Aと目標面Aとが近づくに従って上記曲線が直線に近づいていくことになる。   Moreover, as shown in FIG. 9, in this embodiment, although the case where the target surface A was a plane was shown, it is not limited to this, and even if the target surface A is a curved surface, the same procedure is used for the construction worker. Can support surface formation. In this case, when the construction surface 21A is a flat surface at the construction start stage, each line of the lattice pattern displayed as the target image is displayed as a curve. However, depending on the construction work, the construction surface 21A and the target surface A are displayed. As the curve approaches, the curve approaches a straight line.

〔第2実施形態〕
以下、本発明の第2実施形態について説明する。なお、第2実施形態に係る面形成支援システム1の構成は上記第1実施形態に係る面形成支援システム1と同一であるので、ここでの説明は省略する。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described. In addition, since the structure of the surface formation assistance system 1 which concerns on 2nd Embodiment is the same as the surface formation assistance system 1 which concerns on the said 1st Embodiment, description here is abbreviate | omitted.

図10は、第2実施形態に係る面形成支援システム1の全体構成図である。第1実施形態に係る面形成支援システム1は、PC13にて目標面11、仮想カメラ12A、12Bの各々の相対位置が設定された後に、それらの相対位置に基づいて、実空間20において施工面21A、プロジェクタ22A、22Bの各々の相対位置が設定されるものであったが、第2実施形態に係る面形成支援システム1は、実空間20において施工面21A、プロジェクタ22A、22Bの各々の設置位置や投影方向が設定された後に、それらの設置位置や投影方向がPC13に送信され、PC13において、それらの相対位置に基づいて仮想空間10における目標面11、仮想カメラ12A、12Bの各々の相対位置が設定されるものである。   FIG. 10 is an overall configuration diagram of the surface formation support system 1 according to the second embodiment. In the surface formation support system 1 according to the first embodiment, after the relative positions of the target surface 11 and the virtual cameras 12A and 12B are set by the PC 13, the construction surface in the real space 20 is set based on the relative positions. Although the relative positions of 21A and projectors 22A and 22B are set, the surface formation support system 1 according to the second embodiment is configured to install each of the construction surface 21A and the projectors 22A and 22B in the real space 20. After the position and the projection direction are set, the installation position and the projection direction are transmitted to the PC 13, and the PC 13 compares each of the target surface 11 and the virtual cameras 12A and 12B in the virtual space 10 based on the relative positions. The position is set.

次に、本実施形態に係る面形成支援システム1の作用を説明する。   Next, the operation of the surface formation support system 1 according to the present embodiment will be described.

本実施形態に係る面形成支援システム1では、PC24によって施工支援処理プログラムが実行される一方、PC13によって投影情報生成処理プログラムが実行される。そこで、まず、図11を参照して、施工支援処理プログラムを実行する際のPC24の作用を説明する。なお、図11は、施工作業者等からの実行指示が入力部32を介して受け付けられた際に、PC24の制御部35により実行される施工支援処理プログラムの処理の流れを示すフローチャートであり、当該プログラムは記憶部39に予め記憶されている。   In the surface formation support system 1 according to the present embodiment, the construction support processing program is executed by the PC 24, while the projection information generation processing program is executed by the PC 13. First, the operation of the PC 24 when executing the construction support processing program will be described with reference to FIG. In addition, FIG. 11 is a flowchart which shows the flow of a process of the construction assistance process program performed by the control part 35 of PC24, when the execution instruction from a construction worker etc. is received via the input part 32, The program is stored in the storage unit 39 in advance.

始めにPC24の制御部35は、複数のプロジェクタ22A、22Bの設置位置・投影方向の入力画面を表示部38に表示させる(S301)。図12は、プロジェクタ22A、22Bの設置位置や投影方向を入力するための入力画面44を示す図である。入力画面44は、図12に示すように、左側のプロジェクタ22A、右側のプロジェクタ22Bの各々の設置位置や投影方向の入力欄45と、入力された情報を送信する指示を入力するための送信ボタン46を有している。施工作業者は、施工作業を開始する際、実空間20において施工対象物21に対するプロジェクタ22A、22Bの設置位置及び投影方向を設定し、入力部37を介して各入力欄45に各情報を入力した後に、送信ボタン46を指定する。   First, the control unit 35 of the PC 24 causes the display unit 38 to display input screens for the installation positions and projection directions of the plurality of projectors 22A and 22B (S301). FIG. 12 is a diagram showing an input screen 44 for inputting the installation positions and projection directions of the projectors 22A and 22B. As shown in FIG. 12, the input screen 44 has input fields 45 for the installation positions and projection directions of the left projector 22A and the right projector 22B, and a transmission button for inputting an instruction to transmit the input information. 46. When starting the construction work, the construction worker sets the installation positions and projection directions of the projectors 22A and 22B with respect to the construction object 21 in the real space 20, and inputs each information into each input field 45 via the input unit 37. After that, the send button 46 is designated.

制御部35は、複数のプロジェクタ22A、22Bの設置位置・投影方向の入力が受け付けられたか否かを判断する(S302)。この際、入力画面44において送信ボタン46が指定された場合に、入力が受け付けられたものと判断する。入力が受け付けられていない場合(S302;N)は、制御部35は入力が受け付けられるまで待機する。   The control unit 35 determines whether or not input of installation positions / projection directions of the plurality of projectors 22A and 22B has been received (S302). At this time, when the transmission button 46 is designated on the input screen 44, it is determined that the input has been accepted. When the input is not accepted (S302; N), the control unit 35 waits until the input is accepted.

入力が受け付けられた場合(S302;Y)は、制御部35は、入力された複数のプロジェクタ22A、22Bの設置位置及び投影方向の情報を、通信部36を介してPC14に送信する(S303)。そして、設置位置及び投影方向の情報を受信したPC13は、これらの情報に基づいて投影情報を生成する投影情報生成処理を行う。   When the input is accepted (S302; Y), the control unit 35 transmits the input information on the installation positions and projection directions of the plurality of projectors 22A and 22B to the PC 14 via the communication unit 36 (S303). . And PC13 which received the information of an installation position and a projection direction performs the projection information generation process which produces | generates projection information based on such information.

図13は、PC24から設置位置及び投影方向の情報を受信した際に、PC13の制御部30により実行される投影情報生成処理プログラムの処理の流れを示すフローチャートであり、当該プログラムは記憶部34のプログラム領域34bに予め記憶されている。   FIG. 13 is a flowchart showing a flow of processing of a projection information generation processing program executed by the control unit 30 of the PC 13 when information on the installation position and the projection direction is received from the PC 24, and the program is stored in the storage unit 34. Pre-stored in the program area 34b.

PC13の制御部30は、ステップS303にてPC24から送信された設置位置及び投影方向の情報を受信したか否かを判断する(S401)。受信していない場合(S401;N)は、制御部30は受信するまで待機する。設置位置及び投影方向の情報を受信した場合(S401;Y)は、制御部30は、記憶部34から、施工対象物21が含まれる建物に対応する三次元CAD情報を読み出す(S403)。   The control unit 30 of the PC 13 determines whether or not the installation position and projection direction information transmitted from the PC 24 in step S303 has been received (S401). If not received (S401; N), the control unit 30 stands by until it is received. When the information on the installation position and the projection direction is received (S401; Y), the control unit 30 reads out the three-dimensional CAD information corresponding to the building including the construction object 21 from the storage unit 34 (S403).

制御部30は、施工対象物21において施工対象とする目標面11の選択指示を受け付ける(S404)。この際、制御部30は、例えばステップS403にて読み出した三次元CAD情報から三次元CADモデルを生成して表示部33に表示させるとともに、施工作業者により入力部32を介してこの三次元CADモデルからいずれかの面を選択させることにより目標面11の選択指示を受け付ける。   The control unit 30 receives an instruction to select the target surface 11 to be constructed in the construction object 21 (S404). At this time, for example, the control unit 30 generates a three-dimensional CAD model from the three-dimensional CAD information read out in step S403 and causes the display unit 33 to display the three-dimensional CAD model. An instruction to select the target surface 11 is accepted by selecting any surface from the model.

制御部30は、ステップS403にて読み出した三次元CAD情報から目標面11を仮想的に構成するとともに、この目標面11に格子模様を仮想的に描画する(S405)。   The control unit 30 virtually constructs the target surface 11 from the three-dimensional CAD information read in step S403, and virtually draws a lattice pattern on the target surface 11 (S405).

制御部30は、ステップS401にて受信した設置位置及び投影方向と対応する撮影位置及び撮影方向なるように仮想カメラ12A、12Bを位置決めした場合の各仮想カメラ12A、12Bによって撮影された画像を示す画像情報を生成した後、撮影位置及び撮影方向の各情報と画像情報とを各仮想カメラ12A、12B毎に関連付けた投影情報を生成する(S407)。そして制御部30は、ステップS407にて生成した投影情報をPC24に送信する(S409)。   The control unit 30 shows images taken by the virtual cameras 12A and 12B when the virtual cameras 12A and 12B are positioned so as to be in the shooting position and shooting direction corresponding to the installation position and projection direction received in step S401. After the image information is generated, projection information in which the information on the shooting position and the shooting direction and the image information are associated with each virtual camera 12A, 12B is generated (S407). Then, the control unit 30 transmits the projection information generated in step S407 to the PC 24 (S409).

PC24の制御部35は、ステップS409にてPC13から送信された投影情報を受信したか否かを判断する(S305)。受信していない場合(S305;N)は、制御部35は受信するまで待機する。   The control unit 35 of the PC 24 determines whether or not the projection information transmitted from the PC 13 in step S409 has been received (S305). If not received (S305; N), the control unit 35 waits until reception.

投影情報を受信した場合(S305;Y)は、制御部35は、受信した投影情報に含まれる画像情報に基づいて、複数のプロジェクタ22A、22Bからそれぞれ対応する画像を投影させ(S307)、その後に本施工支援処理プログラムを終了する。   When the projection information is received (S305; Y), the control unit 35 projects the corresponding images from the plurality of projectors 22A and 22B based on the image information included in the received projection information (S307), and thereafter This construction support processing program ends.

このように面形成支援システム1によれば、情報生成装置であるPC13は、実空間20における複数の投影装置であるプロジェクタ22A、22Bの各々の設置位置及び投影方向の入力を受け付ける受付手段(入力画面44、入力部37)を備え、受付手段により受け付けられた投影位置及び投影方向をそれぞれ仮想空間10における目標面11に対する各々の撮影位置及び撮影方向として設定する。これにより、施工作業者が、前もって実空間20において複数の投影装置であるプロジェクタ22A、22Bをそれぞれ設置し、それらの設置された複数の投影装置であるプロジェクタ22A、22Bの各々の設置位置及び投影方向に基づいて、仮想空間10において位置毎の画像情報を生成することができるため、情報生成装置であるPC13において設定された撮影位置及び撮影方向に投影装置であるプロジェクタ22A、22Bを位置決めする場合に比較して、投影装置であるプロジェクタ22A、22Bの設置作業を容易に行うことができる。   As described above, according to the surface formation support system 1, the PC 13 that is the information generation device receives the input of the installation positions and projection directions of the projectors 22 </ b> A and 22 </ b> B that are the plurality of projection devices in the real space 20. Screen 44 and input unit 37), and the projection position and projection direction received by the receiving means are set as the respective shooting positions and shooting directions with respect to the target plane 11 in the virtual space 10. Thereby, the construction worker installs the projectors 22A and 22B, which are a plurality of projection devices, in the real space 20 in advance, and the installation positions and projections of the projectors 22A and 22B which are the plurality of projectors installed. Since the image information for each position can be generated in the virtual space 10 based on the direction, the projectors 22A and 22B as the projection devices are positioned in the shooting position and shooting direction set in the PC 13 as the information generation device. Compared to the above, the installation work of the projectors 22A and 22B, which are projection apparatuses, can be easily performed.

第1実施形態及び第2実施形態によれば、施工作業者が、現実には形のない目標面と現実に施工している施工対象面との位置の相違を、面の位置や形状に依存せずに、施工作業に際してリアルタイムかつ視覚的に把握できる、という効果が得られる。   According to the first and second embodiments, the construction worker depends on the position and shape of the surface for the difference in position between the target surface that is not actually shaped and the surface that is actually being constructed. Therefore, the effect of being able to grasp visually in real time during construction work can be obtained.

〔第3実施形態〕
以下、本発明の第3実施形態について説明する。
[Third Embodiment]
Hereinafter, a third embodiment of the present invention will be described.

第1実施形態、第2実施形態に係る面形成支援システム1は、PC13にて生成された投影情報を、実空間20の施工面21Aに投影させることにより、施工作業者の施工作業を支援するものであったが、第3実施形態に係る面形成支援システム1は、施工面21Aと目標面Aとの差を導出するとともに、この目標面Aと施工面21Aが一致するように自動的に施工を行うものである。   The surface formation support system 1 according to the first embodiment and the second embodiment supports the construction work of the construction worker by projecting the projection information generated by the PC 13 onto the construction surface 21A of the real space 20. However, the surface formation support system 1 according to the third embodiment automatically derives the difference between the construction surface 21A and the target surface A and automatically matches the target surface A and the construction surface 21A. It is to perform construction.

まず、図14を参照して、本第3実施形態に係る面形成支援システム1の構成を説明する。図14は、本第3実施形態に係る面形成支援システム1の電気的な要部構成を示すブロック図である。なお、同図における図3と同一の構成要素には図3と同一の符号を付して、その説明を省略する。   First, with reference to FIG. 14, the structure of the surface formation assistance system 1 which concerns on this 3rd Embodiment is demonstrated. FIG. 14 is a block diagram illustrating an electrical main configuration of the surface formation support system 1 according to the third embodiment. Note that the same components in FIG. 3 as those in FIG. 3 are denoted by the same reference numerals as those in FIG.

同図に示すように、本第3実施形態に係る面形成支援システム1は、発泡ウレタンを吹き付け可能に構成されるとともに、その吹き付け方向および吹き付け量が可変とされた吹付部25が新たに設けられている点が上記第1、第2実施形態と異なっている。   As shown in the figure, the surface forming support system 1 according to the third embodiment is configured to be capable of spraying urethane foam, and a spray unit 25 whose spray direction and spray amount are variable is newly provided. This is different from the first and second embodiments.

吹付部25はPC24に接続されており、吹付部25による発泡ウレタンの吹き付け方向および吹き付け量はPC24の制御部35によって制御される。   The spraying unit 25 is connected to the PC 24, and the blowing direction and amount of urethane foam sprayed by the spraying unit 25 are controlled by the control unit 35 of the PC 24.

また、図15(A)は、目標面Aと施工面21Aとのずれ量の導出方法を説明するための正面概略図であり、図15(B)は、当該ずれ量の導出方法を説明するための上面概略図である。図15(A)に示すように、目標面Aと施工面21Aとが一致していない場合には、プロジェクタ22Aから投影された格子模様とプロジェクタ22Bから施工面21Aに投影された格子模様とにずれが生じる。これらの各々の格子模様のずれ量をLとし、プロジェクタ22Aとプロジェクタ22Bとの距離をL’とし、各々のプロジェクタ22A、22Bから目標面Aまでの距離をRとすると、図15(B)に示すように、目標面Aと施工面21Aとの距離tは、t=R×L÷L’の式によって求めることができ、これをずれ量とすることができる。   FIG. 15A is a schematic front view for explaining a method for deriving a deviation amount between the target surface A and the construction surface 21A, and FIG. 15B explains a method for deriving the deviation amount. FIG. As shown in FIG. 15A, when the target surface A and the construction surface 21A do not coincide with each other, the lattice pattern projected from the projector 22A and the lattice pattern projected from the projector 22B onto the construction surface 21A are obtained. Deviation occurs. FIG. 15 (B) shows that the amount of shift of each of these lattice patterns is L, the distance between the projector 22A and the projector 22B is L ′, and the distance from each projector 22A, 22B to the target plane A is R. As shown, the distance t between the target surface A and the construction surface 21A can be obtained by the equation t = R × L ÷ L ′, and this can be used as a deviation amount.

次に、本実施形態に係る面形成支援システム1の作用を説明する。   Next, the operation of the surface formation support system 1 according to the present embodiment will be described.

本実施形態に係る面形成支援システム1では、PC13によって上記第1実施形態と同様の投影情報支援処理プログラム(図6参照)が実行される一方、PC24によって施工処理プログラムが実行される。そこで、図16を参照して、施工処理プログラムを実行する際のPC24の作用を説明する。なお、図16は、施工作業者等からの実行指示が入力部32を介して受け付けられた際に、PC24の制御部35により実行される施工処理プログラムの処理の流れを示すフローチャートであり、当該プログラムは記憶部39に予め記憶されている。   In the surface formation support system 1 according to the present embodiment, the projection information support processing program (see FIG. 6) similar to that of the first embodiment is executed by the PC 13, while the construction processing program is executed by the PC 24. Then, with reference to FIG. 16, the effect | action of PC24 at the time of executing a construction processing program is demonstrated. FIG. 16 is a flowchart showing the flow of processing of a construction processing program executed by the control unit 35 of the PC 24 when an execution instruction from a construction worker or the like is received via the input unit 32. The program is stored in the storage unit 39 in advance.

始めに、PC24の制御部35は、ステップS111にてPC13から送信された投影情報とを受信したか否かを判断する(S501)。受信していない場合(S501;N)は、制御部35は受信するまで待機する。   First, the control unit 35 of the PC 24 determines whether or not the projection information transmitted from the PC 13 in step S111 has been received (S501). If not received (S501; N), the control unit 35 waits until reception.

投影情報を受信した場合(S501;Y)は、制御部35は、表示部38にステップS501にて受信した投影情報に含まれる撮影位置・撮影方向を、プロジェクタ22A、22Bの投影位置・投影方向として表示させる(S503)。この際、制御部35は、ステップS203と同様に、図8に示すような施工支援画面40を表示部38に表示させると良い。施工作業者は、各々のプロジェクタ22A、22Bの設置位置・投影方向を施工支援画面40で確認して、それらの情報に基づいて各々のプロジェクタ22A、22Bを設置した後に、それらの設置が完了したことを示すために設置完了ボタン41を選択する。   When the projection information is received (S501; Y), the control unit 35 displays the shooting position and shooting direction included in the projection information received in step S501 on the display unit 38 as the projection position and projection direction of the projectors 22A and 22B. Is displayed (S503). At this time, the control unit 35 may display the construction support screen 40 as shown in FIG. 8 on the display unit 38 as in step S203. The construction worker confirms the installation position / projection direction of each projector 22A, 22B on the construction support screen 40, and after installing each projector 22A, 22B based on the information, the installation is completed. In order to indicate this, the installation completion button 41 is selected.

制御部35は、プロジェクタ22A、22Bの設置が完了したか否かを判断する(S505)。この際、ユーザ操作により設置完了ボタン41が選択されたことに基づいて、プロジェクタ22A、22Bの設置が完了したものと判断する。   The control unit 35 determines whether or not the projectors 22A and 22B have been installed (S505). At this time, it is determined that the installation of the projectors 22A and 22B has been completed based on the selection of the installation completion button 41 by the user operation.

制御部35は、ステップS501にて受信した投影情報に含まれる画像情報に基づいて、それぞれ対応する画像(ここでは格子模様)をプロジェクタ22A、22Bから施工面21Aに投影させる(S507)。   Based on the image information included in the projection information received in step S501, the control unit 35 projects the corresponding images (here, lattice patterns) from the projectors 22A and 22B onto the construction surface 21A (S507).

制御部35は、ステップS507にて格子模様が投影された施工面21Aを、カメラ23で撮影する(S509)。そして制御部35は、カメラ23で撮影されている画像から、プロジェクタ22Aから投影された格子模様とプロジェクタ22Bから投影された格子模様との各々の対応点の距離に基づいて上記距離tを算出することによりずれ量を導出する(S511)。   The control unit 35 photographs the construction surface 21A on which the lattice pattern is projected in step S507 with the camera 23 (S509). Then, the control unit 35 calculates the distance t from the image captured by the camera 23 based on the distance between the corresponding points of the lattice pattern projected from the projector 22A and the lattice pattern projected from the projector 22B. Thus, the amount of deviation is derived (S511).

制御部35は、ステップS511にて導出されたいずれかのずれ量が所定値以上であるか否かを判断する(S513)。この際の所定値は、目標面Aと施工面21Aとを一致させる際に誤差とみなせる範囲の絶対値であり、制御部35は、ずれ量がこの所定値未満であれば、施工目標とする面Aと施工面21Aとが一致したものと判断する。   The control unit 35 determines whether any deviation amount derived in step S511 is greater than or equal to a predetermined value (S513). The predetermined value at this time is an absolute value in a range that can be regarded as an error when the target surface A and the construction surface 21A are matched, and the control unit 35 sets the construction target if the deviation amount is less than the predetermined value. It is determined that the surface A and the construction surface 21A match.

いずれかのずれ量の絶対値が所定値以上であった場合(S513;Y)は、制御部35は、施工目標とする面Aと施工面21Aとが一致していないものと判断し、ステップS511にて導出されたずれ量に相当する量の発砲ウレタンを施工面21Aの対応する位置に吹き付けるように吹付部25を制御する(S515)。そして再びステップS511の処理を行う。   When the absolute value of any deviation amount is equal to or greater than the predetermined value (S513; Y), the control unit 35 determines that the surface A to be constructed and the construction surface 21A do not match, and the step The spraying portion 25 is controlled so as to spray an amount of foamed urethane corresponding to the amount of deviation derived in S511 to a corresponding position on the construction surface 21A (S515). Then, the process of step S511 is performed again.

一方、全てのずれ量の絶対値が所定値以上でなかった場合(S513;N)は、制御部35は、目標面Aと施工面21Aとが一致したものと判断し、施工処理が完了したものとして、本施工処理プログラムを終了する。   On the other hand, when the absolute values of all the deviation amounts are not equal to or larger than the predetermined value (S513; N), the control unit 35 determines that the target surface A and the construction surface 21A coincide with each other, and the construction processing is completed. As a thing, this construction processing program is complete | finished.

このようにして面形成支援システム1は、撮影装置である仮想カメラ12A、12Bが、複数の投影装置であるプロジェクタ22A、22Bの各々より投影された画像を1画角内で撮影する所定位置に設置され、計測装置であるPC24が、撮影装置であるカメラ23により撮影された画像における複数の投影装置であるプロジェクタ22A、22Bの各々より投影された画像間のずれ量に基づいて、仮想空間10における目標面11の位置と実空間20における投影面(施工面21A)の位置とのずれ量を示す物理量を計測し、面形成装置が、実空間20において、計測装置により計測された物理量がずれ量を最小にするように基礎面(施工面21A)に対して目標面Aを形成する。   In this way, in the surface formation support system 1, the virtual cameras 12A and 12B, which are imaging devices, are placed at predetermined positions where the images projected from the projectors 22A, 22B, which are a plurality of projection devices, are captured within one angle of view. The virtual space 10 is installed based on the amount of deviation between the images projected by the projectors 22A and 22B, which are a plurality of projection devices, in the image taken by the PC 24 that is a measurement device and is photographed by the camera 23 that is a photographing device. The physical quantity indicating the amount of deviation between the position of the target surface 11 in the real space 20 and the position of the projection surface (construction surface 21A) in the real space 20 is measured, and the physical quantity measured by the measuring device in the real space 20 is shifted by the surface forming apparatus. The target surface A is formed with respect to the foundation surface (construction surface 21A) so as to minimize the amount.

また、上記各実施形態では、実空間で用いるPC24、プロジェクタ22A,22Bおよびカメラ23を各々個別に単体の装置で構成した場合について説明したが、本発明はこれに限定されるものではなく、これらの装置を一体構成する形態としてもよい。   Further, in each of the above embodiments, the case where the PC 24, the projectors 22A and 22B, and the camera 23 used in real space are individually configured as a single device has been described, but the present invention is not limited to this, It is good also as a form which comprises these apparatuses integrally.

図17には、この場合の一体構成された装置1Aの一例が示されている。この装置1Aでは、上記各実施形態と同様のプロジェクタ22A,22Bが装置前面の水平方向の2箇所に設けられるとともに、上記各実施形態と同様のカメラ23が装置前面の中央部に設けられている。なお、この場合、装置1Aを施工作業者によって携帯可能なサイズにするとともに、無線にてPC13と通信可能とすることにより、より利便性を向上させることができる。   FIG. 17 shows an example of an apparatus 1A configured integrally in this case. In this apparatus 1A, projectors 22A and 22B similar to those in the above embodiments are provided in two horizontal positions on the front surface of the apparatus, and a camera 23 similar to that in the above embodiments is provided in the center of the apparatus front surface. . In this case, it is possible to further improve convenience by making the apparatus 1A a size that can be carried by a construction worker and enabling communication with the PC 13 wirelessly.

また、上記各実施形態では、本発明を施工面の高さを目標面に一致させる施工を支援するシステムに適用した場合について説明したが、本発明は他の種々のシステムに適用することができる。   Moreover, although each said embodiment demonstrated the case where this invention was applied to the system which supports the construction which matches the height of a construction surface with a target surface, this invention can be applied to other various systems. .

例えば、一例として図18に示すように、各プロジェクタから投影された画像が一致する目標面の高さ方向の位置が変化するように各プロジェクタからの当該画像の投影方向を順次変更しつつカメラ23により当該画像を撮影し、撮影によって得られた画像が一致した投影方向に基づいて、施工面の高さ方向に対する形状を把握する形態に本発明を適用してもよい。   For example, as shown in FIG. 18 as an example, the camera 23 sequentially changes the projection direction of the image from each projector so that the position in the height direction of the target plane where the images projected from each projector match. The present invention may be applied to a form in which the image is captured by the above and the shape of the construction surface with respect to the height direction is grasped based on the projection direction in which the images obtained by the photographing match.

また、例えば、一例として図19(A)に示すように、目標とする勾配角度となるように設けられる勾配面の勾配角度を当該目標とする勾配角度となるように設置するシステムに適用する形態、一例として図19(B)に示すように、表面が目標とする高さとなるように設けられる内装仕上げ部材を当該目標とする高さとなるように設置するシステムに適用する形態等といった、表面の高さ位置が目標とする位置となるように施工する他のシステムに本発明を適用してもよい。   In addition, for example, as shown in FIG. 19A as an example, the present invention is applied to a system in which a gradient angle of a gradient surface provided to become a target gradient angle is set to be the target gradient angle. As an example, as shown in FIG. 19 (B), the interior finishing member provided so that the surface has a target height is applied to a system that is installed so as to have the target height. You may apply this invention to the other system constructed so that a height position may turn into a target position.

また、例えば、一例として図19(C)に示すように、曲面仕上げの精度を計測するシステムに適用する形態、一例として図19(D)に示すように、勾配を自動計算して等高線を投影して水勾配を計測するシステムに適用する形態等といった、表面の高さ位置を計測する他のシステムに本発明を適用してもよい。   Further, for example, as shown in FIG. 19C as an example, a form applied to a system for measuring the accuracy of curved surface finishing, as an example, as shown in FIG. 19D, a gradient is automatically calculated and contour lines are projected. Thus, the present invention may be applied to other systems that measure the height position of the surface, such as a form that is applied to a system that measures a water gradient.

第3実施形態によれば、施工装置が、現実には形のない目標面Aと現実に施工している施工面21Aとの位置の相違から、目標面Aと施工面21Aとのずれ量をリアルタイムに計測でき、そのずれ量に基づいて施工処理を行うことにより施工目標とする面Aを自動的に且つ高精度で形成することができる、という効果が得られる。   According to the third embodiment, the construction apparatus determines the amount of deviation between the target surface A and the construction surface 21A from the difference in position between the target surface A that is not actually shaped and the construction surface 21A that is actually constructed. The effect that it can measure in real time and can form the surface A made into a construction target automatically and with high precision by performing construction processing based on the deviation | shift amount is acquired.

1…面形成支援システム,1A…面形成支援装置,10…仮想空間,11…目標面,12A、12B…仮想カメラ,13…PC,20…実空間,21…施工対象物,21A…施工面,22A、22B…プロジェクタ,23…カメラ,24…PC,30、35…制御部,31、36…通信部,32、37…入力部,33、38…表示部,34、39…記憶部,40…設置支援画面,41…設置完了ボタン,42…左側のプロジェクタにより投影された格子模様,43…右側のプロジェクタにより投影された格子模様,44…入力画面,45…入力欄,46…送信ボタン,A…目標面   DESCRIPTION OF SYMBOLS 1 ... Surface formation support system, 1A ... Surface formation support apparatus, 10 ... Virtual space, 11 ... Target surface, 12A, 12B ... Virtual camera, 13 ... PC, 20 ... Real space, 21 ... Construction object, 21A ... Construction surface 22A, 22B ... projector, 23 ... camera, 24 ... PC, 30, 35 ... control unit, 31, 36 ... communication unit, 32, 37 ... input unit, 33, 38 ... display unit, 34, 39 ... storage unit, 40 ... Installation support screen, 41 ... Installation complete button, 42 ... Grid pattern projected by left projector, 43 ... Grid pattern projected by right projector, 44 ... Input screen, 45 ... Input field, 46 ... Send button , A ... Target plane

Claims (6)

仮想空間において、予め定められた目標面に表示された所定画像を予め設定した複数の撮影位置から予め設定した撮影方向に向けて仮想的に撮影することにより得られる前記撮影位置毎の画像情報を生成する情報生成装置と、
実空間において、前記目標面に対応する形成目標面に対して、前記目標面に対する前記複数の撮影位置と同一の位置関係になるよう各々設置され、対応する前記画像情報により示される画像を、前記形成目標面を形成する際の基礎となる基礎面に、前記撮影方向に対応する投影方向に向けて投影する複数の投影装置と、
を備えた面形成支援システム。
Image information for each shooting position obtained by virtually shooting a predetermined image displayed on a predetermined target plane in a virtual space from a plurality of preset shooting positions in a preset shooting direction. An information generating device to generate;
In real space, with respect to the formation target surface corresponding to the target surface, each image is set to have the same positional relationship as the plurality of shooting positions with respect to the target surface, and the image indicated by the corresponding image information is A plurality of projection devices for projecting toward a projection direction corresponding to the imaging direction on a basic surface serving as a basis for forming a formation target surface;
Surface formation support system with
前記情報生成装置は、前記実空間における前記複数の投影装置の各々の設置位置及び投影方向の入力を受け付ける受付手段を備え、前記受付手段により受け付けられた複数の前記設置位置及び前記投影方向をそれぞれ複数の前記撮影位置及び前記撮影方向として設定する
ことを特徴とする請求項1記載の面形成支援システム。
The information generation apparatus includes a reception unit that receives an input of each installation position and projection direction of each of the plurality of projection apparatuses in the real space, and each of the plurality of installation positions and the projection direction received by the reception unit. The surface formation support system according to claim 1, wherein a plurality of the photographing positions and the photographing directions are set.
前記複数の投影装置の各々より投影された画像を撮影する撮影装置と、
前記撮影装置により撮影された画像における前記複数の投影装置の各々より投影された画像間のずれ量に基づいて、前記形成目標面と前記基礎面との前記投影方向に対するずれ量を示す物理量を計測する計測装置と、
前記計測装置により計測された物理量が予め定められた範囲内となるように前記基礎面に対して前記目標面を形成する面形成装置と、
を更に備えたことを特徴とする請求項1または2記載の面形成支援システム。
A photographing device for photographing an image projected from each of the plurality of projection devices;
Based on the amount of deviation between images projected from each of the plurality of projection devices in the image photographed by the photographing device, a physical quantity indicating the amount of deviation of the formation target surface and the base surface with respect to the projection direction is measured. A measuring device to
A surface forming device that forms the target surface with respect to the base surface so that a physical quantity measured by the measuring device is within a predetermined range;
The surface formation support system according to claim 1, further comprising:
前記所定画像は格子模様の画像であり、
前記計測装置は、前記撮影装置により撮影された画像における複数の前記投影装置の各々より投影された画像間の対応する格子点のずれ量に基づいて、前記物理量を計測する
ことを特徴とする請求項3記載の面形成支援システム。
The predetermined image is a lattice pattern image,
The measurement device measures the physical quantity based on a shift amount of a corresponding lattice point between images projected from each of the plurality of projection devices in an image photographed by the photographing device. Item 4. The surface formation support system according to Item 3.
仮想空間において、予め定められた目標面に表示された所定画像を予め設定した複数の撮影位置から予め設定した撮影方向に向けて仮想的に撮影することにより得られる前記撮影位置毎の画像情報を生成する情報生成手段と、
実空間において、前記目標面に対応する形成目標面に対して、前記目標面に対する前記複数の撮影位置と同一の位置関係になるよう各々設置され、対応する前記画像情報により示される画像を、前記目標面を形成する際の基礎となる基礎面に、前記撮影方向に対応する投影方向に向けて投影する複数の投影手段と、
を備えた面形成支援装置。
Image information for each shooting position obtained by virtually shooting a predetermined image displayed on a predetermined target plane in a virtual space from a plurality of preset shooting positions in a preset shooting direction. Information generating means for generating;
In real space, with respect to the formation target surface corresponding to the target surface, each image is set to have the same positional relationship as the plurality of shooting positions with respect to the target surface, and the image indicated by the corresponding image information is A plurality of projection means for projecting toward a projection direction corresponding to the imaging direction on a base plane that is a basis for forming a target plane;
A surface forming support device.
仮想空間において、予め定められた目標面に表示された所定画像を予め設定した複数の撮影位置から予め設定した撮影方向に向けて仮想的に撮影することにより得られる前記撮影位置毎の画像情報を生成する情報生成ステップと、
実空間において、前記目標面に対応する形成目標面に対して、前記目標面に対する前記複数の撮影位置と同一の位置関係になるよう各々設置された複数の投影装置に対して、対応する前記画像情報により示される画像を、前記目標面を形成する際の基礎となる基礎面に、前記撮影方向に対応する前記投影方向に向けて投影させる投影ステップと、
をコンピュータに実行させるための面形成支援プログラム。
Image information for each shooting position obtained by virtually shooting a predetermined image displayed on a predetermined target plane in a virtual space from a plurality of preset shooting positions in a preset shooting direction. An information generation step to generate;
In the real space, the image corresponding to the plurality of projection devices respectively installed so as to have the same positional relationship as the plurality of photographing positions with respect to the target surface with respect to the formation target surface corresponding to the target surface A projecting step of projecting an image indicated by the information onto a base plane serving as a basis for forming the target plane in the projection direction corresponding to the photographing direction;
Surface formation support program for causing a computer to execute.
JP2011052922A 2011-03-10 2011-03-10 Surface formation supporting system, surface formation supporting device, and surface formation supporting program Withdrawn JP2012189433A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011052922A JP2012189433A (en) 2011-03-10 2011-03-10 Surface formation supporting system, surface formation supporting device, and surface formation supporting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011052922A JP2012189433A (en) 2011-03-10 2011-03-10 Surface formation supporting system, surface formation supporting device, and surface formation supporting program

Publications (1)

Publication Number Publication Date
JP2012189433A true JP2012189433A (en) 2012-10-04

Family

ID=47082775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011052922A Withdrawn JP2012189433A (en) 2011-03-10 2011-03-10 Surface formation supporting system, surface formation supporting device, and surface formation supporting program

Country Status (1)

Country Link
JP (1) JP2012189433A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017218792A (en) * 2016-06-07 2017-12-14 清水建設株式会社 Construction management apparatus and construction management method
CN110581985A (en) * 2019-09-17 2019-12-17 浙江小牛哥整家互联网科技有限公司 Virtual construction projection method and device
CN111121640A (en) * 2019-12-18 2020-05-08 浙江明度智控科技有限公司 Vehicle size detection method and device
JP7417838B2 (en) 2019-08-28 2024-01-19 パナソニックIpマネジメント株式会社 Projection system and projection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017218792A (en) * 2016-06-07 2017-12-14 清水建設株式会社 Construction management apparatus and construction management method
JP7417838B2 (en) 2019-08-28 2024-01-19 パナソニックIpマネジメント株式会社 Projection system and projection method
CN110581985A (en) * 2019-09-17 2019-12-17 浙江小牛哥整家互联网科技有限公司 Virtual construction projection method and device
CN111121640A (en) * 2019-12-18 2020-05-08 浙江明度智控科技有限公司 Vehicle size detection method and device
CN111121640B (en) * 2019-12-18 2021-10-15 杭州明度智能科技有限公司 Vehicle size detection method and device

Similar Documents

Publication Publication Date Title
CN111033536A (en) Method and system for generating adaptive projected reality at construction site
US20230412903A1 (en) Image processing device, image processing method, and recording medium
US20160092608A1 (en) Modeling device, three-dimensional model generation device, modeling method, program and layout simulator
EP2747034A2 (en) Location correction of virtual objects
JP6634229B2 (en) Method for creating a bar arrangement model using a handheld three-dimensional laser scanner
EP3048417B1 (en) Spatial information visualization apparatus, storage medium and spatial information visualization method
JP2009053147A (en) Three-dimensional measuring method and three-dimensional measuring device
JP2003270719A (en) Projection method, projector, and method and system for supporting work
CN109689992B (en) Monitoring system and method for controlling a construction surface treatment process
US10909748B2 (en) Image projection method and image projection device for three-dimensional object for projection
US20160140736A1 (en) Viewpoint position calculation device, image generation device, and viewpoint position calculation method
US20150186559A1 (en) X-ray vision for buildings
JP2012189433A (en) Surface formation supporting system, surface formation supporting device, and surface formation supporting program
JP7149506B2 (en) Projection system, projection apparatus and projection method
JP2015088819A (en) Imaging simulation device
JP2016009432A (en) Image forming apparatus, image forming system, and image forming program
JP2019008473A (en) Composite reality simulation device and composite reality simulation program
JP2018106643A (en) Spatial model processor
JP7076097B2 (en) Image leveling device and its program, and drawing generation system
US20230384095A1 (en) System and method for controlling a light projector in a construction site
JP6132246B2 (en) Dimension measurement method
JP6882068B2 (en) Modeling device
JP7403273B2 (en) Image processing device and image processing method
JP7499047B2 (en) Coating material thickness measurement method, coating material thickness measurement system, and coating material application method
JP2010170288A (en) Three-dimensional modeling device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513