JP2021005212A - Building design support device and building design support program - Google Patents

Building design support device and building design support program Download PDF

Info

Publication number
JP2021005212A
JP2021005212A JP2019118500A JP2019118500A JP2021005212A JP 2021005212 A JP2021005212 A JP 2021005212A JP 2019118500 A JP2019118500 A JP 2019118500A JP 2019118500 A JP2019118500 A JP 2019118500A JP 2021005212 A JP2021005212 A JP 2021005212A
Authority
JP
Japan
Prior art keywords
building
landscape
design support
unit
building design
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019118500A
Other languages
Japanese (ja)
Other versions
JP7305919B2 (en
Inventor
藤原 邦彦
Kunihiko Fujiwara
邦彦 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2019118500A priority Critical patent/JP7305919B2/en
Publication of JP2021005212A publication Critical patent/JP2021005212A/en
Application granted granted Critical
Publication of JP7305919B2 publication Critical patent/JP7305919B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a building design support device and a building design support program, capable of effectively supporting a building design considering a landscape by a user of a building to be designed.SOLUTION: A building design support device 10 comprises: an acquisition unit 11A which acquires image information obtained by photographing in a direction outside at least a building at a predetermined position in premises of the building in a planned construction site; a division unit 11B which divides an image indicated by image information acquired by the acquisition unit 11A into each of a plurality of kinds of predetermined landscape elements; a derivation unit 11C which derives landscape information indicating a ratio of an area between divided regions for each of the plurality of landscape elements obtained by the division unit 11B; and an execution unit 11D which executes predetermined processing using the landscape information derived by the derivation unit 11C.SELECTED DRAWING: Figure 2

Description

本発明は、建物設計支援装置及び建物設計支援プログラムに関する。 The present invention relates to a building design support device and a building design support program.

景観に配慮した建物の建築に関する技術として、従来、次の2つの技術があった。 Conventionally, there have been the following two technologies for building landscape-friendly buildings.

すなわち、特許文献1には、仮想3次元形状の地表面上において、施設の可視不可視分析を行なう範囲内の植物群落の領域の各々に、それぞれの植物群落を構成する各樹木の種類をモデル化した樹木モデルが配置された植物群落モデルを配置する植物群落設定部と、地表面上に建設を予定する敷地内に、高さが建設を予定する施設の高さである指標ポールを立てて、指標ポールの頂点の観察点から観察される地表面の領域を可視領域として抽出する可視不可視分析を行なう可視不可視分析部と、を備えることを特徴とする景観可視不可視分析システムが開示されている。 That is, in Patent Document 1, each type of tree constituting each plant community is modeled in each region of the plant community within the range where the visible and invisible analysis of the facility is performed on the ground surface of the virtual three-dimensional shape. A plant community setting section where the plant community model is placed, and an index pole, which is the height of the facility to be constructed, are set up on the ground surface on the site where the construction is planned. A landscape visible / invisible analysis system is disclosed, which comprises a visible / invisible analysis unit that performs visible / invisible analysis that extracts a region of the ground surface observed from an observation point at the apex of an index pole as a visible region.

また、特許文献2には、仮想的な三次元空間を用いて、対象物の景観の定量的な値を算出する景観定量化装置であって、前記対象物の形状を複数のポリゴンで表した対象物オブジェクトおよび前記対象物以外の形状を複数のポリゴンで表した非対象物オブジェクトが記憶される記憶手段と、前記対象物オブジェクトに設定される視点から前記非対象物オブジェクトを第1仮想スクリーンに投影した第1視点画像を作成する第1視点画像作成手段と、前記第1視点画像を走査することにより、前記第1視点画像に描画される前記非対象物オブジェクトのポリゴンを判別する有効計算点判別手段と、前記有効計算点判別手段が判別したポリゴンの各々を新たな視点とし、前記新たな視点から前記対象物オブジェクトを第2仮想スクリーンに投影した第2視点画像を作成する第2視点画像作成手段と、前記第2視点画像を走査することにより、少なくとも1つの前記新たな視点から前記対象物を観察した場合の景観の定量的な値を算出する定量値算出手段と、を備えることを特徴とする景観定量化装置が開示されている。 Further, Patent Document 2 is a landscape quantification device that calculates a quantitative value of a landscape of an object by using a virtual three-dimensional space, and the shape of the object is represented by a plurality of polygons. A storage means for storing an object object and a non-object object whose shape other than the object is represented by a plurality of polygons, and the non-object object on the first virtual screen from a viewpoint set on the object object. An effective calculation point for discriminating the polygon of the non-object object drawn on the first viewpoint image by scanning the first viewpoint image and the first viewpoint image creating means for creating the projected first viewpoint image. A second viewpoint image in which each of the discriminating means and the polygon discriminated by the effective calculation point discriminating means is used as a new viewpoint, and a second viewpoint image is created by projecting the object object on the second virtual screen from the new viewpoint. It is provided with a creating means and a quantitative value calculating means for calculating a quantitative value of a landscape when the object is observed from at least one new viewpoint by scanning the second viewpoint image. A featured landscape quantifier is disclosed.

特開2018−97818号公報JP-A-2018-97818 特許第6212398号公報Japanese Patent No. 6212398

しかしながら、特許文献1に記載の技術は、人間の活動圏内から建物(施設)が視認されるか否かを推定するためのものであり、設計対象とする建物の利用者による景観に配慮した当該建物の設計に寄与することはできない、という問題点があった。 However, the technique described in Patent Document 1 is for estimating whether or not a building (facility) can be visually recognized from within the area of human activity, and is said to take into consideration the landscape of the user of the building to be designed. There was a problem that it could not contribute to the design of the building.

また、特許文献2に記載の技術は、周辺住民の生活空間から見えにくい場所を選定して建物を建設するためのものであり、特許文献1に記載の技術と同様に、設計対象とする建物の利用者による景観に配慮した当該建物の設計に寄与することはできない、という問題点があった。 Further, the technique described in Patent Document 2 is for constructing a building by selecting a place that is difficult to see from the living space of the surrounding residents, and like the technique described in Patent Document 1, the building to be designed. There was a problem that it was not possible to contribute to the design of the building in consideration of the landscape by the users.

本開示は、以上の事情を鑑みて成されたものであり、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することのできる建物設計支援装置および建物設計支援プログラムを提供することを目的とする。 This disclosure has been made in view of the above circumstances, and is a building design support device and a building design that can effectively support the design of the building in consideration of the landscape by the user of the building to be designed. The purpose is to provide a support program.

請求項1に記載の本発明に係る建物設計支援装置は、建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも前記建物の外側の方向に対する撮影により得られた画像情報を取得する取得部と、前記取得部によって取得された画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割する分割部と、前記分割部によって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出する導出部と、前記導出部によって導出された景観情報を用いて、予め定められた処理を実行する実行部と、を備える。 The building design support device according to the present invention according to claim 1 is image information obtained by photographing at least the outside direction of the building at a predetermined position in the site of the building at the planned construction site of the building. The acquisition unit that acquires the image, the division unit that divides the image indicated by the image information acquired by the acquisition unit for each of a plurality of predetermined types of landscape elements, and the plurality of landscape elements obtained by the division unit. It includes a derivation unit that derives landscape information indicating the ratio of the area between the divided regions, and an execution unit that executes a predetermined process using the landscape information derived by the derivation unit.

請求項1に記載の本発明に係る建物設計支援装置によれば、建物の敷地内の予め定められた位置における当該建物の外側の方向に対する撮影により得られた画像の予め定められた複数種類の景観要素毎の面積の比率を示す景観情報を用いて予め定められた処理を実行することで、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することができる。 According to the building design support device according to the present invention according to claim 1, a plurality of predetermined types of images obtained by photographing in a predetermined position on the site of the building in a direction to the outside of the building. By executing a predetermined process using landscape information indicating the ratio of the area of each landscape element, it is possible to effectively support the design of the building in consideration of the landscape by the user of the building to be designed. it can.

請求項2に記載の本発明に係る建物設計支援装置は、請求項1に記載の建物設計支援装置であって、前記予め定められた処理は、仮想的に作成した前記建物の外壁面における対応する位置に前記景観情報が示す前記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び前記面積の比率を表示する表示処理の少なくとも一方であるものである。 The building design support device according to the present invention according to claim 2 is the building design support device according to claim 1, and the predetermined process corresponds to a virtually created outer wall surface of the building. It is at least one of a mapping process that virtually maps an image representing the ratio of the area indicated by the landscape information to the position to be used and a display process that displays the ratio of the area.

請求項2に記載の本発明に係る建物設計支援装置によれば、予め定められた処理を、仮想的に作成した建物の外壁面における対応する位置に景観情報が示す面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び上記面積の比率を表示する表示処理の少なくとも一方とすることで、より直感的な建物の設計を支援することができる。 According to the building design support device according to the present invention according to claim 2, an image showing the ratio of the area indicated by the landscape information to the corresponding position on the outer wall surface of the building virtually created by performing the predetermined processing is displayed. A more intuitive building design can be supported by performing at least one of the mapping process for virtually mapping and the display process for displaying the ratio of the above areas.

請求項3に記載の本発明に係る建物設計支援装置は、請求項1又は請求項2に記載の建物設計支援装置であって、前記面積の比率は、対応する領域に占める画素数の比率であるものである。 The building design support device according to the present invention according to claim 3 is the building design support device according to claim 1 or 2, and the ratio of the area is the ratio of the number of pixels to the corresponding area. There is.

請求項3に記載の本発明に係る建物設計支援装置によれば、面積の比率を、対応する領域に占める画素数の比率とすることで、より簡易に建物の設計を支援することができる。 According to the building design support device according to the present invention according to claim 3, the building design can be supported more easily by setting the area ratio to the ratio of the number of pixels to the corresponding area.

請求項4に記載の本発明に係る建物設計支援装置は、請求項1〜請求項3の何れか1項に記載の建物設計支援装置であって、前記取得部は、前記敷地内の、幅、奥行き、高さの3方向における複数の位置での前記撮影により得られた画像情報を取得するものである The building design support device according to the present invention according to claim 4 is the building design support device according to any one of claims 1 to 3, and the acquisition unit has a width within the site. The image information obtained by the shooting at a plurality of positions in the three directions of depth, depth, and height is acquired.

請求項4に記載の本発明に係る建物設計支援装置によれば、敷地内の、幅、奥行き、高さの3方向における複数の位置での撮影により得られた画像情報を取得することで、建物における、より多くの位置での景観に対応することができ、より効果的に建物の設計を支援することができる。 According to the building design support device according to the present invention according to claim 4, by acquiring image information obtained by photographing at a plurality of positions in three directions of width, depth, and height in the site. It is possible to correspond to the landscape at more positions in the building and to support the design of the building more effectively.

請求項5に記載の本発明に係る建物設計支援装置は、請求項1〜請求項4の何れか1項に記載の建物設計支援装置であって、前記撮影は、全方位撮影であるものである。 The building design support device according to the present invention according to claim 5 is the building design support device according to any one of claims 1 to 4, and the photographing is omnidirectional photography. is there.

請求項5に記載の本発明に係る建物設計支援装置によれば、撮影を、全方位撮影とすることで、より多くの方向に対する景観に対応することができ、より効果的に建物の設計を支援することができる。 According to the building design support device according to the present invention according to claim 5, by making the shooting omnidirectional shooting, it is possible to correspond to the landscape in more directions, and the building design can be performed more effectively. Can help.

請求項6に記載の本発明に係る建物設計支援装置は、請求項1〜請求項5の何れか1項に記載の建物設計支援装置であって、前記景観要素は、前記敷地の外側に存在し、かつ、自然物を示す自然物要素であるものである。 The building design support device according to the present invention according to claim 6 is the building design support device according to any one of claims 1 to 5, and the landscape element exists outside the site. However, it is a natural object element that indicates a natural object.

請求項6に記載の本発明に係る建物設計支援装置によれば、景観要素を、敷地の外側に存在し、かつ、自然物を示す自然物要素とすることで、自然環境を重視した建物の設計を支援することができる。 According to the building design support device according to the present invention according to claim 6, by making the landscape element a natural object element that exists outside the site and indicates a natural object, a building design that emphasizes the natural environment can be performed. I can help.

請求項7に記載の本発明に係る建物設計支援装置は、請求項6に記載の建物設計支援装置であって、前記自然物要素は、空、海、及び植生の少なくとも1つの要素を含むものである。 The building design support device according to the present invention according to claim 7 is the building design support device according to claim 6, and the natural object element includes at least one element of sky, sea, and vegetation.

請求項7に記載の本発明に係る建物設計支援装置によれば、自然物要素を、重視される傾向が比較的高い、空、海、及び植生の少なくとも1つの要素を含むものとすることで、より多くの需要に対応する建物の設計を支援することができる。 According to the building design support device according to the present invention according to claim 7, more natural objects are included by including at least one element of sky, sea, and vegetation, which tends to be relatively emphasized. Can assist in the design of buildings to meet the demands of.

請求項8に記載の本発明に係る建物設計支援プログラムは、建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも前記建物の外側の方向に対する撮影により得られた画像情報を取得し、取得した画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割し、分割によって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出し、導出した景観情報を用いて、予め定められた処理を実行する、処理をコンピュータに実行させる。 The building design support program according to the present invention according to claim 8 is image information obtained by photographing at least the outside direction of the building at a predetermined position in the site of the building at the planned construction site of the building. The image indicated by the acquired image information is divided into each of a plurality of predetermined types of landscape elements, and the landscape information indicating the ratio of the area between the divided areas for each of the plurality of landscape elements obtained by the division. Is derived, and the derived landscape information is used to execute a predetermined process, and the computer is made to execute the process.

請求項8に記載の本発明に係る建物設計支援プログラムによれば、建物の敷地内の予め定められた位置における当該建物の外側の方向に対する撮影により得られた画像の予め定められた複数種類の景観要素毎の面積の比率を示す景観情報を用いて予め定められた処理を実行することで、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することができる。 According to the building design support program according to the present invention according to claim 8, a plurality of predetermined types of images obtained by photographing in a predetermined position on the site of the building in a direction to the outside of the building. By executing a predetermined process using landscape information indicating the ratio of the area of each landscape element, it is possible to effectively support the design of the building in consideration of the landscape by the user of the building to be designed. it can.

以上説明したように、本発明によれば、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することができる。 As described above, according to the present invention, it is possible to effectively support the design of the building in consideration of the landscape by the user of the building to be designed.

実施形態に係る建物設計支援装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the building design support apparatus which concerns on embodiment. 実施形態に係る建物設計支援装置の機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the building design support device which concerns on embodiment. 実施形態に係る撮影による画像情報の取得方法の説明に供する模式図である。It is a schematic diagram provided for the explanation of the acquisition method of the image information by photography which concerns on embodiment. 実施形態に係る建物情報データベースの構成の一例を示す模式図(斜視図)である。It is a schematic diagram (perspective view) which shows an example of the structure of the building information database which concerns on embodiment. 実施形態に係る撮影画像情報データベースの構成の一例を示す模式図である。It is a schematic diagram which shows an example of the structure of the photographed image information database which concerns on embodiment. 実施形態に係る建物設計支援処理の一例を示すフローチャートである。It is a flowchart which shows an example of the building design support processing which concerns on embodiment. 実施形態に係る対象情報入力画面の構成の一例を示す正面図である。It is a front view which shows an example of the structure of the target information input screen which concerns on embodiment. 実施形態に係る画像の分割の説明に供する図であり、左図は撮影によって得られた画像の一例を示す図であり、右図は左図に示す画像の分割結果の一例を示す図である。It is a figure which provides the explanation of the division of the image which concerns on embodiment, the left figure is a figure which shows an example of the image obtained by photography, and the right figure is the figure which shows an example of the division result of the image shown in the left figure. .. 実施形態に係る景観情報を模式的に示す模式図である。It is a schematic diagram which shows typically the landscape information which concerns on embodiment. 実施形態に係るマッピング画面の一例を示す図であり、表示当初のマッピング画面の一例を示す正面図である。It is a figure which shows an example of the mapping screen which concerns on embodiment, and is the front view which shows the example of the mapping screen at the time of display. 実施形態に係るマッピング画面の一例を示す図であり、指定された位置に対応する景観情報(面積比率)を表示した場合のマッピング画面の一例を示す正面図である。It is a figure which shows an example of the mapping screen which concerns on embodiment, and is the front view which shows an example of the mapping screen when landscape information (area ratio) corresponding to a designated position is displayed. 実施形態に係るマッピング画面の一例を示す図であり、建物への変更を反映した場合のマッピング画面の一例を示す正面図である。It is a figure which shows an example of the mapping screen which concerns on embodiment, and is the front view which shows an example of the mapping screen when the change to a building is reflected.

以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。 Hereinafter, examples of embodiments for carrying out the present invention will be described in detail with reference to the drawings.

まず、図1及び図2を参照して、本実施形態に係る建物設計支援装置10の構成を説明する。なお、建物設計支援装置10の例としては、パーソナルコンピュータ及びサーバコンピュータ等の情報処理装置が挙げられる。 First, the configuration of the building design support device 10 according to the present embodiment will be described with reference to FIGS. 1 and 2. Examples of the building design support device 10 include information processing devices such as personal computers and server computers.

本実施形態に係る建物設計支援装置10は、CPU(Central Processing Unit)11、一時記憶領域としてのメモリ12、不揮発性の記憶部13、キーボードとマウス等の入力部14、液晶ディスプレイ等の表示部15、媒体読み書き装置(R/W)16及び通信インタフェース(I/F)部18を備えている。CPU11、メモリ12、記憶部13、入力部14、表示部15、媒体読み書き装置16及び通信I/F部18はバスB1を介して互いに接続されている。媒体読み書き装置16は、記録媒体17に書き込まれている情報の読み出し及び記録媒体17への情報の書き込みを行う。 The building design support device 10 according to the present embodiment includes a CPU (Central Processing Unit) 11, a memory 12 as a temporary storage area, a non-volatile storage unit 13, an input unit 14 such as a keyboard and a mouse, and a display unit such as a liquid crystal display. 15. The medium reading / writing device (R / W) 16 and the communication interface (I / F) unit 18 are provided. The CPU 11, the memory 12, the storage unit 13, the input unit 14, the display unit 15, the medium reading / writing device 16, and the communication I / F unit 18 are connected to each other via the bus B1. The medium reading / writing device 16 reads out the information written on the recording medium 17 and writes the information on the recording medium 17.

記憶部13はHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現される。記憶媒体としての記憶部13には、建物設計支援プログラム13Aが記憶されている。建物設計支援プログラム13Aは、建物設計支援プログラム13Aが書き込まれた記録媒体17が媒体読み書き装置16にセットされ、媒体読み書き装置16が記録媒体17からの建物設計支援プログラム13Aの読み出しを行うことで、記憶部13へ記憶される。CPU11は、建物設計支援プログラム13Aを記憶部13から読み出してメモリ12に展開し、建物設計支援プログラム13Aが有するプロセスを順次実行する。 The storage unit 13 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The building design support program 13A is stored in the storage unit 13 as a storage medium. In the building design support program 13A, the recording medium 17 in which the building design support program 13A is written is set in the medium read / write device 16, and the medium read / write device 16 reads the building design support program 13A from the recording medium 17. It is stored in the storage unit 13. The CPU 11 reads the building design support program 13A from the storage unit 13 and expands it into the memory 12, and sequentially executes the processes included in the building design support program 13A.

また、記憶部13には、建物情報データベース13B及び撮影画像情報データベース13Cが記憶される。建物情報データベース13B及び撮影画像情報データベース13Cについては、詳細を後述する。 Further, the building information database 13B and the photographed image information database 13C are stored in the storage unit 13. Details of the building information database 13B and the photographed image information database 13C will be described later.

次に、図2を参照して、本実施形態に係る建物設計支援装置10の機能的な構成について説明する。図2に示すように、建物設計支援装置10は、取得部11A、分割部11B、導出部11C及び実行部11Dを含む。建物設計支援装置10のCPU11が建物設計支援プログラム13Aを実行することで、取得部11A、分割部11B、導出部11C及び実行部11Dとして機能する。 Next, with reference to FIG. 2, the functional configuration of the building design support device 10 according to the present embodiment will be described. As shown in FIG. 2, the building design support device 10 includes an acquisition unit 11A, a division unit 11B, a derivation unit 11C, and an execution unit 11D. When the CPU 11 of the building design support device 10 executes the building design support program 13A, it functions as an acquisition unit 11A, a division unit 11B, a derivation unit 11C, and an execution unit 11D.

本実施形態に係る取得部11Aは、設計支援の対象とする建物(以下、「対象建物」という。)の建築予定地における当該対象建物の敷地内の予め定められた位置において、少なくとも対象建物の外側の方向に対する撮影により得られた画像情報を取得する。 The acquisition unit 11A according to the present embodiment is at least a target building at a predetermined position within the site of the target building at the planned construction site of the building targeted for design support (hereinafter referred to as “target building”). The image information obtained by shooting in the outer direction is acquired.

本実施形態に係る取得部11Aは、一例として図3に示すように、対象建物の敷地60内の、幅、奥行き、高さの3方向における複数の位置での撮影によって得られた画像情報を取得する。また、本実施形態に係る取得部11Aは、一例として図3に示すように、ラジオ・コントロール(Radio Control)によって無線で飛行する飛行体(本実施形態では、ドローン)80に設けられた撮影装置による撮影によって得られた画像情報を取得する。但し、この形態に限るものではなく、上記ドローンに代えて、ラジオ・コントロールによって無線で飛行するヘリコプターや、クレーン車のブームの先端部等を適用する形態としてもよい。 As shown in FIG. 3 as an example, the acquisition unit 11A according to the present embodiment captures image information obtained by photographing at a plurality of positions in the site 60 of the target building in three directions of width, depth, and height. get. Further, as shown in FIG. 3, as an example, the acquisition unit 11A according to the present embodiment is a photographing device provided in an air vehicle (drone in the present embodiment) 80 that flies wirelessly by radio control. Acquires the image information obtained by shooting with. However, the present invention is not limited to this form, and instead of the above drone, a helicopter flying wirelessly by radio control, the tip of a boom of a crane vehicle, or the like may be applied.

本実施形態では、飛行体80に設けられた撮影装置による撮影によって得られた画像情報を、一旦、後述する撮影画像情報データベース13Cとして記憶部13に記憶(登録)する。そして、本実施形態に係る取得部11Aが撮影画像情報データベース13Cから読み出すことによって上記画像情報を取得する。また、本実施形態では、上記撮影装置として全方位カメラ(所謂全天球カメラ)を用いて、当該撮影装置により全方位撮影を行うことによって画像情報を得る。但し、この形態に限るものではなく、例えば、上記撮影装置として正面の方向のみを撮影する通常のカメラを用いて、建物を基準として敷地60の外側の方向のみの撮影を行うことにより画像情報を得る形態としてもよい。 In the present embodiment, the image information obtained by photographing by the photographing device provided in the flying object 80 is temporarily stored (registered) in the storage unit 13 as the photographed image information database 13C described later. Then, the acquisition unit 11A according to the present embodiment acquires the image information by reading from the captured image information database 13C. Further, in the present embodiment, an omnidirectional camera (so-called omnidirectional camera) is used as the imaging device, and image information is obtained by performing omnidirectional imaging with the imaging device. However, the present invention is not limited to this form. For example, the image information can be obtained by taking a picture only in the direction outside the site 60 with the building as a reference by using a normal camera that takes a picture only in the front direction as the above-mentioned shooting device. It may be in the form of obtaining.

また、本実施形態に係る分割部11Bは、取得部11Aによって取得された画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割する。本実施形態では、上記景観要素に、敷地60の外側に存在し、かつ、自然物を示す自然物要素と、敷地60の外側に存在し、かつ、人工物を示す人工物要素と、を含めている。また、本実施形態では、上記自然物要素として、空、海、及び植生の3種類の要素を含め、上記人工物要素として、道路及び建物の2種類の要素を含めている。但し、自然物要素及び人工物要素は、これらの要素の組み合わせに限らず、これらの要素から何れかの要素を除いてもよいし、他の対応する要素(例えば、河川、湖沼、山岳等)を更に含めてもよいことは言うまでもない。また、自然物要素及び人工物要素の何れか一方のみ適用する形態としてもよい。 Further, the division unit 11B according to the present embodiment divides the image indicated by the image information acquired by the acquisition unit 11A into each of a plurality of predetermined types of landscape elements. In the present embodiment, the landscape element includes a natural object element that exists outside the site 60 and indicates a natural object, and an artificial object element that exists outside the site 60 and indicates an artificial object. .. Further, in the present embodiment, the natural object element includes three types of elements of sky, sea, and vegetation, and the artificial object element includes two types of elements of road and building. However, the natural object element and the artificial object element are not limited to the combination of these elements, and any element may be excluded from these elements, and other corresponding elements (for example, rivers, lakes, mountains, etc.) may be excluded. Needless to say, it may be included further. Further, it may be a form in which only one of the natural object element and the artificial object element is applied.

本実施形態に係る分割部11Bでは、上記景観要素の各々毎の分割を、深層学習技術を用いたセマンティック・セグメンテーション(Semantic Segmentation)の手法を用いて行う。また、本実施形態では、実際の都市の景観画像を用いた教師データを作成し、学習させている。なお、深層学習技術を用いたセマンティック・セグメンテーションの技術は、「ICUC10_Fang-Ying GONG_GSV-ViewFactorMaps_6-10 August 2018,「Google Street Viewを用いた、気候研究における超過密都市環境の街路要素の定量化」」、「Badrinarayanan, V., Kendall, A., & Cipolla, R. (2017). Segnet: A deep convolutional encoder-decoder architecture for image segmentation. IEEE transactions on pattern analysis and machine intelligence, 39(12), 2481-2495.」、「Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4), 834-848.」等にも記載されており、広く知られている技術であることから、これ以上のここでの説明は省略する。 In the division unit 11B according to the present embodiment, each of the above landscape elements is divided by using a method of semantic segmentation using a deep learning technique. Further, in the present embodiment, teacher data using an actual cityscape image is created and trained. In addition, the technology of semantic segmentation using deep learning technology is "ICUC10_Fang-Ying GONG_GSV-ViewFactorMaps_6-10 August 2018," Quantification of street elements of overcrowded urban environment in climate research using Google Street View "" , "Badrinarayanan, V., Kendall, A., & Cipolla, R. (2017). Segnet: A deep convolutional encoder-decoder architecture for image segmentation. IEEE transactions on pattern analysis and machine intelligence, 39 (12), 2481- 2495. ”,“ Chen, LC, Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, AL (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. It is also described in "IEEE transactions on pattern analysis and machine intelligence, 40 (4), 834-848." Etc., and since it is a widely known technology, further description here is omitted.

このように、本実施形態に係る分割部11Bでは、画像の景観要素毎の分割を、深層学習技術を用いたセマンティック・セグメンテーションの手法を用いて行っているが、この形態に限らない。例えば、インスタンス・セグメンテーション(Instance-aware Segmentation)等の他の画像セグメンテーション技術を適用する形態としてもよい。 As described above, in the division portion 11B according to the present embodiment, the division of each landscape element of the image is performed by using the method of semantic segmentation using the deep learning technique, but the present invention is not limited to this embodiment. For example, it may be a form in which another image segmentation technique such as Instance-aware Segmentation is applied.

また、本実施形態に係る導出部11Cは、分割部11Bによって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出する。なお、本実施形態に係る導出部11Cでは、上記景観要素毎の分割領域間の面積の比率として、対応する景観要素が占める領域における、対応する画像情報の画素数の比率を適用している。 Further, the out-licensing unit 11C according to the present embodiment derives landscape information indicating the ratio of the area between the divided regions for each of the plurality of landscape elements obtained by the divided unit 11B. In the out-licensing unit 11C according to the present embodiment, the ratio of the number of pixels of the corresponding image information in the area occupied by the corresponding landscape element is applied as the ratio of the area between the divided regions for each landscape element.

そして、本実施形態に係る実行部11Dは、導出部11Cによって導出された景観情報を用いて、予め定められた処理を実行する。なお、本実施形態では、上記予め定められた処理として、仮想的に作成した対象建物の外壁面における対応する位置に景観情報が示す上記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び上記面積の比率を表示する表示処理の双方を適用している。なお、上記外壁面には、対象建物の水平方向を向いた外壁面に加えて、対象建物の上方向を向いた天井面も含まれる。但し、これらの形態に限らず、上記マッピング処理及び上記表示処理の何れか一方のみを上記予め定められた処理として適用する形態としてもよく、上記外壁面として、対象建物の水平方向を向いた外壁面のみを適用する形態としてもよい。 Then, the execution unit 11D according to the present embodiment executes a predetermined process using the landscape information derived by the out-licensing unit 11C. In the present embodiment, as the predetermined process, a mapping process that virtually maps an image representing the ratio of the area indicated by the landscape information to the corresponding position on the outer wall surface of the virtually created target building. And the display processing for displaying the ratio of the above areas is applied. The outer wall surface includes, in addition to the outer wall surface facing the horizontal direction of the target building, a ceiling surface facing upward of the target building. However, the present invention is not limited to these forms, and only one of the above mapping process and the above display process may be applied as the predetermined process, and the outer wall surface may be outside facing the horizontal direction of the target building. A form in which only the wall surface is applied may be used.

次に、図4を参照して、本実施形態に係る建物情報データベース13Bについて説明する。図4に示すように、本実施形態に係る建物情報データベース13Bは、対象建物50及び敷地60の全体的な形状を示す建築対象モデル70が記憶されている。なお、図4は対象建物50及び敷地60を模式的に示した斜視図である。 Next, the building information database 13B according to the present embodiment will be described with reference to FIG. As shown in FIG. 4, the building information database 13B according to the present embodiment stores a building target model 70 showing the overall shape of the target building 50 and the site 60. Note that FIG. 4 is a perspective view schematically showing the target building 50 and the site 60.

本実施形態では、建築対象モデル70を予め定められた3次元CAD(Computer Aided Design)ソフトウェアを用いて作成している。本実施形態では、上記3次元CADソフトウェアとして、ライノセラス(Rhinoceros)(登録商標)を適用しているが、これに限らない。例えば、レビット(Revit)(登録商標)等の他のソフトウェアを上記3次元CADソフトウェアとして適用する形態としてもよい。 In the present embodiment, the building target model 70 is created by using predetermined three-dimensional CAD (Computer Aided Design) software. In the present embodiment, Rhinoceros (registered trademark) is applied as the above-mentioned three-dimensional CAD software, but the present invention is not limited to this. For example, other software such as Revit (registered trademark) may be applied as the above-mentioned three-dimensional CAD software.

次に、図5を参照して、本実施形態に係る撮影画像情報データベース13Cについて説明する。図5に示すように、本実施形態に係る撮影画像情報データベース13Cは、位置情報及び画像情報が関連付けられて記憶されている。 Next, the photographed image information database 13C according to the present embodiment will be described with reference to FIG. As shown in FIG. 5, the photographed image information database 13C according to the present embodiment stores the position information and the image information in association with each other.

上記位置情報は、飛行体80による撮影位置を示す情報であり、上記画像情報は、対応する撮影位置での撮影によって得られた画像情報である。なお、図5に示すように、本実施形態では、上記位置情報として、予め定められた位置(本実施形態では、建築対象モデル70における所定の原点位置)を原点とした3次元座標により示される情報を適用している。但し、位置情報は以上の形態に限るものでなく、飛行体80による撮影位置が特定される情報であれば、如何なる情報も適用できることは言うまでもない。 The position information is information indicating a shooting position by the flying object 80, and the image information is image information obtained by shooting at a corresponding shooting position. As shown in FIG. 5, in the present embodiment, the position information is indicated by three-dimensional coordinates with a predetermined position (in the present embodiment, a predetermined origin position in the building target model 70) as the origin. The information is being applied. However, the position information is not limited to the above form, and it goes without saying that any information can be applied as long as it is information that specifies the shooting position by the flying object 80.

次に、図6〜図12を参照して、本実施形態に係る建物設計支援装置10の作用を説明する。ユーザによって建物設計支援プログラム13Aの実行を開始する指示入力が入力部14を介して行われた場合に、建物設計支援装置10のCPU11が当該建物設計支援プログラム13Aを実行することにより、図6に示す建物設計支援処理が実行される。なお、ここでは、錯綜を回避するために、建物情報データベース13B及び撮影画像情報データベース13Cが構築済みである場合について説明する。 Next, the operation of the building design support device 10 according to the present embodiment will be described with reference to FIGS. 6 to 12. When an instruction input for starting execution of the building design support program 13A is performed by the user via the input unit 14, the CPU 11 of the building design support device 10 executes the building design support program 13A, whereby FIG. The building design support process shown is executed. In addition, here, in order to avoid confusion, the case where the building information database 13B and the photographed image information database 13C have already been constructed will be described.

図6のステップ200で、取得部11Aは、処理対象とする建築対象モデル70を建物情報データベース13Bから読み出し、ステップ202で、取得部11Aは、読み出した建築対象モデル70に関する全ての位置情報及び画像情報を撮影画像情報データベース13Cから読み出す。ステップ204で、取得部11Aは、予め定められた構成とされた対象情報入力画面を表示するように表示部15を制御し、ステップ206で、取得部11Aは、所定情報が入力されるまで待機する。 In step 200 of FIG. 6, the acquisition unit 11A reads the building target model 70 to be processed from the building information database 13B, and in step 202, the acquisition unit 11A reads all the position information and images related to the read building target model 70. Information is read from the captured image information database 13C. In step 204, the acquisition unit 11A controls the display unit 15 so as to display the target information input screen having a predetermined configuration, and in step 206, the acquisition unit 11A waits until the predetermined information is input. To do.

図7には、本実施形態に係る対象情報入力画面の一例が示されている。図7に示すように、本実施形態に係る対象情報入力画面では、分割の対象とする景観要素、及び着目する景観要素の入力を促すメッセージと共に、分割の対象とする景観要素を入力するための入力領域15A及び着目する景観要素を入力するための入力領域15Bが表示される。 FIG. 7 shows an example of the target information input screen according to the present embodiment. As shown in FIG. 7, on the target information input screen according to the present embodiment, the landscape element to be divided is input together with the message prompting the input of the landscape element to be divided and the landscape element to be focused on. The input area 15A and the input area 15B for inputting the landscape element of interest are displayed.

一例として図7に示す対象情報入力画面が表示部15に表示されると、ユーザは、入力部14を介して、分割の対象とする景観要素(本実施形態では、空、海、植生、道路及び建物の少なくとも1つの景観要素)を入力領域15Aに入力し、着目する景観要素を入力領域15Bに入力した後、終了ボタン15Eを指定する。これに応じて、ステップ206が肯定判定となって、ステップ208に移行する。以下では、ここでユーザによって入力された分割の対象とする景観要素を「適用景観要素」といい、着目する景観要素を「着目景観要素」という。 As an example, when the target information input screen shown in FIG. 7 is displayed on the display unit 15, the user can use the input unit 14 to divide the landscape elements (in the present embodiment, the sky, the sea, vegetation, and the road). And at least one landscape element of the building) is input to the input area 15A, the landscape element of interest is input to the input area 15B, and then the end button 15E is specified. In response to this, step 206 becomes an affirmative determination, and the process proceeds to step 208. In the following, the landscape element to be divided, which is input by the user, is referred to as an "applied landscape element", and the landscape element of interest is referred to as a "focused landscape element".

ステップ208で、分割部11Bは、読み出した全ての画像情報に対して、各画像情報が示す画像を、上述した画像セグメンテーション技術を用いて適用景観要素の各要素別に分割する。 In step 208, the division unit 11B divides the image indicated by each image information into each element of the applied landscape element by using the above-mentioned image segmentation technique for all the read image information.

図8には、画像セグメンテーション技術による各要素別の分割前後の画像の例が示されている。なお、図8の左図が分割前の画像(図8では「原画像」と表記。)の例であり、図8の右図が当該画像に対する分割後の画像(図8では「セグメンテーション画像」と表記。)の例である。また、図8に示す例では、適用景観要素として、植生、歩道、車道、建物及び空を適用しており、各景観要素を異なる濃度で表している。 FIG. 8 shows an example of images before and after division for each element by the image segmentation technique. The left figure of FIG. 8 is an example of the image before division (indicated as “original image” in FIG. 8), and the right figure of FIG. 8 is the image after division with respect to the image (“segmentation image” in FIG. 8”. It is an example of.). Further, in the example shown in FIG. 8, vegetation, sidewalks, roadways, buildings and the sky are applied as applicable landscape elements, and each landscape element is represented by a different concentration.

ステップ210で、導出部11Cは、以上の処理によって得られた適用景観要素毎の分割領域間の面積の比率(以下、「面積比率」という。)を示す景観情報を、読み出した全ての画像情報について、画像情報毎に導出する。なお、本実施形態では、上述したように、上記景観情報として、対応する景観要素が占める領域における、対応する画像情報の画素数の比率を適用している。この結果、例えば、ある画像情報については「40(空):10(海):15(植生):20(道路)・・・」といった情報(面積比率)が景観情報として、画像情報毎に導出される。 In step 210, the derivation unit 11C reads out all the image information indicating the landscape information indicating the ratio of the area between the divided regions for each applied landscape element (hereinafter, referred to as “area ratio”) obtained by the above processing. Is derived for each image information. In the present embodiment, as described above, the ratio of the number of pixels of the corresponding image information in the area occupied by the corresponding landscape element is applied as the landscape information. As a result, for example, for certain image information, information (area ratio) such as "40 (sky): 10 (sea): 15 (vegetation): 20 (road) ..." is derived for each image information as landscape information. Will be done.

図9には、図3に示す敷地60を処理対象とした場合の、適用景観要素における1つの景観要素(一例として、植生)について、図3に示す幅方向に並ぶ複数(図9に示す例では4面)の鉛直平面の位置における景観情報を、面積比率毎に異なる濃度で表したものの一例が示されている。本例において、例えば、図9に示す各鉛直平面において、対応する鉛直平面の面内における撮影箇所が奥行き方向及び高さ方向に対して各々100箇所である場合は、100箇所×100箇所の10000箇所における景観情報が示される。なお、図9に示す例では、面積比率が大きいほど、濃度が高くなるように表している。 In FIG. 9, when the site 60 shown in FIG. 3 is treated, one landscape element (vegetation as an example) in the applicable landscape element is arranged in the width direction shown in FIG. 3 (example shown in FIG. 9). An example is shown in which the landscape information at the positions of the vertical planes (4 planes) is expressed in different concentrations for each area ratio. In this example, for example, in each vertical plane shown in FIG. 9, when there are 100 imaging locations in the corresponding vertical plane in the depth direction and the height direction, 100 locations × 100 locations of 10000 Landscape information at the location is shown. In the example shown in FIG. 9, the larger the area ratio, the higher the concentration.

ステップ212で、実行部11Dは、以上の処理によって得られた画像情報毎の景観情報を用いて、ユーザによって指定された着目景観要素に関する景観情報(面積比率)を示す画像を、建築対象モデル70における対象建物の外壁面の対応する位置に仮想的にマッピングするマッピング処理を行う。 In step 212, the execution unit 11D uses the landscape information for each image information obtained by the above processing to create an image showing the landscape information (area ratio) regarding the landscape element of interest specified by the user, in the building target model 70. Performs a mapping process that virtually maps to the corresponding position on the outer wall surface of the target building in.

ステップ214で、実行部11Dは、マッピング処理された対象建物を表示する画面(以下、「マッピング画面」という。)を表示するように表示部15を制御する。 In step 214, the execution unit 11D controls the display unit 15 so as to display a screen (hereinafter, referred to as “mapping screen”) for displaying the target building that has been mapped.

図10には、本実施形態に係るマッピング画面の一例が示されている。図10に示すように、本実施形態に係るマッピング画面では、ユーザによって指定された着目景観要素(図10に示す例では、「空」)が表示されると共に、マッピング処理された対象建物50Aが表示される。一例として図10に示すように、本実施形態に係るマッピング処理では、対象建物50の外壁面に相当する面の位置における景観情報(面積比率)が、一例として図9を参照して説明したように面積比率を異なる濃度で表した画像として、対応する外壁面の位置に表示される。 FIG. 10 shows an example of a mapping screen according to the present embodiment. As shown in FIG. 10, on the mapping screen according to the present embodiment, the landscape element of interest designated by the user (“sky” in the example shown in FIG. 10) is displayed, and the target building 50A that has been mapped is displayed. Is displayed. As shown in FIG. 10 as an example, in the mapping process according to the present embodiment, the landscape information (area ratio) at the position of the surface corresponding to the outer wall surface of the target building 50 is described with reference to FIG. 9 as an example. It is displayed at the position of the corresponding outer wall surface as an image showing the area ratio with different densities.

ユーザは、一例として図10に示すマッピング画面を参照することにより、対象建物50の外壁面の各位置における着目景観要素の占める面積比率を直感的に把握することができる。このため、ユーザは、対象建物50に要求される景観条件を満足させたり、対象建物50に課せられたアピール点を際立たせたりするべく、対象建物50の外観的な形状の変更、対象建物50に設けられる各室のレイアウトの変更、対象建物50に設けられる各種設備の配置位置の変更等を行うことができる。以下では、これらの対象建物50に対する各種変更を、「建物変更」という。 By referring to the mapping screen shown in FIG. 10 as an example, the user can intuitively grasp the area ratio occupied by the landscape element of interest at each position of the outer wall surface of the target building 50. Therefore, the user changes the external shape of the target building 50 and changes the target building 50 in order to satisfy the landscape conditions required for the target building 50 and to emphasize the appeal point imposed on the target building 50. It is possible to change the layout of each room provided in the target building 50, change the arrangement position of various facilities provided in the target building 50, and the like. In the following, various changes to the target building 50 will be referred to as "building changes".

一例として図10に示されるマッピング画面が表示されると、ユーザは、所望の位置の景観情報の各値を表示させたい場合は、入力部14を介して、景観情報表示ボタン15Cを指定した後に、景観情報を表示したい位置を指定する。また、ユーザは、対象建物50に対する建物変更を行いたい場合は、入力部14を介して、建物変更ボタン15Dを指定した後に、所望の建物変更のための操作を行う。 When the mapping screen shown in FIG. 10 is displayed as an example, when the user wants to display each value of the landscape information at a desired position, after designating the landscape information display button 15C via the input unit 14. , Specify the position where you want to display the landscape information. Further, when the user wants to change the building for the target building 50, the user performs a desired building change operation after designating the building change button 15D via the input unit 14.

そこで、ステップ216で、実行部11Dは、景観情報表示ボタン15Cが指定されたか否かを判定することにより、ユーザによって景観情報の表示が指定されたか否かを判定し、肯定判定となった場合はステップ218に移行する。ステップ218で、実行部11Dは、ユーザによる景観情報を表示したい位置の指定が行われるまで待機する。ステップ220で、実行部11Dは、ユーザによって指定された位置に対応する景観情報を所定時間(一例として、5秒)だけマッピング画面に表示する制御を行った後、ステップ228に移行する。 Therefore, in step 216, the execution unit 11D determines whether or not the landscape information display button 15C is specified, thereby determining whether or not the display of the landscape information is specified by the user, and a positive determination is made. Goes to step 218. In step 218, the execution unit 11D waits until the user specifies the position where the landscape information is to be displayed. In step 220, the execution unit 11D controls to display the landscape information corresponding to the position designated by the user on the mapping screen for a predetermined time (for example, 5 seconds), and then proceeds to step 228.

図11には、ユーザによって指定された位置に景観情報が表示された状態のマッピング画面の一例が示されている。図11に示すように、本実施形態では、景観情報を、指定された位置に対する、所謂吹き出しの形で表示している。この景観情報の表示により、ユーザは、より詳細な景観情報を把握することができ、よりきめ細かな建物設計を行うことができる。 FIG. 11 shows an example of a mapping screen in which landscape information is displayed at a position designated by the user. As shown in FIG. 11, in the present embodiment, the landscape information is displayed in the form of a so-called balloon with respect to the designated position. By displaying this landscape information, the user can grasp more detailed landscape information and can design a more detailed building.

一方、ステップ216において否定判定となった場合はステップ222に移行し、実行部11Dは、建物変更ボタン15Dが指定されたか否かを判定することにより、ユーザによって建物変更が指定されたか否かを判定し、肯定判定となった場合はステップ224に移行する。 On the other hand, if a negative determination is made in step 216, the process proceeds to step 222, and the execution unit 11D determines whether or not the building change button 15D has been specified, thereby determining whether or not the building change has been specified by the user. If the determination is made and the determination is affirmative, the process proceeds to step 224.

ステップ224で、実行部11Dは、ユーザによる建物変更のための操作が終了するまで待機する。ステップ226で、実行部11Dは、ユーザによって行われた建物変更を建築対象モデル70に反映させる処理を行い、その後にステップ228に移行する。なお、ステップ222において否定判定となった場合、すなわち、ユーザによって景観情報表示ボタン15C及び建物変更ボタン15Dの何れのボタンも指定されていない場合は、何ら処理を行うことなく、ステップ228に移行する。 In step 224, the execution unit 11D waits until the operation for changing the building by the user is completed. In step 226, the execution unit 11D performs a process of reflecting the building change made by the user in the building target model 70, and then proceeds to step 228. If a negative determination is made in step 222, that is, if neither the landscape information display button 15C nor the building change button 15D is specified by the user, the process proceeds to step 228 without performing any processing. ..

図12には、ユーザによって対象建物50に対して複数の設備(図12に示す例では、2つの窓)が所望の位置に、所望の大きさ及び形状で配置された場合のマッピング画面の一例が示されている。 FIG. 12 shows an example of a mapping screen when a plurality of facilities (two windows in the example shown in FIG. 12) are arranged at a desired position with a desired size and shape with respect to the target building 50 by the user. It is shown.

ステップ228で、実行部11Dは、マッピング画面において終了ボタン15Eが指定されたか否かを判定することにより、ユーザによって建物設計支援処理の終了が指示されたか否かを判定し、否定判定となった場合はステップ216に戻る一方、肯定判定となった場合には本建物設計支援処理を終了する。 In step 228, the execution unit 11D determines whether or not the end button 15E is specified on the mapping screen, thereby determining whether or not the user has instructed the end of the building design support process, resulting in a negative determination. In that case, the process returns to step 216, and if a positive judgment is made, the building design support process is terminated.

以上の建物設計支援処理によってユーザに提示される景観情報を用いることにより、例えば、植生の面積比率が大きい位置にガラスウォール等の開放的な外装を設ける一方、植生の面積比率が小さい位置には、機械室や倉庫等の非居室を設けるといった、定量的な景観への配慮が可能となる。また、対象建物がマンション、オフィス、レストラン、アトラクション施設等の賃貸物件である場合、建物の各所からの景観を定量化することで、より妥当な賃料設定が可能となる。例えば、オーシャン・ビューを謳うマンションにおいては、窓から外を眺めた場合の海の面積比率を定量化し、その数値に応じて賃料を設定する、といったことが可能となる。 By using the landscape information presented to the user by the above building design support process, for example, an open exterior such as a glass wall is provided at a position where the area ratio of vegetation is large, while an open exterior such as a glass wall is provided at a position where the area ratio of vegetation is small. It is possible to give consideration to the quantitative landscape, such as providing non-living rooms such as machine rooms and warehouses. In addition, when the target building is a rental property such as an apartment, office, restaurant, attraction facility, etc., it is possible to set a more appropriate rent by quantifying the scenery from each part of the building. For example, in a condominium that sings an ocean view, it is possible to quantify the area ratio of the sea when looking out from the window and set the rent according to that value.

以上説明したように、本実施形態によれば、建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも建物の外側の方向に対する撮影により得られた画像情報を取得する取得部11Aと、取得部11Aによって取得された画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割する分割部11Bと、分割部11Bによって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出する導出部11Cと、導出部11Cによって導出された景観情報を用いて、予め定められた処理を実行する実行部11Dと、を備えている。従って、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することができる。 As described above, according to the present embodiment, acquisition of image information obtained by photographing at least in the direction outside the building at a predetermined position in the site of the building at the planned construction site of the building. Each of the division 11A, the division 11B that divides the image indicated by the image information acquired by the acquisition unit 11A into each of a plurality of predetermined landscape elements, and the plurality of landscape elements obtained by the division 11B. It includes a derivation unit 11C for deriving landscape information indicating the ratio of areas between divided regions, and an execution unit 11D for executing a predetermined process using the landscape information derived by the derivation unit 11C. Therefore, it is possible to effectively support the design of the building in consideration of the landscape by the user of the building to be designed.

また、本実施形態によれば、上記予め定められた処理として、仮想的に作成した建物の外壁面における対応する位置に景観情報が示す上記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び上記面積の比率を表示する表示処理の双方を適用している。従って、より直感的な建物の設計を支援することができる。 Further, according to the present embodiment, as the predetermined process, a mapping process that virtually maps an image representing the ratio of the area indicated by the landscape information to the corresponding position on the outer wall surface of the virtually created building. , And the display processing for displaying the ratio of the above areas are applied. Therefore, it is possible to support more intuitive building design.

また、本実施形態によれば、上記面積の比率として、対応する領域に占める画素数の比率を適用している。従って、より簡易に建物の設計を支援することができる。 Further, according to the present embodiment, the ratio of the number of pixels to the corresponding area is applied as the ratio of the area. Therefore, it is possible to support the design of the building more easily.

また、本実施形態によれば、取得部11Aにより、敷地内の、幅、奥行き、高さの3方向における複数の位置での撮影により得られた画像情報を取得している。従って、建物における、より多くの位置での景観に対応することができ、より効果的に建物の設計を支援することができる。 Further, according to the present embodiment, the acquisition unit 11A acquires image information obtained by photographing at a plurality of positions in the three directions of width, depth, and height in the site. Therefore, it is possible to correspond to the landscape at more positions in the building and to support the design of the building more effectively.

また、本実施形態によれば、撮影として全方位撮影を適用している。従って、より多くの方向に対する景観に対応することができ、より効果的に建物の設計を支援することができる。 Further, according to the present embodiment, omnidirectional photography is applied as photography. Therefore, it is possible to correspond to the landscape in more directions and to support the design of the building more effectively.

また、本実施形態によれば、景観要素として、敷地の外側に存在し、かつ、自然物を示す自然物要素を適用している。従って、自然環境を重視した建物の設計を支援することができる。 Further, according to the present embodiment, as a landscape element, a natural object element that exists outside the site and indicates a natural object is applied. Therefore, it is possible to support the design of a building that emphasizes the natural environment.

さらに、本実施形態によれば、自然物要素として、空、海、及び植生を適用している。従って、より多くの需要に対応する建物の設計を支援することができる。 Further, according to the present embodiment, the sky, the sea, and the vegetation are applied as natural object elements. Therefore, it is possible to support the design of a building that meets more demand.

なお、上記実施形態では、ユーザに着目景観要素を予め設置させ、当該着目景観要素のみに関してマッピング画面を表示する場合について説明したが、これに限定されない。例えば、一例として図6に示す建物設計支援処理において、着目景観要素を随時受け付け可能としておき、着目景観要素を随時変更可能とする形態としてもよい。この形態によれば、複数の景観要素を考慮した建物設計を容易に行うことができる。 In the above embodiment, the case where the user is allowed to install the landscape element of interest in advance and the mapping screen is displayed only for the landscape element of interest has been described, but the present invention is not limited to this. For example, in the building design support process shown in FIG. 6, as an example, the landscape element of interest may be accepted at any time, and the landscape element of interest may be changed at any time. According to this form, it is possible to easily design a building in consideration of a plurality of landscape elements.

また、上記実施形態では、着目景観要素として、適用景観要素のうちの1つのみの景観要素を適用する場合について説明したが、これに限定されない。例えば、適用景観要素のうちの複数の景観要素の組み合わせを着目景観要素として適用する形態としてもよい。この場合の形態例としては、例えば、適用した複数の景観要素の面積比率の合計値を、対応する着目景観要素の景観情報として適用する形態を例示することができる。 Further, in the above embodiment, the case where only one of the applicable landscape elements is applied as the landscape element of interest has been described, but the present invention is not limited to this. For example, a combination of a plurality of landscape elements among the applicable landscape elements may be applied as the landscape element of interest. As a form example in this case, for example, a form in which the total value of the area ratios of the applied plurality of landscape elements is applied as the landscape information of the corresponding landscape element of interest can be exemplified.

また、上記実施形態では、マッピング処理において、各景観情報(面積比率)の値を濃度の違いにより表した場合について説明したが、これに限定されない。例えば、各景観情報の値を色別に表す形態としてもよい。 Further, in the above embodiment, the case where the value of each landscape information (area ratio) is represented by the difference in density in the mapping process has been described, but the present invention is not limited to this. For example, the value of each landscape information may be represented by color.

また、上記実施形態において、例えば、取得部11A、分割部11B、導出部11C及び実行部11Dの各処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 Further, in the above embodiment, for example, as the hardware structure of the processing unit that executes each process of the acquisition unit 11A, the division unit 11B, the derivation unit 11C, and the execution unit 11D, various types shown below are used. A processor can be used. As described above, the various processors include a CPU, which is a general-purpose processor that executes software (program) and functions as a processing unit, and a circuit configuration after manufacturing an FPGA (Field-Programmable Gate Array) or the like. A dedicated electric circuit that is a processor having a circuit configuration specially designed to execute a specific process such as a programmable logic device (PLD), an ASIC (Application Specific Integrated Circuit), which is a processor that can change the CPU. Etc. are included.

処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、処理部を1つのプロセッサで構成してもよい。 The processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). It may be composed of. Further, the processing unit may be configured by one processor.

処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring the processing unit with one processor, first, as represented by a computer such as a client and a server, one processor is configured by a combination of one or more CPUs and software, and this processor There is a form that functions as a processing unit. Secondly, as typified by System On Chip (SoC), there is a mode in which a processor that realizes the functions of the entire system including the processing unit with one IC (Integrated Circuit) chip is used. As described above, the processing unit is configured by using one or more of the above-mentioned various processors as a hardware structure.

更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。 Further, as the hardware structure of these various processors, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined can be used.

10 建物設計支援装置
11 CPU
11A 取得部
11B 分割部
11C 導出部
11D 実行部
12 メモリ
13 記憶部
13A 建物設計支援プログラム
13B 建物情報データベース
13C 撮影画像情報データベース
14 入力部
15 表示部
15A、15B 入力領域
15C 景観情報表示ボタン
15D 建物変更ボタン
15E 終了ボタン
16 媒体読み書き装置
17 記録媒体
18 通信I/F部
50 対象建物
60 敷地
70 建築対象モデル
80 飛行体
10 Building design support device 11 CPU
11A Acquisition unit 11B Division unit 11C Derivation unit 11D Execution unit 12 Memory 13 Storage unit 13A Building design support program 13B Building information database 13C Photographed image information database 14 Input unit 15 Display unit 15A, 15B Input area 15C Landscape information display button 15D Building change Button 15E End button 16 Media read / write device 17 Recording medium 18 Communication I / F section 50 Target building 60 Site 70 Building target model 80 Air vehicle

Claims (8)

建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも前記建物の外側の方向に対する撮影により得られた画像情報を取得する取得部と、
前記取得部によって取得された画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割する分割部と、
前記分割部によって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出する導出部と、
前記導出部によって導出された景観情報を用いて、予め定められた処理を実行する実行部と、
を備えた建物設計支援装置。
An acquisition unit that acquires image information obtained by shooting at least in the direction outside the building at a predetermined position within the site of the building at the planned construction site of the building.
A division unit that divides the image indicated by the image information acquired by the acquisition unit into each of a plurality of predetermined landscape elements, and a division unit.
A derivation unit that derives landscape information indicating the ratio of the area between the divided regions for each of the plurality of landscape elements obtained by the divided unit, and a derivation unit.
An execution unit that executes a predetermined process using the landscape information derived by the derivation unit, and an execution unit.
Building design support device equipped with.
前記予め定められた処理は、仮想的に作成した前記建物の外壁面における対応する位置に前記景観情報が示す前記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び前記面積の比率を表示する表示処理の少なくとも一方である、
請求項1に記載の建物設計支援装置。
The predetermined processing is a mapping process that virtually maps an image representing the ratio of the area indicated by the landscape information to a corresponding position on the outer wall surface of the building that is virtually created, and the ratio of the area. At least one of the display processes to display,
The building design support device according to claim 1.
前記面積の比率は、対応する領域に占める画素数の比率である、
請求項1又は請求項2に記載の建物設計支援装置。
The area ratio is the ratio of the number of pixels to the corresponding area.
The building design support device according to claim 1 or 2.
前記取得部は、前記敷地内の、幅、奥行き、高さの3方向における複数の位置での前記撮影により得られた画像情報を取得する、
請求項1〜請求項3の何れか1項に記載の建物設計支援装置。
The acquisition unit acquires image information obtained by the photographing at a plurality of positions in the three directions of width, depth, and height in the site.
The building design support device according to any one of claims 1 to 3.
前記撮影は、全方位撮影である、
請求項1〜請求項4の何れか1項に記載の建物設計支援装置。
The shooting is an omnidirectional shooting,
The building design support device according to any one of claims 1 to 4.
前記景観要素は、前記敷地の外側に存在し、かつ、自然物を示す自然物要素である、
請求項1〜請求項5の何れか1項に記載の建物設計支援装置。
The landscape element is a natural object element that exists outside the site and indicates a natural object.
The building design support device according to any one of claims 1 to 5.
前記自然物要素は、空、海、及び植生の少なくとも1つの要素を含む、
請求項6に記載の建物設計支援装置。
The natural element comprises at least one element of sky, sea, and vegetation.
The building design support device according to claim 6.
建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも前記建物の外側の方向に対する撮影により得られた画像情報を取得し、
取得した画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割し、
分割によって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出し、
導出した景観情報を用いて、予め定められた処理を実行する、
処理をコンピュータに実行させるための建物設計支援プログラム。
At a predetermined position within the site of the building at the planned construction site of the building, image information obtained by shooting at least in the direction outside the building is acquired.
The image indicated by the acquired image information is divided into each of a plurality of predetermined landscape elements.
Derived landscape information showing the ratio of the area between the divided areas for each of the plurality of landscape elements obtained by the division.
Execute a predetermined process using the derived landscape information,
A building design support program that allows a computer to perform processing.
JP2019118500A 2019-06-26 2019-06-26 Building design support device and building design support program Active JP7305919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019118500A JP7305919B2 (en) 2019-06-26 2019-06-26 Building design support device and building design support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019118500A JP7305919B2 (en) 2019-06-26 2019-06-26 Building design support device and building design support program

Publications (2)

Publication Number Publication Date
JP2021005212A true JP2021005212A (en) 2021-01-14
JP7305919B2 JP7305919B2 (en) 2023-07-11

Family

ID=74097237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118500A Active JP7305919B2 (en) 2019-06-26 2019-06-26 Building design support device and building design support program

Country Status (1)

Country Link
JP (1) JP7305919B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338037A (en) * 2000-05-29 2001-12-07 Wall:Kk Server for generating three-dimensional computer graphic picture
JP2003337959A (en) * 2002-05-21 2003-11-28 Cad Center:Kk System and method for three-dimensional data processing, and information processing program running on computer
JP2004093851A (en) * 2002-08-30 2004-03-25 Sekisui House Ltd Model house view simulation system
JP2007200130A (en) * 2006-01-27 2007-08-09 National Agriculture & Food Research Organization Scenery analysis method, computer program executing the method and medium with the program stored
WO2014017200A1 (en) * 2012-07-25 2014-01-30 ソニー株式会社 Information processing device and program
JP2018013832A (en) * 2016-07-19 2018-01-25 大成建設株式会社 Visibility factor calculation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338037A (en) * 2000-05-29 2001-12-07 Wall:Kk Server for generating three-dimensional computer graphic picture
JP2003337959A (en) * 2002-05-21 2003-11-28 Cad Center:Kk System and method for three-dimensional data processing, and information processing program running on computer
JP2004093851A (en) * 2002-08-30 2004-03-25 Sekisui House Ltd Model house view simulation system
JP2007200130A (en) * 2006-01-27 2007-08-09 National Agriculture & Food Research Organization Scenery analysis method, computer program executing the method and medium with the program stored
WO2014017200A1 (en) * 2012-07-25 2014-01-30 ソニー株式会社 Information processing device and program
JP2018013832A (en) * 2016-07-19 2018-01-25 大成建設株式会社 Visibility factor calculation device

Also Published As

Publication number Publication date
JP7305919B2 (en) 2023-07-11

Similar Documents

Publication Publication Date Title
US9330501B2 (en) Systems and methods for augmenting panoramic image data with performance related data for a building
US20170090460A1 (en) 3D Model Generation From Map Data
US20170091993A1 (en) 3D Model Generation From Map Data and User Interface
US9269196B1 (en) Photo-image-based 3D modeling system on a mobile device
US9149309B2 (en) Systems and methods for sketching designs in context
CN105122311B (en) For rendering the smooth superimposed layer of the vector data about complex three-dimensional object
Albourae et al. Architectural heritage visualization using interactive technologies
US20130300740A1 (en) System and Method for Displaying Data Having Spatial Coordinates
US10140000B2 (en) Multiscale three-dimensional orientation
CN107798725B (en) Android-based two-dimensional house type identification and three-dimensional presentation method
JP2008530595A (en) Method and apparatus for improving digital elevation model (DEM) for terrain modeling
Lu et al. Digital preservation for heritages: Technologies and applications
BR112012007559A2 (en) connectivity-dependent geometry optimization for real-time rendering
Devaux et al. 3D urban geovisualization: In situ augmented and mixed reality experiments
Hildebrandt et al. An assisting, constrained 3D navigation technique for multiscale virtual 3D city models
Trapp et al. Strategies for visualising 3D points-of-interest on mobile devices
JP7305919B2 (en) Building design support device and building design support program
Virtanen et al. Browser based 3D for the built environment
Mures et al. Virtual reality and point-based rendering in architecture and heritage
CN111429576B (en) Information display method, electronic device, and computer-readable medium
RU2783231C1 (en) Method and system for constructing navigation routes in three-dimensional model of virtual tour
Khalil et al. The role of extended realities in heritage buildings representation
Mainelli Exploring Isovist Applications in Third-Person View Visualisations of Outdoor Space Boundaries Using Point Clouds
Marji et al. Chapter Fantastical reality: Designing virtual urban space through extended reality
WO2023158346A1 (en) Constructing navigation routes in a three-dimensional model of a virtual tour

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7305919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150