JP7305919B2 - Building design support device and building design support program - Google Patents

Building design support device and building design support program Download PDF

Info

Publication number
JP7305919B2
JP7305919B2 JP2019118500A JP2019118500A JP7305919B2 JP 7305919 B2 JP7305919 B2 JP 7305919B2 JP 2019118500 A JP2019118500 A JP 2019118500A JP 2019118500 A JP2019118500 A JP 2019118500A JP 7305919 B2 JP7305919 B2 JP 7305919B2
Authority
JP
Japan
Prior art keywords
building
landscape
design support
building design
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019118500A
Other languages
Japanese (ja)
Other versions
JP2021005212A (en
Inventor
邦彦 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Corp
Original Assignee
Takenaka Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Corp filed Critical Takenaka Corp
Priority to JP2019118500A priority Critical patent/JP7305919B2/en
Publication of JP2021005212A publication Critical patent/JP2021005212A/en
Application granted granted Critical
Publication of JP7305919B2 publication Critical patent/JP7305919B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Description

本発明は、建物設計支援装置及び建物設計支援プログラムに関する。 The present invention relates to a building design support device and a building design support program.

景観に配慮した建物の建築に関する技術として、従来、次の2つの技術があった。 Conventionally, there have been the following two techniques as techniques for constructing buildings in consideration of scenery.

すなわち、特許文献1には、仮想3次元形状の地表面上において、施設の可視不可視分析を行なう範囲内の植物群落の領域の各々に、それぞれの植物群落を構成する各樹木の種類をモデル化した樹木モデルが配置された植物群落モデルを配置する植物群落設定部と、地表面上に建設を予定する敷地内に、高さが建設を予定する施設の高さである指標ポールを立てて、指標ポールの頂点の観察点から観察される地表面の領域を可視領域として抽出する可視不可視分析を行なう可視不可視分析部と、を備えることを特徴とする景観可視不可視分析システムが開示されている。 That is, in Patent Document 1, on the ground surface of a virtual three-dimensional shape, each type of each tree that constitutes each plant community is modeled in each of the plant community areas within the range where the visible and invisible analysis of the facility is performed. In the plant community setting section where the plant community model is placed with the tree model arranged, and the index pole whose height is the height of the facility planned to be constructed on the ground surface in the site where construction is planned, A landscape visibility analysis system is disclosed, comprising: a visibility analysis unit that performs a visibility analysis that extracts a ground surface area observed from an observation point at the vertex of an index pole as a visible area.

また、特許文献2には、仮想的な三次元空間を用いて、対象物の景観の定量的な値を算出する景観定量化装置であって、前記対象物の形状を複数のポリゴンで表した対象物オブジェクトおよび前記対象物以外の形状を複数のポリゴンで表した非対象物オブジェクトが記憶される記憶手段と、前記対象物オブジェクトに設定される視点から前記非対象物オブジェクトを第1仮想スクリーンに投影した第1視点画像を作成する第1視点画像作成手段と、前記第1視点画像を走査することにより、前記第1視点画像に描画される前記非対象物オブジェクトのポリゴンを判別する有効計算点判別手段と、前記有効計算点判別手段が判別したポリゴンの各々を新たな視点とし、前記新たな視点から前記対象物オブジェクトを第2仮想スクリーンに投影した第2視点画像を作成する第2視点画像作成手段と、前記第2視点画像を走査することにより、少なくとも1つの前記新たな視点から前記対象物を観察した場合の景観の定量的な値を算出する定量値算出手段と、を備えることを特徴とする景観定量化装置が開示されている。 In addition, Patent Document 2 discloses a landscape quantification device that calculates a quantitative value of the landscape of an object using a virtual three-dimensional space, wherein the shape of the object is represented by a plurality of polygons. storage means for storing a target object and a non-target object representing a shape other than the target object with a plurality of polygons; and storing the non-target object on a first virtual screen from a viewpoint set for the target object. a first viewpoint image creating means for creating a projected first viewpoint image; and effective calculation points for determining polygons of the non-target object drawn in the first viewpoint image by scanning the first viewpoint image. A second viewpoint image for creating a second viewpoint image by projecting the target object onto a second virtual screen from the new viewpoint, with each of the polygons discriminated by the discrimination means and the effective calculation point discrimination means as a new viewpoint. creation means; and quantitative value calculation means for calculating a quantitative value of the landscape when the object is observed from at least one of the new viewpoints by scanning the second viewpoint image. A feature landscape quantification apparatus is disclosed.

特開2018-97818号公報JP 2018-97818 A 特許第6212398号公報Japanese Patent No. 6212398

しかしながら、特許文献1に記載の技術は、人間の活動圏内から建物(施設)が視認されるか否かを推定するためのものであり、設計対象とする建物の利用者による景観に配慮した当該建物の設計に寄与することはできない、という問題点があった。 However, the technique described in Patent Document 1 is for estimating whether or not a building (facility) is visible from within the range of human activity, and is designed in consideration of the landscape of the user of the building to be designed. There was a problem that it could not contribute to the design of the building.

また、特許文献2に記載の技術は、周辺住民の生活空間から見えにくい場所を選定して建物を建設するためのものであり、特許文献1に記載の技術と同様に、設計対象とする建物の利用者による景観に配慮した当該建物の設計に寄与することはできない、という問題点があった。 In addition, the technology described in Patent Document 2 is for constructing a building by selecting a location that is difficult to see from the living space of the surrounding residents. However, there was a problem that it was not possible to contribute to the design of the building in consideration of the scenery by the users.

本開示は、以上の事情を鑑みて成されたものであり、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することのできる建物設計支援装置および建物設計支援プログラムを提供することを目的とする。 The present disclosure has been made in view of the above circumstances, and provides a building design support device and a building design that can effectively support the design of a building in consideration of the scenery by users of the building to be designed. The purpose is to provide support programs.

請求項1に記載の本発明に係る建物設計支援装置は、建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも前記建物の外側の方向に対する撮影により得られた画像情報を取得する取得部と、前記取得部によって取得された画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割する分割部と、前記分割部によって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出する導出部と、前記導出部によって導出された景観情報を用いて、予め定められた処理を実行する実行部と、を備え、前記予め定められた処理は、仮想的に作成した前記建物の外壁面における対応する位置に前記景観情報が示す前記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び仮想的に作成した前記建物の外壁面における対応する位置に前記面積の比率を表示する表示処理の少なくとも一方であるものである。 The building design support device according to the present invention described in claim 1 is image information obtained by photographing at least the outside direction of the building at a predetermined position within the site of the building on the planned construction site of the building. a dividing unit for dividing the image indicated by the image information obtained by the obtaining unit into each of a plurality of predetermined types of landscape elements, and a plurality of landscape elements obtained by the dividing unit A derivation unit for deriving scenery information indicating the ratio of areas between divided regions for each, and an execution unit for executing a predetermined process using the scenery information derived by the derivation unit. The predetermined processing includes a mapping process of virtually mapping the image representing the ratio of the area indicated by the landscape information to the corresponding position on the virtually created outer wall surface of the building, and the virtually created building. is at least one of display processing for displaying the ratio of the area at the corresponding position on the outer wall surface of the .

請求項1に記載の本発明に係る建物設計支援装置によれば、建物の敷地内の予め定められた位置における当該建物の外側の方向に対する撮影により得られた画像の予め定められた複数種類の景観要素毎の面積の比率を示す景観情報を用いて予め定められた処理を実行することで、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することができる。 According to the building design support apparatus according to the present invention as recited in claim 1, a plurality of predetermined types of images obtained by photographing in the direction outside the building at a predetermined position within the site of the building. By executing a predetermined process using the landscape information indicating the ratio of the area of each landscape element, it is possible to effectively support the design of the building in consideration of the landscape by the users of the building to be designed. can.

請求項1に記載の本発明に係る建物設計支援装置によれば、予め定められた処理を、仮想的に作成した建物の外壁面における対応する位置に景観情報が示す面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び仮想的に作成した建物の外壁面における対応する位置に上記面積の比率を表示する表示処理の少なくとも一方とすることで、より直感的な建物の設計を支援することができる。 According to the building design support apparatus according to the present invention described in claim 1, a predetermined process is performed to generate an image representing the ratio of the area indicated by the landscape information at the corresponding position on the outer wall surface of the virtually created building. Supporting more intuitive building design by performing at least one of a mapping process for virtually mapping and a display process for displaying the ratio of the area at the corresponding position on the outer wall surface of the virtually created building. be able to.

請求項に記載の本発明に係る建物設計支援装置は、請求項1に記載の建物設計支援装置であって、前記面積の比率は、対応する領域に占める画素数の比率であるものである。 According to claim 2 , the building design support apparatus according to the present invention is the building design support apparatus according to claim 1 , wherein the area ratio is the ratio of the number of pixels occupying the corresponding area. .

請求項に記載の本発明に係る建物設計支援装置によれば、面積の比率を、対応する領域に占める画素数の比率とすることで、より簡易に建物の設計を支援することができる。 According to the building design support device according to the second aspect of the present invention, by setting the area ratio to the ratio of the number of pixels occupying the corresponding area, it is possible to support building design more easily.

請求項に記載の本発明に係る建物設計支援装置は、請求項1又は請求項2に記載の建物設計支援装置であって、前記取得部は、前記敷地内の、幅、奥行き、高さの3方向における複数の位置での前記撮影により得られた画像情報を取得するものである The building design support device according to the present invention according to claim 3 is the building design support device according to claim 1 or claim 2 , wherein the acquisition unit obtains the width, depth, and height of the site. acquires image information obtained by the photographing at a plurality of positions in the three directions of

請求項に記載の本発明に係る建物設計支援装置によれば、敷地内の、幅、奥行き、高さの3方向における複数の位置での撮影により得られた画像情報を取得することで、建物における、より多くの位置での景観に対応することができ、より効果的に建物の設計を支援することができる。 According to the building design support device according to the present invention of claim 3 , by acquiring image information obtained by photographing at a plurality of positions in the three directions of width, depth, and height within the site, It is possible to cope with landscapes at more positions in the building, and to support the design of the building more effectively.

請求項に記載の本発明に係る建物設計支援装置は、請求項1~請求項の何れか1項に記載の建物設計支援装置であって、前記撮影は、全方位撮影であるものである。 The building design support device according to the present invention described in claim 4 is the building design support device according to any one of claims 1 to 3 , wherein the photographing is omnidirectional photographing. be.

請求項に記載の本発明に係る建物設計支援装置によれば、撮影を、全方位撮影とすることで、より多くの方向に対する景観に対応することができ、より効果的に建物の設計を支援することができる。 According to the building design support device according to the present invention as set forth in claim 4 , by taking pictures in all directions, it is possible to deal with landscapes in more directions, and design buildings more effectively. can support.

請求項に記載の本発明に係る建物設計支援装置は、請求項1~請求項の何れか1項に記載の建物設計支援装置であって、前記景観要素は、前記敷地の外側に存在し、かつ、自然物を示す自然物要素であるものである。 The building design support device according to the present invention according to claim 5 is the building design support device according to any one of claims 1 to 4 , wherein the landscape element exists outside the site. and is a natural entity element representing a natural entity.

請求項に記載の本発明に係る建物設計支援装置によれば、景観要素を、敷地の外側に存在し、かつ、自然物を示す自然物要素とすることで、自然環境を重視した建物の設計を支援することができる。 According to the building design support device according to the present invention as recited in claim 5 , the landscape element is a natural object element that exists outside the site and represents a natural object, thereby designing a building with an emphasis on the natural environment. can support.

請求項に記載の本発明に係る建物設計支援装置は、請求項に記載の建物設計支援装置であって、前記自然物要素は、空、海、及び植生の少なくとも1つの要素を含むものである。 According to claim 6 , the building design support apparatus according to the present invention is the building design support apparatus according to claim 5 , wherein the natural element includes at least one element of sky, sea, and vegetation.

請求項に記載の本発明に係る建物設計支援装置によれば、自然物要素を、重視される傾向が比較的高い、空、海、及び植生の少なくとも1つの要素を含むものとすることで、より多くの需要に対応する建物の設計を支援することができる。
請求項7に記載の本発明に係る建物設計支援装置は、請求項1~請求項6の何れか1項に記載の建物設計支援装置であって、前記取得部は、無線で飛行する飛行体に設けられた撮影装置による撮影によって前記画像情報を取得するものである。
請求項8に記載の本発明に係る建物設計支援装置は、請求項1~請求項7の何れか1項に記載の建物設計支援装置であって、前記分割部は、深層学習技術を用いた画像セグメンテーション技術によって前記分割を行うものである。
請求項9に記載の本発明に係る建物設計支援装置は、請求項1~請求項8の何れか1項に記載の建物設計支援装置であって、前記実行部は、前記予め定められた処理として、前記マッピング処理及び前記表示処理の少なくとも一方を実行した後に、前記建物に対する変更指示が行われた場合に、当該変更指示に応じた処理を実行するものである。
According to the building design support device according to the present invention described in claim 6 , the natural object elements include at least one element of the sky, the sea, and vegetation, which tends to be emphasized relatively, so that more can help design buildings that meet the needs of
The building design support device according to the present invention according to claim 7 is the building design support device according to any one of claims 1 to 6, wherein the acquisition unit comprises an aircraft that flies wirelessly. The image information is acquired by photographing with a photographing device provided in the .
The building design support device according to the present invention described in claim 8 is the building design support device according to any one of claims 1 to 7, wherein the dividing unit uses deep learning technology. The division is performed by an image segmentation technique.
The building design support device according to the present invention described in claim 9 is the building design support device according to any one of claims 1 to 8, wherein the execution unit performs the predetermined process As such, when an instruction to change the building is issued after at least one of the mapping process and the display process is executed, a process corresponding to the change instruction is executed.

請求項10に記載の本発明に係る建物設計支援プログラムは、建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも前記建物の外側の方向に対する撮影により得られた画像情報を取得し、取得した画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割し、分割によって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出し、導出した景観情報を用いて、予め定められた処理を実行する、処理をコンピュータに実行させる建物設計支援プログラムであって、前記予め定められた処理は、仮想的に作成した前記建物の外壁面における対応する位置に前記景観情報が示す前記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び仮想的に作成した前記建物の外壁面における対応する位置に前記面積の比率を表示する表示処理の少なくとも一方であるものである。 According to claim 10, the building design support program according to the present invention provides image information obtained by photographing at least the outside direction of the building at a predetermined position within the site of the building on the planned construction site of the building. is obtained, and the image indicated by the obtained image information is divided into each of a plurality of predetermined types of landscape elements, and landscape information indicating the ratio of the area between the divided areas for each of the plurality of landscape elements obtained by division and executing a predetermined process using the derived landscape information, wherein the predetermined process is the virtual building a mapping process for virtually mapping the image representing the ratio of the area indicated by the landscape information to the corresponding position on the outer wall surface of the building, and mapping the ratio of the area to the corresponding position on the virtually created outer wall surface of the building It is at least one of display processing for displaying.

請求項10に記載の本発明に係る建物設計支援プログラムによれば、建物の敷地内の予め定められた位置における当該建物の外側の方向に対する撮影により得られた画像の予め定められた複数種類の景観要素毎の面積の比率を示す景観情報を用いて予め定められた処理を実行することで、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することができる。
また、請求項10に記載の本発明に係る建物設計支援プログラムによれば、予め定められた処理を、仮想的に作成した建物の外壁面における対応する位置に景観情報が示す面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び仮想的に作成した建物の外壁面における対応する位置に上記面積の比率を表示する表示処理の少なくとも一方とすることで、より直感的な建物の設計を支援することができる。
According to the building design support program according to the tenth aspect of the present invention, a plurality of predetermined types of images obtained by photographing in the direction outside the building at a predetermined position within the site of the building. By executing a predetermined process using the landscape information indicating the ratio of the area of each landscape element, it is possible to effectively support the design of the building in consideration of the landscape by the users of the building to be designed. can.
Further, according to the building design support program according to the tenth aspect of the present invention, the ratio of the area indicated by the landscape information to the corresponding position on the outer wall surface of the virtually created building is expressed by the predetermined process. By performing at least one of a mapping process for virtually mapping an image and a display process for displaying the ratio of the area at a corresponding position on the outer wall surface of a virtually created building , more intuitive building design can be achieved. can support.

以上説明したように、本発明によれば、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することができる。 As described above, according to the present invention, it is possible to effectively assist users of a building to be designed in designing the building in consideration of the landscape.

実施形態に係る建物設計支援装置のハードウェア構成の一例を示すブロック図である。It is a block diagram showing an example of hardware constitutions of a building design assistance device concerning an embodiment. 実施形態に係る建物設計支援装置の機能的な構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of a building design support device concerning an embodiment. 実施形態に係る撮影による画像情報の取得方法の説明に供する模式図である。FIG. 4 is a schematic diagram for explaining a method of acquiring image information by photographing according to the embodiment; 実施形態に係る建物情報データベースの構成の一例を示す模式図(斜視図)である。It is a schematic diagram (perspective view) which shows an example of a structure of the building information database which concerns on embodiment. 実施形態に係る撮影画像情報データベースの構成の一例を示す模式図である。4 is a schematic diagram showing an example of the configuration of a captured image information database according to the embodiment; FIG. 実施形態に係る建物設計支援処理の一例を示すフローチャートである。It is a flow chart which shows an example of building design support processing concerning an embodiment. 実施形態に係る対象情報入力画面の構成の一例を示す正面図である。It is a front view which shows an example of a structure of the target information input screen which concerns on embodiment. 実施形態に係る画像の分割の説明に供する図であり、左図は撮影によって得られた画像の一例を示す図であり、右図は左図に示す画像の分割結果の一例を示す図である。FIG. 4 is a diagram for explaining division of an image according to the embodiment, the diagram on the left is a diagram showing an example of an image obtained by photographing, and the diagram on the right is a diagram showing an example of the division result of the image shown in the diagram on the left. . 実施形態に係る景観情報を模式的に示す模式図である。It is a schematic diagram which shows the scenery information which concerns on embodiment typically. 実施形態に係るマッピング画面の一例を示す図であり、表示当初のマッピング画面の一例を示す正面図である。FIG. 4 is a diagram showing an example of a mapping screen according to the embodiment, and is a front view showing an example of the mapping screen at the beginning of display; FIG. 実施形態に係るマッピング画面の一例を示す図であり、指定された位置に対応する景観情報(面積比率)を表示した場合のマッピング画面の一例を示す正面図である。It is a figure which shows an example of the mapping screen which concerns on embodiment, and is a front view which shows an example of a mapping screen at the time of displaying the landscape information (area ratio) corresponding to the designated position. 実施形態に係るマッピング画面の一例を示す図であり、建物への変更を反映した場合のマッピング画面の一例を示す正面図である。FIG. 10 is a diagram showing an example of a mapping screen according to the embodiment, and is a front view showing an example of the mapping screen when a change to a building is reflected;

以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。 Embodiments for carrying out the present invention will be described in detail below with reference to the drawings.

まず、図1及び図2を参照して、本実施形態に係る建物設計支援装置10の構成を説明する。なお、建物設計支援装置10の例としては、パーソナルコンピュータ及びサーバコンピュータ等の情報処理装置が挙げられる。 First, the configuration of a building design support device 10 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. Examples of the building design support device 10 include information processing devices such as personal computers and server computers.

本実施形態に係る建物設計支援装置10は、CPU(Central Processing Unit)11、一時記憶領域としてのメモリ12、不揮発性の記憶部13、キーボードとマウス等の入力部14、液晶ディスプレイ等の表示部15、媒体読み書き装置(R/W)16及び通信インタフェース(I/F)部18を備えている。CPU11、メモリ12、記憶部13、入力部14、表示部15、媒体読み書き装置16及び通信I/F部18はバスB1を介して互いに接続されている。媒体読み書き装置16は、記録媒体17に書き込まれている情報の読み出し及び記録媒体17への情報の書き込みを行う。 A building design support apparatus 10 according to the present embodiment includes a CPU (Central Processing Unit) 11, a memory 12 as a temporary storage area, a non-volatile storage unit 13, an input unit 14 such as a keyboard and mouse, and a display unit such as a liquid crystal display. 15 , a medium read/write device (R/W) 16 and a communication interface (I/F) section 18 . The CPU 11, memory 12, storage unit 13, input unit 14, display unit 15, medium read/write device 16, and communication I/F unit 18 are connected to each other via a bus B1. The medium read/write device 16 reads information written in the recording medium 17 and writes information to the recording medium 17 .

記憶部13はHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現される。記憶媒体としての記憶部13には、建物設計支援プログラム13Aが記憶されている。建物設計支援プログラム13Aは、建物設計支援プログラム13Aが書き込まれた記録媒体17が媒体読み書き装置16にセットされ、媒体読み書き装置16が記録媒体17からの建物設計支援プログラム13Aの読み出しを行うことで、記憶部13へ記憶される。CPU11は、建物設計支援プログラム13Aを記憶部13から読み出してメモリ12に展開し、建物設計支援プログラム13Aが有するプロセスを順次実行する。 The storage unit 13 is implemented by a HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, or the like. A building design support program 13A is stored in the storage unit 13 as a storage medium. The building design support program 13A is executed by setting the recording medium 17 in which the building design support program 13A is written to the medium reading/writing device 16, and the medium reading/writing device 16 reads out the building design support program 13A from the recording medium 17. It is stored in the storage unit 13 . The CPU 11 reads out the building design support program 13A from the storage unit 13, develops it in the memory 12, and sequentially executes the processes of the building design support program 13A.

また、記憶部13には、建物情報データベース13B及び撮影画像情報データベース13Cが記憶される。建物情報データベース13B及び撮影画像情報データベース13Cについては、詳細を後述する。 The storage unit 13 also stores a building information database 13B and a photographed image information database 13C. Details of the building information database 13B and the photographed image information database 13C will be described later.

次に、図2を参照して、本実施形態に係る建物設計支援装置10の機能的な構成について説明する。図2に示すように、建物設計支援装置10は、取得部11A、分割部11B、導出部11C及び実行部11Dを含む。建物設計支援装置10のCPU11が建物設計支援プログラム13Aを実行することで、取得部11A、分割部11B、導出部11C及び実行部11Dとして機能する。 Next, with reference to FIG. 2, the functional configuration of the building design support device 10 according to this embodiment will be described. As shown in FIG. 2, the building design support device 10 includes an acquisition unit 11A, a division unit 11B, a derivation unit 11C, and an execution unit 11D. By executing the building design support program 13A, the CPU 11 of the building design support device 10 functions as an acquisition unit 11A, a division unit 11B, a derivation unit 11C, and an execution unit 11D.

本実施形態に係る取得部11Aは、設計支援の対象とする建物(以下、「対象建物」という。)の建築予定地における当該対象建物の敷地内の予め定められた位置において、少なくとも対象建物の外側の方向に対する撮影により得られた画像情報を取得する。 The acquisition unit 11A according to the present embodiment acquires at least the target building's Acquire image information obtained by photographing in the outer direction.

本実施形態に係る取得部11Aは、一例として図3に示すように、対象建物の敷地60内の、幅、奥行き、高さの3方向における複数の位置での撮影によって得られた画像情報を取得する。また、本実施形態に係る取得部11Aは、一例として図3に示すように、ラジオ・コントロール(Radio Control)によって無線で飛行する飛行体(本実施形態では、ドローン)80に設けられた撮影装置による撮影によって得られた画像情報を取得する。但し、この形態に限るものではなく、上記ドローンに代えて、ラジオ・コントロールによって無線で飛行するヘリコプターや、クレーン車のブームの先端部等を適用する形態としてもよい。 As shown in FIG. 3 as an example, the acquisition unit 11A according to the present embodiment acquires image information obtained by photographing at a plurality of positions in the three directions of width, depth, and height within the site 60 of the target building. get. Further, as shown in FIG. 3 as an example, the acquisition unit 11A according to the present embodiment is an imaging device provided in a flying object (drone in the present embodiment) 80 that flies wirelessly by radio control. Acquire image information obtained by shooting with However, the present invention is not limited to this form, and instead of the drone, a radio-controlled helicopter that flies wirelessly or a tip of a boom of a crane truck may be applied.

本実施形態では、飛行体80に設けられた撮影装置による撮影によって得られた画像情報を、一旦、後述する撮影画像情報データベース13Cとして記憶部13に記憶(登録)する。そして、本実施形態に係る取得部11Aが撮影画像情報データベース13Cから読み出すことによって上記画像情報を取得する。また、本実施形態では、上記撮影装置として全方位カメラ(所謂全天球カメラ)を用いて、当該撮影装置により全方位撮影を行うことによって画像情報を得る。但し、この形態に限るものではなく、例えば、上記撮影装置として正面の方向のみを撮影する通常のカメラを用いて、建物を基準として敷地60の外側の方向のみの撮影を行うことにより画像情報を得る形態としてもよい。 In this embodiment, image information obtained by photographing by the photographing device provided on the aircraft 80 is temporarily stored (registered) in the storage unit 13 as a photographed image information database 13C, which will be described later. Then, the image information is obtained by reading from the captured image information database 13C by the obtaining unit 11A according to the present embodiment. Further, in this embodiment, an omnidirectional camera (so-called omnidirectional camera) is used as the photographing device, and image information is obtained by performing omnidirectional photographing with the photographing device. However, the present invention is not limited to this form, and image information can be obtained by, for example, using a normal camera for photographing only the front direction as the photographing device, and photographing only the outside direction of the site 60 with reference to the building. It is good also as a form which obtains.

また、本実施形態に係る分割部11Bは、取得部11Aによって取得された画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割する。本実施形態では、上記景観要素に、敷地60の外側に存在し、かつ、自然物を示す自然物要素と、敷地60の外側に存在し、かつ、人工物を示す人工物要素と、を含めている。また、本実施形態では、上記自然物要素として、空、海、及び植生の3種類の要素を含め、上記人工物要素として、道路及び建物の2種類の要素を含めている。但し、自然物要素及び人工物要素は、これらの要素の組み合わせに限らず、これらの要素から何れかの要素を除いてもよいし、他の対応する要素(例えば、河川、湖沼、山岳等)を更に含めてもよいことは言うまでもない。また、自然物要素及び人工物要素の何れか一方のみ適用する形態としてもよい。 Moreover, the dividing unit 11B according to the present embodiment divides the image indicated by the image information acquired by the acquiring unit 11A into each of a plurality of types of predetermined landscape elements. In this embodiment, the landscape elements include a natural object element that exists outside the site 60 and represents a natural object, and an artificial object element that exists outside the site 60 and represents an artificial object. . Further, in this embodiment, the natural object elements include three types of elements, sky, sea, and vegetation, and the artificial element elements include two types of elements, roads and buildings. However, natural elements and man-made elements are not limited to combinations of these elements, and any element may be removed from these elements, or other corresponding elements (e.g., rivers, lakes, mountains, etc.) It goes without saying that more may be included. Alternatively, only one of the natural element and the artificial element may be applied.

本実施形態に係る分割部11Bでは、上記景観要素の各々毎の分割を、深層学習技術を用いたセマンティック・セグメンテーション(Semantic Segmentation)の手法を用いて行う。また、本実施形態では、実際の都市の景観画像を用いた教師データを作成し、学習させている。なお、深層学習技術を用いたセマンティック・セグメンテーションの技術は、「ICUC10_Fang-Ying GONG_GSV-ViewFactorMaps_6-10 August 2018,「Google Street Viewを用いた、気候研究における超過密都市環境の街路要素の定量化」」、「Badrinarayanan, V., Kendall, A., & Cipolla, R. (2017). Segnet: A deep convolutional encoder-decoder architecture for image segmentation. IEEE transactions on pattern analysis and machine intelligence, 39(12), 2481-2495.」、「Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4), 834-848.」等にも記載されており、広く知られている技術であることから、これ以上のここでの説明は省略する。 The division unit 11B according to the present embodiment divides each of the landscape elements by using a semantic segmentation method using deep learning technology. Further, in the present embodiment, training data is created using an actual cityscape image, and learning is performed. The technology of semantic segmentation using deep learning technology is described in ``ICUC10_Fang-Ying GONG_GSV-ViewFactorMaps_6-10 August 2018, ``Quantification of street factors in overcrowded urban environments in climate research using Google Street View''. , "Badrinarayanan, V., Kendall, A., & Cipolla, R. (2017). Segnet: A deep convolutional encoder-decoder architecture for image segmentation. IEEE transactions on pattern analysis and machine intelligence, 39(12), 2481- 2495.”, “Chen, L. C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2017). Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs. IEEE transactions on pattern analysis and machine intelligence, 40(4), 834-848.", etc., and since it is a widely known technique, further explanation is omitted here.

このように、本実施形態に係る分割部11Bでは、画像の景観要素毎の分割を、深層学習技術を用いたセマンティック・セグメンテーションの手法を用いて行っているが、この形態に限らない。例えば、インスタンス・セグメンテーション(Instance-aware Segmentation)等の他の画像セグメンテーション技術を適用する形態としてもよい。 As described above, the dividing unit 11B according to the present embodiment divides an image into landscape elements by using a semantic segmentation method using deep learning technology, but the present invention is not limited to this form. For example, other image segmentation techniques such as instance segmentation (Instance-aware Segmentation) may be applied.

また、本実施形態に係る導出部11Cは、分割部11Bによって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出する。なお、本実施形態に係る導出部11Cでは、上記景観要素毎の分割領域間の面積の比率として、対応する景観要素が占める領域における、対応する画像情報の画素数の比率を適用している。 Further, the derivation unit 11C according to the present embodiment derives landscape information indicating the ratio of the area between divided areas for each of the plurality of landscape elements obtained by the division unit 11B. The derivation unit 11C according to the present embodiment uses the ratio of the number of pixels of the corresponding image information in the area occupied by the corresponding landscape element as the ratio of the area between the divided areas for each landscape element.

そして、本実施形態に係る実行部11Dは、導出部11Cによって導出された景観情報を用いて、予め定められた処理を実行する。なお、本実施形態では、上記予め定められた処理として、仮想的に作成した対象建物の外壁面における対応する位置に景観情報が示す上記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び上記面積の比率を表示する表示処理の双方を適用している。なお、上記外壁面には、対象建物の水平方向を向いた外壁面に加えて、対象建物の上方向を向いた天井面も含まれる。但し、これらの形態に限らず、上記マッピング処理及び上記表示処理の何れか一方のみを上記予め定められた処理として適用する形態としてもよく、上記外壁面として、対象建物の水平方向を向いた外壁面のみを適用する形態としてもよい。 Then, the execution unit 11D according to this embodiment executes predetermined processing using the scenery information derived by the derivation unit 11C. In this embodiment, as the predetermined processing, a mapping processing of virtually mapping the image representing the ratio of the area indicated by the landscape information to the corresponding position on the virtually created outer wall surface of the target building, and display processing for displaying the ratio of the areas. The outer wall surface includes the ceiling surface facing upward of the target building in addition to the outer wall surface facing the horizontal direction of the target building. However, the present invention is not limited to these forms, and a form may be adopted in which only one of the mapping process and the display process is applied as the predetermined process. It is good also as a form which applies only a wall surface.

次に、図4を参照して、本実施形態に係る建物情報データベース13Bについて説明する。図4に示すように、本実施形態に係る建物情報データベース13Bは、対象建物50及び敷地60の全体的な形状を示す建築対象モデル70が記憶されている。なお、図4は対象建物50及び敷地60を模式的に示した斜視図である。 Next, the building information database 13B according to this embodiment will be described with reference to FIG. As shown in FIG. 4, the building information database 13B according to the present embodiment stores a building target model 70 representing the overall shape of the target building 50 and the site 60 . 4 is a perspective view schematically showing the target building 50 and the site 60. As shown in FIG.

本実施形態では、建築対象モデル70を予め定められた3次元CAD(Computer Aided Design)ソフトウェアを用いて作成している。本実施形態では、上記3次元CADソフトウェアとして、ライノセラス(Rhinoceros)(登録商標)を適用しているが、これに限らない。例えば、レビット(Revit)(登録商標)等の他のソフトウェアを上記3次元CADソフトウェアとして適用する形態としてもよい。 In this embodiment, the building object model 70 is created using predetermined three-dimensional CAD (Computer Aided Design) software. In this embodiment, Rhinoceros (registered trademark) is applied as the three-dimensional CAD software, but it is not limited to this. For example, other software such as Revit (registered trademark) may be applied as the three-dimensional CAD software.

次に、図5を参照して、本実施形態に係る撮影画像情報データベース13Cについて説明する。図5に示すように、本実施形態に係る撮影画像情報データベース13Cは、位置情報及び画像情報が関連付けられて記憶されている。 Next, the photographed image information database 13C according to this embodiment will be described with reference to FIG. As shown in FIG. 5, the captured image information database 13C according to the present embodiment stores position information and image information in association with each other.

上記位置情報は、飛行体80による撮影位置を示す情報であり、上記画像情報は、対応する撮影位置での撮影によって得られた画像情報である。なお、図5に示すように、本実施形態では、上記位置情報として、予め定められた位置(本実施形態では、建築対象モデル70における所定の原点位置)を原点とした3次元座標により示される情報を適用している。但し、位置情報は以上の形態に限るものでなく、飛行体80による撮影位置が特定される情報であれば、如何なる情報も適用できることは言うまでもない。 The position information is information indicating the shooting position of the flying object 80, and the image information is image information obtained by shooting at the corresponding shooting position. As shown in FIG. 5, in this embodiment, the position information is indicated by three-dimensional coordinates with a predetermined position (in this embodiment, a predetermined origin position in the building target model 70) as the origin. apply the information. However, the position information is not limited to the form described above, and it goes without saying that any information can be applied as long as it specifies the shooting position of the flying object 80 .

次に、図6~図12を参照して、本実施形態に係る建物設計支援装置10の作用を説明する。ユーザによって建物設計支援プログラム13Aの実行を開始する指示入力が入力部14を介して行われた場合に、建物設計支援装置10のCPU11が当該建物設計支援プログラム13Aを実行することにより、図6に示す建物設計支援処理が実行される。なお、ここでは、錯綜を回避するために、建物情報データベース13B及び撮影画像情報データベース13Cが構築済みである場合について説明する。 Next, the operation of the building design support device 10 according to this embodiment will be described with reference to FIGS. 6 to 12. FIG. When the user inputs an instruction to start execution of the building design support program 13A through the input unit 14, the CPU 11 of the building design support device 10 executes the building design support program 13A, and as shown in FIG. The shown building design support processing is executed. In order to avoid complication, a case where the building information database 13B and the photographed image information database 13C have already been constructed will be described here.

図6のステップ200で、取得部11Aは、処理対象とする建築対象モデル70を建物情報データベース13Bから読み出し、ステップ202で、取得部11Aは、読み出した建築対象モデル70に関する全ての位置情報及び画像情報を撮影画像情報データベース13Cから読み出す。ステップ204で、取得部11Aは、予め定められた構成とされた対象情報入力画面を表示するように表示部15を制御し、ステップ206で、取得部11Aは、所定情報が入力されるまで待機する。 In step 200 of FIG. 6, the acquisition unit 11A reads out the building object model 70 to be processed from the building information database 13B. Information is read from the captured image information database 13C. At step 204, the acquisition unit 11A controls the display unit 15 to display a target information input screen configured in advance, and at step 206, the acquisition unit 11A waits until predetermined information is input. do.

図7には、本実施形態に係る対象情報入力画面の一例が示されている。図7に示すように、本実施形態に係る対象情報入力画面では、分割の対象とする景観要素、及び着目する景観要素の入力を促すメッセージと共に、分割の対象とする景観要素を入力するための入力領域15A及び着目する景観要素を入力するための入力領域15Bが表示される。 FIG. 7 shows an example of the target information input screen according to this embodiment. As shown in FIG. 7, on the target information input screen according to the present embodiment, along with a message prompting input of a landscape element to be divided and a landscape element to be focused on, a message for inputting a landscape element to be divided is displayed. An input area 15A and an input area 15B for inputting a landscape element of interest are displayed.

一例として図7に示す対象情報入力画面が表示部15に表示されると、ユーザは、入力部14を介して、分割の対象とする景観要素(本実施形態では、空、海、植生、道路及び建物の少なくとも1つの景観要素)を入力領域15Aに入力し、着目する景観要素を入力領域15Bに入力した後、終了ボタン15Eを指定する。これに応じて、ステップ206が肯定判定となって、ステップ208に移行する。以下では、ここでユーザによって入力された分割の対象とする景観要素を「適用景観要素」といい、着目する景観要素を「着目景観要素」という。 As an example, when the target information input screen shown in FIG. and at least one landscape element of a building) in the input area 15A, and after inputting the landscape element of interest in the input area 15B, the end button 15E is specified. Accordingly, step 206 makes an affirmative determination, and the process proceeds to step 208 . Hereinafter, the landscape element to be divided input by the user will be referred to as the "applied landscape element", and the landscape element of interest will be referred to as the "viewed landscape element".

ステップ208で、分割部11Bは、読み出した全ての画像情報に対して、各画像情報が示す画像を、上述した画像セグメンテーション技術を用いて適用景観要素の各要素別に分割する。 At step 208, the division unit 11B divides the image indicated by each piece of image information into each element of the applied landscape elements using the above-described image segmentation technique for all the read image information.

図8には、画像セグメンテーション技術による各要素別の分割前後の画像の例が示されている。なお、図8の左図が分割前の画像(図8では「原画像」と表記。)の例であり、図8の右図が当該画像に対する分割後の画像(図8では「セグメンテーション画像」と表記。)の例である。また、図8に示す例では、適用景観要素として、植生、歩道、車道、建物及び空を適用しており、各景観要素を異なる濃度で表している。 FIG. 8 shows an example of an image before and after segmentation by image segmentation technique. The left diagram in FIG. 8 is an example of an image before division (referred to as "original image" in FIG. 8), and the right diagram in FIG. 8 is an image after division of the image ("segmentation image" in FIG. 8). notation.) is an example. In the example shown in FIG. 8, vegetation, a sidewalk, a roadway, a building, and the sky are applied as applicable landscape elements, and each landscape element is represented with a different concentration.

ステップ210で、導出部11Cは、以上の処理によって得られた適用景観要素毎の分割領域間の面積の比率(以下、「面積比率」という。)を示す景観情報を、読み出した全ての画像情報について、画像情報毎に導出する。なお、本実施形態では、上述したように、上記景観情報として、対応する景観要素が占める領域における、対応する画像情報の画素数の比率を適用している。この結果、例えば、ある画像情報については「40(空):10(海):15(植生):20(道路)・・・」といった情報(面積比率)が景観情報として、画像情報毎に導出される。 At step 210, the derivation unit 11C extracts the landscape information indicating the ratio of the area between the divided regions for each applicable landscape element obtained by the above processing (hereinafter referred to as "area ratio") to all of the read image information. is derived for each image information. In this embodiment, as described above, the ratio of the number of pixels of the corresponding image information in the area occupied by the corresponding landscape element is applied as the landscape information. As a result, for example, for certain image information, information (area ratio) such as "40 (sky): 10 (sea): 15 (vegetation): 20 (road) ..." is derived as landscape information for each image information. be done.

図9には、図3に示す敷地60を処理対象とした場合の、適用景観要素における1つの景観要素(一例として、植生)について、図3に示す幅方向に並ぶ複数(図9に示す例では4面)の鉛直平面の位置における景観情報を、面積比率毎に異なる濃度で表したものの一例が示されている。本例において、例えば、図9に示す各鉛直平面において、対応する鉛直平面の面内における撮影箇所が奥行き方向及び高さ方向に対して各々100箇所である場合は、100箇所×100箇所の10000箇所における景観情報が示される。なお、図9に示す例では、面積比率が大きいほど、濃度が高くなるように表している。 FIG. 9 shows a plurality of landscape elements (eg, vegetation) arranged in the width direction shown in FIG. 4), landscape information at the position of the vertical plane is shown with different densities for each area ratio. In this example, for example, in each of the vertical planes shown in FIG. 9, if the number of shooting locations in the corresponding vertical plane is 100 in the depth direction and in the height direction, then 100 locations×100 locations=10000 Landscape information at the point is shown. In addition, in the example shown in FIG. 9, the higher the area ratio, the higher the density.

ステップ212で、実行部11Dは、以上の処理によって得られた画像情報毎の景観情報を用いて、ユーザによって指定された着目景観要素に関する景観情報(面積比率)を示す画像を、建築対象モデル70における対象建物の外壁面の対応する位置に仮想的にマッピングするマッピング処理を行う。 At step 212, the execution unit 11D uses the landscape information for each image information obtained by the above processing to generate an image showing the landscape information (area ratio) regarding the landscape element of interest specified by the user. Mapping processing is performed to virtually map to the corresponding position of the outer wall surface of the target building.

ステップ214で、実行部11Dは、マッピング処理された対象建物を表示する画面(以下、「マッピング画面」という。)を表示するように表示部15を制御する。 At step 214, the execution unit 11D controls the display unit 15 to display a screen displaying the target building subjected to the mapping process (hereinafter referred to as "mapping screen").

図10には、本実施形態に係るマッピング画面の一例が示されている。図10に示すように、本実施形態に係るマッピング画面では、ユーザによって指定された着目景観要素(図10に示す例では、「空」)が表示されると共に、マッピング処理された対象建物50Aが表示される。一例として図10に示すように、本実施形態に係るマッピング処理では、対象建物50の外壁面に相当する面の位置における景観情報(面積比率)が、一例として図9を参照して説明したように面積比率を異なる濃度で表した画像として、対応する外壁面の位置に表示される。 FIG. 10 shows an example of a mapping screen according to this embodiment. As shown in FIG. 10, on the mapping screen according to the present embodiment, the landscape element of interest specified by the user ("sky" in the example shown in FIG. 10) is displayed, and the target building 50A that has undergone the mapping process is displayed. Is displayed. As an example, as shown in FIG. 10, in the mapping process according to the present embodiment, the landscape information (area ratio) at the position of the surface corresponding to the outer wall surface of the target building 50 is obtained as described with reference to FIG. 9 as an example. are displayed at the corresponding positions of the outer wall surface as images in which the area ratio is expressed in different densities.

ユーザは、一例として図10に示すマッピング画面を参照することにより、対象建物50の外壁面の各位置における着目景観要素の占める面積比率を直感的に把握することができる。このため、ユーザは、対象建物50に要求される景観条件を満足させたり、対象建物50に課せられたアピール点を際立たせたりするべく、対象建物50の外観的な形状の変更、対象建物50に設けられる各室のレイアウトの変更、対象建物50に設けられる各種設備の配置位置の変更等を行うことができる。以下では、これらの対象建物50に対する各種変更を、「建物変更」という。 By referring to the mapping screen shown in FIG. 10 as an example, the user can intuitively grasp the area ratio occupied by the landscape element of interest at each position on the outer wall surface of the target building 50 . Therefore, in order to satisfy the landscape conditions required for the target building 50 or to emphasize the appealing points imposed on the target building 50, the user may change the external shape of the target building 50, change the shape of the target building 50, or change the shape of the target building 50. The layout of each room provided in the target building 50 can be changed, and the arrangement position of various facilities provided in the target building 50 can be changed. Hereinafter, these various changes to the target building 50 are referred to as "building changes".

一例として図10に示されるマッピング画面が表示されると、ユーザは、所望の位置の景観情報の各値を表示させたい場合は、入力部14を介して、景観情報表示ボタン15Cを指定した後に、景観情報を表示したい位置を指定する。また、ユーザは、対象建物50に対する建物変更を行いたい場合は、入力部14を介して、建物変更ボタン15Dを指定した後に、所望の建物変更のための操作を行う。 As an example, when the mapping screen shown in FIG. 10 is displayed, if the user wishes to display each value of the landscape information of a desired position, the user designates the landscape information display button 15C via the input unit 14, and then , specify the position where you want to display the landscape information. If the user wishes to change the target building 50, the user designates the change building button 15D via the input unit 14, and then performs an operation for changing the desired building.

そこで、ステップ216で、実行部11Dは、景観情報表示ボタン15Cが指定されたか否かを判定することにより、ユーザによって景観情報の表示が指定されたか否かを判定し、肯定判定となった場合はステップ218に移行する。ステップ218で、実行部11Dは、ユーザによる景観情報を表示したい位置の指定が行われるまで待機する。ステップ220で、実行部11Dは、ユーザによって指定された位置に対応する景観情報を所定時間(一例として、5秒)だけマッピング画面に表示する制御を行った後、ステップ228に移行する。 Therefore, in step 216, the executing section 11D determines whether or not the landscape information display button 15C is designated by the user, thereby determining whether or not the display of the landscape information is designated by the user. goes to step 218 . At step 218, the execution unit 11D waits until the user designates a position where the landscape information is to be displayed. At step 220, the execution unit 11D performs control to display the scenery information corresponding to the position specified by the user on the mapping screen for a predetermined time (for example, 5 seconds), and then proceeds to step 228.

図11には、ユーザによって指定された位置に景観情報が表示された状態のマッピング画面の一例が示されている。図11に示すように、本実施形態では、景観情報を、指定された位置に対する、所謂吹き出しの形で表示している。この景観情報の表示により、ユーザは、より詳細な景観情報を把握することができ、よりきめ細かな建物設計を行うことができる。 FIG. 11 shows an example of a mapping screen in which landscape information is displayed at a position designated by the user. As shown in FIG. 11, in this embodiment, landscape information is displayed in the form of a so-called speech balloon for a designated position. By displaying this landscape information, the user can grasp more detailed landscape information, and can perform more detailed building design.

一方、ステップ216において否定判定となった場合はステップ222に移行し、実行部11Dは、建物変更ボタン15Dが指定されたか否かを判定することにより、ユーザによって建物変更が指定されたか否かを判定し、肯定判定となった場合はステップ224に移行する。 On the other hand, if a negative determination is made in step 216, the process proceeds to step 222, and the execution unit 11D determines whether or not the building change button 15D has been specified, thereby determining whether or not the user has specified to change the building. If the determination is affirmative, the process proceeds to step 224 .

ステップ224で、実行部11Dは、ユーザによる建物変更のための操作が終了するまで待機する。ステップ226で、実行部11Dは、ユーザによって行われた建物変更を建築対象モデル70に反映させる処理を行い、その後にステップ228に移行する。なお、ステップ222において否定判定となった場合、すなわち、ユーザによって景観情報表示ボタン15C及び建物変更ボタン15Dの何れのボタンも指定されていない場合は、何ら処理を行うことなく、ステップ228に移行する。 At step 224, the execution unit 11D waits until the user completes the operation for changing the building. At step 226 , the execution unit 11</b>D performs processing for reflecting the building change made by the user in the building object model 70 , and then proceeds to step 228 . If a negative determination is made in step 222, that is, if neither the landscape information display button 15C nor the building change button 15D is specified by the user, the process proceeds to step 228 without performing any processing. .

図12には、ユーザによって対象建物50に対して複数の設備(図12に示す例では、2つの窓)が所望の位置に、所望の大きさ及び形状で配置された場合のマッピング画面の一例が示されている。 FIG. 12 shows an example of a mapping screen when a plurality of facilities (two windows in the example shown in FIG. 12) are placed at desired positions with desired sizes and shapes in the target building 50 by the user. It is shown.

ステップ228で、実行部11Dは、マッピング画面において終了ボタン15Eが指定されたか否かを判定することにより、ユーザによって建物設計支援処理の終了が指示されたか否かを判定し、否定判定となった場合はステップ216に戻る一方、肯定判定となった場合には本建物設計支援処理を終了する。 At step 228, the execution unit 11D determines whether or not the end button 15E has been specified on the mapping screen, thereby determining whether or not the user has instructed to end the building design support process, resulting in a negative determination. If so, the process returns to step 216, and if the determination is affirmative, the building design support process is terminated.

以上の建物設計支援処理によってユーザに提示される景観情報を用いることにより、例えば、植生の面積比率が大きい位置にガラスウォール等の開放的な外装を設ける一方、植生の面積比率が小さい位置には、機械室や倉庫等の非居室を設けるといった、定量的な景観への配慮が可能となる。また、対象建物がマンション、オフィス、レストラン、アトラクション施設等の賃貸物件である場合、建物の各所からの景観を定量化することで、より妥当な賃料設定が可能となる。例えば、オーシャン・ビューを謳うマンションにおいては、窓から外を眺めた場合の海の面積比率を定量化し、その数値に応じて賃料を設定する、といったことが可能となる。 By using the landscape information presented to the user by the above-described building design support processing, for example, an open exterior such as a glass wall can be provided at a position with a large area ratio of vegetation, while at a position with a small area ratio of vegetation , It is possible to consider the landscape quantitatively, such as providing non-residential rooms such as machine rooms and warehouses. In addition, if the target building is a rental property such as an apartment, office, restaurant, attraction facility, etc., quantifying the scenery from various parts of the building enables more appropriate rent setting. For example, in a condominium that claims an ocean view, it will be possible to quantify the area ratio of the sea when looking out of the window and set the rent according to that figure.

以上説明したように、本実施形態によれば、建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも建物の外側の方向に対する撮影により得られた画像情報を取得する取得部11Aと、取得部11Aによって取得された画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割する分割部11Bと、分割部11Bによって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出する導出部11Cと、導出部11Cによって導出された景観情報を用いて、予め定められた処理を実行する実行部11Dと、を備えている。従って、設計対象とする建物の利用者による景観に配慮した当該建物の設計を効果的に支援することができる。 As described above, according to the present embodiment, at a predetermined position within the site of the building on the planned construction site of the building, image information obtained by photographing at least in the direction of the outside of the building is acquired. a division unit 11B that divides the image indicated by the image information acquired by the acquisition unit 11A into each of a plurality of types of predetermined landscape elements; A derivation unit 11C for deriving scenery information indicating the ratio of areas between divided regions, and an execution unit 11D for executing predetermined processing using the scenery information derived by the derivation unit 11C. Therefore, it is possible to effectively support the design of the building in consideration of the scenery by the user of the building to be designed.

また、本実施形態によれば、上記予め定められた処理として、仮想的に作成した建物の外壁面における対応する位置に景観情報が示す上記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び上記面積の比率を表示する表示処理の双方を適用している。従って、より直感的な建物の設計を支援することができる。 Further, according to the present embodiment, as the predetermined process, a mapping process of virtually mapping the image representing the ratio of the area indicated by the landscape information to the corresponding position on the outer wall surface of the virtually created building. , and display processing for displaying the ratio of the areas. Therefore, more intuitive building design can be supported.

また、本実施形態によれば、上記面積の比率として、対応する領域に占める画素数の比率を適用している。従って、より簡易に建物の設計を支援することができる。 Further, according to the present embodiment, the ratio of the number of pixels in the corresponding area is applied as the area ratio. Therefore, it is possible to support the design of the building more easily.

また、本実施形態によれば、取得部11Aにより、敷地内の、幅、奥行き、高さの3方向における複数の位置での撮影により得られた画像情報を取得している。従って、建物における、より多くの位置での景観に対応することができ、より効果的に建物の設計を支援することができる。 Further, according to this embodiment, the acquisition unit 11A acquires image information obtained by photographing at a plurality of positions in the three directions of width, depth, and height within the site. Therefore, it is possible to cope with landscapes at more positions in the building, and to more effectively support the design of the building.

また、本実施形態によれば、撮影として全方位撮影を適用している。従って、より多くの方向に対する景観に対応することができ、より効果的に建物の設計を支援することができる。 Further, according to this embodiment, omnidirectional photography is applied as photography. Therefore, it is possible to deal with landscapes in more directions, and to more effectively support building design.

また、本実施形態によれば、景観要素として、敷地の外側に存在し、かつ、自然物を示す自然物要素を適用している。従って、自然環境を重視した建物の設計を支援することができる。 Further, according to the present embodiment, natural object elements that exist outside the site and indicate natural objects are applied as landscape elements. Therefore, it is possible to support the design of a building that emphasizes the natural environment.

さらに、本実施形態によれば、自然物要素として、空、海、及び植生を適用している。従って、より多くの需要に対応する建物の設計を支援することができる。 Furthermore, according to this embodiment, the sky, the sea, and vegetation are applied as natural object elements. Therefore, it is possible to support the design of buildings to meet more demand.

なお、上記実施形態では、ユーザに着目景観要素を予め設置させ、当該着目景観要素のみに関してマッピング画面を表示する場合について説明したが、これに限定されない。例えば、一例として図6に示す建物設計支援処理において、着目景観要素を随時受け付け可能としておき、着目景観要素を随時変更可能とする形態としてもよい。この形態によれば、複数の景観要素を考慮した建物設計を容易に行うことができる。 In the above-described embodiment, a case has been described in which a landscape element of interest is installed in advance by the user and a mapping screen is displayed only for the landscape element of interest, but the present invention is not limited to this. For example, in the building design support process shown in FIG. 6, the landscape element of interest may be accepted at any time, and the landscape element of interest may be changed at any time. According to this form, it is possible to easily design a building in consideration of a plurality of landscape elements.

また、上記実施形態では、着目景観要素として、適用景観要素のうちの1つのみの景観要素を適用する場合について説明したが、これに限定されない。例えば、適用景観要素のうちの複数の景観要素の組み合わせを着目景観要素として適用する形態としてもよい。この場合の形態例としては、例えば、適用した複数の景観要素の面積比率の合計値を、対応する着目景観要素の景観情報として適用する形態を例示することができる。 Further, in the above-described embodiment, the case where only one of the applicable landscape elements is applied as the landscape element of interest has been described, but the present invention is not limited to this. For example, a configuration may be adopted in which a combination of a plurality of landscape elements among the applicable landscape elements is applied as the landscape element of interest. As an example of the form in this case, for example, a form in which the total value of the area ratios of a plurality of applied landscape elements is applied as the landscape information of the corresponding landscape element of interest can be exemplified.

また、上記実施形態では、マッピング処理において、各景観情報(面積比率)の値を濃度の違いにより表した場合について説明したが、これに限定されない。例えば、各景観情報の値を色別に表す形態としてもよい。 Further, in the above-described embodiment, the case where the value of each piece of landscape information (area ratio) is represented by the difference in density in the mapping process has been described, but the present invention is not limited to this. For example, the value of each piece of landscape information may be represented by color.

また、上記実施形態において、例えば、取得部11A、分割部11B、導出部11C及び実行部11Dの各処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 Further, in the above embodiment, for example, as a hardware structure of a processing unit that executes each process of the acquisition unit 11A, the division unit 11B, the derivation unit 11C, and the execution unit 11D, the following various A processor can be used. As described above, the various processors include a CPU, which is a general-purpose processor that executes software (programs) and functions as a processing unit, as well as FPGAs (Field-Programmable Gate Arrays), etc., which have circuit configurations after manufacturing. Programmable Logic Device (PLD), ASIC (Application Specific Integrated Circuit), etc. etc. are included.

処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、処理部を1つのプロセッサで構成してもよい。 The processing unit may be configured with one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs or a combination of a CPU and an FPGA). may consist of Also, the processing unit may be configured with a single processor.

処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring the processing unit with one processor, first, one processor is configured by combining one or more CPUs and software, as typified by computers such as clients and servers. There is a form that functions as a processing unit. Secondly, there is a form of using a processor that implements the functions of the entire system including the processing unit with a single IC (Integrated Circuit) chip, as typified by a System On Chip (SoC). In this way, the processing unit is configured using one or more of the above various processors as a hardware structure.

更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。 Furthermore, as the hardware structure of these various processors, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined can be used.

10 建物設計支援装置
11 CPU
11A 取得部
11B 分割部
11C 導出部
11D 実行部
12 メモリ
13 記憶部
13A 建物設計支援プログラム
13B 建物情報データベース
13C 撮影画像情報データベース
14 入力部
15 表示部
15A、15B 入力領域
15C 景観情報表示ボタン
15D 建物変更ボタン
15E 終了ボタン
16 媒体読み書き装置
17 記録媒体
18 通信I/F部
50 対象建物
60 敷地
70 建築対象モデル
80 飛行体
10 building design support device 11 CPU
11A acquisition unit 11B division unit 11C derivation unit 11D execution unit 12 memory 13 storage unit 13A building design support program 13B building information database 13C photographed image information database 14 input unit 15 display units 15A, 15B input area 15C landscape information display button 15D building change button 15E end button 16 medium read/write device 17 recording medium 18 communication I/F unit 50 target building 60 site 70 building target model 80 flying object

Claims (10)

建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも前記建物の外側の方向に対する撮影により得られた画像情報を取得する取得部と、
前記取得部によって取得された画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割する分割部と、
前記分割部によって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出する導出部と、
前記導出部によって導出された景観情報を用いて、予め定められた処理を実行する実行部と、
を備え、
前記予め定められた処理は、仮想的に作成した前記建物の外壁面における対応する位置に前記景観情報が示す前記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び仮想的に作成した前記建物の外壁面における対応する位置に前記面積の比率を表示する表示処理の少なくとも一方である、
建物設計支援装置。
an acquisition unit that acquires image information obtained by photographing at least in a direction toward the outside of the building at a predetermined position within the site of the building on the planned construction site of the building;
a dividing unit that divides the image indicated by the image information acquired by the acquiring unit into each of a plurality of predetermined types of landscape elements;
A derivation unit for deriving landscape information indicating a ratio of areas between divided regions for each of a plurality of landscape elements obtained by the division unit;
an execution unit that executes a predetermined process using the landscape information derived by the derivation unit;
with
The predetermined process includes a mapping process of virtually mapping an image representing the ratio of the area indicated by the landscape information to a corresponding position on the virtually created outer wall surface of the building, and a virtually created At least one of display processing for displaying the ratio of the area at the corresponding position on the outer wall surface of the building ,
Building design support device.
前記面積の比率は、対応する領域に占める画素数の比率である、
請求項1に記載の建物設計支援装置。
The area ratio is the ratio of the number of pixels in the corresponding area,
The building design support device according to claim 1.
前記取得部は、前記敷地内の、幅、奥行き、高さの3方向における複数の位置での前記撮影により得られた画像情報を取得する、
請求項1又は請求項2に記載の建物設計支援装置。
The acquisition unit acquires the image information obtained by the photographing at a plurality of positions in the three directions of width, depth, and height within the site.
The building design support device according to claim 1 or 2.
前記撮影は、全方位撮影である、
請求項1~請求項3の何れか1項に記載の建物設計支援装置。
The shooting is omnidirectional shooting,
The building design support device according to any one of claims 1 to 3.
前記景観要素は、前記敷地の外側に存在し、かつ、自然物を示す自然物要素である、
請求項1~請求項4の何れか1項に記載の建物設計支援装置。
The landscape element is a natural object element that exists outside the site and represents a natural object,
The building design support device according to any one of claims 1 to 4.
前記自然物要素は、空、海、及び植生の少なくとも1つの要素を含む、
請求項5に記載の建物設計支援装置。
the natural object elements include at least one element of sky, sea, and vegetation;
The building design support device according to claim 5.
前記取得部は、無線で飛行する飛行体に設けられた撮影装置による撮影によって前記画像情報を取得する、
請求項1~請求項6の何れか1項に記載の建物設計支援装置。
The acquisition unit acquires the image information by photographing with a photographing device provided on an aircraft that flies wirelessly.
The building design support device according to any one of claims 1 to 6.
前記分割部は、深層学習技術を用いた画像セグメンテーション技術によって前記分割を行う、
請求項1~請求項7の何れか1項に記載の建物設計支援装置。
The division unit performs the division by image segmentation technology using deep learning technology.
The building design support device according to any one of claims 1 to 7.
前記実行部は、前記予め定められた処理として、前記マッピング処理及び前記表示処理の少なくとも一方を実行した後に、前記建物に対する変更指示が行われた場合に、当該変更指示に応じた処理を実行する、
請求項1~請求項8の何れか1項に記載の建物設計支援装置。
After executing at least one of the mapping process and the display process as the predetermined process, the execution unit executes a process according to the change instruction when a change instruction is given to the building. ,
The building design support device according to any one of claims 1 to 8.
建物の建築予定地における当該建物の敷地内の予め定められた位置において、少なくとも前記建物の外側の方向に対する撮影により得られた画像情報を取得し、
取得した画像情報が示す画像を予め定められた複数種類の景観要素の各々毎に分割し、
分割によって得られた複数の景観要素毎の分割領域間の面積の比率を示す景観情報を導出し、
導出した景観情報を用いて、予め定められた処理を実行する、
処理をコンピュータに実行させるための建物設計支援プログラムであって、
前記予め定められた処理は、仮想的に作成した前記建物の外壁面における対応する位置に前記景観情報が示す前記面積の比率を表す画像を仮想的にマッピングするマッピング処理、及び仮想的に作成した前記建物の外壁面における対応する位置に前記面積の比率を表示する表示処理の少なくとも一方である、
建物設計支援プログラム。
Acquiring image information obtained by photographing at least in the direction of the outside of the building at a predetermined position within the site of the building on the planned construction site of the building,
dividing the image indicated by the acquired image information into each of a plurality of predetermined types of landscape elements,
Deriving landscape information indicating the ratio of the area between the divided areas for each of the plurality of landscape elements obtained by division,
Execute a predetermined process using the derived landscape information,
A building design support program for causing a computer to execute processing,
The predetermined process includes a mapping process of virtually mapping an image representing the ratio of the area indicated by the landscape information to a corresponding position on the virtually created outer wall surface of the building, and a virtually created At least one of display processing for displaying the ratio of the area at the corresponding position on the outer wall surface of the building ,
Building design support program.
JP2019118500A 2019-06-26 2019-06-26 Building design support device and building design support program Active JP7305919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019118500A JP7305919B2 (en) 2019-06-26 2019-06-26 Building design support device and building design support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019118500A JP7305919B2 (en) 2019-06-26 2019-06-26 Building design support device and building design support program

Publications (2)

Publication Number Publication Date
JP2021005212A JP2021005212A (en) 2021-01-14
JP7305919B2 true JP7305919B2 (en) 2023-07-11

Family

ID=74097237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019118500A Active JP7305919B2 (en) 2019-06-26 2019-06-26 Building design support device and building design support program

Country Status (1)

Country Link
JP (1) JP7305919B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338037A (en) 2000-05-29 2001-12-07 Wall:Kk Server for generating three-dimensional computer graphic picture
JP2003337959A (en) 2002-05-21 2003-11-28 Cad Center:Kk System and method for three-dimensional data processing, and information processing program running on computer
JP2004093851A (en) 2002-08-30 2004-03-25 Sekisui House Ltd Model house view simulation system
JP2007200130A (en) 2006-01-27 2007-08-09 National Agriculture & Food Research Organization Scenery analysis method, computer program executing the method and medium with the program stored
WO2014017200A1 (en) 2012-07-25 2014-01-30 ソニー株式会社 Information processing device and program
JP2018013832A (en) 2016-07-19 2018-01-25 大成建設株式会社 Visibility factor calculation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001338037A (en) 2000-05-29 2001-12-07 Wall:Kk Server for generating three-dimensional computer graphic picture
JP2003337959A (en) 2002-05-21 2003-11-28 Cad Center:Kk System and method for three-dimensional data processing, and information processing program running on computer
JP2004093851A (en) 2002-08-30 2004-03-25 Sekisui House Ltd Model house view simulation system
JP2007200130A (en) 2006-01-27 2007-08-09 National Agriculture & Food Research Organization Scenery analysis method, computer program executing the method and medium with the program stored
WO2014017200A1 (en) 2012-07-25 2014-01-30 ソニー株式会社 Information processing device and program
JP2018013832A (en) 2016-07-19 2018-01-25 大成建設株式会社 Visibility factor calculation device

Also Published As

Publication number Publication date
JP2021005212A (en) 2021-01-14

Similar Documents

Publication Publication Date Title
US9149309B2 (en) Systems and methods for sketching designs in context
US20170090460A1 (en) 3D Model Generation From Map Data
US20170091993A1 (en) 3D Model Generation From Map Data and User Interface
US10324601B2 (en) Integrating maps and street views
US9330501B2 (en) Systems and methods for augmenting panoramic image data with performance related data for a building
CN105122311B (en) For rendering the smooth superimposed layer of the vector data about complex three-dimensional object
Albourae et al. Architectural heritage visualization using interactive technologies
US20130300740A1 (en) System and Method for Displaying Data Having Spatial Coordinates
JP5592011B2 (en) Multi-scale 3D orientation
US8749580B1 (en) System and method of texturing a 3D model from video
JP2008530595A (en) Method and apparatus for improving digital elevation model (DEM) for terrain modeling
Lu et al. Digital preservation for heritages: Technologies and applications
US8638334B2 (en) Selectively displaying surfaces of an object model
CN106463000A (en) Information processing device, superimposed information image display device, marker display program, and superimposed information image display program
Devaux et al. 3D urban geovisualization: In situ augmented and mixed reality experiments
JP7305919B2 (en) Building design support device and building design support program
Virtanen et al. Browser based 3D for the built environment
Fukuda et al. Integration of a structure from motion into virtual and augmented reality for architectural and urban simulation: demonstrated in real architectural and urban projects
Laycock et al. Exploring cultural heritage sites through space and time
Mures et al. Virtual reality and point-based rendering in architecture and heritage
Miles et al. A community-built virtual heritage collection
Miles et al. Crowd-sourced digitisation of cultural heritage assets
US20230351728A1 (en) Machine learning for vector map generation
Khalil et al. The role of extended realities in heritage buildings representation
Shiode et al. Spatiotemporal visualization of built environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7305919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150