WO2024058556A1 - Method and device for automatically calculating window set information using artificial neural network - Google Patents

Method and device for automatically calculating window set information using artificial neural network Download PDF

Info

Publication number
WO2024058556A1
WO2024058556A1 PCT/KR2023/013760 KR2023013760W WO2024058556A1 WO 2024058556 A1 WO2024058556 A1 WO 2024058556A1 KR 2023013760 W KR2023013760 W KR 2023013760W WO 2024058556 A1 WO2024058556 A1 WO 2024058556A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature map
information
neural network
window set
artificial neural
Prior art date
Application number
PCT/KR2023/013760
Other languages
French (fr)
Korean (ko)
Inventor
김학성
김상일
이세민
김규원
한영구
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Publication of WO2024058556A1 publication Critical patent/WO2024058556A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Definitions

  • the present invention relates to a method and device for automatically calculating window set information using an artificial neural network. More specifically, the present invention relates to a method and device for automatically calculating window set information using an artificial neural network. More specifically, the present invention classifies the window set area in an input image using a pre-trained artificial neural network, and simultaneously classifies the window set area into the classified window set area. This invention relates to technology that can automatically calculate window set information.
  • the indoor space in a building is a space that maintains the comfort of occupants from changes in the indoor and outdoor environments in terms of architectural environment facilities. Occupants' comfort can change in real time due to a combination of various thermal factors, of which the most representative thermal factor is temperature. Therefore, it is necessary to evaluate temperature distribution to create a comfortable indoor environment for occupants.
  • the light energy characteristics of the building should be analyzed using the design drawings of the existing building, and the building should be designed based on this. In designing this, various factors that affect the light energy characteristics of the building must be considered. Among the various factors, the element that most closely affects the building is the window set, and the window set determines the building's solar radiation gain and daylight area. It has the greatest impact on the light energy flowing into the building.
  • the method and device for automatically calculating window set information using an artificial neural network are inventions designed to solve the problems described above, and automatically classify window set areas for input images and The purpose is to provide an automatic calculation method of window set information that can automatically calculate window set information.
  • the purpose is to provide a method for managing buildings more efficiently by calculating information on solar radiation gain and daylight area that affect the light characteristics of the building based on the calculated window set information.
  • an automatic calculation device for window set information using an artificial neural network performs pre-learning using first input information including image information as input information, and window set information obtained by extracting window set characteristics from the image information as output information.
  • the window set information calculating artificial neural network module and the window set information calculating artificial neural network module includes a feature extraction unit that extracts a 1-1 feature map and a 1-2 feature map having different scale values for the image information.
  • the window set information calculation artificial neural network module generates a 3-1 feature map and a 3-2 feature map by applying convolution to the 1-1 feature map and the 1-2 feature map, respectively. After that, one of the 3-1 feature map and the 3-2 feature map is determined as the final feature map according to a preset standard, and then the window set information can be calculated based on the selected final feature map.
  • the window set information calculation artificial neural network module calculates reliability information for the 3-1 feature map and the 3-2 feature map, and then selects the feature map with a higher reliability value according to the preset standard. It can be determined by the final feature map.
  • the window set information calculation artificial neural network module may include a pre-trained first artificial neural network that uses the first input information as input information and outputs a 1-1 feature map corresponding to the image information as output information. You can.
  • the feature extraction unit may extract a 1-2 feature map having a scale value different from the scale value of the 1-1 feature map from the first artificial neural network.
  • the window set information calculation artificial neural network module uses the 1-1 feature map as input information, the 1-2 feature map as intermediate input information, and generates a 2-1 corresponding to the 1-1 feature map. It may include a pre-trained second artificial neural network that outputs a first feature map and a second-second feature map corresponding to the first-second feature map as output information.
  • the window set information calculation artificial neural network module uses the 2-1 feature map and the 2-2 feature map as input information, a 3-2 feature map corresponding to the 2-2 feature map, and the 2-2 feature map. It may include a previously learned third artificial neural network that outputs the 3-2 feature map corresponding to the 3-1 feature map as output information.
  • the window set information calculation artificial neural network module may further include an FC-layer that determines one of the 3-1 feature map and the 3-2 feature map as the final feature map according to a preset standard. .
  • the automatic window set information calculation device using the artificial neural network calculates window set information including area information and length information of windows and doors corresponding to the image information and area information and length information of frames based on the final feature map. It may further include a characteristic information calculation unit.
  • the light characteristic information calculation unit may calculate solar radiation gain and daylight area based on the window set information.
  • the feature extraction unit extracts a 1-3 feature map having a scale value different from the 1-1 feature map and the 1-2 feature map for the image information in the window set information calculation artificial neural network module. You can.
  • the window set information calculation artificial neural network module calculates reliability information for the 3-1 feature map, the 3-2 feature map, and the 3-2 feature map, and then calculates the feature with a higher reliability value.
  • the map may be determined as the final feature map according to the preset criteria.
  • a method for automatically calculating window set information using an artificial neural network uses first input information including image information as input information, and outputs a 1-1 feature map corresponding to the image information as output information.
  • the window After determining one of the 3-1 feature map and the 3-2 feature map as the final feature map according to the 3rd feature map generation step of generating a map and a preset standard, the window is displayed based on the selected final feature map.
  • a window set information calculation step of calculating set information may be included.
  • a method of automatically calculating window set information using an artificial neural network includes window set information including area information and length information of windows and doors corresponding to the image information and area information and length information of frames based on the final feature map.
  • a window set information calculation step may be further included.
  • an automatic calculation device for window set information using an artificial neural network uses first input information including image information as input information, and uses window set information extracted from the image information as output information.
  • a window set information calculating artificial neural network module the window set information calculating artificial neural network module including a feature extraction unit for extracting a 1-1 feature map and a 1-2 feature map having different scale values for the image information;
  • the window set information calculation artificial neural network module generates a 3-1 feature map and a 3-2 feature map by applying convolution to the 1-1 feature map and the 1-2 feature map, respectively.
  • the set information calculating artificial neural network module can perform learning using labeling information labeled with window set information included in the image information.
  • the window set information calculating artificial neural network module may perform learning by using second input information including the labeling information together with the first input information as input information of the window set information calculating artificial neural network module.
  • the method and device for automatically calculating window set information using an artificial neural network labels the shape of the window in the window set image of the building and learns this with the algorithm of the artificial neural network module, so that the window set shape information of the building can be quickly obtained using only a photographic image. It can be extracted within time, and there is an advantage in being able to detect the shape information of the window set and extract the window set information even when an unlearned window set image is input.
  • the method and device for automatically calculating window set information using an artificial neural network have the effect of continuously improving accuracy by automatically performing additional learning by auto-labeling new images.
  • the method and device for automatically calculating window set information using an artificial neural network facilitates information on the optical characteristics of the window set, such as solar radiation gain and daylight area, by using the extracted window set information.
  • Figure 1 is a diagram illustrating some components of a method and device for automatically calculating window set information using an artificial neural network according to an embodiment of the present invention.
  • Figure 2 is a diagram showing the components of a window set to be measured in the present invention.
  • Figure 3 is a diagram illustrating input information and output information when inferred by an artificial neural network module for calculating window set information according to an embodiment of the present invention.
  • Figure 4 is a diagram illustrating input information and output information when the window set information calculating artificial neural network module learns according to an embodiment of the present invention.
  • Figure 5 is a diagram specifically illustrating the configuration of an artificial neural network module for calculating window set information according to an embodiment of the present invention.
  • Figure 6 is a diagram briefly illustrating the process of an artificial neural network module for calculating window set information according to an embodiment of the present invention.
  • Figure 7 is a diagram illustrating in detail the process of the artificial neural network module for calculating window set information according to an embodiment of the present invention.
  • Figure 8 is a diagram for explaining the process of a first artificial neural network according to an embodiment of the present invention.
  • Figure 9 is a diagram for explaining the process of a second artificial neural network according to an embodiment of the present invention.
  • Figure 10 is a diagram showing the final output information of the artificial neural network module for calculating window set information according to an embodiment of the present invention.
  • Figure 11 is a diagram for explaining a learning method of an artificial neural network module for calculating window set information, according to an embodiment of the present invention.
  • Figure 12 is a diagram illustrating a method of labeling learning data according to an embodiment of the present invention.
  • Figure 13 is a diagram illustrating a method for calculating solar heat gain by a window set information calculation device according to an embodiment of the present invention.
  • FIG. 14 is a graph showing solar radiation gain by month/year of a window set calculated according to the method shown in FIG. 13.
  • Figure 15 is a diagram illustrating a method for calculating a daylight area by a window set information calculation device according to an embodiment of the present invention.
  • Figure 16 is a diagram comparing the value of the daylight area derived by the window set information calculation device and the value derived by the finite element analysis result according to an embodiment of the present invention.
  • 'A device for automatically calculating window set information using an artificial neural network' is referred to as 'Calculating window set information.' It will be referred to as 'device', and 'window set information automatic calculation method using artificial neural network' will be referred to as 'window set information calculation method'.
  • Figure 1 is a diagram showing some components of an automatic window set information calculation device using an artificial neural network according to an embodiment of the present invention.
  • the window set information calculation device 1 using an artificial neural network includes a labeling information generator 100, a processor 200, an optical characteristic information generator 400, and a memory module 500. ) may include.
  • the components of the window set information calculation device 1 according to the present invention are not limited to those configured in FIG. 1, and may be implemented with fewer components than those shown, or by additionally combining other components.
  • the labeling information generation unit 100 refers to a generation unit that generates data necessary for the window set information calculation artificial neural network module 300 (see FIG. 3) according to the present invention to perform learning.
  • the labeling information generator 100 is a component that generates data for the window set information generating artificial neural network module 300 to learn or infer.
  • the data generated by the labeling information generator 100 includes the window set information calculating artificial neural network module 300. It contains specific numerical information and area information regarding the window set corresponding to the image input to the neural network module 300. This can serve as learning data for the window set information calculating artificial neural network module 300 to perform learning.
  • the labeling data generated by the labeling information generation unit 100 may be input as input information together with the image information 10 to the window set information calculation device 1, or may be used as reference information corresponding to inferred information output later. . A detailed explanation of this will be provided later.
  • the processor 200 may serve to control the overall operation of the window set information calculation device 1 according to the present invention.
  • the processor 200 includes a window set information calculation artificial neural network module 300, and can calculate area information and numerical information about the window set from the image input to the processor 200.
  • the specific processor of the window set information calculation artificial neural network module 300 will be described in detail with reference to FIGS. 3 to 9.
  • the light characteristic information generator 400 generates an amount of solar radiation corresponding to the light characteristic value of the window set flowing into the building, based on the area information and numerical information about the window set calculated by the processor 200. heat gas) and daylight area can be calculated. A detailed explanation of this will be provided through FIGS. 13 to 16.
  • the memory module 500 includes input image information 10, labeling data generated by the labeling information generator 100, window set information generated by the process 200, and light generated by the optical characteristic information generator 400. Characteristic information, etc. may be stored, and various information about the building being analyzed may be stored.
  • the memory module 500 and the processor 200 are shown as separate components, but the embodiment of the present invention is not limited thereto, and the memory module 500 and the processor 200 are one component.
  • the present invention may be implemented by combining.
  • Figure 2 is a diagram showing the components of a window set to be measured in the present invention.
  • Window sets installed in buildings include various components such as windows, frames, and panels.
  • information on where these components are located and the area and length they occupy must be known.
  • the window set includes a mullion corresponding to a vertical frame, a window corresponding to a fixed window, a transom corresponding to a horizontal frame, and a T/T window corresponding to an opening/closing window.
  • panels corresponding to spandrels, etc., and their areas and values can be defined in various ways.
  • the window set information includes the total width, total height, total area, mullion/transom frame area, fixed window glass area, T/T window glass area, and T of the window set, as shown in (B) of Figure 2.
  • /TCan include information about window frame area, panel area, panel-mullion/transom length, glass-mullion/transom length, frame-mullion/transom length, glass-frame length, etc.
  • the window set information calculation device 100 When an image is input as input information as shown in (A) of FIG. 2, the window set information calculation device 100 according to the present invention includes division information dividing the components in the image and numerical information for each component. The purpose is to automatically calculate as shown in (B) of Figure 2. Let us learn more about the specific process of the present invention through the drawings below.
  • Figure 3 is a diagram showing input information and output information when inferred by the window set information calculating artificial neural network module according to an embodiment of the present invention
  • Figure 4 is a diagram showing the artificial neural network module calculating window set information according to an embodiment of the present invention. This diagram shows the input information and output information when the neural network module learns.
  • the window set information calculating artificial neural network module 300 uses first input information including image information 10 as input information, and inputs information from the input image information 10. It refers to a pre-trained artificial neural network whose output information includes window set information 40 that extracts area information and numerical information about the window set.
  • the window set information calculating artificial neural network module 300 includes first input information 10 including image information, output information 40 including window set information, and output information. It may include a learning session that performs learning based on reference information (ground truth, 50) corresponding to (40), and an inference session that infers first output information (40) based on first input information (10). You can. Although the drawing shows the learning session and the inference session separately, the embodiment of the present invention is limited to this and the learning session and the inference session may be implemented separately.
  • the window set information calculating artificial neural network module 300 when the window set information calculating artificial neural network module 300 performs learning, learning may be performed based on the first output information 40 and reference information 50 as shown in the figure. , Learning may be performed by inputting numerical information corresponding to image information into the window set information calculation artificial neural network module 300.
  • the input information input to the window set information calculation artificial neural network module 300 includes first input information 10 including image information and second input information labeled with numerical information about the window set included in the image information. Since the input information 20 is included, the window set information calculation artificial neural network module 300 can perform learning based on the two input information.
  • performing learning means adjusting the parameters of the artificial neural network, and the second input information 20 input to the window set information calculation artificial neural network module 300 is the labeling information generator ( 100) may refer to labeling information corresponding to the image information generated. This will be explained later with reference to FIG. 12.
  • Figures 5 to 9 are diagrams for explaining the learning method of the window set information calculating artificial neural network module 300, and Figure 5 specifically shows the configuration of the window set information calculating artificial neural network module according to an embodiment of the present invention. This is a drawing.
  • the window set information calculation artificial neural network module 300 includes a first artificial neural network 310, a second artificial neural network 320, a third artificial neural network 330, and an FC-layer 340. ) may include.
  • the window set information calculating artificial neural network module 300 is shown divided into three artificial neural networks and one FC-layer, but this is for convenience of explanation and the embodiment of the present invention is not limited thereto. Therefore, all three artificial neural networks can be combined to form one artificial neural network, or all three artificial neural networks and one FC-layer can be combined to form one artificial neural network.
  • the first artificial neural network 310 includes first input information 10 including image information and second input information 20 including at least one of numerical information and area information about the window set included in the image information. It refers to a pre-trained artificial neural network that uses input information, applies convolution to the image information, and outputs the 1-1 feature map 11 as output information.
  • the convolution operation since the convolution operation is performed multiple times, a plurality of feature maps with different scales may be generated internally in the first artificial neural network 310. You can.
  • the feature map extraction method (not shown) extracts the 1-2 feature map 12 and the 1-3 feature map 13 from the first artificial neural network 310, and then extracts the 1-2 feature map 12 and the 1-3 feature map 13 from the first artificial neural network 310. It can be output as intermediate output information of the artificial neural network 310, and the intermediate output information output in this way can be input as intermediate input information of the second artificial neural network 320 in parallel.
  • the intermediate output information output as intermediate output information of the first artificial neural network 310 is shown as two pieces (1-2 feature map and 1-3 feature map), but the embodiment of the present invention is like this. It is not limited.
  • the feature maps corresponding to the intermediate output information output by the first artificial neural network 310 refer to feature maps having a scale value different from that of the 1-1 feature map 11, Depending on the purpose of the invention, the number of feature maps corresponding to intermediate output information can be freely modified.
  • two, four, or five feature maps may be implemented with a scale value different from that of the 1-1 feature map 11, and in this case, each feature map may have a different scale value.
  • the description will be limited to two feature maps, which are intermediate output information of the first artificial neural network 310, namely the 1-1 feature map 11 and the 1-2 feature map 12.
  • the second artificial neural network 320 includes the 1-1 feature map 11 output by the first artificial neural network 310 and the 1-2 feature map 12, which is intermediate output information of the first artificial neural network 310.
  • a convolution operation is performed based on the 1-3 feature map 13, and the 2-1 feature map 21, which strengthens the features of the 1-1 feature map 11, the 1-2 feature map ( The 2-2 feature map 22, which enhances the features of 12), and the 2-3 feature map 23, which enhances the features of the 1-3 feature map 13, can be output as output information.
  • the output information output by the second artificial neural network 320 may be a total of two (2-1 feature map and 2- 2 feature map), when the intermediate output information of the first artificial neural network 310 is three, a total of four pieces of output information can be output by the second artificial neural network.
  • the third artificial neural network 330 inputs the 2-1 feature map 21, the 2-2 feature map 22, and the 2-3 feature map 23 output from the second artificial neural network 320.
  • a convolution operation is independently performed on each input feature map to obtain the 3-1 feature map 31, 3-2 feature map 32, and 3-3 including the anchor box image.
  • the feature map 33 can be output as output information.
  • the FC-layer (340, Fully-connected Layer) includes the 3-1 feature map (31), the 3-2 feature map (32), and the 3-3 feature map (33) output by the third artificial neural network (330). ) can be analyzed individually to output a preset standard (a map with the most reliable information output) as the final output information.
  • Figure 6 is a diagram briefly illustrating the process of an artificial neural network module for calculating window set information according to an embodiment of the present invention.
  • the purpose of the artificial neural network module 300 for calculating window set information according to the present invention is to extract area information about the window set from the input image information 10 and calculate numerical information from the extracted area information. To achieve this, window set information is calculated using multiple artificial neural networks.
  • the window set information calculation artificial neural network module 300 extracts a first feature map that extracts image features for the input image information 10 using the first artificial neural network 310, as shown in FIG. 6, and , extracting the second feature map through a process of enhancing image features for the extracted first feature map, and extracting the third feature through a process of extracting final object detection information for the extracted second feature map.
  • the map can be extracted. Let's learn more about the process of each artificial neural network through the drawings below.
  • FIG. 7 is a diagram illustrating in detail the process of the artificial neural network module for calculating window set information according to an embodiment of the present invention.
  • FIG. 8 is a diagram for explaining the process of a first artificial neural network according to an embodiment of the present invention
  • FIG. 9 is a diagram for explaining the process of a second artificial neural network according to an embodiment of the present invention.
  • the first artificial neural network 310 is an artificial neural network that extracts features from the input image information 10, and applies a convolution-based network to generate the 1-1 feature map (11). ) can be extracted.
  • the first artificial neural network 310 can serve to convert input image information from three-dimensional data to one-dimensional data using a convolution-based BottleNeck-CSP (Cross Stage Neterok) network. there is.
  • a convolution-based BottleNeck-CSP Cross Stage Neterok
  • the first process of the first artificial neural network 310 is the focus step, which is a process in which model calculation can be easily performed by unifying several images in a certain format (for example, 3 x 1024 x 1024).
  • the advantage of doing this is that the effect of learning is accelerated.
  • BottleneckCSP is a structure that compresses the channel of the input value, extracts features, and increases the channel again.
  • the convolution layer in the first artificial neural network 310 After the convolution layer in the first artificial neural network 310, it goes through a batch normalization process and proceeds to BottleneckCSP. In this step, four convolutional layers are created, two of which are connected to each other through a short-connection to derive the calculated value, and the calculated values from other convolutional layers are combined to pass through the remaining convolutional layer. 1Artificial neural network (310) was implemented. Afterwards, the calculation was performed by applying batch normalization only to the first and fourth layers.
  • the extracted feature map is arranged in a fixed one-dimensional form through the SPP (Spatial Pyramid Pooling Layer) process, and then the feature map to which the SPP process is applied is an FC-layer (Fully).
  • SPP Spatial Pyramid Pooling Layer
  • FC-layer FC-layer
  • the first artificial neural network 310 can output the 1-2 feature map 12 and the 1-3 feature map 13 as intermediate output information, where the 1-2 feature
  • the map 12 and the 1-3 feature map 13 refer to feature maps having different scale values from the 1-1 feature map 11.
  • the 1-3 feature map 13 is a feature map with a smaller number of channels than the 1-2 feature map 12
  • the 1-2 feature map 12 is a feature map with a smaller number of channels than the 1-2 feature map 12.
  • the second artificial neural network 320 is an artificial neural network composed of a PANet (Path-Aggregation Network) stage that specifies features for the feature map that has passed through the first artificial neural network 310, and strengthens the information flow. It corresponds to an artificial neural network that aims to
  • the second artificial neural network 320 is an artificial neural network that collects and processes feature maps of various sizes (with various scale values) through the first artificial neural network 310, and uses the low level acquired in the previous stage. )'s feature map is not properly input to the convolution layer at the back, so there is a feature that improves the accuracy of localization by strengthening the entire feature layer through bottom-up path augmentation.
  • a shortcut connecting the bottom layer to the top layer and a convolution layer enable smooth flow compared to the existing backbone model.
  • the Concat layer 321 of the second artificial neural network plays the role of combining the upsampling layer 325 corresponding to the immediately preceding layer in the second artificial neural network 320 and the third CSP layer 313 of the first artificial neural network 310. Perform.
  • the second artificial neural network 320 uses a total of four Concat layers (321, 322, 323, 324), and the first Concat layer is connected to the third CSP layer 313 of the first artificial neural network 310, and the first artificial neural network 310 is connected to the third CSP layer 313.
  • the second Concat layer 322 which combines the CSP layer 313 of (310) and the upsampling layer, detects small-scale objects, and the remaining two Concat layers 323 and 324 detect the CSP of the second artificial neural network 320 and
  • the Conv layer is combined to detect medium-scale and large-scale objects.
  • the 2-1 feature map 21 passed through the 2nd concat (322) layer, the 2-2 feature map 22 passed through the 3rd contact (323) layer, and the 2-2 feature map 22 passed through the 4th contact (324) layer.
  • the 2-3 feature maps 23 have different scales (the scale of the 2-3 feature map is the largest, the scale of the 2-2 feature map is medium, and the scale of the 2-1 feature map is (smallest) feature maps are output, respectively, and the feature maps output in this way are each input as input information to the third artificial neural network 330.
  • the third artificial neural network 330 performs convolution on the scales of the three input images and finally converts the resulting values into the 3-1 feature map 31, the 3-2 feature map 32, and the 3- 3 Derived from feature map (33).
  • the resulting value uses a multi-scale feature map to quickly generate anchor boxes with fast inference speed.
  • the three feature maps output from the third artificial neural network 330 are finally input to the FC-layer 340, and in the FC-layer, window set information is calculated based on the most reliable feature map among the three feature maps. (Area information and numerical information) are output as final output information of the window set information calculation artificial neural network module 300.
  • Figure 10 is a diagram showing the final output information of the window set information calculating artificial neural network module 300 according to an embodiment of the present invention.
  • the final output information can be output as an anchor box image that divides the window set into sections, and it can be seen that the image is derived by accurately creating an anchor box only in the portion corresponding to the glass in the image.
  • the discrimination results are good because the obstacles blocking the front of the window set and the images reflected on the windows are also reflected in deep learning learning.
  • the final information may include information about the window number and corresponding X-coordinates, Y-coordinates, width, height, etc., as text file information.
  • FIG. 11 is a diagram illustrating a learning method of an artificial neural network module for calculating window set information, according to an embodiment of the present invention
  • FIG. 12 is a diagram illustrating a method of labeling learning data, according to an embodiment of the present invention. It is a drawing.
  • the window set information calculation artificial neural network module 300 receives a new image as input data. Then, object detection is performed on the input image, and if the uncertainty result for object detection is lower than the target uncertainty, object data is manually created and additional learning is performed.
  • the method of manually generating learning data includes the process of labeling data. As shown in FIG. 12, a part corresponding to the glass area is designated in the image of the exterior wall of the building, and then the data value is labeled for the designated part. and save the data. For example, in this step, data augmentation was performed by regenerating 20 images with the contrast and brightness of the images adjusted using data augmentation.
  • object detection is performed on the input image, and if the uncertainty result for object detection is higher than the target uncertainty, the object data is increased and learned while simultaneously extracting the detected object data. did.
  • the auto-labeling method was used in this process, in the case of the present invention, when an untrained image is input to the artificial neural network model, the resulting labeling data is used for training of the artificial neural network. By using it, there was an effect of improving the accuracy of the artificial neural network model and dramatically shortening the work time.
  • FIG. 13 is a diagram illustrating a method by which a window set information calculation device calculates solar heat gain according to an embodiment of the present invention
  • FIG. 14 is a window set monthly/year calculated according to the method shown in FIG. 13. This is a graph showing the solar radiation gain.
  • the optical characteristic information generator 400 may calculate solar heat gain information based on the output information output by the window set information calculation artificial neural network module 300.
  • the optical characteristics information generator 400 calculates the window area (A) based on the window set information output by the window set information calculation artificial neural network module 300, and then calculates the window area (A) as the average monthly solar radiation (I). s ), the presence or absence of a shading device in the window set, the total effective energy transmittance (g eff ), which includes the characteristics of single or double windows, and the glass area ratio ( F The amount of heat gain (Q S,tr ) can be calculated.
  • Figure 15 is a diagram illustrating a method for calculating a daylight area by a window set information calculation device according to an embodiment of the present invention.
  • the optical characteristics information generator 400 derives the maximum depth of the daylight zone through the window vertical dimension derived by the window set information calculation artificial neural network module 300. . Afterwards, the width of the daylight zone is derived using the derived horizontal dimension of the window and the maximum depth of the daylight zone, and then the daylight area can be derived as shown in Equation 2 below by using the product of the width and depth of the daylight zone. .
  • Equation 2 a D,max refers to the maximum depth of the daylight zone, h Li refers to the height to the top of the window, and h Ta refers to the height to the bottom of the window.
  • optical characteristic information generator 400 can derive the maximum depth of the daylight zone through Equation 2 and the vertical dimension of the window calculated by the window set information calculation artificial neural network module 300.
  • Equation 3 b D means the width of the daylight zone, and b wi means the width of the window.
  • optical characteristics information generation unit 400 uses Equation 3, the horizontal dimension of the window calculated by the window set information calculation artificial neural network module 300, and the derived maximum depth of the daylight zone to determine the width of the daylight zone using the equation below: It can be derived as in 4.
  • a D a D x b D [m 2 ]
  • a D means the daylight area and a D means the depth of the daylight zone.
  • the light characteristic information generator 400 can finally derive information about the daylight area by multiplying the width and depth of the daylight zone using Equation 4 above.
  • Figure 16 is a diagram comparing the value for the daylight area derived by the window set information calculation device and the value derived from the finite element analysis results according to an embodiment of the present invention.
  • the main light area value (2.1100625) calculated by the present invention and the value (2.1) derived by finite element analysis have an error of only 0.48%, showing that the accuracy of the present invention is very high.
  • the method and device for automatically calculating window set information using an artificial neural network labels the shape of the window in the window set image of the building and learns this with the algorithm of the artificial neural network module, so that the window set shape information of the building can be quickly obtained using only a photographic image. It can be extracted within time, and there is an advantage in being able to detect the shape information of the window set and extract the window set information even when an unlearned window set image is input.
  • the method and device for automatically calculating window set information using an artificial neural network have the effect of continuously improving accuracy by automatically performing additional learning by auto-labeling new images.
  • the method and device for automatically calculating window set information using an artificial neural network facilitates information on the optical characteristics of the window set, such as solar radiation gain and daylight area, by using the extracted window set information.
  • devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions.
  • a processing device may perform an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate information in response to the execution of software.
  • OS operating system
  • a processing device may access, store, manipulate, process, and generate information in response to the execution of software.
  • a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include.
  • a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
  • Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device.
  • Software and/or information may be used by any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or information to a processing device. It can be embodied in .
  • Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and information may be stored on one or more computer-readable recording media.
  • Methods according to embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded on computer-readable media.
  • Examples of computer-readable recording media include hard disks, floppy disks, and magnetic tapes. Magnetic media, optical media such as CD-ROM and DVD, magneto-optical media such as floptical disk, and ROM and RAM ( It includes specially configured hardware devices to store and execute program instructions, such as RAM, flash memory, etc.
  • Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

A device for automatically calculating window set information using an artificial neural network according to one embodiment comprises: a pre-trained window set information calculation artificial neural network module which uses first input information including image information as input information and uses window set information obtained by extracting window set characteristics from the image information as output information; and a feature extraction unit for extracting a 1-1 feature map and a 1-2 feature map having different scale values for the image information from the window set information calculation artificial neural network module, wherein the window set information calculation artificial neural network module can generate a 3-1 feature map and a 3-2 feature map by applying convolution to the 1-1 feature map and the 1-2 feature map, respectively, determine one of the 3-1 feature map and the 3-2 feature map as the final feature map according to a preset standard, and then calculate the window set information on the basis of the selected final feature map.

Description

인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치Automatic calculation method and device for window set information using artificial neural network
본 발명은 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치에 관한 발명으로서, 보다 구체적으로는 기 학습된 인공신경망을 이용하여 입력되는 이미지에 창세트 영역을 분류하고, 동시에 분류된 창세트 영역에 대한 창세트 정보를 자동적으로 산출할 수 있는 기술에 관한 발명이다.The present invention relates to a method and device for automatically calculating window set information using an artificial neural network. More specifically, the present invention relates to a method and device for automatically calculating window set information using an artificial neural network. More specifically, the present invention classifies the window set area in an input image using a pre-trained artificial neural network, and simultaneously classifies the window set area into the classified window set area. This invention relates to technology that can automatically calculate window set information.
건물에서 실내 공간은 건축 환경 설비 측면에서 실내외 환경 변화로부터 재실자의 쾌적함을 유지시켜주는 공간이다. 재실자의 쾌적감은 여러 온열 인자들의 조합으로 인해 실시간으로 변화될 수 있는데 이중 가장 대표적인 온열 인자는 온도이다. 따라서 재실자에게 쾌적한 실내 환경을 조성해주기 위한 온도 분포 평가가 필요하다The indoor space in a building is a space that maintains the comfort of occupants from changes in the indoor and outdoor environments in terms of architectural environment facilities. Occupants' comfort can change in real time due to a combination of various thermal factors, of which the most representative thermal factor is temperature. Therefore, it is necessary to evaluate temperature distribution to create a comfortable indoor environment for occupants.
한편, 최근에는 최근 지구 온난화 등의 환경 이슈로 인하여 산업용 및 가정용 건축물에서 열에너지 효율적으로 관리하고 저감시키는 기술 등이 주목 받고 있으며, 이로 인해 산업용 및 공공 건물에 주광 에너지를 관리하고 저감시키기 위한 다양한 리모델링이 이루어지고 있다. Meanwhile, recently, due to environmental issues such as global warming, technologies for efficiently managing and reducing thermal energy in industrial and domestic buildings have been attracting attention. As a result, various remodeling to manage and reduce daylight energy in industrial and public buildings is being developed. It is being done.
주광 에너지를 관리하고 저감시키기 위한 리모델링의 경우 기존 건축물의 설계도면을 이용하여 건물의 광 에너지 특성을 분석하고 이를 바탕으로 건물에 대한 설계가 이루어져야 한다. 그리고 이러한 설계를 함에 있어서, 건축물의 광 에너지 특성에 영향을 주는 요소들을 다양하게 고려해야 하는데, 여러 요소 중 건축물에 가장 밀접한 영향을 주는 요소는 창세트이며, 창세트는 건물의 일사 획득량, 주광 면적 등 건물 내부로 유입되는 광 에너지에 영향을 가장 크게 미친다.In the case of remodeling to manage and reduce daylight energy, the light energy characteristics of the building should be analyzed using the design drawings of the existing building, and the building should be designed based on this. In designing this, various factors that affect the light energy characteristics of the building must be considered. Among the various factors, the element that most closely affects the building is the window set, and the window set determines the building's solar radiation gain and daylight area. It has the greatest impact on the light energy flowing into the building.
창세트의 광 특성값인 일사 획득량, 주광면적 등을 계산하기 위해서는 창세트의 상세 형상 치수가 필요하기 때문에, 일반적으로 건물의 창세트를 설계할 경우 기존 건물 창세트에 대한 형상 정보가 필요하다. 하지만 시간이 오래 흐른 구형 건물의 경우 도면이 소실되어 창세트 형상 정보를 확보할 수 없는 문제점이 있다. 이러한 경우 시공자나 설계자가 직접 기존 건물의 창세트 형상을 실측해야 하는데 이러한 경우 비용과 시간이 소요되는 문제가 있다. 이러한 문제는 기존 건물 창세트의 형상 정보를 사용하는 창세트 광특성값을 분석할 경우에도 한계로 작용한다. In order to calculate the light characteristic values of a window set, such as solar radiation gain and daylight area, the detailed shape dimensions of the window set are required. In general, when designing a building window set, shape information about the existing building window set is required. . However, in the case of older buildings that have been around for a long time, there is a problem in that the drawings are lost and window set shape information cannot be secured. In this case, the constructor or designer must directly measure the shape of the window set of the existing building, which is costly and time-consuming. This problem also serves as a limitation when analyzing window set optical characteristic values using the shape information of existing building window sets.
따라서, 일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치는 상기 설명한 문제점을 해결하기 위해 고안된 발명으로서, 입력된 이미지에 대해 자동적으로 창세트 영역을 분류하고, 분류된 영역에 대한 창세트 정보를 자동으로 산출할 수 있는 창세트 정보 자동 산출 방법을 제공하는데 목적이 존재한다.Therefore, the method and device for automatically calculating window set information using an artificial neural network according to an embodiment are inventions designed to solve the problems described above, and automatically classify window set areas for input images and The purpose is to provide an automatic calculation method of window set information that can automatically calculate window set information.
또한, 산출된 창세트 정보를 기초로, 건물의 광특성에 영향을 미치는 일사 획득량과 주광 면적에 대한 정보를 산출함으로써, 보다 효율적으로 건물을 관리할 수 있는 방법을 제공하는데 목적이 있다. In addition, the purpose is to provide a method for managing buildings more efficiently by calculating information on solar radiation gain and daylight area that affect the light characteristics of the building based on the calculated window set information.
본 발명의 효과들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the technical problems mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 장치는이미지 정보를 포함하는 제1입력 정보를 입력 정보로 하고, 상기 이미지 정보에서 창세트 특성을 추출한 창세트 정보를 출력 정보로 하는 기 학습된 창세트 정보 산출 인공 신경망 모듈 및 상기 창세트 정보 산출 인공신경망 모듈에서, 상기 이미지 정보에 대해 서로 다른 스케일 값을 가지는 제1-1특징 맵과 제1-2특징 맵을 추출하는 특징 추출부를 포함하고, 상기 창세트 정보 산출 인공신경망 모듈은, 상기 제1-1특징 맵과 상기 제1-2특징 맵에 대해 각각 컨볼루션을 적용하여 제3-1특징 맵과 제3-2특징 맵을 생성한 후, 미리 설정된 기준에 따라 상기 제3-1특징 맵과 상기 제3-2특징 맵 중 하나를 최종 특징 맵으로 결정한 후, 선택된 최종 특징 맵을 기초로 상기 창세트 정보를 산출할 수 있다. According to one embodiment, an automatic calculation device for window set information using an artificial neural network performs pre-learning using first input information including image information as input information, and window set information obtained by extracting window set characteristics from the image information as output information. In the window set information calculating artificial neural network module and the window set information calculating artificial neural network module, it includes a feature extraction unit that extracts a 1-1 feature map and a 1-2 feature map having different scale values for the image information. And the window set information calculation artificial neural network module generates a 3-1 feature map and a 3-2 feature map by applying convolution to the 1-1 feature map and the 1-2 feature map, respectively. After that, one of the 3-1 feature map and the 3-2 feature map is determined as the final feature map according to a preset standard, and then the window set information can be calculated based on the selected final feature map.
상기 창세트 정보 산출 인공신경망 모듈은, 상기 제3-1특징 맵과 상기 제3-2특징 맵에 대한 신뢰도 정보를 산출한 후, 더 높은 신뢰도 값을 가지고 있는 특징 맵을 상기 미리 설정된 기준에 따라 상기 최종 특징 맵으로 결정할 수 있다.The window set information calculation artificial neural network module calculates reliability information for the 3-1 feature map and the 3-2 feature map, and then selects the feature map with a higher reliability value according to the preset standard. It can be determined by the final feature map.
상기 창세트 정보 산출 인공신경망 모듈은, 상기 제1입력 정보를 입력 정보로 하고, 상기 이미지 정보에 대응되는 제1-1특징 맵을 출력 정보로 출력하는, 기 학습된 제1인공신경망을 포함할 수 있다.The window set information calculation artificial neural network module may include a pre-trained first artificial neural network that uses the first input information as input information and outputs a 1-1 feature map corresponding to the image information as output information. You can.
상기 특징 추출부는, 상기 제1인공신경망에서 상기 제1-1특징 맵이 가지고 있는 스케일 값과 다른 스케일 값을 가지는 제1-2특징 맵을 추출할 수 있다.The feature extraction unit may extract a 1-2 feature map having a scale value different from the scale value of the 1-1 feature map from the first artificial neural network.
상기 창세트 정보 산출 인공신경망 모듈은, 상기 제1-1특징 맵을 입력 정보로 하고, 상기 제1-2특징 맵을 중간 입력 정보로 하여, 상기 제1-1특징 맵에 대응되는 제2-1특징 맵과, 상기 제1-2특징 맵에 대응되는 제2-2특징 맵을 출력 정보로 출력하는, 기 학습된 제2인공신경망을 포함할 수 있다.The window set information calculation artificial neural network module uses the 1-1 feature map as input information, the 1-2 feature map as intermediate input information, and generates a 2-1 corresponding to the 1-1 feature map. It may include a pre-trained second artificial neural network that outputs a first feature map and a second-second feature map corresponding to the first-second feature map as output information.
상기 창세트 정보 산출 인공신경망 모듈은, 상기 제2-1특징 맵과 상기 제2-2특징 맵을 입력 정보로 하고, 상기 제2-2특징 맵에 대응되는 제3-2특징 맵과, 상기 제3-1특징 맵에 대응되는 제3-2특징 맵을 출력 정보로 출력하는, 기 학습된 제3인공신경망을 포함할 수 있다.The window set information calculation artificial neural network module uses the 2-1 feature map and the 2-2 feature map as input information, a 3-2 feature map corresponding to the 2-2 feature map, and the 2-2 feature map. It may include a previously learned third artificial neural network that outputs the 3-2 feature map corresponding to the 3-1 feature map as output information.
상기 창세트 정보 산출 인공신경망 모듈은, 미리 설정된 기준에 따라 상기 제3-1특징 맵과 상기 제3-2특징 맵 중 하나를 상기 최종 특징 맵으로 결정하는, FC-레이어를 더 포함할 수 있다.The window set information calculation artificial neural network module may further include an FC-layer that determines one of the 3-1 feature map and the 3-2 feature map as the final feature map according to a preset standard. .
상기 인공신경망을 이용한 창세트 정보 자동 산출 장치는 상기 최종 특징 맵을 기초로 상기 이미지 정보에 대응되는 창호의 면적 정보와 길이 정보 및 프레임의 면적 정보와 길이 정보를 포함하는 창세트 정보를 산출하는 광 특성 정보 산출부를 더 포함할 수 있다.The automatic window set information calculation device using the artificial neural network calculates window set information including area information and length information of windows and doors corresponding to the image information and area information and length information of frames based on the final feature map. It may further include a characteristic information calculation unit.
상기 광 특성 정보 산출부는, 상기 창세트 정보를 기초로 일사 획득량 및 주광 면적을 산출할 수 있다.The light characteristic information calculation unit may calculate solar radiation gain and daylight area based on the window set information.
상기 특징 추출부는, 상기 창세트 정보 산출 인공신경망 모듈에서, 상기 이미지 정보에 대해 상기 제1-1특징 맵과 상기 제1-2특징 맵과 다른 스케일 값을 가지는 제1-3특징 맵을 추출할 수 있다.The feature extraction unit extracts a 1-3 feature map having a scale value different from the 1-1 feature map and the 1-2 feature map for the image information in the window set information calculation artificial neural network module. You can.
상기 창세트 정보 산출 인공신경망 모듈은, 상기 제3-1특징 맵, 상기 제3-2특징 맵 및 상기 제3-2특징 맵에 대한 신뢰도 정보를 산출한 후, 더 높은 신뢰도 값을 가지고 있는 특징 맵을 상기 미리 설정된 기준에 따라 상기 최종 특징 맵으로 결정할 수 있다.The window set information calculation artificial neural network module calculates reliability information for the 3-1 feature map, the 3-2 feature map, and the 3-2 feature map, and then calculates the feature with a higher reliability value. The map may be determined as the final feature map according to the preset criteria.
일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법은 이미지 정보를 포함하는 제1입력 정보를 입력 정보로 하고, 상기 이미지 정보에 대응되는 제1-1특징 맵을 출력 정보로 출력하는, 기 학습된 제1인공신경망을 이용하여 상기 제1-1특징 맵을 출력하는 제1특징 맵 생성 단계, 상기 이미지 정보에 대해 서로 다른 스케일 값을 가지는 제1-1특징 맵과 제1-2특징 맵을 상기 제1인공신경망을 통해 추출하는 특징 추출 단계, 상기 제1-1특징 맵과 상기 제1-2특징 맵에 대해 각각 컨볼루션을 적용하여 제3-1특징 맵과 제3-2특징 맵을 생성하는 제3특징 맵 생성 단계 및 미리 설정된 기준에 따라 상기 제3-1특징 맵과 상기 제3-2특징 맵 중 하나를 최종 특징 맵으로 결정한 후, 선택된 최종 특징 맵을 기초로 상기 창세트 정보를 산출하는 창세트 정보 산출 단계를 포함할 수 있다.According to one embodiment, a method for automatically calculating window set information using an artificial neural network uses first input information including image information as input information, and outputs a 1-1 feature map corresponding to the image information as output information. A first feature map generating step of outputting the 1-1 feature map using a previously learned first artificial neural network, a 1-1 feature map and a 1-2 feature having different scale values for the image information A feature extraction step of extracting a map through the first artificial neural network, applying convolution to the 1-1 feature map and the 1-2 feature map respectively to create a 3-1 feature map and a 3-2 feature map. After determining one of the 3-1 feature map and the 3-2 feature map as the final feature map according to the 3rd feature map generation step of generating a map and a preset standard, the window is displayed based on the selected final feature map. A window set information calculation step of calculating set information may be included.
일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법은 상기 최종 특징 맵을 기초로 상기 이미지 정보에 대응되는 창호의 면적 정보와 길이 정보 및 프레임의 면적 정보와 길이 정보를 포함하는 창세트 정보를 산출하는 창세트 정보 산출 단계를 더 포함할 수 있다.A method of automatically calculating window set information using an artificial neural network according to an embodiment includes window set information including area information and length information of windows and doors corresponding to the image information and area information and length information of frames based on the final feature map. A window set information calculation step may be further included.
일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 장치는 이미지 정보를 포함하는 제1입력 정보를 입력 정보로 하고, 상기 이미지 정보에서 창세트 특성을 추출한 창세트 정보를 출력 정보로 하는 기 학습된 창세트 정보 산출 인공 신경망 모듈, 상기 창세트 정보 산출 인공신경망 모듈에서, 상기 이미지 정보에 대해 서로 다른 스케일 값을 가지는 제1-1특징 맵과 제1-2특징 맵을 추출하는 특징 추출부를 포함하고, 상기 창세트 정보 산출 인공신경망 모듈은, 상기 제1-1특징 맵과 상기 제1-2특징 맵에 대해 각각 컨볼루션을 적용하여 제3-1특징 맵과 제3-2특징 맵을 생성한 후, 미리 설정된 기준에 따라 상기 제3-1특징 맵과 상기 제3-2특징 맵 중 하나를 최종 특징 맵으로 결정한 후, 선택된 최종 특징 맵을 기초로 상기 창세트 정보를 산출하고, 상기 창세트 정보 산출 인공신경망 모듈은, 상기 이미지 정보에 포함되어 있는 창세트 정보에 대해 라벨링 되어 있는 라벨링 정보를 이용하여 학습을 수행할 수 있다.According to one embodiment, an automatic calculation device for window set information using an artificial neural network uses first input information including image information as input information, and uses window set information extracted from the image information as output information. a window set information calculating artificial neural network module, the window set information calculating artificial neural network module including a feature extraction unit for extracting a 1-1 feature map and a 1-2 feature map having different scale values for the image information; And the window set information calculation artificial neural network module generates a 3-1 feature map and a 3-2 feature map by applying convolution to the 1-1 feature map and the 1-2 feature map, respectively. Then, one of the 3-1 feature map and the 3-2 feature map is determined as the final feature map according to a preset standard, and then the window set information is calculated based on the selected final feature map, and the window set information is calculated based on the selected final feature map. The set information calculating artificial neural network module can perform learning using labeling information labeled with window set information included in the image information.
상기 창세트 정보 산출 인공신경망 모듈은, 상기 라벨링 정보를 포함하는 제2입력 정보를 상기 제1입력 정보와 함께 상기 창세트 정보 산출 인공신경망 모듈의 입력 정보로 하여, 학습을 수행할 수 있다.The window set information calculating artificial neural network module may perform learning by using second input information including the labeling information together with the first input information as input information of the window set information calculating artificial neural network module.
일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치는 건물의 창세트 이미지 속 창문의 형상을 라벨링하고 이를 인공신경망 모듈의 알고리즘으로 학습함으로써 건물의 창세트 형상 정보를 사진 이미지만으로 빠른 시간 안에 추출할 수 있으며, 학습되지 않은 창세트 이미지가 입력된 경우에도 창세트의 형상 정보를 탐지하고 창세트 정보를 추출할 수 있는 장점이 존재한다. According to one embodiment, the method and device for automatically calculating window set information using an artificial neural network labels the shape of the window in the window set image of the building and learns this with the algorithm of the artificial neural network module, so that the window set shape information of the building can be quickly obtained using only a photographic image. It can be extracted within time, and there is an advantage in being able to detect the shape information of the window set and extract the window set information even when an unlearned window set image is input.
또한, 일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치는 새로운 이미지에 대해 오토 레이블링을 하여 자동으로 추가 학습을 진행하여 정확도를 지속적으로 향상시킬 수 있는 효과가 존재한다.In addition, the method and device for automatically calculating window set information using an artificial neural network according to an embodiment have the effect of continuously improving accuracy by automatically performing additional learning by auto-labeling new images.
또한, 일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치는 추출된 창세트 정보를 이용하여 해당 창세트의 일사 획득량과 주광 면적 등과 같은 창세트의 광특성에 대한 정보를 용이하게 도출할 수 있는 장점이 존재한다. In addition, the method and device for automatically calculating window set information using an artificial neural network according to an embodiment facilitates information on the optical characteristics of the window set, such as solar radiation gain and daylight area, by using the extracted window set information. There are advantages that can be derived.
본 발명의 효과들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the technical problems mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.In order to more fully understand the drawings cited in the detailed description of the present invention, a brief description of each drawing is provided.
도 1은 본 발명의 일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치의 일부 구성 요소를 도시한 도면이다.Figure 1 is a diagram illustrating some components of a method and device for automatically calculating window set information using an artificial neural network according to an embodiment of the present invention.
도 2는 본 발명에서 측정 대상이 되는 창세트의 구성 요소를 도시한 도면이다. Figure 2 is a diagram showing the components of a window set to be measured in the present invention.
도 3은 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈이 추론 할 때의 입력 정보와 출력 정보를 도시한 도면이다.Figure 3 is a diagram illustrating input information and output information when inferred by an artificial neural network module for calculating window set information according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈이 학습할 때의 입력 정보와 출력 정보를 도시한 도면이다.Figure 4 is a diagram illustrating input information and output information when the window set information calculating artificial neural network module learns according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈의 구성을 구체적으로 도시한 도면이다. Figure 5 is a diagram specifically illustrating the configuration of an artificial neural network module for calculating window set information according to an embodiment of the present invention.
도 6는 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈의 프로세스를 간략히 도시한 도면이다. Figure 6 is a diagram briefly illustrating the process of an artificial neural network module for calculating window set information according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈의 프로세스를 구체적으로 도시한 도면이다. Figure 7 is a diagram illustrating in detail the process of the artificial neural network module for calculating window set information according to an embodiment of the present invention.
도 8은 본 발명의 일 실시예에 따른 제1인공신경망의 프로세스를 설명하기 위한 도면이다. Figure 8 is a diagram for explaining the process of a first artificial neural network according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 제2인공신경망의 프로세스를 설명하기 위한 도면이다. Figure 9 is a diagram for explaining the process of a second artificial neural network according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따른 창세트 정보 산출 인공신경망 모듈의 최종 출력 정보를 도시한 도면이다.Figure 10 is a diagram showing the final output information of the artificial neural network module for calculating window set information according to an embodiment of the present invention.
도 11은 본 발명의 일 실시예에 따라, 창세트 정보 산출 인공 신경망 모듈의 학습 방법을 설명하기 위한 도면이다.Figure 11 is a diagram for explaining a learning method of an artificial neural network module for calculating window set information, according to an embodiment of the present invention.
도 12는 본 발명의 일 실시예에 따라, 학습 데이터를 라벨링 하는 방법을 도시한 도면이다. Figure 12 is a diagram illustrating a method of labeling learning data according to an embodiment of the present invention.
도 13은 본 발명의 일 실시예에 따라 창세트 정보 산출 장치가 일사 열 획득량을 산출하는 방법을 도시한 도면이다.Figure 13 is a diagram illustrating a method for calculating solar heat gain by a window set information calculation device according to an embodiment of the present invention.
도 14는 도 13에 도시된 방법에 따라 계산된 창세트의 월별/연도별 일사 획득량을 도시한 그래프이다. FIG. 14 is a graph showing solar radiation gain by month/year of a window set calculated according to the method shown in FIG. 13.
도 15는 본 발명의 일 실시예에 따라 창세트 정보 산출 장치가 주광 면적을 산출하는 방법을 도시한 도면이다.Figure 15 is a diagram illustrating a method for calculating a daylight area by a window set information calculation device according to an embodiment of the present invention.
도 16은 본 발명의 일 실시예에 따른 창세트 정보 산출 장치에 의해 도출된 주광 면적에 대한 값과 유한요소해석 결과의 의해 도출된 값을 비교한 도면이다.Figure 16 is a diagram comparing the value of the daylight area derived by the window set information calculation device and the value derived by the finite element analysis result according to an embodiment of the present invention.
이하, 본 발명에 따른 실시 예들은 첨부된 도면들을 참조하여 설명한다. 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 실시 예들을 설명할 것이나, 본 발명의 기술적 사상은 이에 한정되거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있다.Hereinafter, embodiments according to the present invention will be described with reference to the attached drawings. When adding reference signs to components in each drawing, it should be noted that the same components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted. In addition, embodiments of the present invention will be described below, but the technical idea of the present invention is not limited or limited thereto and may be modified and implemented in various ways by those skilled in the art.
또한, 본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Additionally, the terms used in this specification are used to describe embodiments and are not intended to limit and/or limit the disclosed invention. Singular expressions include plural expressions unless the context clearly dictates otherwise.
본 명세서에서, "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는다.In this specification, terms such as “comprise,” “provide,” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification. It does not exclude in advance the existence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.
또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함하며, 본 명세서에서 사용한 "제 1", "제 2" 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되지는 않는다. In addition, throughout the specification, when a part is said to be “connected” to another part, this refers not only to the case where it is “directly connected” but also to the case where it is “indirectly connected” with another element in between. Terms including ordinal numbers, such as “first” and “second,” used in this specification may be used to describe various components, but the components are not limited by the terms.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다. Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted.
한편 본 발명의 명칭은 '인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치'로 기재하였으나, 이하 명세서에서는 설명의 편의를 위해 '인공신경망을 이용한 창세트 정보 자동 산출 장치'는 '창세트 정보 산출 장치'로 지칭하고, '인공신경망을 이용한 창세트 정보 자동 산출 방법'은 '창세트 정보 산출 방법'으로 지칭하여 설명하도록 한다. Meanwhile, the name of the present invention is described as 'A method and device for automatically calculating window set information using an artificial neural network,' but in the specification below, for convenience of explanation, 'A device for automatically calculating window set information using an artificial neural network' is referred to as 'Calculating window set information.' It will be referred to as 'device', and 'window set information automatic calculation method using artificial neural network' will be referred to as 'window set information calculation method'.
도 1은 본 발명의 일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 장치의 일부 구성 요소를 도시한 도면이다.Figure 1 is a diagram showing some components of an automatic window set information calculation device using an artificial neural network according to an embodiment of the present invention.
도 1을 참조하면, 일 실시예에 따른 인공신경망을 이용한 창세트 정보 산출 장치(1)는 라벨링 정보 생성부(100), 프로세서(200), 광 특성 정보 생성부(400) 및 메모리 모듈(500)을 포함할 수 있다. 본 발명에 따른 창세트 정보 산출 장치(1)의 구성요소가 도 1에 구성된 요소로 한정되는 것은 아니고, 도시된 구성 요소보다 더 적게 구성되거나, 다른 구성요소들이 추가적으로 결합하여 구현될 수 도 있다. Referring to FIG. 1, the window set information calculation device 1 using an artificial neural network according to an embodiment includes a labeling information generator 100, a processor 200, an optical characteristic information generator 400, and a memory module 500. ) may include. The components of the window set information calculation device 1 according to the present invention are not limited to those configured in FIG. 1, and may be implemented with fewer components than those shown, or by additionally combining other components.
라벨링 정보 생성부(100)는 본 발명에 따른 창세트 정보 산출 인공신경망 모듈(300, 도 3참조)이 학습을 수행하는데 필요한 데이터를 생성하는 생성부를 의미한다. The labeling information generation unit 100 refers to a generation unit that generates data necessary for the window set information calculation artificial neural network module 300 (see FIG. 3) according to the present invention to perform learning.
라벨링 정보 생성부(100)는 창세트 정보 산출 인공신경망 모듈(300)이 학습 또는 추론을 하기 위한 데이터를 생성하는 구성 요소로서, 라벨링 정보 생성부(100)가 생성하는 데이터에는 창세트 정보 산출 인공신경망 모듈(300)에 입력되는 이미지에 대응되는 창세트에 관한 구체적인 수치 정보와 영역 정보가 포함되어 있다. 이는 창세트 정보 산출 인공신경망 모듈(300)이 학습을 수행하는데 학습 데이터로서의 역할을 할 수 있다. The labeling information generator 100 is a component that generates data for the window set information generating artificial neural network module 300 to learn or infer. The data generated by the labeling information generator 100 includes the window set information calculating artificial neural network module 300. It contains specific numerical information and area information regarding the window set corresponding to the image input to the neural network module 300. This can serve as learning data for the window set information calculating artificial neural network module 300 to perform learning.
라벨링 정보 생성부(100)가 생성한 라벨링 데이터는 창세트 정보 산출 장치(1)에 이미지 정보(10)와 함께 입력 정보로 입력되거나, 추후 출력된 추론 정보에 대응되는 레퍼런스 정보로 활용될 수 있다. 이에 대한 구체적인 설명은 후술하도록 한다.The labeling data generated by the labeling information generation unit 100 may be input as input information together with the image information 10 to the window set information calculation device 1, or may be used as reference information corresponding to inferred information output later. . A detailed explanation of this will be provided later.
프로세서(200)는 본 발명에 따른 창세트 정보 산출 장치(1)의 전반적인 작동을 제어하는 역할을 할 수 있다. 프로세서(200)는 창세트 정보 산출 인공신경망 모듈(300)을 포함하고 있어, 프로세서(200)로 입력되는 이미지에서 창세트에 관한 영역 정보 수치 정보를 산출할 수 있다. 창세트 정보 산출 인공신경망 모듈(300)의 구체적으로 프로세서에 대해서는 도 3 내지 도 9를 통해 자세히 설명하도록 한다.The processor 200 may serve to control the overall operation of the window set information calculation device 1 according to the present invention. The processor 200 includes a window set information calculation artificial neural network module 300, and can calculate area information and numerical information about the window set from the image input to the processor 200. The specific processor of the window set information calculation artificial neural network module 300 will be described in detail with reference to FIGS. 3 to 9.
광 특성 정보 생성부(400)는 프로세서(200)가 산출한 창세트에 관한 영역 정보 및 수치 정보를 기초로, 건물 내부로 유입되는 창세트의 광 특성값에 해당하는 일사 획득량(Amount of solar heat gasin) 및 주광 면적 등을 산출할 수 있다. 이에 대한 자세한 설명은 도 13내지 도 16을 통해 자세히 설명하도록 한다.The light characteristic information generator 400 generates an amount of solar radiation corresponding to the light characteristic value of the window set flowing into the building, based on the area information and numerical information about the window set calculated by the processor 200. heat gas) and daylight area can be calculated. A detailed explanation of this will be provided through FIGS. 13 to 16.
메모리 모듈(500)은 입력되는 이미지 정보(10), 라벨링 정보 생성부(100)가 생성한 라벨링 데이터, 프로세스(200)가 생성한 창세트 정보 및 광특성 정보 생성부(400)가 생성한 광특성 정보 등이 저장될 수 있으며, 분석 대상이 되는 건물에 대한 다양한 정보 등이 저장될 수 있다.The memory module 500 includes input image information 10, labeling data generated by the labeling information generator 100, window set information generated by the process 200, and light generated by the optical characteristic information generator 400. Characteristic information, etc. may be stored, and various information about the building being analyzed may be stored.
한편, 도 1에서는 메모리 모듈(500)이 프로세서(200)를 별도의 구성요소로 도시하였지만, 본 발명의 실시예가 이로 한정되는 것은 아니고, 메모리 모듈(500)이 프로세서(200)가 하나의 구성 요소로 합쳐져 본 발명이 구현될 수 도 있다. Meanwhile, in FIG. 1, the memory module 500 and the processor 200 are shown as separate components, but the embodiment of the present invention is not limited thereto, and the memory module 500 and the processor 200 are one component. The present invention may be implemented by combining.
도 2는 본 발명에서 측정 대상이 되는 창세트의 구성 요소를 도시한 도면이다.Figure 2 is a diagram showing the components of a window set to be measured in the present invention.
건물에 설치되는 창세트는 창호, 프레임, 패널 등 다양한 구성요소를 포함하고 있으며, 창세트 정보를 정확하게 산출하기 위해서는 이러한 구성요소들이 어디에 위치하고, 차지하고 있는 면적과 길이 등에 대한 정보도 알고 있어야 한다. Window sets installed in buildings include various components such as windows, frames, and panels. In order to accurately calculate window set information, information on where these components are located and the area and length they occupy must be known.
구체적으로, 창세트는 도 2의 (A)에 도시된 바와 같이, 세로 프레임에 해당하는 멀리언, 고정창에 해당하는 창호, 가로 프레임에 해당하는 트랜섬, 개폐창에 해당하는 T/T창, 스팬드럴에 해당하는 패널 등을 포함할 수 있으며, 이들에 대한 면적과 수치는 다양하게 정의될 수 있다.Specifically, as shown in (A) of Figure 2, the window set includes a mullion corresponding to a vertical frame, a window corresponding to a fixed window, a transom corresponding to a horizontal frame, and a T/T window corresponding to an opening/closing window. , panels corresponding to spandrels, etc., and their areas and values can be defined in various ways.
구체적으로 창세트 정보는 도2의 (B)에 도시된 바와 같이 창세트의 전체 너비, 전체 높이, 전체 면적, 멀리언/트랜섬 프레임 면적, 고정창 유리 면적, T/T창 유리 면적, T/T창 프레임 면적, 패널 면적, 패널-멀리언/트랜섬 길이, 유리-멀리언/트랜섬 길이, 프레임-멀리언/트랜섬 길이, 유리-프레임 길이 등에 대한 정보를 포함할 수 있다. Specifically, the window set information includes the total width, total height, total area, mullion/transom frame area, fixed window glass area, T/T window glass area, and T of the window set, as shown in (B) of Figure 2. /TCan include information about window frame area, panel area, panel-mullion/transom length, glass-mullion/transom length, frame-mullion/transom length, glass-frame length, etc.
본 발명에 따른 창세트 정보 산출 장치(100)는 도 2의 (A)와 같이 이미지가 입력 정보로 입력된 경우, 이미지에서 구성요소들을 구획한 구획 정보와, 각각의 구성요소들에 대한 수치 정보를 도 2의 (B)와 같이 자동적으로 산출하는데 그 목적이 존재한다. 이하 도면을 통해 본 발명의 구체적으로 프로세스에 대해 자세히 알아보도록 한다. When an image is input as input information as shown in (A) of FIG. 2, the window set information calculation device 100 according to the present invention includes division information dividing the components in the image and numerical information for each component. The purpose is to automatically calculate as shown in (B) of Figure 2. Let us learn more about the specific process of the present invention through the drawings below.
도 3은 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈이 추론 할 때의 입력 정보와 출력 정보를 도시한 도면이고, 도 4는 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈이 학습할 때의 입력 정보와 출력 정보를 도시한 도면이다. Figure 3 is a diagram showing input information and output information when inferred by the window set information calculating artificial neural network module according to an embodiment of the present invention, and Figure 4 is a diagram showing the artificial neural network module calculating window set information according to an embodiment of the present invention. This diagram shows the input information and output information when the neural network module learns.
도 3 내지 도 4를 참조하면, 본 발명에 따른 창세트 정보 산출 인공신경망 모듈(300)은 이미지 정보(10)를 포함하는 제1입력 정보를 입력 정보로 하고, 입력된 이미지 정보(10)에서 창세트에 대한 영역 정보와 수치 정보를 추출한 창세트 정보(40)를 포함하는 출력 정보를 출력 정보로 하는 기 학습된 인공신경망을 의미한다.Referring to Figures 3 and 4, the window set information calculating artificial neural network module 300 according to the present invention uses first input information including image information 10 as input information, and inputs information from the input image information 10. It refers to a pre-trained artificial neural network whose output information includes window set information 40 that extracts area information and numerical information about the window set.
본 발명에 따른 창세트 정보 산출 인공신경망 모듈(300)은 도 4에 도시된 바와 같이 이미지 정보를 포함하는 제1입력 정보(10)와, 창세트 정보를 포함하는 출력 정보(40) 및 출력 정보(40)에 대응되는 레퍼런스 정보(ground truth, 50)를 기초로 학습을 수행하는 학습 세션과, 제1입력 정보(10)를 기초로 제1출력 정보(40)를 추론하는 추론 세션을 포함할 수 있다. 도면에서는 학습 세션과 추론 세션을 분리하여 도시하였지만, 본 발명의 실시예가 이로 한정되는 것으로 학습 세션과 추론 세션은 분리하여 구현될 수 도 있다.As shown in FIG. 4, the window set information calculating artificial neural network module 300 according to the present invention includes first input information 10 including image information, output information 40 including window set information, and output information. It may include a learning session that performs learning based on reference information (ground truth, 50) corresponding to (40), and an inference session that infers first output information (40) based on first input information (10). You can. Although the drawing shows the learning session and the inference session separately, the embodiment of the present invention is limited to this and the learning session and the inference session may be implemented separately.
한편 본 발명의 경우 창세트 정보 산출 인공신경망 모듈(300)이 학습을 수행함에 있어서, 도면에 도시된 바와 같이 제1출력 정보(40)와 레퍼런스 정보(50)를 기초로 학습을 수행할 수 있지만, 창세트 정보 산출 인공신경망 모듈(300)에 이미지 정보에 대응되는 수치 정보가 함께 입력되어 학습이 수행될 수도 있다.Meanwhile, in the case of the present invention, when the window set information calculating artificial neural network module 300 performs learning, learning may be performed based on the first output information 40 and reference information 50 as shown in the figure. , Learning may be performed by inputting numerical information corresponding to image information into the window set information calculation artificial neural network module 300.
구체적으로, 창세트 정보 산출 인공신경망 모듈(300)에 입력되는 입력 정보에는 이미지 정보를 포함하는 제1입력 정보(10)와 상기 이미지 정보에 포함되어 있는 창세트에 관한 수치 정보 라벨링 되어 있는 제2입력 정보(20)가 포함되어 있어, 창세트 정보 산출 인공신경망 모듈(300)은 입력된 2개의 입력 정보를 기초로 학습을 수행할 수 있다. Specifically, the input information input to the window set information calculation artificial neural network module 300 includes first input information 10 including image information and second input information labeled with numerical information about the window set included in the image information. Since the input information 20 is included, the window set information calculation artificial neural network module 300 can perform learning based on the two input information.
한편, 본 발명에서 학습을 수행한다는 의미는, 인공신경망의 파라미터를 조정하는 것을 의미하며, 창세트 정보 산출 인공신경망 모듈(300)에 입력되는 제2입력 정보(20)는, 라벨링 정보 생성부(100)에서 생성한 이미지 정보에 대응되는 라벨링 정보를 의미할 수 있다. 이에 대한 설명은 도 12를 통해 후술하도록 한다.Meanwhile, in the present invention, performing learning means adjusting the parameters of the artificial neural network, and the second input information 20 input to the window set information calculation artificial neural network module 300 is the labeling information generator ( 100) may refer to labeling information corresponding to the image information generated. This will be explained later with reference to FIG. 12.
도 5 내지 도 9는 창세트 정보 산출 인공신경망 모듈(300)이 학습하는 방법을 설명하기 위한 도면으로서, 도 5는 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈의 구성을 구체적으로 도시한 도면이다. Figures 5 to 9 are diagrams for explaining the learning method of the window set information calculating artificial neural network module 300, and Figure 5 specifically shows the configuration of the window set information calculating artificial neural network module according to an embodiment of the present invention. This is a drawing.
도 5를 참조하면, 본 발명에 따른 창세트 정보 산출 인공신경망 모듈(300)은 제1인공신경망(310), 제2인공신경망(320), 제3인공신경망(330) 및 FC-레이어(340)를 포함할 수 있다. Referring to FIG. 5, the window set information calculation artificial neural network module 300 according to the present invention includes a first artificial neural network 310, a second artificial neural network 320, a third artificial neural network 330, and an FC-layer 340. ) may include.
한편, 도 5에서는 창세트 정보 산출 인공신경망 모듈(300)을 3개의 인공신경망과 한 개의 FC-레이어로 구분하여 도시하였지만, 이는 설명의 편의를 위한 것으로서 본 발명의 실시예가 이로 한정되는 것은 아니다. 따라서, 3개의 인공신경망이 모두 합쳐져 하나의 인공신경망으로 구현될 수도 있고, 3개의 인공신경망과 한 개의 FC-레이어가 모두 합쳐진 하나의 인공신경망으로도 구현될 수 있다. Meanwhile, in FIG. 5, the window set information calculating artificial neural network module 300 is shown divided into three artificial neural networks and one FC-layer, but this is for convenience of explanation and the embodiment of the present invention is not limited thereto. Therefore, all three artificial neural networks can be combined to form one artificial neural network, or all three artificial neural networks and one FC-layer can be combined to form one artificial neural network.
제1인공신경망(310)은 이미지 정보를 포함하는 제1입력 정보(10)와 이미지 정보에 포함되어 있는 창세트에 대한 수치 정보 및 영역 정보 중 적어도 하나를 포함하는 제2입력 정보(20)를 입력 정보로 하고, 상기 이미지 정보에 컨볼루션을 적용하여 제1-1특징 맵(11)을 출력 정보로 출력하는, 기 학습된 인공신경망을 의미한다.The first artificial neural network 310 includes first input information 10 including image information and second input information 20 including at least one of numerical information and area information about the window set included in the image information. It refers to a pre-trained artificial neural network that uses input information, applies convolution to the image information, and outputs the 1-1 feature map 11 as output information.
한편, 제1인공신경망(310)의 경우 복수 회에 걸쳐 컨볼루션 연산이 수행되기 때문에, 제1인공신경망(310)에 내부에서 생성되는 특징 맵은 서로 다른 스케일을 가지는 특징 맵이 복수 개 생성될 수 있다. Meanwhile, in the case of the first artificial neural network 310, since the convolution operation is performed multiple times, a plurality of feature maps with different scales may be generated internally in the first artificial neural network 310. You can.
따라서, 특징 맵 추출불(미도시)는 제1-2특징 맵(12)과 제1-3특징 맵(13)을 제1인공신경망(310)에서 추출한 후, 도면에서 도시된 바와 같이 제1인공신경망(310)의 중간 출력 정보로 출력할 수 있고, 이렇게 출력된 중간 출력 정보들은 병렬적으로 제2인공신경망(320)의 중간 입력 정보로 입력될 수 있다. Therefore, the feature map extraction method (not shown) extracts the 1-2 feature map 12 and the 1-3 feature map 13 from the first artificial neural network 310, and then extracts the 1-2 feature map 12 and the 1-3 feature map 13 from the first artificial neural network 310. It can be output as intermediate output information of the artificial neural network 310, and the intermediate output information output in this way can be input as intermediate input information of the second artificial neural network 320 in parallel.
한편, 도 5에서는 제1인공신경망(310)의 중간 출력 정보로 출력되는 중간 출력 정보는 2개(제1-2특징 맵, 제1-3특징 맵)로 도시하였지만, 본 발명의 실시예가 이로 한정되는 것은 아니다. 앞서 설명한 바와 같이 제1인공신경망(310)이 출력하는 중간 출력 정보에 해당하는 특징 맵들은 제1-1특징 맵(11)의 스케일 값과 다른 스케일 값을 가지는 특징 맵을 의미하는 것이기 때문에, 본 발명의 목적에 따라 중간 출력 정보에 해당하는 특징 맵의 개수는 자유롭게 변형이 가능하다. Meanwhile, in Figure 5, the intermediate output information output as intermediate output information of the first artificial neural network 310 is shown as two pieces (1-2 feature map and 1-3 feature map), but the embodiment of the present invention is like this. It is not limited. As described above, since the feature maps corresponding to the intermediate output information output by the first artificial neural network 310 refer to feature maps having a scale value different from that of the 1-1 feature map 11, Depending on the purpose of the invention, the number of feature maps corresponding to intermediate output information can be freely modified.
일 예로 제1-1특징 맵(11)의 스케일 값과 다른 스케일 값을 가지는 특징 맵은 2개 또는 4개, 5개로 구현될 수 있으며, 이러한 경우 각각의 특징 맵들은 서로 다른 스케일 값을 가지고 있을 수 있다. 이하 설명의 편의를 위해 제1인공신경망(310)의 중간 출력 정보인 특징 맵은 제1-1특징 맵(11), 제1-2특징 맵(12)인 2개로 한정하여 설명하도록 한다. As an example, two, four, or five feature maps may be implemented with a scale value different from that of the 1-1 feature map 11, and in this case, each feature map may have a different scale value. You can. For convenience of explanation below, the description will be limited to two feature maps, which are intermediate output information of the first artificial neural network 310, namely the 1-1 feature map 11 and the 1-2 feature map 12.
제2인공신경망(320)은 제1인공신경망(310)이 출력한 제1-1특징 맵(11)과 제1인공신경망(310)의 중간 출력 정보인 제1-2특징 맵(12)과 제1-3특징 맵(13)을 기초로 컨볼루션 연산을 수행하여, 제1-1특징 맵(11)의 특징을 강화시킨 제2-1특징 맵(21), 제1-2특징 맵(12)의 특징을 강화시킨 제2-2특징 맵(22) 및 제1-3특징 맵(13)의 특징을 강화시킨 제2-3특징 맵(23)을 출력 정보로 출력할 수 있다. The second artificial neural network 320 includes the 1-1 feature map 11 output by the first artificial neural network 310 and the 1-2 feature map 12, which is intermediate output information of the first artificial neural network 310. A convolution operation is performed based on the 1-3 feature map 13, and the 2-1 feature map 21, which strengthens the features of the 1-1 feature map 11, the 1-2 feature map ( The 2-2 feature map 22, which enhances the features of 12), and the 2-3 feature map 23, which enhances the features of the 1-3 feature map 13, can be output as output information.
앞서 설명한 바와 같이, 제1인공신경망(310)의 중간 출력 정보가 한 개인 경우 제2인공신경망(320)이 출력하는 출력 정보는 총 2개 일 수 있으며(제2-1특징 맵과 제2-2특징 맵), 제1인공신경망(310)의 중간 출력 정보가 3개인 경우 제2인공신경망이 출력하는 출력 정보는 총 4개의 출력 정보가 출력될 수 있다. As described above, if the intermediate output information of the first artificial neural network 310 is one, the output information output by the second artificial neural network 320 may be a total of two (2-1 feature map and 2- 2 feature map), when the intermediate output information of the first artificial neural network 310 is three, a total of four pieces of output information can be output by the second artificial neural network.
제3인공신경망(330)은 제2인공신경망(320)이 출력한 제2-1특징 맵(21), 제2-2특징 맵(22) 및 제2-3특징 맵(23)을 입력 정보로 하여, 입력된 각각의 특징 맵에 대해 컨볼루션 연산을 독립적으로 수행하여 앵커 박스 이미지를 포함하고 있는 제3-1특징 맵(31), 제3-2특징 맵(32) 및 제3-3특징 맵(33)을 출력 정보로 출력할 수 있다. The third artificial neural network 330 inputs the 2-1 feature map 21, the 2-2 feature map 22, and the 2-3 feature map 23 output from the second artificial neural network 320. Thus, a convolution operation is independently performed on each input feature map to obtain the 3-1 feature map 31, 3-2 feature map 32, and 3-3 including the anchor box image. The feature map 33 can be output as output information.
FC-레이어(340, Fully-connected Layer)는 제3인공신경망(330)이 출력한 제3-1특징 맵(31), 제3-2특징 맵(32) 및 제3-3특징 맵(33)을 각각 분석하여 미리 설정된 기준(가장 신뢰도가 높은 정보가 출력된 맵)을 최종 출력 정보로 출력하는 역할을 수행할 수 있다. The FC-layer (340, Fully-connected Layer) includes the 3-1 feature map (31), the 3-2 feature map (32), and the 3-3 feature map (33) output by the third artificial neural network (330). ) can be analyzed individually to output a preset standard (a map with the most reliable information output) as the final output information.
도 6는 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈의 프로세스를 간략히 도시한 도면이다. Figure 6 is a diagram briefly illustrating the process of an artificial neural network module for calculating window set information according to an embodiment of the present invention.
본 발명에 따른 창세트 정보 산출 인공 신경망 모듈(300)은 입력되는 이미지 정보(10)에서 창세트에 관한 영역 정보를 추출하고, 추출된 영역 정보에서 수치 정보를 산출하는데 그 목적이 있으므로, 이러한 목적으로 달성하기 위해 복수개의 인공신경망을 이용하여 창세트 정보를 산출한다. The purpose of the artificial neural network module 300 for calculating window set information according to the present invention is to extract area information about the window set from the input image information 10 and calculate numerical information from the extracted area information. To achieve this, window set information is calculated using multiple artificial neural networks.
따라서, 창세트 정보 산출 인공신경망 모듈(300)은 도 6에 도시된 바와 같이 제1인공신경망(310)을 이용하여 입력된 이미지 정보(10)에 대해 이미지 특징을 추출한 제1특징 맵을 추출하고, 추출된 제1특징 맵에 대해 이미지의 특징을 강화하는 프로세스를 통해 제2특징 맵을 추출하고, 추출된 제2특징 맵에 대해 최종적인 객체 탐지 정보를 추출할 수 있는 프로세스를 통해 제3특징 맵을 추출할 수 있다. 이하 도면을 통해 각각의 인공신경망의 프로세스에 대해 자세히 알아보도록 한다. Therefore, the window set information calculation artificial neural network module 300 extracts a first feature map that extracts image features for the input image information 10 using the first artificial neural network 310, as shown in FIG. 6, and , extracting the second feature map through a process of enhancing image features for the extracted first feature map, and extracting the third feature through a process of extracting final object detection information for the extracted second feature map. The map can be extracted. Let's learn more about the process of each artificial neural network through the drawings below.
도 7은 본 발명의 일 실시예에 따른 창세트 정보 산출 인공 신경망 모듈의 프로세스를 구체적으로 도시한 도면이다. 도 8은 본 발명의 일 실시예에 따른 제1인공신경망의 프로세스를 설명하기 위한 도면이고, 도 9는 본 발명의 일 실시예에 따른 제2인공신경망의 프로세스를 설명하기 위한 도면이다.Figure 7 is a diagram illustrating in detail the process of the artificial neural network module for calculating window set information according to an embodiment of the present invention. FIG. 8 is a diagram for explaining the process of a first artificial neural network according to an embodiment of the present invention, and FIG. 9 is a diagram for explaining the process of a second artificial neural network according to an embodiment of the present invention.
도 7과 도 8을 참조하면 제1인공신경망(310)은 입력되는 이미지 정보(10)에 대해 특징을 추출하는 인공싱경망으로서, 컨볼루션 기반의 네트워크를 적용하여 제1-1특징 맵(11)을 추출할 수 있다.Referring to FIGS. 7 and 8, the first artificial neural network 310 is an artificial neural network that extracts features from the input image information 10, and applies a convolution-based network to generate the 1-1 feature map (11). ) can be extracted.
구체적으로, 제1인공신경망(310)은 컨볼루션 기반의 BottleNeck-CSP(Cross Stage Neterok) 네트워크를 이용하여 입력되는 이미지 정보를 3차원 형식의 데이터에서 1차원 형식의 데이터로 변환하는 역할을 할 수 있다.Specifically, the first artificial neural network 310 can serve to convert input image information from three-dimensional data to one-dimensional data using a convolution-based BottleNeck-CSP (Cross Stage Neterok) network. there is.
제1인공신경망(310)의 첫 프로세스는 포커스(Focus) 단계로서, 여러 이미지를 일정한 형식으로 (일 예로, 3 x 1024 x 1024 로 통일)하여 모델 계산이 간단하게 이루어질 수 있는 프로세스를 진행한다. 이를 진행하기 되면 학습의 효과가 가속화되는 장점이 존재한다. The first process of the first artificial neural network 310 is the focus step, which is a process in which model calculation can be easily performed by unifying several images in a certain format (for example, 3 x 1024 x 1024). The advantage of doing this is that the effect of learning is accelerated.
포커스 단계가 마무리되면, 제1인공신경망(310)은 컨볼루션 레이어와 BottleneckCSP를 통과를 복수 회 반복함으로써, 입력된 이미지 정보에서 특징(feature)을 추출한다. BottleneckCSP는 입력 값의 채널을 압축하여 특징을 추출하고 다시 채널을 증가시키는 구조이다.When the focus step is completed, the first artificial neural network 310 extracts features from the input image information by repeating the pass through the convolution layer and BottleneckCSP multiple times. BottleneckCSP is a structure that compresses the channel of the input value, extracts features, and increases the channel again.
256개의 채널은 Conv 1 x1을 통해 64채널로 축소시키며 이는 연산량을 줄이는 효과를 나타낸다. 256 channels are reduced to 64 channels through Conv 1 x1, which has the effect of reducing the amount of computation.
이후 Conv 1x1에서는 공간적인 특징 추출이 불가능하므로 Conv 3x3에서 특징을 추출한다. 그 후 채널을 다시 256개로 확장시키면서 Conv 1x1로 파라미터를 감소시킨다. 제1인공신경망(310)이 학습을 수행함에 있어서, 특징 맵의 특징이 많을수록 학습이 잘 되기 때문에 Conv 1x1을 통해 채널의 개수를 증가시켰다. Afterwards, since it is impossible to extract spatial features from Conv 1x1, features are extracted from Conv 3x3. Afterwards, the channels are expanded again to 256 and the parameters are reduced to Conv 1x1. When the first artificial neural network 310 performs learning, the more features in the feature map the better the learning, so the number of channels was increased through Conv 1x1.
제1인공신경망(310)에서 컨볼루션 레이어 이후에는 batch normalization 과정을 거치며 BottleneckCSP로 진행된다. 해당 단계에서는 4개의 컨볼루션 레이어를 생성하는데 이 중 두 개의 레이어는 서로 short-connection으로 연결되어 연산된 값을 도출하고 다른 컨볼루션 레이어에서 연산된 값을 합쳐서 나머지 하나의 컨볼루션 레이어를 통과하도록 제1인공신경망(310)을 구현하였다. 그 후 첫 번째와 네 번째 레이어에만 batch normalization을 적용하여 연산을 진행하였다. After the convolution layer in the first artificial neural network 310, it goes through a batch normalization process and proceeds to BottleneckCSP. In this step, four convolutional layers are created, two of which are connected to each other through a short-connection to derive the calculated value, and the calculated values from other convolutional layers are combined to pass through the remaining convolutional layer. 1Artificial neural network (310) was implemented. Afterwards, the calculation was performed by applying batch normalization only to the first and fourth layers.
제1인공신경망(310)의 마지막 단계로서 추출된 특징 맵을 고정된 1차원 형태로 배열하는 SPP(Spatial Pyramid Pooling Layer)을 과정을 진행한 후, SPP프로세스가 적용된 특징 맵이 FC-레이어(Fully Conneted Layer)의 입력 정보로 입력될 수 있게 하여, 제1인공신경망(310)의 최종 출력 정보는 제1-1특징 맵(11)이 된다. As the last step of the first artificial neural network 310, the extracted feature map is arranged in a fixed one-dimensional form through the SPP (Spatial Pyramid Pooling Layer) process, and then the feature map to which the SPP process is applied is an FC-layer (Fully). By allowing it to be input as input information of the Connected Layer, the final output information of the first artificial neural network 310 becomes the 1-1 feature map 11.
한편, 도면에 도시된 바와 같이 제1인공신경망(310)은 중간 출력 정보로 제1-2특징 맵(12)과 제1-3특징 맵(13)이 출력될 수 있는데, 제1-2특징 맵(12)과 제1-3특징 맵(13)은 제1-1특징 맵(11)과 서로 다른 스케일 값을 가지는 특징 맵을 의미한다. Meanwhile, as shown in the figure, the first artificial neural network 310 can output the 1-2 feature map 12 and the 1-3 feature map 13 as intermediate output information, where the 1-2 feature The map 12 and the 1-3 feature map 13 refer to feature maps having different scale values from the 1-1 feature map 11.
즉, 입력된 이미지 정보(10)는 제1인공신경망(310)을 단계적으로 지나면서 채널의 개수가 많아지도록 레이어를 구성 하였으므로, 레이어를 통과 할 때 마다 그만큼 특징 맵의 스케일이 달라진다. 따라서, 제1-3특징 맵(13)은 제1-2특징 맵(12)보다 채널의 개수가 작은 특징 맵이 되며, 제1-2특징 맵(12)은 제1-1특징 맵(11)보다 채널의 개수가 작은 특징 맵이 되며, 이렇게 제1인공신경망(310)의 중간 프로세스에서 추출된 특징 맵들은 제2인공신경망(320)의 중간 입력 값으로 입력된다.That is, since the input image information 10 is structured in layers so that the number of channels increases as it passes through the first artificial neural network 310 step by step, the scale of the feature map changes accordingly each time it passes through the layer. Therefore, the 1-3 feature map 13 is a feature map with a smaller number of channels than the 1-2 feature map 12, and the 1-2 feature map 12 is a feature map with a smaller number of channels than the 1-2 feature map 12. ), and the feature maps extracted in the intermediate process of the first artificial neural network 310 are input as intermediate input values of the second artificial neural network 320.
제2인공신경망(320)은 제1인공신경망(310)을 거친 특징 맵에 대해 특징을 구체화하는 PANet(Path-Aggregation Network) 단계로 구성되는 인공신경망으로서, 정보의 흐름(information flow)을 강화하는 것을 목표로 하는 인공신경망에 해당한다.The second artificial neural network 320 is an artificial neural network composed of a PANet (Path-Aggregation Network) stage that specifies features for the feature map that has passed through the first artificial neural network 310, and strengthens the information flow. It corresponds to an artificial neural network that aims to
구체적으로, 제2인공신경망(320)은 제1인공신경망(310)을 통해 다양한 크기(다양한 스케일 값을 가지는)의 특징 맵을 수집하고 처리하는 인공신경망으로서, 앞 단에서 취득한 로우 레벨(low level)의 특징 맵이 뒷단의 컨볼루션 레이어로 입력이 잘 되지 않아 발생할 수 있는 문제를 해결하기 위해 Bottom-up 경로 Augmentation에 의해 전체 특징 계층을 강화하는 방식으로 localization의 정확도를 향상시킨 특징이 존재한다.Specifically, the second artificial neural network 320 is an artificial neural network that collects and processes feature maps of various sizes (with various scale values) through the first artificial neural network 310, and uses the low level acquired in the previous stage. )'s feature map is not properly input to the convolution layer at the back, so there is a feature that improves the accuracy of localization by strengthening the entire feature layer through bottom-up path augmentation.
최하단 레이어에서 최상단 레이어를 잇는 shortcut 하나와 컨볼루션 레이어를 거쳐 기존 backbone 모델에 비해 원할한 flow가 가능하게 된다. A shortcut connecting the bottom layer to the top layer and a convolution layer enable smooth flow compared to the existing backbone model.
제2인공신경망의 Concat 층(321)은 제2인공신경망(320)에서 바로 직전 층에 해당하는 Upsampling 층(325)과 제1인공신경망(310)의 제3CSP(313) 층을 결합하는 역할을 수행한다.The Concat layer 321 of the second artificial neural network plays the role of combining the upsampling layer 325 corresponding to the immediately preceding layer in the second artificial neural network 320 and the third CSP layer 313 of the first artificial neural network 310. Perform.
구체적으로, 제2인공신경망(320)은 총 4개의 Concat층 (321,322,323,324)이 사용되었으며, 제1 Concat층은 제1인공신경망(310)의 제3CSP층(313)과 연결되며, 제1인공신경망(310)의 CSP층(313)과 Upsampling 층이 결합한 제2Concat층(322)에서는 스케일이 작은 객체를 검출하고, 나머지 두 개의 Concat층(323, 324)에서 제2인공신경망(320)의 CSP와 Conv 층이 결합하여 중간 스케일과 큰 스케일의 객체를 검출하도록 한다.Specifically, the second artificial neural network 320 uses a total of four Concat layers (321, 322, 323, 324), and the first Concat layer is connected to the third CSP layer 313 of the first artificial neural network 310, and the first artificial neural network 310 is connected to the third CSP layer 313. The second Concat layer 322, which combines the CSP layer 313 of (310) and the upsampling layer, detects small-scale objects, and the remaining two Concat layers 323 and 324 detect the CSP of the second artificial neural network 320 and The Conv layer is combined to detect medium-scale and large-scale objects.
따라서, 제2concat(322) 층을 통과한 제2-1특징 맵(21)과 제3contact(323)층을 통과한 제2-2특징 맵(22) 및 제4contact(324)층을 통과한 제2-3특징 맵(23)은 서로 다른 스케일을 가지게 되는는(제2-3특징 맵의 스케일이 가장 크고, 제2-2특징 맵의 스케일은 중간 크기이며, 제2-1특징 맵의 스케일이 가장 작다) 특징 맵이 각각 출력되며, 이렇게 출력된 특징 맵들은 제3인공신경망(330)의 입력 정보로 각각 입력된다.Therefore, the 2-1 feature map 21 passed through the 2nd concat (322) layer, the 2-2 feature map 22 passed through the 3rd contact (323) layer, and the 2-2 feature map 22 passed through the 4th contact (324) layer. The 2-3 feature maps 23 have different scales (the scale of the 2-3 feature map is the largest, the scale of the 2-2 feature map is medium, and the scale of the 2-1 feature map is (smallest) feature maps are output, respectively, and the feature maps output in this way are each input as input information to the third artificial neural network 330.
제3인공신경망(330)은 입력된 3가지의 이미지의 스케일에서 컨볼루션을 거쳐 최종적으로 결과값을 각각 제3-1특징 맵(31), 제3-2특징 맵(32) 및 제3-3특징 맵(33)으로 도출한다. 결과값은 멀티스케일 특징 맵을 사용하여 빠른 추론 속도로 앵커 박스를 빠르게 생성할 수 있다. The third artificial neural network 330 performs convolution on the scales of the three input images and finally converts the resulting values into the 3-1 feature map 31, the 3-2 feature map 32, and the 3- 3 Derived from feature map (33). The resulting value uses a multi-scale feature map to quickly generate anchor boxes with fast inference speed.
제3인공신경망(330)에서 출력된 3개의 특징 맵은 최종적으로 FC-레이어(340)에 입력되며, FC-레이어에서는 3개의 특징 맵 중 가장 신뢰도가 높은 특징 맵을 기초로 산출한 창세트 정보(영역 정보와 수치 정보)를 창세트 정보 산출 인공 신경망 모듈(300)의 최종 출력 정보로 출력한다. The three feature maps output from the third artificial neural network 330 are finally input to the FC-layer 340, and in the FC-layer, window set information is calculated based on the most reliable feature map among the three feature maps. (Area information and numerical information) are output as final output information of the window set information calculation artificial neural network module 300.
도 10은 본 발명의 일 실시예에 따른 창세트 정보 산출 인공신경망 모듈(300)의 최종 출력 정보를 도시한 도면이다.Figure 10 is a diagram showing the final output information of the window set information calculating artificial neural network module 300 according to an embodiment of the present invention.
도 10을 참고하면, 출력된 최종 정보는 창세트를 구역별로 구분한 앵커박스 이미지로 출력될 수 있으며, 이미지 내에서 유리에 해당하는 부분만 정확하게 앵커 박스를 만들어 이미지가 도출됨을 알 수 있다. 또한, 창세트 앞을 가리는 장애물, 창문에 반사된 이미지 또한 딥러닝 학습에 반영되었기에 구별 결과가 좋게 나옴을 알 수 있다. Referring to FIG. 10, the final output information can be output as an anchor box image that divides the window set into sections, and it can be seen that the image is derived by accurately creating an anchor box only in the portion corresponding to the glass in the image. In addition, it can be seen that the discrimination results are good because the obstacles blocking the front of the window set and the images reflected on the windows are also reflected in deep learning learning.
또한, 최종 정보에는 도면에 도시된 바와 같이 창 번호와 이에 따른 X 좌표, Y좌표, 너비, 높이 등에 대한 정보가 텍스트 파일 정보로 같이 출력될 수 있다. Additionally, as shown in the drawing, the final information may include information about the window number and corresponding X-coordinates, Y-coordinates, width, height, etc., as text file information.
도 11은 본 발명의 일 실시예에 따라, 창세트 정보 산출 인공 신경망 모듈의 학습 방법을 설명하기 위한 도면이며, 도 12는 본 발명의 일 실시예에 따라, 학습 데이터를 라벨링 하는 방법을 도시한 도면이다. FIG. 11 is a diagram illustrating a learning method of an artificial neural network module for calculating window set information, according to an embodiment of the present invention, and FIG. 12 is a diagram illustrating a method of labeling learning data, according to an embodiment of the present invention. It is a drawing.
도 11 및 도 12를 참조하면, 본 발명에 따른 창세트 정보 산출 인공신경망 모듈(300)은 새로운 이미지를 입력 데이터로 입력 받는다. 그리고 입력된 이미지에 대해 객체 탐지를 진행하여, 객체 탐지에 대한 불확실성 결과가 목표 불확실성보다 낮은 경우에는 객체 데이터를 수동으로 제작하여 학습을 추가적으로 진행한다.Referring to Figures 11 and 12, the window set information calculation artificial neural network module 300 according to the present invention receives a new image as input data. Then, object detection is performed on the input image, and if the uncertainty result for object detection is lower than the target uncertainty, object data is manually created and additional learning is performed.
수동으로 학습 데이터를 생성하는 방법은 데이터를 라벨링 하는 과정을 포함하는 방법으로서, 도 12의 도시된 바와 같이 건물의 외벽 이미지에서 유리 면적에 해당하는 부분을 지정한 후, 지정된 부분에 대해 데이터 값을 레이블링하여 데이터를 저장한다. 일 예로, 본 단계에서는 Data augmentation을 사용하여 이미지의 대비, 명조를 조절한 20개의 이미지를 재생성하여 데이터의 증대 과정을 거쳤다. The method of manually generating learning data includes the process of labeling data. As shown in FIG. 12, a part corresponding to the glass area is designated in the image of the exterior wall of the building, and then the data value is labeled for the designated part. and save the data. For example, in this step, data augmentation was performed by regenerating 20 images with the contrast and brightness of the images adjusted using data augmentation.
다시 도 11로 돌아와, 입력된 이미지에 대해 객체 탐지를 진행하여, 객체 탐지에 대한 불확실성 결과가 목표 불확실성보다 높은 경우에는 객체 데이터를 증대 시켜서 학습을 하면서 동시에 탐지된 객체 데이터를 추출하는 과정을 거치도록 하였다. Returning to Figure 11, object detection is performed on the input image, and if the uncertainty result for object detection is higher than the target uncertainty, the object data is increased and learned while simultaneously extracting the detected object data. did.
본 발명의 경우 이 과정에서 오토-라벨링(Auto-labeling) 방법을 사용하였기 때문에, 본 발명의 경우 학습되지 않은 이미지가 인공신경망 모델에 입력값으로 들어갔을 때, 도출되는 라벨링 데이터를 인공신경망의 학습에 사용하여 인공신경망 모델의 정확도를 향상시키고 작업시간을 획기적으로 단축시킬 수 있는 효과가 존재하였다.In the case of the present invention, since the auto-labeling method was used in this process, in the case of the present invention, when an untrained image is input to the artificial neural network model, the resulting labeling data is used for training of the artificial neural network. By using it, there was an effect of improving the accuracy of the artificial neural network model and dramatically shortening the work time.
도 13은 본 발명의 일 실시예에 따라 창세트 정보 산출 장치가 일사 열 획득량을 산출하는 방법을 도시한 도면이며, 도 14는 도 13에 도시된 방법에 따라 계산된 창세트의 월별/연도별 일사 획득량을 도시한 그래프이다. FIG. 13 is a diagram illustrating a method by which a window set information calculation device calculates solar heat gain according to an embodiment of the present invention, and FIG. 14 is a window set monthly/year calculated according to the method shown in FIG. 13. This is a graph showing the solar radiation gain.
일 실시예에 따른 광특성 정보 생성부(400)는 창세트 정보 산출 인공신경망 모듈(300)이 출력한 출력 정보를 기초로 일사 열 획득량 정보를 산출할 수 있다. The optical characteristic information generator 400 according to one embodiment may calculate solar heat gain information based on the output information output by the window set information calculation artificial neural network module 300.
도 13을 참조하면, 광특성 정보 생성부(400)는 창세트 정보 산출 인공신경망 모듈(300)이 출력한 창세트 정보를 기초로 창호 면적(A)을 계산한 후, 이를 월 평균 일사량(Is)과 창세트의 차양 장치 유무 및 단일 창 혹은 이중 창 등의 특성이 담긴 총 유효 에너지 투과율(geff), 창호내 유리 면적비(FF)등 이용하여 아래 수학식 (1)과 같이 일사에 의한 열 획득량(QS,tr)을 계산할 수 있다. Referring to FIG. 13, the optical characteristics information generator 400 calculates the window area (A) based on the window set information output by the window set information calculation artificial neural network module 300, and then calculates the window area (A) as the average monthly solar radiation (I). s ), the presence or absence of a shading device in the window set, the total effective energy transmittance (g eff ), which includes the characteristics of single or double windows, and the glass area ratio ( F The amount of heat gain (Q S,tr ) can be calculated.
(수학식 1)(Equation 1)
QS,tr = A x Is x geff x FF Q S,tr = A x I s x g eff x F F
도 15는 본 발명의 일 실시예에 따라 창세트 정보 산출 장치가 주광 면적을 산출하는 방법을 도시한 도면이다.Figure 15 is a diagram illustrating a method for calculating a daylight area by a window set information calculation device according to an embodiment of the present invention.
도 15를 참조하면, 일 실시예에 따른 광특성 정보 생성부(400)는 창세트 정보 산출 인공신경망 모듈(300)이 도출된 창호 세로 치수를 통해 데이라이트 존(daylight zone)의 최대 깊이를 도출한다. 그 후, 도출된 창호의 가로 치수와 데이라이트 존의 최대 깊이를 이용하여 데이라이트 존의 너비를 도출한 후, 데이라이트 존의 너비와 깊이의 곱을 이용하여 주광 면적을 아래 수학식 2와 같이 도출할 수 있다.Referring to FIG. 15, the optical characteristics information generator 400 according to one embodiment derives the maximum depth of the daylight zone through the window vertical dimension derived by the window set information calculation artificial neural network module 300. . Afterwards, the width of the daylight zone is derived using the derived horizontal dimension of the window and the maximum depth of the daylight zone, and then the daylight area can be derived as shown in Equation 2 below by using the product of the width and depth of the daylight zone. .
(수학식 2)(Equation 2)
aD,max = 2.5 x (hLi-hTa) [m]a D,max = 2.5 x (h Li -h Ta ) [m]
수학식 2에서 aD,max는 daylight zone의 최대 깊이를 의미하고, hLi는 창호 상단까지의 높이이고, hTa는 창호 하단까지의 높이를 의미한다. In Equation 2, a D,max refers to the maximum depth of the daylight zone, h Li refers to the height to the top of the window, and h Ta refers to the height to the bottom of the window.
그리고 광특성 정보 생성부(400)는 수학식 2와 창세트 정보 산출 인공신경망 모듈(300)이 산출한 창호의 세로 치수를 통해 데이라이트의 존의 최대 깊이를 도출할 수 있다.Additionally, the optical characteristic information generator 400 can derive the maximum depth of the daylight zone through Equation 2 and the vertical dimension of the window calculated by the window set information calculation artificial neural network module 300.
(수학식 3) (Equation 3)
bD = bwi x 1/2 x aD,max [m]b D = b wi x 1/2 xa D,max [m]
수학식 3에서 bD는 daylight zone의 너비를 의미하고, bwi은 창호의 너비를 의미한다.In Equation 3, b D means the width of the daylight zone, and b wi means the width of the window.
그리고 광특성 정보 생성부(400)는 수학식3과 창세트 정보 산출 인공신경망 모듈(300)이 산출한 창호의 가로 치수와 도출된 데이라이트 존의 최대 깊이를 사용하여 데이라이트 존의 너비를 아래 수학식 4와 같이 도출할 수 있다.And the optical characteristics information generation unit 400 uses Equation 3, the horizontal dimension of the window calculated by the window set information calculation artificial neural network module 300, and the derived maximum depth of the daylight zone to determine the width of the daylight zone using the equation below: It can be derived as in 4.
(수학식 4)(Equation 4)
AD = aD x bD [m2]A D = a D x b D [m 2 ]
수학식 4에서 AD는 주광 면적을 의미하고 aD는 데이라이트 존의 깊이를 의미한다. 광특성 정보 생성부(400)는 위 수학식 4를 이용하여 데이라이트 존의 너비와 깊이의 곱을 통해 최종적으로 주광 면적에 대한 정보를 도출할 수 있다.In Equation 4, A D means the daylight area and a D means the depth of the daylight zone. The light characteristic information generator 400 can finally derive information about the daylight area by multiplying the width and depth of the daylight zone using Equation 4 above.
도 16은 본 발명의 일 실시예에 따른 창세트 정보 산출 장치에 의해 도출된 주광 면적에 대한 값과 유한요소해석 결과의 의해 도출된 값을 비교한 도면이다.Figure 16 is a diagram comparing the value for the daylight area derived by the window set information calculation device and the value derived from the finite element analysis results according to an embodiment of the present invention.
도 16을 참조하면, 본 발명에 의해 산출된 주광 면적 값(2.1100625)과 유한요소해석에 의해 도출된 값(2.1)이 오차 0.48프로 밖에 안나는 것을 통해 본 발명의 정확성이 매우 높음을 알 수 있다. Referring to Figure 16, the main light area value (2.1100625) calculated by the present invention and the value (2.1) derived by finite element analysis have an error of only 0.48%, showing that the accuracy of the present invention is very high.
지금까지 도면을 통해 일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치에 대해 자세히 알아보았다. So far, we have looked at the drawings in detail about the method and device for automatically calculating window set information using an artificial neural network according to an embodiment.
일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치는 건물의 창세트 이미지 속 창문의 형상을 라벨링하고 이를 인공신경망 모듈의 알고리즘으로 학습함으로써 건물의 창세트 형상 정보를 사진 이미지만으로 빠른 시간 안에 추출할 수 있으며, 학습되지 않은 창세트 이미지가 입력된 경우에도 창세트의 형상 정보를 탐지하고 창세트 정보를 추출할 수 있는 장점이 존재한다. According to one embodiment, the method and device for automatically calculating window set information using an artificial neural network labels the shape of the window in the window set image of the building and learns this with the algorithm of the artificial neural network module, so that the window set shape information of the building can be quickly obtained using only a photographic image. It can be extracted within time, and there is an advantage in being able to detect the shape information of the window set and extract the window set information even when an unlearned window set image is input.
또한, 일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치는 새로운 이미지에 대해 오토 레이블링을 하여 자동으로 추가 학습을 진행하여 정확도를 지속적으로 향상시킬 수 있는 효과가 존재한다.In addition, the method and device for automatically calculating window set information using an artificial neural network according to an embodiment have the effect of continuously improving accuracy by automatically performing additional learning by auto-labeling new images.
또한, 일 실시예에 따른 인공신경망을 이용한 창세트 정보 자동 산출 방법 및 장치는 추출된 창세트 정보를 이용하여 해당 창세트의 일사 획득량과 주광 면적 등과 같은 창세트의 광특성에 대한 정보를 용이하게 도출할 수 있는 장점이 존재한다. In addition, the method and device for automatically calculating window set information using an artificial neural network according to an embodiment facilitates information on the optical characteristics of the window set, such as solar radiation gain and daylight area, by using the extracted window set information. There are advantages that can be derived.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 정보를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may perform an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate information in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 정보는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 정보를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 정보는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or information may be used by any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or information to a processing device. It can be embodied in . Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and information may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Methods according to embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded on computer-readable media. Examples of computer-readable recording media include hard disks, floppy disks, and magnetic tapes. Magnetic media, optical media such as CD-ROM and DVD, magneto-optical media such as floptical disk, and ROM and RAM ( It includes specially configured hardware devices to store and execute program instructions, such as RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent. Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (15)

  1. 이미지 정보를 포함하는 제1입력 정보를 입력 정보로 하고, 상기 이미지 정보에서 창세트 특성을 추출한 창세트 정보를 출력 정보로 하는 기 학습된 창세트 정보 산출 인공신경망 모듈; 및an artificial neural network module for calculating pre-learned window set information, which uses first input information including image information as input information, and window set information obtained by extracting window set characteristics from the image information as output information; and
    상기 창세트 정보 산출 인공신경망 모듈에서, 상기 이미지 정보에 대해 서로 다른 스케일 값을 가지는 제1-1특징 맵과 제1-2특징 맵을 추출하는 특징 추출부;를 포함하고, In the window set information calculation artificial neural network module, a feature extraction unit that extracts a 1-1 feature map and a 1-2 feature map having different scale values for the image information,
    상기 창세트 정보 산출 인공신경망 모듈은,The window set information calculation artificial neural network module,
    상기 제1-1특징 맵과 상기 제1-2특징 맵에 대해 각각 컨볼루션을 적용하여 제3-1특징 맵과 제3-2특징 맵을 생성한 후, 미리 설정된 기준에 따라 상기 제3-1특징 맵과 상기 제3-2특징 맵 중 하나를 최종 특징 맵으로 결정한 후, 선택된 최종 특징 맵을 기초로 상기 창세트 정보를 산출하는 것을 특징으로 하는 After applying convolution to the 1-1 feature map and the 1-2 feature map respectively to generate a 3-1 feature map and a 3-2 feature map, the 3-1 feature map is generated according to a preset standard. After determining one of the first feature map and the third-second feature map as the final feature map, the window set information is calculated based on the selected final feature map.
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
  2. 제 1 항에 있어서,According to claim 1,
    상기 창세트 정보 산출 인공신경망 모듈은,The window set information calculation artificial neural network module,
    상기 제3-1특징 맵과 상기 제3-2특징 맵에 대한 신뢰도 정보를 산출한 후, 더 높은 신뢰도 값을 가지고 있는 특징 맵을 상기 미리 설정된 기준에 따라 상기 최종 특징 맵으로 결정하는 것을 특징으로 하는,After calculating reliability information for the 3-1 feature map and the 3-2 feature map, the feature map with a higher reliability value is determined as the final feature map according to the preset standard. doing,
    인공신경망을 이용한 창세트 정보 자동 산출 장치. Automatic window set information calculation device using artificial neural network.
  3. 제 1 항에 있어서,According to claim 1,
    상기 창세트 정보 산출 인공신경망 모듈은,The window set information calculation artificial neural network module,
    상기 제1입력 정보를 입력 정보로 하고, 상기 이미지 정보에 대응되는 제1-1특징 맵을 출력 정보로 출력하는, 기 학습된 제1인공신경망을 포함하는 것을 특징으로 하는, Characterized in that it includes a pre-trained first artificial neural network that uses the first input information as input information and outputs a 1-1 feature map corresponding to the image information as output information,
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
  4. 제 3항에 있어서,According to clause 3,
    상기 특징 추출부는,The feature extraction unit,
    상기 제1인공신경망에서 상기 제1-1특징 맵이 가지고 있는 스케일 값과 다른 스케일 값을 가지는 제1-2특징 맵을 추출하는 것을 특징으로 하는,Characterized in extracting a 1-2 feature map having a scale value different from the scale value of the 1-1 feature map from the first artificial neural network,
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
  5. 제 4항에 있어서,According to clause 4,
    상기 창세트 정보 산출 인공신경망 모듈은,The window set information calculation artificial neural network module,
    상기 제1-1특징 맵을 입력 정보로 하고, 상기 제1-2특징 맵을 중간 입력 정보로 하여, 상기 제1-1특징 맵에 대응되는 제2-1특징 맵과, 상기 제1-2특징 맵에 대응되는 제2-2특징 맵을 출력 정보로 출력하는, 기 학습된 제2인공신경망을 포함하는 것을 특징으로 하는, Using the 1-1 feature map as input information and the 1-2 feature map as intermediate input information, a 2-1 feature map corresponding to the 1-1 feature map, and the 1-2 Characterized by comprising a pre-trained second artificial neural network that outputs a 2-2 feature map corresponding to the feature map as output information,
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
  6. 제 5항에 있어서,According to clause 5,
    상기 창세트 정보 산출 인공신경망 모듈은,The window set information calculation artificial neural network module,
    상기 제2-1특징 맵과 상기 제2-2특징 맵을 입력 정보로 하고, 상기 제2-2특징 맵에 대응되는 제3-2특징 맵과, 상기 제3-1특징 맵에 대응되는 제3-2특징 맵을 출력 정보로 출력하는, 기 학습된 제3인공신경망을 포함하는 것을 특징으로 하는, The 2-1 feature map and the 2-2 feature map are input information, a 3-2 feature map corresponding to the 2-2 feature map, and a 3-2 feature map corresponding to the 3-1 feature map. 3-2 Characterized by comprising a previously learned third artificial neural network that outputs the feature map as output information,
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
  7. 제 6항에 있어서,According to clause 6,
    상기 창세트 정보 산출 인공신경망 모듈은,The window set information calculation artificial neural network module,
    미리 설정된 기준에 따라 상기 제3-1특징 맵과 상기 제3-2특징 맵 중 하나를 상기 최종 특징 맵으로 결정하는, FC-레이어를 더 포함하는 것을 특징으로 하는,Characterized in that it further comprises an FC-layer that determines one of the 3-1 feature map and the 3-2 feature map as the final feature map according to a preset standard,
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
  8. 제 7항에 있어서,According to clause 7,
    상기 최종 특징 맵을 기초로 상기 이미지 정보에 대응되는 창호의 면적 정보와 길이 정보 및 프레임의 면적 정보와 길이 정보를 포함하는 창세트 정보를 산출하는 광 특성 정보 산출부;를 더 포함하는 것을 특징으로 하는, Characterized by further comprising; an optical characteristic information calculation unit that calculates window set information including area information and length information of the window and frame area information and length information corresponding to the image information based on the final feature map; doing,
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
  9. 제 8 항에 있어서,According to claim 8,
    상기 광 특성 정보 산출부는,The optical characteristic information calculation unit,
    상기 창세트 정보를 기초로 일사 획득량 및 주광 면적을 산출하는 것을 특징으로 하는,Characterized in calculating the solar radiation gain and daylight area based on the window set information,
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
  10. 제 1항에 있어서,According to clause 1,
    상기 특징 추출부는,The feature extraction unit,
    상기 창세트 정보 산출 인공신경망 모듈에서, 상기 이미지 정보에 대해 상기 제1-1특징 맵과 상기 제1-2특징 맵과 다른 스케일 값을 가지는 제1-3특징 맵을 추출하는 것을 특징으로 하는, Characterized in that, in the window set information calculation artificial neural network module, a 1-3 feature map having a different scale value from the 1-1 feature map and the 1-2 feature map is extracted for the image information,
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
  11. 제 10항에 있어서,According to clause 10,
    상기 창세트 정보 산출 인공신경망 모듈은,The window set information calculation artificial neural network module,
    상기 제3-1특징 맵, 상기 제3-2특징 맵 및 상기 제3-2특징 맵에 대한 신뢰도 정보를 산출한 후, 더 높은 신뢰도 값을 가지고 있는 특징 맵을 상기 미리 설정된 기준에 따라 상기 최종 특징 맵으로 결정하는 것을 특징으로 하는,After calculating reliability information for the 3-1 feature map, the 3-2 feature map, and the 3-2 feature map, the feature map with a higher reliability value is selected as the final feature map according to the preset standard. Characterized by determining with a feature map,
    인공신경망을 이용한 창세트 정보 자동 산출 장치. Automatic window set information calculation device using artificial neural network.
  12. 이미지 정보를 포함하는 제1입력 정보를 입력 정보로 하고, 상기 이미지 정보에 대응되는 제1-1특징 맵을 출력 정보로 출력하는, 기 학습된 제1인공신경망을 이용하여 상기 제1-1특징 맵을 출력하는 제1특징 맵 생성 단계;The 1-1 feature is obtained using a previously learned first artificial neural network that uses first input information including image information as input information and outputs a 1-1 feature map corresponding to the image information as output information. A first feature map generating step of outputting a map;
    상기 이미지 정보에 대해 서로 다른 스케일 값을 가지는 제1-1특징 맵과 제1-2특징 맵을 상기 제1인공신경망을 통해 추출하는 특징 추출 단계; A feature extraction step of extracting a 1-1 feature map and a 1-2 feature map having different scale values for the image information through the first artificial neural network;
    상기 제1-1특징 맵과 상기 제1-2특징 맵에 대해 각각 컨볼루션을 적용하여 제3-1특징 맵과 제3-2특징 맵을 생성하는 제3특징 맵 생성 단계; 및A third feature map generating step of generating a 3-1 feature map and a 3-2 feature map by applying convolution to the 1-1 feature map and the 1-2 feature map, respectively; and
    미리 설정된 기준에 따라 상기 제3-1특징 맵과 상기 제3-2특징 맵 중 하나를 최종 특징 맵으로 결정한 후, 선택된 최종 특징 맵을 기초로 창세트 정보를 산출하는 창세트 정보 산출 단계;를 포함하는 것을 특징으로 하는A window set information calculation step of determining one of the 3-1 feature map and the 3-2 feature map as a final feature map according to a preset standard, and then calculating window set information based on the selected final feature map; Characterized by including
    인공신경망을 이용한 창세트 정보 자동 산출 방법.Automatic calculation method of window set information using artificial neural network.
  13. 제12항에 있어서,According to clause 12,
    상기 최종 특징 맵을 기초로 상기 이미지 정보에 대응되는 창호의 면적 정보와 길이 정보 및 프레임의 면적 정보와 길이 정보를 포함하는 창세트 정보를 산출하는 창세트 정보 산출 단계;를 더 포함하는 것을 특징으로 하는,A window set information calculation step of calculating window set information including area information and length information of windows and doors and area information and length information of frames corresponding to the image information based on the final feature map. doing,
    인공신경망을 이용한 창세트 정보 자동 산출 방법.Automatic calculation method of window set information using artificial neural network.
  14. 이미지 정보를 포함하는 제1입력 정보를 입력 정보로 하고, 상기 이미지 정보에서 창세트 특성을 추출한 창세트 정보를 출력 정보로 하는 기 학습된 창세트 정보 산출 인공신경망 모듈; an artificial neural network module for calculating pre-learned window set information, which uses first input information including image information as input information, and window set information obtained by extracting window set characteristics from the image information as output information;
    상기 창세트 정보 산출 인공신경망 모듈에서, 상기 이미지 정보에 대해 서로 다른 스케일 값을 가지는 제1-1특징 맵과 제1-2특징 맵을 추출하는 특징 추출부;를 포함하고, In the window set information calculation artificial neural network module, a feature extraction unit that extracts a 1-1 feature map and a 1-2 feature map having different scale values for the image information,
    상기 창세트 정보 산출 인공신경망 모듈은,The window set information calculation artificial neural network module,
    상기 제1-1특징 맵과 상기 제1-2특징 맵에 대해 각각 컨볼루션을 적용하여 제3-1특징 맵과 제3-2특징 맵을 생성한 후, 미리 설정된 기준에 따라 상기 제3-1특징 맵과 상기 제3-2특징 맵 중 하나를 최종 특징 맵으로 결정한 후, 선택된 최종 특징 맵을 기초로 상기 창세트 정보를 산출하고,After applying convolution to the 1-1 feature map and the 1-2 feature map respectively to generate a 3-1 feature map and a 3-2 feature map, the 3-1 feature map is generated according to a preset standard. After determining one of the first feature map and the third-second feature map as the final feature map, calculating the window set information based on the selected final feature map,
    상기 창세트 정보 산출 인공신경망 모듈은, 상기 이미지 정보에 포함되어 있는 창세트 정보에 대해 라벨링 되어 있는 라벨링 정보를 이용하여 학습을 수행하는 것을 특징으로 하는, The window set information calculating artificial neural network module is characterized in that it performs learning using labeling information labeled with the window set information included in the image information,
    인공신경망을 이용한 창세트 정보 자동 산출 장치. Automatic window set information calculation device using artificial neural network.
  15. 제14항에 있어서,According to clause 14,
    상기 창세트 정보 산출 인공신경망 모듈은,The window set information calculation artificial neural network module,
    상기 라벨링 정보를 포함하는 제2입력 정보를 상기 제1입력 정보와 함께 상기 창세트 정보 산출 인공신경망 모듈의 입력 정보로 하여, 학습을 수행하는 것을 특징으로 하는, Characterized in that learning is performed by using second input information including the labeling information together with the first input information as input information to the window set information calculating artificial neural network module,
    인공신경망을 이용한 창세트 정보 자동 산출 장치.Automatic window set information calculation device using artificial neural network.
PCT/KR2023/013760 2022-09-15 2023-09-13 Method and device for automatically calculating window set information using artificial neural network WO2024058556A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0116577 2022-09-15
KR1020220116577A KR20240037716A (en) 2022-09-15 2022-09-15 Method and apparatus for automatically calculating window set information using artificial neural network

Publications (1)

Publication Number Publication Date
WO2024058556A1 true WO2024058556A1 (en) 2024-03-21

Family

ID=90275512

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/013760 WO2024058556A1 (en) 2022-09-15 2023-09-13 Method and device for automatically calculating window set information using artificial neural network

Country Status (2)

Country Link
KR (1) KR20240037716A (en)
WO (1) WO2024058556A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102351710B1 (en) * 2021-11-01 2022-01-17 성한 주식회사 air conditioning control method for thermal comfort according to solar load of building
KR20220012788A (en) * 2020-07-23 2022-02-04 주식회사 어반베이스 Apparatus and method for analyzing mark in facility floor plan
KR102365554B1 (en) * 2021-10-18 2022-02-18 김창원 Method and apparatus for providing windows replacement platform using artificial intelligence algorithm
KR102380014B1 (en) * 2021-10-28 2022-03-29 한국건설기술연구원 A localizing and determining method for the thermal-performance-deteriorated windows based on the temperature differences of image areas
KR20220074715A (en) * 2020-11-27 2022-06-03 삼성전자주식회사 Method and apparatus for image processing

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101714400B1 (en) 2015-07-16 2017-03-09 호서대학교 산학협력단 BIM based real time generation system and method of energy performance statement report
KR101933876B1 (en) 2016-09-23 2018-12-31 김활석 System and method for simulating of sunshine availability for buildings

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220012788A (en) * 2020-07-23 2022-02-04 주식회사 어반베이스 Apparatus and method for analyzing mark in facility floor plan
KR20220074715A (en) * 2020-11-27 2022-06-03 삼성전자주식회사 Method and apparatus for image processing
KR102365554B1 (en) * 2021-10-18 2022-02-18 김창원 Method and apparatus for providing windows replacement platform using artificial intelligence algorithm
KR102380014B1 (en) * 2021-10-28 2022-03-29 한국건설기술연구원 A localizing and determining method for the thermal-performance-deteriorated windows based on the temperature differences of image areas
KR102351710B1 (en) * 2021-11-01 2022-01-17 성한 주식회사 air conditioning control method for thermal comfort according to solar load of building

Also Published As

Publication number Publication date
KR20240037716A (en) 2024-03-22

Similar Documents

Publication Publication Date Title
CN111080645B (en) Remote sensing image semi-supervised semantic segmentation method based on generation type countermeasure network
WO2020256418A2 (en) Computing system for implementing virtual sensor by using digital twin, and real-time data collection method using same
WO2019107614A1 (en) Machine vision-based quality inspection method and system utilizing deep learning in manufacturing process
WO2021201422A1 (en) Semantic segmentation method and system applicable to ar
CN111401293B (en) Gesture recognition method based on Head lightweight Mask scanning R-CNN
WO2020196985A1 (en) Apparatus and method for video action recognition and action section detection
WO2020231226A1 (en) Method of performing, by electronic device, convolution operation at certain layer in neural network, and electronic device therefor
WO2020246655A1 (en) Situation recognition method and device for implementing same
WO2021153861A1 (en) Method for detecting multiple objects and apparatus therefor
CN113569882A (en) Knowledge distillation-based rapid pedestrian detection method
WO2019132566A1 (en) Method for automatically generating multi-depth image
CN108846852A (en) Monitor video accident detection method based on more examples and time series
WO2021010671A2 (en) Disease diagnosis system and method for performing segmentation by using neural network and unlocalized block
CN113139502A (en) Unsupervised video segmentation method
WO2024058556A1 (en) Method and device for automatically calculating window set information using artificial neural network
CN109544516A (en) Image detecting method and device
CN114973386A (en) Construction site scene face target detection method for deeply mining mixed features
Zeng et al. A detection method of Edge Coherent Mode based on improved SSD
CN113076808B (en) Method for accurately acquiring bidirectional traffic flow through image algorithm
WO2021235682A1 (en) Method and device for performing behavior prediction by using explainable self-focused attention
WO2021132829A1 (en) Method for extracting roof edge image for installing solar panel by using machine learning
CN116310293B (en) Method for detecting target of generating high-quality candidate frame based on weak supervised learning
Greiffenhagen et al. The systematic design and analysis cycle of a vision system: A case study in video surveillance
WO2023113437A1 (en) Semantic segmentation device and method using memory
Kim et al. Robust foreground segmentation from color video sequences using background subtraction with multiple thresholds

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23865852

Country of ref document: EP

Kind code of ref document: A1