WO2023127106A1 - 伝搬特性推定方法、伝搬特性推定装置、及び伝搬特性推定プログラム - Google Patents
伝搬特性推定方法、伝搬特性推定装置、及び伝搬特性推定プログラム Download PDFInfo
- Publication number
- WO2023127106A1 WO2023127106A1 PCT/JP2021/048816 JP2021048816W WO2023127106A1 WO 2023127106 A1 WO2023127106 A1 WO 2023127106A1 JP 2021048816 W JP2021048816 W JP 2021048816W WO 2023127106 A1 WO2023127106 A1 WO 2023127106A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- propagation
- image
- propagation characteristics
- feature parameter
- input image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 20
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 53
- 238000004891 communication Methods 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 239000000284 extract Substances 0.000 abstract description 7
- 230000005540 biological transmission Effects 0.000 abstract 2
- 230000000052 comparative effect Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 102100033620 Calponin-1 Human genes 0.000 description 4
- 102100033591 Calponin-2 Human genes 0.000 description 4
- 101000945318 Homo sapiens Calponin-1 Proteins 0.000 description 4
- 101000945403 Homo sapiens Calponin-2 Proteins 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- VZSRBBMJRBPUNF-UHFFFAOYSA-N 2-(2,3-dihydro-1H-inden-2-ylamino)-N-[3-oxo-3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)propyl]pyrimidine-5-carboxamide Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)C(=O)NCCC(N1CC2=C(CC1)NN=N2)=O VZSRBBMJRBPUNF-UHFFFAOYSA-N 0.000 description 1
- 240000001973 Ficus microcarpa Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/30—Monitoring; Testing of propagation channels
- H04B17/373—Predicting channel quality or other radio frequency [RF] parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B17/00—Monitoring; Testing
- H04B17/30—Monitoring; Testing of propagation channels
- H04B17/391—Modelling the propagation channel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Definitions
- the present invention relates to technology for estimating propagation characteristics between a transmitting station and a receiving station in a wireless communication system.
- Patent Literature 1 A technique for estimating propagation characteristics (propagation loss) between a transmitting station (Transmitter: Tx) and a receiving station (Receiver: Rx) in a wireless communication system is known.
- Patent Literature 2 Non-Patent Literature 1
- Non-Patent Literature 2 disclose such propagation characteristic estimation techniques.
- Patent Document 2 Non-Patent Document 1, and Non-Patent Document 2 disclose an estimation model that estimates propagation characteristics using a convolutional neural network (CNN). More specifically, a top-view image representing the distribution of building heights around Rx is prepared. By inputting the upward-viewing image to the CNN, feature parameters representing feature amounts of the upward-viewing image are extracted. Then, the propagation characteristics are estimated by inputting the extracted feature parameters into a fully-connected neural network (FNN).
- CNN convolutional neural network
- N. Kuno and Y. Takatori “Prediction Method by Deep-Learning for Path Loss Characteristics in an Open-Square Environment,” in 2018 International Symposium on Antennas and Propagation (ISAP), pp. 443-444, 2018. T. Imai, K. Kitao, and M. Inomata, “Radio Propagation Prediction Model Using Convolutional Neural Networks by Deep Learning,” in 2019 13th European Conference on Antennas and Propagation (EuCAP), pp. 1-5, 2019.
- N. Kita, W. Yamada, and A. Sato “Path Loss Prediction Model for the Over-Rooftop Propagation Environment of Microwave Band in Suburban Areas,” Electronics and Communications in Japan (Part I: Communications), vol. 90, no 1, pp. 13-24, 2007.
- One object of the present invention is to provide a technique that can further improve the estimation accuracy of propagation characteristics in a wireless communication system.
- a first aspect relates to a propagation characteristics estimation method for estimating propagation characteristics between a transmitting station and a receiving station in a wireless communication system.
- the propagation characteristic estimation method is extracting a first feature parameter by inputting a first input image including at least a top view image of the arrangement of structures around the receiving station into a first convolutional neural network; extracting a second feature parameter by inputting a second input image including at least a side view image of a structure arrangement between a transmitting station and a receiving station into a second convolutional neural network; estimating propagation characteristics by inputting input parameters including at least a first feature parameter and a second feature parameter into a fully-connected neural network.
- a second aspect relates to a propagation characteristics estimating device that estimates propagation characteristics between a transmitting station and a receiving station in a wireless communication system.
- a propagation characteristics estimation device includes one or more processors. The one or more processors are extracting a first feature parameter by inputting a first input image including at least a top view image of the arrangement of structures around the receiving station into a first convolutional neural network; extracting a second feature parameter by inputting a second input image including at least a side view image of a structure arrangement between a transmitting station and a receiving station into a second convolutional neural network; and estimating propagation characteristics by inputting input parameters including at least a first feature parameter and a second feature parameter into a fully-connected neural network.
- a third aspect relates to a propagation characteristics estimation program for estimating propagation characteristics between a transmitting station and a receiving station in a wireless communication system.
- the propagation characteristic estimation program is extracting a first feature parameter by inputting a first input image including at least a top view image of the arrangement of structures around the receiving station into a first convolutional neural network; extracting a second feature parameter by inputting a second input image including at least a side view image of a structure arrangement between a transmitting station and a receiving station into a second convolutional neural network; and estimating propagation characteristics by inputting input parameters including at least a first feature parameter and a second feature parameter into a fully-connected neural network.
- the propagation characteristics are estimated based not only on the upward-viewing image but also on the side-viewing image.
- the estimation accuracy of propagation characteristics is improved.
- the convergence speed of estimation is improved.
- FIG. 5 is a conceptual diagram for explaining an overview of propagation characteristic estimation according to a comparative example
- FIG. 11 is a block diagram showing a functional configuration example of a propagation characteristics estimation device according to a comparative example
- FIG. 10 is a diagram showing an example of an upward-viewing image included in a first input image according to a comparative example
- FIG. 10 is a diagram showing another example of the first input image according to the comparative example
- FIG. 11 is a block diagram showing a functional configuration example of a propagation characteristics estimation device according to a comparative example
- 1 is a conceptual diagram for explaining an overview of propagation characteristic estimation according to an embodiment of the present invention
- FIG. 1 is a block diagram showing a functional configuration example of a propagation characteristics estimation device according to an embodiment of the present invention
- FIG. FIG. 5 is a diagram showing an example of a side view image included in the second input image according to the embodiment of the present invention
- FIG. FIG. 10 is a diagram showing another example of the second input image according to the embodiment of the present invention
- FIG. 1 is a block diagram showing a functional configuration example of a propagation characteristics estimation device according to an embodiment of the present invention
- FIG. It is a figure for demonstrating the effect of embodiment of this invention.
- 1 is a block diagram showing a configuration example of a propagation characteristic estimation device according to an embodiment of the present invention
- FIG. 4 is a flow chart summarizing processing by the propagation characteristic estimation device according to the embodiment of the present invention
- the transmitting station is a base station (BS) and the receiving station is a mobile station (MS).
- BS base station
- MS mobile station
- Comparative Example 1-1 Overview FIG. 1 is a conceptual diagram for explaining an overview of propagation characteristic estimation according to a comparative example.
- the comparative example corresponds to the technology disclosed in Non-Patent Document 2 above, for example.
- CNN convolutional neural network
- a CNN has a structure in which a convolution layer for locally extracting feature amounts from an input image and a pooling layer for collecting the extracted feature amounts are repeatedly arranged.
- a "top view image" of the arrangement of structures such as buildings is used as the input image to the CNN.
- a top-view image is a two-dimensional image viewed from above, and can also be called a bird's-eye view image.
- a top-view image of the placement of structures in a range around Rx is used to account for radio wave propagation around Rx.
- the predetermined range is, for example, a rectangular range centered on Rx.
- the top view image IMG_1A may represent the height distribution of structures in a predetermined range around Rx.
- a Fully-connected Neural Network (FNN) is placed after the CNN.
- the fully-connected neural network is trained to output propagation loss L according to feature parameters.
- the feature parameters extracted by the CNN are input to the FNN to estimate the propagation loss L.
- System parameters related to the wireless communication system may be input to the FNN along with the characteristic parameters. Examples of system parameters include frequency, Tx antenna height, Rx antenna height, and the like.
- FIG. 2 is a block diagram showing a functional configuration example of the propagation characteristic estimation device 1 according to the comparative example.
- FIG. 2 shows a functional configuration example of the propagation characteristics estimation device 1 in the learning stage.
- the propagation characteristic estimation device 1 in the learning stage includes an input image generation unit 100, a model unit 200, an error calculation unit 300, and a model update unit 400 as functional blocks.
- the input image generator 100 includes a first input image generator 110 .
- the first input image generator 110 generates a "first input image IMG_1" to be input to the CNN.
- the first input image IMG_1 includes at least a top-view image IMG_1A.
- FIG. 3 shows an example of an upward-viewing image IMG_1A included in the first input image IMG_1.
- the top-view image IMG_1A is a two-dimensional image of the arrangement of structures (eg, buildings) in a predetermined range around Rx viewed from above.
- the predetermined range is, for example, a rectangular range.
- the predetermined range is a rectangular range centered on Rx.
- the predetermined range is a rectangular range of 128 m ⁇ 128 m, and the predetermined range is divided by 2 m ⁇ 2 m meshes to generate an upward view image IMG_1A having a 64 ⁇ 64 mesh configuration.
- the upward view image IMG_1A is an image representing the height distribution of structures in a predetermined range around Rx.
- the xy plane is parallel to the horizontal plane.
- the xy coordinate system may be an absolute coordinate system or a relative coordinate system determined by the positional relationship between Tx and Rx. In the latter case, for example, the xy coordinate system is set such that the x-axis or y-axis is parallel to the direction of Tx as seen from Rx.
- the first input image generation unit 110 automatically generates an upward view image IMG_1A based on the map data MAP and the position data POS.
- the map data MAP is three-dimensional map data of the area in which the wireless communication system operates.
- the map data MAP includes information on the three-dimensional arrangement (horizontal position and height) of structures (eg buildings).
- the position data POS indicates at least the respective map positions of Tx and Rx.
- the first input image IMG_1 may include multiple types of images.
- the first input image IMG_1 may include "Tx distance distribution image IMG_1B" and "Rx distance distribution image IMG_1C" as shown in FIG.
- the Tx distance distribution image IMG_1B is an image representing the distribution of distances from Tx in the same predetermined range as the upward-viewing image IMG_1A.
- the Rx distance distribution image IMG_1C is an image representing the distribution of distances from Rx in the same predetermined range as the upward-viewing image IMG_1A.
- the first input image generator 110 automatically generates a Tx distance distribution image IMG_1B and an Rx distance distribution image IMG_1C based on the position data POS.
- the model unit 200 includes an estimation model for estimating the propagation loss L from the input image. More specifically, model section 200 includes first CNN section 210 and FNN section 230 . The FNN unit 230 is positioned after the first CNN unit 210 .
- the first CNN unit 210 includes a first convolutional neural network (hereinafter referred to as CNN1) as part of the estimation model.
- First CNN unit 210 acquires first input image IMG_1 generated by first input image generation unit 110 . Then, the first CNN unit 210 inputs the first input image IMG_1 to the CNN1, thereby extracting the first feature parameter FP_1 representing the feature quantity of the first input image IMG_1.
- the FNN unit 230 includes a fully-connected neural network (hereinafter referred to as FNN) as part of the estimation model.
- the FNN unit 230 acquires input parameters including at least the first feature parameter FP_1.
- the input parameters may include system parameters SP for the wireless communication system in addition to the first feature parameter FP_1. Examples of the system parameter SP include the frequency used in the wireless communication system, the Tx antenna height, the Rx antenna height, and the like.
- FNN section 230 calculates propagation loss L by inputting input parameters to FNN.
- the error calculation unit 300 acquires the propagation loss L output from the model unit 200.
- the error calculation unit 300 then refers to the learning/verification data LRN to calculate the estimated error by the model unit 200 .
- the learning/verification data LRN indicates propagation characteristics obtained by actual measurement or simulation.
- the error calculator 300 calculates the estimated error based on the difference between the received power calculated from the estimated propagation loss L and the received power obtained from the learning/verification data LRN.
- the model update unit 400 updates the estimation model included in the model unit 200 until the estimation error converges below a certain level. For example, the model updating unit 400 updates weight parameters and bias values in the estimation model.
- the model unit 200 that estimates the propagation loss L from the input image is realized.
- FIG. 5 shows an example of the functional configuration of the propagation characteristics estimation device 1 in the propagation characteristics estimation stage.
- the propagation characteristics estimation device 1 in the propagation characteristics estimation stage includes an input image generation unit 100, a model unit 200, and a result output unit 500 as functional blocks.
- the input image generator 100 is as described above.
- the model unit 200 has been trained.
- the trained model unit 200 acquires the input image generated by the input image generation unit 100, estimates the propagation loss L according to the input image, and outputs the estimation result.
- the result output unit 500 stores the data of the propagation loss L output from the model unit 200 in a storage device or presents it to the user.
- FIG. 6 is a conceptual diagram for explaining the outline of propagation characteristic estimation according to the present embodiment. The description overlapping with the case of the comparative example shown in FIG. 1 is appropriately omitted.
- a "side-view image” is also used as an input image to the CNN in addition to the "upward-view image” described above.
- the side-view image is a two-dimensional image of at least the arrangement of structures (eg, buildings) between Tx and Rx viewed from the side.
- the side-view image is a two-dimensional image of the arrangement of structures on at least a straight line connecting Tx and Rx viewed from the side.
- the xy plane defining the side view image is orthogonal to the horizontal plane.
- the x direction is the horizontal direction from Tx to Rx.
- the y-direction is the vertical direction perpendicular to the x-direction.
- the side view image is, for example, an image of a predetermined rectangular range. The predetermined range may be greater than the range between Tx and Rx.
- a CNN to which a top-view image is input and a CNN to which a side-view image is input are provided separately.
- Each CNN extracts feature parameters representing feature amounts of the upward-viewing image and the side-viewing image.
- the FNN is arranged after the two CNNs.
- the FNN is trained to output a propagation loss L according to input parameters including feature parameters output from each CNN.
- the propagation characteristics are estimated based on not only the upward-viewing image but also the side-viewing image.
- the estimation accuracy of propagation characteristics is improved.
- the convergence speed of estimation is improved.
- FIG. 7 is a block diagram showing a functional configuration example of the propagation characteristics estimation apparatus 1 according to the present embodiment.
- FIG. 7 shows a functional configuration example of the propagation characteristics estimation device 1 in the learning stage.
- the propagation characteristic estimation device 1 in the learning stage includes an input image generation unit 100, a model unit 200, an error calculation unit 300, and a model update unit 400 as functional blocks. Descriptions that overlap with the case of the comparative example shown in FIG. 2 will be omitted as appropriate.
- the input image generation section 100 includes a first input image generation section 110 and a second input image generation section 120 .
- the first input image generator 110 is the same as in the comparative example described above.
- the second input image generator 120 generates a "second input image IMG_2" to be input to the CNN.
- the second input image IMG_2 includes at least a side view image IMG_2A.
- FIG. 8 shows an example of a side view image IMG_2A included in the second input image IMG_2.
- the side-view image IMG_2A is a two-dimensional image of at least the arrangement of structures (eg, buildings) between Tx and Rx viewed from the side.
- the side-view image IMG_2A is a two-dimensional image of the arrangement of structures on at least a straight line connecting Tx and Rx as seen from the side.
- the xy plane defining the side view image IMG_2A is orthogonal to the horizontal plane.
- the x direction is the horizontal direction from Tx to Rx.
- the y-direction is the vertical direction perpendicular to the x-direction.
- the side view image IMG_2A is, for example, an image of a predetermined rectangular range. The predetermined range may be greater than the range between Tx and Rx.
- the second input image generation unit 120 automatically generates the side view image IMG_2A based on the map data MAP and the position data POS.
- the second input image IMG_2 may include multiple types of images.
- the second input image IMG_2 may include "Tx distance distribution image IMG_2B" and "Rx distance distribution image IMG_2C" as shown in FIG. 9 in addition to the side view image IMG_2A described above.
- the Tx distance distribution image IMG_2B is an image representing the distribution of distances from Tx in the same predetermined range as the side view image IMG_2A.
- the Rx distance distribution image IMG_2C is an image representing the distribution of distances from Rx in the same predetermined range as the side view image IMG_2A.
- the second input image generator 120 automatically generates a Tx distance distribution image IMG_2B and an Rx distance distribution image IMG_2C based on the position data POS.
- the model unit 200 includes an estimation model for estimating the propagation loss L from the input image. More specifically, model section 200 includes first CNN section 210 , second CNN section 220 and FNN section 230 . The FNN unit 230 is positioned after the first CNN unit 210 and the second CNN unit 220 .
- the first CNN unit 210 is the same as in the comparative example described above.
- the second CNN unit 220 includes a second convolutional neural network (hereinafter referred to as CNN2) as part of the estimation model.
- the second CNN unit 220 obtains the second input image IMG_2 generated by the second input image generation unit 120.
- FIG. Then, the second CNN unit 220 inputs the second input image IMG_2 to the CNN2, thereby extracting the second feature parameter FP_2 representing the feature amount of the second input image IMG_2.
- the FNN unit 230 acquires input parameters including at least the first feature parameter FP_1 and the second feature parameter FP_2.
- the input parameters may further include system parameters SP for the wireless communication system. Examples of the system parameter SP include the frequency used in the wireless communication system, the Tx antenna height, the Rx antenna height, and the like.
- FNN section 230 calculates propagation loss L by inputting input parameters to FNN.
- the error calculator 300 and the model updater 400 are the same as in the comparative example described above.
- FIG. 10 shows a functional configuration example of the propagation characteristics estimation device 1 in the propagation characteristics estimation stage.
- the propagation characteristics estimation device 1 in the propagation characteristics estimation stage includes an input image generation unit 100, a model unit 200, and a result output unit 500 as functional blocks.
- the input image generator 100 is as described above.
- the model unit 200 has been trained.
- the trained model unit 200 acquires the input image generated by the input image generation unit 100, estimates the propagation loss L according to the input image, and outputs the estimation result.
- the result output unit 500 stores the data of the propagation loss L output from the model unit 200 in a storage device or presents it to the user.
- propagation characteristics are estimated based on not only the upward-viewing image IMG_1A but also the side-viewing image IMG_2A. As a result, it becomes possible to estimate the propagation characteristics taking into consideration the over-roof propagation between Tx and Rx. As a result, the estimation accuracy of propagation characteristics is improved. Also, the convergence speed of estimation is improved.
- FIG. 11 is a diagram for explaining the effect.
- the horizontal axis represents the distance between Tx and Rx, and the vertical axis represents the estimated propagation loss L.
- FIG. (A) in FIG. 11 represents the estimation result in the case of the comparative example, and (B) represents the estimation result in the case of the present embodiment.
- Measurement data in urban areas were used as training and validation data. Note that frequency characteristics are not considered.
- the variation in estimation results according to the present embodiment is smaller than in the comparative example.
- the RMS error was 9.46 dB for the comparative example and 5.63 dB for this embodiment.
- the estimation accuracy of propagation characteristics is improved.
- FIG. 12 is a block diagram showing a configuration example of the propagation characteristics estimating apparatus 1 according to the present embodiment.
- the propagation characteristic estimation device 1 includes one or more processors 10 (hereinafter simply referred to as "processors 10"), one or more storage devices 20 (hereinafter simply referred to as “storage devices 20”), a user interface 40, and An I/O interface 50 is included.
- the processor 10 performs various information processing.
- the processor 10 includes a CPU (Central Processing Unit).
- the storage device 20 stores various information necessary for processing by the processor 10 .
- Examples of the storage device 20 include volatile memory, nonvolatile memory, HDD (Hard Disk Drive), SSD (Solid State Drive), and the like.
- the propagation characteristic estimation program 30 is a computer program executed by the processor 10 .
- the functions of the processor 10 are realized by the processor 10 executing the propagation characteristic estimation program 30.
- FIG. A propagation characteristic estimation program 30 is stored in the storage device 20 .
- the propagation characteristics estimation program 30 may be recorded on a computer-readable recording medium.
- the propagation characteristics estimation program 30 may be provided to the propagation characteristics estimation device 1 via a network.
- the processor 10 may be realized using hardware such as ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), and FPGA (Field Programmable Gate Array).
- ASIC Application Specific Integrated Circuit
- PLD Processor
- FPGA Field Programmable Gate Array
- the user interface 40 provides information to the user and accepts information input from the user.
- User interface 40 includes an input device and a display device.
- the I/O interface 50 is communicably connected to the database.
- the database stores various data necessary for propagation characteristic estimation processing.
- the database stores map data MAP, position data POS, learning/verification data LRN, and the like.
- the processor 10 can acquire necessary information from the database via the I/O interface 50 .
- FIG. 13 is a flowchart schematically showing processing by the propagation characteristics estimation device 1 according to this embodiment.
- FIG. 13 shows the processing associated with training the estimation model.
- the propagation characteristics estimation device 1 acquires the map data MAP and the position data POS from the database.
- the propagation characteristic estimation device 1 generates a first input image IMG_1 and a second input image IMG_2 based on the map data MAP and the position data POS.
- the propagation characteristics estimation device 1 estimates propagation characteristics using the estimation model. More specifically, the propagation characteristic estimation device 1 extracts the first feature parameter FP_1 by inputting the first input image IMG_1 to CNN1, and extracts the second feature parameter FP_1 by inputting the second input image IMG_2 to CNN2. Extract the parameter FP_2. Further, the propagation characteristics estimation device 1 estimates propagation characteristics by inputting input parameters including the first feature parameter FP_1 and the second feature parameter FP_2 to the FNN.
- step S400 the propagation characteristics estimation device 1 calculates an estimation error by comparing the estimated propagation characteristics with the learning/verification data LRN.
- step S500 the propagation characteristics estimation device 1 determines whether the estimation error has converged below a certain level. If the estimated error exceeds a certain level (step S500; No), the process proceeds to step S600.
- step S600 the propagation characteristics estimation device 1 updates the estimation model so that the estimation error is reduced. The process then returns to step S300.
- step S500 When the estimation error converges below a certain level (step S500; Yes), learning of the estimation model is completed.
- steps S100 to S300 are the same. However, in step S300, the propagation characteristics estimation device 1 estimates the propagation characteristics using the learned estimation model. Then, the propagation characteristic estimation device 1 stores the propagation characteristic estimation result in the storage device 20 . Also, the propagation characteristic estimation apparatus 1 presents the estimation result of the propagation characteristic to the user via the user interface 40 .
- 1... Propagation characteristic estimation device 10... Processor, 20... Storage device, 30... Propagation characteristic estimation program, 40... User interface, 50... I/O interface, 100... Input image generator, 110... First input image generator , 120... second input image generation unit, 200... model unit, 210... first CNN unit, 220... second CNN unit, 230... FNN unit, 300... error calculation unit, 400... model update unit, 500... result output unit, CNN1... First convolutional neural network, CNN2... Second convolutional neural network, FNN... Fully connected neural network, FP_1... First feature parameter, FP_2... Second feature parameter, IMG_1... First input image, IMG_1A... Upper view image, IMG_1B... Tx range distribution image, IMG_1C...
- Rx range distribution image IMG_2... Second input image, IMG_2A... Side view image, IMG_2B... Tx range distribution image, IMG_2C... Rx range distribution image, L... Propagation loss, LRN... Learning ⁇ Verification data, MAP... map data, POS... position data, SP... system parameters
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Monitoring And Testing Of Transmission In General (AREA)
Abstract
伝搬特性推定装置は、無線通信システムにおける送信局と受信局との間の伝搬特性を推定する。より詳細には、伝搬特性推定装置は、受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する。また、伝搬特性推定装置は、送信局と受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する。そして、伝搬特性推定装置は、少なくとも第1特徴パラメータと第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって伝搬特性を推定する。
Description
本発明は、無線通信システムにおける送信局と受信局との間の伝搬特性を推定する技術に関する。
無線通信システムにおける送信局(Transmitter:Tx)と受信局(Receiver:Rx)との間の伝搬特性(伝搬損失)を推定する技術が知られている。例えば、特許文献1、特許文献2、非特許文献1、非特許文献2、及び非特許文献3は、そのような伝搬特性推定技術を開示している。
特に、特許文献2、非特許文献1、及び非特許文献2は、畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を利用して伝搬特性を推定する推定モデルを開示している。より詳細には、Rx周辺の建物高さの分布を表す上方視画像(top-view image)が用意される。その上方視画像をCNNに入力することによって、上方視画像の特徴量を表す特徴パラメータが抽出される。そして、抽出された特徴パラメータを全結合ニューラルネットワーク(FNN: Fully-connected Neural Network)に入力することにより、伝搬特性が推定される。
尚、都市部マクロセル環境などでは、見通し外環境においてRxがTxから離れると、Tx-Rx間の建物の屋根を越える電波伝搬である「屋根越え伝搬(over-rooftop propagation)」が支配的となる場合がある(非特許文献3)。
N. Kuno and Y. Takatori, "Prediction Method by Deep-Learning for Path Loss Characteristics in an Open-Square Environment," in 2018 International Symposium on Antennas and Propagation (ISAP), pp. 443-444, 2018.
T. Imai, K. Kitao, and M. Inomata, "Radio Propagation Prediction Model Using Convolutional Neural Networks by Deep Learning," in 2019 13th European Conference on Antennas and Propagation (EuCAP), pp. 1-5, 2019.
N. Kita, W. Yamada, and A. Sato, "Path Loss Prediction Model for the Over-Rooftop Propagation Environment of Microwave Band in Suburban Areas," Electronics and Communications in Japan (Part I: Communications), vol. 90, no. 1, pp. 13-24, 2007.
上述の通り、Rx周辺の建物高さの分布を表す上方視画像をCNNに入力することによって伝搬特性を推定する手法が知られている。但し、この手法では、Tx-Rx間の屋根越え伝搬が十分に考慮されない。
本発明の1つの目的は、無線通信システムにおける伝搬特性の推定精度を更に向上させることができる技術を提供することにある。
第1の観点は、無線通信システムにおける送信局と受信局との間の伝搬特性を推定する伝搬特性推定方法に関連する。
伝搬特性推定方法は、
受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する処理と、
送信局と受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する処理と、
少なくとも第1特徴パラメータと第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって伝搬特性を推定する処理と
を含む。
伝搬特性推定方法は、
受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する処理と、
送信局と受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する処理と、
少なくとも第1特徴パラメータと第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって伝搬特性を推定する処理と
を含む。
第2の観点は、無線通信システムにおける送信局と受信局との間の伝搬特性を推定する伝搬特性推定装置に関連する。
伝搬特性推定装置は、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、
受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する処理と、
送信局と受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する処理と、
少なくとも第1特徴パラメータと第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって伝搬特性を推定する処理と
を実行するように構成される。
伝搬特性推定装置は、1又は複数のプロセッサを備える。
1又は複数のプロセッサは、
受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する処理と、
送信局と受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する処理と、
少なくとも第1特徴パラメータと第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって伝搬特性を推定する処理と
を実行するように構成される。
第3の観点は、無線通信システムにおける送信局と受信局との間の伝搬特性を推定する伝搬特性推定プログラムに関連する。
伝搬特性推定プログラムは、
受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する処理と、
送信局と受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する処理と、
少なくとも第1特徴パラメータと第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって伝搬特性を推定する処理と
をコンピュータに実行させる。
伝搬特性推定プログラムは、
受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する処理と、
送信局と受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する処理と、
少なくとも第1特徴パラメータと第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって伝搬特性を推定する処理と
をコンピュータに実行させる。
本発明によれば、上方視画像だけでなく側方視画像にも基づいて伝搬特性が推定される。これにより、送信局と受信局との間の屋根越え伝搬も考慮して伝搬特性を推定することが可能となる。その結果、伝搬特性の推定精度が向上する。また、推定の収束速度も向上する。
添付図面を参照して、本発明の実施の形態を説明する。
無線通信システムにおける送信局(Transmitter:Tx)と受信局(Receiver:Rx)との間の伝搬特性(伝搬損失)の推定について考える。例えば、送信局は基地局(BS: Base Station)であり、受信局は移動局(MS: Mobile Station)である。
1.比較例
1-1.概要
図1は、比較例に係る伝搬特性推定の概要を説明するための概念図である。比較例は、例えば、上記の非特許文献2に開示されている技術に相当する。
1-1.概要
図1は、比較例に係る伝搬特性推定の概要を説明するための概念図である。比較例は、例えば、上記の非特許文献2に開示されている技術に相当する。
比較例では、畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)に基づく推定モデルを利用して伝搬特性推定が行われる。周知の通り、CNNは、画像から特徴量を自動的に抽出することができる有用なツールである。CNNは、入力画像から局所的に特徴量を抽出する畳み込み層と、抽出された特徴量をまとめるプーリング層とが繰り返し配置された構造を有する。
比較例では、建物等の構造物の配置の「上方視画像(top view image)」が、CNNへの入力画像として用いられる。上方視画像は、上方から見た2次元画像であり、俯瞰画像と言うこともできる。特に、Rx周辺の電波伝搬を考慮するために、Rxの周囲の所定範囲における構造物の配置の上方視画像が用いられる。所定範囲は、例えば、Rxを中心とした矩形状の範囲である。上方視画像IMG_1Aは、Rxの周囲の所定範囲における構造物の高さ分布を表していてもよい。そのような上方視画像がCNNに入力され、上方視画像の特徴量を表す特徴パラメータが抽出される。
CNNの後段には、全結合ニューラルネットワーク(FNN: Fully-connected Neural Network)が配置されている。全結合ニューラルネットワークは、特徴パラメータに応じた伝搬損失Lを出力するように学習されている。CNNによって抽出された特徴パラメータがFNNに入力され、それにより伝搬損失Lが推定される。尚、特徴パラメータと共に、無線通信システムに関するシステムパラメータがFNNに入力されてもよい。システムパラメータとしては、周波数、Txのアンテナ高さ、Rxのアンテナ高さ、等が例示される。
以下、このような伝搬特性推定処理を行う「伝搬特性推定装置」について詳しく説明する。
1-2.機能構成例
図2は、比較例に係る伝搬特性推定装置1の機能構成例を示すブロック図である。特に、図2は、学習段階における伝搬特性推定装置1の機能構成例を示している。学習段階における伝搬特性推定装置1は、機能ブロックとして、入力画像生成部100、モデル部200、誤差計算部300、及びモデル更新部400を含んでいる。
図2は、比較例に係る伝搬特性推定装置1の機能構成例を示すブロック図である。特に、図2は、学習段階における伝搬特性推定装置1の機能構成例を示している。学習段階における伝搬特性推定装置1は、機能ブロックとして、入力画像生成部100、モデル部200、誤差計算部300、及びモデル更新部400を含んでいる。
入力画像生成部100は、第1入力画像生成部110を含んでいる。第1入力画像生成部110は、CNNに入力される「第1入力画像IMG_1」を生成する。第1入力画像IMG_1は、少なくとも上方視画像IMG_1Aを含んでいる。
図3は、第1入力画像IMG_1に含まれる上方視画像IMG_1Aの一例を示している。上方視画像IMG_1Aは、Rxの周囲の所定範囲における構造物(例:建物)の配置を上方から見た2次元画像である。所定範囲は、例えば矩形状の範囲である。例えば、所定範囲は、Rxを中心とした矩形状の範囲である。例えば、所定範囲は128m×128mの矩形範囲であり、その所定範囲が2m×2m毎のメッシュで区切られ、64×64のメッシュ構成を有する上方視画像IMG_1Aが生成される。
図3に示される例では、上方視画像IMG_1Aは、Rxの周囲の所定範囲における構造物の高さ分布を表す画像である。
尚、図3において、xy平面は水平面に平行である。xy座標系は、絶対座標系であってもよいし、TxとRxとの位置関係によって決まる相対座標系であってもよい。後者の場合、例えば、x軸あるいはy軸がRxから見たTxの方向と平行になるように、xy座標系が設定される。
第1入力画像生成部110は、地図データMAPと位置データPOSに基づいて、上方視画像IMG_1Aを自動的に生成する。地図データMAPは、無線通信システムが稼働するエリアの3次元地図データである。地図データMAPは、構造物(例:建物)の3次元的配置(水平位置及び高さ)の情報を含んでいる。位置データPOSは、少なくとも、TxとRxのそれぞれの地図上の位置を示す。
第1入力画像IMG_1は、複数種類の画像を含んでいてもよい。例えば、第1入力画像IMG_1は、上述の上方視画像IMG_1Aに加えて、図4に示されるような「Tx距離分布画像IMG_1B」及び「Rx距離分布画像IMG_1C」を含んでいてもよい。Tx距離分布画像IMG_1Bは、上方視画像IMG_1Aと同じ所定範囲における、Txからの距離の分布を表す画像である。Rx距離分布画像IMG_1Cは、上方視画像IMG_1Aと同じ所定範囲における、Rxからの距離の分布を表す画像である。第1入力画像生成部110は、位置データPOSに基づいて、Tx距離分布画像IMG_1B及びRx距離分布画像IMG_1Cを自動的に生成する。
モデル部200は、入力画像から伝搬損失Lを推定する推定モデルを含んでいる。より詳細には、モデル部200は、第1CNN部210及びFNN部230を含んでいる。FNN部230は、第1CNN部210の後段に位置する。
第1CNN部210は、推定モデルの一部として、第1畳み込みニューラルネットワーク(以下、CNN1と呼ぶ)を含んでいる。第1CNN部210は、第1入力画像生成部110によって生成される第1入力画像IMG_1を取得する。そして、第1CNN部210は、第1入力画像IMG_1をCNN1に入力することによって、第1入力画像IMG_1の特徴量を表す第1特徴パラメータFP_1を抽出する。
FNN部230は、推定モデルの一部として、全結合ニューラルネットワーク(以下、FNNと呼ぶ)を含んでいる。FNN部230は、第1特徴パラメータFP_1を少なくとも含む入力パラメータを取得する。入力パラメータは、第1特徴パラメータFP_1に加えて、無線通信システムに関するシステムパラメータSPを含んでいてもよい。システムパラメータSPとしては、無線通信システムにおいて使用される周波数、Txのアンテナ高さ、Rxのアンテナ高さ、等が例示される。FNN部230は、入力パラメータをFNNに入力することによって伝搬損失Lを算出する。
誤差計算部300は、モデル部200から出力される伝搬損失Lを取得する。そして、誤差計算部300は、学習・検証データLRNを参照して、モデル部200による推定誤差を算出する。学習・検証データLRNは、実測あるいはシミュレーションにより得られる伝搬特性を示す。例えば、誤差計算部300は、推定された伝搬損失Lから計算される受信電力と学習・検証データLRNから得られる受信電力の差に基づいて、推定誤差を算出する。
モデル更新部400は、推定誤差が一定レベル以下に収束するまで、モデル部200に含まれる推定モデルを更新する。例えば、モデル更新部400は、推定モデルにおける重みパラメータやバイアス値を更新する。
以上に説明された学習を通して、入力画像から伝搬損失Lを推定するモデル部200が実現される。
図5は、伝搬特性推定段階における伝搬特性推定装置1の機能構成例を示している。伝搬特性推定段階における伝搬特性推定装置1は、機能ブロックとして、入力画像生成部100、モデル部200、及び結果出力部500を含んでいる。入力画像生成部100は、上述の通りである。モデル部200は学習済みである。学習済みのモデル部200は、入力画像生成部100によって生成される入力画像を取得し、入力画像に応じて伝搬損失Lを推定し、その推定結果を出力する。結果出力部500は、モデル部200から出力される伝搬損失Lのデータを記憶装置に格納したり、ユーザに提示したりする。
2.上方視画像と側方視画像の両方を用いた伝搬特性推定
2-1.概要
都市部マクロセル環境などでは、見通し外環境においてRxがTxから離れると、Tx-Rx間の建物の屋根を越える電波伝搬である「屋根越え伝搬(over-rooftop propagation)」が支配的となる場合がある。上記のセクション1で説明された比較例では、Tx-Rx間の屋根越え伝搬が十分に考慮されない。本実施の形態は、屋根越え伝搬を考慮した伝搬特性推定技術を提案する。
2-1.概要
都市部マクロセル環境などでは、見通し外環境においてRxがTxから離れると、Tx-Rx間の建物の屋根を越える電波伝搬である「屋根越え伝搬(over-rooftop propagation)」が支配的となる場合がある。上記のセクション1で説明された比較例では、Tx-Rx間の屋根越え伝搬が十分に考慮されない。本実施の形態は、屋根越え伝搬を考慮した伝搬特性推定技術を提案する。
図6は、本実施の形態に係る伝搬特性推定の概要を説明するための概念図である。図1で示された比較例の場合と重複する説明は適宜省略される。
本実施の形態によれば、上述の「上方視画像」に加えて「側方視画像(side-view image)」もCNNへの入力画像として用いられる。側方視画像は、少なくともTxとRxとの間の構造物(例:建物)の配置を側方から見た2次元画像である。言い換えれば、側方視画像は、少なくともTxとRxを結ぶ直線上の構造物の配置を側方から見た2次元画像である。側方視画像を規定するxy平面は水平面に対して直交している。x方向は、TxからRxへの水平方向である。y方向は、x方向と直交する鉛直方向である。側方視画像は、例えば、矩形状の所定範囲の画像である。所定範囲は、TxとRxとの間の範囲よりも大きくてもよい。
図6に示されるように、上方視画像が入力されるCNNと側方視画像が入力されるCNNは別々に設けられる。それぞれのCNNは、上方視画像及び側方視画像の特徴量を表す特徴パラメータを抽出する。FNNは、2つのCNNの後段に配置されている。FNNは、それぞれのCNNから出力される特徴パラメータを含む入力パラメータに応じた伝搬損失Lを出力するように学習されている。
このように、本実施の形態によれば、上方視画像だけでなく側方視画像にも基づいて伝搬特性が推定される。これにより、TxとRxとの間の屋根越え伝搬も考慮して伝搬特性を推定することが可能となる。その結果、伝搬特性の推定精度が向上する。また、推定の収束速度も向上する。
2-2.機能構成例
図7は、本実施の形態に係る伝搬特性推定装置1の機能構成例を示すブロック図である。特に、図7は、学習段階における伝搬特性推定装置1の機能構成例を示している。学習段階における伝搬特性推定装置1は、機能ブロックとして、入力画像生成部100、モデル部200、誤差計算部300、及びモデル更新部400を含んでいる。図2で示された比較例の場合と重複する説明は適宜省略される。
図7は、本実施の形態に係る伝搬特性推定装置1の機能構成例を示すブロック図である。特に、図7は、学習段階における伝搬特性推定装置1の機能構成例を示している。学習段階における伝搬特性推定装置1は、機能ブロックとして、入力画像生成部100、モデル部200、誤差計算部300、及びモデル更新部400を含んでいる。図2で示された比較例の場合と重複する説明は適宜省略される。
入力画像生成部100は、第1入力画像生成部110と第2入力画像生成部120を含んでいる。第1入力画像生成部110は、上述の比較例の場合と同様である。第2入力画像生成部120は、CNNに入力される「第2入力画像IMG_2」を生成する。第2入力画像IMG_2は、少なくとも側方視画像IMG_2Aを含んでいる。
図8は、第2入力画像IMG_2に含まれる側方視画像IMG_2Aの一例を示している。側方視画像IMG_2Aは、少なくともTxとRxとの間の構造物(例:建物)の配置を側方から見た2次元画像である。言い換えれば、側方視画像IMG_2Aは、少なくともTxとRxを結ぶ直線上の構造物の配置を側方から見た2次元画像である。側方視画像IMG_2Aを規定するxy平面は水平面に対して直交している。x方向は、TxからRxへの水平方向である。y方向は、x方向と直交する鉛直方向である。側方視画像IMG_2Aは、例えば、矩形状の所定範囲の画像である。所定範囲は、TxとRxとの間の範囲よりも大きくてもよい。
第2入力画像生成部120は、地図データMAPと位置データPOSに基づいて、側方視画像IMG_2Aを自動的に生成する。
第2入力画像IMG_2は、複数種類の画像を含んでいてもよい。例えば、第2入力画像IMG_2は、上述の側方視画像IMG_2Aに加えて、図9に示されるような「Tx距離分布画像IMG_2B」及び「Rx距離分布画像IMG_2C」を含んでいてもよい。Tx距離分布画像IMG_2Bは、側方視画像IMG_2Aと同じ所定範囲における、Txからの距離の分布を表す画像である。Rx距離分布画像IMG_2Cは、側方視画像IMG_2Aと同じ所定範囲における、Rxからの距離の分布を表す画像である。第2入力画像生成部120は、位置データPOSに基づいて、Tx距離分布画像IMG_2B及びRx距離分布画像IMG_2Cを自動的に生成する。
モデル部200は、入力画像から伝搬損失Lを推定する推定モデルを含んでいる。より詳細には、モデル部200は、第1CNN部210、第2CNN部220、及びFNN部230を含んでいる。FNN部230は、第1CNN部210及び第2CNN部220の後段に位置する。
第1CNN部210は、上述の比較例の場合と同様である。
第2CNN部220は、推定モデルの一部として、第2畳み込みニューラルネットワーク(以下、CNN2と呼ぶ)を含んでいる。第2CNN部220は、第2入力画像生成部120によって生成される第2入力画像IMG_2を取得する。そして、第2CNN部220は、第2入力画像IMG_2をCNN2に入力することによって、第2入力画像IMG_2の特徴量を表す第2特徴パラメータFP_2を抽出する。
FNN部230は、第1特徴パラメータFP_1及び第2特徴パラメータFP_2を少なくとも含む入力パラメータを取得する。入力パラメータは、更に、無線通信システムに関するシステムパラメータSPを含んでいてもよい。システムパラメータSPとしては、無線通信システムにおいて使用される周波数、Txのアンテナ高さ、Rxのアンテナ高さ、等が例示される。FNN部230は、入力パラメータをFNNに入力することによって伝搬損失Lを算出する。
誤差計算部300及びモデル更新部400は、上述の比較例の場合と同様である。
図10は、伝搬特性推定段階における伝搬特性推定装置1の機能構成例を示している。伝搬特性推定段階における伝搬特性推定装置1は、機能ブロックとして、入力画像生成部100、モデル部200、及び結果出力部500を含んでいる。入力画像生成部100は、上述の通りである。モデル部200は学習済みである。学習済みのモデル部200は、入力画像生成部100によって生成される入力画像を取得し、入力画像に応じて伝搬損失Lを推定し、その推定結果を出力する。結果出力部500は、モデル部200から出力される伝搬損失Lのデータを記憶装置に格納したり、ユーザに提示したりする。
2-3.効果
以上に説明されたように、本実施の形態によれば、上方視画像IMG_1Aだけでなく側方視画像IMG_2Aにも基づいて伝搬特性が推定される。これにより、TxとRxとの間の屋根越え伝搬も考慮して伝搬特性を推定することが可能となる。その結果、伝搬特性の推定精度が向上する。また、推定の収束速度も向上する。
以上に説明されたように、本実施の形態によれば、上方視画像IMG_1Aだけでなく側方視画像IMG_2Aにも基づいて伝搬特性が推定される。これにより、TxとRxとの間の屋根越え伝搬も考慮して伝搬特性を推定することが可能となる。その結果、伝搬特性の推定精度が向上する。また、推定の収束速度も向上する。
図11は、効果を説明するための図である。横軸はTxとRxとの間の距離を表し、縦軸は推定される伝搬損失Lを表している。図11中の(A)は比較例の場合の推定結果を表しており、(B)は本実施の形態の場合の推定結果を表している。学習・検証データとしては、都市部における測定データが用いられた。尚、周波数特性は考慮されていない。図11から分かるように、本実施の形態による推定結果のばらつきは、比較例の場合よりも小さくなる。RMS誤差は、比較例の場合に9.46dBであり、本実施の形態の場合に5.63dBであった。このように、本実施の形態によれば、伝搬特性の推定精度が向上する。
3.伝搬特性推定装置の構成例
図12は、本実施の形態に係る伝搬特性推定装置1の構成例を示すブロック図である。伝搬特性推定装置1は、1又は複数のプロセッサ10(以下、単に「プロセッサ10」と呼ぶ)、1又は複数の記憶装置20(以下、単に「記憶装置20」と呼ぶ)、ユーザインタフェース40、及びI/Oインタフェース50を含んでいる。
図12は、本実施の形態に係る伝搬特性推定装置1の構成例を示すブロック図である。伝搬特性推定装置1は、1又は複数のプロセッサ10(以下、単に「プロセッサ10」と呼ぶ)、1又は複数の記憶装置20(以下、単に「記憶装置20」と呼ぶ)、ユーザインタフェース40、及びI/Oインタフェース50を含んでいる。
プロセッサ10は、各種情報処理を行う。例えば、プロセッサ10は、CPU(Central Processing Unit)を含んでいる。記憶装置20は、プロセッサ10による処理に必要な各種情報を格納する。記憶装置20としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。
伝搬特性推定プログラム30は、プロセッサ10によって実行されるコンピュータプログラムである。プロセッサ10が伝搬特性推定プログラム30を実行することにより、プロセッサ10(伝搬特性推定装置1)の機能が実現される。すなわち、プロセッサ10が伝搬特性推定プログラム30を実行することにより、図7及び図10で示された伝搬特性推定装置1の機能構成が実現される。伝搬特性推定プログラム30は、記憶装置20に格納される。伝搬特性推定プログラム30は、コンピュータ読み取り可能な記録媒体に記録されてもよい。伝搬特性推定プログラム30は、ネットワーク経由で伝搬特性推定装置1に提供されてもよい。
プロセッサ10は、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。
ユーザインタフェース40は、ユーザに情報を提供し、また、ユーザからの情報入力を受け付ける。ユーザインタフェース40は、入力装置及び表示装置を含んでいる。
I/Oインタフェース50は、データベースと通信可能に接続される。データベースには、伝搬特性推定処理に必要な各種データが格納されている。例えば、データベースには、地図データMAP、位置データPOS、学習・検証データLRN、等が格納されている。プロセッサ10は、I/Oインタフェース50を介して、必要な情報をデータベースから取得することができる。
図13は、本実施の形態に係る伝搬特性推定装置1による処理を要約的に示すフローチャートである。特に、図13は、推定モデルの学習に関連する処理を示している。
ステップS100において、伝搬特性推定装置1は、地図データMAP及び位置データPOSをデータベースから取得する。
ステップS200において、伝搬特性推定装置1は、地図データMAP及び位置データPOSに基づいて、第1入力画像IMG_1及び第2入力画像IMG_2を生成する。
ステップS300において、伝搬特性推定装置1は、推定モデルを用いて伝搬特性を推定する。より詳細には、伝搬特性推定装置1は、第1入力画像IMG_1をCNN1に入力することによって第1特徴パラメータFP_1を抽出し、且つ、第2入力画像IMG_2をCNN2に入力することによって第2特徴パラメータFP_2を抽出する。更に、伝搬特性推定装置1は、第1特徴パラメータFP_1及び第2特徴パラメータFP_2を含む入力パラメータをFNNに入力することによって伝搬特性を推定する。
ステップS400において、伝搬特性推定装置1は、推定された伝搬特性と学習・検証データLRNとを対比することによって推定誤差を算出する。
ステップS500において、伝搬特性推定装置1は、推定誤差が一定レベル以下に収束したか判定する。推定誤差が一定レベルを超えている場合(ステップS500;No)、処理は、ステップS600に進む。
ステップS600において、伝搬特性推定装置1は、推定誤差が減るように推定モデルを更新する。その後、処理は、ステップS300に戻る。
推定誤差が一定レベル以下に収束した場合(ステップS500;Yes)、推定モデルの学習は完了する。
伝搬特性推定段階では、ステップS100~S300は同様である。但し、ステップS300において、伝搬特性推定装置1は、学習済みの推定モデルを用いて伝搬特性を推定する。そして、伝搬特性推定装置1は、伝搬特性の推定結果を記憶装置20に格納する。また、伝搬特性推定装置1は、伝搬特性の推定結果をユーザインタフェース40を介してユーザに提示する。
1…伝搬特性推定装置, 10…プロセッサ, 20…記憶装置, 30…伝搬特性推定プログラム, 40…ユーザインタフェース, 50…I/Oインタフェース, 100…入力画像生成部, 110…第1入力画像生成部, 120…第2入力画像生成部, 200…モデル部, 210…第1CNN部, 220…第2CNN部, 230…FNN部, 300…誤差計算部, 400…モデル更新部, 500…結果出力部, CNN1…第1畳み込みニューラルネットワーク, CNN2…第2畳み込みニューラルネットワーク, FNN…全結合ニューラルネットワーク, FP_1…第1特徴パラメータ, FP_2…第2特徴パラメータ, IMG_1…第1入力画像, IMG_1A…上方視画像, IMG_1B…Tx距離分布画像, IMG_1C…Rx距離分布画像, IMG_2…第2入力画像, IMG_2A…側方視画像, IMG_2B…Tx距離分布画像, IMG_2C…Rx距離分布画像, L…伝搬損失, LRN…学習・検証データ, MAP…地図データ, POS…位置データ, SP…システムパラメータ
Claims (8)
- 無線通信システムにおける送信局と受信局との間の伝搬特性を推定する伝搬特性推定方法であって、
前記受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する処理と、
前記送信局と前記受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する処理と、
少なくとも前記第1特徴パラメータと前記第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって前記伝搬特性を推定する処理と
を含む
伝搬特性推定方法。 - 請求項1に記載の伝搬特性推定方法であって、
前記第2入力画像は、更に、
前記側方視画像と同じ範囲における前記送信局からの距離の分布を表す画像と、
前記側方視画像と同じ範囲における前記受信局からの距離の分布を表す画像と
を含む
伝搬特性推定方法。 - 請求項1又は2に記載の伝搬特性推定方法であって、
前記第1入力画像は、更に、
前記上方視画像と同じ範囲における前記送信局からの距離の分布を表す画像と、
前記上方視画像と同じ範囲における前記受信局からの距離の分布を表す画像と
を含む
伝搬特性推定方法。 - 請求項1乃至3のいずれか一項に記載の伝搬特性推定方法であって、
前記上方視画像は、前記受信局の周囲の前記構造物の高さ分布を表す画像である
伝搬特性推定方法。 - 請求項1乃至4のいずれか一項に記載の伝搬特性推定方法であって、
前記無線通信システムが稼働するエリアの地図データに基づいて前記第1入力画像及び前記第2入力画像を生成する処理
を更に含む
伝搬特性推定方法。 - 請求項1乃至5のいずれか一項に記載の伝搬特性推定方法であって、
前記入力パラメータは、前記第1特徴パラメータと前記第2特徴パラメータに加えて、前記無線通信システムに関するシステムパラメータを更に含む
伝搬特性推定方法。 - 無線通信システムにおける送信局と受信局との間の伝搬特性を推定する伝搬特性推定装置であって、
1又は複数のプロセッサを備え、
前記1又は複数のプロセッサは、
前記受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する処理と、
前記送信局と前記受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する処理と、
少なくとも前記第1特徴パラメータと前記第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって前記伝搬特性を推定する処理と
を実行するように構成された
伝搬特性推定装置。 - 無線通信システムにおける送信局と受信局との間の伝搬特性を推定する伝搬特性推定プログラムであって、
前記受信局の周囲の構造物の配置の上方視画像を少なくとも含む第1入力画像を第1畳み込みニューラルネットワークに入力することによって第1特徴パラメータを抽出する処理と、
前記送信局と前記受信局との間の構造物の配置の側方視画像を少なくとも含む第2入力画像を第2畳み込みニューラルネットワークに入力することによって第2特徴パラメータを抽出する処理と、
少なくとも前記第1特徴パラメータと前記第2特徴パラメータを含む入力パラメータを全結合ニューラルネットワークに入力することによって前記伝搬特性を推定する処理と
をコンピュータに実行させる
伝搬特性推定プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/048816 WO2023127106A1 (ja) | 2021-12-28 | 2021-12-28 | 伝搬特性推定方法、伝搬特性推定装置、及び伝搬特性推定プログラム |
JP2023570586A JPWO2023127106A1 (ja) | 2021-12-28 | 2021-12-28 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/048816 WO2023127106A1 (ja) | 2021-12-28 | 2021-12-28 | 伝搬特性推定方法、伝搬特性推定装置、及び伝搬特性推定プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023127106A1 true WO2023127106A1 (ja) | 2023-07-06 |
Family
ID=86998391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/048816 WO2023127106A1 (ja) | 2021-12-28 | 2021-12-28 | 伝搬特性推定方法、伝搬特性推定装置、及び伝搬特性推定プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2023127106A1 (ja) |
WO (1) | WO2023127106A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058929A (ja) * | 2011-09-08 | 2013-03-28 | West Japan Railway Co | 電波伝搬における損失量の推定方法及びそのプログラム並びに電波伝搬における損失量推定シミュレーション装置 |
JP2019122008A (ja) * | 2018-01-11 | 2019-07-22 | 株式会社Nttドコモ | 電波伝搬推定装置、電波伝搬推定方法、及び、電波伝搬推定プログラム |
-
2021
- 2021-12-28 JP JP2023570586A patent/JPWO2023127106A1/ja active Pending
- 2021-12-28 WO PCT/JP2021/048816 patent/WO2023127106A1/ja unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013058929A (ja) * | 2011-09-08 | 2013-03-28 | West Japan Railway Co | 電波伝搬における損失量の推定方法及びそのプログラム並びに電波伝搬における損失量推定シミュレーション装置 |
JP2019122008A (ja) * | 2018-01-11 | 2019-07-22 | 株式会社Nttドコモ | 電波伝搬推定装置、電波伝搬推定方法、及び、電波伝搬推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023127106A1 (ja) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Distributed, robust acoustic source localization in a wireless sensor network | |
Lee et al. | Channel gain cartography for cognitive radios leveraging low rank and sparsity | |
JP6955720B2 (ja) | 電波遮蔽損失の計算方法、計算装置およびプログラム | |
WO2019107388A1 (ja) | 位置推定システム、位置推定方法及びプログラム | |
JP5155934B2 (ja) | 無線局配置探索装置 | |
US12114176B2 (en) | Propagation characteristic estimation device, propagation characteristic estimation method, and propagation characteristic estimation program | |
El Ahdab et al. | An efficient 3-D FDTD-PE hybrid model for radio wave propagation with near-source obstacles | |
WO2023127106A1 (ja) | 伝搬特性推定方法、伝搬特性推定装置、及び伝搬特性推定プログラム | |
CN111541476A (zh) | 非静止轨道卫星估计静止通信卫星和波束参数的方法 | |
CN117422041A (zh) | 模拟芯片自动化布线模型训练方法及自动化布线方法 | |
CN115329628A (zh) | 一种基于局部网格自适应剖分的电磁辐射仿真分析方法 | |
CN115942231A (zh) | 一种基于rss的5g室外定位方法 | |
Orlov et al. | Simulation of devices mobility to estimate wireless channel quality metrics in 5G networks | |
KR101603779B1 (ko) | 컨포멀 안테나의 성능 시뮬레이션 장치 및 방법 | |
Gendler et al. | A Diffusion-Based Distributed Time Difference Of Arrival Source Positioning | |
US11363414B2 (en) | Method for creating positioning support table and positioning using the positioning support table | |
KR100961875B1 (ko) | 수직 비행경로 자동생성 방법 | |
WO2023170762A1 (ja) | 学習方法、伝搬特性推定方法、伝搬特性推定装置、伝搬特性推定システム、伝搬特性推定プログラム | |
CN106612510B (zh) | 室内覆盖设计的方法和装置 | |
JPWO2009069507A1 (ja) | 電波伝搬シミュレータ及びそれに用いる電波伝搬特性推定方法並びにそのプログラム | |
JP7431415B2 (ja) | 情報処理装置および情報処理方法 | |
JP6256250B2 (ja) | 受信強度算出装置、受信強度算出方法、プログラム | |
JP2024066872A (ja) | 電波可視化システム、評価条件作成装置、電波可視化方法及び評価条件作成プログラム | |
US20240046146A1 (en) | Method for teaching an electronic computing device, a computer program product, a computer-readable storage medium as well as an electronic computing device | |
KR20190118341A (ko) | 확장된 타원체 맞춤을 이용한 분산 mimo 레이더를 위한 표적위치 추정방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21969987 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2023570586 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |