WO2024063096A1 - 情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2024063096A1
WO2024063096A1 PCT/JP2023/034117 JP2023034117W WO2024063096A1 WO 2024063096 A1 WO2024063096 A1 WO 2024063096A1 JP 2023034117 W JP2023034117 W JP 2023034117W WO 2024063096 A1 WO2024063096 A1 WO 2024063096A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
information processing
predetermined
processing device
data
Prior art date
Application number
PCT/JP2023/034117
Other languages
English (en)
French (fr)
Inventor
昌道 中村
雅一 西本
博隆 井上
Original Assignee
モルゲンロット株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モルゲンロット株式会社 filed Critical モルゲンロット株式会社
Publication of WO2024063096A1 publication Critical patent/WO2024063096A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning

Definitions

  • the present invention relates to an information processing system, an information processing method, and a program.
  • Patent Document 1 describes a technique for generating a trained model for an accounting processing service using an accounting processing device on the cloud and for making a determination using the trained model.
  • the present invention was made in view of this situation, and aims to improve the convenience of system processing while preventing information leakage.
  • an information processing system includes: An information processing system including a first information processing device that executes a part of a predetermined process, and a second information processing device that executes the remaining part of the predetermined process,
  • the first information processing device includes: a first execution unit that executes a part of the predetermined process using predetermined information as input information, and outputs the predetermined information as output information indicating the execution result in a form that cannot be reproduced with only the output information; Equipped with
  • the second information processing device includes: acquisition means for acquiring the output information from the first information processing device; a second execution means for executing the remaining part of the predetermined process using the output information as input information; Equipped with
  • the information processing method and program according to one embodiment of the present invention correspond to the information processing apparatus according to one embodiment of the present invention described above.
  • the present invention makes it possible to prevent information leaks while improving the convenience of processing on the system.
  • FIG. 1 is a diagram showing an example of a system configuration of one embodiment of an information processing system according to the present invention.
  • 2 is a diagram illustrating an example of the hardware configuration of a server in the information processing system of FIG. 1.
  • FIG. 3 is a functional block diagram illustrating an example of a functional configuration of an information processing system including a server having the hardware configuration shown in FIG. 2.
  • FIG. 4 is a flowchart showing the operation of the information processing system having the hardware configuration of FIG. 2 and the functional configuration of FIG. 3.
  • FIG. 4 is a diagram showing a predetermined process in an information processing system having the hardware configuration of FIG. 2 and the functional configuration of FIG. 3.
  • FIG. 6 is a diagram illustrating how the predetermined process in FIG. 5 is divided into user terminal-side processing and server-side processing and executed.
  • FIG. 5 is illustrating an example of a system configuration of one embodiment of an information processing system according to the present invention.
  • FIG. 4 is a diagram illustrating an example of a learning process of a neural network in the information processing system of FIG. 3 .
  • 4 is a diagram illustrating an example of a process for extracting feature amounts from original data in the information processing system of FIG. 3.
  • FIG. 9 is a diagram illustrating an example of a process of converting a plurality of feature amounts extracted from different cross sections in the process of FIG. 8 into a matrix.
  • FIG. 7 is another example of the process shown in FIG. 6, and is a diagram illustrating an example of a process for converting, for example, a flow field of airflow into a feature amount other than shape data.
  • FIG. 2 is a diagram illustrating an embodiment in which feature data is extracted using a neural network of many layers in an information processing system according to the present invention.
  • FIG. 3 is a diagram illustrating an embodiment in which a learning phase of a neural network is performed by three networks in an information processing system according to the present invention.
  • FIG. 2 is a diagram showing an embodiment in which each of a plurality of layers of a learning section and the learning section itself are distributed and arranged in different servers in an information processing system according to the present invention.
  • FIG. 7 is a diagram showing an embodiment in which processing is divided into parts different from the example of FIG. 6 in the information processing system according to the present invention.
  • FIG. 1 is a diagram showing an example of the system configuration of an information processing system according to one embodiment of the present invention.
  • the information processing system in FIG. 1 is configured to include a server 1 and a user terminal 2.
  • the server 1 and the user terminal 2 are connected to be able to communicate with each other via a predetermined network N such as the Internet.
  • a predetermined network N such as the Internet.
  • the form of the network N is not particularly limited, and for example, Bluetooth (registered trademark), Wi-Fi, LAN (Local Area Network), the Internet, etc. can be adopted.
  • the information processing system analyzes the airflow of three-dimensional airfoil shape data through communication via the network N between the server 1 and the user terminal 2, and simulates (simulates) the flow field of the airflow. Executes predetermined processing such as processing.
  • the server 1 is an information processing device such as a smartphone, a tablet terminal, or a personal computer (PC) that is managed by a service provider, and has an application for the server provided by the service provider installed therein.
  • the server 1 executes the remaining processes among the predetermined processes in response to a request from the user. Specifically, while communicating with the user terminal 2 as appropriate, the server 1 generates, for example, a cross-sectional curve of a three-dimensional airfoil pseudo-shape from the feature data received from the user terminal 2 as the remaining processing.
  • Various control processes are executed, including a process of generating a performance parameter indicating the magnitude of airflow resistance with respect to the cross-sectional shape, or simulating (simulating) the airflow field according to the performance parameter.
  • the user terminal 2 is, for example, a terminal that accepts operations by a user, and is, for example, an information processing device such as a smartphone, a tablet terminal, or a personal computer (PC).
  • a user application provided by a service provider is installed on the user terminal 2.
  • the user terminal 2 executes some of the predetermined processes. Specifically, the user terminal 2 executes, for example, a process of extracting feature data from shape data stored in the user terminal 2 as part of the predetermined process while communicating with the server 1 as appropriate. do.
  • the user terminal 2 and the server 1 install a dedicated application provided by a service provider, and perform the first
  • the method was adopted as a "collaboration" method.
  • a second method may be adopted in which the user terminal 2 accesses a website disclosed by the server 1 and displays the website.
  • the user terminal 2 executes some of the predetermined processes and has the server 1 execute the remaining processes while communicating with the server 1 as appropriate.
  • the method by which the user terminal 2 and the server 1 cooperate to realize this service in this way is not limited to the first method.
  • a method in which the first method and the second method are appropriately combined can also be employed as the "collaboration" method.
  • the server 1 is the main body of processing, but this is merely an example, and it goes without saying that the user terminal 2 or other information processing device (server 1, etc.) may be used as appropriate during implementation.
  • server 1 in the information processing system in Figure 1 and explain the hardware configuration of server 1 below.
  • FIG. 2 is a diagram showing an example of the hardware configuration of a server in the information processing system shown in FIG.
  • the server 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input/output interface 15, an output section 16, and an input section 1. 7 and , a storage section 18, a communication section 19, and a drive 20.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 11 executes various processes according to programs recorded in the ROM 12 or programs loaded into the RAM 13 from the storage section 18 .
  • the RAM 13 also appropriately stores data necessary for the CPU 11 to execute various processes.
  • the CPU 11, ROM 12, and RAM 13 are interconnected via a bus 14.
  • An input/output interface 15 is also connected to this bus 14 .
  • An output section 16 , an input section 17 , a storage section 18 , a communication section 19 , and a drive 20 are connected to the input/output interface 15 .
  • the output unit 16 is composed of a display such as a liquid crystal display device, a printer, a speaker, etc., and outputs various information.
  • the input unit 17 is constituted by input devices such as a keyboard and a mouse, and various information is inputted into the input unit 17 .
  • the storage unit 18 is configured with a dynamic random access memory (DRAM) or the like, and stores various data.
  • the communication unit 19 communicates with other devices via a network N including the Internet.
  • a removable medium 30 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately installed in the drive 20.
  • the program read from the removable medium 30 by the drive 20 is installed in the storage unit 18 as necessary. Further, the removable medium 30 can also store various data stored in the storage section 18 in the same manner as the storage section 18.
  • FIG. 3 is a functional block diagram showing an example of the functional configuration of an information processing system including a server having the hardware configuration shown in FIG. 2.
  • the hardware elements of the server 1 are given k and the hardware elements of the user terminal 2 are given s. shall be explained as follows.
  • the storage unit 18s of the user terminal 2 stores a learning model 81 in addition to the original data to be processed. Furthermore, in the CPU 11s of the user terminal 2, the encoding unit 41 functions when executing predetermined processing.
  • the encoding section 41 includes an encoder 51 and a learning section 52.
  • the learning section 52 may be integrated into the learning section 72 on the server side, or vice versa, instead of being placed on the user terminal 2 side, depending on how the predetermined processing is separated.
  • the encoding unit 41 executes part of a specified process using data to be processed (original data), such as three-dimensional airfoil shape data, as input information, and outputs as output information indicating the results of the execution in a form in which the specified information cannot be reproduced by the output information alone.
  • Original data data to be processed
  • the specified processing is, for example, processing for analyzing the airflow of the three-dimensional airfoil shape data and simulating the behavior of the airflow
  • the processing performed on the user terminal 2 side is part of the specified processing, for example, processing for converting the original data into feature data in which the coordinate values of multiple points required to generate the cross-sectional curve of the three-dimensional airfoil are arranged as features.
  • "impossible to reproduce” means that it is impossible to reproduce within a realistic time frame and in a state where no information other than the output information is given.
  • the encoder 51 reads out the original data stored in the storage unit 18s, and generates digital data of “0” and “1” necessary for generating the curve of the cross section of the three-dimensional airfoil from the original data, Execute the process to generate the digital data, convert the "0" and "1” digital data into feature data (feature matrix), which is a feature in which the coordinate values of multiple points are arranged, and output. (See Figure 9).
  • the learning unit 52 causes the learning model 81 to learn in the learning phase. Furthermore, in the operation phase, the learning unit 52 inputs the feature data (feature matrix) generated by the encoder 51 to the learning model 81, and causes the learning model 81 to output feature data reduced in dimension. Specifically, the learning unit 52 uses the feature data (feature matrix) generated by the encoder 51 as input information to construct a neural network (see FIG. 7) consisting of three layers, for example, the first layer to the third layer. Weighting processing is performed on the first layer, and the execution results (feature amount data) are output.
  • a neural network see FIG. 7
  • the output information from the user terminal 2 is feature data, and by providing setting information and reproduction means (dedicated decoder, etc.) for reproduction on the server 1 side in advance, it is possible to reproduce the original data or data approximating it. It can be said to be a form in which the original data cannot be reproduced using feature data alone.
  • the output information (for example, feature data, etc.) output from the user terminal 2 is based on the target indicated by the predetermined information (for example, three-dimensional airfoil shape data, data on airflow analysis results, etc.) when the original data is used as predetermined information. ) can be said to be one or more feature data (features).
  • the learning unit 52 is arranged after the encoder 51, and the output information is the learning result during the predetermined machine learning (first layer learning only), but other information may be used.
  • the learning section 52 may output the results of learning the first layer and the second layer.
  • the learning section 52 may be deleted and the output of the encoder 51 itself may be output as output information (see FIG. 14).
  • the decoding unit 61 functions when executing predetermined processing.
  • an information acquisition section 71 In the decoding section 61, an information acquisition section 71, a learning section 72, a decoder 73, and a simulating section 74 function.
  • the decoding unit 61 acquires output information transmitted from the user terminal 2 via the Internet, and executes the remaining part of the predetermined process using the output information as input information.
  • the remaining part of the predetermined processing involves, for example, generating a curve of the cross-section DM (see FIG. 8) of the pseudo-shape of the three-dimensional airfoil D1 from the feature data and calculating performance parameters indicating the magnitude of airflow resistance with respect to the cross-sectional shape. It includes processing to generate or simulate the flow field of airflow according to the cross-sectional shape.
  • the information acquisition unit 71 acquires output information from the user terminal 2. Specifically, the information acquisition unit 71 acquires the feature amount data transmitted from the user terminal 2, and temporarily stores it in the storage unit 18k.
  • the learning unit 72 performs predetermined machine learning using the input feature data (teacher data) and outputs a learning result.
  • the learning unit 72 has a second layer and a third layer among the three layers, and, for example, processes the input feature data in the order of the layers (processing such as weighting and addition).
  • processing such as weighting and addition
  • feature amount data in a state where it is impossible to reproduce the same data as the original data existing on the user terminal 2 side is generated. That is, the predetermined machine learning is learning using N-layer (N is an integer value of 2 or more) learning models 81 and 91 (neural networks), and the output information from the user terminal 2 is the learning model of the neural network.
  • the remaining part of the predetermined processing is, for example, processing to obtain performance parameters by analyzing the flow of airflow applied from a predetermined direction to the shape data of the three-dimensional airfoil, etc., and the training data is input to the learning model 91 for learning. processing (processing to execute predetermined machine learning).
  • the decoder 73 reproduces (generates) pseudo-shape data of the three-dimensional airfoil from the learning results of the learning unit 72, analyzes the flow of airflow applied to the three-dimensional airfoil from a predetermined direction K, and obtains three-dimensional information about the flow of the airflow. Execute the process to obtain the performance parameters of the dimensional airfoil.
  • the simulator 74 simulates the flow of airflow applied to the three-dimensional airfoil from a predetermined direction. Specifically, the simulator 74 simulates a flow field NB in which airflow is applied from a predetermined direction K to the three-dimensional airfoil pseudo shape data generated by the decoder 73 (see FIG. 10). That is, the predetermined process includes a process of performing a simulation (for example, a process of analyzing the flow of airflow that hits a three-dimensional airfoil from a predetermined direction and simulating the behavior (flow field) of the airflow).
  • the user terminal 2 when executing a predetermined process (for example, a process of performing a performance test of a three-dimensional airfoil on data), the user terminal 2 Some of the processing is performed from the shape data (such as processing to generate feature data that is converted into feature data that arranges the coordinate values of multiple points necessary to generate the cross-sectional curve of a three-dimensional airfoil). , transmits (outputs) feature amount data indicating the execution result to the server 1.
  • Feature data is a form of data that cannot reproduce the original data by itself, and even if this feature data is leaked or stolen, the original data cannot be restored using feature data alone. .
  • the server 1 includes a decoding unit 61 and executes the remaining part of the predetermined processing using the feature amount data transmitted from the user terminal 2, so that the processing burden on the user side can be reduced. .
  • a decoding unit 61 executes the remaining part of the predetermined processing using the feature amount data transmitted from the user terminal 2, so that the processing burden on the user side can be reduced. .
  • FIG. 4 is a flowchart showing the operation of the information processing system having the functional configuration of FIG.
  • step S11 when executing a predetermined process (for example, a process of performing a three-dimensional airfoil performance test on data), in step S11, the encoding unit 41 extracts a part of the process from the three-dimensional airfoil shape data. and transmits (outputs) feature amount data indicating the execution results to the server 1.
  • a predetermined process for example, a process of performing a three-dimensional airfoil performance test on data
  • step S12 when the decoding unit 61 acquires the feature data transmitted from the user terminal 2, in step S13, the feature data is used as input information to perform the remaining part of the predetermined process. and transmits (outputs) the execution result of the predetermined process to the user terminal 2.
  • the execution result of the predetermined process is, for example, a performance parameter obtained as a result of the process executed by the decoder 73 or a simulation result (simulation result) of an airflow field obtained as a result of the process executed by the simulator 74.
  • the user terminal 2 Upon receiving the execution result of the predetermined process transmitted from the server 1, the user terminal 2 displays the execution result on the screen in step S14.
  • this information processing system by executing part of the processing on the user terminal 2 side and the remaining part of the processing on the server 1 side, the original data held by the user terminal 2 can be By having the user terminal 2 cause the server 1 to execute processing while preventing leakage, the processing burden on the user can be reduced.
  • FIG. 5 is a diagram for explaining an overview of predetermined processing when a three-dimensional airfoil is assumed as an example of a machine shape in an information processing system having the hardware configuration of FIG. 2 and the functional configuration of FIG. 3. .
  • the shape of the three-dimensional airfoil D1 is input to the encoder D3 as three-dimensional shape data (original data) and converted into digital data of "0" and "1".
  • original data When the original data is input to the learning model, it is converted into data such as voxel, mesh, and function expressions.
  • a three-dimensional airfoil D1 is divided into rectangular parallelepiped voxels D2.
  • the shape data divided as voxels D2 is input to the machine learning model through an encoder D3.
  • FIG. 5 an example of a learning model of an autoencoder including an encoder D3 and two layers D4 and D5 is shown.
  • a neural network or a deep neural network separate from the encoder D3 may be used, or another learning model such as a GAN may be used.
  • the output as a processing result may be an image of a flow field or a plurality of parameters instead of a performance parameter.
  • there may be no encoder or decoder and shape data is input to the layer part and output is obtained.
  • the shape data D2 read from the storage unit 18s is input to the layers D4 and D5 of the learning model through the decoder D3, and is reduced in dimension as a feature amount. This feature quantity is decoded by a decoder D6 and output as a performance parameter.
  • the output performance parameters are assumed to be fluid performance such as resistance, and structural performance such as strength. Furthermore, although the above-mentioned process has been shown as an example of mechanical design, it can be applied not only to this example but also, for example, to the fields of materials and drug discovery. In that case, parameters are set for the purpose of design and development in that field. Further, the predetermined information to be input may include not only shape data but also molecular structure, chemical formula, etc.
  • the learning model in Figure 5 is trained to output performance parameters for input shape data, but in the operational phase, this learning model is used to quickly estimate the performance of the design shape. . When using the learning models in the actual operation phase, all the learning models may be downloaded to local systems (for example, the user terminals 2 in FIGS. 1 and 3), and learning may be executed in each of the local systems.
  • FIG. 6 is a diagram illustrating how the predetermined process in FIG. 5 is divided into a process on the user terminal side (local system) and a process on the server side (cloud system) and executed.
  • a part of the predetermined processing in FIG. 5 is performed on the user terminal 2 side and a part of the remaining processing is performed on the server 1 side, for example, as shown in FIG. Design information
  • FIG. Design information is input to the encoder D3, inputted to the first layer D4 of the learning model, and processing until feature data is output from the first layer D4 of the learning model, that is, the shape data is input to the encoder D3 and the first layer D4 of the learning model.
  • the user terminal 2 side performs the processing up to conversion into feature amounts in layer D4.
  • the remaining part of the process is that the server 1 acquires the feature data transmitted from the user terminal 2, and in the server 1, the feature data is input to the second layer D5 of the learning model as input information.
  • the processing is divided (separated) between the first layer D4 and the second layer D5 among the plurality of layers of the learning section, but the part to be separated may be any part, for example, the encoder It may be divided between D3 and the first layer D4 of the learning section, or it may be divided between the second layer D5 and the decoder D6. Furthermore, the position at which the image is divided may change depending on the learning method. At least the steps after conversion into feature amounts may be processed on a cloud system such as the server 1.
  • FIG. 7 is a conceptual diagram of a basic learning model (neural network).
  • the neural network in this example is a three-layer neural network consisting of a first layer, a second layer, and a third layer. Each node is fully connected to the next layer's nodes.
  • data input to the neural network is assigned to nodes of the first layer.
  • the value is converted using the weighting function w and the bias b and is input to the second layer.
  • the converted value is uploaded from the user terminal 2 (local system) to the server 1 (cloud system), and the processing from the second layer onward is performed by the server. 1 is executed.
  • the values of the second layer are transformed by nonlinear transformation, weight function w', and bias b', and the results are output to the third layer.
  • the results are downloaded from the server 1 to the user terminal 2, and the weight function w and bias b are updated. Updated.
  • a learning model is generated, and this learning model is used on the user terminal 2 in the operation phase.
  • This method is just an example of using a neural network, and even when using a deep neural network, GAN, etc., the user terminal 2 and server 1 are switched during the processing of the learning model.
  • the analysis method also requires the use of a learning model that matches the dimensions of the features.
  • a learning model that matches the dimensions of the features.
  • FIG. 8 is a diagram for explaining the process of extracting feature points from the original data (three-dimensional airfoil shape data).
  • FIG. 9 is a diagram showing an example of a process for converting a plurality of feature amounts extracted from different cross sections in the process of FIG. 8 into a matrix.
  • FIG. 10 is a diagram illustrating an example of converting an airflow field into a feature amount.
  • an airflow such as wind is applied to a three-dimensional airfoil D1 from a predetermined direction K, and the flow field NB is converted into a feature quantity. do.
  • the flow field NB such as a vortex is generated.
  • Such a flow field NB can be decomposed into feature quantities using methods such as Proper Orthogonal Decomposition (POD), Dynamic Mode Decomposition (DMD), and Singular Value Decomposition (SVD). , and finally the matrix notation and It is possible to do so.
  • POD Proper Orthogonal Decomposition
  • DMD Dynamic Mode Decomposition
  • SVD Singular Value Decomposition
  • FIG. 11 is a diagram showing an embodiment in which feature data is extracted using a neural network of many layers in an information processing system according to the present invention.
  • a three-layer learning section consisting of a first layer D11, a second layer D12, and a third layer D13 is arranged in the user terminal 2, while the server 1
  • a two-layer learning section consisting of a fourth layer D14 and a fifth layer D15 is arranged.
  • a three-layer learning unit (neural network) is used to generate feature quantities in the user terminal 2, and the generated feature quantity data is transferred to a two-layer learning unit (for performance parameter learning) in the server 1. neural network).
  • shape data is input to a three-layer learning unit (neural network) that generates feature data, and the optimal feature data for learning in the server 1 is input. is learned to output.
  • the three-layer learning unit generates feature data using the learned learning model, and uploads the feature data to the server 1.
  • the server 1 learns the relationship between the feature data input to the two-layer learning unit and the performance parameters.
  • shape data is input as input information, and performance parameters are estimated from the input information through a combination process of the learning model generated on the user terminal 2 and the learning model generated on the server 1. be able to.
  • FIG. 12 is a diagram showing an embodiment in which the learning phase of the neural network is performed by three networks in the information processing system according to the present invention.
  • the information processing system of this embodiment arranges the first layer D21 of the neural network in the user terminal 2 connected to the first network, and connects it to a second network different from the first network.
  • the second layer D22 is placed in a cloud server that is connected to a third network
  • the third layer D23 is placed in a server 1 that is connected to a third network different from the second network.
  • FIG. 13 is a diagram showing an embodiment in which each of the plurality of layers of the learning section and the learning section itself are distributed and arranged in different servers in the information processing system according to the present invention.
  • a plurality of servers 1a and 1b are connected to a user terminal 2.
  • a first layer D31 and a second layer D32 of a learning section are arranged in the server 1a.
  • a third layer D33 and a fourth layer D34 of a learning section are arranged in the server 1b.
  • a learning process is executed on the uploaded feature data in each of the servers 1a and 1b, and the respective The performance parameters (output information) of the processing execution results are output from the servers 1a and 1b.
  • the learning process of the learning unit is illustrated, but the learning process is not limited to the learning process, and other processes may be executed.
  • each of the servers 1a and 1b may be caused to execute the same process and the results of each process may be compared.
  • the processing is separated into two servers 1a and 1b, but the processing is not limited to two servers 1a and 1b, and the processing may be separated into a plurality of servers.
  • FIG. 14 is a diagram showing an embodiment in which processing is divided into parts different from the example of FIG. 6 in the information processing system according to the present invention.
  • a part of the predetermined processing is performed on the user terminal 2 side, and a part of the remaining processing is performed on the server 1 side.
  • FIG. 6 a case has been described in which the processing is divided (separated) between the first layer D4 and the second layer D5 of the learning model, but other methods may be used. For example, as shown in FIG.
  • only the encoder D3 may be disposed in the user terminal 2, and the first layer D4, second layer D5, and decoder D6 of the learning section may be disposed in the server 1.
  • the encoder D3 in the user terminal 2, when the shape data (design information) to be processed is input to the encoder D3, the encoder D3 generates digital data with shape data of "0" and "1” and outputs it to the server 1. be done.
  • the digital data of "0" and "1" sent from the user terminal 2 is input to the learning section, and the remaining part of the process is executed.
  • the server 1 when digital data is input to the learning unit, processing is executed in the order of the first layer D4 and the second layer D5, and feature data is output from the second layer D5 to the decoder D6. be done.
  • the decoder D6 restores the pseudo shape from the input feature data, and outputs performance parameters and simulation results corresponding to the pseudo shape as output information.
  • the functional block diagram shown in FIG. 3 is merely an example and is not particularly limited. In other words, it is sufficient that the information processing system shown in FIG. 3 is equipped with a function that can execute the series of processes described above as a whole, and what kind of functional blocks and databases are used to realize this function is particularly dependent on FIG. 3.
  • the example is not limited to.
  • the locations of the functional blocks and the database are not limited to the example shown in FIG. 3, and may be arbitrary.
  • one functional block and database may be configured by a single piece of hardware, a single piece of software, or a combination thereof.
  • a program constituting the software is installed on a computer or the like from a network or a recording medium.
  • the computer may be a computer built into dedicated hardware. Further, the computer may be a computer that can execute various functions by installing various programs, such as a server, a general-purpose smartphone, or a personal computer.
  • Recording media containing such programs are not only comprised of removable media that is distributed separately from the device itself in order to provide the program to each user, but also are pre-installed in the device body and delivered to each user. Consists of provided recording media, etc.
  • the information processing apparatus to which the present invention is applied only needs to have the following configuration, and can take various embodiments.
  • the information processing system of one embodiment of the present invention includes: Some of the predetermined processing (e.g., obtaining performance parameters of a three-dimensional airfoil, analyzing the flow of airflow applied to a three-dimensional airfoil from a predetermined direction to simulate the behavior of the airflow, etc.)
  • a first information processing device for example, the user terminal 2 in FIG.
  • an information processing system including a second information processing device (for example, server 1 in FIG. 3) that executes The first information processing device (for example, the user terminal 2 in FIG.
  • predetermined information for example, processing target data such as shape data of a three-dimensional airfoil
  • a part of the predetermined processing for example, a curve of the cross section DM of the pseudo shape of the three-dimensional airfoil D1 (see FIG. 8)
  • processing to convert the coordinate values of multiple points required for generation into feature data is executed, and output information indicating the execution result (e.g. feature data etc.), a first execution unit (for example, the encoding unit 41 in FIG. 3) that outputs the predetermined information in a form that cannot be reproduced using only the output information; Equipped with The second information processing device (for example, the server 1 in FIG.
  • an acquisition unit for example, the information acquisition unit 71 in FIG. 3 that acquires the output information (for example, feature data, etc.) from the first information processing device (for example, the user terminal 2 in FIG. 3); Using the output information (for example, feature data, etc.) as input information, the remaining part of the predetermined processing (generating a curve of a cross-section of a pseudo-shaped three-dimensional airfoil from the feature data, and generating airflow resistance with respect to the cross-sectional shape) a second execution means (for example, the decoder 73 in FIG. 3), Equipped with In this case, the first information processing device (for example, the user terminal 2 in FIG.
  • predetermined information for example, shape data of a 3D model of a wing, etc.
  • predetermined processing for example, a cross section of a 3D model
  • output information indicating the execution results e.g. feature data, etc.
  • the second information processing device for example, the server 1 in FIG. 3
  • the second information processing device for example, the server 1 in FIG.
  • the output information for example, feature data, etc.
  • a process of generating a cross-sectional curve of a pseudo-shape, generating a performance parameter indicating the magnitude of airflow resistance with respect to the cross-sectional shape, and simulating a flow field according to the performance parameter is executed.
  • the first information processing device for example, the user terminal 2 in FIG. 3
  • the original specific shape cannot be restored, and if a third party were to Even if the feature data is leaked, there is no risk that the shape data itself stored in the first information processing device (for example, the user terminal 2 in FIG.
  • the second information processing device (for example, the user terminal 2 in FIG. 3) will be leaked, and the second information processing device (for example, the user terminal 2 in FIG. 3) The remaining part of the predetermined processing can be executed in the server 1, etc.). Furthermore, in the worst case scenario, even if the shape data is stolen, it is difficult for a third party to misuse the data unless the specifications (decoding rules, etc.) of the shape data are revealed. As a result, the first information processing device (for example, the user terminal 2 in FIG. 3) can prevent the leakage of predetermined information (processing target data) held by the first information processing device (for example, the user terminal 2 in FIG. 3). By having the second information processing device (for example, server 1 in FIG. 3) execute processing, the processing load on the first information processing device (for example, user terminal 2 in FIG. 3) can be reduced. The convenience of processing can be improved.
  • the output information (e.g., feature data) from the first information processing device is based on the target indicated by the predetermined information (e.g., three-dimensional airfoil shape data, airflow analysis results, etc.). Any one or more feature data (feature data, etc.) is sufficient.
  • the information processing device (for example, server 1 in FIG. 6) is The remaining part of the predetermined processing (for example, the processing to obtain performance parameters by analyzing the airflow applied to the three-dimensional airfoil from a predetermined direction) is the processing to perform predetermined machine learning (learning from training data). processing to input to the model 91 and learn it), It is sufficient that the output information (for example, feature data, etc.) from the first information processing device (for example, the user terminal 2 in FIG. 3) is a learning result during the predetermined machine learning.
  • predetermined processing for example, the processing to obtain performance parameters by analyzing the airflow applied to the three-dimensional airfoil from a predetermined direction
  • predetermined machine learning learning from training data.
  • the output information for example, feature data, etc.
  • the information processing device (for example, server 1 in FIG. 6) is The predetermined machine learning is learning using a neural network of N layers (N is an integer value of 2 or more), The output information from the first information processing device may be output information from K layers (K is an integer value of 1 or more and less than N) of the neural network.
  • the information processing device (for example, server 1 in FIG. 6) is
  • the predetermined process may include a process of performing a simulation (for example, a process of analyzing the flow of airflow that hits the three-dimensional airfoil from a predetermined direction and simulating the behavior (flow field) of the airflow).
  • An information processing method executed by the information processing system of one embodiment of the present invention is: A first step that executes a part of a predetermined process (for example, obtaining performance parameters of a three-dimensional airfoil, analyzing the flow of airflow applied to a three-dimensional airfoil from a predetermined direction, and simulating the behavior of the airflow, etc.) Information executed by an information processing system including an information processing device (for example, the user terminal 2 in FIG. 3) and a second information processing device (for example, the server 1 in FIG. 3) that executes the remaining part of the predetermined process.
  • the steps executed by the first information processing device for example, the user terminal 2 in FIG.
  • a feature in which coordinate values of a plurality of points necessary for generating a part of the predetermined processing (for example, a curve of a cross section of a 3D model) are arranged using predetermined information (for example, shape data of a 3D model of a wing, etc.) as input information.
  • a first execution step (for example, a process of converting the predetermined information into feature data converted into a quantity) and outputting the predetermined information in a form that cannot be reproduced with only the output information as output information indicating the execution result (e.g., 4 step S11 etc.), including;
  • the steps executed by the second information processing device include: an acquisition step (for example, step S12 in FIG.
  • a second execution step (for example, step S13 in FIG. 4), including, be able to.
  • the program of one embodiment of the present invention is A first step that executes a part of a predetermined process (for example, obtaining performance parameters of a three-dimensional airfoil, analyzing the flow of airflow applied to a three-dimensional airfoil from a predetermined direction, and simulating the behavior of the airflow, etc.) It is applied to an information processing system including an information processing device (for example, the user terminal 2 in FIG. 3) and a second information processing device (for example, the server 1 in FIG. 3) that executes the remaining part of the predetermined process.
  • a program, A computer for example, the CPU 11s of the user terminal 2 in FIG. 3) that controls the first information processing device (for example, the user terminal 2 in FIG.
  • a part of the predetermined processing using predetermined information for example, shape data of a three-dimensional airfoil, etc.
  • predetermined information for example, shape data of a three-dimensional airfoil, etc.
  • input information generating a pseudo-curve of the cross-section of the three-dimensional airfoil from the feature data and determining the magnitude of resistance with respect to the cross-sectional shape
  • a first execution step for example, step S11 in FIG. etc
  • Execute control processing including A computer (for example, the CPU 11k of the server 1 in FIG. 3) that controls the second information processing device (for example, the server 1 in FIG. 3), an acquisition step (for example, step S12 in FIG.
  • a second execution step for example, step S13 in FIG. 4 of performing a process of generating a performance parameter shown in FIG. execute control processing including be able to.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

情報の漏洩を防止しつつシステム上の処理の利便性を向上すること。 ユーザ端末2は、所定情報(3次元翼型の形状データ)から所定処理の一部(3次元翼型の断面の曲線を生成するのに必要な複数の点の座標値を並べた特徴量に変換した特徴量データを生成する処理等)を実行し、その実行結果を示す出力情報(特徴量データ)をサーバ1へ送信(出力)する。出力情報は、特徴量データ等であり、そのデータのみでは所定情報を再現不可能な形態のデータである。サーバ1は、デコード部61を備える。デコード部61は、ユーザ端末2から取得された特徴量データを用いて所定処理の残りの一部(特徴量データから3次元翼型の性能パラメータを求める処理)を実行する。

Description

情報処理システム、情報処理方法及びプログラム
 本発明は、情報処理システム、情報処理方法及びプログラムに関する。
 従来、クラウド上のサーバを利用し、所定処理についての学習や推論を実行させる技術が存在する。例えば、特許文献1には、クラウド上の会計処理装置を用いて会計処理サービスのための学習済モデルを生成したり、学習済モデルを用いて判定を行う技術が記載されている。
特開2018-97813号公報
 しかしながら、法律や会社内の要請により、クラウド上のサーバといった他の情報処理システムに、学習や推論のためのデータを送信することが許可されないことがあった。即ち、従来の学習や推論のプラットフォームは、データの取り扱いの要請の観点の利便性の向上が求められていた。
 本発明は、このような状況に鑑みてなされたものであり、情報の漏洩を防止しつつシステム上の処理の利便性を向上することを目的とする。
 上記目的を達成するため、本発明の一態様の情報処理システムは、
 所定処理の一部を実行する第1情報処理装置と、前記所定処理の残りの一部を実行する第2情報処理装置とを含む情報処理システムにおいて、
 前記第1情報処理装置は、
 所定情報を入力情報として用いて前記所定処理の一部を実行し、その実行結果を示す出力情報として、当該出力情報のみでは前記所定情報を再現不可能な形態で出力する第1実行手段、
 を備え、
 前記第2情報処理装置は、
 前記出力情報を前記第1情報処理装置から取得する取得手段と、
 前記出力情報を入力情報として用いて前記所定処理の残りの一部を実行する第2実行手段と、
 を備える。
 本発明の一態様の情報処理方法及びプログラムの夫々は、上述の本発明の一態様の情報処理装置に対応する情報処理方法及びプログラムの夫々である。
 本発明によれば、情報の漏洩を防止しつつシステム上の処理の利便性を向上することができる。
本発明に係る情報処理システムの一つの実施の形態のシステム構成の一例を示す図である。 図1の情報処理システムのうちサーバのハードウェア構成の一例を示す図である。 図2に示したハードウェア構成を備えるサーバを含む情報処理システムの機能的構成の一例を示す機能ブロック図である。 図2のハードウェア構成及び図3の機能的構成を有する情報処理システムの動作を示すフローチャートである。 図2のハードウェア構成及び図3の機能的構成を有する情報処理システムにおける所定処理を示す図である。 図5の所定処理をユーザ端末側の処理とサーバ側の処理に分割して実行する様子を示す図である。 図3の情報処理システムにおけるニューラルネットワークの学習処理の一例を示す図である。 図3の情報処理システムにおいて、元データから特徴量を抽出する処理の一例を示す図である。 図8の処理で異なる断面から抽出した複数の特徴量を行列へ変換する処理の一例を示す図である。 図6の処理の他の例であり、形状データ以外の、例えば気流の流れ場を特徴量へ変換する処理の一例を示す図である。 本発明に係る情報処理システムにおいて、多数のレイヤのニューラルネットワークを使用して特徴量データを抽出するする場合の実施形態を示す図である。 本発明に係る情報処理システムにおいて、ニューラルネットワークの学習フェーズが3つのネットワークで行われる場合の実施形態を示す図である。 本発明に係る情報処理システムにおいて、学習部の複数のレイヤの夫々や学習部自体を異なるサーバに分散配置する場合の実施形態を示す図である。 本発明に係る情報処理システムにおいて、図6の例とは異なる部分で処理を分割した実施形態を示す図である。
 以下、本発明の実施形態について図面を用いて説明する。
 まず、図1を参照して本発明に係る情報処理システムの一つの実施の形態のシステム構成について説明する。
 図1は、本発明に係る一つの実施の形態の情報処理システムのシステム構成の一例を示す図である。
 図1の情報処理システムは、サーバ1と、ユーザ端末2とを含むように構成されている。
 サーバ1、ユーザ端末2は、インターネット等の所定のネットワークNを介して相互に通信可能に接続されている。
 なお、ネットワークNは、その形態は特に限定されず、例えば、Bluetooth(登録商標)、Wi-Fi、LAN(Local Area Network)、インターネット等を採用することができる。
 情報処理システムは、サーバ1とユーザ端末2との間のネットワークNを介して通信より、例えば3次元翼型の形状データの気流の流れを解析して当該気流の流れ場をシミュレーション(模擬)する処理等の所定処理を実行する。
 サーバ1は、サービス提供者により管理される、例えばスマートフォン、タブレット端末、パーソナルコンピュータ(PC)等の情報処理装置であり、サービス提供者により提供されるサーバ用のアプリがインストールされている。
 サーバ1は、ユーザからの依頼により、所定処理のうち、残りの処理を実行する。
 具体的には、サーバ1は、ユーザ端末2と適宜通信をしながら、残りの処理として、例えばユーザ端末2から受信される特徴量データから3次元翼型の疑似形状の断面の曲線を生成しその断面形状に対する気流の抵抗の大きさを示す性能パラメータを生成したり、又はその性能パラメータに従い気流の流れ場をシミュレーション(模擬)する処理を含む各種制御処理を実行する。
 ユーザ端末2は、例えばユーザによる操作を受け付ける端末であり、例えばスマートフォン、タブレット端末、パーソナルコンピュータ(PC)等の情報処理装置である。ユーザ端末2には、サービス提供者により提供されるユーザ用のアプリがインストールされている。
 ユーザ端末2は、所定処理のうち一部の処理を実行する。具体的には、ユーザ端末2は、サーバ1と適宜通信しながら、所定処理のうち一部の処理として、例えばユーザ端末2に保存されている形状データから特徴量データを抽出する処理等を実行する。
 なお、本実施形態では、ユーザ端末2とサーバ1と協働の一例として、例えばユーザ端末2、サーバ1は、サービス提供者から提供される専用のアプリをインストールして、アプリで実行する第1手法を、「協働」の手法として採用した。
 この他、例えば、サーバ1が開示するウェブサイトにユーザ端末2がアクセスしてウェブサイトを表示する第2手法を採用してもよい。第2手法によれば、ユーザ端末2は、所定処理のうち一部の処理を実行し、残りの処理をサーバ1と適宜通信をしながらサーバ1に実行してもらう。
 このようにユーザ端末2とサーバ1が協働して本サービスを実現する手法は、第1手法だけに限定されない。
 例えば、また、第1手法と第2手法とを適宜組み合わせた手法を、「協働」の手法として採用することもできる。
 ただし、以下の例では、説明の便宜上、第1手法が「協働」の手法として採用されているものとして説明する。即ち、以下の例で、処理の動作主体がサーバ1となっている個所は例示に過ぎず、実装時には適宜、ユーザ端末2やその他の情報処理装置(サーバ1等)としてよいことは言うまでもない。
 本例では、図1の情報処理システムのうちサーバ1に着目して、以下でサーバ1のハードウェア構成の説明を行う。
 まず、図2を用いて上述した情報処理システムを構成するサーバのハードウェア構成の一例について説明する。
 図2は、図1の情報処理システムのうちサーバのハードウェア構成の一例を示す図である。
 サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。
 CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
 RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
 CPU11、ROM12及びRAM13はバス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19及びドライブ20が接続されている。
 出力部16は、液晶表示装置等のディスプレイやプリンタ、スピーカ等により構成され、各種情報が出力される。
 入力部17は、例えばキーボード、マウス等の入力デバイスにより構成され、各種情報が入力される。
 記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
 通信部19は、インターネットを含むネットワークNを介して他の装置との間で通信を行う。
 ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア30が適宜装着される。ドライブ20によってリムーバブルメディア30から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。
 また、リムーバブルメディア30は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
 上記では、サーバ1のハードウェア構成について説明したが、ユーザ端末2のハードウェア構成も同様であり、その説明は省略する。
 次に、図3を参照して、図2のハードウェア構成を有するサーバを含む情報処理システムの機能的構成について説明する。
 図3は、図2に示したハードウェア構成を備えるサーバを含む情報処理システムの機能的構成の一例を示す機能ブロック図である。
 なお、以下の説明では、サーバ1のハードウェアとユーザ端末2のハードウェアを区別するために、サーバ1のハードウェア要素にはkを付し、ユーザ端末2のハードウェア要素にはsを与して説明するものとする。
 図3に示すように、ユーザ端末2の記憶部18sには、処理対象としての元データの他に、学習モデル81が記憶されている。
 また、ユーザ端末2のCPU11sにおいては、所定処理を実行する際に、エンコード部41が機能する。
 エンコード部41には、エンコーダ51と学習部52が備えられている。学習部52については、所定処理を分割する際の分離の仕方によって、ユーザ端末2側に配置せずに、サーバ側の学習部72に統合してもよく、またその逆であってもよい。
 エンコード部41は、3次元翼型の形状データ等の処理対象データ(元データ)を入力情報として用いて所定処理の一部を実行し、その実行結果を示す出力情報として、当該出力情報のみでは所定情報を再現不可能な形態で出力する。
 ここで、所定処理は、例えば3次元翼型の形状データの気流を解析して当該気流の挙動を模擬する処理等であり、ユーザ端末2側で行う処理は、所定処理の一部であり、例えば元データから3次元翼型の断面の曲線を生成するのに必要な複数の点の座標値を並べた特徴量に変換した特徴量データに変換する処理である。
 また、再現不可能とは、現実的な時間内で、出力情報以外の情報が与えられない状態で再現不可能という意味である。
 エンコーダ51は、記憶部18sに記憶されている元データを読み出して、元データから3次元翼型の断面の曲線を生成するのに必要な“0”、“1”のデジタルデータを生成し、そのデジタルデータを生成する処理を実行し、その“0”、“1”のデジタルデータを、複数の点の座標値を並べた特徴量に変換した特徴量データ(特徴量行列)に変換し出力する(図9参照)。
 学習部52は、学習フェーズにおいて、学習モデル81を学習させる。また、運用フェースにおいて、学習部52は、エンコーダ51により生成された特徴量データ(特徴量行列)を学習モデル81を入力し、学習モデル81から低次元化した特徴量データを出力させる。
 具体的には、学習部52は、エンコーダ51により生成された特徴量データ(特徴量行列)を入力情報として、例えば第1レイヤ乃至第3レイヤの3層からなるニューラルネットワーク(図7参照)のうち第1レイヤにおける重み付け処理を実行し、その実行結果(特徴量データ)を出力する。
 ユーザ端末2からの出力情報は、特徴量データであり、サーバ1側に予め再現のための設定情報や再現手段(専用のデコーダ等)を備えておくことで、元データ又はそれに近似するデータを再現可能であり、特徴量データのみでは元データを再現不可能な形態と言える。
 なお、ユーザ端末2から出力する出力情報(例えば特徴量データ等)は、元データを所定情報とした場合にその所定情報が示す対象(例えば3次元翼型の形状データや気流解析結果のデータ等)の1以上の特徴量データ(特徴量)である、と言える。
 この実施形態では、エンコーダ51の後段に学習部52を配置し、出力情報を、所定の機械学習の途中(第1レイヤの学習のみ)の学習結果としたが、これ以外であってもよい。
 例えば学習部52において第1レイヤと第2レイヤの学習を行った結果を出力してもよい。また、学習部52を削除し、エンコーダ51の出力自体を出力情報として出力してもよい(図14参照)。
 また、サーバ1のCPU11kにおいては、所定処理を実行する際に、デコード部61が機能する。デコード部61には、情報取得部71と、学習部72と、デコーダ73と、模擬部74と、が機能する。
 デコード部61は、ユーザ端末2からインターネットを介して送信されてきた出力情報を取得し、当該出力情報を入力情報として用いて所定処理の残りの一部を実行する。
 所定処理の残りの一部は、例えば特徴量データから3次元翼型D1の疑似形状の断面DM(図8参照)の曲線を生成しその断面形状に対する気流の抵抗の大きさを示す性能パラメータを生成したり、当該断面形状に従い気流の流れ場を模擬する処理を含む。
 情報取得部71は、ユーザ端末2から出力情報を取得する。具体的には、情報取得部71は、ユーザ端末2から送信されてきた特徴量データを取得し、記憶部18kに一時記憶する。
 学習部72は、入力された特徴量データ(教師データ)を用いて所定の機械学習を実行し、学習結果を出力する。
 具体的には、学習部72は、3層のレイヤのうち第2レイヤと第3レイヤを有しており、例えば入力される特徴量データをレイヤの順に処理(重み付け、足し合わせる等の処理)を実行することで、ユーザ端末2側に存在する元データと同じデータを再現不可能な状態の特徴量データを生成する。
 即ち、所定の機械学習は、N層(Nは2以上の整数値)の学習モデル81、91(ニューラルネットワーク)を用いた学習であり、ユーザ端末2からの出力情報は、ニューラルネットワークのうちのK層(Kは1以上N未満の整数値)の出力情報(第1レイヤの学習結果)であり、サーバ1では、第1レイヤの学習結果を入力情報として、その残りの層(第2レイヤ及び第3レイヤ)の学習が実行される。
 所定処理の残りの一部は、例えば3次元翼型の形状データに所定方向から当てた気流の流れを解析して性能パラメータを得る処理等であり、教師データを学習モデル91に入力し学習させる処理(所定の機械学習を実行する処理)を含む。
 デコーダ73は、学習部72の学習結果から3次元翼型の疑似形状データを再現(生成し、3次元翼型に所定方向Kから当てた気流の流れを解析して、気流の流れについての3次元翼型の性能パラメータを得る処理を実行する。
 模擬部74は、3次元翼型に所定方向から当てた気流の流れをシミュレーション(模擬)する。具体的には、模擬部74は、デコーダ73により生成された3次元翼型の疑似形状データに気流を所定方向Kから当てた流れ場NBをシミュレーションする(図10参照)。即ち、所定処理には、シミュレーションを実行する処理(例えば3次元翼型に所定方向から当たる気流の流れを解析して当該気流の挙動(流れ場)を模擬する処理が含まれる。
 以上のように、この実施形態の情報処理システムによれば、所定処理(例えば3次元翼型の性能試験等をデータ上で行う処理)を実行するにあたり、ユーザ端末2は、3次元翼型の形状データからその処理の一部(3次元翼型の断面の曲線を生成するのに必要な複数の点の座標値を並べた特徴量に変換した特徴量データを生成する処理等)を実行し、その実行結果を示す特徴量データをサーバ1へ送信(出力)する。特徴量データは、それのみでは元データを再現不可能な形態のデータであり、この特徴量データが流出又は盗難された場合であっても特徴量データのみでは、元データを復元することはできない。
 また、サーバ1は、デコード部61を備え、ユーザ端末2から送信されてきた特徴量データを用いて所定処理の残りの一部を実行するので、ユーザ側の処理の負担を軽減することができる。
 この結果、元データの漏洩を防止しつつシステム上の処理の利便性を向上することができる。
 続いて、図4を参照して図3の機能的構成を有する情報処理システムの動作を説明する。
 図4は、図3の機能的構成を有する情報処理システムの動作を示すフローチャートである。
 ユーザ端末2では、所定処理(例えば3次元翼型の性能試験等をデータ上で行う処理)を実行するにあたり、ステップS11において、エンコード部41は、3次元翼型の形状データからその処理の一部を実行し、その実行結果を示す特徴量データをサーバ1へ送信(出力)する。
 サーバ1では、ステップS12において、デコード部61が、ユーザ端末2から送信されてきた特徴量データを取得すると、ステップS13において、当該特徴量データを入力情報として用いて上記所定処理の残りの一部の処理を実行し、所定処理の実行結果をユーザ端末2に送信(出力)する。
 所定処理の実行結果は、例えばデコーダ73による処理の実行結果として得られる性能パラメータや模擬部74による処理の実行結果として得られた気流の流れ場を模擬した模擬結果(シミュレーション結果)等である。
 ユーザ端末2は、サーバ1から送信されてきた所定処理の実行結果を受信すると、ステップS14において、その実行結果を画面に表示する。
 このようにこの情報処理システムの動作によれば、ユーザ端末2側で処理の一部を実行し、サーバ1側で処理の残りの一部を実行することで、ユーザ端末2が持つ元データの漏洩を防止しつつ、ユーザ端末2がサーバ1に処理を実行させることで、ユーザの処理の負担を軽減することができる。
 続いて、図5乃至図14を参照して本情報処理システムにおける具体的な処理の例について説明する。
 まず、図5を参照して、情報処理システムにおいて、機械形状の一例として3次元翼型を想定した場合の所定処理の概要を説明する。
 図5は、図2のハードウェア構成及び図3の機能的構成を有する情報処理システムにおいて、機械形状の一例として3次元翼型を想定した場合の所定処理の概要を説明するための図である。
 図5に示すように、3次元翼型D1の形状は、3次元の形状データ(元データ)としてエンコーダD3に入力されて、“0”、“1”のデジタルデータに変換される。元データは、学習モデルにインプットされる際に、ボクセルやメッシュ、関数表現等のデータに変換される。
 図5では、一例として3次元の翼型D1が直方体のボクセルD2に分割されている。ボクセルD2として分割された形状データは、エンコーダD3を通じて機械学習モデルに入力される。
 この図5では一例としてエンコーダD3と2層のレイヤD4、D5を備えるオートエンコーダの学習モデルの例を記載している。この例以外に、例えばエンコーダD3とは切り離したニューラルネットワークやディープニューラルネットワークであってもよく、GAN等のその他の学習モデルであってもよい。また、処理結果としての出力は、性能パラメータではなく、流れ場の画像であったり複数のパラメータである可能性もある。モデルによってはエンコーダやデコーダが存在せず、レイヤ部分に形状データが入力され、出力が得られる場合もある。
 図5では、記憶部18sから読み出さ形状データD2は、デコーダD3を通じて学習モデルのレイヤD4、D5に入力されて特徴量として低次元化される。この特徴量は、デコーダD6によりデコードされて性能パラメータとして出力される。出力される性能パラメータは、抵抗等の流体的な性能や、強度等の構造的な性能が想定される。
 また、上述した処理は、機械設計の例を示したが、この例だけでなく、例えば材料や創薬分野等にも適用することができる。その場合はその分野において設計、開発の目的となるパラメータが設定される。また、入力される所定情報も形状データだけではなく分子構造や化学式等を入力してもよい。
 図5の学習モデルは、入力された形状データに対して性能パラメータを出力するように学習されたものであるが、運用フェーズでは、この学習モデルを使用して設計形状の性能を高速に推定する。実際の運用フェーズで学習モデルを使用する際には、学習モデルをすべてローカルシステム(例えば図1、図3のユーザ端末2)にダウンロードして、ローカルシステムの夫々において学習を実行してもよい。
 次に、図6を参照して図5の所定処理をユーザ端末側(ローカルシステム)の処理とサーバ側(クラウドシステム)の処理に分割(分離)して実行する様子を説明する。
 図6は、図5の所定処理をユーザ端末側(ローカルシステム)の処理とサーバ側(クラウドシステム)の処理に分割して実行する様子を示す図である。
 図5の所定処理のうち処理の一部をユーザ端末2側で行い、残りの処理の一部をサーバ1側で行う場合の一例として、例えば図2に示すように、処理対象の形状データ(設計情報)がエンコーダD3に入力されて、学習モデルの第1レイヤD4に入力されて、学習モデルの第1レイヤD4から特徴量データが出力されるまでの処理、つまり形状データがエンコーダD3及び最初のレイヤD4で特徴量に変換されるまでの処理をユーザ端末2側で行う。
 処理の残りの一部は、ユーザ端末2から送信されてきた特徴量データをサーバ1が取得し、サーバ1において、特徴量データを入力情報として学習モデルの第2レイヤD5に入力されて、低次元化された上で、デコーダD6で疑似形状データにデコードされて、その形状での性能パラメータが出力される場合の例を示している。
 このようにユーザ端末2側とサーバ1側に処理を分離することで、特徴量として抽出された値からは元の具体的な形状の復元ができない状態になっており、仮にハッキング等で第3者に情報が漏洩した場合でも、形状データ自体が漏洩する危険がなくなる。また、入力する形状データの仕様が明らかにならない限りは、第3者による学習モデル自体の悪用も困難である。
 図6では一例として学習部の複数のレイヤのうち第1レイヤD4と第2レイヤD5との間で処理を分割(分離)したが、分離する部位は、どの部位であってもよく、例えばエンコーダD3と学習部の第1レイヤD4との間の部分で分割してもよく、第2レイヤD5とデコーダD6との間で分割してもよい。
 また、学習手法によって、分割される位置が変化してもよい。少なくとも特徴量に変換された後の工程がサーバ1等のクラウドシステム上で処理されればよい。
 図7は、基本的な学習モデル(ニューラルネットワーク)の概念図である。
 学習モデルの学習をユーザ端末2(ローカルシステム)とサーバ1(クラウドシステム)に分割する場合、夫々のレイヤで分離することができる。
 図7に示すように、この例のニューラルネットワークは、第1レイヤ、第2レイヤ、第3レイヤからなる3層のニューラルネットワークである。
 それぞれのノードが次のレイヤのノードに全結合されている。まず学習フェーズにおいて、ニューラルネットワークに入力されたデータは、第1レイヤのノードに割り当てられる。その後、重み関数wとバイアスbにより値が変換されて第2レイヤへ入力される。
 第1レイヤと第2レイヤの間で処理を分離した場合、変換された値は、ユーザ端末2(ローカルシステム)からサーバ1(クラウドシステム)へアップロードされ、第2レイヤから先の処理は、サーバ1で実行される。
 第2レイヤの値は、非線形変換と重み関数w’とバイアスb’により変換されて第3レイヤへ結果が出力される。
 このとき、逆伝搬法を使用する場合は、第2レイヤの重み関数w’とバイアスb’が更新された後、その結果がサーバ1からユーザ端末2へダウンロードされ、重み関数wとバイアスbが更新される。
 これを繰り返すことで学習モデルが生成され、運用フェーズにおいてはこの学習モデルがユーザ端末2上で使用される。
 この方式はあくまでニューラルネットワークを用いた場合の一例であり、ディープニューラルネットワークやGAN等を使用する場合でも、学習モデルの処理の途中でユーザ端末2とサーバ1が切り替わる。
 図5、図6に示した例は、機械学習における複数のレイヤを途中で分割することを想定しているが、これはシミュレーションを含むワークフローにも適用される。対象が機械形状であり、例えば翼型の性能を把握するための流体解析が必要であったとする。
 このとき、抽出された特徴量に対して、1次元的な流体解析や熱解析や3次元的な流体解析が実行可能である。
 例えば1次元的な解析であれば、一般的な場合においても設計対象となる物体の3次元的な形状情報を使用することなく解析が可能である。そのため、特徴量の抽出のみをユーザ端末2で実行しておくことで、その後の解析をサーバ1で実行した場合でも、第3者はサーバ1の情報から設計情報を復元することができない。
 3次元的な解析の場合には、解析手法も特徴量の次元に合わせた学習モデルの使用が必要となる。
 一例として、流体解析においては流れ場の支配方程式を動的モード分解等を使用して低次元化することが可能である。この低次元化した流れ場の情報をサーバ1で解析して再現することで、低次元化した流れ場の情報が第3者によって読み取られたとしても、ユーザ端末2に保管されている元データ(設計情報)が復元されることを防ぐことができる。
 ここで、図8及び図9を参照して、元データから特徴量を抽出する処理について説明する。
 図8は、元データ(3次元翼型の形状データ)の特徴点を抽出する処理を説明するための図である。
 図9は、図8の処理で異なる断面から抽出した複数の特徴量を行列へ変換する処理の一例を示す図である。
 元データ(3次元翼型の形状データ)を特徴量へ変換する上で、図8に示す3次元翼型D1に対する抵抗の大きさを性能パラメータとして最終的に把握することを目的と仮定する。
 この場合、抵抗に影響するのは2次元の断面形状であるため、任意の断面DMを仮定し、この断面DMに対して、3次元翼型D1の断面の曲線を生成するのに必要な点を抽出して、これらの座標値を並べたものを特徴量として抽出する。
 この座標値は、エンコーディング等の手法により異なる数値に変換されることで、第3者による元形状の復元を、より困難にすることも可能である。
 図9に示すように、図8の処理により、異なる断面に対して特徴量を抽出すると、同時に複数の特徴量が抽出される。これら複数の特徴量を行列(特徴量行列)へ変換する処理を実行する。
 この処理により、サーバ1上で行われる学習効率が向上すると共に、第3者によるサーバ1への不正アクセス等で特徴量行列が盗難された場合でも、特徴量行列のみでは元データの復元を不可能にすることができる。
 ここで、図10を参照して本情報処理システムにおいて、形状データ以外から特徴量を抽出する例について説明する。
 図10は、気流の流れ場を特徴量へ変換する場合の一例を示す図である。
 形状データではなく物理的なパラメータの一つとして、例えば図10に示すように、3次元翼型D1に対して、所定方向Kから風等の気流を当ててその流れ場NBを特徴量へ変換する。
 この図10の例では、左側から3次元翼型D1に向けて風の流れがある場合、3次元翼型D1に流れがさえぎられることで気流が乱れ、例えば渦等の流れ場NBが発生する。
 このような流れ場NBは、Proper Orthogonal Decomposition(POD)やDynamic Mode Decomposition(DMD)、Singular Value Decomposition(SVD)等の手法により特徴量へ分解することが可能であり、最終的には行列表記とすることが可能である。
 性能パラメータを得るうえで、形状ではなく流れ場NB等の物理量を学習部へ入力することも考えられる。この場合においても変換された特徴量データから元データ(形状データ)の特定を不可能にすることができる。
 以下、図11乃至図14を参照して、本発明に係る情報処理システムの他の実施形態について説明する。
 まず、図11を参照して、多数のレイヤのニューラルネットワークを使用して特徴量データを抽出する実施形態を説明する。
 図11は、本発明に係る情報処理システムにおいて、多数のレイヤのニューラルネットワークを使用して特徴量データを抽出するする場合の実施形態を示す図である。
 図11に示すように、この実施形態は、ユーザ端末2に、第1レイヤD11、第2レイヤD12及び第3レイヤD13からなる3層の学習部(ニューラルネットワーク)を配置する一方、サーバ1には、第4レイヤD14、第5レイヤD15からなる2層の学習部(ニューラルネットワーク)を配置した例である。
 この図11の実施形態では、ユーザ端末2における特徴量の生成に3層の学習部(ニューラルネットワーク)を使用し、生成された特徴量データをサーバ1の2層の学習部(性能パラメータ学習用のニューラルネットワーク)に入力する。
 この場合、まず、ユーザ端末2において、最初の学習フェーズでは、形状データが、特徴量データを生成する3層の学習部(ニューラルネットワーク)に入力され、サーバ1での学習における最適な特徴量データを出力するように学習される。
 次の運用フェーズでは、3層の学習部において、学習された学習モデルを使用して特徴量データを生成し、当該特徴量データをサーバ1にアップロードする。
 その後、サーバ1では、学習フェーズにおいて、2層の学習部に入力された特徴量データと性能パラメータの関係性が学習される。
 運用フェーズにおいては、入力情報として形状データが入力されることで、ユーザ端末2で生成された学習モデルとサーバ1上で生成された学習モデルとの組み合わせ処理により、入力情報から性能パラメータを推定することができる。
 続いて、図12を参照して、ニューラルネットワークの学習フェーズが3つのネットワークで行われる場合の実施形態について説明する。
 図12は、本発明に係る情報処理システムにおいて、ニューラルネットワークの学習フェーズが3つのネットワークで行われる場合の実施形態を示す図である。
 図12に示すように、この実施形態の情報処理システムは、第1ネットワークに接続されているユーザ端末2にニューラルネットワークの第1レイヤD21を配置し、第1ネットワークとは異なる第2ネットワークに接続されているクラウドサーバに第2レイヤD22を配置し、第2ネットワークとは異なる第3ネットワークに接続されているサーバ1に第3レイヤD23を配置して構成されている。
 この実施形態のようにニューラルネットワークの学習フェーズにおいて、異なる3つのネットワークを使用する場合、ユーザ端末2側で、入力データから特徴量データが生成された後に、ユーザ端末2のネットワークとは異なる他のネットワーク上のクラウドシステムで学習の一部が処理された後に、クラウドシステムとは異なる他のネットワークに接続されているサーバ1で学習の残りの一部が処理され、出力情報として性能パラメータが学習される。
 続いて、図13を参照して、学習部の複数のレイヤの夫々や学習部自体を異なるサーバに分散配置する場合の実施形態について説明する。
 図13は、本発明に係る情報処理システムにおいて、学習部の複数のレイヤの夫々や学習部自体を異なるサーバに分散配置する場合の実施形態を示す図である。
 図13に示すように、この実施形態の情報処理システムは、ユーザ端末2に複数のサーバ1a、1bが接続されている。
 サーバ1aには、学習部の第1レイヤD31、第2レイヤD32が配置されている。
 サーバ1bには、学習部の第3レイヤD33、第4レイヤD34が配置されている。
 この場合、ユーザ端末2から、サーバ1a、1bの夫々に特徴量データがアップロードされると、夫々のサーバ1a、1bにおいて、アップロードされた特徴量データに対して、学習処理が実行され、夫々のサーバ1a、1bから処理実行結果の性能パラメータ(出力情報)が出力される。
 この例では、学習部の学習処理を例示したが、学習処理に限定されず、別の処理を実行してもよい。また夫々のサーバ1a、1bに同じ処理を実行させて互いの処理実行結果を比較するようにしてもよい。
 この構成によれば、ユーザ端末2から出力される1つの特徴量データに対して同時に別の処理(同じ処理であってもよい)が実行できるので、タイミング等の処理実行条件を含めて処理結果を比較することができる。
 なお、図13の例では2台のサーバ1a、1bに処理を分離したが、2台のサーバ1a、1bに限定されず、複数のサーバに処理を分離させてもよい。
 続いて、図14を参照して、図6の例とは異なる部分で処理を分割した実施形態について説明する。
 図14は、本発明に係る情報処理システムにおいて、図6の例とは異なる部分で処理を分割した実施形態を示す図である。
 本実施形態の情報処理システムは、所定処理のうち処理の一部をユーザ端末2側で行い、残りの処理の一部をサーバ1側で行うというものである。
 その一例として、図6では、学習モデルの第1レイヤD4と第2レイヤD5との間で処理を分割(分離)した事例について説明したが、これ以外であってもよい。
 例えば図14に示すように、ユーザ端末2にエンコーダD3のみを配置し、サーバ1に、学習部の第1レイヤD4、第2レイヤD5、デコーダD6を配置してもよい。
 この場合、ユーザ端末2において、処理対象の形状データ(設計情報)がエンコーダD3に入力されると、エンコーダD3により形状データが“0”、“1”のデジタルデータが生成されてサーバ1へ出力される。
 サーバ1では、ユーザ端末2から送られてきた“0”、“1”のデジタルデータが学習部に入力されて、処理の残りの一部が実行される。
 具体的には、サーバ1において、学習部にデジタルデータが入力されると、第1レイヤD4、第2レイヤD5の順に処理が実行されて、第2レイヤD5から特徴量データがデコーダD6に出力される。デコーダD6では、入力された特徴量データから疑似形状が復元されて、疑似形状に対応する性能パラメータや模擬結果が出力情報として出力される。
 この図14の例によれば、ユーザ端末2側とサーバ1側に処理を、エンコーダD3と学習部の第1レイヤD4との間で分離することで、ユーザ端末2からサーバ1へ送信されるのは、“0”、“1”のデジタルデータであり、このデータのみでは元の具体的な形状の復元ができないため、仮にハッキング等で第3者に情報が漏洩した場合でも、ユーザ端末2側の形状データ自体が漏洩する危険がなくなる。
 以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
 例えば、図3に示した機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が図3の情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロック及びデータベースを用いるのかは、特に図3の例に限定されない。
 また、機能ブロック及びデータベースの存在場所も、図3の例に限定されず、任意でよい。
 また、1つの機能ブロック及びデータベースは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
 各機能ブロック及びデータベースの処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
 コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他、汎用のスマートフォンやパーソナルコンピュータであってもよい。
 このようなプログラムを含む記録媒体は、各ユーザにプログラムを提供するために装置本体とは別に配布される、リムーバブルメディアにより構成されるだけではなく、装置本体に予め組み込まれた状態で各ユーザに提供される記録媒体等で構成される。
 以上を換言すると、本発明が適用される情報処理装置は、次のような構成を有していれば足り、各種各様な実施の形態を取ることができる。
 (1)即ち、本発明の一態様の情報処理システムは、
 所定処理(例えば3次元翼型の性能パラメータを得たり、3次元翼型に所定方向から当てた気流の流れを解析して当該気流の挙動を模擬する処理等)の一部(形状データから特徴量データを抽出する迄の処理)を実行する第1情報処理装置(例えば図3のユーザ端末2等)と、前記所定処理の残りの一部(特徴量データから3次元翼型の疑似形状の断面の曲線を生成しその断面形状に対する気流の抵抗の大きさを示す性能パラメータを生成し、その性能パラメータに従い流れ場を模擬する処理データを再現し、気流を当てて流れ場を模擬する処理)を実行する第2情報処理装置(例えば図3のサーバ1等)とを含む情報処理システムにおいて、
 前記第1情報処理装置(例えば図3のユーザ端末2等)は、
 所定情報(例えば3次元翼型の形状データ等の処理対象データ)を入力情報として用いて前記所定処理の一部(例えば3次元翼型D1の疑似形状の断面DM(図8参照)の曲線を生成するのに必要な複数の点の座標値を並べた特徴量に変換した特徴量データ(図9参照)に変換する処理等)を実行し、その実行結果を示す出力情報(例えば特徴量データ等)として、当該出力情報のみでは前記所定情報を再現不可能な形態で出力する第1実行手段(例えば図3のエンコード部41等)と、
 を備え、
 前記第2情報処理装置(例えば図3のサーバ1等)は、
 前記出力情報(例えば特徴量データ等)を前記第1情報処理装置(例えば図3のユーザ端末2等)から取得する取得手段(例えば図3の情報取得部71等)と、
 前記出力情報(例えば特徴量データ等)を入力情報として用いて前記所定処理の残りの一部(特徴量データから3次元翼型の疑似形状の断面の曲線を生成しその断面形状に対する気流の抵抗の大きさを示す性能パラメータを生成し、その性能パラメータに従い流れ場を模擬する処理)を実行する第2実行手段(例えば図3のデコーダ73等)と、
 を備える。
 この場合、第1情報処理装置(例えば図3のユーザ端末2等)は、所定情報(例えば翼の3Dモデルの形状データ等)を入力情報として用いて所定処理の一部(例えば3Dモデルの断面の曲線を生成するのに必要な複数の点の座標値を並べた特徴量に変換した特徴量データに変換する処理等)を実行し、その実行結果を示す出力情報(例えば特徴量データ等)を、当該出力情報のみでは所定情報を再現不可能な形態で第2情報処理装置(例えば図3のサーバ1等)へ出力する。
 一方、第2情報処理装置(例えば図3のサーバ1等)は、出力情報(例えば特徴量データ等)を入力情報として用いて所定処理の残りの一部(特徴量データから3次元翼型の疑似形状の断面の曲線を生成しその断面形状に対する気流の抵抗の大きさを示す性能パラメータを生成し、その性能パラメータに従い流れ場を模擬する処理)を実行する。
 第1情報処理装置(例えば図3のユーザ端末2等)により抽出された特徴量データからは、元の具体的な形状が復元不可能な状態になっており、仮にハッキング等で第3者に特徴量データが漏洩した場合でも、第1情報処理装置(例えば図3のユーザ端末2等)に格納されている形状データ自体が漏洩する危険性がなく、第2情報処理装置(例えば図3のサーバ1等)において、所定処理の残りの一部を実行することができる。
 また、最悪、形状データが盗難されたとしても、形状データの仕様(デコードルール等)が明らかにならない限りは、第3者によるデータの悪用も困難である。
 この結果、第1情報処理装置(例えば図3のユーザ端末2等)が持つ所定情報(処理対象データ)の漏洩を防止しつつ、第1情報処理装置(例えば図3のユーザ端末2等)が第2情報処理装置(例えば図3のサーバ1等)に処理を実行させることで、第1情報処理装置(例えば図3のユーザ端末2等)側の処理の負担を少なくする等して、システムとしての処理の利便性を向上することができる。
 (2)本発明の一態様の情報処理装置(例えば図6のサーバ1等)は、
 前記第1情報処理装置(例えば図3のユーザ端末2等)からの前記出力情報(例えば特徴量データ等)は、前記所定情報が示す対象(例えば3次元翼型の形状データや気流解析結果のデータ等)の1以上の特徴量データ(特徴量)であれば足りる。
 (3)上記情報処理装置(例えば図6のサーバ1等)は、
 前記所定処理の残りの一部は(例えば3次元翼型に所定方向から当てた気流の流れを解析して性能パラメータを得る処理等)は、所定の機械学習を実行する処理(教師データを学習モデル91に入力し学習させる処理)を含み、
 前記第1情報処理装置(例えば図3のユーザ端末2等)からの前記出力情報(例えば特徴量データ等)は、前記所定の機械学習の途中の学習結果であれば足りる。
 (4)上記情報処理装置(例えば図6のサーバ1等)は、
 前記所定の機械学習は、N層(Nは2以上の整数値)のニューラルネットワークを用いた学習であり、
 前記第1情報処理装置からの前記出力情報は、前記ニューラルネットワークのK層(Kは1以上N未満の整数値)の出力情報であれば足りる。
 (5)上記情報処理装置(例えば図6のサーバ1等)は、
 前記所定処理は、シミュレーションを実行する処理(例えば3次元翼型に所定方向から当たる気流の流れを解析して当該気流の挙動(流れ場)を模擬する処理等)を含むことができる。
 (6)本発明の一態様の情報処理システムが実行する情報処理方法は、
 所定処理(例えば3次元翼型の性能パラメータを得たり、3次元翼型に所定方向から当てた気流の流れを解析して当該気流の挙動を模擬する処理等)の一部を実行する第1情報処理装置(例えば図3のユーザ端末2等)と、前記所定処理の残りの一部を実行する第2情報処理装置(例えば図3のサーバ1等)とを含む情報処理システムが実行する情報処理方法において、
 前記第1情報処理装置(例えば図3のユーザ端末2等)が実行するステップとして、
 所定情報(例えば翼の3Dモデルの形状データ等)を入力情報として用いて前記所定処理の一部(例えば3Dモデルの断面の曲線を生成するのに必要な複数の点の座標値を並べた特徴量に変換した特徴量データに変換する処理等)を実行し、その実行結果を示す出力情報として、当該出力情報のみでは前記所定情報を再現不可能な形態で出力する第1実行ステップ(例えば図4のステップS11等)、
 を含み、
 前記第2情報処理装置が実行するステップとして、
 前記出力情報(例えば特徴量データ等)を前記第1情報処理装置から取得する取得ステップ(例えば図4のステップS12等)と、
 前記出力情報(例えば特徴量データ等)を入力情報として用いて前記所定処理の残りの一部(特徴量データから3Dモデルの断面の曲線を生成して断面形状に対する抵抗の大きさを示す性能パラメータを生成する処理)を実行する第2実行ステップ(例えば図4のステップS13等)と、
 を含む、
 ことができる。
 (7)本発明の一態様のプログラムは、
 所定処理(例えば3次元翼型の性能パラメータを得たり、3次元翼型に所定方向から当てた気流の流れを解析して当該気流の挙動を模擬する処理等)の一部を実行する第1情報処理装置(例えば図3のユーザ端末2等)と、前記所定処理の残りの一部を実行する第2情報処理装置(例えば図3のサーバ1等)とを含む情報処理システムに適用されるプログラムであって、
 前記第1情報処理装置(例えば図3のユーザ端末2等)を制御するコンピュータ(例えば図3のユーザ端末2のCPU11s等)に、
 所定情報(例えば3次元翼型の形状データ等)を入力情報として用いて前記所定処理の一部(特徴量データから3次元翼型の断面の疑似曲線を生成して断面形状に対する抵抗の大きさを示す性能パラメータを生成する処理)を実行し、その実行結果を示す出力情報として、当該出力情報のみでは前記所定情報を再現不可能な形態で出力する第1実行ステップ(例えば図4のステップS11等)、
 を含む制御処理を実行させ、
 前記第2情報処理装置(例えば図3のサーバ1等)を制御するコンピュータ(例えば図3のサーバ1のCPU11k等)に、
 前記出力情報(例えば特徴量データ等)を前記第1情報処理装置から取得する取得ステップ(例えば図4のステップS12等)と、
 前記出力情報(例えば特徴量データ等)を入力情報として用いて前記所定処理の残りの一部(特徴量データから3次元翼型の断面の疑似曲線を生成して断面形状に対する抵抗の大きさを示す性能パラメータを生成する処理)を実行する第2実行ステップ(例えば図4のステップS13等)と、
 を含む制御処理を実行させる、
 ことができる。
 1・・・サーバ、2・・・ユーザ端末、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・出力部、17・・・入力部、18・・・記憶部、19・・・通信部、20・・・ドライブ、41・・・エンコード部、51・・・エンコーダ、52、72・・・学習部、61・・・デコード部、71・・・情報取得部、73・・・デコーダ、74・・・模擬部、N・・・ネットワーク

Claims (8)

  1.  所定処理の一部を実行する第1情報処理装置と、前記所定処理の残りの一部を実行する第2情報処理装置とを含む情報処理システムにおいて、
     前記第1情報処理装置は、
     所定情報を入力情報として用いて前記所定処理の一部を実行し、その実行結果を示す出力情報として、当該出力情報のみでは前記所定情報を再現不可能な形態で出力する第1実行手段、
     を備え、
     前記第2情報処理装置は、
     前記出力情報を前記第1情報処理装置から取得する取得手段と、
     前記出力情報を入力情報として用いて前記所定処理の残りの一部を実行する第2実行手段と、
     を備える情報処理システム。
  2.  前記第1情報処理装置からの前記出力情報は、前記所定情報が示す対象の1以上の特徴量である
     請求項1に記載の情報処理システム。
  3.  前記所定処理は、所定の機械学習を実行する処理を含み、
     前記第1情報処理装置からの前記出力情報は、前記所定の機械学習の途中の学習結果である、
     請求項1に記載の情報処理システム。
  4.  前記所定の機械学習は、N層(Nは2以上の整数値)のニューラルネットワークを用いた学習であり、
     前記第1情報処理装置からの前記出力情報は、前記ニューラルネットワークのK層(Kは1以上N未満の整数値)の出力情報である、
     請求項1に記載の情報処理システム。
  5.  前記所定処理のうち前記残りの一部は、シミュレーションを実行する処理を含む、
     請求項1に記載の情報処理システム。
  6.  前記第2情報処理装置は、インターネットに接続されたサーバであり、
     前記第1情報処理装置は、前記出力情報を前記インターネットを介して前記第2情報処理装置に送信する、
     請求項1に記載の情報処理システム。
  7.  所定処理の一部を実行する第1情報処理装置と、前記所定処理の残りの一部を実行する第2情報処理装置とを含む情報処理システムが実行する情報処理方法において、
     前記第1情報処理装置が実行するステップとして、
     所定情報を入力情報として用いて前記所定処理の一部を実行し、その実行結果を示す出力情報として、当該出力情報のみでは前記所定情報を再現不可能な形態で出力する第1実行ステップ、
     を含み、
     前記第2情報処理装置が実行するステップとして、
     前記出力情報を前記第1情報処理装置から取得する取得ステップと、
     前記出力情報を入力情報として用いて前記所定処理の残りの一部を実行する第2実行ステップと、
     を含む情報処理方法。
  8.  所定処理の一部を実行する第1情報処理装置と、前記所定処理の残りの一部を実行する第2情報処理装置とを含む情報処理システムに適用されるプログラムであって、
     前記第1情報処理装置を制御するコンピュータに、
     所定情報を入力情報として用いて前記所定処理の一部を実行し、その実行結果を示す出力情報として、当該出力情報のみでは前記所定情報を再現不可能な形態で出力する第1実行ステップ、
     を含む制御処理を実行させ、
     前記第2情報処理装置を制御するコンピュータに、
     前記出力情報を前記第1情報処理装置から取得する取得ステップと、
     前記出力情報を入力情報として用いて前記所定処理の残りの一部を実行する第2実行ステップと、
     を含む制御処理を実行させる、
     プログラム。
PCT/JP2023/034117 2022-09-20 2023-09-20 情報処理システム、情報処理方法及びプログラム WO2024063096A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022149423 2022-09-20
JP2022-149423 2022-09-20

Publications (1)

Publication Number Publication Date
WO2024063096A1 true WO2024063096A1 (ja) 2024-03-28

Family

ID=90454688

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/034117 WO2024063096A1 (ja) 2022-09-20 2023-09-20 情報処理システム、情報処理方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2024063096A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018011842A1 (ja) * 2016-07-11 2018-01-18 株式会社Uei 階層ネットワークを用いた演算処理システム
JP2020069492A (ja) * 2018-10-30 2020-05-07 ファナック株式会社 加工条件設定装置及び三次元レーザ加工システム
JP2020155011A (ja) * 2019-03-22 2020-09-24 株式会社中電工 図面学習装置
JP2021135739A (ja) * 2020-02-27 2021-09-13 株式会社日立製作所 運転状態分類システム、および、運転状態分類方法
JP2022076477A (ja) * 2020-11-09 2022-05-19 キヤノンメディカルシステムズ株式会社 医用情報処理装置、医用情報処理システム及び医用情報処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018011842A1 (ja) * 2016-07-11 2018-01-18 株式会社Uei 階層ネットワークを用いた演算処理システム
JP2020069492A (ja) * 2018-10-30 2020-05-07 ファナック株式会社 加工条件設定装置及び三次元レーザ加工システム
JP2020155011A (ja) * 2019-03-22 2020-09-24 株式会社中電工 図面学習装置
JP2021135739A (ja) * 2020-02-27 2021-09-13 株式会社日立製作所 運転状態分類システム、および、運転状態分類方法
JP2022076477A (ja) * 2020-11-09 2022-05-19 キヤノンメディカルシステムズ株式会社 医用情報処理装置、医用情報処理システム及び医用情報処理方法

Similar Documents

Publication Publication Date Title
KR102302609B1 (ko) 신경망 아키텍처 최적화
US11380034B2 (en) Semantically-consistent image style transfer
KR102107709B1 (ko) 공간 트랜스포머 모듈들
US10699388B2 (en) Digital image fill
US20200081916A1 (en) Predictive modeling with machine learning in data management platforms
CN107766940A (zh) 用于生成模型的方法和装置
KR20190031318A (ko) 도메인 분리 뉴럴 네트워크들
US10810018B2 (en) Device with extensibility
CN111046027A (zh) 时间序列数据的缺失值填充方法和装置
WO2020237188A1 (en) Fully attentional computer vision
CN112164008B (zh) 图像数据增强网络的训练方法及其训练装置、介质和设备
US20200004891A1 (en) Prediction integration for data management platforms
WO2020240808A1 (ja) 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム
WO2024063096A1 (ja) 情報処理システム、情報処理方法及びプログラム
Bald et al. spatialMaxent: Adapting species distribution modeling to spatial data
Agulhari et al. Robust real‐time parameter estimation for linear systems affected by external noises and uncertainties
Kefeng et al. CNN Based No‐Reference HDR Image Quality Assessment
US20220326917A1 (en) Automated software application generation
CN114510592A (zh) 图像分类方法、装置、电子设备及存储介质
Wang et al. Online mobile teaching methods based on Android in the 5G environment
Feng et al. Digital teaching management system based on deep learning of internet of things
Wu et al. A Steganalysis framework based on CNN using the filter subset selection method
Karinshak Simulations in human‐AI crisis management systems
US20240168974A1 (en) Information system for generation of complex molecule by using graph representing molecule
US20230132070A1 (en) Features for black-box machine-learning models

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23868217

Country of ref document: EP

Kind code of ref document: A1