WO2024143561A1 - データ利活用促進システム、データ利活用促進方法、および、プログラム - Google Patents
データ利活用促進システム、データ利活用促進方法、および、プログラム Download PDFInfo
- Publication number
- WO2024143561A1 WO2024143561A1 PCT/JP2023/047361 JP2023047361W WO2024143561A1 WO 2024143561 A1 WO2024143561 A1 WO 2024143561A1 JP 2023047361 W JP2023047361 W JP 2023047361W WO 2024143561 A1 WO2024143561 A1 WO 2024143561A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- analysis
- information
- unit
- utilization promotion
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
Definitions
- the present invention relates to a data utilization promotion system, a data utilization promotion method, and a program.
- DX digital transformation
- Patent Document 1 describes a data utilization system that suggests appropriate data preparation content for users who utilize data, so that data can be easily utilized for various purposes using a wide variety of data from multiple business systems. More specifically, the data utilization system in Patent Document 1 (1) compares the utilization purpose specified by the user with the data information prepared by the system, and calculates and presents the data preparation content items and difficulty level to be implemented for the utilization purpose.
- the data utilization infrastructure server 200 is connected via a network to a user terminal 100, an asset terminal 400, and an ASP (Application Service Provider) system 600 that provides various software as a service, known as SaaS (Software as a Service), for data communication.
- SaaS Software as a Service
- FIG. 1 illustrates one user terminal 100, one asset terminal 400, and one ASP system 600, there may be multiple of each.
- a data utilization promotion system may be configured including at least one of the user terminal 100, the asset terminal 400, and the ASP system 600.
- the ASP system 600 may be part of a cloud server, or may be connected to a gateway.
- the data utilization platform server 200 includes, as an example, a storage unit 206 including an appropriate non-volatile storage element such as an SSD (Solid State Drive) or a hard disk drive, or a volatile storage element such as a memory, a control unit 202 such as a CPU that executes programs and the like stored in the storage unit 206 to perform overall control of the device itself and perform various judgments, calculations, and control processing, a communication unit 204 that connects to a network and handles communication processing with other devices, and an input/output unit 208 that is an input means such as a keyboard and an output means such as a display.
- a storage unit 206 including an appropriate non-volatile storage element such as an SSD (Solid State Drive) or a hard disk drive, or a volatile storage element such as a memory
- a control unit 202 such as a CPU that executes programs and the like stored in the storage unit 206 to perform overall control of the device itself and perform various judgments, calculations, and control processing
- a communication unit 204 that connect
- Fig. 2A is a sequence diagram showing an example of the processing of the data utilization promotion method in this embodiment.
- the main components in the processing sequence shown in Fig. 2A are a data utilization infrastructure server 200 that collects and accumulates patent document information from a patent document information server 800 and proposes combinations of data types and uses to the user of the user terminal 100 based on a collection of use cases in which combinations of data types and uses are extracted and stored from the patent document information server 800, a user terminal 100 that receives proposals of data types (or other users) and uses, and further proposals of corresponding data and applications from the data utilization infrastructure server 200, an asset terminal 400 that registers data to be provided (which may be derived data, etc.) based on proposals for providing data by mining assets, etc., and an ASP server 600 that provides applications such as analysis processing as SaaS on a data utilization platform.
- a data utilization infrastructure server 200 that collects and accumulates patent document information from a patent document information server 800 and proposes combinations of data types and uses to the user of the user terminal 100
- the asset terminal 400 registers the data that can be provided (which may be derived data) in the data utilization platform server 200 (step SA4).
- the data utilization platform server 200 may cause the asset terminal 400 to execute a mining process. More specifically, the data utilization platform server 200 estimates the possibility of acquiring the data and/or the value of the data that can be acquired from the information acquired via the communication unit 204, and presents this to the input/output unit 408 of the asset terminal 400.
- the user of the asset terminal 400 (data provider candidate) may agree to the provision of the data in consideration of the data value (which may be linked to the data sales price), etc., thereby executing the registration process of the above-mentioned step SA4.
- a use case that is a combination of a data type and a purpose can be regarded as an abstract and external data sequence concept, while analysis relationship information that is a combination of data and an analysis component can be regarded as a concrete and internal processing content.
- step SA7 when the user of the user terminal 100 selects a combination of data type and use from the use case collection via the input/output unit 108 (step SA7), the data utilization server 200 proposes a combination of data and analysis components (applications) to the user from the corresponding analysis relationship information (step SA8). Then, when the user of the user terminal 100 selects a combination of data and analysis components (applications) via the input/output unit 108 (step SA9), the data utilization server 200 executes an analysis process using the data and analysis components (applications) and transmits the analysis results to the user terminal 100 (step SA10). Note that steps SA7 to SA10 are two round-trip processes, but may be one round-trip processes.
- data utilization middleware 300 is installed to store or receive data to be analyzed in real time from an asset terminal 400 or the like, manage and analyze the analysis components that make up the analysis process for this data to be analyzed, and execute processes such as proposing the analysis components to the user.
- the main components of this data utilization middleware 300 are a patent document information file 301 that stores patent document information and web data received from the patent document information server 800, a use case collection file 302 that stores at least data type and use in association with each other, a use case extraction unit 316 that extracts at least data type and use from the patent document information and stores them in the use case collection file 302, a usefulness determination unit 317 that evaluates data value such as usefulness, an asset estimation unit 318 that estimates the possibility of acquiring data and/or the acquireable data value, an evaluation module unit 319 that is embedded in the data pipeline of the data utilization platform and accepts evaluations via the communication unit 204, an analysis execution management unit 303 that manages the execution of the analysis process 302 by combining analysis components 303, an analysis target data DB 304 that stores data to be analyzed registered from multiple asset terminals 400, an analysis result DB 305 that stores the execution results of the analysis process, and a performance information DB 306 that stores performance information regarding the analysis process executed by the analysis execution management unit 303
- an analysis relationship table 307 that stores analysis relationship information
- an analysis relationship information management unit 308 that manages the analysis relationship table 307
- a presentation unit 309 that refers to the use case collection file 302 to propose combinations of data types and uses to the user, and further refers to the analysis relationship table 307 to propose data combinations and/or analysis component combinations to the user
- a user/task management unit 310 that manages users and tasks that access the data utilization middleware 300 and perform analysis
- a client-oriented I/F provision unit 311 that provides an interface for the functions provided by the data utilization middleware 300 to the user terminal 100
- an analysis processing result management unit 312 that manages the result information DB 306
- an analysis component management unit 313 that manages the analysis components 303 executed by the analysis execution management unit 303
- a data management unit 314 that manages the data stored in the analysis target data DB 304
- a data communication unit 315 that communicates with the user terminal 100, the asset terminal 400, the ASP system 600, the patent document information server 800, etc
- the evaluation module unit 319 then accepts the evaluation (which may be referred to as an examination or audit) via the communication unit 204. Specifically, the evaluation module unit 319 accepts the evaluation via the communication unit 204 as to whether the above-mentioned data value evaluation method conforms to laws and regulations such as data distribution standards, guidelines, and the Personal Information Protection Act. For example, the evaluation module unit 319 may be configured to present an evaluation value scoring program so that an auditing firm or the like can verify the internal processing method of the evaluation module unit 319.
- the evaluation module unit 319 may be configured to present data uploaded by the asset terminal 400 (data not including sensitive information, ontology-based data, etc.) and original data before uploading (data including sensitive information, data before ontology-based data, etc.) in a comparable manner.
- the evaluation module unit 319 has a function of automatically checking the following items, and may accept the evaluation via the communication unit 204 (which may be referred to as an examination or audit of whether the data conforms to the Securities and Exchange Act or international accounting guidelines).
- due diligence is performed to check whether the pipeline is connected (B2B) from the data provider to the data recipient.
- Whether offsetting is being properly carried out in transactions between multiple companies.
- Checking for inflated sales (fictitious transactions) e.g., a group company leaking data via another company).
- the evaluation module unit 319 may be connected to a control system 900, which will be described later, to provide information such as data to the control system 900 and receive data evaluation results and the like from the control system 900, thereby accepting evaluations.
- the evaluation module unit 319 itself may be the control system 900.
- the asset estimation unit 318 performs asset mining by estimating the possibility of acquiring data and/or the value of the data that can be acquired from information acquired from the asset terminal 400 via the communication unit 208 (such as input data from the input/output unit 408, data from the storage unit 406, and the trained model of the control unit 402).
- the asset estimation unit 318 may estimate the possibility of obtaining data and/or the value of the obtainable data that can be obtained from at least one of the customer, the business partner, the logistics, the accounting, the business model, the human resources, and the know-how, based on at least one of the customer information (e.g., information on the industry), business partner information (e.g., information on the industry), logistics information, invoice information, accounting information, business model information, human resources information, and know-how information obtained via the communication unit 208.
- the customer information e.g., information on the industry
- business partner information e.g., information on the industry
- logistics information e.g., invoice information, accounting information, business model information, human resources information, and know-how information obtained via the communication unit 208.
- the asset estimation unit 318 may estimate the equipment or software to be purchased, loaned, or made available based on at least one of customer information, business partner information, logistics information, accounting information, business model information, human resource information, and know-how information acquired via the communication unit 208, and estimate the possibility of acquiring data and/or the value of the data that can be acquired based on the equipment or software.
- the asset estimation unit 318 may predict the learned original data or the ontology-processed original data based on the learned model information or ontology information acquired via the communication unit 208, and estimate the possibility of acquiring the data and/or the acquireable data value.
- the asset estimation unit 318 is not limited to receiving the learned model directly from the asset terminal 400, and may estimate the type and value of the original data by receiving an output value (an example of learned model information) resulting from providing some input value (dummy data, etc.) to the learned model of the asset terminal 400.
- FIG. 4 is a diagram showing a use case 451 corresponding to the use (e.g., the items of the business type of the data recipient "to B" and the purpose of use “objective") and the data type (e.g., the business type "B" of the data source user and the type of data), and analysis relationship information 401 corresponding to an example of the relationship between the data to be analyzed, the analysis component, the analysis process, the analysis purpose, and the business system in this embodiment. Note that in the embodiment of FIG.
- the analysis component may be described as data analysis logic and matching logic in the narrow sense, but the analysis component of this invention (claims) is not limited to this and is a concept including software, applications, analysis processes, analysis purposes such as KPIs (e.g., formulas and reference tables that output index values and evaluation values such as productivity), etc.
- KPIs e.g., formulas and reference tables that output index values and evaluation values such as productivity
- use case 451 in this embodiment is a combination of data type 451 and purpose 450. More specifically, data type 451 has a "B" field indicating the industry of the data provider and a “data” field indicating the type of data, and purpose 450 has a "to B” field indicating the industry of the data recipient (data user) and an “objective” field indicating the purpose of use of the data recipient.
- the analysis relationship information 401 of this embodiment represents the relationship between the data and analysis components used in the analysis, the analytical processing resulting from their combination, the analysis purpose, the business in the business application for the analysis purpose, and the targets such as the facilities where the business is performed.
- “relationship” means that related items can be combined and used, that there is a correspondence with the combination of the use case purpose and data type, or that there is a track record of use.
- the analysis relationship information 401 is referenced by the data utilization infrastructure server 200 to select and propose appropriate analysis components for the data to be analyzed as specified by the user (including adoption of the purpose and data type in a use case proposal).
- the main components are the data to be analyzed 411, analysis components 412, analysis processing 413, analysis objectives 414, and business applications 415, and each piece of information is managed in separate hierarchical layers.
- analysis components 412 are classified into data matching logic 421 and data analysis logic 422.
- the data matching logic and data analysis logic required to perform analysis on the data to be analyzed are reusable as software components that make up the analysis components, and the analysis processing is configured by combining these components.
- the analysis component 412 hierarchy also manages data matching logic 421, which is processing logic (e.g., SQL statements, etc.) for extracting one or more combinations of analysis target data from a storage medium such as a database, and data analysis logic 422, which is analysis logic (e.g., graphing sequence data, correlation analysis, etc.) to be performed on the one or more analysis target data described above.
- data matching logic 421 is processing logic (e.g., SQL statements, etc.) for extracting one or more combinations of analysis target data from a storage medium such as a database
- data analysis logic 422 which is analysis logic (e.g., graphing sequence data, correlation analysis, etc.) to be performed on the one or more analysis target data described above.
- analysis process 413 layer manages data analysis processes that are created by combining one or more pieces of analysis target data and one or more analysis components described above.
- KPI information which is the objective of the analysis
- business application 415 level business 4151 and equipment and other targets 4152 in the business system that require the KPI, which is the above-mentioned analysis objective, are managed. Note that between each level, elements in each level that are related are associated (linked).
- the analysis relationship information management unit 308 generates analysis relationship information that specifies the link between the data 411 to be analyzed and the application that executes the analysis process on the data (narrowly, this refers to the business application 415 and/or the analysis purpose 414, and broadly, this includes the analysis process 413 and the analysis component 412) based on the correspondence between the data type 451 and the use case 450 stored in the use case collection file 302.
- the analysis relationship information management unit 308 searches for and extracts data 411 that corresponds to the "B" item indicating the industry of the data provider in data type 451 and the "data” item indicating the type of data, and stores the correspondence in the analysis relationship information.
- the data 411 may include metadata indicating information on the data provider (information indicating the user of the data provider, such as company identification information and industry) and metadata indicating the product number and unit of the IoT device, so the analysis relationship information management unit 308 may search for and extract the "B" item indicating the industry and the "data” item indicating the type of data from the metadata.
- the analysis relationship information management unit 308 functions as an extraction unit.
- the analysis relationship information management unit 308 searches for the analysis components 412 to business applications 415 that correspond to the "to B" item 455 indicating the industry of the data recipient and the "objective" item 454 indicating the data use purpose of the data recipient among the uses 450, and stores the correspondence in the analysis relationship information.
- the analysis relationship information management unit 308 may search and extract the business application 415 that corresponds to the "to B" item 455 indicating the industry of the data recipient from the registered applications of the ASP server 600, and store the correspondence in the analysis relationship information.
- the analysis relationship information management unit 308 may search and extract the analysis purpose 414 and business application 415 that correspond to the "objective" item 454 indicating the use purpose of the data recipient from the registered applications (registered analysis components) of the ASP server 600, and store the correspondence in the analysis relationship information.
- the analysis relationship information also specifies the vertical correspondence in FIG. 4 from the business application 415 and the analysis objective 414 to the data 411. Therefore, once the horizontal correspondence in FIG. 4, i.e., the business application 415 corresponding to toB 455, the analysis objective 414 corresponding to objective 454, and the data 411 corresponding to data type 451, is determined, the analysis relationship information management unit 308 may determine the analysis process 413 and analysis component 412 that fill the gap between them, based on the analysis relationship information regarding the vertical correspondence.
- ⁇ Table> 5A to 6B are diagrams showing the configuration of the analysis relationship table 307 that stores linking information between elements in the analysis relationship information 401 (i.e., vertical correspondence relationships and vertical correspondence relationships), which are managed by the data utilization infrastructure server 200 of this embodiment, and the data structure of meta information of analysis components.
- the analysis relationship table 307 that stores linking information between elements in the analysis relationship information 401 (i.e., vertical correspondence relationships and vertical correspondence relationships), which are managed by the data utilization infrastructure server 200 of this embodiment, and the data structure of meta information of analysis components.
- the analysis relationship table 307 which manages the linking information between elements in the analysis relationship information 401, is composed of an analysis target data linking table 501, an analysis component linking table 502, an analysis component-analysis process linking table 503, an analysis process-analysis purpose linking table 504, and an analysis purpose-business linking table 505, as well as a data recipient industry-business application linking table 508, a data recipient use purpose-analysis purpose linking table 509, and a data type-data linking table 500.
- the analysis target data linking table 501 illustrated in FIG. 5A is a table that stores information regarding the linking between the analysis target data 411 of the analysis relationship information 401 and the data matching logic 421 in the analysis component 412.
- the main components are linking identification information 511 that uniquely identifies each link, analysis target data identification information 512, data matching logic identification information 513, weight 514, and update date and time 515.
- the linking identification information 511 stores information for identifying the linking.
- the analysis target data identification information 512 stores information for identifying the analysis target data that is linked.
- the data matching logic identification information 513 stores information for identifying the data matching logic that is the other of the links.
- the weight 514 stores information indicating the weight of the linking. For example, the more frequently the combination resulting from the linking is used by users such as analysts, the larger the value indicating the weight becomes.
- the update date and time 515 stores the date and time when the records of the above-mentioned items 511 to 514 were last updated. Note that since there can be multiple linkings for one analysis target data, multiple records for the analysis target data can be stored in the analysis target data linking table 501.
- the analysis component linking table 502 illustrated in FIG. 5B is a table that stores information about the linking between the data matching logic 421 and the data analysis logic 422 in the analysis component 412 of the analysis relationship information 401. Its main components are linking identification information 521, data matching logic identification information 522, data analysis logic identification information 523, weight 524, and update date and time 525.
- the linking identification information 521 stores information for uniquely identifying the linking.
- the data matching logic identification information 522 stores information for identifying the data matching logic that is one of the links.
- the data analysis logic identification information 523 stores information for identifying the data analysis logic that is the other of the links.
- the weight 524 stores information indicating the weight of the linking. For example, the more frequently the combination resulting from the linking is used by users such as analysts, the larger the value indicating the weight becomes.
- the update date and time 525 stores the date and time when the records of the above-mentioned data items 521 to 524 were last updated. Note that there can be multiple linkings for one data matching logic and data analysis logic, and therefore multiple records can be stored for one data matching logic and data analysis logic in the analysis component linking table 502.
- the analysis component-analysis process linking table 503 illustrated in FIG. 5C is a table that stores information about the linking between the data analysis logic 422 in the analysis component 412 of the analysis relationship information 401 and the analysis process 413 executed by a user such as an analyst. Its main components are linking identification information 531, data analysis logic identification information 532, analysis process identification information 533, weight 534, and update date and time 535.
- the linking identification information 531 stores information for uniquely identifying the linking.
- the data analysis logic identification information 532 stores information for identifying the data analysis logic 422 that is one of the linked pieces.
- the analysis process identification information 533 stores information for identifying the analysis process 413 that is the other of the linked pieces.
- the weight 534 stores information indicating the weight of the linking. For example, the more frequently a combination resulting from the linking is used by users such as analysts, the larger the value indicating the weight becomes.
- the update date and time 535 stores the date and time when the records of the above-mentioned data items 531 to 534 were last updated. Note that since there can be multiple linkings for one data analysis logic 422, the analysis component-analysis process linking table 503 stores the date and time when the one data analysis logic 422 is last updated. Multiple records can be stored for 22.
- the analysis process-analysis objective linking table 504 illustrated in FIG. 5D is a table that stores information about the linking between the analysis process performed in the analysis process 302 and the KPI in the analysis objective 414. Its main components are linking identification information 541, analysis process identification information 542, analysis objective identification information 543, weight 544, and update date and time 545.
- the linking identification information 541 stores information for uniquely identifying the linking.
- the analysis process identification information 542 stores information for identifying the analysis process 413, which is one of the linked processes.
- the analysis purpose identification information 543 stores information for identifying the analysis purpose 414, which is the other of the linked processes.
- the weight 544 stores information indicating the weight of the linking. For example, the more frequently the combination resulting from the linking is used by users such as analysts, the larger the value indicating the weight becomes.
- the update date and time 545 stores the date and time when the records of the above-mentioned data items 541 to 544 were last updated. Note that since there can be multiple linkings for one analysis process 413, multiple records can be stored for that one analysis process 413 in the analysis process-analysis purpose linking table 504.
- the analysis objective-business linking table 505 illustrated in FIG. 5E is a table that stores information about the linking between KPIs in the analysis objective 414 and targets such as business and equipment in the business application 415. Its main components are linking identification information 551, analysis objective identification information 552, business identification information 553, target identification information 554, weighting 555, and update date and time 556.
- the linking identification information 551 stores information for uniquely identifying the linking.
- the analysis objective identification information 552 stores information for identifying the analysis objective 414, which is one of the linked objectives.
- the task identification information 553 stores information for identifying the task 4151, which is the other of the linked objectives.
- the target identification information 554 stores information for identifying the target 4152, which is linked together with the task 4151.
- the weight 555 stores information indicating the weight of the linking. For example, the more frequently the combination resulting from the linking is used by users such as analysts, the larger the value indicating the weight becomes.
- the update date and time 556 stores the date and time when the records of the above-mentioned data items 551 to 555 were last updated. Note that since there can be multiple linkings for one analysis objective, multiple records can be stored for one analysis objective in the analysis objective-task linking table 505.
- the data destination industry-business application linking table 508 illustrated in FIG. 5F is a table that stores information about the linking between the data destination industry ("toB") 455 of the use 450 stored in the use case collection file 302 and the business application 415 registered in the ASP server 600. Its main components are linking identification information 581, data destination industry information "toB" 582, business application information 583, weight 584, and update date and time 585.
- the linking identification information 581 stores information for uniquely identifying the linking.
- the data destination industry information "toB" 582 stores information for identifying the data destination industry ("toB") 455, which is one of the links.
- the business application information 583 stores information for identifying the business application 415, which is the other of the links.
- the weight 584 stores information indicating the weight of the linking. For example, the more useful the combination resulting from the linking is, such as the more frequently it is adopted by users such as analysts, the larger the value indicating the weight.
- the update date and time 585 stores the date and time when the records of the above-mentioned data items 581 to 584 were last updated. Note that there can be multiple links for one data destination industry ("toB") 455, so multiple records can be stored for one data destination industry (“toB”) 455 in the data destination industry-business application linking table 508.
- the data recipient's usage purpose-analysis purpose linking table 509 shown in FIG. 5G is a table that stores information related to the linking between the data recipient's usage purpose ("objective") 454 of the usage 450 stored in the use case collection file 302 and the analysis purpose 414 registered in the ASP server 600. Its main components are linking identification information 591, data recipient's usage purpose information "objective” 592, usage purpose information 593, weight 594, and update date and time 595.
- the linking identification information 591 stores information for uniquely identifying the linking.
- the data destination usage information "objective" 592 stores information for identifying the usage ("objective") 454 of the data destination, which is one of the links.
- the usage information 593 stores information for identifying the analysis purpose 414, which is the other of the links.
- the weight 594 stores information indicating the weight of the linking. For example, the more useful the combination resulting from the linking is, such as the more frequently it is adopted by users such as analysts, the larger the value indicating the weight.
- the update date and time 595 stores the date and time when the records of the above-mentioned data items 591 to 594 were last updated. Note that there can be multiple linkings for one data destination usage ("objective"), so multiple records can be stored for one data destination usage ("objective") in the data destination usage purpose-analysis purpose linking table 509.
- the linking identification information 501 stores information for uniquely identifying the linking.
- the data type information 502 stores information for identifying the data type 451, which is one of the linked items.
- the data information 503 stores information for identifying the data 411, which is the other of the linked items.
- the weight 504 stores information indicating the weight of the linking. For example, the more useful the linking combination is, such as being adopted by analysts and other users, the larger the value indicating the weight.
- the update date and time 505 stores the date and time when the records of the above-mentioned data items 501 to 504 were last updated. Note that since there can be multiple linkings for one data type 451, multiple records can be stored for that one data type 451 in the data type-data linking table 500.
- analysis relationship table 307 of this embodiment also stores meta information 506 for each data analysis logic 422 and meta information 507 for each data matching logic 421.
- the meta information 506 of the data analysis logic 422 illustrated in FIG. 6A stores information about the data that is input to the data analysis logic 422. Its main components are identification information 561, data item 562, type 563, and category 564.
- identification information 561 information for uniquely identifying each record of the meta information 506 is stored.
- the name of the data corresponding to the data item is stored. However, this item may not be specified.
- the type 563 the data type of the data corresponding to the above-mentioned data item 562 is stored.
- the type 564 the type of the data corresponding to the above-mentioned data item 562 is stored.
- possible values for type 564 include “input” and "key”. When it is “input”, it indicates that the corresponding data item is input data for the data analysis logic. When it is “key”, it indicates that the corresponding data item is a common index that serves as the axis for matching multiple data, specifying a range, and sorting in the data analysis logic.
- the meta information 507 of the data matching logic 421 illustrated in FIG. 6B stores information about the data provided by the data matching logic 421. Its main components are identification information 571, data item 572, type 573, size 574, and table 575.
- identification information 571 information for uniquely identifying each record in the meta information 507 is stored.
- the name of the data corresponding to the data item 572 is stored.
- the type 573 the data type of the data corresponding to the data item 572 is stored.
- the size 574 the size of the data corresponding to the data item 572 is stored.
- the table 575 information regarding the table from which the data corresponding to the data item 572 was extracted is stored.
- FIG. 7A is a diagram showing an example of the configuration of the analysis target data DB 304 in this embodiment.
- the analysis target data DB 304 in this embodiment is data (which may be derived data) uploaded from the asset terminal 200 to the data utilization infrastructure server 200, or stored via a storage medium by an appropriate user or the like. More specifically, the data is managed by the asset terminal 200, and may be, for example, sensing data of vehicles or equipment used in the relevant business (of course, this is not limited to this, and various types of data may be assumed).
- the analysis target data DB 304 can store information on the user or asset terminal 200 that registered the data (identification information such as user ID and terminal ID, industry information, company name, individual name, etc.) in association with the data.
- the analysis target data DB 304 illustrated in FIG. 7A is, as an example, composed of multiple tables. These tables correspond to the tables from which data is extracted, specified in table 575 of meta information 507 (of the data matching logic) shown in FIG. 6B. Also, as shown in the figure, each table is a collection of records containing values such as the date and time when the corresponding data was observed, the location, the result, the sensor ID, the protocol used, the geographic location of the sensor, the gateway ID where the measurement value was captured, the geographic location of the gateway, the time when the data was read, the expected value or scale range, and the trust score (an evaluation value of the data value).
- FIG. 7B is a diagram showing an example of the configuration of the analysis result DB 305 in this embodiment.
- the analysis result DB 305 in this embodiment is a DB that stores the contents of analysis processing that was actually executed based on analysis components previously proposed by the data utilization infrastructure server 200, or analysis components selected by the analyst 201 (or developer 202) independently. Specifically, it is a collection of records that use an ID that uniquely identifies the analysis result as a key, and contains information on the data matching logic and data analysis logic of the analysis components that make up the analysis processing, the analysis processing performed using these, and values such as the analysis purpose, business, target, and result (in this case, the data value output as the execution result of the analysis processing).
- FIG. 7C is a diagram showing an example of the configuration of the performance information DB 306 in this embodiment.
- the performance information DB 306 in this embodiment is a DB that stores performance information of analysis processes that have actually been executed. Specifically, it is a collection of records in which the analysis process name that uniquely identifies the analysis process is used as a key, and values such as the execution frequency of the analysis process (e.g., the number of times it has been executed in the past month), the number of users (the number of users who have adopted it), the number of standard registrations, the number of revisions (e.g., the number of times that analysts or developers have revised the analysis process), the amount (e.g., the average cost spent by users to adopt it (the purchase amount of data and apps, etc.)), the evaluation value (evaluation from users who adopted it), the number of improvement requests (the number of improvement requests from users who adopted it), and the period (e.g., the average period during which users adopted it) are associated with the analysis process. Note that the number of standard
- FIG. 8 is a diagram showing the processing sequence when implementing the data utilization promotion method in this embodiment.
- the processing sequence shown in FIG. 2 is specifically executed using each element of the data utilization middleware 300.
- the main components are the asset terminal 400, the data management unit 314 included in the data utilization middleware 300 running on the data utilization infrastructure server 200, the analysis relationship information management unit 308, the analysis processing result management unit 312, the presentation unit 309, the use case collection file 302, and the analysis relationship table 307, and the user of the user terminal 100.
- the asset terminal 400 receives a proposal for data provision from the asset estimation unit 318 through asset mining or the like, and registers the data held by the asset terminal 400 in the data utilization platform server 200 (step 611).
- the data management unit 314 of the data utilization platform server 200 accepts the registration of data from the above-mentioned asset terminal 400 (step 621).
- the data management unit 314 also notifies the analysis relationship information management unit 308 of the acceptance of the data registration (step 622).
- the analysis relationship information management unit 308 receives the notification from the data management unit 314, it creates the analysis relationship table 307 from the data (step 631). As described above, the analysis relationship information management unit 308 also stores linking information with the use case collection file 302 (horizontal correspondence in FIG. 4) in the analysis relationship table 307.
- the presentation unit 309 refers to the use case collection file 302 and presents candidates for combinations (use cases) of data types (or industries) and uses to the user terminal 100 (step 650).
- the user of the user terminal 100 selects one of the candidates for combinations (use cases) of user types and uses (step 661).
- the presentation unit 309 of the data utilization infrastructure server 200 accepts a use case (combination of user type and purpose) specified by the user of the user terminal 100, it refers to the analysis relationship table 307 (step 651) and selects combination candidates of available data and analysis components (apps, etc.) for the combination of user type (or industry) and purpose that is the use case (step 652).
- the presentation unit 309 proposes combination candidates of the selected data (or information of other users who have registered the data) and analysis components (apps, etc.) to the user of the user terminal 100 (step 653).
- the user of the user terminal 100 views the combinations of data (or other users who are potential partners) and analysis components (apps, etc.) proposed by the presentation unit 309 described above (step 662), and determines the combination of data (or other users who are potential partners) and analysis components (apps, etc.) to be used (step 663).
- the user determines the combination of data (or other users who are potential partners) and analysis components (apps, etc.) to be used by selecting one of the combinations of data (or other users who are potential partners) and analysis components (apps, etc.) proposed here, or by changing part of the proposed combination.
- the user also executes an analysis process using the combination of data (or other users who are potential partners) and analysis components (apps, etc.) determined above (step 664).
- the analysis processing results management unit 312 confirms the execution of the analysis processing by the above-mentioned user, records the results related to the execution of the analysis processing (combination of analysis components, processing execution history, analysis results, collaboration results with other users, evaluations and requests for improvement from the user, etc.) (step 641), and notifies the analysis relationship information management unit 308 of the results record (step 642).
- the analysis relationship information management unit 308 receives a notification from the above-mentioned analysis processing results management unit 312, it updates the analysis relationship table from the results (step 632).
- the data utilization infrastructure server 200 generates data matching logic and meta information 507 that extracts one or more related data from the analysis target data DB 304 based on the data relationship generated in the above-mentioned step 702 (step 703).
- the generation of data matching logic corresponds to the process of generating an SQL statement for calling each of the analysis target data indicated by the above-mentioned data relationships from the corresponding table in the analysis target data DB 304.
- this SQL statement can be generated by using a method such as setting the identification information of the table and data to be called in a template for an SQL statement held in advance by the data utilization infrastructure server 200.
- meta information 507 involves reading from each piece of data to be analyzed, indicated by the above data relationships, values such as the type (character string or numeric value), size, and the name of the table in which it is stored, the sensor ID, the protocol used, the geographic location of the sensor, the gateway ID where the measurement value was captured, the geographic location of the gateway, the time the data was read, the expected value or scale range, and trust score (each evaluation value related to data reliability and data usefulness, such as evaluation values for data authenticity, data ownership, data quality, data integrity, etc.), and tabulating this information as meta information 507.
- values such as the type (character string or numeric value), size, and the name of the table in which it is stored, the sensor ID, the protocol used, the geographic location of the sensor, the gateway ID where the measurement value was captured, the geographic location of the gateway, the time the data was read, the expected value or scale range, and trust score (each evaluation value related to data reliability and data usefulness, such as evaluation values for data authenticity, data ownership, data quality, data integrity, etc
- the data utilization infrastructure server 200 also refers to the meta information 507 of the data matching logic generated in the above-mentioned step 703 (step 704), and adds a record to the analysis target data linking table 501 regarding the linking between the analysis target data and the data matching logic (step 705).
- the data utilization infrastructure server 200 determines whether processing has been completed for all data described in the meta information 507 of the data linking logic, and if it is found that processing has not been completed (step 706: NO), it repeats the processing of steps 705 and 706.
- step 706 determines whether processing has been completed for all data described in the meta information 507 of the data linking logic (step 706: YES).
- step 707 NO
- the data utilization infrastructure server 200 repeats the processing of steps 704 to 706.
- step 707 YES
- step 708 NO
- the data utilization infrastructure server 200 refers to the meta information 506 of the data analysis logic (step 709) and also refers to the meta information 507 of the data matching logic (step 710).
- step 711 if the data item 562 is not specified in the meta information 506 of the data analysis logic (step 711), : NO), and the types (563, 573) are compared between the meta-information 506 of the data analysis logic and the meta-information 507 of the data matching logic (step 712).
- the data utilization infrastructure server 200 determines, as a result of the comparison in the above-mentioned step 712, that the meta information 507 of the data matching logic contains all data that matches the data in the meta information 506 of the data analysis logic (step 713: YES), it adds a record to the analysis component linking table 502 as a link between the data matching logic and the data analysis logic (step 714).
- step 711 if it is found in the above-mentioned step 711 that the data item 562 is specified in the meta information 506 of the data analysis logic (step 711: YES), the data utilization infrastructure server 200 compares the data items (562, 572) in the meta information 506 of the data analysis logic and the meta information 507 of the data matching logic (step 715).
- the data utilization infrastructure server 200 determines, as a result of the comparison in the above-mentioned step 715, that the meta information 507 of the data matching logic contains all data that matches the data in the meta information 506 of the data analysis logic (step 716: YES), it adds a record to the analysis component linking table 502 as a link between the data matching logic and the data analysis logic (step 717).
- the data utilization infrastructure server 200 also determines whether the meta information 507 of the data matching logic linked in the above-mentioned step 717 contains data corresponding to the data whose type 564 is "key" in the meta information 506 of the data analysis logic (step 718).
- the data utilization infrastructure server 200 refers to the data relationships from the data whose type 564 is "input" in the meta information 506 of the data analysis logic, and searches for data corresponding to the "key” (step 719).
- the data utilization infrastructure server 200 adds a record to the analysis target data linking table 501 as a link with the data searched in the above-mentioned step 719 (step 720).
- the data utilization infrastructure server 200 judges whether the processing has been completed for all the data matching logics (step 721). If it is found that the processing has not been completed for all the data matching logics (step 721: NO), the data utilization infrastructure server 200 repeats the processing of steps 710 to 720.
- step 721 determines whether processing has been completed for all data analysis logic (step 722).
- step 722 If it is determined that processing has not been completed for all data analysis logics (step 722: NO), the data utilization platform server 200 repeats the processing of steps 709 to 721. On the other hand, if it is determined that processing has been completed for all data analysis logics (step 722: YES), the data utilization platform server 200 ends processing.
- ⁇ Flow Example 2> 10 is a diagram showing a second flow example of the data utilization promotion method in this embodiment. Specifically, this is a flowchart showing the flow of processing for updating the analysis relationship table 307 based on the execution results of the analysis processing.
- the data utilization infrastructure server 200 checks whether information about the analysis process (combination of analysis components) executed by the analyst 201 is registered in the analysis relationship table 307 (step 801). Note that the fact that the analysis process has been executed by the analyst 201 can be detected through, for example, a record registration event in the analysis result DB 305.
- step 801 confirms that the analysis process has been registered in the analysis relationship table 307 (step 802: YES)
- the data utilization infrastructure server 200 updates the "weight" information of each record linked to each other in each table of the analysis relationship table 307 for the analysis process (and the analysis components and analysis target data that constitute it) (step 803). This update involves, for example, incrementing the "weight" value.
- step 801 determines whether the registration of the analysis process in the analysis relationship table 307 cannot be confirmed (step 802: NO).
- the data utilization infrastructure server 200 checks the link between each of the analysis components that make up the above-mentioned executed analysis process and the data to be analyzed based on the information of the analysis process (step 804).
- the data utilization infrastructure server 200 newly registers information about the above-mentioned executed analysis process in the analysis relationship table 307 (step 805).
- the data utilization infrastructure server 200 adds records to the analysis process-analysis purpose linking table 504 and the analysis purpose-business linking table 505 as information about the above-mentioned executed analysis process (step 806).
- the data utilization infrastructure server 200 also determines whether there is an existing matching record in the analysis component-analysis process matching table 503 (step 807). If the result of this determination is that there is an existing matching record in the analysis component-analysis process matching table 503 (step 807: YES), the data utilization infrastructure server 200 updates the weight information of the corresponding record in the analysis component-analysis process matching table 503 (step 808).
- step 807 if the data utilization infrastructure server 200 determines in the above-mentioned step 807 that there is no corresponding existing linking record in the analysis component-analysis process linking table 503 (step 807: NO), it adds a record related to the linking in the above-mentioned executed analysis process to the analysis component-analysis process linking table 503 (step 809).
- the data utilization infrastructure server 200 also determines whether there is a corresponding existing linking record in the analysis component linking table 502 (step 810). If the result of this determination is that there is a corresponding existing linking record in the analysis component linking table 502 (step 810: YES), the data utilization infrastructure server 200 updates the weight information of the corresponding record in the analysis component linking table 502 (step 811).
- step 810 determines whether there is no corresponding existing linking record in the analysis component linking table 502 (step 810: NO). If the result of the determination in the above step 810 indicates that there is no corresponding existing linking record in the analysis component linking table 502 (step 810: NO), the data utilization infrastructure server 200 adds a record related to the linking in the above-mentioned executed analysis process to the analysis component linking table 502 (step 812).
- the data utilization platform server 200 determines whether there is a corresponding existing linking record in the analysis target data linking table 501 (step 813). If the result of this determination is that there is a corresponding existing linking record in the analysis target data linking table 501 (step 813: YES), the data utilization platform server 200 updates the weight information of the corresponding record in the analysis target data linking table 501 (step 814).
- step 813 determines whether there is no existing matching record in the analysis target data matching table 501 (step 813: NO). If the result of the judgment in the above-mentioned step 813 indicates that there is no existing matching record in the analysis target data matching table 501 (step 813: NO), the data utilization infrastructure server 101 adds a record regarding the matching in the above-mentioned executed analysis process to the analysis target data matching table 501 (step 815).
- the data utilization infrastructure server 200 links the analysis results of the above-mentioned executed analysis process (data values output as the execution results of the analysis process, e.g., KPI values) to the above-mentioned executed analysis process and stores them in the analysis result DB 305 (steps 816, 817).
- the data utilization infrastructure server 200 also updates the performance information in the performance information DB06 for the analysis process that was executed (step 818). Specifically, values such as the execution frequency, number of users, number of standard registrations, and number of revisions for the analysis process are updated.
- ⁇ Flow Example 3> 11 is a diagram showing a flow example 3 of the data utilization promotion method in this embodiment. Specifically, this is a flowchart showing a process flow for the data utilization infrastructure server 200 to refer to the analysis relationship table 307 that specifies the correspondence relationship with the use case collection file 301, and to select and present a combination of analysis components appropriate for executing a corresponding analysis on analysis target data corresponding to a user-specified use case (a combination of a purpose and a data type (or an industry of a data provider (collaboration destination))).
- the data utilization infrastructure server 200 accepts the designation of data to be analyzed from the user via the user terminal 100 (step 901).
- This designation of data to be analyzed from the user may be done by calling up associated data automatically when the user designates a use case, or may be done by the user designating data to be analyzed from among the data candidates presented when the user designates a use case as described in FIG. 8, or may be done by the user designating the industry "B" or purpose "objective" of the data provider (collaboration partner) as described above.
- the data utilization infrastructure server 200 also refers to the analysis relationship table 307 (step 902), extracts analysis components (data matching logic, data analysis logic) that are linked to the analysis target data specified by the user (step 903), and creates analysis component combination candidates (step 904). These candidates are a list of analysis components that were extracted in step 903.
- the data utilization infrastructure server 200 extracts analysis processes similar to the analysis component combination candidates created above (step 906). Details of this process will be described later with reference to FIG. 12.
- the data utilization infrastructure server 200 extracts the analysis results of the similar processes extracted in step 906 from the analysis result DB 305 (step 907).
- This analysis result is intended to be presented to the user as related information.
- the data utilization infrastructure server 200 refers to the performance information DB 306 to calculate the execution frequency of the similar process (step 908). Also, the data utilization infrastructure server 200 refers to the performance information DB 306 to calculate the number of users of the similar process (step 909). Furthermore, the data utilization infrastructure server 200 refers to the performance information DB 306 and calculates the number of registrations of the above-mentioned similar processes as routine tasks (step 910).
- the data utilization infrastructure server 200 also refers to the performance information DB 306 to calculate the number of revisions of the above-mentioned similar process (step 911).
- the data utilization infrastructure server 200 also refers to the analysis relationship table 307 to calculate the number of similar processes of the above-mentioned similar process (step 912).
- the data utilization infrastructure server 200 uses the results of steps 907 to 912 described above to determine the usefulness of the combination of analysis components (step 913).
- a score is calculated by weighting the results of steps 908 to 912 described above.
- the determination of usefulness is not limited to this, and the data utilization infrastructure server 200 may determine that the more patent documents and web data are described in the use case collection file 302 for the same combination of data type (or industry) and use, the higher the usefulness of the combination of data and analysis components corresponding to the same combination of data type and use.
- the data utilization infrastructure server 200 may determine that the more applications are described in multiple patent documents and web data for the same data type (or industry) in the use case collection file 302, the higher the usefulness of the data corresponding to that data type (or industry).
- the data utilization infrastructure server 200 also determines whether processing has been completed for all analysis component combination candidates (step 914). If the result of this determination indicates that processing has not been completed for all analysis component combination candidates (step 914: NO), the data utilization infrastructure server 200 repeats the processing of steps 906 to 913.
- the data utilization infrastructure server 200 outputs the analysis component combination candidates, the usefulness judgment results, and the analysis results of similar processing as the processing results to the user terminal 100 (step 915) and presents them to the user.
- ⁇ Flow Example 4> 12 is a diagram showing a flow example 4 of the data utilization promotion method in this embodiment. Specifically, this is a flowchart in which the data utilization infrastructure server 200 selects a similar existing analysis process when selecting an appropriate combination of analysis components for performing an analysis on user-specified analysis target data.
- the data utilization infrastructure server 200 refers to the analysis relationship table 307 and compares the candidate combinations of analysis components for the specified analysis target data selected in the flow of FIG. 11 with the existing analysis component combinations accumulated as analysis processing results (step 1001).
- the data utilization infrastructure server 200 determines whether the input data items of the above-mentioned analysis component combination candidates match those of existing analysis component combinations (step 1002).
- step 1002 determines that the input data items (e.g., data type or industry of the data provider) of the above-mentioned analysis component combination candidate and the existing analysis component combination do not match (step 1002: NO)
- the data utilization infrastructure server 200 determines that the combinations are not similar (step 1009) and transitions the process to step 1010.
- the data utilization infrastructure server 200 judges whether the number of matching analysis component types constituting the analysis component combination candidate and the existing analysis component combination is equal to or greater than a specified threshold (step 1003).
- step 1003 NO
- the data utilization infrastructure server 200 determines that the combinations are not similar (step 1009) and transitions the process to step 1010.
- the data utilization infrastructure server 200 determines whether the execution order of the analysis components that constitute the candidate analysis component combination and the existing analysis component combination matches (step 1004).
- step 1004 determines that the execution order of the analysis components does not match (step 1004: NO)
- the data utilization infrastructure server 200 determines that the combinations are not similar (step 1009) and transitions the process to step 1010.
- the data utilization infrastructure server 200 determines whether there is KPI, business, and target information as analysis-related information (step 1005).
- step 1005 If it is determined that there is no information on the KPI, business, or target (step 1005: NO), the data utilization infrastructure server 200 determines that the combinations are semi-similar, meaning that only some of them are similar (step 1008), and transitions the process to step 1010.
- the data utilization infrastructure server 200 determines whether the number of matching KPIs, tasks, and targets between the candidate analysis component combination and existing analysis component combinations is equal to or greater than a specified threshold (step 1006).
- step 1006 the data utilization infrastructure server 200 determines that the combinations are semi-similar, meaning that only a portion of them are similar (step 1008), and transitions the process to step 10101.
- step 1006 determines that the number of matching KPIs, tasks, and targets is equal to or greater than the specified threshold.
- the data utilization infrastructure server 200 determines whether comparison has been completed for all analysis component combination candidates and existing analysis component combinations (step 1010). If the result of this determination indicates that comparison has not been completed for all analysis component combination candidates and existing analysis component combinations (step 1010: NO), the data utilization infrastructure server 200 repeats the above-mentioned processes from steps 1001 to 1009.
- step 1010 the data utilization infrastructure server 200 ends the process.
- ⁇ How to obtain combinations of data and apps from use cases> 13 is a diagram showing a schematic diagram of a method in which the data utilization infrastructure server 200 refers to the analysis relationship table 307 based on a use case 451 to acquire combinations of data 411 and analysis components 412 to 415 to be proposed to a user. Note that ⁇ in FIG. 13 represents a weight.
- the data utilization infrastructure server 200 obtains a combination of data 411 and analysis components 412-415 based on a use case 451 stored in a use case collection file 302. As shown in FIG. 13, this is similar to finding a path (a combination of nodes and links) from data type 451 to use 450.
- the data utilization infrastructure server 200 may use a known shortest path search method such as Dijkstra's algorithm to obtain combinations of data 411 and analysis components 412 to 415 from the use case 441.
- arrows are used to indicate the bidirectional search method of the graph search algorithm. That is, in the first step, the data utilization infrastructure server 200 refers to the data type-data linking table 500 to obtain data (e.g., data B, C) and weight ⁇ 504 corresponding to the data type (e.g., the industry "B" of the data provider and the type of data).
- data e.g., data B, C
- weight ⁇ 504 corresponding to the data type (e.g., the industry "B" of the data provider and the type of data).
- the data utilization infrastructure server 200 refers to the data recipient industry-business application linking table 508 to obtain the business application (e.g., application A) and weighting 584 corresponding to the data recipient's industry "to B" 455, and also obtains the analysis objective (e.g., KPI ⁇ ) and weighting 594 corresponding to the data recipient's purpose of use 454, and refers to the analysis objective-business linking table 505 to add or multiply the obtained business application and weighting ⁇ 555 corresponding to the analysis objective.
- Accumulative weight ⁇ 584 * ⁇ 594 * ⁇ 555
- the data utilization infrastructure server 200 refers to the analysis target data linking table 501 to identify the data matching logic 422 (e.g., matching logic a, b) that links to the data identified in the first stage (data C, D) and the respective weights ⁇ 514, and adds or multiplies them.
- Accumulative weight ⁇ 504 * ⁇ 514
- the data utilization infrastructure server 200 refers to the analysis process-analysis objective linking table 504 to identify the analysis processes (e.g., analysis processes 1 and 2) and their respective weights ⁇ 544 that are linked to the business application and analysis objective (e.g., application A and KPI ⁇ ) identified in the first stage, and adds or multiplies them.
- Accumulative weight ⁇ 584 * ⁇ 594 * ⁇ 555 * ⁇ 544
- the data utilization infrastructure server 200 identifies the data analysis logic (e.g., analysis logic 1, 2, 3) that is linked to the matching logic (e.g., matching logic a, b) identified in the second stage, and its respective weight ⁇ 524, and adds or multiplies them.
- Accumulative weight ⁇ 504 * ⁇ 514 * ⁇ 524
- the data utilization infrastructure server 200 identifies the analysis logic (e.g., analysis logic 1, 2, 3) that is linked to the analysis process (e.g., analysis process 1, 2) identified in the second stage, and the respective weights ⁇ 534, and adds or multiplies them.
- Accumulative weight ⁇ 584 * ⁇ 594 * ⁇ 555 * ⁇ 544 * ⁇ 534
- the search from both directions reaches a node of the same data analysis logic 422, so the paths that reach the same analysis logic (e.g., analysis logic 1, 2, 3) through the search from both directions are connected together and their respective weights are added or multiplied.
- Accumulated weight total ⁇ ⁇ 584* ⁇ 594* ⁇ 555* ⁇ 544* ⁇ 534* ⁇ 504* ⁇ 514* ⁇ 524
- (application, analysis purpose, analysis process, analysis logic, matching logic, data) (A, ⁇ , 1, 1, a, B), (A, ⁇ , 1, 2, a, B), (A, ⁇ , 1, 1, a, C), (A, ⁇ , 2, 1, a, C), (A, ⁇ , 1, 2, a, C), (A, ⁇ , 2, 2, a, C), (A, ⁇ , 1, 2, b, C), Eight routes (A, ⁇ , 2, 3, b, C) are obtained, and the route with the largest integrated weight total ⁇ is determined to be the most valuable.
- the data utilization infrastructure server 200 identifies combinations of data and analysis components 412 to 415 from the use case 451 adopted by the user, and presents them to the user based on their weights. For example, the data utilization infrastructure server 200 may display the weight value for each combination, or may display them in descending order of weight or value.
- each weight ⁇ ( ⁇ 584, ⁇ 594, ⁇ 555, ⁇ 544, ⁇ 534, ⁇ 504, ⁇ 514, ⁇ 524) is not limited to an evaluation value of usefulness (usefulness), but may be a value (usefulness and/or reliability) based on the value of data or software analysis components, such as authenticity and reliability by the evaluation module unit 319.
- the weight ⁇ may be a value that is evaluated as being of high value based on at least one of the following: (1) the greater the number of users who have adopted the technology, (2) the longer the period of adoption by users, (3) the greater the cost incurred by users to adopt the technology, (4) the higher the evaluation by users who have adopted the technology, (5) the greater the number of improvement requests from users who have adopted the technology, (6) the greater the comprehensiveness of the data, (7) the greater the accuracy of the data, (8) the greater the consistency of the data, (9) the greater the timeliness of the data, (10) the greater the quality of data processing, (11) the greater the reproducibility of the derived data from the original data, and (12) the greater the effect of data linkage.
- Fig. 14 is an example of an output screen in this embodiment. Specifically, it is an example of a confirmation screen for candidate combinations of data and analysis components proposed in step 653 in response to the use case (data type, purpose) selected by the user via the user terminal 100 in step 661 in Fig. 8 (step 662).
- the screen 1101 illustrated in FIG. 14 includes, for example, an analysis target data column 1111 that displays the analysis target data specified by the user, and a candidate display column 1112.
- the analysis target data column 1111 may contain information indicating the type of data and the data ID, as well as information regarding the industry of the data provider and the data provider (other users). This allows the user to understand potential collaboration partners.
- the candidate display field 1112 displays a list of combinations of data matching logic and data analysis logic that are candidates for analysis processing on the analysis target data specified by the user, as well as the analysis processing, analysis purpose, business, and target associated with the combination, the usefulness of the combination, and related analysis results (the ID of the corresponding record in the analysis result DB 305 in FIG. 7B). If there is no corresponding information, the display will include blank spaces.
- the evaluation module unit 319 may be, for example, an API that transfers data, and may receive evaluations from the control system 900 by being connected to the control system 900 via a network or the like.
- the evaluation module unit 319 itself may be the control system 900.
- FIG. 15 is a block diagram showing an example of the configuration of the control system according to this embodiment.
- control system 900 is a device that mediates the input and output of data via an interface such as an API (Application Programming Interface). Furthermore, the control system 900 can perform data due diligence (DD) by evaluating or valuing data input and output via an interface (e.g., evaluation module unit 319) connected to the asset terminal 400, the user terminal 100, the ASP system 600, etc., and/or a sensor that acquires the data or a system that handles the data, storing the evaluation result or the valuation result in the storage unit 906, and returning the evaluation result to the evaluation module unit 319.
- DD data due diligence
- the control system 900 is connected via a network to the user terminal 100, the asset terminal 400, and also to a SaaS (Software as a Service) system 600, which provides various software as a service as a so-called ASP (Application Service Provider).
- SaaS Software as a Service
- ASP Application Service Provider
- FIG. 1 illustrates one of each of the user terminal 100, asset terminal 400, and ASP system 600, there may be multiple of each.
- at least one of the user terminal 100, asset terminal 400, and ASP system 600 may be included in a data distribution infrastructure system.
- the ASP system 600 may be part of a cloud server, or may be connected to a gateway.
- the user terminal 100 in the above-mentioned network configuration is a terminal on the data user (candidate) side, and by setting and registering the control rules to be observed in the control system 900 via the input/output unit 208, it becomes a terminal that can receive data that conforms to the control rules mediated by the control system 900 and utilize the data.
- the asset terminal 400 is a terminal on the data provider (candidate) side, and when providing data, the asset terminal 400 provides the data to the user of the user terminal 100 directly or indirectly via the ASP system 600.
- the control system 900 mediates data transmission and reception from the asset terminal 400 to the user terminal 100, thereby making it possible to comply with control rules such as IT control.
- the control system 900 may output the data as pseudonymized information by deleting or processing personal information or sensitive information from the original data from the asset terminal 400, or output data converted into an ontology using a learned model from the original data or derived data generated from a knowledge graph as anonymous processed information, and output the data to the user terminal 100.
- the asset terminal 400 may provide data by providing the control system 900 with the results of data processing, such as a trained model that has trained the data, without transmitting (uploading) the data.
- the control system 900 can generate derived data based on the received trained model, etc., and provide the data to the user terminal 100 and the ASP system 600.
- the ASP system 600 is a system that receives and processes various data (e.g., transportation and logistics driving data, equipment temperature and vibration observation data, maintenance history, etc.) directly from the asset terminal 400 or indirectly via the control system 900.
- the ASP system 600 is a target for the user of the user terminal 100 to solve problems by analyzing the data provided from the asset terminal 400, that is, a tool for improving the productivity of existing businesses, developing new businesses, and DX.
- the control system 900 of this embodiment can mediate data input and output to comply with various control rules.
- the control system 900 of this embodiment can be considered as a data hub for realizing various controls.
- the control system 900 is, for example, a computer or the like that includes a storage unit 906 including an appropriate non-volatile storage element such as an SSD (Solid State Drive) or a hard disk drive, a volatile storage element such as a memory, a control unit 902 such as a CPU that executes programs and the like stored in the storage unit 906 to perform overall control of the device itself and perform various judgments, calculations, and control processing, a communication unit 904 that is connected to a network and is responsible for communication processing with other devices, and an input/output unit 908 that is an input means such as a keyboard and an output means such as a display.
- a storage unit 906 including an appropriate non-volatile storage element such as an SSD (Solid State Drive) or a hard disk drive, a volatile storage element such as a memory, a control unit 902 such as a CPU that executes programs and the like stored in the storage unit 906 to perform overall control of the device itself and perform various judgments, calculations, and control processing, a communication unit
- control system 900 is configured as a distributed computing device in this embodiment, so that the cloud server, the edge computer, and the gateway may not include at least one of the storage unit 906, the control unit 902, and the input/output unit 908, and may not include one function of the storage unit 906, the control unit 902, and the input/output unit 908 described later.
- the user terminal 100 includes a storage unit 206 including suitable non-volatile storage elements such as SSDs (Solid State Drives) and hard disk drives, and volatile storage elements such as memory, a control unit 202 such as a CPU that executes programs and the like stored in the storage unit 206 to perform overall control of the device itself and to perform various judgments, calculations, and control processing, a communication unit 204 that is connected to a network and handles communication processing with the control system 900, and an input/output unit 208 that is an input means such as a keyboard and an output means such as a display.
- a storage unit 206 including suitable non-volatile storage elements such as SSDs (Solid State Drives) and hard disk drives, and volatile storage elements such as memory
- a control unit 202 such as a CPU that executes programs and the like stored in the storage unit 206 to perform overall control of the device itself and to perform various judgments, calculations, and control processing
- a communication unit 204 that is connected to a network and handles communication processing with the control system
- the asset terminal 400 includes a storage unit 406 including an appropriate non-volatile storage element such as an SSD or a hard disk drive, a volatile storage element such as a memory, a control unit 402 such as a CPU that executes programs and the like stored in the storage unit 406 to control the device itself and perform various judgments, calculations, and control processing, a communication unit 404 that connects to a network and handles communication processing with the control system 900, and an input/output unit 408 that is an input means such as a keyboard and an output means such as a display.
- a storage unit 406 including an appropriate non-volatile storage element such as an SSD or a hard disk drive, a volatile storage element such as a memory, a control unit 402 such as a CPU that executes programs and the like stored in the storage unit 406 to control the device itself and perform various judgments, calculations, and control processing, a communication unit 404 that connects to a network and handles communication processing with the control system 900, and an input/output unit 408 that
- the ASP system 600 may also include a storage unit including an appropriate non-volatile storage element such as an SSD or a hard disk drive, a volatile storage element such as a memory, a control unit such as a CPU that executes programs and the like stored in the storage unit to control the device itself and perform various judgments, calculations, and control processing, a communication unit that connects to a network and handles communication processing with the control system 900, and an input/output unit that is an input means such as a keyboard and an output means such as a display.
- a storage unit including an appropriate non-volatile storage element such as an SSD or a hard disk drive, a volatile storage element such as a memory, a control unit such as a CPU that executes programs and the like stored in the storage unit to control the device itself and perform various judgments, calculations, and control processing, a communication unit that connects to a network and handles communication processing with the control system 900, and an input/output unit that is an input means such as a keyboard and an output means such as a
- the data distribution infrastructure system including the control system 900 according to the present embodiment is composed of the control system 900, a plurality of applications 901, and a plurality of microservices 903.
- the application 901 runs on a computer such as the asset terminal 400 or the ASP system 600
- the microservice 903 runs on a system composed of computers such as the user terminal 100 or the ASP system 600.
- the present invention is not limited to the type and number of the application 901 and the microservice 903.
- the application 901 and the microservice 903 are not limited to those realized by executing advanced software such as a simulation program provided by the ASP system 600, etc., and the application 901 may simply be regarded as a data transmission application of the asset terminal 400, and the microservice 903 may simply be regarded as a data reception application of the user terminal 100.
- the control system 900, the computer that executes the application 901 (such as the asset terminal 400 or the ASP system 600), and the system that executes the microservice 902 (such as the user terminal 100 or the ASP system 600) are connected to each other via a network.
- the network may be a WAN (Wide Area Network) or a LAN (Local Area Network), etc.
- the network connection may be either wired or wireless.
- the control system 900 provides at least one API 905 for one application 901 to connect to the control system 900. Furthermore, one microservice 902 provides at least one API 907 for connecting to the control system 900. Note that the control system 900 may provide at least one API 907 for connecting to one microservice 902.
- the control system 900 includes a communication unit 904 (API 905, API 907, etc., which are interfaces for data input and output), a control unit 902 (receiving unit 910, control unit 920, data due diligence (DD) unit 940, transmission unit 911, etc.), and a memory unit 130 (control library 930, knowledge graph database (DB) 931, evaluation result log database (DB) 932).
- a communication unit 904 API 905, API 907, etc., which are interfaces for data input and output
- control unit 902 receiving unit 910, control unit 920, data due diligence (DD) unit 940, transmission unit 911, etc.
- DD data due diligence
- DB evaluation result log database
- the storage unit 906 includes a control library 930 that stores codes and/or settings corresponding to controls for each control type.
- the control library 930 stores control types (various IT controls (e.g., security guidelines, etc.), various physical controls (e.g., the presence of security guards, the installation of automatic doors using entry/exit cards, etc.), various internal controls (e.g., transaction monitoring, etc.)) in association with codes and/or settings that can realize the controls.
- control types various IT controls (e.g., security guidelines, etc.), various physical controls (e.g., the presence of security guards, the installation of automatic doors using entry/exit cards, etc.), various internal controls (e.g., transaction monitoring, etc.)) in association with codes and/or settings that can realize the controls.
- control library 930 stores codes and/or settings corresponding to controls for each control type by storing, as control rules, at least one of, for example, guidelines to be observed, control frameworks, laws, treaties, contract clauses, and risks to be avoided, in association with the codes and/or settings.
- the storage unit 906 also includes a knowledge graph database (DB) 931 that stores a knowledge graph.
- a knowledge graph is composed of edges and nodes, where the nodes represent concepts, words, or items, and the edges represent relationships, co-occurrences, or statistics between the nodes.
- the nodes are not limited to languages, but as a more specific example, the knowledge graph may be a large language model (LLM).
- the knowledge graph DB 931 may store the analysis results (statistical information such as co-occurrences, etc.) and learning results (trained learning models, etc.) by the analysis and learning unit 923.
- evaluation result log database (DB) 932 stores the evaluation results or valuation results obtained by the data due diligence unit 140, which will be described later.
- the data due diligence unit 940 evaluates or values (hereinafter, “evaluation or valuation” may be collectively referred to as “evaluation”) the data input and output via the interfaces 905 and 907, and stores the evaluation results in the evaluation result log DB 932 of the storage unit 906.
- the data DD unit 940 may also perform evaluation or valuation based on the control verification log stored in the evaluation result log DB, etc.
- the data DD unit 940 is an evaluation module that is embedded in the data pipeline of the data distribution platform and performs evaluation via the communication unit 904. More specifically, when data is uploaded from the asset terminal 400, the data DD unit 940 is embedded in a gateway or edge computer on the data pipeline route, and may have a function of scoring the evaluation value of the data, adding it to the data as metadata, or storing it in the evaluation result log DB 932. For example, the data DD unit 940 may score at least one of the following items (A) to (J) as an evaluation value regarding the reliability of the data, and embed it in the metadata as a reliability evaluation value and/or store it in the evaluation result log DB 932.
- A Is the data verified using a distributed ledger?
- B Is it stored securely?
- C Is there gateway authentication?
- D Is there provenance metadata on where it originated?
- E Is owner information included using device signatures?
- F Is noise removed from the data distribution using the 3 sigma rule?
- G Does it exceed the optimal polling frequency according to the Nyquist criterion?
- H Does the authenticity fingerprint match?
- I Is it Byzantine fault tolerant?
- J Are the decryption results of satellite data, etc. (e.g. parity check results) correct?
- the data DD unit 940 can also perform evaluation in a batch processing manner on data input/output via the communication unit 904, in addition to the above-mentioned method of evaluating in near real time.
- the data DD unit 940 may perform evaluation in a batch processing manner based on a control verification log (which may include a history of evaluation results by the data DD unit 940 in near real time) stored in an evaluation result log DB by the log storage unit 125 of the control unit 920 described later.
- the data DD unit 940 may score whether or not the data conforms to control rules such as data distribution standards, guidelines, and laws and regulations such as the Personal Information Protection Act.
- the data DD unit 940 may evaluate not only as an operation of data input/output performed in real time or batch, but also as a design.
- the data DD unit 940 may evaluate in terms of control rules such as physical control, in which country the asset terminal 400, the ASP system 600, the user terminal 100, etc. on the data pipeline of the data distribution platform are located, who manages them and how, and whether they are designed to prohibit entry by outsiders.
- the data DD unit 940 may score whether the physical control rules are met based on the history of data sensed to indicate that physical control is being performed (e.g., the history of entry and exit using an entry/exit card or an automatic locking door, the operation status of a surveillance camera, and the attendance history of security guards).
- the history of data sensed to indicate that physical control is being performed e.g., the history of entry and exit using an entry/exit card or an automatic locking door, the operation status of a surveillance camera, and the attendance history of security guards.
- the data DD unit 940 may function as an evaluation module that accepts evaluation from an external device or the like via the communication unit 904.
- the data DD unit 940 presents the evaluation verification log of the evaluation result log DB 932 to a user of the auditing firm or the like and accepts an evaluation from the outside (which may also be called an examination or audit).
- the data DD unit 940 accepts an evaluation via the communication unit 904 as to whether or not the above-mentioned data value evaluation method conforms to control rules such as data distribution standards, guidelines, and laws and regulations such as the Personal Information Protection Act.
- the data DD unit 940 may be configured to present an evaluation value scoring program so that an auditing firm or the like can verify the internal processing method of the data DD unit 940.
- the data DD unit 940 may be configured to present data uploaded by the data presentation device 400 (data not including sensitive information, ontology-based data, etc.) and original data before uploading (data including sensitive information, data before ontology-based data, etc.) in a comparable manner.
- the data DD unit 940 has a function of automatically checking items such as those listed below, and may accept evaluations (which may be rephrased as examinations or audits to see whether the information complies with the Securities and Exchange Act or international accounting guidelines) via the communication unit 204.
- the data DD unit 940 may perform evaluation and rating according to the data evaluation criteria based on ISO25012. For example, the data DD unit 940 may evaluate at least one of the following assertion items: accuracy, completeness, validity, confidentiality, integrity, interoperability, usefulness, and legal compliance. In this case, the data DD unit 940 can quantify the quality of each assertion item by a measurement function such as A/B, with A being the measurement element and B being the total amount, as shown in Table 2 (see ISO25012). Therefore, the data DD unit 940 may use the numerical value of this quality as the evaluation value. Alternatively, the data DD unit 940 may set a predetermined threshold value for each assertion item and determine whether the quality is good or bad depending on whether the numerical value of these quality values meets the threshold criteria.
- control unit 920 of the control unit 902 executes and/or sets code stored in the control library 930 that corresponds to the control to be set, thereby realizing the control.
- the control to be set may be set automatically based on control rules such as laws and regulations that must be observed in the country or region in which the data providing device 600, the ASP system 600, or the user terminal 100 is installed, or the nationality of the user or corporation of the data providing device 600, the ASP system 600, or the user terminal 100, or may be set manually by the user of the data providing device 600, the ASP system 600, the user terminal 100, or the control system 900 via the communication unit 904, the input/output unit 908, etc. As shown in FIG.
- control unit 920 includes a configuration execution unit 921 that executes code stored in a control library 930 corresponding to the set control and/or configures, debugs, automatically verifies, and executes settings; an editing and processing unit 922 that edits and processes data; an analysis and learning unit 923 that analyzes and learns data; a derived data generation unit 924 that generates derived data based on the analysis results and learning results of knowledge graphs, etc.; and a log storage unit 125 that stores various histories in an evaluation result log DB 932 as control verification logs.
- the control unit 920 can realize the control by automatically configuring and executing a combination of code execution and/or settings from the control library 930 that corresponds to the set control. A specific method of automatic configuration by the control unit 920 will be described later.
- the control unit 102 : 1. Select a combination of interfaces (APIs 905, 107, etc.) (i.e., what application 901 to accept data input from and what microservice 903 to output data to, etc.) 2. Selecting data to be input and/or output (i.e., what data to accept as input from application 901 and what data to output to microservice 903); 3.
- APIs 905, 107, etc. i.e., what application 901 to accept data input from and what microservice 903 to output data to, etc.
- Editing or processing the data to be entered (for example, if the entered data contains personal information, the personal information will be deleted or processed, and the data will be edited or processed to a level that can be considered pseudonymized information under the Personal Information Protection Act), 4.
- Controlling the output of derived data generated from input data (for example, if the input data contains personal information, generating derived data from a knowledge graph or the like that reflects statistical information on the original data, thereby converting the personal information under the Personal Information Protection Act into information that can be considered anonymously processed information), 5.
- Controlling so that data with high evaluation or valuation results are input and/or output for example, controlling so that data with a score equal to or higher than a predetermined threshold is input and output based on the scoring by the data DD unit 940, etc.
- Controlling so that data with low evaluation or valuation results are not input and/or output (for example, controlling so that data with a score below a predetermined threshold based on the scoring by the data DD unit 940 is not input or output, etc.); 7. Verify that the data complies with governance rules (e.g., ESG (Environment, Social, Governance) rules, IT governance rules for data loss, security guidelines, risk avoidance rules), 8.
- governance rules e.g., ESG (Environment, Social, governance) rules, IT governance rules for data loss, security guidelines, risk avoidance rules
- Verifying sensor data that shows that physical controls are in place for example, verification based on entry/exit history using entry/exit cards or automatic locking doors, operation status history of surveillance cameras, and attendance history of security guards).
- the control may be realized by performing at least one of the following:
- the log storage unit 125 of the control unit 920 may store these histories as a control verification log in the evaluation result log DB 932.
- the derived data generating unit 924 of the control unit 920 converts the input data into derived data.
- the derived data generating unit 924 generates derived data based on a knowledge graph that reflects the input data.
- the analysis learning unit 923 of the control unit 920 analyzes and learns the input data to generate a knowledge graph in which various items and concepts are set as nodes and statistical data such as co-occurrence of variance and covariance are set as edges, and stores the knowledge graph in the knowledge graph DB 131.
- the derived data generating unit 924 of the statistics unit 120 may read out a knowledge graph that reflects the statistical information of the input data from the knowledge graph DB 131, give a random number group to the knowledge graph, and shape the knowledge graph to reflect statistics such as variance-covariance, thereby generating derived data and controlling it to be output.
- the derived data generating unit 924 can generate output derived data from input data using a known derived data generating method. For example, when the input data corresponds to personal information under the Personal Information Protection Act, the control rules of the Personal Information Protection Act can be complied with by generating and outputting derived data that has been processed to a level that can be considered anonymously processed information.
- the derived data generating process may be performed in the asset terminal 400 or the like.
- Fig. 16 is a diagram showing a schematic diagram of the function of the control unit 920 of the control system 900 in this embodiment.
- the control system 900 is connected to the asset terminal 400, the ASP system 600, and the user terminal 100 via the network 300.
- the control system 900 assists the user U1 in configuring program code (code development and settings) to realize control.
- the program may be executed using various services provided by the asset terminal 400, the ASP system 600, etc., or may be a program executed within the control system 900 (such as an OS (operating system) or a data editing and processing program).
- User U1 operates the user terminal 100 to input settings related to the controls he/she wishes to comply with (control rules such as the Personal Information Protection Act) for the program he/she wishes to use in the asset terminal 400, ASP system 600, control system 900, etc.
- the control system 900 selects the service to be used by user U1 from multiple candidates for services to be used to execute the program.
- the control system 900 has a control library 930 and a control unit 920.
- the control library 930 stores the control rules 7 and programs 8 acquired by the control unit 920. Note that when using a program of the ASP system 600, the control library 930 does not need to store the program, and may only store some code for function expansion for using the program and setting information for the program.
- the control rules 7 are information indicating restrictions based on the policies of the user U1 (such as compliance conditions with laws and guidelines, and service usage policies) that accompany the execution of the program 8.
- the program 8 may have been created without consideration of IT control rules, such as the settings of the asset terminal 400 and the user terminal 100, or processing requests via the network 300 between servers.
- Constraints indicated by control rule 7 may be, for example, a lower limit on the score or performance of the evaluation results, or an upper limit on the cost associated with using the service.
- costs may include the cost of using the service, the amount of computing resources required to process the service (amount of processor resources or memory resources), and the amount of CO2 emissions associated with processing.
- performance may include the response time of the service (or an index value indicating the speed of the response time) and the uptime rate (or an index indicating the evaluation results of the service's credibility, such as the frequency of release of update patches for the service).
- the control library 930 also stores a rule table 9 in advance.
- the rule table 9 is information that indicates the correspondence between a code pattern (code pattern) that indicates processing that can use a specific service, among the codes (set of instructions) that can appear in the program 8, and a candidate for a usable service (a candidate for use).
- the rule table 9 may also be called rule information.
- the rule table 9 also sets the value of a predetermined parameter p that corresponds to each service.
- the parameter p is an index that indicates the cost or performance when the corresponding service is selected.
- the parameter p is an input to the control rule 7.
- rule table 9 similarly, candidate services to be used and the value of parameter p are registered for other code patterns.
- the asset terminal 400 and the ASP system 600 may be, for example, server computers that provide cloud services, in which case the asset terminal 400 corresponds to a data cloud and the ASP system 600 corresponds to a SaaS cloud.
- the asset terminal 400 and the ASP system 600 execute processes using pre-set programs and configuration information in response to data transmission requests and processing requests received via the network 300. Processes that the asset terminal 400 and the ASP system 600 can execute include sending data in response to an adoptive parent request, processing data received via the network 300, executing functions in response to requests received via the network 300, and saving data received via the network 300.
- the control unit 920 obtains a program 8 including code 8a and settings 8b corresponding to the control rule 7 from the control library 930. It should be noted again that when a SaaS program is used, the control unit 920 obtains designation information for the code 8a and settings 8b corresponding to the control rule 7 to be used for that program.
- control unit 920 when executing program 8, the control unit 920 identifies a set of services that satisfies control rule 7 from among multiple candidate services based on the code pattern included in program 8.
- control unit 920 detects code 8a that corresponds to code pattern P1 from within the program 8 by pattern matching. In this case, it can be said that the program 8 includes code pattern P1. Then, based on the rule table 9, the control unit 920 identifies services A1 and A2 as candidate services for use that correspond to the code 8a.
- the control unit 920 also uses pattern matching to detect, from within the program 8, setting code 8b that corresponds to code pattern P2 registered in the rule table 9. In this case, it can be said that the program 8 includes code pattern P2. Then, based on the rule table 9, the control unit 920 identifies services B1 and B2 as candidate services for use that correspond to code 8b.
- service A1 or A2 is selected for code 8a.
- service B1 or B2 is selected for code 8b.
- control unit 920 detects each code pattern included in the program 8, and identifies multiple candidate services.
- the control unit 920 then obtains the parameter p for each candidate from the rule table 9, and identifies a set of services that satisfies the control rule 7.
- the candidate services to be selected are services A1, A2, B1, and B2, and an upper limit Z for the total CO2 cost is given as the control rule 7 regarding ESG.
- the parameter p indicates the value of the CO2 cost of the candidate service.
- services A1 and B1 there are four selectable service pairs: services A1 and B1, services A1 and B2, services A2 and B1, and services A2 and B2.
- the total cost when services A1 and B1 are selected is a1 + b1.
- the total cost when services A1 and B2 are selected is a1 + b2.
- the total cost when services A2 and B1 are selected is a2 + b1.
- the total cost when services A2 and B2 are selected is a2 + b2.
- the pair that does not exceed the CO2 cost upper limit Z is assumed to be services A1 and B1.
- the control unit 920 identifies the pair of services A1 and B1 as a pair that satisfies ESG control rule 7. Note that, if there are multiple pairs that do not exceed the CO2 cost upper limit Z, the control unit 920 may identify the pair of services with the smallest total CO2 cost.
- control unit 920 When the control unit 920 identifies the pair of services A1 and B1 as a pair of services that satisfies control rule 7, it executes program 8 using the pair of services A1 and B1. For example, when executing code 8a of program 8, the control unit 920 may convert code 8a into code that uses service A1 and execute it. Similarly, when executing code 8b of program 8, the control unit 920 may convert code 8b into code that uses service B1 and execute it.
- control unit 920 may convert the program 8 into a group of programs for distributed processing software that combines multiple services. For example, a first template for program conversion may be preregistered in the rule table 9 in association with the code pattern P1. Similarly, a second template for program conversion may be preregistered in the rule table 9 in association with the code pattern P2.
- a “template” refers to the format (prototype) of a specified program that defines the processing of a service.
- the first template indicates a format (prototype) of a program that specifies that the ASP system 600 executes a specific process in response to a processing request.
- the first template is, for example, a format of a program to be executed by the ASP system 600, or a format of a program for sending configuration information to the ASP system 600.
- the second template indicates a format (prototype) of a program that sends a processing request to the ASP system 600 via the network 300.
- the first template shows the format of a function program
- the second template shows the format of a program that calls a function.
- the first template shows the format of a program that sets a data storage location
- the second template shows the format of a program that requests writing and reading of data.
- the control unit 920 may generate a first post-conversion program that uses service A1 by substituting a value extracted from code 8a into an argument of the first template.
- the first post-conversion program specifies that the ASP system 600 executes the process corresponding to code 8a using service A1.
- the first post-conversion program is applied to the ASP system 600.
- the first post-conversion program is sent to the ASP system 600, and the first post-conversion program is executed by the ASP system 600.
- predetermined setting information may be sent to the ASP system 600 according to a procedure specified by the first post-conversion program.
- control unit 920 may generate a second post-conversion program that uses service B1 by substituting a value extracted from code 8b into an argument of the second template.
- the second post-conversion program specifies that the ASP system 600-2 executes the process corresponding to code 8b using service B1.
- the second post-conversion program is applied, for example, to an ASP system 600-2 that is different from the ASP system 600-1.
- the second post-conversion program is sent to the ASP system 600-2, and the second post-conversion program is executed by the ASP system 600-2.
- the ASP system 600-2 may provide other services.
- the second template also serves as a program format that specifies that the ASP system 600-2 should execute a specific process. This allows the control unit 920 to link multiple services (e.g., services A1 and B1) on the ASP system 600-1 and ASP system 600-2 to execute the process described in program 8.
- a control rule 7 and a program 8 are acquired, and when the acquired program 8 is executed, a set of services that satisfies the control rule 7 is identified from a number of candidate services based on the code pattern contained in the program 8. Then, the program 8 is executed using the identified set of services.
- control system 900 can provide a combination of services to user U1 of the user terminal 100 so as not to exceed the CO2 cost expected by user U1.
- ISMAP Information system Security Management and Assessment Program
- the evaluation value of the Information system Security Management and Assessment Program may be used as control rule 7.
- the lower limit of the security evaluation value registered based on ISMAP may be used.
- a lower limit of the average uptime may be used as control rule 7.
- the reliability of the function realized by program 8 can be improved.
- control rule 7 may include conditions for each of multiple types of parameters such as CO2 cost and performance value.
- the control unit 920 may then select a set of services that meets all of the conditions for each of the multiple types of parameters.
- the control unit 920 may also accept input of priorities for various parameters.
- the control unit 920 may select a set in which the type of parameter with a higher priority is evaluated more favorably against the conditions. For example, consider a case in which the control rule 7 includes conditions for both CO2 cost and performance value, and the priority of cost is higher than the priority of performance value. In this case, when there are multiple sets of services that meet all of the conditions for each of cost and performance value, the control unit 920 may identify the set with the smallest cost among the multiple sets as the set of services to be used.
- the entity that executes the processing of the various services may be the control system 900. That is, the control system 900 may execute the processing of the service itself, without requesting the processing of the service from the asset terminal 400 or the ASP system 600.
- the entity that executes the processing of the various services may be an information processing system that includes the control system 900 and the asset terminal 400 or the ASP system 600 (another information processing device). In this case, it can be said that the entity that executes the functions of the control system 900, the various services, and the program 8 (or the converted program) is the information processing system.
- control system 900 The above is an example of the configuration of the control system 900 of this embodiment. Note that with regard to each functional unit of the control system 900, multiple functional units may be combined into one functional unit, or one functional unit may be divided into multiple functional units for each function.
- FIG. 17 is a flowchart illustrating an example of processing of the control system 900 of this embodiment.
- the control unit 920 of the control system 900 receives operations from the user of the user terminal 100 via the input/output unit 208 through processing by the configuration execution unit 921, and controls the user to set control rules and the data type and application type he or she wishes to use (SA1).
- SA1 control rules and the data type and application type he or she wishes to use
- the user specifies ISMAP and ESG control rules, and specifies that he or she wishes to select a routing application for joint delivery from SaaS software using other companies' delivery schedule data from cloud data.
- the control unit 920 automatically configures the asset terminal 400 that provides the data and the ASP system 600 that provides the application, and their codes and/or settings, which satisfy the specified control rules, data type, and application type specifications, through the processing of the configuration execution unit 921 (SA2).
- SA2 configuration execution unit 921 selects the ASP system 600 that provides the specified joint delivery routing application and the asset terminal 400 that provides other company delivery schedule data for that purpose, while preferentially selecting the data cloud (multiple asset terminals 400) and SaaS cloud (multiple ASP systems 600) that have a high evaluation value registered in ISMAP according to the ISMAP control rules.
- the joint delivery routing application with a CO2 emission reduction program is preferentially selected. Note that, if there are multiple candidates, the one that is more suitable for the control rules, in this example, the one with the lowest CO2 cost or the one with the highest ISMAP evaluation value, may be preferentially selected.
- control unit 920 accepts the specification of other control rules (SA3). For example, if a large number of asset terminal 400 candidates or a large number of ASP system 600 application candidates are presented in the above step (SA3, YES), the process returns to step SA1 to narrow down the candidates, and further control rule specifications are accepted from the user of the user terminal 100.
- SA3 control rules
- control unit 920 mediates data input and output so that the data output from the asset terminal 400 configured in the above steps is input to the application of the ASP system 600 by the processing of the configuration execution unit 921, specifying the code and/or settings configured in the above steps (SA4).
- the control system 900 receives location information and slip information, etc.
- the receiving unit 100 receives the data DD unit 940, and transmits the data to the ASP system 600 that provides a joint delivery application (an example of a microservice 903) via the API 907 by the processing of the transmission unit 911.
- a smartphone an example of an asset terminal 400
- a delivery truck driver via the API 905 by the receiving unit 100
- checks the authenticity of the data whether the parity check result when the satellite data is decrypted to obtain the location information is correct, whether it has been tampered with, etc.
- the processing of the data DD unit 940 transmits the data to the ASP system 600 that provides a joint delivery application (an example of a microservice 903) via the API 907 by the processing of the transmission unit 911.
- the editing and processing unit 922 may process the data, for example by deleting sensitive data, before outputting it to the ASP system 600.
- the derived data generation unit 924 may generate derived data based on a knowledge graph that reflects statistical information on location information, and output this derived data to the ASP system 600.
- the control unit 920 stores a log of the evaluation value of the data, the processing details, etc., in the evaluation result log DB 932 through processing by the log storage unit 123 (SA5).
- the quality of the input/output data may be stored as metadata (ownership information, device information such as a smartphone, etc.) in the evaluation result log DB 932, and the above-mentioned data processing process details, derived data processing details, and the operation results of the SaaS application (such as the amount of CO2 emissions reduced by joint delivery) may be stored as logs in the evaluation result log DB 932.
- the data DD unit 940 performs an evaluation of the control verification based on the log stored in the evaluation result log 132 (SA6).
- This control verification is an evaluation performed as a batch process, and is different from the real-time data evaluation performed in step SA4 described above.
- this control verification may be performed automatically by the data DD unit 940 in accordance with the control rules, or the log stored in the evaluation result log 132 may be presented so that it can be manually evaluated from another terminal by an auditor or the like, and an evaluation may be accepted from an external terminal.
- control unit 920 determines whether or not the control is in compliance based on the control verification result by the data DD unit 940 (SA7), and if the control is not in compliance (SA7, NO), the process returns to step SA2 and reconfigures the code, settings, etc. (SA2). Therefore, the procedure in the first cycle up to step SA7 can also be considered as a test operation or debugging process carried out before the actual execution.
- control unit 920 prompts the user to input whether or not to terminate, and if not to terminate (SA8, NO), returns the process to SA4 and starts execution. Therefore, the procedure of the first cycle that reaches this step SA8 can be considered as terminating the test execution and asking the user whether or not to perform the actual execution.
- control unit 920 determines that the processing should be terminated (SA8, YES), the above processing is terminated.
- SA8 the processing should be terminated
- Example 1 The present embodiment described above may be used as various examples.
- the Work Style Reform Bill will be implemented in the logistics industry in 2024, which will limit working hours, so it will be necessary to carry out previous work within the limited working hours.
- there is a demand for optimizing transportation efficiency for example, improving the productivity (sales - expenses) per working hour of a driver.
- logistics company A as a user, could increase the rate of return trips where return trips have often been empty (i.e., the rate of return trips where vehicles were in use was low) by collaborating with other companies in the same industry to match return trips, productivity could be improved.
- the data source industry "B” and the data destination industry “toB” are both specified as “transportation industry” and the purpose “object” is specified as “vehicle utilization rate,” “productivity,” “load and vehicle matching,” etc., it will be possible to find other users who are potential partners for collaboration.
- Example 2 when a service of a certain company is provided as a supply chain across multiple companies, it can lead to the quality of the service of the entire supply chain (for example, improved robustness or resilience).
- the quality of the service of the entire supply chain for example, improved robustness or resilience.
- the companies involved in the supply chain as data provider "B" and specifying component values related to robustness or resilience as the data type "data” or specifying the purpose “object” as “robust” or “resilience”
- data collaboration with potential partners can be performed, leading to an improvement in the quality of the entire supply chain.
- Example 3 As another example 3, it can be applied to ESG-related Scope 3 (greenhouse gas emissions from the entire value chain). For example, as in the above-mentioned example 2, by linking data across the entire supply chain, it is possible to add up CO2 emissions at the source of the supply chain and evaluate CO2 emissions across the entire supply chain. In this way, it is possible to use a bottom-up white-box addition evaluation method, and it is also possible to improve KPIs such as cost, price, and greenhouse effect.
- KPIs such as cost, price, and greenhouse effect.
- an evaluation can be performed to conform to information security service standards such as ISMAP. For example, by evaluating security measures from a report set of a contractor (cloud service provider) as a data sharing destination and providing it to a user (own user), actual security information of the service provider (contractor) can be collected and evaluated within the contractor company. In addition, risk control information can be automatically identified and acquired.
- information security service standards such as ISMAP. For example, by evaluating security measures from a report set of a contractor (cloud service provider) as a data sharing destination and providing it to a user (own user), actual security information of the service provider (contractor) can be collected and evaluated within the contractor company. In addition, risk control information can be automatically identified and acquired.
- a use case collection file that stores at least a correspondence between data types and uses, and the use and the data types corresponding to the use are presented to the user based on the use case collection file.
- the purpose and the data type corresponding to that purpose are presented as a use case, so even users with little knowledge or experience in data utilization can receive suggestions for new uses and use cases for data utilization, making it possible to promote data utilization.
- this embodiment may further include a patent document file that stores patent document information, and at least descriptions related to data type and use may be extracted from the patent document information, associated with each other, and stored in the use case collection file.
- the usefulness can be measured according to the number of use cases and applications in the patent document, and useful use cases can be presented to users.
- the combination of data type and purpose, and/or the combination of data or other users and purpose is rated as being of high value based on at least one of the following: (1) the more users who have adopted it, (2) the longer the period of adoption by users, (3) the more money the users have spent on adoption, (4) the higher the evaluation from users who have adopted it, (5) the more improvement requests from users who have adopted it, (6) the more comprehensive the data is, (7) the more accurate the data is, (8) the more consistent the data is, (9) the more timely the data is, (10) the higher the quality of data processing, (11) the higher the reproducibility of derived data from the original data, and (12) the higher the effect of data linkage. Therefore, the usefulness can be determined based on the user's usage history and feedback, and practical use cases can be presented to the user.
- the possibility of acquiring data and/or the value of the data that can be acquired may be estimated from information acquired via the communication unit.
- analysis relationship information is generated that specifies the link between the data to be analyzed and the analysis components that perform analysis processing on the data, based on the correspondence between data type and use stored in the use case collection file, and a combination of analysis components that can be used for specific data designated by the user as the analysis target is identified based on the analysis relationship information.
- this embodiment may further include an evaluation module unit that is embedded in the data pipeline and receives evaluations via the communication unit.
- the data type may include the industry of the data provider and the type of data
- the use may include the industry of the data recipient and the purpose of use of the data recipient.
- control unit may, in the process of generating the analytical relationship information, generate data matching logic that relates multiple pieces of analysis target data in accordance with relationships between the pieces of analysis target data based on attributes of the pieces of analysis target data, and extracts the multiple pieces of analysis target data when analyzing them, as one of the analysis components, using a predetermined algorithm.
- data matching logic that relates multiple pieces of analysis target data in accordance with relationships between the pieces of analysis target data based on attributes of the pieces of analysis target data, and extracts the multiple pieces of analysis target data when analyzing them, as one of the analysis components, using a predetermined algorithm.
- control unit may, in the process of generating the analysis relationship information, link the data matching logic with a data analysis logic that is one of the analysis components and that performs an analysis process on the analysis target data extracted by the data matching logic, by comparing meta-information regarding the data handled by each of the data matching logic and the data analysis logic.
- control unit may further execute a process of updating the analysis relationship information based on performance information of the analysis process performed by the analysis component.
- control unit when updating the analysis relationship information, may link the analysis process with at least one of the following information: the purpose of the analysis process, the business corresponding to the purpose, and the target of the business.
- control unit may identify the combination of analysis components based on the performance information as well. This allows the combination of analysis parts to be specified with greater precision.
- control unit may further execute a process of identifying an analytical process similar to the identified combination of analytical components based on performance information of the analytical process by the analytical components, and determining the usefulness of the identified combination of analytical components based on a performance value of the frequency of occurrence of a predetermined event related to the similar analytical process.
- control unit may further execute a process of outputting information regarding the identified combination of analysis components to a specified device as information regarding candidate combinations of analysis components suitable for analyzing specified data designated as the analysis target. This makes it possible to present to the user information on analysis components suitable for analyzing the data to be analyzed.
- the information processing system may, in the process of generating the analytical relationship information, relate multiple pieces of analysis target data according to the relationships between the pieces of analysis target data based on the attributes of each piece of analysis target data, and generate data matching logic that extracts the multiple pieces of analysis target data during analysis using a specified algorithm as one of the analysis components.
- the information processing system may, in the process of generating the analysis relationship information, link the data matching logic with a data analysis logic that is one of the analysis components and that performs an analysis process on the analysis target data extracted by the data matching logic, by comparing meta-information regarding the data handled by each of the data matching logic and the data analysis logic.
- the information processing system may further execute a process of updating the analysis relationship information based on performance information of the analysis processing by the analysis component.
- the analysis process when the information processing system updates the analysis-related information, the analysis process may be linked to at least one of the following information: the purpose of the analysis process, the business corresponding to the purpose, and the target of the business.
- the combination of analysis components may be identified based on the performance information as well.
- the information processing system may further execute a process of identifying an analytical process similar to the identified combination of analytical components based on performance information of the analytical process using the analytical components, and determining the usefulness of the identified combination of analytical components based on a performance value of the frequency of occurrence of a specified event related to the similar analytical process.
- the information processing system may further execute a process of outputting information regarding the identified combinations of analysis components to a specified device as information regarding candidate combinations of analysis components suitable for analyzing the specified data designated as the analysis target.
- various tangible and intangible assets such as data assets generated by IoT devices, a company's customer list, networks such as business partners and logistics, human resources, know-how, and ledgers and ledger data can be discovered, analyzed, and evaluated.
- new use cases can be automatically detected to promote business-to-business (B to B) collaboration and digital transformation (DX), and these can be proposed to potential partners.
- DX digital transformation
- a trust assessment of the data can be presented to potential partners, making this an industrially applicable system.
- the data utilization promotion system has been described as being realized as a distributed computing system with separate housings that realize the functions, but this is not limited to this and it may be performed in the same housing.
- each function of the control unit, memory unit, etc. can be functionally or physically distributed and integrated according to the functional load or in any unit.
- the data utilization promotion system has been described as performing processing in response to a request from a client terminal such as the user terminal 100 or the asset terminal 400, and returning the processing results to the client terminal, the data utilization promotion system may also be configured as an integrated system including the user terminal 100, the asset terminal 400, etc., to perform processing in a stand-alone form.
- all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically using a known method.
- processing procedures, control procedures, specific names, registered data for each process, information including search conditions and other parameters, screen examples, and database configurations shown in the above documents and drawings may be changed as desired unless otherwise specified.
- each component shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure.
- each device of the data utilization platform server 200 may be realized in whole or in part by a processor such as a CPU (Central Processing Unit) and a program interpreted and executed by the processor, or may be realized as a hardware processor using wired logic.
- the program is recorded on a non-transient computer-readable recording medium that includes programmed instructions for causing a computer to execute the method according to the present invention, as described below, and is mechanically read by the data utilization platform server 200 as needed (it may also be read by the data utilization platform server 200 from the ASP server 600, etc., as needed).
- a computer program for giving instructions to the CPU in cooperation with the OS (Operating System) and performing various processes is recorded in the storage unit 106 such as a ROM or HDD (Hard Disk Drive).
- This computer program is executed by being loaded into the RAM, and cooperates with the CPU to form the control unit.
- this computer program may be stored in an application program server connected to the user terminal 100, the data utilization infrastructure server 200, the asset terminal 400, the ASP server 600, the patent document information server 800, etc. via any network, and it is also possible to download all or part of it as needed.
- the program according to the present invention may be stored in a computer-readable recording medium, or may be configured as a program product.
- the term “recording medium” includes any "portable physical medium” such as a memory card, USB memory, SD card, flexible disk, magneto-optical disk, ROM, EPROM, EEPROM, CD-ROM, MO, DVD, and Blu-ray (registered trademark) Disc.
- a "program” is a data processing method written in any language or description method, and may be in any format, such as source code or binary code.
- a "program” is not necessarily limited to a single configuration, but also includes a distributed configuration consisting of multiple modules or libraries, and a program that achieves its function by working together with a separate program, such as an OS (Operating System).
- OS Operating System
- the specific configuration for reading a recording medium in each device shown in the embodiments, the reading procedure, or the installation procedure after reading may use well-known configurations and procedures.
- the present invention may be configured as a program product in which a program is recorded on a non-transitory computer-readable recording medium.
- the various databases (Patent Document DB 301, Use Case Collection File 302, etc.) stored in the storage units 106, 206, 406, etc. are storage means such as memory devices such as RAM and ROM, fixed disk devices such as hard disks, flexible disks, and optical disks, and store various programs, tables, databases, and web page files used for various processes and website provision.
- the user terminal 100, the data utilization infrastructure server 200, the asset terminal 400, the ASP server 600, the patent document information server 800, etc. may be configured as a known information processing device such as a personal computer or a workstation, and may be configured by connecting any peripheral device to the information processing device.
- the user terminal 100, the data utilization infrastructure server 200, the asset terminal 400, the ASP server 600, the patent document information server 800, etc. may be realized by implementing software (including programs, data, etc.) that causes the information processing device to realize the method of the present invention.
- the specific form of distribution and integration of the devices is not limited to that shown in the figures, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various additions, etc., or depending on the functional load.
- the above-mentioned embodiments can be implemented in any combination, or the embodiments can be implemented selectively.
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Technology Law (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
データ種別と用途とを少なくとも対応付けてユースケースファイルに格納し、ユースケース集ファイルに基づいて、ユーザに、用途とともに当該用途に対応するデータ種別を提示する。
Description
本発明は、データ利活用促進システム、データ利活用促進方法、および、プログラムに関する。
デジタルトランスフォーメーション(digital transformation:DX)に対する社会的意識の高まりもあり、IoT(Internet of Things)技術を用いて、様々な事象に関して膨大な計測データ等が収集、分析される傾向が強まっている。
例えば、運輸、交通、電力、製造、その他の分野の業務における様々な問題を解決するために、部署や業務さらには会社や業界を跨いで横断的にデータを収集・分析し、データ利活用して、生産性の向上や新規ビジネス創出につなげようという取り組みが挙げられる。
しかしながら、大量のデータの理解が必要であり、たとえば異業種間を跨いでデータを利活用しようとする場合、そのデータがどのような用途で利活用できるのかをユーザが想起することが困難であり、データ利活用の妨げの一因になっていた。
また、同業者間であっても、自社がどの他社とデータ連携や協業すればよいか把握することが難しく、データ利活用やDX化の妨げの一因となっていた。
ここで、特許文献1では、複数の業務システムからの多種多様データを用いての様々な目的でのデータ利活用を容易に行えるように、データ利活用を行うユーザ向けに、利活用の目的に対して、適切なデータ準備内容の提案を行うデータ利活用システムが記載されている。より具体的には、特許文献1のデータ利活用システムでは、(1)ユーザが指定する利活用目的とシステムにて用意するデータ情報との照合を行い、該利活用目的のために実施すべきデータ準備内容項目及び難易度を算出し提示する。
しかしながら、特許文献1等に記載の先行技術においては、データ利活用を行おうとするユーザは、まず、KPI(key performance indicators)などのデータ利活用の目的や用途を指定しなければならず、特に異業種間を跨いでデータを利活用してDX新規事業等を創出しようとするときには、ユーザは、はじめから具体的な目的や用途を想起し難く、また生産性向上等の目的がはっきりしているときであっても、どのような業種のどのようなデータを用いればよいか、同業者であってもどの他社とデータ連携すればよいかを想起し難いという問題がある。
特に、特許文献1等に記載の先行技術においては、データ利活用の実績ベースで、KPI等の目的に対するデータ連携を収集したりデータ有用度を把握しており、データ利活用の実績が少ない場合には、新たなデータ連携の提案をすることが難しいという問題もある。
そこで、本発明は、上述した課題等に鑑み考案されたものであって、データ利活用の知識や経験が乏しいユーザであっても、データ利活用の新たな用途やユースケース、適切なデータ連携先や協業先を把握することができる、データ利活用促進システム、データ利活用促進方法、および、プログラムを提供することを目的とする。
上記課題を解決する本発明のデータ利活用促進システムは、記憶部と制御部を少なくとも備えたデータ利活用促進システムにおいて、前記記憶部は、データ種別と用途とを少なくとも対応付けて格納したユースケース集ファイル、および/または、複数の異なるユーザのデータを格納したデータベースを備え、前記制御部は、前記ユースケース集ファイルに基づいて、用途とともに当該用途に対応するデータ種別を抽出する、および/または、前記データベースに登録された前記複数の異なるユーザの中から、データ連携により用途に適した他のユーザを抽出する抽出部と、前記抽出した、用途とともに当該用途に対応するデータ種別、および/または、用途に適した他のユーザを、提示する提示部、を備える。
また、本発明のデータ利活用促進方法は、データ種別と用途とを少なくとも対応付けて格納したユースケース集ファイル、および/または、複数の異なるユーザのデータを格納したデータベースを備えた記憶部と制御部を少なくとも備えたデータ利活用促進システムにおいて実行されるデータ利活用促進方法であって、前記制御部において実行される、前記ユースケース集ファイルに基づいて、用途とともに当該用途に対応するデータ種別を抽出する、および/または、前記データベースに登録された前記複数の異なるユーザの中から、データ連携により用途に適した他のユーザを抽出する抽出ステップと、前記抽出した、用途とともに当該用途に対応するデータ種別、および/または、用途に適した他のユーザを、提示する提示ステップと、を含む。
また、本発明のプログラムは、データ種別と用途とを少なくとも対応付けて格納したユースケース集ファイル、および/または、複数の異なるユーザのデータを格納したデータベースを備えた記憶部と制御部を少なくとも備えたデータ利活用促進システムにおいて実行させるためのプログラムであって、前記制御部において、前記ユースケース集ファイルに基づいて、用途とともに当該用途に対応するデータ種別を抽出する、および/または、前記データベースに登録された前記複数の異なるユーザの中から、データ連携により用途に適した他のユーザを抽出する抽出ステップと、前記抽出した、用途とともに当該用途に対応するデータ種別、および/または、用途に適した他のユーザを、提示する提示ステップと、を実行させることを特徴とする。
本発明によれば、データ利活用の知識や経験が乏しいユーザであっても、データ利活用の新たな用途やユースケース、適切なデータ連携先や協業先などの提案を受けることができ、データ利活用を促進することが可能となる。
<システム構成>
以下に本発明の実施形態について図面を用いて詳細に説明する。図1は、本実施形態のデータ利活用促進システムの構成例を示す図である。図1に示すように、本実施形態のデータ利活用促進システムは、分散型コンピューティングシステムとして構成され、一例として、図示のごとく、ユーザ端末100やアセット端末400等に接続されるゲートウェイ機器と、ゲートウェイ機器とネットワークにて接続された無線基地局等に設置されるエッジコンピュータと、エッジコンピュータにネットワークにて接続されたクラウドサーバに、機能分散されて構成される。本実施形態では、このように複数台の装置に機能分散されたデータ利活用システムを、データ利活用基盤サーバ200と称して説明するが、これに限られず、データ利活用システムは、一台のサーバ装置で構成されてもよい。また、データ利活用システムは、データ流通基盤としての性質を備えていてもよい。なお、本実施形態のデータ利活用促進システムは、ユーザ端末100やアセット端末400等を含んで構成されてもよい。
以下に本発明の実施形態について図面を用いて詳細に説明する。図1は、本実施形態のデータ利活用促進システムの構成例を示す図である。図1に示すように、本実施形態のデータ利活用促進システムは、分散型コンピューティングシステムとして構成され、一例として、図示のごとく、ユーザ端末100やアセット端末400等に接続されるゲートウェイ機器と、ゲートウェイ機器とネットワークにて接続された無線基地局等に設置されるエッジコンピュータと、エッジコンピュータにネットワークにて接続されたクラウドサーバに、機能分散されて構成される。本実施形態では、このように複数台の装置に機能分散されたデータ利活用システムを、データ利活用基盤サーバ200と称して説明するが、これに限られず、データ利活用システムは、一台のサーバ装置で構成されてもよい。また、データ利活用システムは、データ流通基盤としての性質を備えていてもよい。なお、本実施形態のデータ利活用促進システムは、ユーザ端末100やアセット端末400等を含んで構成されてもよい。
データ利活用基盤サーバ200は、データ利活用の新たな用途やユースケース、データ連携先や協業先を提案するサーバ装置となる。さらに、データ利活用基盤サーバ200は、提案したデータ種別と用途との対応関係、ないしは、提案したデータ連携先や協業先としての他のユーザと用途との対応関係に基づいて、分析対象となるデータすなわち分析対象データに対する分析処理を構成する分析部品(ASPサーバ600が登録したアプリケーションを含む。)の管理及び分析も行うことができ、すなわち、データ種別と用途の提案やデータ連携先や協業先の提案のみならず、そのデータ種別や他ユーザに対応するデータと、その用途に対応する分析部品やアプリケーションの具体的な組み合わせをもユーザに提案することもできる。
また、データ利活用基盤サーバ200は、ユーザ端末100側のデータ利用者への提案のみならず、データ提供者となり得るアセット端末400側に、アセットを発掘、分析、評価し、データ連携、データ提供を提案することもできる。具体例としては、データ利活用基盤サーバ200は、データ提供候補者のリソースに関する情報(顧客情報、取引先情報、物流情報、伝票・台帳・元帳データなどの会計情報、ビジネスモデル情報、人的リソース情報、ノウハウ情報等)から、データの取得可能性や、取得可能なデータ価値を推定して、アセット端末400に、アセット端末400にデータ提供を提案することができる。また、データ利活用基盤サーバ200は、アセット端末400の学習済みモデルやオントロジー情報から、元データを推測することで、様々な有形・無形のアセットを発掘して、そのアセットから生み出されるデータ提供を提案してもよい。
なお、本実施形態において、説明の便宜のために、データ利用者(自ユーザ)側の端末をユーザ端末100、データ提供者(他ユーザ)側の端末をアセット端末400として説明することがあるが、自ユーザと他ユーザの関係は等価なものであっても交換可能なものであってもよく、すなわち、例えば、他ユーザAから見れば、ユーザ端末100のユーザBは他のユーザであると考えることができる。したがって、この場合、他ユーザAは、データ利用者であり、ユーザBは、データ提供者と考えることもできる。そのため、本実施の形態において、ユーザ端末100の機能として説明したものを、端末400の機能として読み替えることもでき、同様に、アセット端末400の機能として説明したものを、端末100の機能として読み替えることもできる。そのため、同じユーザが、データ利用者であり、かつ、データ提供者であるともいえ、そのユーザの端末が、ユーザ端末100の機能の一部または全部も、アセット端末400の機能の一部または全部も同時に持っているとみなすこともでき、その端末の機能構成は任意である。
図1に示すように、データ利活用基盤サーバ200は、ネットワークを介して、ユーザ端末100やアセット端末400と、また、いわゆるSaaS(Software as a Service)として様々なソフトウェアをサービスとして提供するASP(Application Service Provider)システム600と、それぞれデータ通信可能に接続されている。なお、図1では、ユーザ端末100やアセット端末400やASPシステム600は、各一台を図示しているが、それぞれ複数台あってもよいものである。また、ユーザ端末100、アセット端末400、およびASPシステム600のうち少なくとも一つを含めて、データ利活用促進システムとして構成してもよい。また、ASPシステム600は、クラウドサーバの一部であってもよく、または、ゲートウェイに接続されてもよい。
上述のネットワーク構成におけるユーザ端末100は、本実施形態において、データ利活用(候補)者側の端末であり、データ利活用基盤サーバ200が提示したデータ種別と用途の組み合わせの提案、ないしは用途と他ユーザの提案を受け、更には、データ種別と用途の組み合わせ、ないしは他ユーザと用途の組み合わせに各対応する、データと分析部品(例:アプリケーション)の組み合わせの提案の確認、選択、及び分析実行と結果確認等の操作を行うための端末となる。
アセット端末100は、本実施形態において、データ提供(候補)者側の端末であり、データ利活用基盤サーバ200からのアセットマイニング等によるデータ提供の提案を受け得ることができ、データ提供の際には、そのデータ(元データに限らず、疑似化等を行った派生データ等の場合もある。)を、直接、または、ASPシステム600やデータ利活用基盤サーバ200を介して間接的に、ユーザ端末100のユーザに提供する。なお、アセット端末100は、元データから機微情報を削除するなどクレンジングしたデータを提供したり、元データの共起性など統計情報に基づいてオントロジー化や疑似化等した疑似データ等の派生データとして提供してもよく、学習済みモデルやナレッジグラフやオントロジー情報としてデータ提供してもよいものである。また、アセット端末100は、学習済みモデルやオントロジー情報を送信(アップロード)することなく、データ利活用基盤サーバ200等から受信したデータを、アセット端末100にインストールしたアプリケーション・ソフトウェア等を用いて学習済みモデル等で学習処理した処理結果や統計情報等を、データ利活用基盤サーバ200等に返すことでデータ提供としてもよい。
また、ASPシステム600は、アセット端末400からの各種データ(例:運輸・物流の走行データや、運行の伝票データ、機器の温度・振動といった観測データ、メンテナンス履歴等)の提供を受けて処理を行うシステムである。このASPシステム600は、本実施形態において、ユーザ端末100のユーザが、アセット端末400から提供されたデータの分析によって問題解決を行う対象となり、すなわち既存ビジネスの生産性向上や、新規ビジネス開発や、協業先開拓のためのツール等となる。なお、図1に図示しないが、後述する特許文献情報サーバ800は、ネットワークに接続された特許文献データベース(これに限られず、Webスクレイピング結果などWebデータを記憶するデータベースであってもよい。)を備えた装置であり、データ利活用基盤サーバ200に特許文献情報やWebスクレイプ結果等に基づくユースケース集を提供する機能を有する。また、図1に図示しないが、後述する統制システム900は、ネットワークに接続されるか、ないしはデータ利活用基盤サーバ200の中の機能モジュールであり、データ利活用基盤サーバ200に登録ないし流通するデータの評価を行い、データの信頼性(真正性や有用性等)を担保する機能を有する。
<ハードウェア構成>
上述のデータ利活用基盤サーバ200のハードウェア構成の一例を説明する。すなわち、データ利活用基盤サーバ200は、一例として、SSD(Solid State Drive)やハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部206、記憶部206に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部202、ネットワークと接続し他装置との通信処理を担う通信部204、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部208を備える。なお、上述のように、データ利活用基盤サーバ200は、本実施形態において、分散型コンピューティング装置として構成されているので、クラウドサーバ、エッジコンピュータ、および、ゲートウェイは、これら記憶部206や制御部202や入出力部208のうちの少なくとも一つを備えていなくてもよく、後述する記憶部206や制御部202や入出力部208のうちの一機能を備えていなくてもよい。
上述のデータ利活用基盤サーバ200のハードウェア構成の一例を説明する。すなわち、データ利活用基盤サーバ200は、一例として、SSD(Solid State Drive)やハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部206、記憶部206に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部202、ネットワークと接続し他装置との通信処理を担う通信部204、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部208を備える。なお、上述のように、データ利活用基盤サーバ200は、本実施形態において、分散型コンピューティング装置として構成されているので、クラウドサーバ、エッジコンピュータ、および、ゲートウェイは、これら記憶部206や制御部202や入出力部208のうちの少なくとも一つを備えていなくてもよく、後述する記憶部206や制御部202や入出力部208のうちの一機能を備えていなくてもよい。
こうしたハードウェア構成は、ユーザ端末100、アセット端末400、および図示しないASPサーバ600の各部においても同様である。例えば、ユーザ端末100は、SSD(Solid State Drive)やハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部106、記憶部106に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部102、ネットワークと接続しデータ利活用基盤サーバ200等との通信処理を担う通信部104、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部108を備える。
同様に、アセット端末400は、SSDやハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部406、記憶部406に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部402、ネットワークと接続しデータ利活用基盤サーバ200等との通信処理を担う通信部404、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部408を備える。図示しないが同様に、ASPサーバ600は、SSDやハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部、記憶部に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部、ネットワークと接続しデータ利活用基盤サーバ200等との通信処理を担う通信部、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部等を備えてもよい。
<処理シーケンス>
図2Aは、本実施形態におけるデータ利活用促進方法の処理の一例を示すシーケンス図である。図2Aで示す処理シーケンスにおける主な構成要素は、特許文献情報サーバ800から特許文献情報を収集・蓄積し、そこからデータ種別と用途の組み合わせを抽出・格納したユースケース集に基づいてユーザ端末100のユーザにデータ種別と用途の組み合わせを提案するデータ利活用基盤サーバ200と、データ利活用基盤サーバ200からデータ種別(ないしは他ユーザ)と用途の提案、更には、対応するデータとアプリケーションの提案を受けるユーザ端末100と、アセットのマイニング等によるデータ提供の提案等に基づいて、提供するデータ(派生データ等であってもよい。)を登録するアセット端末400と、データ利活用プラットフォーム上のSaaSとして、分析処理などのアプリケーションを提供するASPサーバ600である。なお、上述したように、自ユーザのユーザ端末100が、自ユーザのデータと他ユーザのデータを連携等して適切な連携先や協業先を把握するために、ユーザ端末100は、同時に、データ利活用基盤サーバ200にデータ登録やデータ提供を行うアセット端末400の機能を有しており、アセット端末400として、以下のステップSA4のデータ登録などを行ってもよい。
図2Aは、本実施形態におけるデータ利活用促進方法の処理の一例を示すシーケンス図である。図2Aで示す処理シーケンスにおける主な構成要素は、特許文献情報サーバ800から特許文献情報を収集・蓄積し、そこからデータ種別と用途の組み合わせを抽出・格納したユースケース集に基づいてユーザ端末100のユーザにデータ種別と用途の組み合わせを提案するデータ利活用基盤サーバ200と、データ利活用基盤サーバ200からデータ種別(ないしは他ユーザ)と用途の提案、更には、対応するデータとアプリケーションの提案を受けるユーザ端末100と、アセットのマイニング等によるデータ提供の提案等に基づいて、提供するデータ(派生データ等であってもよい。)を登録するアセット端末400と、データ利活用プラットフォーム上のSaaSとして、分析処理などのアプリケーションを提供するASPサーバ600である。なお、上述したように、自ユーザのユーザ端末100が、自ユーザのデータと他ユーザのデータを連携等して適切な連携先や協業先を把握するために、ユーザ端末100は、同時に、データ利活用基盤サーバ200にデータ登録やデータ提供を行うアセット端末400の機能を有しており、アセット端末400として、以下のステップSA4のデータ登録などを行ってもよい。
図2Aに示すように、まず、特許文献情報サーバ800は、データ利活用基盤サーバ200に、特許文献情報を送信する(ステップSA1)。例えば、特許文献情報サーバ800は、特許庁が提供する特許情報API(Application Programming Interface)を提供するサーバ、platpatサーバ、espacenetサーバなどの公的機関のサーバやデータベースのほか、民間の特許情報データベースやサーバであってもよい。これに限られず、特許文献情報サーバ800は、公開Web情報から、後述するBtoBのDX事例等を収集・スクレイピングした、Webデータを記憶して、データ利活用基盤サーバ200にBtoBユースケース集などを提供してもよい。なお、特許文献情報には、願書情報(特許分類、出願人、発明者などの記述)や、明細書情報(発明が解決しようとする課題、作用効果、発明の詳細な説明、産業上の利用可能性などの記述)、特許請求の範囲、図面(フローチャート、データフロー図、ブロック構成図など)の記載が含まれ得る。
つづいて、データ利活用基盤サーバ200は、受信した特許文献情報またはWebデータを特許文献ファイルとして記憶部206に格納し、少なくともデータ種別(ないしは業種)と用途に関する記述を抽出し、ユースケース集ファイルとして記憶部206に格納する。例えば、データ利活用基盤サーバ200は、以下に示すIoT特許分類を用いて、データ種別(ないしは業種)と用途の組み合わせを抽出してもよい。例えば、データ利活用基盤サーバ200は、G16Y 10/25が付与された特許文献は、そのIoTデータを製造業の用途で用いることができると判定し、G16Y 10/40が付与された特許文献では、そのIoTデータを運輸,交通の用途に用いることができると判定し、G16Y 10/50が付与された特許文献では、そのIoTデータを金融,保険の用途に用いることができると判定し、G16Y 40/60が付与された特許文献は、位置決め,ナビゲーションの用途に用いることができると判定して、IoTデータ種別(特許分類のみならず、例えば、特許文献の明細書等に記載のIoT機器名や単位等の記載から抽出してもよい。)と、その用途(特許分類のみならず、例えば、産業上の利用可能性の欄や課題・作用効果、発明の詳細な説明、図面の記載から抽出してもよい。)の組み合わせを抽出してもよい。さらには、データ利活用基盤サーバ200は、収集されたユースケース集ファイルを学習してシソーラス辞書を作成し、特許文献情報に対して学習結果(この場合、シソーラス辞書)の同義語や類義語を探索することにより、データ種別(ないしは業種)と用途とを自動抽出してもよい。
ここで、図2Bは、データ利活用基盤サーバ200により抽出されたユースケース集ファイルの一例を示す図である。図2Bに示すように、この例では、データ種別(データ提供者(データ提供元)の業種を示す“B”の項目、データの種類を示す“data”の項目)、および、用途(データ利用者(データ提供先)の業種を示す“to B”の項目、データの利用目的を示す“objective”の項目)のほか、URLリンク先には図面等が参照可能に抽出元の特許文献番号がリストアップされており、参照テーブルとしてデータベース化されている。
そして、データ利活用基盤サーバ200は、ユースケース集ファイルに基づいて、ユーザ端末100のユーザに、用途とともに当該用途に対応するデータ種別(データ提供者の業種“B”等)を提示する(ステップSA3)。ここで、データ利活用基盤サーバ200は、図2Bに示したような、ユースケース集をユーザ端末100の入出力部108に一覧表示させてもよく、入出力部108を介して検索枠に任意の単語を入力させて任意の項目が絞り込み検索可能なように提示してもよい。例えば、ユーザが、 “to B”の欄を指定して、自身の業種に関連する「電力」と入力すると、ユースケース集の一覧から“toB”の欄が「電力」のもののみ絞り込みして表示されるようにデータ利活用基盤サーバ200が制御してもよい。同様に、ユーザが、 用途の“objective”の欄を指定して、データ連携等により改善したい項目として、例えば「労働時間 売上」と入力すると、ユースケース集の一覧から“objective”の欄に「労働時間」や「売上」など生産性向上等に関するもののみ絞り込みして表示されるようにデータ利活用基盤サーバ200が制御してもよい。なお、図2Bに図示したユースケースは、“B”と“to B”の業種が異なる異業種間の連携によるDX事例が多いが、これに限られず、“B”と“to B”の業種が同じである同業種間の連携による生産性の向上等に資するユースケースであってもよい。
なお、データ利活用基盤サーバ200は、ユースケース集ファイルの項目に、更に、データの真正性や有用度等の信頼性など、データ価値に関する項目を含んでもよく(後述する統制システム900によるデータ評価のアノテーションなど)、データ種別や用途とともに、データ価値を提示することで、ユーザ端末のユーザは、選択の指標とすることができる。一例として、データ利活用基盤サーバ200は、データ種別と用途の同じ組み合わせが、多くの特許文献やWebデータにおいて記述されているほど、および/または、同じデータ種別に対して、複数の特許文献やWebデータにわたって多くの用途があるほど、当該データ種別の価値(特に有用性)が高いとの評価付けを行ってもよい。なお、本実施の形態では、データ価値とは、データの真正性や有用性(有用度)などの、データの信頼性を包含する概念として説明することがあるが、これに限られない。これらの真正性や有用性などの信頼性を含むデータ価値の評価値は、データ種別(業種等を含む。)またはデータそのものに対して、メタデータとして付加されていてもよい。また、データの信頼性とは、以下の概念の一部または全部を含んでもよい。より具体的には、後述する統制システム900の説明において詳述する。
・データの信憑性:すなわち、そのデータの信憑性があるか
・データの所有性:元の所有者は誰か、加えて誰が支払いを受ける可能性があるか
・データの品質:センサーの読み取り値は正しいか
・データの整合性:最初のキャプチャ以降、センサーの読み取り値が改ざんされていないか
・データの信憑性:すなわち、そのデータの信憑性があるか
・データの所有性:元の所有者は誰か、加えて誰が支払いを受ける可能性があるか
・データの品質:センサーの読み取り値は正しいか
・データの整合性:最初のキャプチャ以降、センサーの読み取り値が改ざんされていないか
以上が、本実施形態の基本的なシーケンスである。ここで、データ利活用基盤サーバ200は、データ種別と用途の組み合わせをユーザに提示するのみならず、実際に用いることができるデータとアプリケーションの組み合わせを提示してもよい。なお、以下のステップSA4~SA6の処理は、データ・アプリケーションの提案(ステップSA6)よりも以前に、予め実行されて処理結果が予め保存されていてもよい。
まず、アセット端末400は、提供可能なデータ(派生データであってもよい。)をデータ利活用基盤サーバ200に登録する(ステップSA4)。なお、この処理の前に、データ利活用基盤サーバ200が、アセット端末400に対してマイニング処理を実行させてもよい。より具体的には、データ利活用基盤サーバ200は、通信部204を介して取得される情報から、データの取得可能性、および/または、取得可能なデータ価値を推定して、アセット端末400の入出力部408に提示し、アセット端末400の利用者(データ提供候補者)が、そのデータ価値(データ販売価格に連動してもよい。)等に鑑みて、そのデータの提供を承諾することによって、上述のステップSA4の登録処理が実行されてもよい。
つづいて、ASPサーバ600は、データ利活用基盤でSaaSなどの形態で提供するソフトウェア/アプリケーション・プログラムである分析部品をデータ利活用基盤サーバ200に登録する(ステップSA5)。なお、ステップSA1やSA4やSA5等の処理は、いずれが前後してもよい。
つづいて、データ利活用基盤サーバ200は、ユースケース集ファイルに記憶された、データ種別と用途との対応関係に基づいて、分析対象となるデータと当該データに対する分析処理を実行する分析部品(アプリケーションの機能の全部または一部)との紐付けを規定する分析関係情報を生成する(ステップSA6)。より具体的には、データ利活用基盤サーバ200は、データ種別と用途との組み合わせに対応するように、ステップSA4で登録されたデータのうち当該データ種別に適合するデータ(例:当該データ種別の業種“B”に適合するユーザであって、当該データ種別の種類“data”に適合するデータ)と、ステップSA5で登録された分析部品のうち当該用途に適合する分析部品の組み合わせを特定する等により、分析関係情報を生成する(以下の式は、その対応関係を模式的に示したものである)。したがって、データ種別と用途の組み合わせであるユースケースとは、抽象的で外観的なデータシーケンス概念として捉えられ、一方、データと分析部品の組み合わせである分析関係情報とは、具体的で内部的な処理内容として捉えることができる。
[式1]
<ユースケース>=<データ種別>×<用途>
↓↑ ↓↑ ↓↑
<分析関係情報>=<データ>×<分析部品>
[式1]
<ユースケース>=<データ種別>×<用途>
↓↑ ↓↑ ↓↑
<分析関係情報>=<データ>×<分析部品>
そして、ユーザ端末100のユーザが、入出力部108を介してユースケース集からデータ種別と用途との組み合わせを選択すると(ステップSA7)、データ利活用サーバ200は、対応する分析関係情報からデータと分析部品(アプリ)の組み合わせをユーザに提案する(ステップSA8)。そして、ユーザ端末100のユーザが、入出力部108を介してデータと分析部品(アプリ)との組み合わせを選択すると(ステップSA9)、データ利活用サーバ200は、当該データと分析部品(アプリ)を用いた分析処理を実行して、分析結果をユーザ端末100に送信する(ステップSA10)。なお、ステップSA7~SA10は、2往復の処理となっているが1往復の処理であってもよい。すなわち、データ種別と用途の組み合わせのユースケースを提示する際に(ステップSA3)、当該組み合わせに対応するデータと分析部品(アプリ)の組み合わせも併せて提示することによって、ユーザが、一回で、データ種別に対応するデータと用途に対応する分析部品(アプリ)の組み合わせを選択(採用)できるように構成してもよい。
また、データと分析部品(アプリ)の組み合わせを提案する際に、そのデータを分析部品(アプリ)で実行した場合の分析結果(KPI等)を併せて提示してもよい。これにより、例えば、自ユーザが、どの他ユーザと提携すれば、生産性などの指標値がどの程度改善するか業務改善効果を把握することができる。なお、自ユーザと他ユーザは、前述のように、疑似データ等の派生データをまずは登録することにより、秘密保持契約(NDA)等の業務提携契約などを結ぶ前に、相手側を知らずして、連携による効果を把握することができ、異業種間や同業種間で適切な連携先や協業先を発見することができ、データ提携や協業、DXが促進されることとなる。
<モジュール構成>
図3は、本実施形態におけるデータ利活用基盤サーバ200のモジュール構成を示す図である。
図3は、本実施形態におけるデータ利活用基盤サーバ200のモジュール構成を示す図である。
本実施形態のデータ利活用基盤サーバ200においては、分析対象のデータを蓄積ないしアセット端末400等からリアルタイムに受信して、この分析対象データに対する分析処理を構成する分析部品の管理及び分析を行い、ユーザへの当該分析部品の提案等の処理を実行するための、データ利活用ミドルウェア300が導入される。
このデータ利活用ミドルウェア300の主な構成要素は、特許文献情報サーバ800から受信された特許文献情報やWebデータ等を格納する特許文献情報ファイル301、少なくともデータ種別と用途を対応付けて記憶するユースケース集ファイル302、特許文献情報の中から少なくともデータ種別と用途を抽出してユースケース集ファイル302に格納するユースケース抽出部316、有用性などのデータ価値の評価付けを行う有用性判定部317、データの取得可能性、および/または、取得可能なデータ価値を推定するアセット推定部318、データ利活用基盤のデータパイプラインに埋め込まれ、通信部204を介した評価を受け入れる評価モジュール部319、分析部品303の組合せによる分析処理302の実行管理を行う分析実行管理部303、複数のアセット端末400から登録された分析対象のデータを格納する分析対象データDB304、分析処理の実行結果を格納する分析結果DB305、分析実行管理部303にて実行された分析処理に関する実績情報を格納する実績情報DB306、分析関係情報を格納する分析関係テーブル307、分析関係テーブル307を管理する分析関係情報管理部308、ユースケース集ファイル302を参照してユーザにデータ種別と用途の組み合わせを提案、さらには、分析関係テーブル307を参照してユーザにデータ組み合わせおよび/または分析部品組み合わせを提案する提示部309、データ利活用ミドルウェア300にアクセスして分析を行うユーザ及び業務を管理するユーザ・業務管理部310、ユーザ端末100に対してデータ利活用ミドルウェア300が提供する機能のインタフェースを提供するクライアント向けI/F提供部311、実績情報DB306を管理する分析処理実績管理部312、分析実行管理部303にて実行する分析部品303を管理する分析部品管理部313、分析対象データDB304に格納されるデータを管理するデータ管理部314、ネットワークを介してユーザ端末100やアセット端末400やASPシステム600や特許文献情報サーバ800等との間で通信を行うデータ通信部315となる。
特に、評価モジュール部319は、データ利活用基盤のデータパイプラインに埋め込まれ、通信部204を介した評価を受け入れる評価モジュールである。より具体的には、アセット端末400から、データがアップロードされる際に、評価モジュール部319は、そのデータパイプライン経路上のゲートウェイやエッジコンピュータに埋め込まれており、そのデータの評価値をスコアリングして、メタデータとして当該データに付加する機能を有する。例えば、評価モジュール部319は、データの信頼性に関する評価値として、以下の(A)~(I)の項目のうち少なくとも一つについて、それぞれスコアリングして、信頼性評価値としてメタデータに埋め込んでもよい。
(A)分散台帳によるデータ検証されるか
(B)セキュアな格納先か
(C)ゲートウェイ認証があるか
(D)どこから発生したかの来歴メタデータがあるか
(E)デバイス署名による所有者情報が含まれるか
(F)データ分布を3シグマ・ルールでノイズ除去しているか
(G)ナイキスト基準による最適なポーリング頻度を上回っているか
(H)真正性指紋(authenticity fingerprint)が一致しているか、
(I)ビザンチン・フォールトトレラント性があるか
(A)分散台帳によるデータ検証されるか
(B)セキュアな格納先か
(C)ゲートウェイ認証があるか
(D)どこから発生したかの来歴メタデータがあるか
(E)デバイス署名による所有者情報が含まれるか
(F)データ分布を3シグマ・ルールでノイズ除去しているか
(G)ナイキスト基準による最適なポーリング頻度を上回っているか
(H)真正性指紋(authenticity fingerprint)が一致しているか、
(I)ビザンチン・フォールトトレラント性があるか
そして、評価モジュール部319は、通信部204を介した評価(審査または監査と言い換えてもよい。)を受け入れる。具体的には、評価モジュール部319は、上述のようなデータの価値評価の手法が、データ流通の基準・ガイドライン・個人情報保護法等の法令などの適応しているか否か、通信部204を介した評価を受け入れる。例えば、監査法人等が、評価モジュール部319の内部処理方法を検証できるよう、評価値スコアリングプログラムを提示できるように評価モジュール部319を構成してもよい。また、アセット端末400がアップロードしたデータ(機微情報が含まれていないデータやオントロジー化データ等)とアップロードする前の元データ(機微情報が含まれているデータやオントロジー化前のデータ等)とを比較可能に提示することができるように評価モジュール部319を構成してもよい。このほか、評価モジュール部319は、以下のような項目を自動チェックする機能を有しており、通信部204を介した評価(証券取引法や国際会計ガイドラインに沿っているかの審査または監査と言い換えてもよい。)を受け入れてもよい。
(1)決済の際に、データ提供元からデータ提供先で(BtoBで)パイプラインがつながっているかをデューデリジェンスする
(2)複数の企業間取引で正しく相殺が実行されているか
(3)売り上げの水増し(架空取引)のチェック(グループ会社が別会社を介してデータを流している等)
(4)不正情報取引(インサイダー情報)の監視
(1)決済の際に、データ提供元からデータ提供先で(BtoBで)パイプラインがつながっているかをデューデリジェンスする
(2)複数の企業間取引で正しく相殺が実行されているか
(3)売り上げの水増し(架空取引)のチェック(グループ会社が別会社を介してデータを流している等)
(4)不正情報取引(インサイダー情報)の監視
ここで、具体的には、評価モジュール部319は、後述する、統制システム900に接続されることにより、統制システム900にデータ等の情報を与え、統制システム900からデータ評価結果等を受信することにより、評価を受け入れてもよい。なお、評価モジュール部319自体が、統制システム900であってもよい。
また、アセット推定部318は、通信部208を介してアセット端末400から取得される情報(入出力部408の入力データや、記憶部406のデータ、制御部402の学習済みモデル等)から、データの取得可能性、および/または、取得可能なデータ価値を推定することによって、アセットマイニングを行う。より具体的には、アセット推定部318は、(1)データの源となるリソース、(2)デジタル化やデータ化するハードウェアやソフトウェア、および、(3)元データ(生データ)が何らかの加工を受けたもの(加工データなどのオントロジー化データ等)や、データが変化させたもの(学習済みモデル等)から遡及的に元データ(の種別やデータ価値)の推定のうち、少なくとも一つを用いて、データの取得可能性、および/または、取得可能なデータ価値を推定する。なお、データ価値の推定には、有用性判定部317や評価モジュール部319や統制システム900等により推定される真正性や有用性、信頼性などのデータ価値を用いてもよい。
(1)の例としては、アセット推定部318は、通信部208を介して取得された顧客情報(例:業種の情報)、取引先情報(例:業種の情報)、物流情報、伝票情報、会計情報、ビジネスモデル情報、人的リソース情報、および、ノウハウ情報のうち少なくとも一つに基づいて、当該顧客、当該取引先、当該物流、当該会計、当該ビジネスモデル、当該人的リソース、および、当該ノウハウのうち少なくとも一つから取得できる、データの取得可能性、および/または、取得可能なデータ価値を推定してもよい。
(2)の例としては、アセット推定部318は、通信部208を介して取得された顧客情報、取引先情報、物流情報、会計情報、ビジネスモデル情報、人的リソース情報、および、ノウハウ情報のうち少なくとも一つに基づいて、購入、貸与または利用可能化される機器またはソフトウェアを推定して、当該機器または当該ソフトウェアに基づいて、データの取得可能性、および/または、取得可能なデータ価値を推定してもよい。
(3)の例としては、アセット推定部318は、通信部208を介して取得された学習済みモデル情報またはオントロジー情報に基づいて、学習された元データまたはオントロジー化された元データを予測して、データの取得可能性、および/または、取得可能なデータ価値を推定してもよい。なお、アセット端末400から直接、学習済みモデルを受信することに限られず、アセット推定部318は、アセット端末400の学習済みモデルに何らかの入力値(ダミーデータ等)を与えた結果の出力値(学習済みモデル情報の一例)を受信することによって、元データの種別や価値を推定してもよい。
<ユースケースと分析関係情報の対応関係>
図4は、本実施形態における、用途(例:データ提供先の業種“to B”および利用目的“objective”の項目)およびデータ種別(例:データ提供元ユーザの業種“B”や、何のデータかといったデータの種類)に対応したユースケース451と、分析対象となるデータ、分析部品、分析処理、分析目的、および、業務システムの関係例に対応した分析関係情報401を示す図である。なお、図4の実施形態では、分析部品を、狭義の意味で、データ分析ロジックと突合せロジックであると説明することがあるが、本発明(特許請求の範囲)の分析部品は、これに限られず、ソフトウェア、アプリケーション、分析処理、KPIなどの分析目的(例:生産性などの指標値や評価値をアウトプットする数式や参照テーブル)等を含む概念である。
図4は、本実施形態における、用途(例:データ提供先の業種“to B”および利用目的“objective”の項目)およびデータ種別(例:データ提供元ユーザの業種“B”や、何のデータかといったデータの種類)に対応したユースケース451と、分析対象となるデータ、分析部品、分析処理、分析目的、および、業務システムの関係例に対応した分析関係情報401を示す図である。なお、図4の実施形態では、分析部品を、狭義の意味で、データ分析ロジックと突合せロジックであると説明することがあるが、本発明(特許請求の範囲)の分析部品は、これに限られず、ソフトウェア、アプリケーション、分析処理、KPIなどの分析目的(例:生産性などの指標値や評価値をアウトプットする数式や参照テーブル)等を含む概念である。
上述したように、本実施形態のユースケース451は、データ種別451と用途450の組み合わせであり、より具体的には、データ種別451には、データ提供元の業種を示す“B”の項目、データの種類を示す“data”の項目があり、用途450には、データ提供先(データ利用者)の業種を示す“to B”の項目、データ提供先の利用目的を示す“objective”の項目がある。
一方、本実施形態の分析関係情報401とは、分析に用いるデータおよび分析部品、それらの組合せによる分析処理、分析目的、該分析目的に対する業務アプリケーションにおける業務及び業務の実施先となる設備等の対象、との関係を表現するものである。なお、「関係」とは、関係付けられるもの同士を組合せて利用可能である、ユースケースの用途およびデータ種別の組み合わせとの対応関係がある、もしくは利用の実績が有る、ということを意味する。分析関係情報401は、データ利活用基盤サーバ200が、ユーザ指定(用途とデータ種別のユースケース提案に対する採用を含む。)の分析対象のデータに対して適切な分析部品を選出し提案するために参照する。
主な構成要素は、分析対象データ411、分析部品412、分析処理413、分析目的414、業務アプリ415の各情報であり、それぞれの情報ごとに階層に区切って管理される。このうち分析部品412は、データ突合ロジック421とデータ分析ロジック422とに分類される。ここで分析対象データに対する分析の実施に必要となる、データ突合ロジック及びデータ分析ロジックは、分析部品を構成するソフトウェア部品として再利用可能であるものとし、これらの部品の組合せにより分析処理を構成するものとする。
まず、分析対象のデータ411の階層では、分析対象となる複数のASPシステム600からのデータ及び該データ間の関係が管理される。なお、データ関係は、例えば、特開2016-209063号公報による方法により作成されるものである。
また、分析部品412の階層では、1つ以上の分析対象データの組合せをデータベース等の蓄積媒体から抽出するための処理ロジック(例えばSQL文、等)であるデータ突合ロジック421、及び、上述の1つ以上の分析対象データに対して実施する分析のロジック(例えば系列データのグラフ化、相関分析、等)であるデータ分析ロジック422が管理される。
また、分析処理413の階層では、上述の1つ以上の分析対象データ及び1つ以上の分析部品の組合せにより作成するデータ分析処理を管理する。
また、分析目的414の階層では、分析を行う目的であるKPI情報が管理される。また、業務アプリ415の階層では、上述の分析目的であるKPIを必要とする業務システムにおける業務4151及び設備等の対象4152が管理される。なお、各々の階層間では各階層の要素で関係のあるもの同士の紐付け(リンク付け)を行っている。
分析関係情報管理部308は、ユースケース集ファイル302に記憶された、データ種別451と用途450との対応関係に基づいて、分析対象となるデータ411と当該データに対する分析処理を実行するアプリケーション(狭義には、業務アプリ415および/または分析目的414であり、広義には、分析処理413、分析部品412を含む。)との紐付けを規定する分析関係情報を生成する。
より具体的には、分析関係情報管理部308は、データ種別451のデータ提供元の業種を示す“B”の項目、および、データの種類を示す“data”の項目に対応する、データ411を検索・抽出して、対応関係を分析関係情報に格納する。例えば、データ411は、データ提供元の情報(企業識別情報や業種などデータ提供元のユーザを表す情報)を示すメタデータや、IoT機器の製品番号や単位を示すメタデータが含まれ得るので、分析関係情報管理部308は、メタデータから業種を示す“B”やデータの種類を示す“data”の項目を検索・抽出してもよい。なお、分析関係情報管理部308は、本実施形態において抽出部としての機能を有する。
また、分析関係情報管理部308は、用途450のうち、データ提供先の業種を示す“toB”の項目455、および、データ提供先のデータ利用目的を示す“objective”の項目454に対応する、分析部品412~業務アプリ415を検索して、対応関係を分析関係情報に格納する。例えば、分析関係情報管理部308は、データ提供先の業種を示す“toB”の項目455に対応する、業務アプリ415を、ASPサーバ600の登録アプリから検索・抽出して、対応関係を分析関係情報に格納してもよい。また、分析関係情報管理部308は、データ提供先の利用目的を示す“objective”の項目454に対応する、分析目的414や業務アプリ415を、ASPサーバ600の登録アプリ(登録分析部品)から検索・抽出して、対応関係を分析関係情報に格納してもよい。
なお、分析関係情報は、業務アプリ415や分析目的414からデータ411までの図4の縦方向の対応関係も規定しているので、図4の横方向の対応関係、すなわち、toB455に対応する業務アプリ415や、objective454に対応する分析目的414と、データ種別451に対応するデータ411が決まれば、その間を埋める分析処理413や分析部品412は、縦方向の対応関係に関する分析関係情報に基づいて、分析関係情報管理部308は、決定してもよい。
<テーブル>
図5A~図6Bは、本実施形態のデータ利活用基盤サーバ200にて管理する、分析関係情報401における要素間の紐付け情報(すなわち、縦方向の対応関係と縦方向の対応関係)を格納する分析関係テーブル307の構成、及び分析部品のメタ情報のデータ構造を示す図である。
図5A~図6Bは、本実施形態のデータ利活用基盤サーバ200にて管理する、分析関係情報401における要素間の紐付け情報(すなわち、縦方向の対応関係と縦方向の対応関係)を格納する分析関係テーブル307の構成、及び分析部品のメタ情報のデータ構造を示す図である。
本実施形態において、分析関係情報401における要素間の紐付け情報を管理する分析関係テーブル307は、分析対象データ紐付けテーブル501、分析部品紐付けテーブル502、分析部品-分析処理紐付けテーブル503、分析処理-分析目的紐付けテーブル504、及び、分析目的-業務紐付けテーブル505、ならびに、データ提供先業種-業務アプリ紐付けテーブル508、データ提供先利用目的-分析目的紐付けテーブル509、および、データ種別-データ紐付けテーブル500を、含んで構成されている。
このうち図5Aに例示する分析対象データ紐付けテーブル501は、分析関係情報401の分析対象データ411と分析部品412におけるデータ突合ロジック421との間の紐付けに関する情報を格納するテーブルである。主な構成要素は、各紐付けを一意に特定する紐付け識別情報511、分析対象データ識別情報512、データ突合ロジック識別情報513、重み514、及び、更新日時515である。
上述の紐付け識別情報511には、該当紐付けを識別するための情報が格納される。また、分析対象データ識別情報512には、紐付けられる一方である分析対象データを識別するための情報が格納される。また、データ突合ロジック識別情報513には、紐付けられる他方であるデータ突合ロジックを識別するための情報が格納される。また、重み514には、当該紐付けの重みを示す情報が格納される。例えば該紐付けによる組合せが分析者等のユーザに多く使用される程、当該重みを表す数値は大きくなる。また、更新日時515には、上述の各項目511~514のレコードが最後に更新された日時が格納される。なお1つの分析対象データに対して、複数の紐付けがありえるため、分析対象データ紐付けテーブル501にて、当該分析対象データに関して複数のレコードが格納され得る。
また、図5Bに例示する分析部品紐付けテーブル502は、分析関係情報401の分析部品412におけるデータ突合ロジック421とデータ分析ロジック422との間の紐付けに関する情報を格納するテーブルである。その主な構成要素は、紐付け識別情報521、データ突合ロジック識別情報522、データ分析ロジック識別情報523、重み524、及び、更新日時525である。
このうち紐付け識別情報521には、当該紐付けを一意に識別するための情報が格納される。また、データ突合ロジック識別情報522には、紐付けられる一方であるデータ突合ロジックを識別するための情報が格納される。また、データ分析ロジック識別情報523には、紐付けられる他方であるデータ分析ロジックを識別するための情報が格納される。また、重み524には、当該紐付けの重みを示す情報が格納される。例えば該紐付けによる組合せが分析者等のユーザに多く使用される程、重みを表す数値は大きくなる。また、更新日時525には、上述のデータ項目521~524のレコードが最後に更新された日時が格納される。なお1つのデータ突合ロジック及びデータ分析ロジックに対して、複数の紐付けがありえるため、分析部品紐付けテーブル502にて、当該1つのデータ突合ロジック及びデータ分析ロジックに関して複数のレコードが格納され得る。
また、図5Cに例示する分析部品-分析処理紐付けテーブル503は、分析関係情報401の分析部品412におけるデータ分析ロジック422と、分析者等のユーザにより実行された分析処理413との間の紐付けに関する情報を格納するテーブルである。その主な構成要素は、紐付け識別情報531、データ分析ロジック識別情報532、分析処理識別情報533、重み534、及び、更新日時535である。
このうち紐付け識別情報531には、当該紐付けを一意に識別するための情報が格納さ
れる。また、データ分析ロジック識別情報532には、紐付けられる一方であるデータ分析ロジック422を識別するための情報が格納される。また、分析処理識別情報533には、紐付けられる他方である分析処理413を識別するための情報が格納される。また、重み534には、当該紐付けの重みを示す情報が格納される。例えば該紐付けによる組合せが分析者等のユーザにより多く使用される程、重みを表す数値は大きくなる。また、更新日時535には、上述の各データ項目531~534のレコードが最後に更新された日時が格納される。なお1つデータ分析ロジック422に対して、複数の紐付けがありうるため、分析部品-分析処理紐付けテーブル503にて、当該1つのデータ分析ロジック4
22に関して複数のレコードが格納され得る。
れる。また、データ分析ロジック識別情報532には、紐付けられる一方であるデータ分析ロジック422を識別するための情報が格納される。また、分析処理識別情報533には、紐付けられる他方である分析処理413を識別するための情報が格納される。また、重み534には、当該紐付けの重みを示す情報が格納される。例えば該紐付けによる組合せが分析者等のユーザにより多く使用される程、重みを表す数値は大きくなる。また、更新日時535には、上述の各データ項目531~534のレコードが最後に更新された日時が格納される。なお1つデータ分析ロジック422に対して、複数の紐付けがありうるため、分析部品-分析処理紐付けテーブル503にて、当該1つのデータ分析ロジック4
22に関して複数のレコードが格納され得る。
また、図5Dに例示する分析処理-分析目的紐付けテーブル504は、分析処理302における実施された分析処理と分析目的414におけるKPIとの間の紐付けに関する情報を格納するテーブルである。その主な構成要素は、紐付け識別情報541、分析処理識別情報542、分析目的識別情報543、重み544、及び、更新日時545である。
このうち紐付け識別情報541には、当該紐付けを一意に識別するための情報が格納される。また、分析処理識別情報542には、紐付けられる一方である分析処理413を識別するための情報が格納される。また、分析目的識別情報543には、紐付けられる他方である分析目的414を識別するための情報が格納される。また、重み544には、当該紐付けの重みを示す情報が格納される。例えば該紐付けによる組合せが分析者等のユーザにより多く使用される程、重みを表す数値は大きくなる。また、更新日時545には、上述の各データ項目541~544のレコードが最後に更新された日時が格納される。なお1つの分析処理413に対して、複数の紐付けがありえるため、分析処理-分析目的紐付けテーブル504において、当該1つの分析処理413に関して、複数のレコードが格納され得る。
また、図5Eに例示する分析目的-業務紐付けテーブル505は、分析目的414におけるKPIと業務アプリ415における業務及び設備等の対象との間の紐付けに関する情報を格納するテーブルである。その主な構成要素は、紐付け識別情報551、分析目的識別情報552、業務識別情報553、対象識別情報554、重み555、及び、更新日時556である。
このうち紐付け識別情報551には、当該紐付けを一意に識別するための情報が格納される。また、分析目的識別情報552には、紐付けられる一方である分析目的414を識別するための情報が格納される。また、業務識別情報553には、紐付けられる他方である業務4151を識別するための情報が格納される。また、対象識別情報554には、業務4151と合わせて紐付けられる対象4152を識別するための情報が格納される。また、重み555には、当該紐付けの重みを示す情報が格納される。例えば該紐付けによる組合せが分析者等のユーザにより多く使用される程、重みを表す数値は大きくなる。また、更新日時556には、上述の各データ項目551~555のレコードが最後に更新された日時が格納される。なお1つの分析目的に対して、複数の紐付けがありうるため、分析目的-業務紐付けテーブル505において、上述の1つの分析目的に関して複数のレコードが格納され得る。
また、図5Fに例示するデータ提供先業種-業務アプリ紐付けテーブル508は、ユースケース集ファイル302に記憶された用途450のデータ提供先の業種(“toB”)455と、ASPサーバ600に登録された業務アプリ415との間の紐付けに関する情報を格納するテーブルである。その主な構成要素は、紐付け識別情報581、データ提供先業種情報“toB”582、業務アプリ情報583、重み584、及び、更新日時585である。
このうち紐付け識別情報581には、当該紐付けを一意に識別するための情報が格納される。また、データ提供先業種情報“toB”582には、紐付けられる一方であるデータ提供先の業種(“toB”)455を識別するための情報が格納される。また、業務アプリ情報583には、紐付けられる他方である業務アプリ415を識別するための情報が格納される。また、重み584には、当該紐付けの重みを示す情報が格納される。例えば該紐付けによる組合せが分析者等のユーザにより多く採用されるなどの有用性が高い程、重みを表す数値は大きくなる。また、更新日時585には、上述の各データ項目581~584のレコードが最後に更新された日時が格納される。なお1つのデータ提供先の業種(“toB”)455に対して、複数の紐付けがありえるため、データ提供先業種-業務アプリ紐付けテーブル508において、当該1つのデータ提供先の業種(“toB”)455に関して、複数のレコードが格納され得る。
また、図5Gに例示するデータ提供先利用目的-分析目的紐付けテーブル509は、ユースケース集ファイル302に記憶された用途450のデータ提供先の利用用途(“objective”)454と、ASPサーバ600に登録された分析目的414との間の紐付けに関する情報を格納するテーブルである。その主な構成要素は、紐付け識別情報591、データ提供先利用用途情報“objective”592、利用用途情報593、重み594、及び、更新日時595である。
このうち紐付け識別情報591には、当該紐付けを一意に識別するための情報が格納される。また、データ提供先利用用途情報“objective”592には、紐付けられる一方であるデータ提供先の利用用途(“objective”)454を識別するための情報が格納される。また、利用用途情報593には、紐付けられる他方である分析目的414を識別するための情報が格納される。また、重み594には、当該紐付けの重みを示す情報が格納される。例えば該紐付けによる組合せが分析者等のユーザにより多く採用されるなどの有用性が高い程、重みを表す数値は大きくなる。また、更新日時595には、上述の各データ項目591~594のレコードが最後に更新された日時が格納される。なお1つのデータ提供先の利用用途(“objective”)に対して、複数の紐付けがありえるため、データ提供先利用目的-分析目的紐付けテーブル509において、当該1つのデータ提供先の利用用途(“objective”)に関して、複数のレコードが格納され得る。
また、図5Hに例示するデータ種別-データ紐付けテーブル500は、ユースケース集ファイル302に記憶されたデータ種別451と、アセット端末200に登録されたデータ411との間の紐付けに関する情報を格納するテーブルである。その主な構成要素は、紐付け識別情報501、データ種別情報502、データ情報503、重み504、及び、更新日時505である。なお、一例として、上述のように、データ種別451には、ユースケースのデータ提供元の業種“B”の情報が含まれ、一方、データ411には、当該データを登録したアセット端末400のユーザ等の業種の情報が含まれ得るので、これらの対応関係に基づいて、データ種別-データ紐付けテーブル500は、紐づけに関する情報を規定してもよい。
このうち紐付け識別情報501には、当該紐付けを一意に識別するための情報が格納される。また、データ種別情報502には、紐付けられる一方であるデータ種別451を識別するための情報が格納される。また、データ情報503には、紐付けられる他方であるデータ411を識別するための情報が格納される。また、重み504には、当該紐付けの重みを示す情報が格納される。例えば該紐付けによる組合せが分析者等のユーザにより多く採用されるなどの有用性が高い程、重みを表す数値は大きくなる。また、更新日時505には、上述の各データ項目501~504のレコードが最後に更新された日時が格納される。なお1つのデータ種別451に対して、複数の紐付けがありえるため、データ種別-データ紐付けテーブル500において、当該1つのデータ種別451に関して、複数のレコードが格納され得る。
なお、本実施形態の分析関係テーブル307は、各データ分析ロジック422のメタ情報506、及び、各データ突合ロジック421のメタ情報507も格納している。
このうち、図6Aに例示するデータ分析ロジック422のメタ情報506には、当該データ分析ロジック422の入力となるデータに関する情報が格納される。その主な構成要素は、識別情報561、データ項目562、型563、及び、種別564である。
このうち識別情報561には、当該メタ情報506の各レコードを一意に識別するための情報が格納される。また、データ項目562には、当該データ項目に該当するデータの名称が格納される。ただし本項目の指定が無い場合もある。また、型563には、上述のデータ項目562に該当するデータのデータ型が格納される。また、種別564には、上述のデータ項目562に該当するデータの種別が格納される。
ここで種別564の値としては、“入力”、“キー”、等が想定され得る。このうち“入力”である場合、該当データ項目はデータ分析ロジックの入力データであることを示す。また、“キー”である場合、該当データ項目は、データ分析ロジックにおいて、複数データの突合せ、範囲指定、整列の軸となる共通インデックスであることを示す。
また、図6Bに例示するデータ突合ロジック421のメタ情報507には、当該データ突合ロジック421により提供されるデータに関する情報が格納される。その主な構成要素は、識別情報571、データ項目572、型573、サイズ574、及び、テーブル575である。
このうち識別情報571には、メタ情報507における各レコードを一意に識別するための情報が格納される。また、データ項目572には、当該データ項目572に該当するデータの名称が格納される。また、型573には、当該データ項目572に該当するデータのデータ型が格納される。また、サイズ574には、当該データ項目572に該当するデータのサイズが格納される。また、テーブル575には、当該データ項目572に該当するデータの抽出元のテーブルに関する情報が格納される。
図7Aは、本実施形態における分析対象データDB304の構成例を示す図である。本実施形態の分析対象データDB304は、アセット端末200からデータ利活用基盤サーバ200にアップロードされた、或いは、適宜なユーザ等により記憶媒体経由で格納されたデータ(派生データであってもよい。)である。より具体的には、アセット端末200で管理しているデータであって、例えば該当業務に使用されている車両や機器等のセンシングデータ等を想定出来る(勿論、これに限定せず、種々のデータを想定可能である)。なお、分析対象データDB304は、データに対応付けて、そのデータを登録したユーザやアセット端末200の情報(ユーザID、端末IDなどの識別情報、業種の情報、会社名や個人名等)を記憶することができる。
図7Aで例示する分析対象データDB304は、一例として、複数のテーブルから構成されている。これらのテーブルは、図6Bで示したメタ情報507(データ突合ロジックのもの)のテーブル575にて指定されるデータ抽出元のテーブルに対応する。また、各テーブルは、図示するように、例えば該当データを観測した日時、箇所、結果、センサーID、送信されたプロトコル、センサーの地理的位置、測定値がキャプチャされたゲートウェイID、ゲートウェイの地理的位置、データ読み込みが行われた時間、予想される値またはスケールの範囲、トラストスコア(データ価値の評価値)といった各値を含むレコードの集合体となっている。
図7Bは、本実施形態における分析結果DB305の構成例を示す図である。本実施形態の分析結果DB305は、データ利活用基盤サーバ200が過去に提案した分析部品、或いはそれとは無関係に分析者201(或いは開発者202)が選定した分析部品、に基づき実際に実行した分析処理の内容を格納したDBである。具体的には、分析結果を一意に特定するIDをキーに、当該分析処理を構成する分析部品の、データ突合ロジック及びデータ分析ロジックの情報と、これらを用いて行った分析処理、その分析目的、業務、対象、結果(この場合、分析処理の実行結果として出力されるデータ値)といった値を含むレコードの集合体となっている。
図7Cは、本実施形態における実績情報DB306の構成例を示す図である。本実施形態の実績情報DB306は、実際に実行された分析処理の実績情報を格納するDBである。具体的には、分析処理を一意に特定する分析処理名をキーに、当該分析処理の実行頻度(例:直近一ヶ月での実行回数)、利用者数(採用したユーザの数)、定型登録数、及び、修正回数(例:当該分析処理に関して分析者や開発者が修正を行った回数)、金額(例:ユーザが採用するためにかけた費用(データとアプリの購入金額等)の平均)、評価値(採用したユーザからの評価)、改善要望数(採用したユーザからの改善要望の回数)、期間(例:ユーザが採用した期間の平均)といった値を対応付けたレコードの集合体となっている。なお、上述の定型登録数とは、当該分析処理が高頻度で或いは広範に用いられるものと分析者等に認識され、定型の分析処理として設定された回数を示す。
<シーケンス例>
以下、本実施形態におけるデータ利活用促進方法の実際手順について図に基づき説明する。以下で説明するデータ利活用促進方法に対応する各種動作は、データ利活用基盤サーバ200が実行するプログラムによって実現される。そして、このプログラムは、以下に説明される各種の動作を行うためのコードから構成されている。
以下、本実施形態におけるデータ利活用促進方法の実際手順について図に基づき説明する。以下で説明するデータ利活用促進方法に対応する各種動作は、データ利活用基盤サーバ200が実行するプログラムによって実現される。そして、このプログラムは、以下に説明される各種の動作を行うためのコードから構成されている。
図8は、本実施形態におけるデータ利活用促進方法を実施する場合の処理シーケンスを示す図である。ここでは、既に図2にて示したシーケンスを、データ利活用ミドルウエア300の各要素を用いて具体的に実行する場合の処理シーケンスについて示すものとする。
その主な構成要素はアセット端末400、データ利活用基盤サーバ200にて稼働するデータ利活用ミドルウェア300に含まれるデータ管理部314、分析関係情報管理部308、分析処理実績管理部312、提示部309、ユースケース集ファイル302、及び、分析関係テーブル307と、ユーザ端末100のユーザである。
このうちアセット端末400にて、アセット推定部318からアセットマイニング等によってデータ提供の提案を受ける等して、該アセット端末400が有するデータをデータ利活用基盤サーバ200に対して登録する(ステップ611)。この場合、データ利活用基盤サーバ200のデータ管理部314は、上述のアセット端末400からのデータの登録を受け付ける(ステップ621)。また、データ管理部314は、分析関係情報管理部308に対して、データ登録受付の通知を行う(ステップ622)。
そして、分析関係情報管理部308は、上述のデータ管理部314からの通知を受信すると、当該データから分析関係テーブル307を作成する(ステップ631)。なお、上述のように、分析関係情報管理部308は、ユースケース集ファイル302との紐付け情報(図4の横方向の対応関係)も、分析関係テーブル307に格納する。
他方、提示部309は、ユースケース集ファイル302を参照して、ユーザ端末100に、データ種別(ないしは業種)と用途の組み合わせ(ユースケース)の候補を提示する(ステップ650)。ユーザ端末100のユーザは、ユーザ種別と用途の組み合わせ(ユースケース)の候補うち一つを指定する(ステップ661)。
このとき、データ利活用基盤サーバ200の提示部309は、ユーザ端末100のユーザからのユースケース(ユーザ種別と用途の組み合わせ)の指定を受け付けると、分析関係テーブル307を参照して(ステップ651)、当該ユースケースであるユーザ種別(ないしは業種)と用途の組み合わせに対して、利用可能なデータと分析部品(アプリ等)の組み合わせ候補を選出する(ステップ652)。また、提示部309は、選出したデータ(ないしは当該データを登録した他ユーザの情報)と分析部品(アプリ等)の組み合わせ候補をユーザ端末100のユーザに対して提案する(ステップ653)。
ユーザ端末100のユーザは、上述の提示部309から提案されたデータ(ないしは連携先候補の他ユーザ)と分析部品(アプリ等)の組み合わせ候補を閲覧し(ステップ662)、利用するデータ(ないしは連携先候補の他ユーザ)と分析部品(アプリ等)の組み合わせを決定する(ステップ663)。ユーザは、ここで提案されたデータ(ないしは連携先候補の他ユーザ)と分析部品(アプリ等)の組み合わせのいずれかを選択する、もしくは提案された組合せの一部を変更することで、利用するデータ(ないしは連携先の他ユーザ)と分析部品(アプリ等)の組み合わせを決定することとなる。また、ユーザは、上述にて決定したデータ(ないしは連携先)と分析部品(アプリ等)の組み合わせによる分析処理を実行する(ステップ664)。
一方、分析処理実績管理部312は、上述のユーザによる分析処理の実行を確認して、該分析処理実行に係る実績(分析部品の組合せ、処理実行の履歴、分析結果、他ユーザ連携結果、ユーザからの評価や改善要望など)を記録し(ステップ641)、分析関係情報管理部308に対して実績記録の通知を行う(ステップ642)。この場合、分析関係情報管理部308は、上述の分析処理実績管理部312からの通知を受信すると、当該実績から分析関係テーブルを更新する(ステップ632)。
<フロー例>
図9は、本実施形態におけるデータ利活用促進方法のフロー例を示す図である。具体的には、データ利活用基盤サーバ200が、アセット端末400から登録された所定データに基づき、分析関係テーブル307を生成するフローチャートである。
図9は、本実施形態におけるデータ利活用促進方法のフロー例を示す図である。具体的には、データ利活用基盤サーバ200が、アセット端末400から登録された所定データに基づき、分析関係テーブル307を生成するフローチャートである。
この場合、データ利活用基盤サーバ200は、アセット端末400からのデータ登録を受け付ける(ステップ701)。ここで登録を受け付けるデータは、それぞれのアセット端末400で保持する各種の業務データ、センシングデータ等である。
また、データ利活用基盤サーバ200は、上述のステップ701で得た登録データに対してデータ関係を生成する(ステップ702)。このデータ関係の生成処理は、既存技術を適宜に採用すればよいが、例えば、アセット端末400を跨がって、値の観測箇所(例:地理空間情報)や時間帯、対象等の或る属性が1または複数共通するデータを対応付ける処理(ブロックチェーン技術、分散台帳技術)等を想定出来る。
続いて、データ利活用基盤サーバ200は、上述のステップ702で生成したデータ関係に基づき、関係付けられた1つ以上のデータを分析対象データDB304より抽出するデータ突合ロジック及びメタ情報507を生成する(ステップ703)。
データ突合ロジックの生成は、上述のデータ関係が示す各分析対象データを、分析対象データDB304の該当テーブルから呼び出すためのSQL文を生成する処理が該当する。また、このSQL文の生成は、データ利活用基盤サーバ200が予め保持するSQL文の雛形に、呼び出し対象のテーブルとデータの識別情報等をセットするといった手法を採用すればよい。
また、メタ情報507の生成は、上述のデータ関係が示す各分析対象データの、文字列や数値といった型、サイズ、及び、格納先のテーブル名といった値、センサーID、送信されたプロトコル、センサーの地理的位置、測定値がキャプチャされたゲートウェイID、ゲートウェイの地理的位置、データ読み込みが行われた時間、予想される値またはスケールの範囲、トラストスコア(データの信憑性、データの所有権、データの品質、データの整合性などの各評価値などデータ信頼性やデータ有用性に関する各評価値)を、それぞれの分析対象データから読み取り、これをメタ情報507としてテーブル化する処理となる。
また、データ利活用基盤サーバ200は、上述のステップ703で生成したデータ突合ロジックのメタ情報507を参照し(ステップ704)、分析対象データとデータ突合ロジックとの紐付けについて、分析対象データ紐付けテーブル501にレコードを追加する(ステップ705)。
続いて、データ利活用基盤サーバ200は、データ紐付けロジックのメタ情報507に記載される全てのデータに対して処理が終了しているか判定し、終了していないことが判明した場合(ステップ706:NO)、ステップ705、ステップ706の処理を繰り返す。
他方、ステップ706の判定において、データ紐付けロジックのメタ情報507に記載される全てのデータに対して処理が終了したことが判明した場合(ステップ706:YES)、データ利活用基盤サーバ200は、全てのデータ突合ロジックに対して処理が終了しているか判定する(ステップ707)。
この判定の結果、全てのデータ突合ロジックに対して処理が終了していることが判明した場合(ステップ707:NO)、データ利活用基盤サーバ200は、ステップ704~706の処理を繰り返す。
他方、上述の判定の結果、全てのデータ突合ロジックに対して処理が終了していることが判明した場合(ステップ707:YES)、かつ、全てのデータ関係に対して処理が終了していないことが判明した場合(ステップ708:NO)、データ利活用基盤サーバ200は、ステップ703~707の処理を繰り返す。
一方、上述のステップ708において、全てのデータ関係に対して処理が終了していることが判明した場合(ステップ708:YES)、データ利活用基盤サーバ200は、データ分析ロジックのメタ情報506を参照し(ステップ709)、また、データ突合ロジックのメタ情報507を参照する(ステップ710)。
次に、データ利活用基盤サーバ200は、上述のステップ709、710での参照の結果、データ分析ロジックのメタ情報506にデータ項目562の指定が無い場合(ステップ711
:NO)、データ分析ロジックのメタ情報506とデータ突合ロジックのメタ情報507で型(563、573)の比較を行う(ステップ712)。
:NO)、データ分析ロジックのメタ情報506とデータ突合ロジックのメタ情報507で型(563、573)の比較を行う(ステップ712)。
続いて、データ利活用基盤サーバ200は、上述のステップ712での比較の結果、データ突合ロジックのメタ情報507に、データ分析ロジックのメタ情報506におけるデータに合致するものが全て含まれることが判明した場合(ステップ713:YES)、データ突合ロジックとデータ分析ロジックの紐付けとして分析部品紐付けテーブル502にレコードを追加する(ステップ714)。
他方、上述のステップ711において、データ分析ロジックのメタ情報506にデータ項目562の指定が有ることが判明した場合(ステップ711:YES)、データ利活用基盤サーバ200は、データ分析ロジックのメタ情報506とデータ突合ロジックのメタ情報507とでデータ項目(562、572)の比較を行う(ステップ715)。
次に、データ利活用基盤サーバ200は、上述のステップ715での比較の結果、データ突合ロジックのメタ情報507にデータ分析ロジックのメタ情報506におけるデータに合致するものが全て含まれることが判明した場合(ステップ716:YES)、データ突合ロジックとデータ分析ロジックとの紐付けとして分析部品紐付けテーブル502にレコードを追加する(ステップ717)。
また、データ利活用基盤サーバ200は、上述のステップ717で紐付けたデータ突合ロジックのメタ情報507に、データ分析ロジックのメタ情報506にて種別564が“キー”であるデータに対応するデータが含まれるか判定する(ステップ718)。
この判定の結果、“キー”であるデータに対応するデータが含まれないことが判明した場合(ステップ718:NO)、データ利活用基盤サーバ200は、データ分析ロジックのメタ情報506にて種別564が“入力”であるデータからデータ関係を参照して、“キー”に該当するデータを検索する(ステップ719)。
また、データ利活用基盤サーバ200は、上述のステップ719で検索したデータとの紐付けとして、分析対象データ紐付けテーブル501にレコードを追加する(ステップ720)。
次に、データ利活用基盤サーバ200は、全てのデータ突合ロジックに対して処理が終了しているか判定する(ステップ721)。この判定の結果、全てのデータ突合ロジックに対して処理が終了していないことが判明した場合(ステップ721:NO)、データ利活用基盤サーバ200は、ステップ710~720の処理を繰り返す。
次に、データ利活用基盤サーバ200は、全てのデータ突合ロジックに対して処理が終了しているか判定する(ステップ721)。この判定の結果、全てのデータ突合ロジックに対して処理が終了していないことが判明した場合(ステップ721:NO)、データ利活用基盤サーバ200は、ステップ710~720の処理を繰り返す。
他方、上述のステップ721において、全てのデータ突合ロジックに対して処理が終了していることが判明した場合(ステップ721:YES)、データ利活用基盤サーバ200は、全てのデータ分析ロジックに対して処理が終了しているか判定する(ステップ722)。
この判定の結果、全てのデータ分析ロジックに対して処理が終了していないことが判明した場合(ステップ722:NO)、データ利活用基盤サーバ200は、ステップ709~721の処理を繰り返す。他方、全てのデータ分析ロジックに対して処理が終了していることが判明した場合(ステップ722:YES)、データ利活用基盤サーバ200は、処理を終了する。
<フロー例2>
図10は、本実施形態におけるデータ利活用促進方法のフロー例2を示す図である。具体的には、分析処理の実行実績に基づき分析関係テーブル307を更新する処理の流れを示すフローチャートである。
図10は、本実施形態におけるデータ利活用促進方法のフロー例2を示す図である。具体的には、分析処理の実行実績に基づき分析関係テーブル307を更新する処理の流れを示すフローチャートである。
まず、データ利活用基盤サーバ200は、分析者201により実行された分析処理(分
析部品の組合せ)に関する情報の、分析関係テーブル307への登録有無を確認する(ステップ801)。なお、分析者201により分析処理が実行されたこと自体は、例えば、分析結果DB305でのレコード登録イベントを通じて検知出来る。
析部品の組合せ)に関する情報の、分析関係テーブル307への登録有無を確認する(ステップ801)。なお、分析者201により分析処理が実行されたこと自体は、例えば、分析結果DB305でのレコード登録イベントを通じて検知出来る。
続いて、データ利活用基盤サーバ200は、ステップ801の結果、分析関係テーブル307への分析処理の登録が確認された場合(ステップ802:YES)、該当分析処理(とこれを構成する分析部品、分析対象データ等)に関して、分析関係テーブル307の各テーブルにおいて互いに紐付いている各レコードの「重み」の情報を更新する(ステップ803)。この更新は、例えば、「重み」の値をインクリメントすることとなる。
他方、ステップ801の結果、分析関係テーブル307への分析処理の登録が確認出来なかった場合(ステップ802:NO)、データ利活用基盤サーバ200は、上述の実行した分析処理を構成する各々の分析部品、分析対象データの間の紐付けを、当該分析処理の情報に基づき確認する(ステップ804)。
次に、データ利活用基盤サーバ200は、上述の実行した分析処理の情報を、分析関係テーブル307へ新規登録する(ステップ805)。また、データ利活用基盤サーバ200は、上述の実行した分析処理に関する情報として、分析処理-分析目的紐付けテーブル504及び分析目的-業務紐付けテーブル505にレコードを追加する(ステップ806)。
また、データ利活用基盤サーバ200は、分析部品-分析処理紐付けテーブル503に該当する既存の紐付けレコードが有るか判定する(ステップ807)。この判定の結果、分析部品-分析処理紐付けテーブル503に該当する既存の紐付けレコードが有ることが判明した場合(ステップ807:YES)、データ利活用基盤サーバ200は、分析部品-分析処理紐付けテーブル503における該当レコードの重みの情報を更新する(ステップ808)。
続いて、データ利活用基盤サーバ200は、上述の807の判定の結果、分析部品-分析処理紐付けテーブル503に該当する既存の紐付けレコードが無いことが判明した場合(ステップ807:NO)、分析部品-分析処理紐付けテーブル503に、上述の実行した分析処理における紐付けに関するレコードを追加する(ステップ809)。
また、データ利活用基盤サーバ200は、分析部品紐付けテーブル502に、該当する既存の紐付けレコードが有るか判定する(ステップ810)。この判定の結果、分析部品紐付けテーブル502に、該当する既存の紐付けレコードが有ることが判明した場合(ステップ810:YES)、データ利活用基盤サーバ200は、分析部品紐付けテーブル502における該当レコードの重みの情報を更新する(ステップ811)。
他方、上述のステップ810での判定の結果、分析部品紐付けテーブル502に該当する既存の紐付けレコードが無いことが判明した場合(ステップ810:NO)、データ利活用基盤サーバ200は、分析部品紐付けテーブル502に、上述の実行した分析処理における紐付けに関するレコードを追加する(ステップ812)。
続いて、データ利活用基盤サーバ200は、分析対象データ紐付けテーブル501に、該当する既存の紐付けレコードが有るか判定する(ステップ813)。この判定の結果、分析対象データ紐付けテーブル501に、該当する既存の紐付けレコードが有ることが判明した場合(ステップ813:YES)、データ利活用基盤サーバ200は、分析対象データ紐付けテーブル501における該当レコードの重みの情報を更新する(ステップ814)。
他方、上述のステップ813の判定の結果、分析対象データ紐付けテーブル501に該当する既存の紐付けレコードが無いことが判明した場合(ステップ813:NO)、データ利活用
基盤サーバ101は、分析対象データ紐付けテーブル501に、上述の実行した分析処理における紐付けに関するレコードを追加する(ステップ815)。
基盤サーバ101は、分析対象データ紐付けテーブル501に、上述の実行した分析処理における紐付けに関するレコードを追加する(ステップ815)。
次に、データ利活用基盤サーバ200は上述の実行した分析処理の分析結果(分析処理の実行結果として出力されるデータ値。例えばKPIの値)を、上述の実行した分析処理との紐付けて、分析結果DB305に保存する(ステップ816、817)。
また、データ利活用基盤サーバ200は、上述の実行した分析処理に関して、実績情報DB06における実績情報を更新する(ステップ818)。具体的には、該当分析処理の、実行頻度、利用者数、定型登録数、修正回数といった値を更新することとなる。
<フロー例3>
図11は、本実施形態におけるデータ利活用促進方法のフロー例3を示す図である。具体的には、データ利活用基盤サーバ200がユースケース集ファイル301との対応関係等を規定した分析関係テーブル307を参照して、ユーザ指定のユースケース(用途とデータ種別(ないしはデータ提供元(連携先)の業種)の組み合わせ)に対応する分析対象データに対して、対応する分析を実行するために適切な分析部品の組合せを選出し提示するための処理の流れを示すフローチャートである。
図11は、本実施形態におけるデータ利活用促進方法のフロー例3を示す図である。具体的には、データ利活用基盤サーバ200がユースケース集ファイル301との対応関係等を規定した分析関係テーブル307を参照して、ユーザ指定のユースケース(用途とデータ種別(ないしはデータ提供元(連携先)の業種)の組み合わせ)に対応する分析対象データに対して、対応する分析を実行するために適切な分析部品の組合せを選出し提示するための処理の流れを示すフローチャートである。
この場合、データ利活用基盤サーバ200は、ユーザからの分析対象データの指定をユーザ端末100を介して受け付ける(ステップ901)。このユーザからの分析対象データの指定は、ユーザがユースケースを指定すると自動的に対応付けられたデータを呼び出すものであってもよく、図8で説明したように、ユーザがユースケースを指定することによって提示された分析対象データ候補の中からユーザが指定することによって成立するものであってもよく、上述のように、ユーザがデータ提供元(連携先)の業種“B”や用途“objective”を指定することで成立するものであってもよい。
また、データ利活用基盤サーバ200は、分析関係テーブル307を参照し(ステップ902)、上述のユーザ指定の分析対象データに紐付く分析部品(データ突合せロジック、データ分析ロジック)を抽出し(ステップ903)、分析部品組合せ候補を作成する(ステップ904)。この候補は、ステップ903で抽出できた分析部品のリストである。
続いて、データ利活用基盤サーバ200は、上述で作成した分析部品組合せ候補に類似する、分析処理を抽出する(ステップ906)。なお、本処理の詳細は図12にて後述する。
続いて、データ利活用基盤サーバ200は、ステップ906で抽出した類似処理の分析結果を、分析結果DB305から抽出する(ステップ907)。この分析結果は関連する情報としてユーザに提示するためのものである。
次に、データ利活用基盤サーバ200は、実績情報DB306を参照して、上述の類似処理の実行頻度を算出する(ステップ908)。また、データ利活用基盤サーバ200は、実績情報DB306を参照して、上述の類似処理の利用者数を算出する(ステップ909)。
また、データ利活用基盤サーバ200は、実績情報DB306を参照して、上述の類似処理の定型業務としての登録数を算出する(ステップ910)。
また、データ利活用基盤サーバ200は、実績情報DB306を参照して、上述の類似処理の定型業務としての登録数を算出する(ステップ910)。
また、データ利活用基盤サーバ200は、実績情報DB306を参照して、上述の類似処理の修正回数を算出する(ステップ911)。また、データ利活用基盤サーバ200は、分析関係テーブル307を参照して、上述の類似処理の類似処理数を算出する(ステップ912)。
続いて、データ利活用基盤サーバ200は、上述のステップ907から912の結果を用いて、当該分析部品組合せの有用度を判定する(ステップ913)。ここでは、上述のステップ908~912の各結果に重み付け加算による点数算出等を行う。なお、有用度(有用性の評価値)の判定は、これに限られず、データ利活用基盤サーバ200は、ユースケース集ファイル302に、データ種別(ないしは業種)と用途の同じ組み合わせが、多くの特許文献やWebデータにおいて記述されているほど、当該データ種別と用途の同じ組み合わせに対応するデータと分析部品の組み合わせの有用度が高いと判定してもよい。また、データ利活用基盤サーバ200は、ユースケース集ファイル302に、同じデータ種別(ないしは業種)に対して、複数の特許文献やWebデータにわたって多くの用途があるほど、当該データ種別(ないしは業種)に対応するデータの有用度が高いと判定してもよい。
また、データ利活用基盤サーバ200は、全ての分析部品組合せ候補に対して処理が終了しているか判定する(ステップ914)。この判定の結果、全ての分析部品組合せ候補に対して処理が終了していないことが判明した場合(ステップ914:NO)、データ利活用基盤サーバ200は、ステップ906~913の処理を繰り返す。
他方、上述の判定の結果、全ての分析部品組合せ候補に対して処理が終了していることが判明した場合(ステップ914:YES)、データ利活用基盤サーバ200は、処理の結果として、分析部品組合せ候補、有用度判定結果及び類似処理の分析結果を、ユーザ端末100に出力し(ステップ915)、当該ユーザに対して提示する。
<フロー例4>
図12は、本実施形態におけるデータ利活用促進方法のフロー例4を示す図である。具体的には、データ利活用基盤サーバ200が、ユーザ指定の分析対象データに対して分析を実行するための、適切な分析部品の組合せを選出する際に、類似の既存分析処理を選出するフローチャートである。
図12は、本実施形態におけるデータ利活用促進方法のフロー例4を示す図である。具体的には、データ利活用基盤サーバ200が、ユーザ指定の分析対象データに対して分析を実行するための、適切な分析部品の組合せを選出する際に、類似の既存分析処理を選出するフローチャートである。
この場合、データ利活用基盤サーバ200は、分析関係テーブル307を参照して、図11のフローにて選出した、指定された分析対象データに対する分析部品の組合せ候補と、分析処理の実績として蓄積されている既存の分析部品組合せとの比較を行う(ステップ1001)。
次に、データ利活用基盤サーバ200は、上述の分析部品組合せ候補と既存分析部品組合せとで入力データ項目が一致するか判定する(ステップ1002)。
この判定の結果、上述の分析部品組合せ候補と既存分析部品組合せとで入力データ項目(例:データの種類やデータ提供元の業種など)が一致しないことが判明した場合(ステップ1002:NO)、データ利活用基盤サーバ200は、当該組合せ同士は類似しないと判定し(ステップ1009)、処理をステップ1010に遷移させる。
他方、上述の判定の結果、上述の分析部品組合せ候補と既存分析部品組合せとで入力データ項目が一致することが判明した場合(ステップ1002:YES)、データ利活用基盤サーバ200は、分析部品組合せ候補と既存分析部品組合せとで構成する分析部品の種別が一致する数が、指定された閾値以上か判定する(ステップ1003)。
上述の判定の結果、分析部品の種別が一致する数が、指定された閾値以上ではないことが判明した場合(ステップ1003:NO)、データ利活用基盤サーバ200は、当該組合せ同士は類似しないと判定し(ステップ1009)、処理をステップ1010に遷移させる。
他方、上述の判定の結果、分析部品の種別が一致する数が、指定された閾値以上であることが判明した場合(ステップ1003:YES)、データ利活用基盤サーバ200は、当該分析部品組合せ候補と既存分析部品組合せとで構成する分析部品の実行順序が一致するか判定する(ステップ1004)。
上述の判定の結果、分析部品の実行順序が一致しないことが判明した場合(ステップ1004:NO)、データ利活用基盤サーバ200は、当該組合せ同士は類似しないと判定し(ステップ1009)、処理をステップ1010に遷移させる。
他方、上述の判定の結果、分析部品の実行順序が一致することが判明した場合(ステップ1004:YES)、データ利活用基盤サーバ200は、分析関係情報としてKPI、業務、対象の情報が有るか判定する(ステップ1005)。
この判定の結果、KPI、業務、対象の情報が無いことが判明した場合(ステップ1005:NO)、データ利活用基盤サーバ200は、当該組合せ同士は一部分のみが類似する準類似であると判定し(ステップ1008)、処理をステップ1010に遷移させる。
他方、上述の判定の結果、KPI、業務、対象の情報があることが判明した場合(ステップ1005:YES)、データ利活用基盤サーバ200は、当該分析部品組合せ候補と既存分析部品組合せとでKPI、業務、対象が一致する数が、指定された閾値以上か判定する(ステップ1006)。
上述の判定の結果、KPI、業務、対象が一致する数が、指定された閾値以上ではないことが判明した場合(ステップ1006:NO)、データ利活用基盤サーバ200は、当該組合せ同士は一部分のみが類似する準類似であると判定し(ステップ1008)、処理をステップ10101に遷移させる。
他方、上述の判定の結果、KPI、業務、対象が一致する数が、指定された閾値以上であることが判明した場合(ステップ1006:YES)、データ利活用基盤サーバ200は、当該組合せ同士は類似であると判定し(ステップ1007)、処理をステップ1010に遷移させる。
次に、データ利活用基盤サーバ200は、全ての分析部品組合せ候補及び既存分析部品組合せに対して比較が終了しているか判定する(ステップ1010)。この判定の結果、全ての分析部品組合せ候補及び既存分析部品組合せに対して比較が終了していないことが判明した場合(ステップ1010:NO)、データ利活用基盤サーバ200は、上述のステップ1001から1009までの処理を繰り返す。
他方、上述の判定の結果、全ての分析部品組合せ候補及び既存分析部品組合せに対して比較が終了していることが判明した場合(ステップ1010:YES)、データ利活用基盤サーバ200は処理を終了する。
<ユースケースからデータとアプリの組み合わせの取得方法>
図13は、データ利活用基盤サーバ200が、ユースケース451に基づいて、分析関係テーブル307を参照して、ユーザに提案する、データ411と分析部品類412~415の組み合わせを取得する手法を模式的に示す図である。なお、図13におけるωは、重みを表している。
図13は、データ利活用基盤サーバ200が、ユースケース451に基づいて、分析関係テーブル307を参照して、ユーザに提案する、データ411と分析部品類412~415の組み合わせを取得する手法を模式的に示す図である。なお、図13におけるωは、重みを表している。
データ利活用基盤サーバ200が、ユースケース集ファイル302に記憶されたユースケース451に基づいて、データ411と分析部品類412~415の組み合わせを取得する。図13に示すように、これは、ちょうど、データ種別451から用途450に至るまでの経路(ノードとリンクの組み合わせ)を求めることに似ている。
したがって、データ利活用基盤サーバ200は、ダイクストラ法などの公知の最短経路探索手法を用いて、ユースケース441から、データ411と分析部品類412~415の組み合わせを取得してもよい。
図13は、グラフ探索アルゴリズムの双方向探索の手法を矢印で示したものである。すなわち、第1段階として、データ利活用基盤サーバ200は、データ種別-データ紐付けテーブル500を参照して、データ種別(例:データ提供元の業種“B”およびデータの種類)に対応する、データ(例:データB、C)および重みω504を取得する。
並行して逆向きから、データ利活用基盤サーバ200は、データ提供先業種-業務アプリ紐付けテーブル508を参照して、データ提供先の業種“toB”455に対応する業務アプリ(例:アプリA)と重み584を取得するとともに、データ提供先の利用目的454に対応する、分析目的(例:KPIα)と重み594を取得し、分析目的-業務紐付けテーブル505を参照して、取得された業務アプリと分析目的に対応する重みω555を加算または乗算する。
積算重み=ω584*ω594*ω555
積算重み=ω584*ω594*ω555
第2段階として、データ利活用基盤サーバ200は、分析対象データ紐付けテーブル501を参照して、第1段階で特定したデータ(データC,D)にリンクするデータ突合ロジック422(例:突合せロジックa,b)および、それぞれの重みω514を特定して、加算または乗算する。
積算重み=ω504*ω514
積算重み=ω504*ω514
並行して逆向きから、データ利活用基盤サーバ200は、分析処理-分析目的紐付けテーブル504を参照して、第1段階で特定した業務アプリ・分析目的(例:アプリA・KPIα)にリンクする、分析処理(例:分析処理1、2)と、それぞれの重みω544を特定して、加算または乗算する。
積算重み=ω584*ω594*ω555*ω544
積算重み=ω584*ω594*ω555*ω544
第3段階として、データ利活用基盤サーバ200は、第2段階で特定した突合せロジック(例:突合せロジックa,b)にリンクするデータ分析ロジック(例:分析ロジック1、2、3)と、それぞれの重みω524を特定して、加算または乗算する。
積算重み=ω504*ω514*ω524
積算重み=ω504*ω514*ω524
並行して逆向きから、データ利活用基盤サーバ200は、第2段階で特定した分析処理(例:分析処理1、2)にリンクする分析ロジック(例:分析ロジック1、2、3)と、それぞれの重みω534を特定して、加算または乗算する。
積算重み=ω584*ω594*ω555*ω544*ω534
積算重み=ω584*ω594*ω555*ω544*ω534
以上の3つのステップで、双方向からの探索は、同じデータ分析ロジック422のノードに辿り着いたので、双方からの探索により同じ分析ロジック(例:分析ロジック1、2、3)に辿り着いた経路同士を繋げて、それぞれの重みを加算または乗算する。
積算重みtotalω=ω584*ω594*ω555*ω544*ω534*ω504*ω514*ω524
積算重みtotalω=ω584*ω594*ω555*ω544*ω534*ω504*ω514*ω524
この例では、(アプリ,分析目的,分析処理,分析ロジック,突合せロジック,データ)=
(A,α,1,1,a,B),
(A,α,1,2,a,B),
(A,α,1,1,a,C),
(A,α,2,1,a,C),
(A,α,1,2,a,C),
(A,α,2,2,a,C),
(A,α,1,2,b,C),
(A,α,2,3,b,C)の8つの経路が取得され、このうちで積算重みtotalωが最も大きいもの順に価値が高いと判定される。
(A,α,1,1,a,B),
(A,α,1,2,a,B),
(A,α,1,1,a,C),
(A,α,2,1,a,C),
(A,α,1,2,a,C),
(A,α,2,2,a,C),
(A,α,1,2,b,C),
(A,α,2,3,b,C)の8つの経路が取得され、このうちで積算重みtotalωが最も大きいもの順に価値が高いと判定される。
このように、データ利活用基盤サーバ200は、ユーザが採用したユースケース451から、データと分析部品類412~415の組み合わせを特定して、その重みに基づいて、ユーザに提示する。例えば、データ利活用基盤サーバ200は、それぞれの組み合わせに重みの値を表示してもよく、重みが大きい順、価値が高い順に優先表示してもよい。
なお、それぞれの重みω(ω584,ω594,ω555,ω544,ω534,ω504,ω514,ω524)は、有用性の評価値(有用度)に限らず、評価モジュール部319による真正性や信頼性など、データやソフトウェア分析部品の価値等に基づいた値(有用度および/または信頼度)であってもよい。具体例として、重みωは、(1)採用したユーザの数が多いほど、(2)ユーザが採用した期間が長いほど、(3)ユーザが採用するためにかけた費用が大きいほど、(4)採用したユーザからの評価が高いほど、(5)採用したユーザからの改善要望が多いものほど、(6)データの網羅性が高いほど、(7)データの正確性が高いほど、(8)データの整合性が高いほど、(9)データの適時性が高いほど、(10)データ加工の品質が高いほど、(11)元データから派生データの再現性が高いほど、および、(12)データ連携による効果が高いほど、のうち少なくとも一つに基づいて、価値が高いとの評価付けをした値であってもよい。
<画面例>
図14は、本実施形態における出力画面の例である。具体的には、図8のステップ661で、ユーザ端末100を介してユーザが選択したユースケース(データ種別、用途)に対応してステップ653で提案する、データと分析部品の組合せ候補の確認画面の例である(ステップ662)。
図14は、本実施形態における出力画面の例である。具体的には、図8のステップ661で、ユーザ端末100を介してユーザが選択したユースケース(データ種別、用途)に対応してステップ653で提案する、データと分析部品の組合せ候補の確認画面の例である(ステップ662)。
図14で例示する画面1101には、例えば、ユーザが指定する分析対象データを表示する、分析対象データ欄1111と、候補表示欄1112とを含んでいる。分析対象データ欄1111には、データの種類やデータIDを示す情報のほか、データ提供元の業種やデータ提供者(他ユーザ)に関する情報が記載されてもよい。これにより、ユーザは、連携先候補を把握することができる。
また、候補表示欄1112は、ユーザ指定の分析対象データに対して分析処理の候補となる、データ突合ロジック及びデータ分析ロジックの組合せ、及び該組合せに関連付けられる分析処理、分析目的、業務、対象と、該組合せの有用度、関連分析結果(図7Bの分析結果DB305における該当レコードのID)を一覧表示する。なお該当する情報が無い場合は空白箇所を含めて表示する。
以上、本発明を実施するための最良の形態等について具体的に説明したが、本発明はこれに限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。
[評価モジュールとしての統制システム]
評価モジュール部319は、一例として、データの受け渡しを行うAPI等であってもよく、ネットワーク等を介して統制システム900に接続されることにより、統制システム900からの評価を受け入れてもよい。なお、評価モジュール部319自体が、統制システム900であってもよい。
評価モジュール部319は、一例として、データの受け渡しを行うAPI等であってもよく、ネットワーク等を介して統制システム900に接続されることにより、統制システム900からの評価を受け入れてもよい。なお、評価モジュール部319自体が、統制システム900であってもよい。
図1に図示しなかったが、本実施形態にかかるデータ利活用促進システムを含むデータ流通基盤の機能モジュールとして、統制システム900が含まれ得る。図15は、本実施形態の統制システムの構成例を示すブロック図である。
<システム全体構成>
以下に本発明の実施形態について図面を用いて詳細に説明する。この統制システム900は、本実施形態において、API(Application Programming Interface)等のインターフェイスを介したデータの入出力を仲介する装置となる。さらに、統制システム900は、アセット端末400やユーザ端末100やASPシステム600等と接続されるインターフェイス(評価モジュール部319等)を介して入出力されるデータおよび/または当該データを取得するセンサや当該データを扱うシステムに対して、評価または価値付けを行い、評価結果または価値付け結果を記憶部906に格納し、評価結果を評価モジュール部319に返すデータデューデリジェンス(DD)を行うことができる。
以下に本発明の実施形態について図面を用いて詳細に説明する。この統制システム900は、本実施形態において、API(Application Programming Interface)等のインターフェイスを介したデータの入出力を仲介する装置となる。さらに、統制システム900は、アセット端末400やユーザ端末100やASPシステム600等と接続されるインターフェイス(評価モジュール部319等)を介して入出力されるデータおよび/または当該データを取得するセンサや当該データを扱うシステムに対して、評価または価値付けを行い、評価結果または価値付け結果を記憶部906に格納し、評価結果を評価モジュール部319に返すデータデューデリジェンス(DD)を行うことができる。
こうした統制システム900は、ネットワークを介して、ユーザ端末100やアセット端末400と、また、いわゆるASP(Application Service Provider)として様々なソフトウェアをサービスとして提供するSaaS(Software as a Service)システム600と、それぞれデータ通信可能に接続されている。なお、図1では、ユーザ端末100やアセット端末400やASPシステム600は、各一台を図示しているが、それぞれ複数台あってもよいものである。また、ユーザ端末100、アセット端末400、およびASPシステム600のうち少なくとも一つを含めて、データ流通基盤システムとして構成してもよい。また、ASPシステム600は、クラウドサーバの一部であってもよく、または、ゲートウェイに接続されてもよい。
上述のネットワーク構成におけるユーザ端末100は、本実施形態において、データ利活用(候補)者側の端末であり、入出力部208を介して、遵守すべき統制ルールを統制システム900に設定登録することによって、統制システム900が仲介する、統制ルールに適合したデータを受信してデータ利活用することができる端末となる。
アセット端末400は、本実施形態において、データ提供(候補)者側の端末であり、データ提供の際には、そのデータを、直接、または、ASPシステム600を介して間接的に、ユーザ端末100のユーザに提供する。この際、本実施の形態では、統制システム900が、このアセット端末400からユーザ端末100へのデータ送受信を仲介することで、IT統制などの統制ルールを遵守させることができる。例えば、統制システム900は、アセット端末400から送信されたデータに、個人情報が含まれている場合、個人情報保護法の統制ルールを遵守させるために、アセット端末400からの元データから個人情報や機微情報を削除したり加工することで、仮名加工情報にあたるデータとして出力させたり、元データからの学習済みモデルを用いてオントロジー化したデータやナレッジグラフから生成した派生データを匿名加工情報として出力させたりするなどして、ユーザ端末100へデータ出力してもよいものである。
このほか、アセット端末400は、データを送信(アップロード)することなく、データを学習させた学習済みモデル等のデータ処理結果を、統制システム900等に提供することでデータ提供としてもよい。この場合、統制システム900は、受信した学習済みモデル等に基づいて派生データを生成させて、ユーザ端末100やASPシステム600にデータを提供することができる。
また、ASPシステム600は、アセット端末400から直接、または、統制システム900を介して間接的に、各種データ(例:運輸・物流の走行データや、機器の温度・振動といった観測データ、メンテナンス履歴等)の提供を受けて処理するシステムである。このASPシステム600は、一例として、ユーザ端末100のユーザが、アセット端末400から提供されたデータの分析によって問題解決を行う対象となり、すなわち既存ビジネスの生産性向上や、新規ビジネス開発や、DXのためのツール等となる。その際、すなわち、ユーザ端末100のユーザが、アセット端末400から提供されるデータを用いる際や、アセット端末400から提供されるデータを用いてASPシステム600のアプリケーション等を実行する際に、本実施形態の統制システム900にデータ入出力を仲介させることで、各種の統制ルールを遵守することができる。すなわち、本実施形態の統制システム900は、各種統制を実現するためのデータハブと捉えることができる。
<ハードウェア構成>
上述の統制システム900のハードウェア構成の一例を説明する。すなわち、統制システム900は、一例として、SSD(Solid State Drive)やハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部906、記憶部906に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部902、ネットワークと接続し他装置との通信処理を担う通信部904、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部908を備えるコンピュータ等である。なお、上述のように、統制システム900は、本実施形態において、分散型コンピューティング装置として構成されているので、クラウドサーバ、エッジコンピュータ、および、ゲートウェイは、これら記憶部906や制御部902や入出力部908のうちの少なくとも一つを備えていなくてもよく、後述する記憶部906や制御部902や入出力部908のうちの一機能を備えていなくてもよい。
上述の統制システム900のハードウェア構成の一例を説明する。すなわち、統制システム900は、一例として、SSD(Solid State Drive)やハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部906、記憶部906に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部902、ネットワークと接続し他装置との通信処理を担う通信部904、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部908を備えるコンピュータ等である。なお、上述のように、統制システム900は、本実施形態において、分散型コンピューティング装置として構成されているので、クラウドサーバ、エッジコンピュータ、および、ゲートウェイは、これら記憶部906や制御部902や入出力部908のうちの少なくとも一つを備えていなくてもよく、後述する記憶部906や制御部902や入出力部908のうちの一機能を備えていなくてもよい。
こうしたハードウェア構成は、ユーザ端末100、アセット端末400、およびASPシステム600の各部においても同様である。例えば、ユーザ端末100は、SSD(Solid State Drive)やハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部206、記憶部206に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部202、ネットワークと接続し統制システム900等との通信処理を担う通信部204、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部208を備える。
同様に、アセット端末400は、SSDやハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部406、記憶部406に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部402、ネットワークと接続し統制システム900等との通信処理を担う通信部404、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部408を備える。図示しないが同様に、ASPシステム600は、SSDやハードディスクドライブ等の適宜な不揮発性記憶素子や、メモリ等の揮発性記憶素子を含む記憶部、記憶部に保持されるプログラム等を実行し装置自体の統括制御を行うとともに各種判定、演算及び制御処理を行うCPU等の制御部、ネットワークと接続し統制システム900等との通信処理を担う通信部、キーボードなどの入力手段やディスプレイなどの出力手段である入出力部等を備えてもよい。
<統制システム900の内部構成>
また、図15において、本実施形態にかかる統制システム900を含むデータ流通基盤システムは、統制システム900、複数のアプリケーション901、及び複数のマイクロサービス903から構成される。アプリケーション901は、アセット端末400やASPシステム600等のコンピュータ上で稼働し、マイクロサービス903は、ユーザ端末100やASPシステム600等のコンピュータから構成されるシステム上で稼働する。なお、本発明は、アプリケーション901及びマイクロサービス903の種類及び数に限定されない。また、アプリケーション901やマイクロサービス903は、ASPシステム600等が提供するシミュレーション・プログラム等の高度なソフトウェアを実行することにより実現されるものに限られず、アプリケーション901は、単に、アセット端末400のデータ送信用アプリケーション等と捉えてもよく、マイクロサービス903は、単に、ユーザ端末100のデータ受信用アプリケーション等と捉えてもよい。
また、図15において、本実施形態にかかる統制システム900を含むデータ流通基盤システムは、統制システム900、複数のアプリケーション901、及び複数のマイクロサービス903から構成される。アプリケーション901は、アセット端末400やASPシステム600等のコンピュータ上で稼働し、マイクロサービス903は、ユーザ端末100やASPシステム600等のコンピュータから構成されるシステム上で稼働する。なお、本発明は、アプリケーション901及びマイクロサービス903の種類及び数に限定されない。また、アプリケーション901やマイクロサービス903は、ASPシステム600等が提供するシミュレーション・プログラム等の高度なソフトウェアを実行することにより実現されるものに限られず、アプリケーション901は、単に、アセット端末400のデータ送信用アプリケーション等と捉えてもよく、マイクロサービス903は、単に、ユーザ端末100のデータ受信用アプリケーション等と捉えてもよい。
統制システム900、アプリケーション901を実行するコンピュータ(アセット端末400やASPシステム600等)、及びマイクロサービス902を実行するシステム(ユーザ端末100やASPシステム600等)は、ネットワークを介して互いに接続される。ネットワークは、WAN(Wide Area Network)及びLAN(Local Area Network)等である。ネットワークの接続形式は、有線又は無線のいずれでもよい。
統制システム900は、一つのアプリケーション901に対して、統制システム900と接続するための少なくとも一つのAPI905を提供する。また、一つのマイクロサービス902は、統制システム900と接続するための少なくとも一つのAPI907を提供する。なお、統制システム900が、一つのマイクロサービス902と接続するための少なくとも一つのAPI907を提供してもよい。
統制システム900は、図15に示すように、通信部904(データ入出力のためのインターフェイスであるAPI905,API907等)と、制御部902(受信部910と、統制部920と、データデューデリジェンス(DD)部940と、送信部911等)と、記憶部130(統制ライブラリ930、ナレッジグラフデータベース(DB)931、評価結果ログデータベース(DB)932)を備えている。
このうち、記憶部906は、統制種別ごとの統制に対応するコードおよび/または設定を記憶する統制ライブラリ930を備える。例えば、統制ライブラリ930は、統制種別(各種のIT統制(例:セキュリティガイドライン等)、各種の物理統制(例:警備員の駐在、入退室カードによる自動扉の設置など)、各種の内部統制(例:取引の監視など))と、その統制を実現し得るコードおよび/または設定とを、対応付けて記憶している。より具体的には、統制ライブラリ930は、統制ルールとして、例えば、遵守すべきガイドライン、統制フレームワーク、法律、条約、契約書条項、および、回避すべきリスクのうち少なくとも一つと、コードおよび/または設定とを対応付けて格納することにより、統制種別ごとの統制に対応するコードおよび/または設定を記憶する。
また、記憶部906は、ナレッジグラフを記憶するナレッジグラフデータベース(DB)931を備える。一例として、ナレッジグラフは、エッジとノードから構成されており、ノードは、概念や単語や項目を表し、エッジは、そのノード間の関係性や共起性や統計量を表す。ノードは言語に限られないが、より具体的な例として、ナレッジグラフは、大規模言語モデル(large language model、LLM)であってもよい。そのほか、ナレッジグラフDB931は、分析学習部923による分析結果(共起性などの統計情報等)や学習結果(学習済み学習モデル等)を記憶してもよい。
また、評価結果ログデータベース(DB)932は、後述するデータデューデリジェンス部140による評価結果または価値付け結果を記憶する。
制御部902のうち、データデューデリジェンス部940(データDD部940)は、インターフェイス905,907を介して入出力されるデータに対して、評価または価値付け(以下「評価または価値付け」を纏めて「評価」と呼ぶ場合がある。)を行い、その評価結果を記憶部906の評価結果ログDB932に格納する。また、データDD部940は、評価結果ログDBに記憶された統制検証用ログ等に基づいて、評価または価値付けを行ってもよい。
<リアルタイムな動作評価手法の例>
換言すれば、データDD部940は、データ流通基盤のデータパイプラインに埋め込まれ、通信部904を介して評価を行う評価モジュールである。より具体的には、アセット端末400から、データがアップロードされる際に、データDD部940は、そのデータパイプライン経路上のゲートウェイやエッジコンピュータに埋め込まれており、そのデータの評価値をスコアリングして、メタデータとして当該データに付加や、評価結果ログDB932に格納する機能を有してもよい。例えば、データDD部940は、データの信頼性に関する評価値として、以下の(A)~(J)の項目のうち少なくとも一つについて、それぞれスコアリングして、信頼性評価値としてメタデータに埋め込み、および/または、評価結果ログDB932に格納してもよい。
(A)分散台帳によるデータ検証されるか
(B)セキュアな格納先か
(C)ゲートウェイ認証があるか
(D)どこから発生したかの来歴メタデータがあるか
(E)デバイス署名による所有者情報が含まれるか
(F)データ分布を3シグマ・ルールでノイズ除去しているか
(G)ナイキスト基準による最適なポーリング頻度を上回っているか
(H)真正性指紋(authenticity fingerprint)が一致しているか
(I)ビザンチン・フォールトトレラント性があるか
(J)衛星データ等の復号結果(例:パリティチェック結果)は正しいか
換言すれば、データDD部940は、データ流通基盤のデータパイプラインに埋め込まれ、通信部904を介して評価を行う評価モジュールである。より具体的には、アセット端末400から、データがアップロードされる際に、データDD部940は、そのデータパイプライン経路上のゲートウェイやエッジコンピュータに埋め込まれており、そのデータの評価値をスコアリングして、メタデータとして当該データに付加や、評価結果ログDB932に格納する機能を有してもよい。例えば、データDD部940は、データの信頼性に関する評価値として、以下の(A)~(J)の項目のうち少なくとも一つについて、それぞれスコアリングして、信頼性評価値としてメタデータに埋め込み、および/または、評価結果ログDB932に格納してもよい。
(A)分散台帳によるデータ検証されるか
(B)セキュアな格納先か
(C)ゲートウェイ認証があるか
(D)どこから発生したかの来歴メタデータがあるか
(E)デバイス署名による所有者情報が含まれるか
(F)データ分布を3シグマ・ルールでノイズ除去しているか
(G)ナイキスト基準による最適なポーリング頻度を上回っているか
(H)真正性指紋(authenticity fingerprint)が一致しているか
(I)ビザンチン・フォールトトレラント性があるか
(J)衛星データ等の復号結果(例:パリティチェック結果)は正しいか
<バッチ処理的な動作評価手法の例>
また、データDD部940は、通信部904を介して入出力されるデータに対して、上述のようなリアルタイムに近い形で評価を行う手法のほか、バッチ処理的に評価を行うことも可能である。例えば、データDD部940は、後述する統制部920のログ格納部125等により評価結果ログDBに記憶された統制検証用ログ(データDD部940によるリアルタイムに近い評価結果の履歴を含んでもよい。)に基づいて、バッチ処理的に評価を行ってもよい。評価手法としては、データ流通の基準・ガイドライン・個人情報保護法等の法令などの統制ルールに適応しているか否かをデータDD部940がスコアリングしてもよい。
また、データDD部940は、通信部904を介して入出力されるデータに対して、上述のようなリアルタイムに近い形で評価を行う手法のほか、バッチ処理的に評価を行うことも可能である。例えば、データDD部940は、後述する統制部920のログ格納部125等により評価結果ログDBに記憶された統制検証用ログ(データDD部940によるリアルタイムに近い評価結果の履歴を含んでもよい。)に基づいて、バッチ処理的に評価を行ってもよい。評価手法としては、データ流通の基準・ガイドライン・個人情報保護法等の法令などの統制ルールに適応しているか否かをデータDD部940がスコアリングしてもよい。
<設計としての評価手法の例>
上述のように、リアルタイムないしバッチで行われる、データ入出力の動作としての評価に限られず、データDD部940は、設計として評価を行ってもよい。例えば、データ流通基盤のデータパイプライン上の、アセット端末400やASPシステム600やユーザ端末100等が、どの国にあるか、誰がどのように管理しているか、部外者の立ち入りを禁止できる設計になっているかどうかを、物理統制等の統制ルールの観点で、データDD部940は、評価してもよい。具体的には、データDD部940は、物理統制がなされていることをセンシングしたデータの履歴(例:入退室カードや自動ロック扉等による入退室履歴、監視カメラの動作状況、セキュリティガードマンの出勤履歴)に基づいて、物理統制ルールに適合しているかをスコアリングしてもよい。
上述のように、リアルタイムないしバッチで行われる、データ入出力の動作としての評価に限られず、データDD部940は、設計として評価を行ってもよい。例えば、データ流通基盤のデータパイプライン上の、アセット端末400やASPシステム600やユーザ端末100等が、どの国にあるか、誰がどのように管理しているか、部外者の立ち入りを禁止できる設計になっているかどうかを、物理統制等の統制ルールの観点で、データDD部940は、評価してもよい。具体的には、データDD部940は、物理統制がなされていることをセンシングしたデータの履歴(例:入退室カードや自動ロック扉等による入退室履歴、監視カメラの動作状況、セキュリティガードマンの出勤履歴)に基づいて、物理統制ルールに適合しているかをスコアリングしてもよい。
<外部評価受け入れ機能の例>
なお、これに限られず、データDD部940は、通信部904を介して外部機器等から評価を受け入れる評価モジュールとして機能してもよい。例えば、データDD部940は、通信部904を介して監査法人等が所有する外部機器等からアクセスを受けると、評価結果ログDB932の評価検証ログを監査法人等のユーザに提示して、外部からの評価(審査または監査と言い換えてもよい。)を受け入れる。具体的には、データDD部940は、上述のようなデータの価値評価の手法が、データ流通の基準・ガイドライン・個人情報保護法等の法令などの統制ルールに適応しているか否か、通信部904を介した評価を受け入れる。例えば、監査法人等が、データDD部940の内部処理方法を検証できるよう、評価値スコアリングプログラムを提示できるようにデータDD部940を構成してもよい。また、データ提示装置400がアップロードしたデータ(機微情報が含まれていないデータやオントロジー化データ等)とアップロードする前の元データ(機微情報が含まれているデータやオントロジー化前のデータ等)とを比較可能に提示することができるようにデータDD部940を構成してもよい。このほか、データDD部940は、以下のような項目を自動チェックする機能を有しており、通信部204を介した評価(証券取引法や国際会計ガイドラインに沿っているかの審査または監査と言い換えてもよい。)を受け入れてもよい。
(1)決済の際に、データ提供元からデータ提供先で(BtoBで)パイプラインがつながっているかをデューデリジェンスする
(2)複数の企業間取引で正しく相殺が実行されているか
(3)売り上げの水増し(架空取引)のチェック(グループ会社が別会社を介してデータを流している等)
(4)不正情報取引(インサイダー情報)の監視
(5)循環取引の監視
なお、これに限られず、データDD部940は、通信部904を介して外部機器等から評価を受け入れる評価モジュールとして機能してもよい。例えば、データDD部940は、通信部904を介して監査法人等が所有する外部機器等からアクセスを受けると、評価結果ログDB932の評価検証ログを監査法人等のユーザに提示して、外部からの評価(審査または監査と言い換えてもよい。)を受け入れる。具体的には、データDD部940は、上述のようなデータの価値評価の手法が、データ流通の基準・ガイドライン・個人情報保護法等の法令などの統制ルールに適応しているか否か、通信部904を介した評価を受け入れる。例えば、監査法人等が、データDD部940の内部処理方法を検証できるよう、評価値スコアリングプログラムを提示できるようにデータDD部940を構成してもよい。また、データ提示装置400がアップロードしたデータ(機微情報が含まれていないデータやオントロジー化データ等)とアップロードする前の元データ(機微情報が含まれているデータやオントロジー化前のデータ等)とを比較可能に提示することができるようにデータDD部940を構成してもよい。このほか、データDD部940は、以下のような項目を自動チェックする機能を有しており、通信部204を介した評価(証券取引法や国際会計ガイドラインに沿っているかの審査または監査と言い換えてもよい。)を受け入れてもよい。
(1)決済の際に、データ提供元からデータ提供先で(BtoBで)パイプラインがつながっているかをデューデリジェンスする
(2)複数の企業間取引で正しく相殺が実行されているか
(3)売り上げの水増し(架空取引)のチェック(グループ会社が別会社を介してデータを流している等)
(4)不正情報取引(インサイダー情報)の監視
(5)循環取引の監視
<国際標準基準による評価例>
データDD部940は、ISO25012に基づくデータ評価基準により、評価・格付けを行ってもよい。例えば、データDD部940は、アサーション項目として、正確性、網羅性、正当性、機密性、保全性、相互運用性、有用性、法令適合性のうち、少なくとも一つについて評価を行ってもよい。その際、データDD部940は、各アサーション項目について、表2に示すように、測定量要素A、全体量Bとして、A/Bなどの測定関数によって、品質を数値化することが可能である(ISO25012参照)。そのため、データDD部940は、この品質の数値を評価値としてもよい。あるいは、データDD部940は、各アサーション項目ごとに所定の閾値を設定しておき、これら品質の数値が閾値の基準を満たしているか否かで、品質の良否を判定してもよい。
データDD部940は、ISO25012に基づくデータ評価基準により、評価・格付けを行ってもよい。例えば、データDD部940は、アサーション項目として、正確性、網羅性、正当性、機密性、保全性、相互運用性、有用性、法令適合性のうち、少なくとも一つについて評価を行ってもよい。その際、データDD部940は、各アサーション項目について、表2に示すように、測定量要素A、全体量Bとして、A/Bなどの測定関数によって、品質を数値化することが可能である(ISO25012参照)。そのため、データDD部940は、この品質の数値を評価値としてもよい。あるいは、データDD部940は、各アサーション項目ごとに所定の閾値を設定しておき、これら品質の数値が閾値の基準を満たしているか否かで、品質の良否を判定してもよい。
また、制御部902のうち統制部920は、設定される統制に対応する、統制ライブラリ930に記憶されたコードの実行および/または設定を行うことにより、当該統制を実現する。設定される統制は、データ提供装置600やASPシステム600やユーザ端末100が設置されている国・地域や、データ提供装置600やASPシステム600やユーザ端末100のユーザや法人の国籍等により、その国や地域で遵守すべき法令などの統制ルールに基づいて自動的に設定されてもよく、データ提供装置600やASPシステム600やユーザ端末100や統制システム900のユーザ等により通信部904や入出力部908等を介して手動で設定されてもよい。図15に示すように、統制部920は、設定される統制に対応する、統制ライブラリ930に記憶されたコードの実行および/または設定の構成やデバッグ・自動検証、実行等を行う構成実行部921と、データの編集や加工等を行う編集加工部922と、データの分析や学習等を行う分析学習部923と、ナレッジグラフ等の分析結果や学習結果に基づいて派生データを生成する派生データ生成部924と、各種の履歴を統制検証用ログとして評価結果ログDB932に格納するログ格納部125を備える。
統制部920は、設定される統制に対応する、コードの実行および/または設定の組み合わせを統制ライブラリ930から自動的に構成して実行することにより、当該統制を実現し得る。統制部920による自動構成の具体的手法については後述する。また、統制を実現するための具体的な制御例として、統制部102は、
1.インターフェイス(API905,107等)の組み合わせ(すなわち、どのようなアプリケーション901からデータ入力を受け入れ、どのようなマイクロサービス903へ出力するか等)を選択する、
2.入力および/または出力すべきデータを選択する(すなわち、アプリケーション901から、どのようなデータの入力を受け入れ、マイクロサービス903へどのようなデータを出力するか)、
3.入力されるデータを編集または加工する(例えば、入力されたデータに個人情報が含まれる場合、そのデータから個人情報を削除または加工するなどして、個人情報保護法の個人情報から仮名加工情報といえるレベルに編集・加工する等)、
4.入力されるデータから派生データを生成して出力されるよう制御する(例えば、入力されたデータに個人情報が含まれる場合、その元データの統計情報を反映したナレッジグラフ等から派生データを生成することにより、個人情報保護法の個人情報から匿名加工情報といえるレベルに変換する等)、
5.評価結果または価値付け結果の高いデータが入力および/または出力されるよう制御する(例えば、データDD部940によるスコアリングに基づいて、所定の閾値以上のスコアをもつデータが入出力されるように制御する等)、
6.評価結果または価値付け結果の低いデータが入力および/または出力されないように制御する(例えば、データDD部940によるスコアリングに基づいて、所定の閾値未満のスコアをもつデータが入出力されないように制御する等)、
7.データが統制ルール(例:ESG(Environment、 Social、 Governance)ルール、データ欠損がないかのIT統制ルール、セキュリティガイドライン、リスク回避ルール)に適合しているかを検証する、
8.物理統制がなされていることをセンシングしたデータを検証する(例えば、入退室カードや自動ロック扉等による入退室履歴、監視カメラの動作状況の履歴、セキュリティガードマンの出勤履歴による検証)、
のうち、少なくとも一つを行うことにより、統制を実現してもよい。
1.インターフェイス(API905,107等)の組み合わせ(すなわち、どのようなアプリケーション901からデータ入力を受け入れ、どのようなマイクロサービス903へ出力するか等)を選択する、
2.入力および/または出力すべきデータを選択する(すなわち、アプリケーション901から、どのようなデータの入力を受け入れ、マイクロサービス903へどのようなデータを出力するか)、
3.入力されるデータを編集または加工する(例えば、入力されたデータに個人情報が含まれる場合、そのデータから個人情報を削除または加工するなどして、個人情報保護法の個人情報から仮名加工情報といえるレベルに編集・加工する等)、
4.入力されるデータから派生データを生成して出力されるよう制御する(例えば、入力されたデータに個人情報が含まれる場合、その元データの統計情報を反映したナレッジグラフ等から派生データを生成することにより、個人情報保護法の個人情報から匿名加工情報といえるレベルに変換する等)、
5.評価結果または価値付け結果の高いデータが入力および/または出力されるよう制御する(例えば、データDD部940によるスコアリングに基づいて、所定の閾値以上のスコアをもつデータが入出力されるように制御する等)、
6.評価結果または価値付け結果の低いデータが入力および/または出力されないように制御する(例えば、データDD部940によるスコアリングに基づいて、所定の閾値未満のスコアをもつデータが入出力されないように制御する等)、
7.データが統制ルール(例:ESG(Environment、 Social、 Governance)ルール、データ欠損がないかのIT統制ルール、セキュリティガイドライン、リスク回避ルール)に適合しているかを検証する、
8.物理統制がなされていることをセンシングしたデータを検証する(例えば、入退室カードや自動ロック扉等による入退室履歴、監視カメラの動作状況の履歴、セキュリティガードマンの出勤履歴による検証)、
のうち、少なくとも一つを行うことにより、統制を実現してもよい。
そして、統制部920のログ格納部125は、これらの履歴を統制検証ログとして評価結果ログDB932に格納してもよい。すなわち、統制部920のログ格納部125は、
1.インターフェイスの選択履歴、
2.データの選択履歴、
3.入力されるデータが編集または加工されたことの履歴、
4.入力されるデータから派生データを生成して出力された履歴、
5.評価結果または価値付け結果の高いデータが入力および/または出力された履歴、
6.評価結果または価値付け結果の低いデータが入力および/または出力されなかった履歴、
7.データが統制ルールに適合しているかの検証結果の履歴、
8.物理統制がなされていることをセンシングした前記データの検証履歴、
のうち、少なくとも一つを統制検証用ログとして記憶部906の評価結果ログDB932に格納してもよい。
1.インターフェイスの選択履歴、
2.データの選択履歴、
3.入力されるデータが編集または加工されたことの履歴、
4.入力されるデータから派生データを生成して出力された履歴、
5.評価結果または価値付け結果の高いデータが入力および/または出力された履歴、
6.評価結果または価値付け結果の低いデータが入力および/または出力されなかった履歴、
7.データが統制ルールに適合しているかの検証結果の履歴、
8.物理統制がなされていることをセンシングした前記データの検証履歴、
のうち、少なくとも一つを統制検証用ログとして記憶部906の評価結果ログDB932に格納してもよい。
<派生データ生成の具体例>
ここで、統制部920の派生データ生成部924は、入力されるデータから派生データに変換する。一例として、派生データ生成部924は、入力されるデータを反映するナレッジグラフに基づいて、派生データを生成する。例えば、統制部920の分析学習部923が、入力されるデータを分析・学習することにより、ノードに各種の項目や概念とし、分散・共分散の共起性などの統計データをエッジとした、ナレッジグラフを生成して、ナレッジグラフDB131に格納する。そして、統計部120の派生データ生成部924が、入力されるデータの統計情報を反映したナレッジグラフをナレッジグラフDB131から読み出し、当該ナレッジグラフに乱数群を与えて、分散共分散などの統計を反映するように整形することにより、派生データを生成させ、出力されるよう制御してもよい。このように、派生データ生成部924は、公知の派生データ生成手法を用いて、入力されるデータから、出力される派生データを生成することができ、例えば、入力されるデータが個人情報保護法の個人情報に該当する場合に、匿名加工情報といえるレベルに加工した派生データを生成・出力することで、個人情報保護法の統制ルールを遵守させることができる。ここで、公知の派生データ生成手法として以下の手法を用いてもよい。なお、派生データ生成処理は、アセット端末400等において行われてもよい。
参考文献:
1.「統計値を用いたプライバシ保護擬似データ生成手法」
https://ipsj.ixsq.nii.ac.jp/ej/index.php?active_action=repository_view_main_item_detail&page_id=13&block_id=8&item_id=187369&item_no=1
2.「AI・機械学習分野の難関国際会議 NeurIPS の匿名化技術コンペティションで優勝
~パーソナルデータを安全かつ使いやすく匿名化する新たな手法の実現へ~」
https://group.ntt/jp/newsrelease/2021/03/02/210302b.html
3.「Scalable Structure Learning, Inference, and Analysis with Probabilistic Programs」Saad, Feras Ahmad Khaled
https://dspace.mit.edu/handle/1721.1/147226
ここで、統制部920の派生データ生成部924は、入力されるデータから派生データに変換する。一例として、派生データ生成部924は、入力されるデータを反映するナレッジグラフに基づいて、派生データを生成する。例えば、統制部920の分析学習部923が、入力されるデータを分析・学習することにより、ノードに各種の項目や概念とし、分散・共分散の共起性などの統計データをエッジとした、ナレッジグラフを生成して、ナレッジグラフDB131に格納する。そして、統計部120の派生データ生成部924が、入力されるデータの統計情報を反映したナレッジグラフをナレッジグラフDB131から読み出し、当該ナレッジグラフに乱数群を与えて、分散共分散などの統計を反映するように整形することにより、派生データを生成させ、出力されるよう制御してもよい。このように、派生データ生成部924は、公知の派生データ生成手法を用いて、入力されるデータから、出力される派生データを生成することができ、例えば、入力されるデータが個人情報保護法の個人情報に該当する場合に、匿名加工情報といえるレベルに加工した派生データを生成・出力することで、個人情報保護法の統制ルールを遵守させることができる。ここで、公知の派生データ生成手法として以下の手法を用いてもよい。なお、派生データ生成処理は、アセット端末400等において行われてもよい。
参考文献:
1.「統計値を用いたプライバシ保護擬似データ生成手法」
https://ipsj.ixsq.nii.ac.jp/ej/index.php?active_action=repository_view_main_item_detail&page_id=13&block_id=8&item_id=187369&item_no=1
2.「AI・機械学習分野の難関国際会議 NeurIPS の匿名化技術コンペティションで優勝
~パーソナルデータを安全かつ使いやすく匿名化する新たな手法の実現へ~」
https://group.ntt/jp/newsrelease/2021/03/02/210302b.html
3.「Scalable Structure Learning, Inference, and Analysis with Probabilistic Programs」Saad, Feras Ahmad Khaled
https://dspace.mit.edu/handle/1721.1/147226
<自動構成の具体例>
ここで、本実施形態における統制部920の具体的な制御例を、図16を用いて説明する。図16は、本実施形態の統制システム900の統制部920の機能を模式的に示す図である。統制システム900は、上述のように、アセット端末400やASPシステム600およびユーザ端末100とネットワーク300を介して接続されている。
ここで、本実施形態における統制部920の具体的な制御例を、図16を用いて説明する。図16は、本実施形態の統制システム900の統制部920の機能を模式的に示す図である。統制システム900は、上述のように、アセット端末400やASPシステム600およびユーザ端末100とネットワーク300を介して接続されている。
統制システム900は、ユーザU1による統制を実現するプログラムコードの構成(コード開発や設定)を支援する。プログラムは、アセット端末400やASPシステム600等により提供される各種のサービスを用いて実行されてもよく、統制システム900の内部で実行されるプログラム(OS(operating system)や、データ編集加工プログラム等)であってもよい。
ユーザU1は、ユーザ端末100を操作して、アセット端末400やASPシステム600や統制システム900等における、利用したいプログラムについて、遵守したい統制に関する情報(個人情報保護法などの統制ルール)の設定入力を行う。統制システム900は、プログラムの実行に利用されるサービスの複数の候補からユーザU1の利用対象のサービスを選択する。
図16に示すように、統制システム900は、統制ライブラリ930および統制部920を有する。統制ライブラリ930は、統制部920により取得された統制ルール7およびプログラム8を記憶する。なお、ASPシステム600のプログラムを利用する場合等は、統制ライブラリ930は、そのプログラムを記憶する必要はなく、そのプログラムを用いるための機能拡張用等の一部のコードや、そのプログラムに対する設定情報のみであってもよい。
統制ルール7は、プログラム8の実行に伴うユーザU1のポリシー(法令やガイドラインの遵守条件や、サービスの利用方針など)に応じた制約を示す情報である。プログラム8は、アセット端末400やユーザ端末100の設定やサーバ間のネットワーク300経由での処理要求などIT統制ルール等を意識せずに作成されたものである可能性がある。
統制ルール7が示す制約としては、例えば、評価結果などのスコアや性能の下限や、サービスの利用に伴うコストの上限などが考えられる。コストとしては、例えば、サービスの利用のための費用や、サービスの処理に所要される演算リソース量(プロセッサリソース量やメモリリソース量)や、処理に伴うCO2排出量などが考えられる。また、性能としては、サービスのレスポンス時間(あるいは、レスポンス時間の速さを示す指標値)や稼働率(あるいは、サービスに対する更新パッチのリリース頻度などのサービスの信用度などの評価結果を示す指標)などが考えられる。
また、統制ライブラリ930は、ルールテーブル9を予め記憶する。ルールテーブル9は、プログラム8の中に出現し得るコード(命令の集合)のうち、特定のサービスを利用可能な処理を示すコードのパターン(コードパターン)と、利用可能なサービスの候補(利用候補)との対応関係を示す情報である。ルールテーブル9は、ルール情報と言われてもよい。ルールテーブル9には、各サービスに対応する所定のパラメータpの値も設定されている。ここで、パラメータpは、該当のサービスを選択した場合のコストまたは性能などを表す指標である。パラメータpは、統制ルール7に対する入力である。
例えば、ルールテーブル9は、コードパターンP1と利用候補のサービスA1とパラメータp=a1というレコードを含む。このレコードは、プログラム内のコードパターンP1に対してサービスA1を利用可能であり、サービスA1を利用した場合のパラメータpの値がa1であることを示す。
また、ルールテーブル9は、コードパターンP1と利用候補のサービスA2とパラメータp=a2というレコードを含む。このレコードは、プログラム内のコードパターンP1に対してサービスA2を利用可能であり、サービスA2を利用した場合のパラメータpの値がa2であることを示す。
ルールテーブル9には、他のコードパターンについても同様に利用候補のサービスおよびパラメータpの値が登録される。
ここで、アセット端末400やASPシステム600は、例えば、クラウドサービスを提供するサーバコンピュータであってもよく、その場合、アセット端末400はデータクラウドに対応し、ASPシステム600はSaaSクラウドに対応する。
アセット端末400やASPシステム600は、ネットワーク300経由で受信したデータ送信要求や処理要求に応じて、予め設定されたプログラムや設定情報などを用いて処理を実行する。アセット端末400やASPシステム600が実行可能な処理としては、養親要求に応じてデータを送信するもの、ネットワーク300を介して受信したデータを処理するもの、ネットワーク300を介して受信した要求に応じて関数を実行するもの、ネットワーク300を介して受信したデータを保存するものなどが挙げられる。
統制部920は、統制ライブラリ930から、統制ルール7に対応する、コード8aや設定8bを含むプログラム8を取得する。なお、繰り返しになるが、SaaSプログラムを使用する場合は、統制部920は、そのプログラムに対して用いる、統制ルール7に対応するコード8aや設定8bの指定情報を、取得する。
この際、統制部920は、プログラム8を実行する際に、プログラム8に含まれるコードパターンに基づいて、サービスの複数の候補から、統制ルール7を満たすサービスの組を特定する。
例えば、統制部920は、プログラム8の中から、パターンマッチングにより、コードパターンP1に該当するコード8aを検出する。この場合、プログラム8はコードパターンP1を含むと言える。すると、統制部920は、ルールテーブル9に基づいて、コード8aに対応する利用候補のサービスとして、サービスA1,A2を特定する。
また、統制部920は、プログラム8の中から、パターンマッチングにより、ルールテーブル9に登録されたコードパターンP2に該当する設定用コード8bを検出する。この場合、プログラム8はコードパターンP2を含むと言える。すると、統制部920は、ルールテーブル9に基づいて、コード8bに対応する利用候補のサービスとして、サービスB1,B2を特定する。
なお、あるコードパターンに該当する1つのコードに対して選択されるサービスは、1つである。上記の例では、コード8aに対してサービスA1,A2の何れか一方が選択される。また、コード8bに対してサービスB1,B2の何れか一方が選択される。
このように、統制部920は、プログラム8に含まれる各コードパターンを検出し、サービスの複数の候補を特定する。そして、統制部920は、各候補に対するパラメータpをルールテーブル9から取得し、統制ルール7を満たすサービスの組を特定する。一例として、選択対象のサービスの候補が、サービスA1,A2,B1,B2であり、ESGに関する統制ルール7としてCO2コストの総和の上限Zが与えられている場合を考える。また、パラメータpは、サービスの候補のCO2コストの値を示すものとする。
この場合、選択可能なサービスの組は、サービスA1,B1の組、サービスA1,B2の組、サービスA2,B1の組、および、サービスA2,B2の組の4通りである。サービスA1,B1の組を選択した場合のコストの総和は、a1+b1である。サービスA1,B2の組を選択した場合のコストの総和は、a1+b2である。サービスA2,B1の組を選択した場合のコストの総和は、a2+b1である。サービスA2,B2の組を選択した場合のコストの総和は、a2+b2である。
このうち、CO2コストの上限Zを超過しない組は、サービスA1,B1であるとする。この場合、統制部920は、ESGの統制ルール7を満たすサービスの組として、サービスA1,B1の組を特定する。なお、CO2コスト上限Zを超過しない組が複数ある場合、統制部920は、CO2コストの総和が最小のサービスの組を特定することが考えられる。
統制部920は、統制ルール7を満たすサービスの組として、サービスA1,B1の組を特定すると、サービスA1,B1の組によりプログラム8を実行する。例えば、統制部920は、プログラム8のコード8aの箇所を実行する際に、コード8aをサービスA1を用いるコードに変換して実行してもよい。同様に、統制部920は、プログラム8のコード8bの箇所を実行する際に、コード8bをサービスB1を用いるコードに変換して実行してもよい。
あるいは、統制部920は、プログラム8を、複数のサービスを組合せた分散処理ソフトウェア用のプログラム群に変換してもよい。例えば、ルールテーブル9には、コードパターンP1に対応付けて、プログラム変換用の第1のテンプレートが予め登録されていてもよい。同様に、ルールテーブル9には、コードパターンP2に対応付けて、プログラム変換用の第2のテンプレートが予め登録されていてもよい。「テンプレート」は、サービスの処理を規定する所定プログラムの書式(雛形)を示す。
例えば、第1のテンプレートは、処理要求に応じてASPシステム600が特定の処理を実行するよう規定するプログラムの書式(雛形)を示す。第1のテンプレートは、例えば、ASPシステム600に実行させるプログラムの書式や、ASPシステム600に設定情報を送信するためのプログラムの書式などである。また、例えば、第2のテンプレートは、ASPシステム600にネットワーク300経由で処理要求を送信するプログラムの書式(雛形)を示す。
より具体的な例では、第1のテンプレートが関数プログラムの書式を示し、第2のテンプレートが関数を呼び出すプログラムの書式を示す。また、例えば、第1のテンプレートがデータ保存場所を設定するプログラムの書式を示し、第2のテンプレートがデータの書き込みや読み出しを要求するプログラムの書式を示す。
この場合、統制部920は、コード8aから抽出した値を第1のテンプレートの引数に代入することで、サービスA1を利用する第1の変換後プログラムを生成してもよい。例えば、第1の変換後プログラムは、コード8aに対応する処理をASPシステム600がサービスA1を利用して実行するよう規定する。第1の変換後プログラムは、ASPシステム600に適用される。例えば、第1の変換後プログラムがASPシステム600に送信され、ASPシステム600によって第1の変換後プログラムが実行される。また、例えば、第1の変換後プログラムが規定する手順に従って所定の設定情報がASPシステム600に送信されてもよい。
更に、統制部920は、コード8bから抽出した値を第2のテンプレートの引数に代入することで、サービスB1を利用する第2の変換後プログラムを生成してもよい。例えば、第2の変換後プログラムは、コード8bに対応する処理をASPシステム600―2がサービスB1を利用して実行するよう規定する。第2の変換後プログラムは、例えば、ASPシステム600―1とは異なるASPシステム600―2に適用される。例えば、第2の変換後プログラムがASPシステム600―2に送信され、ASPシステム600―2によって第2の変換後プログラムが実行される。
なお、ASPシステム600―2は、他のサービスを提供してもよい。その場合、第2のテンプレートは、ASPシステム600―2が特定の処理を実行するよう規定するプログラムの書式を兼ねている。これにより、統制部920は、ASPシステム600―1,ASPシステム600―2上の複数のサービス(例えば、サービスA1,B1)を連携させて、プログラム8に記述された処理を実行することもできる。
統制システム900によれば、統制ルール7とプログラム8とが取得され、取得されたプログラム8を実行する際に、プログラム8に含まれるコードパターンに基づいて、サービスの複数の候補から統制ルール7を満たすサービスの組が特定される。そして、特定したサービスの組によりプログラム8が実行される。
これにより、ユーザU1により設定された統制ルールに適合した、利用対象のサービスを適切に特定できる。例えば、ESG統制ルール7として、サービス利用に伴うCO2消費量などのコストの和の上限が用いられる。この場合、統制システム900は、ユーザU1が想定するCO2コストを上回らないようにサービスを組合せて、ユーザ端末100のユーザU1に提供できる。
また、統制ルール7として、セキュリティ評価制度(ISMAP:Information system Security Management and Assessment Program)の評価値を用いてもよい。例えば、複数のASPシステム600やデータクラウドとしてのアセット端末400が提供する複数のクラウドサービスについて、ISMAPに基づき登録されているセキュリティ評価値の下限値を用いることもできる。セキュリティ評価値の下限値より大きなクラウドサービスを提供するASPシステム600やデータクラウドとしてのアセット端末400を利用して、データに対してクラウドサービスを実行してユーザ端末100に提供することで、ISMAPの統制ルール7を満たすことができる。
また、統制ルール7として、稼働率の平均の下限値を用いてもよい。稼働率の平均の下限値を上げることで(あるいは、稼働率の平均がより大きいサービスの組を選択することで)、プログラム8により実現される機能の信頼性を向上することもできる。
更に、統制ルール7は、CO2コストおよび性能値などの複数の種類のパラメータそれぞれに対する条件を含んでもよい。そして、統制部920は、複数の種類のパラメータそれぞれに対する条件を全て満たすサービスの組を選択してもよい。また、統制部920は、各種のパラメータに対する優先度の入力を受け付けてもよい。そして、統制部920は、統制ルール7を満たすサービスの組が複数ある場合に、優先度が高い種類のパラメータほど条件に対する評価が優位である組を選択してもよい。例えば、統制ルール7が、CO2コストおよび性能値のそれぞれに対する条件を含み、かつ、コストの優先度が性能値の優先度よりも高い場合を考える。この場合、統制部920は、コストおよび性能値のそれぞれに対する条件を全て満たすサービスの組が複数であると、当該複数の組のうち、コストが最小の組を利用対象のサービスの組として特定することが考えられる。
なお、各種のサービスの処理の実行主体は、統制システム900でもよい。すなわち、統制システム900は、アセット端末400やASPシステム600にサービスの処理を依頼せずに、当該サービスの処理を自身で実行してもよい。あるいは、各種のサービスの処理の実行主体は、統制システム900およびアセット端末400やASPシステム600(他の情報処理装置)を含む情報処理システムであってもよい。この場合、統制システム900の機能、各種のサービスおよびプログラム8(あるいは変換後プログラム)の実行主体は、当該情報処理システムであるとも言える。
以上が、本実施形態の統制システム900の構成の一例である。なお、統制システム900が有する各機能部については、複数の機能部を一つの機能部にまとめてもよいし、一つの機能部を機能毎に複数の機能部に分けてもよい。
<統制システム900の処理例>
図17は、本実施形態の統制システム900の処理の一例を説明するフローチャートである。
図17は、本実施形態の統制システム900の処理の一例を説明するフローチャートである。
図17に示すように、まず、統制システム900の統制部920は、構成実行部921の処理により、ユーザ端末100のユーザの入出力部208を介した操作を受け付け、ユーザにより統制ルールや、利用したいデータ種やアプリケーション種別が設定されるよう制御する(SA1)。ここで、具体例として、ユーザは、ISMAPおよびESGの統制ルールを指定し、クラウドデータから他社の配送予定データを用いて、共同配送のためのルーティングアプリケーションをSaaSソフトウェアから選びたいと指定したとする。
つづいて、統制部920は、構成実行部921の処理により、指定された統制ルール、データ種、アプリケーション種別の指定を満たす、データを提供するアセット端末400と、アプリケーションを提供するASPシステム600と、そのコードおよび/または設定を、自動的に構成する(SA2)。具体例として、構成実行部921は、ISMAPの統制ルールに従って、ISMAPで登録されている評価値の高いデータクラウド(複数のアセット端末400)とSaaSクラウド(複数のASPシステム600)を優先的に選択しつつ、指定された共同配送ルーティングのアプリケーションを提供するASPシステム600と、そのための他社配送予定データを提供するアセット端末400を選択する。このとき、ESGの統制ルールに従い、CO2排出量削減プログラムのある共同配送ルーティングアプリを優先的に選択する。なお、候補が複数ある場合は、統制ルールにより適合するもの、この例の場合、CO2コストが最も低いものや、ISMAPの評価値が最も高いものを優先的に選択してもよい。
そして、統制部920は、他の統制ルールの指定を受け付ける(SA3)。例えば、上記のステップで、多数のアセット端末400の候補や、多数のASPシステム600のアプリケーション候補が提示された場合(SA3,YES)、絞り込みのために、ステップSA1に処理を戻し、ユーザ端末100のユーザから更なる統制ルールの指定を受け付ける。
他の統制の指定がない場合(SA3,NO)、統制部920は、構成実行部921の処理により、上述のステップで構成した、アセット端末400から出力されるデータが、上述のステップで構成したコードおよび/または設定を指定して、ASPシステム600のアプリケーションに入力されるように、データ入出力を仲介する(SA4)。具体例としては、統制システム900は、受信部100によりAPI905を介して、配送トラックの運転者が所有するスマートフォン(アセット端末400の例)から位置情報や伝票情報等を受信し、データDD部940の処理により、そのデータの真正性(位置情報を取得するために衛星データを復号した際のパリティチェック結果が正しいこと等、改ざんされていないか)等をチェックして、送信部911の処理により、API907を介して、共同配送アプリケーション(マイクロサービス903の例)を提供するASPシステム600へデータを送信する。
なお、このデータ入出力の仲介の際、データDD部940の処理により、例えば、個人情報が含まれると評価した場合は、編集加工部922により機微データを削除するなどしてデータ加工してからASPシステム600へ出力してもよく、あるいは、派生データ生成部924の処理により、位置情報の統計情報を反映したナレッジグラフに基づき、派生データを生成して、この派生データをASPシステム600へ出力してもよい。
そして、統制部920は、ログ格納部123の処理により、データの評価値や処理内容等のログを、評価結果ログDB932に格納する(SA5)。例えば、入出力されたデータの品質を、メタデータ(所有権情報や、スマートフォン等の機器情報など)を評価結果ログDB932に格納してもよく、上述のデータ加工プロセス内容や、派生データ処理内容、また、SaaSアプリケーションの運用結果(共同配送により削減されたCO2排出量など)を、ログとして評価結果ログDB932に格納してもよい。
そして、データDD部940は、評価結果ログ132に格納されたログに基づいて、統制検証の評価を行う(SA6)。この統制検証は、バッチ処理として行われる評価であり、上述のステップSA4で行われるリアルタイムのデータ評価とは異なる。また、この統制検証は、データDD部940が、統制ルールに従って自動的に評価を行ってもよく、他の端末から監査人等による手動による評価が行われるように、評価結果ログ132に格納されたログが閲覧可能に提示して、外部端末からの評価を受け付けてもよい。
そして、統制部920は、データDD部940による統制検証結果に基づいて、統制適合しているか否かを判定し(SA7)、統制に適合していなければ(SA7,NO)、処理をステップSA2に戻し、コードや設定等を再構成する(SA2)。したがって、このステップSA7に到達するまでの1サイクル目の手順は、本実行前に行われるテスト運用やデバッグ処理と捉えることもできる。
一方、統制部920は、データDD部940による統制検証結果が統制に適合している場合(SA7,YES)、終了するか否かをユーザ等に入力させ、終了しない場合(SA8,NO)、処理をSA4に戻し、実行を開始する。したがって、このステップSA8に到達した1サイクル目の手順は、テスト実行を終了して、本実行を行うか否かをユーザに問い合わせると捉えることができる。
一方、統制部920は、処理を終了すると判定した場合(SA8,YES)、以上の処理を終了する。以上が、本実施形態の統制システム900の処理の一例である。
[実施例1]
以上のように説明した本実施形態は、さまざまな実施例として利用してもよいものである。例えば、日本において働き方改革関連法案が2024年に物流業界で施行されることにより、労働時間に制限がかかるため、限られた労働時間で、これまでの業務を行う必要がある。すなわち、運送効率の最適化、例えばドライバーの労働時間当たりの生産性(売上-経費)の向上が求められている。
以上のように説明した本実施形態は、さまざまな実施例として利用してもよいものである。例えば、日本において働き方改革関連法案が2024年に物流業界で施行されることにより、労働時間に制限がかかるため、限られた労働時間で、これまでの業務を行う必要がある。すなわち、運送効率の最適化、例えばドライバーの労働時間当たりの生産性(売上-経費)の向上が求められている。
そこで、物流業者Aが、自ユーザとして、これまで帰りの運行が空荷であることが多かったところ(すなわち、帰り便の実車率が低かったところ)、同業他社との協業により、帰り便マッチングを行い、帰り便の実車率を上げることができれば、生産性の向上が図られる。
そのため、例えば、本実施形態において、データ提供元の業種“B”およびデータ提供先の業種“toB”をともに「運送業」に指定し、用途”object”を「実車率」「生産性」「求荷求車マッチング」などを指定すれば、協業先候補の他ユーザを見つけることができる。
[実施例2]
他の実施例として、ある会社のサービスが複数会社をまたがって、サプライチェーンとして提供されている場合に、サプライチェーンの全体のサービスの品質(例えば、ロバスト向上やレジリエンス向上)につなげることができる。例えば、当該サプライチェーンにかかわる企業群をデータ提供元“B”で指定し、データの種類”data”として、ロバストやレジリエンスに関する部品数値を指定するか、用途”object”を「ロバスト」や「レジリエンス」で指定すれば、連携先候補とデータ連携を行うことで、サプライチェーン全体の品質向上につなげることができる。
他の実施例として、ある会社のサービスが複数会社をまたがって、サプライチェーンとして提供されている場合に、サプライチェーンの全体のサービスの品質(例えば、ロバスト向上やレジリエンス向上)につなげることができる。例えば、当該サプライチェーンにかかわる企業群をデータ提供元“B”で指定し、データの種類”data”として、ロバストやレジリエンスに関する部品数値を指定するか、用途”object”を「ロバスト」や「レジリエンス」で指定すれば、連携先候補とデータ連携を行うことで、サプライチェーン全体の品質向上につなげることができる。
[実施例3]
別の実施例3として、ESG関連のスコープ3(バリューチェーン全体から排出された温室効果ガス)に適用することができる。例えば、上述の実施例2ように、サプライチェーン全体でデータ連携を図ることで、サプライチェーン源流のCO2排出量を足し合わせていき、サプライチェーン全体でCO2排出量を評価することができる。このように、ボトムアップ型でホワイトボックスで足し合わせていく評価手法を用いることもでき、このほか、コスト・価格・温室効果などKPIについて向上させることもできる。
別の実施例3として、ESG関連のスコープ3(バリューチェーン全体から排出された温室効果ガス)に適用することができる。例えば、上述の実施例2ように、サプライチェーン全体でデータ連携を図ることで、サプライチェーン源流のCO2排出量を足し合わせていき、サプライチェーン全体でCO2排出量を評価することができる。このように、ボトムアップ型でホワイトボックスで足し合わせていく評価手法を用いることもでき、このほか、コスト・価格・温室効果などKPIについて向上させることもできる。
[実施例4]
他の実施例として、複数のクラウドサービス等にまたがってサービスを提供する場合等において、ISMAPなどの情報セキュリティサービス基準に適合させる評価を行うことができる。例えば、データ連携先として、委託先(クラウドサービス提供会社)のレポートセットからセキュリティ対策を評価して、利用者(自ユーザ)に提供することで、サービス提供会社(委託先)の実際のセキュリティ情報を、委託先企業内で収集して、評価することができる。このほか、リスクコントロールの情報を自動的に識別して取得することもできる。
他の実施例として、複数のクラウドサービス等にまたがってサービスを提供する場合等において、ISMAPなどの情報セキュリティサービス基準に適合させる評価を行うことができる。例えば、データ連携先として、委託先(クラウドサービス提供会社)のレポートセットからセキュリティ対策を評価して、利用者(自ユーザ)に提供することで、サービス提供会社(委託先)の実際のセキュリティ情報を、委託先企業内で収集して、評価することができる。このほか、リスクコントロールの情報を自動的に識別して取得することもできる。
以上が本実施形態の説明である。
本実施形態では、データ種別と用途とを少なくとも対応付けて格納したユースケース集ファイルを備え、ユースケース集ファイルに基づいて、ユーザに、用途とともに当該用途に対応するデータ種別を提示する。
本実施形態によれば、用途とともに当該用途に対応するデータ種別をユースケースとして提示するので、データ利活用の知識や経験が乏しいユーザであっても、データ利活用の新たな用途やユースケースの提案を受けることができ、データ利活用を促進することが可能となる。
また、本実施形態では、特許文献情報を記憶する特許文献ファイルを更に備え、特許文献情報の中から、少なくともデータ種別と用途に関する記述を抽出し、対応付けてユースケース集ファイルに格納してもよい。
これにより、特許文献からユースケースが自動収集されるので、データ利活用の実績のないユースケースであっても、具体的なユースケースとしてユーザに提案することで、データ利活用を促進することができる。
また、本実施形態では、ユースケース集ファイルに基づいて、データ種別と用途の同じ組み合わせが、多くの特許文献において記述されているほど、および/または、同じデータ種別に対して、複数の特許文献にわたって多くの用途があるほど、当該データ種別の価値が高いとの評価付けを行ってもよい。
これにより、ユーザ利活用の実績がなくても、特許文献におけるユースケースや用途の数に応じて、有用度を計ることができ、ユーザに有用性のあるユースケースを提示することができる。
また、本実施形態では、データ種別と用途の組み合わせ、および/または、データないしは他ユーザと用途の組み合わせを、(1)採用したユーザの数が多いほど、(2)ユーザが採用した期間が長いほど、(3)ユーザが採用するためにかけた費用が大きいほど、(4)採用したユーザからの評価が高いほど、(5)採用したユーザからの改善要望が多いものほど、(6)データの網羅性が高いほど、(7)データの正確性が高いほど、(8)データの整合性が高いほど、(9)データの適時性が高いほど、(10)データ加工の品質が高いほど、(11)元データから派生データの再現性が高いほど、および、(12)データ連携による効果が高いほど、のうち、少なくとも一つに基づいて、価値が高いとの評価付けを行うので、ユーザの利用実績やフィードバック等を受けて有用度を求めることができ、実用的なユースケースをユーザに提示することができる。
また、本実施形態では、通信部を介して取得される情報から、データの取得可能性、および/または、取得可能なデータ価値を推定してもよい。
これにより、データ提供候補者をアセットマイニングにより探索することができるので、データ提供の促進を図り、もってデータ利活用を促進することができる。
また、本実施形態では、(1)前記通信部を介して取得された顧客情報、取引先情報、物流情報、会計情報、ビジネスモデル情報、人的リソース情報、および、ノウハウ情報のうち少なくとも一つに基づいて、当該顧客、当該取引先、当該物流、当該会計、当該ビジネスモデル、当該人的リソース、および、当該ノウハウのうち少なくとも一つから取得できる、データの取得可能性、および/または、取得可能なデータ価値を推定すること、
(2)前記通信部を介して取得された顧客情報、取引先情報、物流情報、会計情報、ビジネスモデル情報、人的リソース情報、および、ノウハウ情報のうち少なくとも一つに基づいて、購入、貸与または利用可能化される機器またはソフトウェアを推定して、当該機器または当該ソフトウェアに基づいて、データの取得可能性、および/または、取得可能なデータ価値を推定すること、および、
(3)前記通信部を介して取得された学習済みモデル情報またはオントロジー情報に基づいて、学習された元データまたはオントロジー化された元データを予測して、データの取得可能性、および/または、取得可能なデータ価値を推定すること、
のうち少なくとも一つを実行してもよい。
(2)前記通信部を介して取得された顧客情報、取引先情報、物流情報、会計情報、ビジネスモデル情報、人的リソース情報、および、ノウハウ情報のうち少なくとも一つに基づいて、購入、貸与または利用可能化される機器またはソフトウェアを推定して、当該機器または当該ソフトウェアに基づいて、データの取得可能性、および/または、取得可能なデータ価値を推定すること、および、
(3)前記通信部を介して取得された学習済みモデル情報またはオントロジー情報に基づいて、学習された元データまたはオントロジー化された元データを予測して、データの取得可能性、および/または、取得可能なデータ価値を推定すること、
のうち少なくとも一つを実行してもよい。
これにより、(1)データの源となるリソース、(2)デジタル化やデータ化するハードウェアやソフトウェア、および、(3)元データ(生データ)が何らかの加工を受けたもの(加工データなどのオントロジー化データ等)や、データが変化させたもの(学習済みモデル等)から遡及的に元データ(の種別やデータ価値)の推定のうち、少なくとも一つを用いて、データの取得可能性、および/または、取得可能なデータ価値を推定することができ、データ提供の促進を図ることで、もってデータ利活用を図ることができる。
また、本実施形態では、ユースケース集ファイルに記憶された、データ種別と用途との対応関係に基づいて、分析対象となるデータと当該データに対する分析処理を実行する分析部品との紐付けを規定する分析関係情報を生成し、分析関係情報に基づき、ユーザにより分析対象として指定された所定データに対して、利用可能な分析部品の組合せを特定してもよい。
これにより、ユースケースに基づいて、具体的なデータと分析部品類の組み合わせを特定してユーザに提案することで、データ利活用のソフトウエア構成やデータ構成に詳しくないユーザであっても具体的なデータ利活用手法を把握することができ、一層、データ利活用を促進することができる。
また、本実施形態では、データパイプラインに埋め込まれ、通信部を介した評価を受け入れる評価モジュール部を更に備えてもよい。
これにより、データ提供元からデータ提供先までのデータパイプライン上で、信頼性や有用性などのデータの価値評価を行うことができ、データのデューデリジェンス機能を果たし、安全で安心なデータ流通システムを構築することができるので、一層、データ利活用が図られる。
また、本実施形態では、データ種別は、データ提供元の業種、および、データの種類を含み、用途は、データ提供先の業種、および、データ提供先の利用目的を含んでもよい。
これにより、ユーザが取り組みたい業種や、ユーザがデータ提供を受けたい業種、ユーザがデータを利活用することで達成できる目的が具体的に把握することができ、一層、データ利活用を促進することができる。
また、本実施の形態によれば、データ分析等のデータ利活用を行うアプリケーションに対してデータ提供を行うシステムにて、当該システムの導入時点、運用開始時点からも、分析処理の作成向けに再利用可能な部品の提案が可能となる。これにより、例えば複数業務システムからのデータを分析するための分析アプリケーションの作成や準備の作業高速化を図りことが可能となり、データ分析処理をはじめとするデータ利活用の実施に要するコストを低減できる。
すなわち、データ分析の実施履歴の多寡に係わらず分析部品の提案を可能とし、ひいては、データ分析用ソフトウェア作成の効率化やコスト低減を図ることが可能となる。
また、本明細書の記載により、少なくとも次のことが明らかにされる。すなわち、本実施形態のデータ利活用促進システムにおいて、制御部は、前記分析関係情報を生成する処理において、各分析対象データの属性に基づく分析対象データの間における関係性に応じて複数の分析対象データを関係付け、当該複数の分析対象データを分析に際して抽出するデータ突合ロジックを、前記分析部品の1つとして所定アルゴリズムで生成するものである、としてもよい。
これによれば、様々な業務システム等から得られたデータ類について、適宜な属性に基づきグルーピングし、これを効率的に分析に供することが可能となる。
これによれば、様々な業務システム等から得られたデータ類について、適宜な属性に基づきグルーピングし、これを効率的に分析に供することが可能となる。
また、本実施形態のデータ利活用促進システムにおいて、前記制御部は、前記分析関係情報を生成する処理において、前記データ突合ロジックと、前記分析部品の1つであって前記データ突合ロジックが抽出する分析対象データに対して分析処理を実行するデータ分析ロジックとを、前記データ突合ロジック及び前記データ分析ロジックの各々の取扱いデータに関するメタ情報を比較することで紐付けするものである、としてもよい。
これによれば、分析部品を構成するデータ突合ロジックとデータ分析ロジックとを、それぞれで取り扱うデータ項目等の適合に基づき精度良く紐付け、効率的な分析部品の提案が可能となる。
また、本実施形態のデータ利活用促進システムにおいて、前記制御部は、前記分析部品による分析処理の実績情報に基づき、前記分析関係情報を更新する処理を更に実行するものである、としてもよい。
これによれば、ユーザに提示した分析部品のうち、実際にユーザが選択して利用したものに関して、その有用度を認める情報を管理可能となり、ひいては、その後の分析部品の組合せの特定精度をより適宜なものできる。
また、本実施形態のデータ利活用促進システムにおいて、前記制御部は、前記分析関係情報を更新するに際し、前記分析処理と、当該分析処理の目的、当該目的に対応した業務、及び、当該業務の対象、の少なくともいずれかの情報とを紐付けるものである、としてもよい。
これによれば、ユーザに提示した分析部品のうち、実際にユーザが選択して利用したものに関して、その目的、業務、業務の対象、といった具体的状況を踏まえた有用度を認める情報を管理可能となり、ひいては、その後の分析部品の組合せの特定精度を更に適宜なものとできる。
また、本実施形態のデータ利活用促進システムにおいて、前記制御部は、前記分析部品の組合せを特定する処理において、分析部品による分析処理の実績情報を有している場合、当該実績情報にも基づいて分析部品の組合せを特定するものである、としてもよい。
これによれば、分析部品の組合せの特定精度をより適宜なものできる。
これによれば、分析部品の組合せの特定精度をより適宜なものできる。
また、本実施形態のデータ利活用促進システムにおいて、前記制御部は、前記特定した分析部品の組合せに類似する分析処理を、分析部品による分析処理の実績情報に基づいて特定し、当該類似の分析処理に関する所定事象の発生頻度の実績値に基づき、当該特定した分析部品の組み合わせの有用度を判定する処理を更に実行するものである、としてもよい。
これによれば、ユーザに提示した分析部品のうち、実際にユーザが選択して利用した事象等、当該分析部品の有用度を認めうる事象の発生頻度に基づき、分析部品の組合せの特定精度を更に適宜なものできる。
また、本実施形態のデータ利活用促進システムにおいて、前記制御部は、前記特定した分析部品の組合せに関する情報を、前記分析対象として指定された所定データの分析に適切な分析部品の組合せ候補の情報として、所定装置に出力する処理を更に実行するものである、としてもよい。
これによれば、ユーザに対して、分析対象データの分析に好適な分析部品の情報を提示することが可能となる。
これによれば、ユーザに対して、分析対象データの分析に好適な分析部品の情報を提示することが可能となる。
また、本実施形態のデータ利活用促進方法において、前記情報処理システムが、前記分析関係情報を生成する処理において、各分析対象データの属性に基づく分析対象データの間における関係性に応じて複数の分析対象データを関係付け、当該複数の分析対象データを分析に際して抽出するデータ突合ロジックを、前記分析部品の1つとして所定アルゴリズムで生成する、としてもよい。
また、本実施形態のデータ利活用促進方法において、前記情報処理システムが、前記分析関係情報を生成する処理において、前記データ突合ロジックと、前記分析部品の1つであって前記データ突合ロジックが抽出する分析対象データに対して分析処理を実行するデータ分析ロジックとを、前記データ突合ロジック及び前記データ分析ロジックの各々の取扱いデータに関するメタ情報を比較することで紐付けする、としてもよい。
また、本実施形態のデータ利活用促進方法において、前記情報処理システムが、前記分析部品による分析処理の実績情報に基づき、前記分析関係情報を更新する処理を更に実行する、としてもよい。
また、本実施形態のデータ利活用促進方法において、前記情報処理システムが、前記分析関係情報を更新するに際し、前記分析処理と、当該分析処理の目的、当該目的に対応した業務、及び、当該業務の対象、の少なくともいずれかの情報とを紐付ける、としてもよい。
また、本実施形態のデータ利活用促進方法において、前記情報処理システムが、前記分析部品の組合せを特定する処理において、分析部品による分析処理の実績情報を有している場合、当該実績情報にも基づいて分析部品の組合せを特定する、としてもよい。
また、本実施形態のデータ利活用促進方法において、前記情報処理システムが、前
記特定した分析部品の組合せに類似する分析処理を、分析部品による分析処理の実績情報に基づいて特定し、当該類似の分析処理に関する所定事象の発生頻度の実績値に基づき、当該特定した分析部品の組み合わせの有用度を判定する処理を更に実行する、としてもよい。
記特定した分析部品の組合せに類似する分析処理を、分析部品による分析処理の実績情報に基づいて特定し、当該類似の分析処理に関する所定事象の発生頻度の実績値に基づき、当該特定した分析部品の組み合わせの有用度を判定する処理を更に実行する、としてもよい。
また、本実施形態のデータ利活用促進方法において、前記情報処理システムが、前記特定した分析部品の組合せに関する情報を、前記分析対象として指定された所定データの分析に適切な分析部品の組合せ候補の情報として、所定装置に出力する処理を更に実行する、としてもよい。
本実施形態によれば、IoT機器から生成されるデータアセットや、ある企業の顧客リスト、取引先や物流などのネットワーク、人的リソース、ノウハウ、台帳・元帳データなど様々な有形・無形のアセットを発掘し、そのアセットを分析・資産評価し、また、企業間(B to B)のコラボレーションやデジタルトランスフォーメーション(DX:digital transformation)を促進するために新たなユースケースを自動検出し、連携候補先に提案し、さらにはデータのトラスト評価を提携候補先に提示することができるようになり、産業上の利用可能である。
[他の実施の形態]
さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。
さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。
例えば、データ利活用促進システムは、分散型コンピューティングシステムとして、機能を実現する別々の筐体にて実現されるように記載したが、これに限られず、同一筐体で行われてもよいものである。このほか、制御部や記憶部等の各機能は、機能負荷に応じて、あるいは任意の単位で、機能的または物理的に分散・統合して構成することができる。
また、データ利活用促進システムが、ユーザ端末100やアセット端末400等のクライアント端末からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却する場合を一例として説明したが、データ利活用促進システムは、ユーザ端末100やアセット端末400等を含んで、スタンドアローンの形態で処理を行うよう一体として構成されてもよい。
また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。
このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。
また、ユーザ端末100やデータ利活用基盤サーバ200やアセット端末400やASPサーバ600等に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。
例えば、データ利活用基盤サーバ200の各装置が備える処理機能、特に制御部202にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)などのプロセッサおよび当該プロセッサにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアプロセッサとして実現してもよい。尚、プログラムは、後述する、コンピュータに本発明に係る方法を実行させるためのプログラム化された命令を含む、一時的でないコンピュータ読み取り可能な記録媒体に記録されており、必要に応じてデータ利活用基盤サーバ200に機械的に読み取られる(ASPサーバ600等から必要に応じてデータ利活用基盤サーバ200に読み取られてもよい)。すなわち、ROMまたはHDD(Hard Disk Drive)などの記憶部106などには、OS(Operating System)と協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。
また、このコンピュータプログラムは、ユーザ端末100やデータ利活用基盤サーバ200やアセット端末400やASPサーバ600や特許文献情報サーバ800等に対して任意のネットワークを介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。
また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD-ROM、MO、DVD、および、Blu-ray(登録商標)Disc等の任意の「可搬用の物理媒体」を含むものとする。
また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。プログラムが、一時的でないコンピュータ読み取り可能な記録媒体に記録されたプログラム製品として本発明を構成してもよい。
記憶部106,206,406等に格納される各種のデータベース等(特許文献DB301、ユースケース集ファイル302等)は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、および、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラム、テーブル、データベース、および、ウェブページ用ファイル等を格納する。
また、ユーザ端末100やデータ利活用基盤サーバ200やアセット端末400やASPサーバ600や特許文献情報サーバ800等は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。またユーザ端末100やデータ利活用基盤サーバ200やアセット端末400やASPサーバ600や特許文献情報サーバ800等は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。
なお、本願において、「Aおよび/またはB」との記載を、「AおよびBのうち一方または両方」と読み替えてもよい。
更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。
7 統制ルール
8 プログラム
8a コード
8b 設定(設定用コードを含む。)
9 ルールテーブル
U1 ユーザ
100 ユーザ端末
200 データ利活用基盤サーバ
400 アセット端末
600 ASPシステム
800 特許文献情報サーバ
106、206,406 記憶部
102、202、402 制御部
104、204、404 通信部
108、208、408 入出力部
300 データ利活用ミドルウェア
301 特許文献情報ファイル
302 ユースケース集ファイル
303 分析実行管理部
304 分析対象データDB
305 分析結果DB
306 実績情報DB
307 分析関係テーブル
308 分析関係情報管理部
309 分析提案部
310 ユーザ・業務管理部
311 クライアント向けI/F提供部
312 分析処理実績管理部
313 分析部品管理部
314 データ管理部
315 データ通信部
316 ユースケース抽出部
317 有用性判定部
318 アセット推定部
319 評価モジュール部
323 分析部品
333 分析処理
401 分析関係情報
421 データ突合ロジック
422 データ分析ロジック
451 ユースケース
450 用途
451 データ種別
501 分析対象データ紐付けテーブル
502 分析部品紐付けテーブル
503 分析部品-分析処理紐付けテーブル
504 分析処理-分析目的紐付けテーブル
505 分析目的-業務紐付けテーブル
506 データ分析ロジックのメタ情報
507 データ突合ロジックのメタ情報
508 データ提供先業種-業務アプリ紐付けテーブル
509 データ提供先利用目的-分析目的紐付けテーブル
500 データ種別-データ紐付けテーブル
900 統制システム(統制モジュール)
901 アプリケーション
902 制御部
903 マイクロサービス
904 通信部
905 (データ入力側)API
906 記憶部
907 (データ出力側)API
908 入出力部
910 受信部
911 送信部
912 互換操作制御部
920 統制部
921 構成実行部
922 編集加工部
923 分析学習部
924 派生データ生成部
930 統制ライブラリ
931 ナレッジグラフ
932 評価結果ログDB
940 データDD部
8 プログラム
8a コード
8b 設定(設定用コードを含む。)
9 ルールテーブル
U1 ユーザ
100 ユーザ端末
200 データ利活用基盤サーバ
400 アセット端末
600 ASPシステム
800 特許文献情報サーバ
106、206,406 記憶部
102、202、402 制御部
104、204、404 通信部
108、208、408 入出力部
300 データ利活用ミドルウェア
301 特許文献情報ファイル
302 ユースケース集ファイル
303 分析実行管理部
304 分析対象データDB
305 分析結果DB
306 実績情報DB
307 分析関係テーブル
308 分析関係情報管理部
309 分析提案部
310 ユーザ・業務管理部
311 クライアント向けI/F提供部
312 分析処理実績管理部
313 分析部品管理部
314 データ管理部
315 データ通信部
316 ユースケース抽出部
317 有用性判定部
318 アセット推定部
319 評価モジュール部
323 分析部品
333 分析処理
401 分析関係情報
421 データ突合ロジック
422 データ分析ロジック
451 ユースケース
450 用途
451 データ種別
501 分析対象データ紐付けテーブル
502 分析部品紐付けテーブル
503 分析部品-分析処理紐付けテーブル
504 分析処理-分析目的紐付けテーブル
505 分析目的-業務紐付けテーブル
506 データ分析ロジックのメタ情報
507 データ突合ロジックのメタ情報
508 データ提供先業種-業務アプリ紐付けテーブル
509 データ提供先利用目的-分析目的紐付けテーブル
500 データ種別-データ紐付けテーブル
900 統制システム(統制モジュール)
901 アプリケーション
902 制御部
903 マイクロサービス
904 通信部
905 (データ入力側)API
906 記憶部
907 (データ出力側)API
908 入出力部
910 受信部
911 送信部
912 互換操作制御部
920 統制部
921 構成実行部
922 編集加工部
923 分析学習部
924 派生データ生成部
930 統制ライブラリ
931 ナレッジグラフ
932 評価結果ログDB
940 データDD部
Claims (12)
- 記憶部と制御部を少なくとも備えたデータ利活用促進システムにおいて、
前記記憶部は、
データ種別ないしは業種と用途とを少なくとも対応付けて格納したユースケース集ファイル、および/または、複数の異なるユーザのデータを格納したデータベースを備え、
前記制御部は、
前記ユースケース集ファイルに基づいて、用途とともに当該用途に対応するデータ種別を抽出する、および/または、前記データベースに登録された前記複数の異なるユーザの中から、データ連携により用途に適した他のユーザを抽出する抽出部と、
前記抽出した、用途とともに当該用途に対応するデータ種別、および/または、用途に適した他のユーザを、提示する提示部、
を備えるデータ利活用促進システム。 - 請求項1に記載のデータ利活用促進システムにおいて、
前記記憶部は、
特許文献情報および/またはWebデータを記憶する特許文献ファイルを更に備え、
前記制御部は、
前記特許文献情報および/または前記Webデータの中から、少なくとも、データ種別と用途、または、業種と用途に関する記述を抽出し、対応付けて前記ユースケース集ファイルに格納するユースケース抽出部、
を更に備えるデータ利活用促進システム。 - 請求項2に記載のデータ利活用促進システムにおいて、
前記制御部は、
前記ユースケース集ファイルに基づいて、
データ種別ないしは業種と用途の同じ組み合わせが、多くの特許文献および/またはWebデータにおいて記述されているほど、および/または、
同じデータ種別ないしは業種に対して、複数の特許文献および/またはWebデータにわたって多くの用途があるほど、
当該データ種別の価値が高いとの評価付けを行う有用性判定部、
を更に備えるデータ利活用促進システム。 - 請求項1または2に記載のデータ利活用促進システムにおいて、
前記制御部は、
前記提示部により提示された、前記データ種別ないしは業種と用途の組み合わせ、および/または、前記データないしは他ユーザと用途の組み合わせを、
(1)採用したユーザの数が多いほど、
(2)ユーザが採用した期間が長いほど、
(3)ユーザが採用するためにかけた費用が大きいほど、
(4)採用したユーザからの評価が高いほど、および、
(5)採用したユーザからの改善要望が多いものほど
(6)データの網羅性が高いほど
(7)データの正確性が高いほど
(8)データの整合性が高いほど
(9)データの適時性が高いほど
(10)データ加工の品質が高いほど
(11)元データから派生データの再現性が高いほど
(12)データ連携による効果が高いほど
のうち、少なくとも一つに基づいて、価値が高いとの評価付けを行う有用性判定部、
を更に備えるデータ利活用促進システム。 - 請求項1または2に記載のデータ利活用促進システムにおいて、
前記制御部は、
通信部を介して取得される情報から、データの取得可能性、および/または、取得可能なデータ価値を推定するアセット推定部、
を更に備えるデータ利活用促進システム。 - 請求項5に記載のデータ利活用促進システムにおいて、
前記アセット推定部は、
(1)前記通信部を介して取得された顧客情報、取引先情報、物流情報、会計情報、ビジネスモデル情報、人的リソース情報、および、ノウハウ情報のうち少なくとも一つに基づいて、当該顧客、当該取引先、当該物流、当該会計、当該ビジネスモデル、当該人的リソース、および、当該ノウハウのうち少なくとも一つから取得できる、データの取得可能性、および/または、取得可能なデータ価値を推定すること、
(2)前記通信部を介して取得された顧客情報、取引先情報、物流情報、会計情報、ビジネスモデル情報、人的リソース情報、および、ノウハウ情報のうち少なくとも一つに基づいて、購入、貸与または利用可能化される機器またはソフトウェアを推定して、当該機器または当該ソフトウェアに基づいて、データの取得可能性、および/または、取得可能なデータ価値を推定すること、および、
(3)前記通信部を介して取得された学習済みモデル情報またはオントロジー情報ないしナレッジグラフに基づいて、学習された元データまたはオントロジー化された元データを予測して、データの取得可能性、および/または、取得可能なデータ価値を推定すること、
のうち少なくとも一つを実行すること
を特徴とするデータ利活用促進システム。 - 請求項1または2に記載のデータ利活用促進システムにおいて、
前記制御部は、
前記ユースケース集ファイルに記憶された、データ種別と用途との対応関係に基づいて、分析対象となるデータと当該データに対する分析処理を実行する分析部品との紐付けを規定する分析関係情報を生成する分析関係情報管理部と、
前記分析関係情報に基づき、ユーザにより分析対象として指定された所定データに対して、利用可能な分析部品の組合せを特定する分析実行管理部と、
を備えるデータ利活用促進システム。 - 請求項1または2に記載のデータ利活用促進システムにおいて、
データパイプラインに埋め込まれ、通信部を介した評価を受け入れる評価モジュール部
を更に備えるデータ利活用促進システム。 - 請求項1または2に記載のデータ利活用促進システムにおいて、
前記データ種別は、データ提供元の業種、および、データの種類を含み、
前記用途は、データ提供先の業種、および、データ提供先の利用目的を含む、
データ利活用促進システム。 - 請求項1または2に記載のデータ利活用促進システムにおいて、
前記データベースに登録された複数の異なるユーザのデータは、
派生データであること、
を特徴とするデータ利活用促進システム。 - データ種別と用途とを少なくとも対応付けて格納したユースケース集ファイル、および/または、複数の異なるユーザのデータを格納したデータベースを備えた記憶部と制御部を少なくとも備えたデータ利活用促進システムにおいて実行されるデータ利活用促進方法であって、
前記制御部において実行される、
前記ユースケース集ファイルに基づいて、用途とともに当該用途に対応するデータ種別を抽出する、および/または、前記データベースに登録された前記複数の異なるユーザの中から、データ連携により用途に適した他のユーザを抽出する抽出ステップと、
前記抽出した、用途とともに当該用途に対応するデータ種別、および/または、用途に適した他のユーザを、提示する提示ステップと、
を含むデータ利活用促進方法。 - データ種別と用途とを少なくとも対応付けて格納したユースケース集ファイル、および/または、複数の異なるユーザのデータを格納したデータベースを備えた記憶部と制御部を少なくとも備えたデータ利活用促進システムにおいて実行させるためのプログラムであって、
前記制御部において、
前記ユースケース集ファイルに基づいて、用途とともに当該用途に対応するデータ種別を抽出する、および/または、前記データベースに登録された前記複数の異なるユーザの中から、データ連携により用途に適した他のユーザを抽出する抽出ステップと、
前記抽出した、用途とともに当該用途に対応するデータ種別、および/または、用途に適した他のユーザを、提示する提示ステップと、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024567997A JPWO2024143561A1 (ja) | 2022-12-28 | 2023-12-28 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022-212775 | 2022-12-28 | ||
JP2022212775 | 2022-12-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024143561A1 true WO2024143561A1 (ja) | 2024-07-04 |
Family
ID=91718036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/047361 WO2024143561A1 (ja) | 2022-12-28 | 2023-12-28 | データ利活用促進システム、データ利活用促進方法、および、プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2024143561A1 (ja) |
WO (1) | WO2024143561A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018147061A (ja) * | 2017-03-02 | 2018-09-20 | 株式会社日立製作所 | 分析ソフトウェア管理システム及び分析ソフトウェア管理方法 |
JP2020016965A (ja) * | 2018-07-23 | 2020-01-30 | 技術経営ソリューション株式会社 | 情報探索システム及び方法、情報探索プログラム |
JP6998093B1 (ja) * | 2021-03-18 | 2022-01-18 | 地方独立行政法人大阪産業技術研究所 | 特許活用支援装置、特許活用支援方法およびプログラム |
JP2022121029A (ja) * | 2021-02-08 | 2022-08-19 | デロイトトーマツコンサルティング合同会社 | 企業買収又は企業連携先検索装置、企業買収又は企業連携先検索方法及びプログラム |
JP2022126409A (ja) * | 2021-02-18 | 2022-08-30 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
-
2023
- 2023-12-28 JP JP2024567997A patent/JPWO2024143561A1/ja active Pending
- 2023-12-28 WO PCT/JP2023/047361 patent/WO2024143561A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018147061A (ja) * | 2017-03-02 | 2018-09-20 | 株式会社日立製作所 | 分析ソフトウェア管理システム及び分析ソフトウェア管理方法 |
JP2020016965A (ja) * | 2018-07-23 | 2020-01-30 | 技術経営ソリューション株式会社 | 情報探索システム及び方法、情報探索プログラム |
JP2022121029A (ja) * | 2021-02-08 | 2022-08-19 | デロイトトーマツコンサルティング合同会社 | 企業買収又は企業連携先検索装置、企業買収又は企業連携先検索方法及びプログラム |
JP2022126409A (ja) * | 2021-02-18 | 2022-08-30 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP6998093B1 (ja) * | 2021-03-18 | 2022-01-18 | 地方独立行政法人大阪産業技術研究所 | 特許活用支援装置、特許活用支援方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2024143561A1 (ja) | 2024-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230015047A1 (en) | Data processing systems and methods for automatic discovery and assessment of mobile software development kits | |
Menches et al. | Quantitative measurement of successful performance from the project manager’s perspective | |
US8418126B2 (en) | Software factory semantic reconciliation of data models for work packets | |
US8667469B2 (en) | Staged automated validation of work packets inputs and deliverables in a software factory | |
US8140367B2 (en) | Open marketplace for distributed service arbitrage with integrated risk management | |
US8464205B2 (en) | Life cycle of a work packet in a software factory | |
US9189757B2 (en) | Monitoring and maintaining balance of factory quality attributes within a software factory environment | |
US8359566B2 (en) | Software factory | |
US8566777B2 (en) | Work packet forecasting in a software factory | |
Tessema et al. | Assessment of risk factors on construction projects in gondar city, Ethiopia | |
US20150032645A1 (en) | Computer-implemented systems and methods of performing contract review | |
US20100023920A1 (en) | Intelligent job artifact set analyzer, optimizer and re-constructor | |
US20080256390A1 (en) | Project Induction in a Software Factory | |
US20100050264A1 (en) | Spreadsheet risk reconnaissance network for automatically detecting risk conditions in spreadsheet files within an organization | |
JP2006518512A (ja) | データ統合方法 | |
CN101315687A (zh) | 用于实现端到端项目管理系统的方法和系统 | |
Law et al. | Factors influencing adoption of construction robotics in Hong Kong’s industry: A multistakeholder perspective | |
US20100049745A1 (en) | Method of implementing an organization's policy on spreadsheet documents monitored using a spreadsheet risk reconnaissance network | |
Jain et al. | Implementation of the data-driven analytics protocol through facility management and real estate industry cases | |
Salnitri et al. | From security-by-design to the identification of security-critical deviations in process executions | |
US20100049723A1 (en) | Spreadsheet risk reconnaissance network for automatically detecting risk conditions in spreadsheet documents within an organization using principles of objective-relative risk analysis | |
US20100050230A1 (en) | Method of inspecting spreadsheet files managed within a spreadsheet risk reconnaissance network | |
Rahmawati et al. | Strategies to Improve Data Quality Management Using Total Data Quality Management (TDQM) and Data Management Body of Knowledge (DMBOK): A Case Study of M-Passport Application | |
Sandanayake et al. | Impediments affecting a comprehensive emission assessment at the construction stage of a building | |
Ghosh et al. | Digitalized document management system for construction claims and disputes to enhance the smoothness of advanced construction projects using the building information modeling integrated framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23912338 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2024567997 Country of ref document: JP |