WO2020203558A1 - 学習方法及び情報提供システム - Google Patents

学習方法及び情報提供システム Download PDF

Info

Publication number
WO2020203558A1
WO2020203558A1 PCT/JP2020/013352 JP2020013352W WO2020203558A1 WO 2020203558 A1 WO2020203558 A1 WO 2020203558A1 JP 2020013352 W JP2020013352 W JP 2020013352W WO 2020203558 A1 WO2020203558 A1 WO 2020203558A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
meta
reference information
content
database
Prior art date
Application number
PCT/JP2020/013352
Other languages
English (en)
French (fr)
Inventor
黒田 聡
Original Assignee
株式会社 情報システムエンジニアリング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 情報システムエンジニアリング filed Critical 株式会社 情報システムエンジニアリング
Priority to US16/962,055 priority Critical patent/US20210158959A1/en
Priority to CN202080002662.6A priority patent/CN112106041A/zh
Priority to DE112020000014.1T priority patent/DE112020000014T5/de
Publication of WO2020203558A1 publication Critical patent/WO2020203558A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Definitions

  • the present invention relates to a learning method and an information providing system.
  • Patent Document 1 an image of an agricultural product is acquired from a wearable terminal, and the predicted harvest time is displayed as augmented reality on the display board of the wearable terminal.
  • the wearable terminal display system of Patent Document 1 is a wearable terminal display system that displays the harvest time of agricultural products on the display board of the wearable terminal, and is an image acquisition means for acquiring an image of the agricultural products in the field of view of the wearable terminal.
  • the specific means for identifying the type of the crop by analyzing the image the selection means for selecting the judgment criteria according to the type, and the color and size of the image analyzed based on the judgment criteria.
  • the prediction means for predicting the harvest time of the crop based on the result of the determination, and the crop that can be seen through the display plate on the display plate of the wearable terminal. It is provided with a harvest time display means for displaying the predicted harvest time as an expanded reality.
  • Patent Document 1 analyzes an image to identify the type of crop. Therefore, when a new relationship between an image and an agricultural product is acquired, it is necessary to newly learn this relationship by machine learning. Therefore, when a new relationship is acquired, there is a problem that it takes time to update the relationship.
  • an object of the present invention is to provide a learning method and an information providing system capable of performing work in a short time.
  • the data structure for machine learning is used for constructing a first database to be used when a user who works on a medical device selects suitable reference information for performing the work, and is used for a computer. It is a data structure for machine learning stored in a storage unit provided, and includes a plurality of learning data having an evaluation target information having image data and a meta ID, and the image data includes the medical device and the medical treatment. It has an identification label for identifying a device, an image indicating, the meta ID is associated with a content ID corresponding to the reference information, and a plurality of the learning data are executed by a control unit provided in the computer. It is characterized in that it is used to construct the first database by machine learning.
  • the learning method according to the present invention is used to construct a first database to be used when a user who performs work related to a medical device selects suitable reference information for performing the work, and is used in a storage unit provided in a computer. It is characterized in that machine learning is performed using a stored data structure for machine learning according to the present invention.
  • the information providing system is an information providing system in which a user who performs work related to a medical device selects suitable reference information for performing the work, and uses a data structure for machine learning according to the present invention. It is characterized by having a first database constructed by machine learning.
  • the information providing system is an information providing system in which a user who performs work related to a medical device selects suitable reference information for performing the work, and identifies a specific medical device and the specific medical device.
  • a plurality of learning data having an acquisition means for acquiring the acquisition data having the first image data obtained by imaging a specific identification label for the purpose, evaluation target information having the image data, and a meta ID associated with the evaluation target information.
  • the first database constructed by machine learning and the first database are referred to, and based on the acquired data, the first meta ID among the plurality of meta IDs is assigned.
  • the first meta is referred to the second database in which a plurality of the meta ID selection means to be selected, the content ID associated with the meta ID, and the reference information corresponding to the content ID are stored, and the second database.
  • the content ID selection means for selecting the first content ID among the plurality of the content IDs based on the ID and the second database are referred to, and the first of the plurality of the reference information is based on the first content ID.
  • the image data includes a reference information selection means for selecting reference information, and the image data has an image indicating the medical device and an identification label for identifying the medical device.
  • the work can be performed in a short time.
  • FIG. 1 is a schematic diagram showing an example of the configuration of the information providing system according to the present embodiment.
  • FIG. 2 is a schematic diagram showing an example of using the information providing system in the present embodiment.
  • FIG. 3 is a schematic diagram showing an example of a database for meta ID estimation processing and a database for reference in the present embodiment.
  • FIG. 4 is a schematic diagram showing an example of a data structure for machine learning in this embodiment.
  • FIG. 5 is a schematic diagram showing an example of the configuration of the information providing device according to the present embodiment.
  • FIG. 6 is a schematic diagram showing an example of the function of the information providing device in the present embodiment.
  • FIG. 7 is a flowchart showing an example of the operation of the information providing system according to the present embodiment.
  • FIG. 1 is a schematic diagram showing an example of the configuration of the information providing system according to the present embodiment.
  • FIG. 2 is a schematic diagram showing an example of using the information providing system in the present embodiment.
  • FIG. 3 is a schematic diagram showing an example of
  • FIG. 8 is a schematic view showing a modified example of the function of the information providing device in the present embodiment.
  • FIG. 9 is a schematic view showing a modified example using the information providing system in the present embodiment.
  • FIG. 10 is a schematic diagram showing an example of the scene model database in the present embodiment.
  • FIG. 11 is a schematic diagram showing an example of the scene model table in the present embodiment.
  • FIG. 12 is a schematic diagram showing an example of a scene content model table in the present embodiment.
  • FIG. 13 is a schematic view showing an example of the scene table in the present embodiment.
  • FIG. 14 is a schematic view showing a modified example using the information providing system in the present embodiment.
  • FIG. 15 is a schematic diagram showing an example of the content database in the present embodiment.
  • FIG. 10 is a schematic diagram showing an example of the scene model database in the present embodiment.
  • FIG. 11 is a schematic diagram showing an example of the scene model table in the present embodiment.
  • FIG. 12 is a schematic diagram showing an example of a scene
  • FIG. 16 is a schematic diagram showing an example of a summary table in this embodiment.
  • FIG. 17 is a schematic diagram showing an example of a reference summary list according to the present embodiment.
  • FIG. 18 is a flowchart showing a modified example of the operation of the information providing system in the present embodiment.
  • FIG. 19 is a schematic view showing a second modification of the function of the information providing device in the present embodiment.
  • FIG. 20 is a schematic view showing a second modification using the information providing system in the present embodiment.
  • FIG. 21 is a schematic diagram showing an example of a content relevance database.
  • FIG. 22A is a schematic diagram showing an example of a content relevance database.
  • FIG. 22B is a schematic diagram showing an example of a database for calculating the similarity of external information.
  • FIG. 22A is a schematic diagram showing an example of a content relevance database.
  • FIG. 22B is a schematic diagram showing an example of a database for calculating the similarity of external information.
  • FIG. 23A is a schematic diagram showing an example of a content relevance database.
  • FIG. 23B is a schematic diagram showing an example of a database for calculating chunk reference information similarity.
  • FIG. 24 is a flowchart showing a second modification of the operation of the information providing system according to the present embodiment.
  • FIG. 25 is a flowchart showing a third modification of the operation of the information providing system according to the present embodiment.
  • FIG. 1 is a block diagram showing the overall configuration of the information providing system 100 according to the present embodiment.
  • the information providing system 100 is used by users such as medical personnel such as clinical engineers who use medical devices.
  • the information providing system 100 is mainly used for a medical device 4 used by a medical person such as a clinical engineer.
  • the information providing system 100 selects first reference information suitable for the user who performs the work related to the medical device from the acquired data having the image data of the medical device 4.
  • the information providing system 100 can provide, for example, a manual for the medical device 4 to the user, and can also provide the user with incident information regarding the medical device 4, for example. As a result, the user can grasp the manual of the medical device 4 and the incident related to the medical device 4.
  • the information providing system 100 includes an information providing device 1.
  • the information providing device 1 may be connected to at least one of the user terminal 5 and the server 6 via, for example, the public communication network 7.
  • FIG. 2 is a schematic diagram showing an example using the information providing system 100 in the present embodiment.
  • the information providing device 1 acquires acquired data having the first image data.
  • the information providing device 1 selects the first meta ID based on the acquired acquired data and transmits it to the user terminal 5.
  • the information providing device 1 acquires the first meta ID from the user terminal 5.
  • the information providing device 1 selects the first reference information based on the acquired first meta ID and transmits it to the user terminal 5.
  • the user can grasp the first reference information having the manual or the like of the medical device 4.
  • FIG. 3 is a schematic diagram showing an example of a database for meta ID estimation processing and a database for reference in the present embodiment.
  • the information providing device 1 refers to the database for meta ID estimation processing (first database), and selects the first meta ID from the plurality of meta IDs based on the acquired acquired data.
  • the information providing device 1 refers to the reference database (second database) and selects the first content ID among the plurality of content IDs based on the selected first meta ID.
  • the information providing device 1 refers to the reference database and selects the first reference information from the plurality of reference information based on the selected first content ID.
  • the database for meta ID estimation processing is constructed by machine learning using a data structure for machine learning to which the present invention is applied.
  • the machine learning data structure to which the present invention is applied is used to construct a database for meta-ID estimation processing used when a user who performs work related to the medical device 4 selects suitable reference information for performing the work. It is stored in the storage unit 104 provided in the information providing device 1 (computer).
  • FIG. 4 is a schematic diagram showing an example of a data structure for machine learning in this embodiment.
  • the data structure for machine learning to which the present invention is applied includes a plurality of learning data.
  • the plurality of learning data are used for constructing a database for meta ID estimation processing by machine learning executed by the control unit 18 included in the information providing device 1.
  • the database for meta-ID estimation processing may be a trained model constructed by machine learning using a data structure for machine learning.
  • the learning data has evaluation target information and a meta ID.
  • the database for meta ID estimation processing is stored in the storage unit 104.
  • the evaluation target information has image data.
  • the image data has an image indicating the medical device 4 and an identification label for identifying the medical device 4.
  • the image may be a still image or a moving image.
  • the identification label may be a model name, a model name, a character string such as a control number assigned by the user or the like to identify the medical device 4, a one-dimensional code such as a bar code, or a QR code.
  • a two-dimensional code such as (registered trademark) may be used.
  • the evaluation target information may further include incident information.
  • Incident information includes cases of accidents in medical equipment 4 issued by government agencies such as the Ministry of Health, Labor and Welfare, and hiyari hats in medical equipment 4.
  • the incident information may include alarm information regarding an alarm that occurs in the medical device 4.
  • the incident information may be, for example, a file such as voice, or a file such as translated voice in a foreign language corresponding to Japanese. For example, if the spoken language of a certain country is registered, the translated voice file of the corresponding foreign language may be stored accordingly.
  • the meta ID consists of a character string and is associated with the content ID.
  • the meta ID has a smaller capacity than the reference information.
  • the meta ID has a device meta ID for classifying the medical device 4 shown in the image data, and a work procedure meta ID for the work procedure of the medical device 4 shown in the image data.
  • the meta ID may have an incident meta ID related to the incident information shown in the acquired data.
  • the acquired data has the first image data.
  • the first image data is an image obtained by capturing a specific medical device and a specific identification label for identifying the specific medical device.
  • the first image data is, for example, image data taken by a camera of the user terminal 5.
  • the acquired data may further have incident information.
  • the meta ID estimation processing database stores the meta-linkage between the evaluation target information and the meta ID.
  • the degree of meta-linkage indicates the degree to which the evaluation target information and the meta ID are associated with each other, and is indicated in three or more stages such as a percentage, 10 stages, or 5 stages.
  • the “image data A” included in the evaluation target information shows a meta-linkage degree “20%” with the meta ID “IDaa” and a meta-linkage degree “20%” with the meta ID “IDab”. 50% “is shown.
  • "IDab” indicates that the connection with "image data A" is stronger than that of "IDaa”.
  • the database for meta ID estimation processing may have, for example, an algorithm that can calculate the degree of meta-linkage.
  • a function (classifier) optimized based on evaluation target information, meta-ID, and meta-association degree may be used.
  • the database for meta ID estimation processing is constructed using, for example, machine learning. As a method of machine learning, for example, deep learning is used.
  • the database for meta-ID estimation processing is composed of, for example, a neural network, in which case the degree of meta-association may be indicated by hidden layers and weight variables.
  • a plurality of content IDs and reference information are stored in the reference database.
  • the reference database is stored in the storage unit 104.
  • the content ID consists of a character string and is associated with one or more meta IDs.
  • the content ID has a smaller capacity than the reference information.
  • the content ID has a device ID for classifying the medical device 4 shown in the reference information and a work procedure ID for the work procedure of the medical device 4 shown in the reference information.
  • the content ID may further have an incident ID related to the incident information of the medical device 4 shown in the reference information.
  • the device ID is associated with the device meta ID in the meta ID
  • the work procedure ID is associated with the work procedure meta ID in the meta ID.
  • the incident ID is associated with the incident meta ID.
  • the reference information corresponds to the content ID.
  • One content ID is assigned to one reference information.
  • the reference information has information about the medical device 4.
  • the reference information includes a manual of the medical device 4, a divided manual, incident information, document information, history information, and the like.
  • the reference information may have a chunk structure in which meaningful information is a mass of data.
  • the reference information may be a moving image file.
  • the reference information may be an audio file, or may be a file such as translated audio in a foreign language corresponding to Japanese. For example, if the spoken language of a certain country is registered, the translated voice file of the corresponding foreign language may be stored accordingly.
  • the manual has device information and work procedure information.
  • the device information is information for classifying the medical device 4, and includes specifications, operation and maintenance manuals, and the like.
  • the work procedure information includes information on the work procedure of the medical device 4.
  • the device information may be associated with the device ID, and the work procedure information may be associated with the work procedure ID.
  • the reference information may include device information and work procedure information.
  • the divided manual is a manual divided within a predetermined range.
  • the divided manual may be divided into, for example, pages, chapters, and chunk structures in which meaningful information is a group of data.
  • the manual and the divided manual may be moving images or audio data.
  • the incident information includes the hiyari hat in the medical device 4 and the accident case of the medical device 4 issued by the administrative agency such as the Ministry of Health, Labor and Welfare. Further, the incident information may include alarm information regarding an alarm generated in the medical device 4 as described above. At this time, the incident information may be associated with at least one of the device ID and the work procedure ID.
  • Document information includes specifications, reports, reports, etc. of medical device 4.
  • the history information is information related to the history of inspection, failure, repair, etc. of the medical device 4.
  • the information providing system 100 is a meta ID constructed by machine learning using a data structure for machine learning in which a plurality of evaluation target information having image data of the medical device 4 and meta IDs are stored.
  • a database for estimation processing (first database) is provided, and the meta ID is associated with the content ID. Therefore, even when the reference information is newly updated, the association between the meta ID and the content ID corresponding to the reference information is changed, or the correspondence between the updated reference information and the content ID is changed. It may be changed, and there is no need to newly update the relationship between the evaluation target information and the meta ID. This eliminates the need to reconstruct the database for meta-ID estimation processing that accompanies the update of the reference information. Therefore, the update work can be performed in a short time.
  • the learning data has a meta ID. Therefore, when constructing a database for meta ID estimation processing, machine learning can be performed using a meta ID having a capacity smaller than that of reference information. This makes it possible to construct a database for meta-ID estimation processing in a shorter time than performing machine learning using reference information.
  • the information providing system 100 uses a meta ID having a capacity smaller than that of the image data as a search query when searching for reference information, and a content ID having a capacity smaller than that of the reference information is used as a result of matching or partially matching the search query. Since it is returned, the amount of data communication and the processing time in the search process can be reduced.
  • the information providing system 100 uses image data as acquired data (input information) corresponding to the search keyword. Is possible. Therefore, the user does not need to verbalize the information to be searched or a specific medical device by character input or voice, and the search can be performed even if the concept or name is not understood.
  • the learning method in the embodiment is used for constructing a database for meta-ID estimation processing to be used when a user who performs work related to a medical device selects suitable reference information for performing the work, and is stored in a computer.
  • Machine learning is performed using the data structure for machine learning in the embodiment stored in the unit 104. Therefore, even when the reference information is newly updated, the association between the meta ID and the content ID corresponding to the reference information may be changed, and the relationship between the evaluation target information and the meta ID is newly updated. No need to update. This eliminates the need to reconstruct the database for meta-ID estimation processing that accompanies the update of reference information. Therefore, the update work can be performed in a short time.
  • FIG. 5 is a schematic diagram showing an example of the configuration of the information providing device 1.
  • the information providing device 1 in addition to a personal computer (PC), an electronic device such as a smartphone or a tablet terminal may be used.
  • the information providing device 1 includes a housing 10, a CPU 101, a ROM 102, a RAM 103, a storage unit 104, and I / F 105 to 107. Each configuration 101 to 107 is connected by an internal bus 110.
  • the CPU (Central Processing Unit) 101 controls the entire information providing device 1.
  • the ROM (Read Only Memory) 102 stores the operation code of the CPU 101.
  • the RAM (Random Access Memory) 103 is a work area used during the operation of the CPU 101.
  • the storage unit 104 stores various information such as a data structure for machine learning, acquired data, a database for meta-ID estimation processing, a reference database, a content database described later, and a scene model database described later.
  • As the storage unit 104 for example, in addition to an HDD (Hard Disk Drive), an SSD (solid state drive) or the like is used.
  • the I / F 105 is an interface for transmitting and receiving various information to and from the user terminal 5 and the like via the public communication network 7.
  • the I / F 106 is an interface for transmitting and receiving various information to and from the input portion 108.
  • a keyboard is used as the input portion 108, and a user who uses the information providing system 100 inputs or selects various information or a control command of the information providing device 1 via the input portion 108.
  • the I / F 107 is an interface for transmitting and receiving various information to and from the output portion 109.
  • the output unit 109 outputs various information stored in the storage unit 104, the processing status of the information providing device 1, and the like.
  • a display is used as the output portion 109, and for example, a touch panel type may be used. In this case, the output portion 109 may include the input portion 108.
  • FIG. 6 is a schematic diagram showing an example of the function of the information providing device 1.
  • the information providing device 1 includes an acquisition unit 11, a meta ID selection unit 12, a content ID selection unit 13, a reference information selection unit 14, an input unit 15, an output unit 16, a storage unit 17, and a control unit 18.
  • Each function shown in FIG. 6 is realized by the CPU 101 executing a program stored in the storage unit 104 or the like with the RAM 103 as a work area.
  • each function may be controlled by artificial intelligence, for example.
  • the "artificial intelligence" may be based on any well-known artificial intelligence technique.
  • the acquisition unit 11 acquires various information such as acquired data.
  • the acquisition unit 11 acquires learning data for constructing a database for meta ID estimation processing.
  • the meta ID selection unit 12 refers to the database for meta ID estimation processing, and selects the first meta ID among the plurality of meta IDs based on the acquired data.
  • the meta ID selection unit 12 has evaluation target information (for example, “image data A”” that is the same as or similar to the “first image data” included in the acquired data. ) Is selected.
  • the meta ID selection unit 12 evaluates the same or similar evaluation target information as the “first image data” and the “incident information” included in the acquired data. (For example, "image data B" and "incident information A") are selected.
  • evaluation target information information that partially matches or completely matches the acquired data is selected, and for example, information that is similar (including the same concept, etc.) is used.
  • information that is similar including the same concept, etc.
  • the meta ID selection unit 12 selects one or more first meta IDs from the plurality of meta IDs associated with the selected evaluation target information. For example, when the meta ID estimation processing database shown in FIG. 3 is used, the meta ID selection unit 12 has a plurality of meta IDs “IDaa”, “IDab”, and “IDac” associated with the selected “image data A”. , “IDba” and “IDca”, the meta IDs "IDaa”, “IDab” and “IDac” are selected as the first meta ID.
  • the meta ID selection unit 12 may set a threshold value for the meta-linkage in advance, and select a meta ID having a meta-linkage higher than the threshold as the first meta ID. For example, when the meta-linkage degree is 50% or more as a threshold value, “IDab” having a meta-linkage degree of 50% or more may be selected as the first meta ID.
  • the content ID selection unit 13 refers to the reference database and selects the first content ID among the plurality of content IDs based on the first meta ID.
  • the content ID selection unit 13 is associated with the selected first meta IDs “IDaa”, “IDab”, and “IDac” (for example, “content ID-A”).
  • “Content ID-B”) is selected as the first content ID.
  • “content ID-A” is associated with the meta IDs "IDaa” and “IDab”
  • “content ID-B” is associated with the meta IDs "IDaa” and "IDac”. Be done.
  • the content ID selection unit 13 selects the content ID associated with any one of the first meta IDs "IDaa”, “IDab”, and “IDac” and a combination thereof as the first content ID.
  • the content ID selection unit 13 uses the first meta ID as a search query, and selects a result that matches or partially matches the search query as the first content ID.
  • the content ID selection unit 13 is associated with the device meta.
  • a content ID having a mounting ID associated with the ID or a content ID having a work procedure ID associated with the work procedure meta ID is selected as the first content ID.
  • the reference information selection unit 14 refers to the reference database and selects the first reference information from the plurality of reference information based on the first content ID.
  • the reference information selection unit 14 first refers to the reference information (for example, "reference information A") corresponding to the selected first content ID "content ID-A”. Select as information.
  • the input unit 15 inputs various information to the information providing device 1.
  • the input unit 15 inputs various information such as learning data and acquired data via the I / F 105, and also inputs various information from the input portion 108 via the I / F 106, for example.
  • the output unit 16 outputs the first meta ID, reference information, and the like to the output unit 109 and the like.
  • the output unit 16 transmits the first meta ID, reference information, and the like to the user terminal 5 and the like via, for example, the public communication network 7.
  • the storage unit 17 stores various information such as a data structure for machine learning and acquired data in the storage unit 104, and retrieves various information stored in the storage unit 104 as needed. Further, the storage unit 17 stores various databases such as a meta ID estimation processing database, a reference database, a content database described later, and a scene model database described later in the storage unit 104, and stores them in the storage unit 104 as needed. Extract various databases that have been created.
  • Control unit 18 executes machine learning for constructing the first database by using the data structure for machine learning to which the present invention is applied.
  • the control unit 18 executes machine learning by linear regression, logistic regression, support vector machine, decision tree, regression tree, random forest, gradient boosting tree, neural network, bays, time series, clustering, ensemble learning, and the like.
  • the medical device 4 includes, for example, a pacemaker, a coronary artery stent, an artificial blood vessel, a PTCA catheter, a central venous catheter, an absorbent internal fixation bolt, a particle beam therapy device, a respirator, an extradural catheter, an infusion pump, and an automatic peritoneal perfusion device.
  • the medical device 4 includes, for example, an X-ray imaging device, an electrocardiograph, an ultrasonic diagnostic device, an injection needle, a blood collection needle, a vacuum blood collection tube, an infusion set for an infusion pump, a Foley catheter, a suction catheter, a hearing aid, a home massager, and a condom. , Programs and other managed medical devices (corresponding to GHTF classification "Class II").
  • the medical device 4 includes general medical devices (corresponding to the GHTF class classification “Class I”) such as enteral nutrition infusion sets, nebulizers, X-ray films, blood gas analyzers, surgical non-woven fabrics, and programs.
  • the medical device 4 includes not only medical devices specified by laws and regulations, but also machinery and instruments (beds, etc.) whose appearance and structure are similar to those of medical devices and are not specified by laws and regulations.
  • the medical device 4 may be a device used in a medical field such as a hospital, and includes a medical information device in which a patient's medical record and an electronic medical record are stored, and an information device in which information of staff in the hospital is stored. ..
  • the user terminal 5 indicates a terminal owned by a user who manages the medical device 4.
  • the user terminal 5 may be a holo lens (registered trademark), which is mainly one type of HMD (head-mounted display).
  • the user can confirm the first meta ID and the first reference information of the user terminal 5 through a work area or a specific medical device through a display unit such as a head-mounted display or a hollow lens that is transparently displayed. it can. As a result, the user can check the situation in front of him and also check the selected manual and the like based on the acquired data.
  • the user terminal 5 is embodied in all kinds of electronic devices, including electronic devices such as mobile phones (mobile terminals), smartphones, tablet terminals, wearable terminals, personal computers, and IoT (Internet of Things) devices. May be used.
  • the user terminal 5 may be connected to the information providing device 1 via, for example, the public communication network 7, or may be directly connected to, for example, the information providing device 1.
  • the user may use the user terminal 5 to acquire the first reference information from the information providing device 1, and may control, for example, the information providing device 1.
  • ⁇ Server 6> The various information described above is stored in the server 6.
  • Various information sent via, for example, the public communication network 7 is stored in the server 6.
  • the server 6 stores the same information as the storage unit 104, and may transmit and receive various information to and from the information providing device 1 via the public communication network 7. That is, the information providing device 1 may use the server 6 instead of the storage unit 104.
  • the public communication network 7 is an Internet network or the like to which an information providing device 1 or the like is connected via a communication circuit.
  • the public communication network 7 may be composed of a so-called optical fiber communication network. Further, the public communication network 7 is not limited to the wired communication network, and may be realized by a known communication network such as a wireless communication network.
  • FIG. 7 is a flowchart showing an example of the operation of the information providing system 100 in the present embodiment.
  • the acquisition unit 11 acquires the acquired data (acquisition step S11).
  • the acquisition unit 11 acquires the acquisition data via the input unit 15.
  • the acquisition unit 11 acquires the acquisition data having the first image data captured by the user terminal 5 and the incident information stored in the server 6 or the like.
  • the acquisition unit 11 stores the acquired data in the storage unit 104 via, for example, the storage unit 17.
  • the acquired data may be generated by the user terminal 5.
  • the user terminal 5 generates acquired data having first image data obtained by capturing a specific medical device and a specific identification label for identifying the specific medical device.
  • the user terminal 5 may further generate incident information, or may acquire incident information from a server 6 or the like.
  • the user terminal 5 may generate acquired data having the first image data and the incident information.
  • the user terminal 5 transmits the generated acquired data to the information providing device 1.
  • the input unit 15 receives the acquired data, and the acquisition unit 11 acquires the acquired data.
  • the meta ID selection unit 12 refers to the database for meta ID estimation processing and selects the first meta ID from the plurality of meta IDs based on the acquired data (meta ID selection step S12).
  • the meta ID selection unit 12 acquires the acquired data acquired by the acquisition unit 11 and acquires the database for meta ID estimation processing stored in the storage unit 104.
  • the meta ID selection unit 12 may select one first meta ID for one acquired data, or may select a plurality of first meta IDs for one acquired data, for example.
  • the meta ID selection unit 12 stores the selected first meta ID in the storage unit 104, for example, via the storage unit 17.
  • the meta ID selection unit 12 transmits the first meta ID to the user terminal 5 and displays it on the display unit of the user terminal 5. As a result, the user can confirm the selected first meta ID and the like.
  • the meta ID selection unit 12 may display the first meta ID on the output unit 109 of the information providing device 1.
  • the meta ID selection unit 12 may omit transmitting the first meta ID to the user terminal 5.
  • the content ID selection unit 13 refers to the reference database and selects the first content ID from the plurality of content IDs based on the first meta ID (content ID selection step S13).
  • the content ID selection unit 13 acquires the first meta ID selected by the meta ID selection unit 12, and acquires the reference database stored in the storage unit 104.
  • the content ID selection unit 13 may select, for example, a plurality of first content IDs for one first meta ID. That is, the content ID selection unit 13 uses the first meta ID as a search query, and selects a result that matches or partially matches the search query as the first content ID.
  • the content ID selection unit 13 stores the selected first content ID in the storage unit 104, for example, via the storage unit 17.
  • the reference information selection unit 14 refers to the reference database and selects the first reference information from the plurality of reference information based on the first content ID (reference information selection step S14).
  • the reference information selection unit 14 acquires the first content ID selected by the content ID selection unit 13, and acquires the reference database stored in the storage unit 104.
  • the reference information selection unit 14 selects one first reference information corresponding to one first content ID.
  • the reference information selection unit 14 may select each first reference information corresponding to each first content ID. As a result, a plurality of first reference information is selected.
  • the reference information selection unit 14 stores the selected first reference information in the storage unit 104, for example, via the storage unit 17.
  • the output unit 16 transmits the first reference information to the user terminal 5 or the like.
  • the user terminal 5 displays the selected one or a plurality of first reference information on the display unit.
  • the user can select one or more first reference information from the displayed one or more first reference information.
  • the user can grasp one or a plurality of first reference information having a manual or the like. That is, one or more candidates for the first reference information suitable for the user are searched from the image data of the medical device 4, and the user can select from the searched one or more first reference information. It can be very useful as a fieldwork solution for users who work on the medical device 4.
  • the information providing device 1 may display the first reference information on the output portion 109. As described above, the operation of the information providing system 100 in the present embodiment is completed.
  • the meta ID is associated with the content ID corresponding to the reference information.
  • the association between the content ID corresponding to the reference information and the meta ID may be updated, or the correspondence between the updated reference information and the content ID may be changed.
  • the training data There is no need to update the training data. Therefore, it is not necessary to reconstruct the database for meta ID estimation processing accompanying the update of the reference information. Therefore, it is possible to construct the database in a short time by updating the reference information.
  • a database for meta ID estimation processing when constructing a database for meta ID estimation processing, machine learning can be performed using a meta ID having a capacity smaller than that of reference information. Therefore, it is possible to construct a database for meta-ID estimation processing in a shorter time than performing machine learning using reference information.
  • a meta ID having a capacity smaller than that of image data is used as a search query, and a content ID having a capacity smaller than that of the reference information is matched or partially matched with the search query. Therefore, the amount of data communication and the processing time in the search process can be reduced.
  • image data is used as acquired data (input information) corresponding to the search keyword. It becomes possible. Therefore, the user does not need to verbalize the information to be searched or a specific medical device by character input or voice, and the search can be performed even if the concept or name is not understood.
  • the device meta ID is associated with the device ID
  • the work procedure meta ID is associated with the work procedure ID.
  • the meta ID is associated with at least one of the content IDs of the reference database different from the database for meta ID estimation processing in which a plurality of reference information and content IDs are stored. Therefore, when updating the database for meta-ID estimation processing, it is not necessary to update the reference database. Further, when updating the reference database, it is not necessary to update the meta ID estimation processing database. As a result, the update work of the meta ID estimation processing database and the reference database can be performed in a short time.
  • the reference information includes the manual of the medical device 4.
  • the user can immediately grasp the manual of the target medical device. Therefore, the time for searching the manual can be shortened.
  • the reference information has a divided manual in which the manual of the medical device 4 is divided within a predetermined range.
  • the user can grasp the manual in a state in which the relevant parts in the manual are narrowed down. Therefore, it is possible to shorten the time for searching for the relevant part in the manual.
  • the reference information further includes the incident information of the medical device 4.
  • the user can grasp the incident information. Therefore, the user can immediately respond to a favorable hat or an accident.
  • the evaluation target information further includes the incident information of the medical device 4.
  • FIG. 8 is a schematic view showing a first modification of the function of the information providing device 1 in the present embodiment.
  • Each function shown in FIG. 8 is realized by the CPU 101 executing a program stored in the storage unit 104 or the like with the RAM 103 as a work area.
  • each function may be controlled by artificial intelligence, for example.
  • the "artificial intelligence” may be based on any well-known artificial intelligence technique.
  • FIG. 9 is a schematic view showing a first modification using the information providing system 100 in this embodiment.
  • the information providing device 1 according to this modification acquires the acquired data having the first image data and the first scene ID as a set.
  • the information providing device 1 selects the first meta ID based on the acquired acquired data and transmits it to the user terminal 5. Therefore, the information providing device 1 according to the present modification can further improve the selection accuracy of the first meta ID.
  • the first acquisition unit 21 acquires the first video information.
  • the first acquisition unit 21 acquires the first video information from the user terminal 5.
  • the first video information is equipment, parts, or the like photographed by an operator, and is photographed by, for example, an HMD (head-mounted display), a holo lens, or the like.
  • the captured video may be transmitted to the server 6 in real time.
  • the captured image may be acquired as the first image information.
  • the first video information is, for example, a video taken by a camera of a user terminal 5 provided by a user in the field.
  • the first video information may be, for example, a still image or a moving image, and may be photographed by the user or automatically captured by the setting of the user terminal 5. Further, the video information recorded in the memory of the user terminal 5 or the like may be read, or may be acquired via the public communication network 7.
  • the first evaluation unit 22 refers to the scene model database and acquires a scene ID list including the first scene linkage degree between the first video information and the scene information including the scene ID.
  • the first evaluation unit 22 refers to the scene model database, selects the past first video information that matches, partially matches, or is similar to the acquired first video information, and selects the selected past first video information.
  • the scene information including the associated scene ID is selected, and the first scene linkage degree is calculated based on the scene linkage degree between the selected past first video information and the scene information.
  • the first evaluation unit 22 acquires the scene ID including the calculated first scene linkage degree, and displays the scene name list selected based on the scene ID list on the user terminal 5.
  • FIG. 10 is a schematic diagram showing an example of the scene model database in the present embodiment.
  • the scene model database is stored in the storage unit 104.
  • the scene model database includes the past first video information acquired in advance, the scene information including the scene ID associated with the past first video information, and the 3 between the past first video information and the scene information. The degree of scene linkage above the stage is memorized.
  • the scene model database is constructed by machine learning using an arbitrary model such as a neural network.
  • the scene model database is constructed based on the evaluation results of the first video information acquired by machine learning, the first video information in the past, and the scene ID, and for example, each relationship is stored as the degree of scene linkage.
  • the scene linkage degree indicates the degree of connection between the past first video information and the scene information. For example, it can be determined that the higher the scene linkage degree, the stronger the connection between the past first video information and the scene information. it can.
  • the degree of scene association may be indicated by three values or more (three stages or more) such as percentage, or may be indicated by two values (two stages).
  • the past first video information "01" has a scene association degree of 70% with the scene ID "A", 50% with the scene ID "D", 10% with the scene ID "C”, and the like. Is remembered as.
  • the first video information acquired from the user terminal 5 is constructed by machine learning, for example, an evaluation result such as similarity with the past first video information acquired in advance. For example, by performing deep learning, it is possible to deal with information that is not the same but similar.
  • the scene model database stores a scene ID list and a scene name list.
  • the scene ID list shows, for example, the calculated first scene association degree and the scene ID.
  • the scene model database stores the listed contents that are the result of this evaluation.
  • the listed contents are scene IDs representing relationships with a high degree of scene relevance, such as "scene ID A: 70%” and "scene ID B: 50%”.
  • the scene name list is generated by the first generation unit 23, which will be described later.
  • the scene names corresponding to the scene IDs are acquired by the first evaluation unit 22, and they are stored in the scene name list.
  • the scene name list stored in the scene model database is transmitted to the user terminal 5 in the subsequent processing.
  • the user refers to the scene name list received by the user terminal 5 and grasps the scene corresponding to the first video information.
  • the scene information corresponding to the first video information and the scene name corresponding to the scene ID do not exist in the scene model database due to the update of the scene model database or the correction or addition of the registered data, it is different. Performs the acquisition process of the first video information in the field of view, or newly associates the scene information or scene ID prepared as an alternative correspondence when it is not supported, and generates a scene name list to which the associated alternative scene is added. , May be sent to the user terminal 5.
  • the first generation unit 23 generates a scene name list corresponding to the scene ID list acquired by the first evaluation unit 22.
  • the generated scene name list has, for example, "scene ID”, “scene association degree”, and the like.
  • the scene ID is associated with, for example, the scene model table shown in FIG. 11 and the scene content model table (OFE) shown in FIG.
  • a scene ID, a learning model, and the like are stored in the scene model table
  • a content ID, a learning model, and the like are stored in the scene content model table.
  • the first generation unit 23 generates a scene name list based on this information.
  • the scene model table shown in FIG. 11 is stored in the scene model database.
  • a scene ID that identifies each work performed by the user in the field and a learning model corresponding to the scene ID are associated and stored.
  • the content ID in each scene ID and the learning model are associated and stored.
  • the scene ID is an example of "OFE”
  • the corresponding content IDs are separately stored for each of various scenes.
  • the content ID may include content for which no scene is specified. In this case, "Null" is stored in the content ID.
  • FIG. 13 is a schematic diagram showing an example of a scene table.
  • the scene table shown in FIG. 13 is stored in the scene model database.
  • the scene table for example, an outline of video information of each work performed by the user in the field and a scene ID that identifies the outline work are associated and stored.
  • the acquisition unit 11 acquires the acquisition data having the first image data and the first scene ID corresponding to the scene name selected from the scene name list as a set.
  • FIG. 14 is a schematic view showing a modified example using the information providing system in the present embodiment.
  • the meta ID selection unit 12 refers to the database for meta ID estimation processing, extracts a plurality of meta IDs based on the acquired data, and generates a meta ID list including the plurality of meta IDs. In the meta ID list, a plurality of meta IDs are listed.
  • the meta ID selection unit 12 generates a reference summary list corresponding to the meta ID list.
  • the meta ID selection unit 12 refers to the content database and acquires the content ID associated with each meta ID included in the generated meta ID list.
  • FIG. 15 is a schematic diagram showing an example of a content database.
  • the content database may store the meta ID, the content ID, and the degree of content association between the meta ID and the content ID.
  • the content association degree indicates the degree to which the meta ID and the content ID are associated with each other, and is indicated in three or more stages such as a percentage, 10 stages, or 5 stages.
  • “IDaa” included in the meta ID indicates a degree of association “60%” with “content ID-A” included in the content ID, and association with “content ID-B”. Degree “40%” is shown. In this case, "IDaa” indicates that the connection with "content ID-A” is stronger than that of "content ID-B".
  • the content database may have, for example, an algorithm that can calculate the degree of content association.
  • an algorithm that can calculate the degree of content association.
  • a function classifier
  • the content database for example, a function (classifier) optimized based on the meta ID, the content ID, and the degree of content association may be used.
  • the content database is constructed using, for example, machine learning. As a method of machine learning, for example, deep learning is used.
  • the content database is composed of, for example, a neural network, in which case the degree of association may be indicated by hidden layers and weight variables.
  • the meta ID selection unit 12 may refer to the content linkage degree and acquire the content ID associated with a plurality of meta IDs included in the meta ID list. For example, the meta ID selection unit 12 may acquire a content ID having a high degree of content relevance from the meta ID.
  • the meta ID selection unit 12 refers to the summary table and acquires a summary of reference information corresponding to the acquired content ID.
  • FIG. 16 shows an example of a summary table.
  • the summary table includes a plurality of content IDs and a summary of reference information corresponding to the content IDs.
  • the summary table is stored in the storage unit 104.
  • the summary of the reference information indicates the content of the summary of the reference information and the like.
  • the meta ID selection unit 12 generates a reference summary list based on the acquired reference information summary.
  • FIG. 17 shows an example of a reference summary list.
  • the reference summary list contains a plurality of reference information summaries and meta IDs corresponding to the reference information summaries.
  • the meta ID selection unit 12 transmits the reference summary list to the user terminal 5.
  • the user terminal 5 selects a summary of reference information from the transmitted reference summary list, selects a meta ID from the selected summary of reference information, and transmits the selected meta ID to the information providing device 1. Then, the meta ID selection unit 12 selects the meta ID selected from the reference summary list by the user terminal 5 as the first meta ID.
  • the content ID selection unit 13 refers to the reference database and the content database, and selects the first content ID among the plurality of content IDs based on the first meta ID.
  • the content ID selection unit 13 sets a content ID (for example, "content ID-A”, “content ID-B”, etc.) associated with the first meta ID "IDaa”. Select as the first content ID.
  • the "content ID-A” having a high degree of content association for example, the degree of content association is 60%
  • a threshold value may be set in advance for the content association degree, and a content ID having a content association degree higher than the threshold value may be selected as the first content ID.
  • FIG. 18 is a flowchart showing a first modification of the operation of the information providing system 100 in the present embodiment.
  • the first evaluation unit 22 refers to the scene model database and acquires a scene ID list including the first scene linkage degree between the acquired first video information and the scene information (first evaluation step S22). ..
  • the first generation unit 23 generates a scene name list corresponding to the scene ID list acquired by the first evaluation unit 22 (first generation step S23).
  • the first generation unit 23 refers to the scene table shown in FIG. 13 and generates a scene name list corresponding to the acquired scene ID list.
  • the scene name “Restart of ABC-999 device” is selected as the scene name.
  • the scene ID is "OFE”
  • the scene name "remove the memory of the ABC-999 device” is selected as the scene name.
  • the acquisition unit 11 acquires the acquisition data having the first image data and the first scene ID corresponding to the scene name selected from the scene name list as a set (acquisition step S24).
  • the scene ID corresponding to the scene name selected from the scene name list becomes the first scene ID.
  • the meta ID selection unit 12 extracts a plurality of meta IDs based on the acquired data and generates a meta ID list including the plurality of meta IDs (meta ID selection step S25).
  • the meta ID selection unit 12 generates a reference summary list corresponding to the meta ID list.
  • the meta ID selection unit 12 transmits the generated reference summary list to the user terminal 5.
  • the user terminal 5 selects a summary of one or a plurality of reference information from the transmitted reference summary list and a meta ID corresponding to the summary of the reference information.
  • the user terminal 5 transmits the summary of the selected reference information and the meta ID to the information providing device 1.
  • the meta ID selection unit 12 selects the meta ID selected from the reference summary list by the user terminal 5 as the first meta ID.
  • the content ID selection unit 13 refers to the reference database and the content database, and selects the first content ID from the plurality of content IDs based on the first meta ID (content ID selection step S26).
  • the content ID selection unit 13 acquires the first meta ID selected by the meta ID selection unit 12, and acquires the reference database and the content database stored in the storage unit 104.
  • the content ID selection unit 13 may select, for example, a plurality of first content IDs for one first meta ID.
  • the content ID selection unit 13 stores the selected first content ID in the storage unit 104, for example, via the storage unit 17.
  • the meta ID selection unit 12 extracts a plurality of first meta IDs from the plurality of meta IDs, generates a meta ID list including the plurality of first meta IDs, and converts the meta ID list into a meta ID list. Generate the corresponding reference summary list and select the first meta ID selected from the reference summary list. This allows the first meta ID to be selected based on the reference summary list. Therefore, the selection accuracy of the first meta ID can be improved.
  • the acquisition unit 11 acquires the acquisition data having the first image data and the first scene ID corresponding to the scene name selected from the scene name list as a set.
  • the meta ID can be selected in consideration of the first scene ID. Therefore, the accuracy of selecting the meta ID can be improved.
  • the content ID selection unit 13 refers to the reference database and the content database, and selects the first content ID among the plurality of content IDs based on the first meta ID.
  • the selection target of the content ID can be further narrowed by referring to the content linkage degree. Therefore, the selection accuracy of the first content ID can be further improved.
  • FIG. 19 is a schematic view showing a second modification of the function of the information providing device 1 in the present embodiment. Each function shown in FIG.
  • each function may be controlled by artificial intelligence, for example.
  • artificial intelligence may be based on any well-known artificial intelligence technique.
  • FIG. 20 is a schematic diagram showing a second modification using the information providing system 100 in this embodiment.
  • the information providing device 1 acquires specific external information x.
  • the information providing device 1 calculates the external information similarity with respect to the acquired specific external information x.
  • the information providing device 1 selects the first external information b1 from a plurality of external information based on the calculated external information similarity.
  • the information providing device 1 refers to the content relevance database and extracts the chunk reference information B1 corresponding to the selected first external information b1 as the first chunk reference information B1.
  • it is possible to grasp that the chunk reference information B1 corresponding to the external information b1 similar to the acquired specific external information x is a changed part based on the specific external information x. Therefore, when updating the reference information such as editing, it is only necessary to update the first chunk reference information B1, and the reference information can be updated in a short time.
  • the information providing device 1 refers to the chunk reference information similarity estimation processing database, and calculates the chunk reference information similarity with respect to the first chunk reference information B1.
  • the information providing device 1 extracts the second chunk reference information B2 different from the first chunk reference information B1 based on the calculated chunk reference information similarity.
  • the second chunk reference information B2 which is similar to the first chunk reference information B1
  • FIG. 21 is a schematic diagram showing an example of a content relevance database.
  • the content relevance database stores a plurality of chunk reference information obtained by dividing the reference information into chunk structures and external information used for creating the chunk reference information.
  • Chunk reference information includes text information.
  • the chunk reference information may further include chart information.
  • the chunk reference information may include a chunk reference information label consisting of a character string for identifying the chunk reference information.
  • the chunk reference information is, for example, when the reference information is a manual of a medical device, the information in which the manual is divided into chunk structures in which meaningful information is a mass of data.
  • the chunk reference information is information divided into chunk structures such as sentences, chapters, paragraphs, and pages of manuals and the like.
  • External information includes text information.
  • the external information may further include chart information.
  • the external information may include an external information label consisting of a character string for identifying the external information.
  • the external information has a one-to-one correspondence with the chunk reference information and is stored in the content relevance database.
  • the external information is, for example, when the reference information is a manual for a device such as an instrumentation device, the specifications used for creating this manual are divided into chunk structures that are a set of data. is there.
  • the external information is information divided into chunk structures such as sentences such as specifications, chapters, paragraphs, and pages.
  • External information is information used to create reference information, in which specifications are divided into chunk structures, and for example, incident information, various papers, information that is the source of reference information, etc. are divided into chunk structures. It may be. Further, when the chunk reference information is created in a first language such as Japanese, the external information may be created in a second language such as English, which is different from the first language.
  • FIG. 22A is a schematic diagram showing an example of a content relevance database.
  • FIG. 22B is a schematic diagram showing an example of a database for calculating the similarity of external information.
  • the "A” in FIG. 22A is connected to the “A” in FIG. 22B.
  • the “B” in FIG. 22A is connected to the "B” in FIG. 22B.
  • FIG. 23A is a schematic diagram showing an example of a content relevance database.
  • FIG. 23B is a schematic diagram showing an example of a database for calculating chunk reference information similarity.
  • the "C" in FIG. 23A is connected to the "C" in FIG. 23B.
  • the database for calculating the similarity of external information is constructed by machine learning using external information.
  • external information is vectorized and then learned as teacher data.
  • the vectorized external information is stored in the external information similarity calculation database in correspondence with the external information label in the external information.
  • the vectorized external information may be stored in the external information similarity calculation database in correspondence with the external information.
  • the database for chunk reference information similarity estimation processing is constructed by machine learning using the chunk reference information.
  • chunk reference information is vectorized and then trained as teacher data.
  • the vectorized chunk reference information is stored in the chunk reference information similarity estimation processing database in correspondence with the chunk reference information label in the chunk reference information.
  • the vectorized chunk reference information may be stored in the chunk reference information similarity estimation processing database in correspondence with the chunk reference information.
  • the external information acquisition unit 31 acquires various types of information such as external information and specific external information.
  • the specific external information is the external information for which the similarity of the external information should be calculated from now on.
  • the external information comparison unit 32 compares the external information stored in the content relevance database with the specific external information acquired by the external information acquisition unit 31. The external information comparison unit 32 determines whether the external information and the specific external information match or do not match.
  • the specific external information acquired by the external information acquisition unit 31 includes “external information x", “external information a1", and “external information c1".
  • the external information comparison unit 32 compares the "external information x", the "external information a1", and the "external information c1" included in the specific external information with the external information stored in the content relevance database. .. It is assumed that "external information a1" and “external information c1" are stored in the content relevance database, and "external information x" is not stored.
  • the external information comparison unit 32 determines that the "external information a1" and “external information c1" included in the specific external information match the external information stored in the content relevance database. Further, the external information comparison unit 32 determines that the "external information x" does not match the external information stored in the content relevance database.
  • the external information similarity calculation unit 33 refers to the external information similarity calculation database and stores the external information similarity calculation unit 33 in the external information similarity calculation database.
  • the external information similarity degree indicating the similarity between the external information and the specific external information acquired by the external information acquisition unit 31 is calculated.
  • the external information similarity calculation unit 33 calculates the external information similarity using the feature amount of the external information.
  • the feature amount of the external information for example, the external information may be vectorized and expressed.
  • the external information similarity calculation unit 33 vectorizes the specific external information, and then performs a vector operation with the vectorized external information in the external information similarity calculation database to obtain the specific external information and the external information. Calculate the similarity of external information.
  • the external information similarity calculation unit 33 does not calculate the external information similarity when the external information and the specific external information match by the external information comparison unit 32.
  • the degree of similarity of external information indicates the degree of similarity between specific external information and external information, for example, a decimal number of 100 steps from 0 to 1 such as "0.97", a percentage, 10 steps, or 5 steps. It is shown in three or more stages such as.
  • the external information similarity calculation unit 33 refers to the external information similarity calculation database, and the "external information x" included in the specific external information and the "external” stored in the external information similarity calculation database.
  • the external information similarity is calculated for each of "information a1", “external information b1", “external information c1", and "external information b2".
  • the external information similarity between the "external information x" and the “external information a1” is determined by calculating the inner product of the "feature amount q2 of the external information x" and the “feature amount p1 of the external information a1", for example, "0. It is calculated as “20”.
  • the degree of external information similarity between the "external information x" and the “external information b1” is “0.98”.
  • the degree of external information similarity between the "external information x" and the “external information c1" is "0.33”.
  • the degree of external information similarity between the "external information x" and the "external information b2" is "0.85".
  • the "external information x" indicates that it is more similar to the "external information b1" than, for example, the "external information a1".
  • the chunk reference information extraction unit 34 selects the first external information from a plurality of external information based on the calculated external information similarity, refers to the content relevance database, and chunks corresponding to the selected first external information.
  • the reference information is extracted as the first chunk reference information.
  • the chunk reference information extraction unit 34 extracts one chunk reference information corresponding to the selected first external information as the first chunk reference information. Further, when the chunk reference information extraction unit 34 selects a plurality of first external information, the chunk reference information corresponding to each of the selected first external information may be extracted as the first chunk reference information.
  • the chunk reference information extraction unit 34 may select as the first external information from each external information label included in the plurality of external information based on the calculated external information similarity.
  • the chunk reference information extraction unit 34 may extract chunk reference information corresponding to the external information label stored in the content relevance database as the first chunk reference information from the selected external information label (first external information). ..
  • the chunk reference information extraction unit 34 selects the external information label 21, and from the selected external information label 21, refers to the chunk reference information B1 corresponding to the external information label 21 stored in the content relevance database as the first chunk. It may be extracted as information. Since the external information label is composed of a character string, the capacity of the external information similarity calculation database can be reduced as compared with storing the external information having the text information.
  • the chunk reference information extraction unit 34 calculates the external information similarity, and as a result, of "external information a1", “external information b1", “external information c1", and “external information b2".
  • “external information b1" for which the highest degree of similarity to external information is calculated is selected as the first external information.
  • a threshold value may be set for the external information similarity, and the external information for which the external information similarity equal to or less than the threshold value is calculated may be selected. This threshold can be appropriately set by the user.
  • the chunk reference information extraction unit 34 refers to the content relevance database and extracts the "chunk reference information B1" corresponding to the "external information b1" selected as the first external information as the first chunk reference information.
  • the chunk reference information extraction unit 34 further extracts one or more second chunk reference information different from the first chunk reference information from the content relevance database based on the chunk reference information similarity described later.
  • the chunk reference information extraction unit 34 may select one or a plurality of chunk reference information labels from the chunk reference information labels included in the plurality of chunk reference information based on the calculated chunk reference information similarity.
  • the chunk reference information extraction unit 34 may extract the chunk reference information corresponding to the chunk reference information label stored in the content relevance database from the selected chunk reference information label as the second chunk reference information. For example, the chunk reference information extraction unit 34 selects the chunk reference information label 122, and from the selected external information label 122, second chunk reference information B2 corresponding to the chunk reference information label 122 stored in the content relevance database. It may be extracted as chunk reference information. Since the chunk reference information label is composed of a character string, the capacity of the chunk reference information similarity calculation database can be reduced as compared with storing the chunk reference information having the text information.
  • the chunk reference information similarity calculation unit 35 refers to the chunk reference information similarity estimation processing database, and shows the similarity between the chunk reference information and the first chunk reference information extracted by the chunk reference information extraction unit 34. Chunk reference information Calculate the similarity.
  • the chunk reference information similarity calculation unit 35 calculates the chunk reference information similarity using the feature amount of the chunk reference information. As the feature quantity of the chunk reference information, for example, the chunk reference information may be vectorized and expressed.
  • the chunk reference information similarity calculation unit 35 vectorizes the specific chunk reference information, and then performs a vector operation with the chunk reference information vectorized in the chunk reference information similarity estimation processing database to refer to the specific chunk. Calculate the chunk reference information similarity between the information and the chunk reference information.
  • the chunk reference information similarity indicates the degree of similarity between the first chunk reference information and the chunk reference information, for example, a decimal number of 100 steps from 0 to 1 such as "0.97", a percentage, and 10 steps. Alternatively, it is indicated by 3 or more stages such as 5 stages.
  • the chunk reference information similarity calculation unit 35 refers to the chunk reference information similarity calculation database, and is extracted as the first chunk reference information by the chunk reference information extraction unit 34.
  • the chunk reference information similarity between the "chunk reference information B1" and the “chunk reference information A1" is obtained by calculating the inner product of the "feature amount Q1 of the chunk reference information B1" and the "feature amount P1 of the chunk reference information A1". For example, it is calculated as "0.30".
  • the chunk reference information similarity between the "chunk reference information B1" and the “chunk reference information B1” is “1.00".
  • the chunk reference information similarity between the "chunk reference information B1" and the “chunk reference information C1" is “0.20”.
  • the chunk reference information similarity between the "chunk reference information B1" and the “chunk reference information B2" is "0.95".
  • the "chunk reference information B1" is more similar to the "chunk reference information B2" than, for example, the "chunk reference information A1".
  • the chunk reference information extraction unit 34 further extracts one or more second chunk reference information different from the first chunk reference information based on the chunk reference information similarity.
  • the chunk reference information extraction unit 34 calculates the chunk reference information similarity, and as a result, "chunk reference information A1", “chunk reference information B1", “chunk reference information C1", and "chunk”.
  • the "chunk reference information B2" for which the predetermined chunk reference information similarity is calculated is extracted as the second chunk reference information.
  • a threshold value may be set for the chunk reference information similarity, and the chunk reference information obtained by calculating the external information similarity above or below the threshold value may be selected. This threshold can be appropriately set by the user. Since the chunk reference information for which the chunk reference information similarity "1.00" is calculated matches the first chunk reference information, it may be excluded from being selected as the second chunk reference information. ..
  • FIG. 24 is a flowchart showing a second modification of the operation of the information providing system 100 in the present embodiment.
  • the external information acquisition unit 31 acquires one or a plurality of external information whose specifications and the like are divided into chunk structures as specific external information (external information acquisition step S31).
  • the external information acquisition step S31 is performed after the reference information selection step S14.
  • the external information comparison unit 32 compares the external information stored in the content relevance database with the specific external information acquired by the external information acquisition unit 31 (external information comparison step S32). The external information comparison unit 32 determines whether the external information and the specific external information match or do not match.
  • the chunk reference information extraction unit 34 selects the first external information from a plurality of external information based on the calculated external information similarity, refers to the content relevance database, and chunks corresponding to the selected first external information.
  • the reference information is extracted as the first chunk reference information (first chunk reference information extraction step S34).
  • the chunk reference information similarity calculation unit 35 refers to the chunk reference information similarity estimation processing database, and the chunk reference information stored in the chunk reference information similarity estimation processing database and the chunk reference information extraction unit 34.
  • the chunk reference information similarity indicating the similarity with the first chunk reference information extracted by is calculated (chunk reference information similarity calculation step S35).
  • the chunk reference information extraction unit 34 further extracts one or more second chunk reference information different from the first chunk reference information based on the chunk reference information similarity (second chunk reference information extraction step S36). ..
  • a plurality of chunk reference information in which the reference information is divided into chunk structures and external information corresponding to each chunk reference information and used for creating the chunk reference information are stored.
  • a relevance database a database for calculating the similarity of external information constructed by machine learning using a plurality of external information, an external information acquisition unit 31 that acquires specific external information, external information, and specific external information.
  • the external information similarity calculation database is referred to, and the external information and the specific external information are referred to.
  • the external information similarity calculation unit 33 that calculates the external information similarity indicating the similarity, the first external information is selected from a plurality of external information based on the external information similarity, and the content relevance database is referred to.
  • a chunk reference information extraction unit 34 for extracting chunk reference information corresponding to external information as first chunk reference information is provided.
  • the external information similarity calculation unit 33 calculates the external information similarity for specific external information that does not match the external information stored in the content relevance database by the external information comparison unit 32. That is, it is not necessary to calculate the external information similarity for the specific external information that matches the external information stored in the content relevance database by the external information comparison unit 32. Therefore, the external information similarity can be calculated more efficiently.
  • the first external information is selected from a plurality of external information based on the similarity of the external information, the content relevance database is referred to, and the chunk reference information corresponding to the first external information is obtained. Extract as 1 chunk reference information.
  • the accuracy of selecting the first external information can be improved by selecting the first external information similar to the specific external information based on the quantitatively evaluated external information similarity.
  • the content relevance database is referred to, and the chunk reference information corresponding to the first external information is extracted as the first chunk reference information. Therefore, when the specific external information contains new information or is changed, the user can immediately grasp which part of the chunk reference information the reference information corresponds to. .. Therefore, when updating the reference information, it is only necessary to update the chunk reference information extracted as the first chunk reference information, and the reference information can be updated in a short time.
  • the past of the product created based on the past specifications The manual also needs to be created in a new manual.
  • a past specification that is a candidate to be changed is selected from the new specifications, and the past manual corresponding to this past specification is understood to need to be changed by the new specification. can do.
  • the new specifications, the past specifications, and the past manuals are each divided into chunk structures. Therefore, it is possible to efficiently extract only the parts changed by the new specifications from the past manuals. Therefore, the user can easily grasp the relevant part of the past manual that should be changed based on the new specification.
  • the past manual can be used as it is for the parts that are not changed in the specifications, and only the parts that are changed in the specifications can be newly created. So to speak, it is only necessary to edit the difference only in the changed part in the specifications. Therefore, it is possible to easily edit the manual.
  • the chunk reference information similarity estimation processing database constructed by machine learning using a plurality of chunk reference information and the chunk reference information similarity estimation processing database are referred to, and the chunk reference information is referred to.
  • the chunk reference information similarity calculation unit 35 for calculating the chunk reference information similarity indicating the similarity between the first chunk reference information and the chunk reference information extraction unit 34 is provided, and the chunk reference information extraction unit 34 is based on the chunk reference information similarity. Then, the second chunk reference information different from the first chunk reference information is further extracted.
  • the second chunk reference information different from the first chunk reference information is further extracted based on the chunk reference information similarity.
  • the accuracy of selecting the second chunk reference information is improved by selecting the second chunk reference information similar to the first chunk reference information based on the quantitatively evaluated chunk reference information similarity. Can be done. Therefore, when new information is included in specific external information or when there is a change, the second chunk reference information similar to the first chunk reference information is also extracted, so that the reference information is divided into chunk reference information. The user can immediately grasp which part of the throat corresponds to. Therefore, when updating the reference information, it is only necessary to update the first chunk reference information and the chunk reference information extracted as the second chunk reference information, and the reference information can be updated in a short time. ..
  • a past specification that is a candidate to be changed is selected from the new specifications, and a past manual corresponding to this past specification and another past manual similar to the past manual are selected.
  • changes are necessary due to the new specifications.
  • the new specifications, the past specifications, and the past manuals are each divided into chunk structures. Therefore, it is possible to efficiently extract only the parts changed by the new specifications from the past manuals. At this time, a plurality of similar past manuals can be extracted as targets.
  • the user can easily and simultaneously grasp the relevant parts of a plurality of past manuals that should be changed based on the new specifications. Therefore, for example, when creating a new manual, the past manual can be used as it is for the parts that are not changed in the specifications, and only the parts that are changed in the specifications can be newly created. So to speak, it is only necessary to edit the difference in the changed part in the specifications. Therefore, it is possible to easily edit the manual.
  • the external information acquisition step S31 is performed after the reference information selection step S14.
  • the user can compare the first reference information selected by the reference information selection unit 14, and the first chunk reference information and the second chunk reference information extracted by the chunk reference information extraction unit 34. Therefore, it is possible to immediately grasp the relevant part to be changed in the first reference information of the manual or the like.
  • FIG. 25 is a flowchart showing a third modification of the operation of the information providing system 100 in the present embodiment.
  • the reference information selection step S14 is omitted, the external information acquisition step S31, the external information comparison step S32, the external information similarity calculation step S33, the first chunk reference information extraction step S34, and the chunk reference information similarity calculation.
  • Step S35 and second chunk reference information extraction step S36 may be performed.
  • the fourth modification of the information providing device 1 is different from the second modification and the third modification in that an access control unit is further provided.
  • the access control unit is realized, for example, by the CPU 101 executing a program stored in the storage unit 104 or the like with the RAM 103 as a work area.
  • the access control unit controls access to chunk reference information. Access includes full access, read and write access, review-only access, comment-only access, read-only access, and banned access.
  • the access control unit is performed based on the access control information.
  • the access control information includes a user name and the access assigned to each user name.
  • the access control information is stored in, for example, the storage unit 104.
  • the user When a user is assigned full access, the user has full read and write access to the chunk reference information, and the user can use any aspect of the user interface. For example, for full access, the user can change the format of the chunk reference information. If the user has read and write access, the user has read and write to the chunk reference information, but cannot change the format. For review-only access, the user can make changes to the chunk reference information that is being tracked. In the case of comment-only access, the user can insert a comment into the chunk reference information, but cannot change the text information in the chunk reference information. For read-only access, the user can view the chunk reference information, but cannot make changes to the chunk reference information and cannot insert any comments.
  • an access control unit is further provided.
  • a specific one or a plurality of users among the plurality of users can perform a predetermined access based on the access control information. That is, for a plurality of users who use the chunk reference information, it is possible to manage each chunk reference information by linking the edit type control such as read-only or fully accessible and the authority based on the user's attribute. it can. In particular, it is possible to prevent unintended editing by allowing only authorized users to edit such as writing while making only browsing accessible at the same time.
  • Information providing device 4 Medical device 5: User terminal 6: Server 7: Public communication network 10: Housing 11: Acquisition unit 12: Meta ID selection unit 13: Content ID selection unit 14: Reference information selection unit 15: Input Unit 16: Output unit 17: Storage unit 18: Control unit 21: First acquisition unit 22: First evaluation unit 23: First generation unit 31: External information acquisition unit 32: External information comparison unit 33: External information similarity calculation Unit 34: Chunk reference information extraction unit 35: Chunk reference information similarity calculation unit 100: Information providing system 101: CPU 102: ROM 103: RAM 104: Preservation unit 105: I / F 106: I / F 107: I / F 108: Input part 109: Output part 110: Internal bus S11: Acquisition step S12: Meta ID selection step S13: Content ID selection step S14: Reference information selection step S21: First acquisition step S22: First evaluation step S23: First Generation step S24: Acquisition step S25: Meta ID selection step S26: Content ID selection step S31: External information acquisition step S32: External information comparison step S33

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【解決手段】本発明に係る情報提供システムは、医療機器に関する作業を行うユーザが作業を実施する上で適した参照情報を選択する情報提供システムであって、機械学習用のデータ構造を用いて、機械学習により構築された第1データベースを備え、前記機械学習用のデータ構造は、画像データを有する評価対象情報と、メタIDと、を有する学習データを複数備え、前記画像データは、前記医療機器と、前記医療機器を識別するための識別ラベルと、を示す画像を有し、前記メタIDは、前記参照情報に対応するコンテンツIDに紐づけられることを特徴とする。

Description

学習方法及び情報提供システム
 本発明は、学習方法及び情報提供システムに関する。
 近年、取得した画像から所定の情報をユーザに提供する技術が注目されている。例えば、特許文献1は、ウェアラブル端末から農作物の画像を取得し、予測した収穫時期をウェアラブル端末の表示板に拡張現実として表示される。
 特許文献1のウェアラブル端末表示システムは、ウェアラブル端末の表示板に、農作物の収穫時期を表示するウェアラブル端末表示システムであって、 前記ウェアラブル端末の視界に入った農作物の画像を取得する画像取得手段と、前記画像を解析して、前記農作物の種類を特定する特定手段と、前記種類に応じて、判定基準を選択する選択手段と、前記判定基準に基づいて、前記画像を解析して色およびサイズを判定する判定手段と、前記判定の結果に基づいて、前記農作物の収穫時期を予測する予測手段と、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記農作物に対して、前記予測された収穫時期を拡張現実として表示する収穫時期表示手段と、を備える。
特許6267841号公報
 しかしながら、特許文献1に開示されたウェアラブル端末表示システムは、画像を解析して農作物の種類を特定する。このため、画像と農作物の関係を新たに取得した場合には、この関係を新たに機械学習により学習させる必要がある。このため、新たな関係を取得した場合にはその更新に時間が掛かるという問題点があった。
 そこで本発明は、上述した問題に鑑みて案出されたものであり、その目的とするところは、作業を短時間に行うことができる学習方法及び情報提供システムを提供することにある。
 本発明に係る機械学習用のデータ構造は、医療機器に関する作業を行うユーザが作業を実施する上で適した参照情報を選択するときに利用する第1データベースを構築するために用いられ、コンピュータの備える保存部に記憶される機械学習用のデータ構造であって、画像データを有する評価対象情報と、メタIDと、を有する学習データを複数備え、前記画像データは、前記医療機器と、前記医療機器を識別するための識別ラベルと、を示す画像を有し、前記メタIDは、前記参照情報に対応するコンテンツIDに紐づけられ、複数の前記学習データは、前記コンピュータの備える制御部が実行する機械学習により前記第1データベースを構築するために用いられることを特徴とする。
 本発明に係る学習方法は、医療機器に関する作業を行うユーザが作業を実施する上で適した参照情報を選択するときに利用する第1データベースを構築するために用いられ、コンピュータの備える保存部に記憶される、本発明に係る機械学習用のデータ構造を用いて、機械学習することを特徴とする。
 本発明に係る情報提供システムは、医療機器に関する作業を行うユーザが作業を実施する上で適した参照情報を選択する情報提供システムであって、本発明に係る機械学習用のデータ構造を用いて、機械学習により構築された第1データベースを備えることを特徴とする。
 本発明に係る情報提供システムは、医療機器に関する作業を行うユーザが作業を実施する上で適した参照情報を選択する情報提供システムであって、特定の医療機器及び前記特定の医療機器を識別するための特定の識別ラベル、を撮像した第1画像データを有する取得データを取得する取得手段と、画像データを有する評価対象情報、及び前記評価対象情報に紐づくメタID、を有する学習データを複数備えた機械学習用のデータ構造を用いて、機械学習により構築された第1データベースと、前記第1データベースを参照し、前記取得データに基づいて、複数の前記メタIDのうち第1メタIDを選択するメタID選択手段と、前記メタIDに紐づくコンテンツIDと、前記コンテンツIDに対応する前記参照情報とが複数記憶された第2データベースと、前記第2データベースを参照し、前記第1メタIDに基づいて、複数の前記コンテンツIDのうち第1コンテンツIDを選択するコンテンツID選択手段と、前記第2データベースを参照し、前記第1コンテンツIDに基づいて、複数の前記参照情報のうち第1参照情報を選択する参照情報選択手段とを備え、前記画像データは、前記医療機器と、前記医療機器を識別するための識別ラベルと、を示す画像を有することを特徴とする。
 本発明によれば、作業を短時間に行うことができる。
図1は、本実施形態における情報提供システムの構成の一例を示す模式図である。 図2は、本実施形態における情報提供システムを使用した一例を示す模式図である。 図3は、本実施形態におけるメタID推定処理用データベース及び参照用データベースの一例を示す模式図である。 図4は、本実施形態における機械学習用のデータ構造の一例を示す模式図である。 図5は、本実施形態における情報提供装置の構成の一例を示す模式図である。 図6は、本実施形態における情報提供装置の機能の一例を示す模式図である。 図7は、本実施形態における情報提供システムの動作の一例を示すフローチャートである。 図8は、本実施形態における情報提供装置の機能の変形例を示す模式図である。 図9は、本実施形態における情報提供システムを使用した変形例を示す模式図である。 図10は、本実施形態におけるシーンモデルデータベースの一例を示す模式図である。 図11は、本実施形態におけるシーンモデルテーブルの一例を示す模式図である。 図12は、本実施形態におけるシーン用コンテンツモデルテーブルの一例を示す模式図である。 図13は、本実施形態におけるシーンテーブルの一例を示す模式図である。 図14は、本実施形態における情報提供システムを使用した変形例を示す模式図である。 図15は、本実施形態におけるコンテンツデータベースの一例を示す模式図である。 図16は、本実施形態におけるサマリーテーブルの一例を示す模式図である。 図17は、本実施形態における参照サマリーリストの一例を示す模式図である。 図18は、本実施形態における情報提供システムの動作の変形例を示すフローチャートである。 図19は、本実施形態における情報提供装置の機能の第2変形例を示す模式図である。 図20は、本実施形態における情報提供システムを使用した第2変形例を示す模式図である。 図21は、コンテンツ関連性データベースの一例を示す模式図である。 図22Aは、コンテンツ関連性データベースの一例を示す模式図である。 図22Bは、外部情報類似度算出用データベースの一例を示す模式図である。 図23Aは、コンテンツ関連性データベースの一例を示す模式図である。 図23Bは、チャンク参照情報類似度算出用データベースの一例を示す模式図である。 図24は、本実施形態における情報提供システムの動作の第2変形例を示すフローチャートである。 図25は、本実施形態における情報提供システムの動作の第3変形例を示すフローチャートである。
 以下、本発明の実施形態における機械学習用のデータ構造、学習方法及び情報提供システムの一例について、図面を参照しながら説明する。
(情報提供システム100の構成)
 図1~図7を参照して、本実施形態における情報提供システム100の構成の一例について説明する。図1は、本実施形態における情報提供システム100の全体の構成を示すブロック図である。
 情報提供システム100は、医療機器を使用する臨床工学技士等の医療関係者等のユーザに利用される。情報提供システム100は、主に臨床工学技士等の医療関係者が使用する医療機器4を対象として用いられる。情報提供システム100は、医療機器4の画像データを有する取得データから、医療機器に関する作業を行うユーザが作業を実施する上で適した第1参照情報を選択する。情報提供システム100は、例えば医療機器4のマニュアルをユーザに提供できるほか、例えば医療機器4に関するインシデント情報をユーザに提供できる。これにより、ユーザは、医療機器4のマニュアルや医療機器4に関するインシデントを把握することができる。
 図1に示すように、情報提供システム100は、情報提供装置1を備える。情報提供装置1は、例えば公衆通信網7を介してユーザ端末5及びサーバ6の少なくとも何れかと接続されてもよい。
 図2は、本実施形態における情報提供システム100を使用した一例を示す模式図である。情報提供装置1は、第1画像データを有する取得データを取得する。情報提供装置1は、取得した取得データに基づいて、第1メタIDを選択し、ユーザ端末5に送信する。情報提供装置1は、ユーザ端末5から第1メタIDを取得する。情報提供装置1は、取得した第1メタIDに基づいて、第1参照情報を選択し、ユーザ端末5に送信する。これにより、ユーザは、医療機器4のマニュアル等を有する第1参照情報を把握することができる。
 図3は、本実施形態におけるメタID推定処理用データベース及び参照用データベースの一例を示す模式図である。情報提供装置1は、メタID推定処理用データベース(第1データベース)を参照し、取得した取得データに基づいて、複数のメタIDのうち第1メタIDを選択する。情報提供装置1は、参照用データベース(第2データベース)を参照し、選択した第1メタIDに基づいて、複数のコンテンツIDのうち第1コンテンツIDを選択する。情報提供装置1は、参照用データベースを参照し、選択した第1コンテンツIDに基づいて、複数の参照情報のうち第1参照情報を選択する。
 メタID推定処理用データベースは、本発明を適用した機械学習用のデータ構造を用いて、機械学習により構築される。本発明を適用した機械学習のデータ構造は、医療機器4に関する作業を行うユーザが作業を実施する上で適した参照情報を選択するときに利用するメタID推定処理用データベースを構築するために用いられ、情報提供装置1(コンピュータ)の備える保存部104に記憶される。
 図4は、本実施形態における機械学習用のデータ構造の一例を示す模式図である。本発明を適用した機械学習用のデータ構造は、学習データを複数備える。複数の学習データは、情報提供装置1の備える制御部18が実行する機械学習によりメタID推定処理用データベースを構築するために用いられる。メタID推定処理用データベースは、機械学習用のデータ構造を用いて機械学習することで構築された学習済みモデルであってもよい。
 学習データは、評価対象情報と、メタIDとを有する。メタID推定処理用データベースは、保存部104に記憶される。
 評価対象情報は、画像データを有する。画像データは、医療機器4と、医療機器4を識別するための識別ラベルと、を示す画像を有する。画像は、静止画像であってもよいし、動画像であってもよい。識別ラベルは、形名、型名、ユーザ等が医療機器4を識別するために付与した管理番号等の文字列からなるものが用いられてもよいし、バーコード等の一次元コード、QRコード(登録商標)等の二次元コード等が用いられてもよい。評価対象情報は、更に、インシデント情報を有していてもよい。
 インシデント情報は、医療機器4におけるヒヤリハットや、厚生労働省等の行政機関等が発行する医療機器4の事故事例等を含む。インシデント情報は、医療機器4で生じるアラームに関するアラーム情報を含んでいてもよい。インシデント情報は、例えば、音声等のファイルであってもよく、日本語に対応する外国語等の翻訳された音声等のファイルであってもよい。例えば、ある1ヶ国の音声言語が登録されれば、それに合わせて対応する外国語の翻訳音声ファイルが記憶されてもよい。
 メタIDは、文字列からなり、コンテンツIDに紐づけられる。メタIDは、参照情報よりも容量が小さいものとなる。メタIDは、画像データに示された医療機器4を分類する装置メタIDと、画像データに示された医療機器4の作業手順に関する作業手順メタIDと、を有する。メタIDは、取得データに示されたインシデント情報に関するインシデントメタIDを有していてもよい。
 取得データは、第1画像データを有する。第1画像データは、特定の医療機器及び特定の医療機器を識別するための特定の識別ラベル、を撮像した画像である。第1画像データは、例えばユーザ端末5のカメラ等により撮影された画像データである。取得データは、更にインシデント情報を有していてもよい。
 図3に示すように、メタID推定処理用データベースには、評価対象情報と、メタIDとの間におけるメタ連関度が記憶される。メタ連関度は、評価対象情報と、メタIDとが紐づく度合いを示しており、例えば百分率、10段階、又は5段階等の3段階以上で示される。例えば図3では、評価対象情報に含まれる「画像データA」は、メタID「IDaa」との間におけるメタ連関度「20%」を示し、メタID「IDab」との間におけるメタ連関度「50%」を示す。この場合、「IDab」は「IDaa」に比べて「画像データA」との繋がりが強いことを示す。
 メタID推定処理用データベースは、例えばメタ連関度を算出できるアルゴリズムを有してもよい。メタID推定処理用データベースとして、例えば評価対象情報、メタID、及びメタ連関度に基づいて最適化された関数(分類器)が用いられてもよい。
 メタID推定処理用データベースは、例えば機械学習を用いて構築される。機械学習の方法として、例えば深層学習が用いられる。メタID推定処理用データベースは、例えばニューラルネットワークで構成され、その場合、メタ連関度は隠れ層及び重み変数で示されてもよい。
 参照用データベースは、コンテンツIDと、参照情報と、が複数記憶される。参照用データベースは、保存部104に記憶される。
 コンテンツIDは、文字列からなり、1又は複数のメタIDに紐づけられる。コンテンツIDは、参照情報よりも容量が小さいものとなる。コンテンツIDは、参照情報に示された医療機器4を分類する装置IDと、参照情報に示された医療機器4の作業手順に関する作業手順IDと、を有する。コンテンツIDは、参照情報に示された医療機器4のインシデント情報に関するインシデントIDを更に有していてもよい。装置IDは、メタIDにおける装置メタIDに紐づけられ、作業手順IDは、メタIDにおける作業手順メタIDに紐づけられる。インシデントIDは、インシデントメタIDに紐づけられる。
 参照情報は、コンテンツIDに対応する。1つの参照情報に対しては、1つのコンテンツIDが割り当てられている。参照情報は、医療機器4に関する情報を有する。参照情報は、医療機器4のマニュアル、分割マニュアル、インシデント情報、ドキュメント情報、履歴情報等、を有する。参照情報は、意味のある情報がひとまとまりのデータの塊となったチャンク構造であってもよい。参照情報は、動画ファイルであってもよい。参照情報は、音声ファイルであってもよく、日本語に対応する外国語等の翻訳された音声等のファイルであってもよい。例えば、ある1ヶ国の音声言語が登録されれば、それに合わせて対応する外国語の翻訳音声ファイルが記憶されてもよい。
 マニュアルは、装置情報と、作業手順情報とを有する。装置情報は、医療機器4を分類する情報であり、仕様(スペック)、操作保守マニュアル等を含む。作業手順情報は、医療機器4の作業手順に関する情報を有する。装置情報は、装置IDに紐づけられ、作業手順情報は、作業手順IDに紐づけられていてもよい。参照情報は、装置情報、作業手順情報を有していてもよい。
 分割マニュアルは、マニュアルが所定の範囲で分割されたものである。分割マニュアルは、マニュアルが例えばページ毎、章毎、意味のある情報がひとまとまりのデータの塊となったチャンク構造毎に、分割されたものであってもよい。マニュアル、分割マニュアルは、動画であってもよいし、音声データであってもよい。
 インシデント情報は、上記したように、医療機器4におけるヒヤリハットや、厚生労働省等の行政機関等が発行する医療機器4の事故事例等を含む。また、インシデント情報は、上記したように、医療機器4で生じるアラームに関するアラーム情報を含んでいてもよい。このとき、インシデント情報は、装置ID、作業手順IDの少なくとも何れかに紐づけられていてもよい。
 ドキュメント情報は、医療機器4の仕様書、報告書、リポート等を有する。
 履歴情報は、医療機器4の点検、故障、修理等の履歴に関する情報である。
 情報提供システム100は、医療機器4の画像データを有する評価対象情報と、メタIDと、を有する学習データが複数記憶された機械学習用のデータ構造を用いて、機械学習により構築されるメタID推定処理用データベース(第1データベース)を備え、メタIDは、コンテンツIDに紐づけられる。このため、新たに参照情報を更新する場合であっても、メタIDと、参照情報に対応するコンテンツIDと、の紐づけを変更するか、又は更新した参照情報とコンテンツIDとの対応関係を変更すればよく、評価対象情報とメタIDとの関係を新たに更新する必要がない。これにより、参照情報の更新に伴うメタID推定処理用データベースの再構築が不要となる。よって、更新作業を短時間で行うことが可能となる。
 また、情報提供システム100は、学習データは、メタIDを有する。このため、メタID推定処理用データベースを構築する際に、参照情報よりも容量の小さいメタIDを用いて、機械学習を行うことができる。これにより、参照情報を用いて機械学習を行うよりも、短時間でメタID推定処理用データベースを構築することが可能となる。
 また、情報提供システム100は、参照情報を検索する際は画像データよりも容量の小さいメタIDを検索クエリとして用い、参照情報よりも容量の小さいコンテンツIDを検索クエリに一致又は部分一致した結果として返すことになるため、検索処理におけるデータ通信量と処理時間を少なくすることができる。
 また、情報提供システム100は、機械学習用のデータ構造に基づいた機械学習を用いて参照情報を検索するシステムを作成する場合、検索キーワードに相当する取得データ(入力情報)として画像データを用いることが可能となる。このため、ユーザは検索したい情報や特定の医療機器を文字入力や音声等で言語化する必要がなく、概念や名前が分からなくても検索が可能となる。
 実施形態における学習方法は、医療機器に関する作業を行うユーザが作業を実施する上で適した参照情報を選択するときに利用するメタID推定処理用データベースを構築するために用いられ、コンピュータの備える保存部104に記憶される、実施形態における機械学習用のデータ構造を用いて、機械学習する。このため、新たに参照情報を更新する場合であっても、メタIDと、参照情報に対応するコンテンツIDと、の紐づけを変更すればよく、評価対象情報とメタIDとの関係を新たに更新する必要がない。これにより、参照情報の更新に伴うメタID推定処理用データベースの再構築が不要となる。よって、更新作業を短時間で行うことが可能となる。
 <情報提供装置1>
 図5は、情報提供装置1の構成の一例を示す模式図である。情報提供装置1として、パーソナルコンピュータ(PC)のほか、スマートフォンやタブレット端末等の電子機器が用いられてもよい。情報提供装置1は、筐体10と、CPU101と、ROM102と、RAM103と、保存部104と、I/F105~107とを備える。各構成101~107は、内部バス110により接続される。
 CPU(Central Processing Unit)101は、情報提供装置1全体を制御する。ROM(Read Only Memory)102は、CPU101の動作コードを格納する。RAM(Random Access Memory)103は、CPU101の動作時に使用される作業領域である。保存部104は、機械学習用のデータ構造、取得データ、メタID推定処理用データベース、参照用データベース、後述するコンテンツデータベース、後述するシーンモデルデータベース等の各種情報が保存される。保存部104として、例えばHDD(Hard Disk Drive)のほか、SSD(solid state drive)等が用いられる。
 I/F105は、公衆通信網7を介してユーザ端末5等との各種情報の送受信を行うためのインターフェースである。I/F106は、入力部分108との各種情報の送受信を行うためのインターフェースである。入力部分108として、例えばキーボードが用いられ、情報提供システム100を利用するユーザは、入力部分108を介して、各種情報又は情報提供装置1の制御コマンド等を入力又は選択する。I/F107は、出力部分109との各種情報の送受信を行うためのインターフェースである。出力部分109は、保存部104に保存された各種情報、又は情報提供装置1の処理状況等を出力する。出力部分109として、ディスプレイが用いられ、例えばタッチパネル式でもよい。この場合、出力部分109が入力部分108を含む構成としてもよい。
 図6は、情報提供装置1の機能の一例を示す模式図である。情報提供装置1は、取得部11と、メタID選択部12と、コンテンツID選択部13と、参照情報選択部14と、入力部15と、出力部16と、記憶部17と、制御部18とを備える。なお、図6に示した各機能は、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現される。また、各機能は、例えば人工知能により制御されてもよい。ここで、「人工知能」は、いかなる周知の人工知能技術に基づくものであってもよい。
 <取得部11>
 取得部11は、取得データ等の各種情報を取得する。取得部11は、メタID推定処理用データベースを構築するための学習データを取得する。
 <メタID選択部12>
 メタID選択部12は、メタID推定処理用データベースを参照し、取得データに基づいて、複数のメタIDのうち第1メタIDを選択する。メタID選択部12は、例えば図3に示したメタID推定処理用データベースを用いた場合、取得データに含まれる「第1画像データ」と同一又は類似する評価対象情報(例えば「画像データA」)を選択する。また、メタID選択部12は、例えば図3に示したメタID推定処理用データベースを用いた場合、取得データに含まれる「第1画像データ」と「インシデント情報」と同一又は類似する評価対象情報(例えば「画像データB」と「インシデント情報A」)を選択する。
 評価対象情報として、取得データと一部一致又は完全一致する情報が選択されるほか、例えば類似(同一概念等を含む)する情報が用いられる。取得データ及び評価対象情報は、それぞれ等しい特徴の情報を含むことで、選択すべき評価対象情報の精度を向上させることができる。
 メタID選択部12は、選択した評価対象情報に紐づく複数のメタIDのうち1以上の第1メタIDを選択する。例えばメタID選択部12は、例えば図3に示したメタID推定処理用データベースを用いた場合、選択した「画像データA」に紐づく複数のメタID「IDaa」、「IDab」、「IDac」、「IDba」、「IDca」のうち、メタID「IDaa」、「IDab」、「IDac」を第1メタIDとして選択する。
 なお、メタID選択部12は、あらかじめメタ連関度に閾値を設定しておき、その閾値より高いメタ連関度を有するメタIDを第1メタIDとして選択するようにしてもよい。例えば、メタ連関度が50%以上を閾値としたとき、メタ連関度50%以上である「IDab」を第1メタIDとして選択するようにしてもよい。
 <コンテンツID選択部13>
 コンテンツID選択部13は、参照用データベースを参照し、第1メタIDに基づいて、複数のコンテンツIDのうち第1コンテンツIDを選択する。コンテンツID選択部13は、例えば図3に示した参照用データベースを用いた場合、選択した第1メタID「IDaa」「IDab」、「IDac」に紐づけられるコンテンツID(例えば「コンテンツID-A」「コンテンツID-B」)を第1コンテンツIDとして選択する。図3に示した参照用データベースでは、「コンテンツID-A」は、メタID「IDaa」「IDab」に紐づけられ、「コンテンツID-B」は、メタID「IDaa」「IDac」に紐づけられる。即ち、コンテンツID選択部13は、第1メタID「IDaa」「IDab」、「IDac」のうちの何れか及びこれらの組み合わせ、に紐づけられるコンテンツIDを第1コンテンツIDとして選択する。コンテンツID選択部13は、第1メタIDを検索クエリとして用い、この検索クエリに一致又は部分一致した結果を第1コンテンツIDとして選択する。
 また、選択した第1メタIDのうち装置メタIDがコンテンツIDの装置IDに紐づけられ、作業手順メタIDがコンテンツIDの作業手順IDに紐づけられるとき、コンテンツID選択部13は、装置メタIDに紐づく装着IDを有するコンテンツIDを、又は、作業手順メタIDに紐づく作業手順IDを有するコンテンツIDを、第1コンテンツIDとして選択する。
 <参照情報選択部14>
 参照情報選択部14は、参照用データベースを参照し、第1コンテンツIDに基づいて、複数の参照情報のうち第1参照情報を選択する。参照情報選択部14は、例えば図3に示した参照用データベースを用いた場合、選択した第1コンテンツID「コンテンツID-A」に対応する参照情報(例えば「参照情報A」)を第1参照情報として選択する。
 <入力部15>
 入力部15は、情報提供装置1に各種情報を入力する。入力部15は、I/F105を介して学習データ、取得データ等の各種情報を入力するほか、例えばI/F106を介して入力部分108から各種情報を入力する。
 <出力部16>
 出力部16は、第1メタID、参照情報等を出力部分109等に出力する。出力部16は、例えば公衆通信網7を介して、ユーザ端末5等に第1メタID、参照情報等を送信する。
 <記憶部17>
 記憶部17は、機械学習用のデータ構造、取得データ等の各種情報を保存部104に記憶し、必要に応じて保存部104に記憶された各種情報を取出す。また、記憶部17は、メタID推定処理用データベース、参照用データベース、後述するコンテンツデータベース、後述するシーンモデルデータベース等の各種データベースを、保存部104に記憶し、必要に応じて保存部104に記憶された各種データベースを取出す。
 <制御部18>
 制御部18は、本発明を適用した機械学習用のデータ構造を用いて、第1データベースを構築するための機械学習を実行する。制御部18は、線形回帰、ロジスティック回帰、サポートベクターマシーン、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、ニューラルネットワーク、ベイズ、時系列、クラスタリング、アンサンブル学習等により機械学習を実行する。
 <医療機器4>
 医療機器4は、例えばペースメーカ、冠動脈ステント、人工血管、PTCAカテーテル、中心静脈カテーテル、吸収性体内固定用ボルト、粒子線治療装置、人工透析器、硬膜外用カテーテル、輸液ポンプ、自動腹膜灌流用装置、人工骨、人工心肺装置、多人数用透析液供給装置、成分採血装置、人工呼吸器、プログラム等の高度管理医療機器(GHTF(Global Harmonization Task Force)のクラス分類「クラスIII」及び「クラスIV」に相当。)を含む。医療機器4は、例えばX線撮影装置、心電計、超音波診断装置、注射針、採血針、真空採血管、輸液ポンプ用輸液セット、フォーリーカテーテル、吸引カテーテル、補聴器、家庭用マッサージ器、コンドーム、プログラム等の管理医療機器(GHTFのクラス分類「クラスII」に相当。)を含む。医療機器4は、例えば経腸栄養注入セット、ネブライザ、X線フィルム、血液ガス分析装置、手術用不織布、プログラム等の一般医療機器(GHTFのクラス分類「クラスI」に相当。)を含む。医療機器4は、法令で定められた医療機器だけでなく、見た目や構造等が医療機器と類似した法令で定められていない機械器具等(ベッド等)を含む。医療機器4は、病院等の医療現場で用いられる機器であってもよく、患者のカルテや電子カルテが記憶された医療情報機器や、病院内のスタッフの情報等が記憶された情報機器を含む。
 <ユーザ端末5>
 ユーザ端末5は、医療機器4を管理するユーザが保有する端末を示す。ユーザ端末5として、主にHMD(ヘッドマウントディスプレイ)の1種類であるホロレンズ(登録商標)であってもよい。ユーザは、ユーザ端末5の第1メタID、第1参照情報をヘッドマウントディスプレイ又はホロレンズ等の透過して表示する表示部を介して、作業エリアや特定の医療機器を透過して確認することができる。これによりユーザは、目の前の状況を確認しつつ、取得された取得データに基づいて、選択されるマニュアル等を合わせて確認することが可能となる。ユーザ端末5は、この他、携帯電話(携帯端末)、スマートフォン、タブレット型端末、ウェアラブル端末、パーソナルコンピュータ、IoT(Internet of Things)デバイス等の電子機器のほか、あらゆる電子機器で具現化されたものが用いられてもよい。ユーザ端末5は、例えば公衆通信網7を介して情報提供装置1と接続されるほか、例えば情報提供装置1と直接接続されてもよい。ユーザは、ユーザ端末5を用いて、情報提供装置1から第1参照情報を取得するほか、例えば情報提供装置1の制御を行ってもよい。
 <サーバ6>
 サーバ6には、上述した各種情報が記憶される。サーバ6には、例えば公衆通信網7を介して送られてきた各種情報が蓄積される。サーバ6には、例えば保存部104と同様の情報が記憶され、公衆通信網7を介して情報提供装置1と各種情報の送受信が行われてもよい。すなわち、情報提供装置1は、保存部104の代わりにサーバ6を用いてもよい。
 <公衆通信網7>
 公衆通信網7は、情報提供装置1等が通信回路を介して接続されるインターネット網等である。公衆通信網7は、いわゆる光ファイバ通信網で構成されてもよい。また、公衆通信網7は、有線通信網には限定されず、無線通信網等の公知の通信網で実現してもよい。
(情報提供システム100の動作の一例)
 次に、本実施形態における情報提供システム100の動作の一例について説明する。図7は、本実施形態における情報提供システム100の動作の一例を示すフローチャートである。
 <取得ステップS11>
 先ず、取得部11は、取得データを取得する(取得ステップS11)。取得部11は、入力部15を介して、取得データを取得する。取得部11は、ユーザ端末5により撮像された第1画像データと、サーバ6等に記憶されたインシデント情報と、を有する取得データを取得する。取得部11は、例えば記憶部17を介して取得データを保存部104に保存する。
 取得データは、ユーザ端末5により生成されてもよい。ユーザ端末5は、特定の医療機器及び特定の医療機器を識別するための特定の識別ラベル、を撮像した第1画像データを有する取得データを生成する。ユーザ端末5は、さらにインシデント情報を生成してもよいし、サーバ6等からインシデント情報を取得してもよい。ユーザ端末5は、第1画像データとインシデント情報とを有する取得データを生成してもよい。ユーザ端末5は、生成した取得データを情報提供装置1に送信する。入力部15は、取得データを受信し、取得部11は、取得データを取得する。
 <メタID選択ステップS12>
 次に、メタID選択部12は、メタID推定処理用データベースを参照し、取得データに基づいて、複数のメタIDのうち第1メタIDを選択する(メタID選択ステップS12)。メタID選択部12は、取得部11により取得された取得データを取得し、保存部104に保存されたメタID推定処理用データベースを取得する。メタID選択部12は、1つの取得データに対して1つの第1メタIDを選択するほか、例えば1つの取得データに対して複数の第1メタIDを選択してもよい。メタID選択部12は、例えば記憶部17を介して、選択した第1メタIDを保存部104に保存する。
 メタID選択部12は、第1メタIDをユーザ端末5に送信し、ユーザ端末5の表示部に表示させる。これにより、ユーザは、選択された第1メタID等を確認することができる。なお、メタID選択部12は、第1メタIDを情報提供装置1の出力部分109に表示させてもよい。メタID選択部12は、第1メタIDをユーザ端末5に送信するのを省略してもよい。
 <コンテンツID選択ステップS13>
 次に、コンテンツID選択部13は、参照用データベースを参照し、第1メタIDに基づいて、複数のコンテンツIDのうち第1コンテンツIDを選択する(コンテンツID選択ステップS13)。コンテンツID選択部13は、メタID選択部12により選択された第1メタIDを取得し、保存部104に保存された参照用データベースを取得する。コンテンツID選択部13は、第1メタIDに対して1つの第1コンテンツIDを選択するほか、例えば1つの第1メタIDに対して複数の第1コンテンツIDを選択してもよい。つまり、コンテンツID選択部13は、第1メタIDを検索クエリとして用い、この検索クエリに一致又は部分一致した結果を第1コンテンツIDとして選択する。コンテンツID選択部13は、例えば記憶部17を介して、選択した第1コンテンツIDを保存部104に保存する。
 <参照情報選択ステップS14>
 次に、参照情報選択部14は、参照用データベースを参照し、第1コンテンツIDに基づいて、複数の参照情報のうち第1参照情報を選択する(参照情報選択ステップS14)。参照情報選択部14は、コンテンツID選択部13により選択された第1コンテンツIDを取得し、保存部104に保存された参照用データベースを取得する。参照情報選択部14は、1つの第1コンテンツIDに対応する1つの第1参照情報を選択する。参照情報選択部14は、複数の第1コンテンツIDを選択したとき、それぞれの第1コンテンツIDに対応するそれぞれの第1参照情報を選択してもよい。これにより、複数の第1参照情報が選択される。参照情報選択部14は、例えば記憶部17を介して、選択した第1参照情報を保存部104に保存する。
 例えば出力部16が第1参照情報をユーザ端末5等に送信する。ユーザ端末5は、表示部に選択された1又は複数の第1参照情報を表示する。ユーザは、表示された1又は複数の第1参照情報から1又は複数の第1参照情報を選択することができる。これにより、ユーザは、マニュアル等を有する1又は複数の第1参照情報を把握することができる。即ち、医療機器4の画像データから、ユーザに適した第1参照情報の候補が1又は複数検索され、ユーザは検索された1又は複数の第1参照情報から選択することができるため、現場で医療機器4に関する作業を行うユーザに対するフィールドワークソリューションとして、大いに役立てることができる。
 なお、情報提供装置1は、第1参照情報を出力部分109に表示させてもよい。以上により、本実施形態における情報提供システム100の動作が終了する。
 本実施形態によれば、メタIDは、参照情報に対応するコンテンツIDに紐づけられる。これにより、参照情報を更新するとき、参照情報に対応するコンテンツIDと、メタIDと、の紐づけを更新するか、又は、更新した参照情報とコンテンツIDとの対応関係を変更すればよく、学習データを新たに更新する必要がない。このため、参照情報の更新に伴うメタID推定処理用データベースの再構築が不要となる。よって、参照情報の更新に伴うデータベースの構築を短時間に行うことができる。
 また、本実施形態によれば、メタID推定処理用データベースを構築するとき、参照情報よりも容量の小さいメタIDを用いて機械学習を行うことができる。このため、参照情報を用いて機械学習を行うよりも、短時間でメタID推定処理用データベースを構築することができる。
 また、本実施形態によれば、参照情報を検索する際は画像データよりも容量の小さいメタIDを検索クエリとして用い、参照情報よりも容量の小さいコンテンツIDを検索クエリに一致又は部分一致した結果として返すことになるため、検索処理におけるデータ通信量と処理時間を少なくすることができる。
 また、本実施形態によれば、機械学習用のデータ構造に基づいた機械学習を用いて参照情報を検索するシステムを作成する場合、検索キーワードに相当する取得データ(入力情報)として画像データを用いることが可能となる。このため、ユーザは検索したい情報や特定の医療機器を文字入力や音声等で言語化する必要がなく、概念や名前が分からなくても検索が可能となる。
 本実施形態によれば、装置メタIDは、装置IDに紐づけられ、作業手順メタIDは、作業手順IDに紐づけられる。これにより、メタIDに基づいてコンテンツIDを選択するとき、コンテンツIDの選択対象を狭めることができる。このため、コンテンツIDの選択精度を向上させることができる。
 本実施形態によれば、メタIDは、参照情報とコンテンツIDとが複数記憶された、メタID推定処理用データベースとは異なる参照用データベースのコンテンツIDの少なくとも1つに紐づけられる。このため、メタID推定処理用データベースを更新する際に、参照用データベースを更新させる必要がない。また、参照用データベースを更新する際に、メタID推定処理用データベースを更新させる必要がない。これにより、メタID推定処理用データベース及び参照用データベースの更新作業を、短時間で行うことができる。
 本実施形態によれば、参照情報は、医療機器4のマニュアルを有する。これにより、ユーザは、対象となる医療機器のマニュアルを即座に把握することができる。このため、マニュアルを探索する時間を短縮させることができる。
 本実施形態によれば、参照情報は、医療機器4のマニュアルが所定の範囲で分割された分割マニュアルを有する。これにより、ユーザは、マニュアル中の該当箇所がより絞り込まれた状態のマニュアルを把握することができる。このため、マニュアル中の該当箇所を探索する時間を短縮させることができる。
 本実施形態によれば、参照情報は、医療機器4のインシデント情報を更に有する。これにより、ユーザは、インシデント情報を把握することができる。このため、ユーザは、ヒヤリハットや事故に対して、即座に対応することができる。
 本実施形態によれば、評価対象情報は、医療機器4のインシデント情報を更に有する。これにより、評価対象情報から第1メタIDを選択するとき、インシデント情報を考慮することができ、第1メタIDの選択対象を狭めることができる。このため、第1メタIDの選択精度を向上させることができる。
 <情報提供装置1の第1変形例>
 次に、情報提供装置1の第1変形例について、説明する。本変形例では、主に、第1取得部21、第1評価部22、第1生成部23、取得部11、メタID選択部12、コンテンツID選択部13が、上述した実施形態と相違する。以下では、これら相違する点について、主に説明をする。図8は、本実施形態における情報提供装置1の機能の第1変形例を示す模式図である。なお、図8に示した各機能は、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現される。また、各機能は、例えば人工知能により制御されてもよい。ここで、「人工知能」は、いかなる周知の人工知能技術に基づくものであってもよい。
 図9は、本実施形態における情報提供システム100を使用した第1変形例を示す模式図である。本変形例に係る情報提供装置1は、第1画像データと、第1シーンIDとを1組として有する取得データを取得する。情報提供装置1は、取得した取得データに基づいて、第1メタIDを選択し、ユーザ端末5に送信する。このため、本変形例に係る情報提供装置1は、第1メタIDの選択精度を更に向上させることができる。
 <第1取得部21>
 第1取得部21は、第1映像情報を取得する。第1取得部21は、ユーザ端末5から第1映像情報を取得する。第1映像情報は、作業者によって撮影された機器や部品等であり、例えば、HMD(ヘッドマウントディスプレイ)やホロレンズ等により撮影される。撮影された映像は、リアルタイムでサーバ6に送信されてもよい。また、撮影されている映像が、第1映像情報として取得されてもよい。第1映像情報は、例えば、フィールドのユーザが備えるユーザ端末5のカメラ等により撮影された映像である。第1映像情報は、例えば、静止画、動画、何れであっても良く、ユーザによる撮影、又はユーザ端末5の設定で、自動的に撮像されてもよい。さらに、ユーザ端末5のメモリ等に記録されている映像情報に読み込ませたり、公衆通信網7経由で取得する等してもよい。
 <第1評価部22>
 第1評価部22は、シーンモデルデータベースを参照し、第1映像情報とシーンIDを含むシーン情報との間における第1シーン連関度を含むシーンIDリストを取得する。第1評価部22は、シーンモデルデータベースを参照し、取得した第1映像情報と一致、一部一致、又は類似する過去の第1映像情報を選択し、選択された過去の第1映像情報に紐づけられたシーンIDを含むシーン情報を選択し、選択された過去の第1映像情報とシーン情報との間におけるシーン連関度に基づいて第1シーン連関度を算出する。第1評価部22は、算出された第1シーン連関度を含むシーンIDを取得し、シーンIDリストに基づいて選択されたシーン名リストを、ユーザ端末5に表示する。
 図10は、本実施形態におけるシーンモデルデータベースの一例を示す模式図である。シーンモデルデータベースは、保存部104に記憶される。シーンモデルデータベースは、予め取得された過去の第1映像情報、過去の第1映像情報に紐づけられたシーンIDを含むシーン情報、及び、過去の第1映像情報とシーン情報との間における3段階以上のシーン連関度が記憶される。
 シーンモデルデータベースは、例えばニューラルネットワーク等の任意のモデルが用いられ、機械学習により構築される。シーンモデルデータベースは、機械学習により取得された第1映像情報と過去の第1映像情報とシーンIDとの評価結果により構築され、例えば、各々の関係がシーン連関度として記憶される。シーン連関度は、過去の第1映像情報とシーン情報との繋がりの度合いを示しており、例えばシーン連関度が高いほど過去の第1映像情報とシーン情報との繋がりが強いと判断することができる。シーン連関度は、例えば百分率等の3値以上(3段階以上)で示されるほか、2値(2段階)で示されてもよい。例えば、過去の第1映像情報の『01』は、シーンID『A』とは70%のシーン連関度であり、シーンID『D』とは50%、シーンID『C』とは10%等として記憶される。ユーザ端末5から取得された第1映像情報は、機械学習により、例えば、予め取得された過去の第1映像情報と類似性等の評価結果が構築される。例えば、深層学習を行うことで、同一ではなく類似の情報に対しても対応可能となる。
 シーンモデルデータベースは、シーンIDリストと、シーン名リストが記憶される。シーンIDリストは、例えば、算出された第1シーン連関度と、シーンIDとを示す。シーンモデルデータベースは、この評価された結果であるリスト化された内容を記憶する。リスト化された内容は、例えば、『シーンID A:70%』、『シーンID B:50%』等、シーン連関度の高い関係性を表すシーンIDである。
 シーン名リストは、後述する第1生成部23により生成される。例えば、シーンIDリストには、第1評価部22によってシーンIDに対応するシーン名が取得され、それらをシーン名リストに記憶する。シーンモデルデータベースに記憶されたシーン名リストは、その後の処理でユーザ端末5に送信される。ユーザは、ユーザ端末5により受信されたシーン名リストを参照し、第1映像情報に対応するシーンを把握する。
 なお、シーンモデルデータベースの更新や登録されているデータの修正や追加等のため、シーンモデルデータベースに第1映像情報に対応するシーン情報、及びシーンIDに対応するシーン名が存在しない場合は、別視野における第1映像情報の取得処理を行う、又は未対応時の代替対応として準備されているシーン情報又はシーンIDを新たに対応づけ、対応づけたれた代替シーンを加えたシーン名リストを生成し、ユーザ端末5に送信するようにしてもよい。
 <第1生成部23>
 第1生成部23は、第1評価部22により取得されたシーンIDリストに対応するシーン名リストを生成する。生成されるシーン名リストは、例えば、『シーンID』、『シーン連関度』等を有する。
 シーンIDは、例えば、図11に示すシーンモデルテーブルと、図12に示すシーン用コンテンツモデルテーブル(OFE)と、に関連付けられる。シーンモデルテーブルには、例えば、シーンID、学習モデル等が記憶され、シーン用コンテンツモデルテーブルには、コンテンツID、学習モデル等が記憶される。第1生成部23は、これらの情報に基づいてシーン名リストを生成する。
 図11に示すシーンモデルテーブルは、シーンモデルデータベースに記憶される。シーンモデルテーブルには、例えば、ユーザがフィールドで行う各作業を識別するシーンIDとそのシーンIDに対応する学習モデルが対応づけられて記憶される。シーンIDは、複数存在し、その各シーンIDに対応する映像情報の学習モデルが対応づけられて記憶される。
 図12に示すシーン用コンテンツモデルテーブルは、各シーンIDにおけるコンテンツIDと学習モデルが対応づけられて記憶される。図12に示すシーン用コンテンツモデルテーブルでは、例えば、シーンIDが『OFE』の例であり、様々なシーンごとに対応するコンテンツIDが分かれて記憶される。コンテンツIDは、複数存在し、その各シーンに対応する映像情報の学習モデルが対応づけられて記憶される。なお、コンテンツIDは、シーン無指定のコンテンツを含んでもよい。この場合は、コンテンツIDには『NULL』が記憶される。
 図13は、シーンテーブルの一例を示す模式図である。図13に示すシーンテーブルは、シーンモデルデータベースに記憶される。シーンテーブルには、例えば、ユーザがフィールドで行う各作業の映像情報の概略と、その概略の作業を識別するシーンIDが対応づけられて記憶される。シーンIDは複数存在し、その各シーンIDに対応するシーン名が対応づけられて記憶される。
 <取得部11>
 取得部11は、第1画像データと、シーン名リストから選択されたシーン名に対応する第1シーンIDと、を1組として有する取得データを取得する。
 <メタID選択部12>
 図14は、本実施形態における情報提供システムを使用した変形例を示す模式図である。メタID選択部12は、メタID推定処理用データベースを参照し、取得データに基づいて、複数のメタIDを抽出し、複数のメタIDを含むメタIDリストを生成する。メタIDリストは、複数のメタIDがリスト化されている。メタID選択部12は、メタIDリストに対応する参照サマリーリストを生成する。詳細には、メタID選択部12は、コンテンツデータベースを参照し、生成したメタIDリストに含まれるそれぞれのメタIDに紐づくコンテンツIDを取得する。
 図15は、コンテンツデータベースの一例を示す模式図である。コンテンツデータベースには、メタIDと、コンテンツIDと、メタIDとコンテンツIDとの間におけるコンテンツ連関度が記憶されてもよい。コンテンツ連関度は、メタIDと、コンテンツIDとが紐づく度合いを示しており、例えば百分率、10段階、又は5段階等の3段階以上で示される。例えば図15では、メタIDに含まれる「IDaa」は、コンテンツIDに含まれる「コンテンツID-A」との間における連関度「60%」を示し、「コンテンツID-B」との間における連関度「40%」を示す。この場合、「IDaa」は「コンテンツID-B」に比べて「コンテンツID-A」との繋がりが強いことを示す。
 コンテンツデータベースは、例えばコンテンツ連関度を算出できるアルゴリズムを有してもよい。コンテンツデータベースとして、例えばメタID、コンテンツID、及びコンテンツ連関度に基づいて最適化された関数(分類器)が用いられてもよい。
 コンテンツデータベースは、例えば機械学習を用いて構築される。機械学習の方法として、例えば深層学習が用いられる。コンテンツデータベースは、例えばニューラルネットワークで構成され、その場合、連関度は隠れ層及び重み変数で示されてもよい。
 メタID選択部12は、コンテンツ連関度を参照し、メタIDリストに含まれる複数のメタIDに紐づくコンテンツIDを取得してもよい。例えば、メタID選択部12は、メタIDからコンテンツ連関度の高いコンテンツIDを取得してもよい。
 メタID選択部12は、サマリーテーブルを参照し、取得したコンテンツIDに対応する参照情報のサマリーを取得する。図16は、サマリーテーブルの一例を示す。サマリーテーブルは、コンテンツIDとコンテンツIDに対応する参照情報のサマリーとを複数含む。サマリーテーブルは、保存部104に記憶される。参照情報のサマリーは、参照情報を要約した内容等を示す。
 メタID選択部12は、取得した参照情報のサマリーに基づいて、参照サマリーリストを生成する。図17は、参照サマリーリストの一例を示す。参照サマリーリストは、参照情報のサマリーと、参照情報のサマリーに対応するメタIDとを複数含む。メタID選択部12は、参照サマリーリストをユーザ端末5に送信する。ユーザ端末5は、送信された参照サマリーリストから参照情報のサマリーを選択し、選択した参照情報のサマリーからメタIDを選択し、選択したメタIDを情報提供装置1に送信する。そして、メタID選択部12は、ユーザ端末5により参照サマリーリストから選択されたメタIDを第1メタIDとして選択する。
 <コンテンツID選択部13>
 コンテンツID選択部13は、参照用データベースとコンテンツデータベースとを参照し、第1メタIDに基づいて、複数のコンテンツIDのうち第1コンテンツIDを選択する。コンテンツID選択部13は、例えば図15に示したコンテンツデータベースを用いた場合、第1メタID「IDaa」に紐づけられるコンテンツID(例えば「コンテンツID-A」「コンテンツID-B」等)を第1コンテンツIDとして選択する。このとき、コンテンツ連関度の高い(例えばコンテンツ連関度が60%である)「コンテンツID-A」を選択するようにしてもよい。コンテンツ連関度にあらかじめ閾値を設定しておき、その閾値より高いコンテンツ連関度を有するコンテンツIDを第1コンテンツIDとして選択するようにしてもよい。
(情報提供システム100の動作の第1変形例)
 次に、本実施形態における情報提供システム100の動作の第1変形例について説明する。図18は、本実施形態における情報提供システム100の動作の第1変形例を示すフローチャートである。
 <第1取得ステップS21>
 まず、第1取得部21は、ユーザ端末5から第1映像情報を取得する(第1取得ステップS21)。第1取得部21は、ユーザ端末5により特定の医療機器4の映像情報が撮影された第1映像情報を取得する。
 <第1評価ステップS22>
 次に、第1評価部22は、シーンモデルデータベースを参照し、取得した第1映像情報とシーン情報との間における第1シーン連関度を含むシーンIDリストを取得する(第1評価ステップS22)。
 <第1生成ステップS23>
 次に、第1生成部23は、第1評価部22で取得されたシーンIDリストに対応するシーン名リストを生成する(第1生成ステップS23)。第1生成部23は、例えば、図13に示すシーンテーブルを参照し、取得したシーンIDリストに対応するシーン名リストを生成する。例えば、第1評価部22で取得されたシーンIDリストに含まれるシーンIDが『OFD』の場合、シーン名として『ABC-999装置の再起動』というシーン名が選択される。例えば、シーンIDが『OFE』の場合、シーン名として『ABC-999装置のメモリを取り外す』というシーン名が選択されることとなる。
 <取得ステップS24>
 次に、取得部11は、第1画像データと、シーン名リストから選択されたシーン名に対応する第1シーンIDと、を1組として有する取得データを取得する(取得ステップS24)。シーン名リストから選択されたシーン名に対応するシーンIDが第1シーンIDとなる。
 <メタID選択ステップS25>
 次に、メタID選択部12は、取得データに基づいて、複数のメタIDを抽出し、複数のメタIDを含むメタIDリストを生成する(メタID選択ステップS25)。メタID選択部12は、メタIDリストに対応する参照サマリーリストを生成する。メタID選択部12は、生成した参照サマリーリストをユーザ端末5に送信する。そして、ユーザ端末5は、送信された参照サマリーリストから1又は複数の参照情報のサマリーと、この参照情報のサマリーに対応するメタIDと、を選択する。ユーザ端末5は、選択した参照情報のサマリーと、メタIDと、を情報提供装置1に送信する。そして、メタID選択部12は、ユーザ端末5により参照サマリーリストから選択されたメタIDを第1メタIDとして選択する。
 <コンテンツID選択ステップS26>
 次に、コンテンツID選択部13は、参照用データベースとコンテンツデータベースとを参照し、第1メタIDに基づいて、複数のコンテンツIDのうち第1コンテンツIDを選択する(コンテンツID選択ステップS26)。コンテンツID選択部13は、メタID選択部12により選択された第1メタIDを取得し、保存部104に保存された参照用データベースとコンテンツデータベースとを取得する。コンテンツID選択部13は、第1メタIDに対して1つの第1コンテンツIDを選択するほか、例えば1つの第1メタIDに対して複数の第1コンテンツIDを選択してもよい。コンテンツID選択部13は、例えば記憶部17を介して、選択した第1コンテンツIDを保存部104に保存する。
 その後、上述した参照情報選択ステップS14を行い、完了する。
 本変形例によれば、メタID選択部12は、複数のメタIDのうち、複数の第1メタIDを抽出し、複数の第1メタIDを含むメタIDリストを生成し、メタIDリストに対応する参照サマリーリストを生成し、参照サマリーリストから選択された第1メタIDを選択する。これにより、参照サマリーリストに基づいて、第1メタIDを選択することができる。このため、第1メタIDの選択精度を向上させることができる。
 本変形例によれば、取得部11は、第1画像データと、シーン名リストから選択されたシーン名に対応する第1シーンIDと、を1組として有する取得データを取得する。これにより、第1シーンIDを考慮して、メタIDを選択することができる。このため、メタIDの選択精度を向上させることができる。
 本変形例によれば、コンテンツID選択部13は、参照用データベースとコンテンツデータベースとを参照し、第1メタIDに基づいて、複数のコンテンツIDのうち第1コンテンツIDを選択する。これにより、メタIDに基づいてコンテンツIDを選択するとき、コンテンツ連関度を参照してコンテンツIDの選択対象を更に狭めることができる。このため、第1コンテンツIDの選択精度を更に向上させることができる。
 <情報提供装置1の第2変形例>
 次に、情報提供装置1の第2変形例について、説明する。本変形例では、主に、外部情報取得部31と、外部情報比較部32と、外部情報類似度算出部33と、チャンク参照情報抽出部34と、チャンク参照情報類似度算出部35と、を更に備える点で、上述した実施形態と相違する。また、保存部104に、更にコンテンツ関連性データベースと、外部情報類似度算出用データベースと、チャンク参照情報類似度推定処理用データベースとが、保存される点で、上述した実施形態と相違する。以下では、これら相違する点について、主に説明をする。図19は、本実施形態における情報提供装置1の機能の第2変形例を示す模式図である。なお、図19に示した各機能は、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現される。また、各機能は、例えば人工知能により制御されてもよい。ここで、「人工知能」は、いかなる周知の人工知能技術に基づくものであってもよい。
 図20は、本実施形態における情報提供システム100を使用した第2変形例を示す模式図である。本変形例に係る情報提供装置1は、特定の外部情報xを取得する。情報提供装置1は、取得した特定の外部情報xに対する外部情報類似度を算出する。情報提供装置1は、算出された外部情報類似度に基づいて、複数の外部情報から第1外部情報b1を選択する。情報提供装置1は、コンテンツ関連性データベースを参照し、選択された第1外部情報b1に対応するチャンク参照情報B1を第1チャンク参照情報B1として抽出する。これにより、取得した特定の外部情報xに類似する外部情報b1に対応するチャンク参照情報B1が、特定の外部情報xに基づく変更箇所であることを把握することができる。このため、参照情報を編集等の更新する際に、第1チャンク参照情報B1を更新するだけでよく、参照情報の更新作業を短時間で行うことができる。
 また、情報提供装置1は、チャンク参照情報類似度推定処理用データベースを参照し、第1チャンク参照情報B1に対するチャンク参照情報類似度を算出する。情報提供装置1は、算出されたチャンク参照情報類似度に基づいて、第1チャンク参照情報B1とは異なる第2チャンク参照情報B2を抽出する。これにより、第1チャンク参照情報B1に類似する第2チャンク参照情報B2も、特定の外部情報xに基づく変更箇所であることを把握することができる。このため、参照情報を編集等の更新する際に、第1チャンク参照情報と第2チャンク参照情報とを更新するだけでよく、参照情報の更新作業を短時間で行うことができる。
 <コンテンツ関連性データベース>
 図21は、コンテンツ関連性データベースの一例を示す模式図である。コンテンツ関連性データベースは、参照情報をチャンク構造に分割した複数のチャンク参照情報と、チャンク参照情報の作成に用いられた外部情報とが記憶される。
 チャンク参照情報は、文章情報を含む。チャンク参照情報は、更に図表情報を含んでもよい。チャンク参照情報は、チャンク参照情報を識別するための文字列からなるチャンク参照情報ラベルを含んでいてもよい。チャンク参照情報は、例えば参照情報が医療機器のマニュアルである場合、このマニュアルが意味のある情報がひとまとまりのデータの塊となったチャンク構造に分割された情報である。チャンク参照情報は、例えばマニュアル等の文章毎、章毎、段落毎、ページ毎等のチャンク構造に分割された情報である。
 外部情報は、文章情報を含む。外部情報は、更に図表情報を含んでもよい。外部情報は、外部情報を識別するための文字列からなる外部情報ラベルを含んでいてもよい。外部情報は、チャンク参照情報に1対1で対応して、コンテンツ関連性データベースに記憶される。外部情報は、例えば参照情報が計装機器等の装置のマニュアルである場合、このマニュアルの作成に用いられた仕様書等が、ひとまとまりのデータの塊となったチャンク構造に分割された情報である。外部情報は、例えば仕様書等の文章毎、章毎、段落毎、ページ毎等のチャンク構造に分割された情報である。外部情報は、参照情報の作成に用いられる情報として、仕様書がチャンク構造に分割されたもののほか、例えば、インシデント情報、各種論文、参照情報の原典となる情報等がチャンク構造に分割されたものであってもよい。また、チャンク参照情報が日本語等の第1言語で作成されている場合、外部情報は第1言語とは異なる英語等の第2言語で作成されるものであってもよい。
 図22Aは、コンテンツ関連性データベースの一例を示す模式図である。図22Bは、外部情報類似度算出用データベースの一例を示す模式図である。図22Aにおける「A」は、図22Bにおける「A」に繋がる。図22Aにおける「B」は、図22Bにおける「B」に繋がる。図23Aは、コンテンツ関連性データベースの一例を示す模式図である。図23Bは、チャンク参照情報類似度算出用データベースの一例を示す模式図である。図23Aにおける「C」は、図23Bにおける「C」に繋がる。
 <外部情報類似度算出用データベース>
 外部情報類似度算出用データベースは、外部情報を用いて機械学習により構築される。機械学習の方法として、例えば外部情報をベクトル化した上で教師データとして学習させる。ベクトル化された外部情報は、外部情報における外部情報ラベルに対応させて、外部情報類似度算出用データベースに記憶される。ベクトル化された外部情報は、外部情報に対応させて、外部情報類似度算出用データベースに記憶されてもよい。
 <チャンク参照情報類似度推定処理用データベース>
 チャンク参照情報類似度推定処理用データベースは、チャンク参照情報を用いて機械学習により構築される。機械学習の方法として、例えばチャンク参照情報をベクトル化した上で教師データとして学習させる。ベクトル化されたチャンク参照情報は、チャンク参照情報におけるチャンク参照情報ラベルに対応させて、チャンク参照情報類似度推定処理用データベースに記憶される。ベクトル化されたチャンク参照情報は、チャンク参照情報に対応させて、チャンク参照情報類似度推定処理用データベースに記憶されてもよい。
 <外部情報取得部31>
 外部情報取得部31は、外部情報、特定の外部情報等の各種情報を取得する。特定の外部情報は、これから外部情報類似度を算出すべき対象となる外部情報である。
 <外部情報比較部32>
 外部情報比較部32は、コンテンツ関連性データベースに記憶された外部情報と、外部情報取得部31により取得した特定の外部情報と、を比較する。外部情報比較部32は、外部情報と、特定の外部情報と、が一致するか、一致しないか、を判定する。
 図22A及び図22Bの例では、外部情報取得部31により取得した特定の外部情報が「外部情報x」、「外部情報a1」、「外部情報c1」を含むとする。そして、外部情報比較部32は、特定の外部情報に含まれる「外部情報x」、「外部情報a1」、「外部情報c1」と、コンテンツ関連性データベースに記憶された外部情報と、を比較する。コンテンツ関連性データベースには、「外部情報a1」「外部情報c1」が記憶され、「外部情報x」が記憶されていないとする。このとき、外部情報比較部32は、特定の外部情報に含まれる「外部情報a1」「外部情報c1」がコンテンツ関連性データベースに記憶された外部情報に一致すると判定する。また、外部情報比較部32は、「外部情報x」がコンテンツ関連性データベースに記憶された外部情報に一致しないと判定する。
 <外部情報類似度算出部33>
 外部情報類似度算出部33は、外部情報比較部32により外部情報と特定の外部情報とが一致しない場合、外部情報類似度算出用データベースを参照し、外部情報類似度算出用データベースに記憶された外部情報と、外部情報取得部31により取得された特定の外部情報と、の類似度を示す外部情報類似度を算出する。外部情報類似度算出部33は、外部情報の特徴量を用いて、外部情報類似度算出する。外部情報の特徴量として、例えば外部情報がベクトル化されて表現されてもよい。外部情報類似度算出部33は、特定の外部情報をベクトル化した上で、外部情報類似度算出用データベース内でベクトル化された外部情報とのベクトル演算により、特定の外部情報と外部情報との外部情報類似度を算出する。
 なお、外部情報類似度算出部33は、外部情報比較部32により外部情報と特定の外部情報とが一致する場合、外部情報類似度の算出を行わない。
 外部情報類似度は、特定の外部情報と、外部情報とが類似する度合いを示しており、例えば「0.97」等の0~1までの100段階の小数、百分率、10段階、又は5段階等の3段階以上で示される。
 図22A及び図22Bの例では、外部情報比較部32により特定の外部情報に含まれる「外部情報x」とコンテンツ関連性データベースに記憶された外部情報と一致しない。かかる場合、外部情報類似度算出部33は、外部情報類似度算出用データベースを参照し、特定の外部情報に含まれる「外部情報x」と、外部情報類似度算出用データベースに記憶された「外部情報a1」、「外部情報b1」、「外部情報c1」、「外部情報b2」と、それぞれ外部情報類似度を算出する。「外部情報x」と、「外部情報a1」との外部情報類似度は、「外部情報xの特徴量q2」と「外部情報a1の特徴量p1」の内積を演算して、例えば「0.20」として算出される。同様に「外部情報x」と、「外部情報b1」との外部情報類似度は、「0.98」である。「外部情報x」と、「外部情報c1」との外部情報類似度は、「0.33」である。「外部情報x」と、「外部情報b2」との外部情報類似度は、「0.85」である。この場合、「外部情報x」は、例えば「外部情報a1」に比べて「外部情報b1」と類似していることを示す。
 <チャンク参照情報抽出部34>
 チャンク参照情報抽出部34は、算出された外部情報類似度に基づいて、複数の外部情報から第1外部情報を選択し、コンテンツ関連性データベースを参照し、選択した第1外部情報に対応するチャンク参照情報を第1チャンク参照情報として抽出する。チャンク参照情報抽出部34は、複数の外部情報から1つの第1外部情報を選択したとき、選択した1つの第1外部情報に対応する1つのチャンク参照情報を第1チャンク参照情報として抽出する。また、チャンク参照情報抽出部34は、複数の第1外部情報を選択したとき、選択したそれぞれの第1外部情報に対応するチャンク参照情報をそれぞれ第1チャンク参照情報として抽出してもよい。
 チャンク参照情報抽出部34は、算出された外部情報類似度に基づいて、複数の外部情報に含まれるそれぞれの外部情報ラベルから、第1外部情報として選択してもよい。チャンク参照情報抽出部34は、選択した外部情報ラベル(第1外部情報)から、コンテンツ関連性データベースに記憶された外部情報ラベルに対応するチャンク参照情報を第1チャンク参照情報として抽出してもよい。例えば、チャンク参照情報抽出部34は、外部情報ラベル21を選択し、選択した外部情報ラベル21から、コンテンツ関連性データベースに記憶された外部情報ラベル21に対応するチャンク参照情報B1を第1チャンク参照情報として抽出してもよい。外部情報ラベルは、文字列からなるため、文章情報を有する外部情報を記憶させるよりも、外部情報類似度算出用データベースの容量を低減することができる。
 図22A及び図22Bの例では、チャンク参照情報抽出部34は、外部情報類似度を算出した結果、「外部情報a1」、「外部情報b1」、「外部情報c1」、「外部情報b2」のうち最も高い外部情報類似度を算出した「外部情報b1」を第1外部情報として選択する。第1外部情報として選択するとき、外部情報類似度に閾値を設定し、その閾値以上又は以下の外部情報類似度を算出した外部情報を選択してもよい。この閾値は、ユーザ側で適宜設定することができる。
 そして、チャンク参照情報抽出部34は、コンテンツ関連性データベースを参照し、第1外部情報として選択した「外部情報b1」に対応する「チャンク参照情報B1」を第1チャンク参照情報として抽出する。
 更に、チャンク参照情報抽出部34は、後述するチャンク参照情報類似度に基づいて、コンテンツ関連性データベースから、第1チャンク参照情報とは異なる第2チャンク参照情報を更に1又は複数抽出する。
 チャンク参照情報抽出部34は、算出されたチャンク参照情報類似度に基づいて、複数のチャンク参照情報に含まれるチャンク参照情報ラベルから、1又は複数のチャンク参照情報ラベルを選択してもよい。チャンク参照情報抽出部34は、選択したチャンク参照情報ラベルから、コンテンツ関連性データベースに記憶されたチャンク参照情報ラベルに対応するチャンク参照情報を、第2チャンク参照情報として抽出してもよい。例えば、チャンク参照情報抽出部34は、チャンク参照情報ラベル122を選択し、選択した外部情報ラベル122から、コンテンツ関連性データベースに記憶されたチャンク参照情報ラベル122に対応するチャンク参照情報B2を第2チャンク参照情報として抽出してもよい。チャンク参照情報ラベルは、文字列からなるため、文章情報を有するチャンク参照情報を記憶させるよりも、チャンク参照情報類似度算出用データベースの容量を低減することができる。
 <チャンク参照情報類似度算出部35>
 チャンク参照情報類似度算出部35は、チャンク参照情報類似度推定処理用データベースを参照し、チャンク参照情報と、チャンク参照情報抽出部34により抽出された第1チャンク参照情報と、の類似度を示すチャンク参照情報類似度を算出する。チャンク参照情報類似度算出部35は、チャンク参照情報の特徴量を用いて、チャンク参照情報類似度を算出する。チャンク参照情報の特徴量として、例えばチャンク参照情報がベクトル化されて表現されてもよい。チャンク参照情報類似度算出部35は、特定のチャンク参照情報をベクトル化した上で、チャンク参照情報類似度推定処理用データベース内でベクトル化されたチャンク参照情報とのベクトル演算により、特定のチャンク参照情報とチャンク参照情報とのチャンク参照情報類似度を算出する。
 チャンク参照情報類似度は、第1チャンク参照情報と、チャンク参照情報とが類似する度合いを示しており、例えば「0.97」等の0~1までの100段階の小数、百分率、10段階、又は5段階等の3段階以上で示される。
 図23A及び図23Bの例では、チャンク参照情報類似度算出部35は、チャンク参照情報類似度算出用データベースを参照し、チャンク参照情報抽出部34により第1チャンク参照情報として抽出された「チャンク参照情報B1」と、チャンク参照情報類似度算出用データベースに記憶された「チャンク参照情報A1」、「チャンク参照情報B1」、「チャンク参照情報C1」、「チャンク参照情報B2」と、それぞれチャンク参照情報類似度を算出する。「チャンク参照情報B1」と、「チャンク参照情報A1」とのチャンク参照情報類似度は、「チャンク参照情報B1の特徴量Q1」と「チャンク参照情報A1の特徴量P1」の内積を演算して、例えば「0.30」と算出される。同様に、「チャンク参照情報B1」と、「チャンク参照情報B1」とのチャンク参照情報類似度は、「1.00」である。「チャンク参照情報B1」と、「チャンク参照情報C1」とのチャンク参照情報類似度は、「0.20」である。「チャンク参照情報B1」と、「チャンク参照情報B2」とのチャンク参照情報類似度は、「0.95」である。この場合、「チャンク参照情報B1」は、例えば「チャンク参照情報A1」に比べて「チャンク参照情報B2」と類似していることを示す。
 上述したとおり、チャンク参照情報抽出部34は、チャンク参照情報類似度に基づいて、第1チャンク参照情報とは異なる第2チャンク参照情報を更に1又は複数抽出する。
 図23A及び図23Bの例では、チャンク参照情報抽出部34は、チャンク参照情報類似度を算出した結果、「チャンク参照情報A1」、「チャンク参照情報B1」、「チャンク参照情報C1」、「チャンク参照情報B2」のうち所定のチャンク参照情報類似度を算出した「チャンク参照情報B2」を第2チャンク参照情報として抽出する。第2チャンク参照情報を選択するとき、チャンク参照情報類似度に閾値を設定し、その閾値以上又は以下の外部情報類似度を算出したチャンク参照情報を選択してもよい。この閾値は、ユーザ側で適宜設定することができる。なお、チャンク参照情報類似度「1.00」を算出したチャンク参照情報については、第1チャンク参照情報に一致することになるため、第2チャンク参照情報として選択されるのを除外してもよい。
(情報提供システム100の動作の第2変形例)
 次に、本実施形態における情報提供システム100の動作の第2変形例について説明する。図24は、本実施形態における情報提供システム100の動作の第2変形例を示すフローチャートである。
 <外部情報取得ステップS31>
 外部情報取得部31は、例えば仕様書等がチャンク構造に分割された外部情報を特定の外部情報として1又は複数取得する(外部情報取得ステップS31)。外部情報取得ステップS31は、参照情報選択ステップS14の後に行われる。
 <外部情報比較ステップS32>
 次に、外部情報比較部32は、コンテンツ関連性データベースに記憶された外部情報と、外部情報取得部31により取得した特定の外部情報と、を比較する(外部情報比較ステップS32)。外部情報比較部32は、外部情報と、特定の外部情報と、が一致するか、一致しないか、を判定する。
 <外部情報類似度算出ステップS33>
 次に、外部情報類似度算出部33は、外部情報比較部32により外部情報と特定の外部情報とが一致しない場合、外部情報類似度算出用データベースを参照し、外部情報類似度算出用データベースに記憶された外部情報と、外部情報取得部31により取得された特定の外部情報と、の類似度を示す外部情報類似度を算出する(外部情報類似度算出ステップS33)。
 <第1チャンク参照情報抽出ステップS34>
 チャンク参照情報抽出部34は、算出された外部情報類似度に基づいて、複数の外部情報から第1外部情報を選択し、コンテンツ関連性データベースを参照し、選択した第1外部情報に対応するチャンク参照情報を第1チャンク参照情報として抽出する(第1チャンク参照情報抽出ステップS34)。
 <チャンク参照情報類似度算出ステップS35>
 次に、チャンク参照情報類似度算出部35は、チャンク参照情報類似度推定処理用データベースを参照し、チャンク参照情報類似度推定処理用データベースに記憶されたチャンク参照情報と、チャンク参照情報抽出部34により抽出された第1チャンク参照情報と、の類似度を示すチャンク参照情報類似度を算出する(チャンク参照情報類似度算出ステップS35)。
 <第2チャンク参照情報抽出ステップS36>
 次に、チャンク参照情報抽出部34は、チャンク参照情報類似度に基づいて、第1チャンク参照情報とは異なる第2チャンク参照情報を更に1又は複数抽出する(第2チャンク参照情報抽出ステップS36)。
 以上で、情報提供システム100の動作の第2変形例が完了する。
 本実施形態によれば、参照情報がチャンク構造に分割された複数のチャンク参照情報と、各々のチャンク参照情報に対応するとともにチャンク参照情報の作成に用いられた外部情報と、が記憶されるコンテンツ関連性データベースと、複数の外部情報を用いて機械学習により構築される外部情報類似度算出用データベースと、特定の外部情報を取得する外部情報取得部31と、外部情報と、特定の外部情報とを比較する外部情報比較手段と、外部情報比較部32により外部情報と特定の外部情報とが一致しない場合、外部情報類似度算出用データベースを参照し、外部情報と、特定の外部情報と、の類似度を示す外部情報類似度を算出する外部情報類似度算出部33と、外部情報類似度に基づいて、複数の外部情報から第1外部情報を選択し、コンテンツ関連性データベースを参照し、第1外部情報に対応するチャンク参照情報を第1チャンク参照情報として抽出するチャンク参照情報抽出部34と、を備える。
 本実施形態によれば、外部情報類似度算出部33は、外部情報比較部32によりコンテンツ関連性データベースに記憶された外部情報に一致しない特定の外部情報について、外部情報類似度の算出を行う。すなわち、外部情報比較部32によりコンテンツ関連性データベースに記憶された外部情報に一致する特定の外部情報については、外部情報類似度の算出を行う必要がない。このため、外部情報類似度の算出をより効率的に行うことができる。
 特に、本実施形態によれば、外部情報類似度に基づいて、複数の外部情報から第1外部情報を選択し、コンテンツ関連性データベースを参照し、第1外部情報に対応するチャンク参照情報を第1チャンク参照情報として抽出する。これにより、定量的に評価された外部情報類似度に基づいて、特定の外部情報に類似する第1外部情報を選択することで、第1外部情報の選択の精度を向上させることができる。
 特に、本実施形態によれば、コンテンツ関連性データベースを参照し、第1外部情報に対応するチャンク参照情報を第1チャンク参照情報として抽出する。このため、特定の外部情報に新しい情報が含まれる場合や変更があった場合には、参照情報が分割されたチャンク参照情報のどの部分に該当するかを、ユーザは即座に把握することができる。このため、参照情報を更新する際には、第1チャンク参照情報として抽出されたチャンク参照情報を更新するだけでよく、参照情報の更新作業を短時間で行うことができる。
 すなわち、ある装置がバージョン1からバージョン2にバージョンアップして、過去の仕様書から一部が変更されて新しい仕様書となった場合には、過去の仕様書に基づいて作成した製品の過去のマニュアルも、新しいマニュアルに作成する必要がある。本実施形態によれば、新しい仕様書から、変更すべき候補となる過去の仕様書を選択し、この過去の仕様書に対応する過去のマニュアルが、新しい仕様書によって変更が必要であると把握することができる。このとき、新しい仕様書、過去の仕様書、過去のマニュアルがそれぞれチャンク構造に分割されている。このため、過去のマニュアルから、新しい仕様書によって変更が生じた部分のみ、を効率よく抽出することができる。このため、新しい仕様書に基づいて変更すべき過去のマニュアルの該当部分を、ユーザは容易に把握できる。よって、例えば新しいマニュアルを作成する際、仕様書で変更の無い部分については過去のマニュアルをそのまま流用し、仕様書で変更のあった部分についてのみ、新たに作成することができる。いわば、仕様書で変更のあった部分のみを差分編集すればよいこととなる。このため、マニュアルの編集作業を容易に行うことが可能となる。
 また、本実施形態によれば、複数のチャンク参照情報を用いて機械学習により構築されたチャンク参照情報類似度推定処理用データベースと、チャンク参照情報類似度推定処理用データベースを参照し、チャンク参照情報と、第1チャンク参照情報と、の類似度を示すチャンク参照情報類似度を算出するチャンク参照情報類似度算出部35と、を備え、チャンク参照情報抽出部34は、チャンク参照情報類似度に基づいて、第1チャンク参照情報とは異なる第2チャンク参照情報を更に抽出する。
 本実施形態によれば、チャンク参照情報類似度に基づいて、第1チャンク参照情報とは異なる第2チャンク参照情報を更に抽出する。これにより、定量的に評価されたチャンク参照情報類似度に基づいて、第1チャンク参照情報に類似する第2チャンク参照情報を選択することで、第2チャンク参照情報の選択の精度を向上させることができる。このため、特定の外部情報に新しい情報が含まれる場合や変更があった場合には、第1チャンク参照情報に類似する第2チャンク参照情報も抽出するため、参照情報が分割されたチャンク参照情報のどの部分に該当するかを、ユーザは即座に把握することができる。このため、参照情報を更新する際には、第1チャンク参照情報と第2チャンク参照情報として抽出されたチャンク参照情報を更新するだけでよく、参照情報の更新作業を短時間で行うことができる。
 すなわち、ある装置が複数のバージョンを有しており、複数の過去の仕様書から一部が変更されて新しい仕様書となった場合には、複数の過去の仕様書に基づいて作成した製品のそれぞれの過去のマニュアルも、新しいマニュアルに作成する必要がある。本実施形態によれば、新しい仕様書から、変更すべき候補となる過去の仕様書を選択し、この過去の仕様書に対応する過去のマニュアルと、過去のマニュアルに類似する他の過去のマニュアルとが、新しい仕様書によって変更が必要であると把握することができる。このとき、新しい仕様書、過去の仕様書、過去のマニュアルがそれぞれチャンク構造に分割されている。このため、過去のマニュアルから、新しい仕様書によって変更が生じた部分のみ、を効率よく抽出することができる。このとき、類似する複数の過去のマニュアルを対象として抽出することができる。このため、新しい仕様書に基づいて変更すべき複数の過去のマニュアルの該当部分を、ユーザは容易に、かつ同時に把握できる。よって、例えば新しいマニュアルを作成する際、仕様書で変更の無い部分については過去のマニュアルをそのまま流用し、仕様書で変更のあった部分についてのみ、新たに作成することができる。いわば、仕様書で変更のあった部分のみを差分編集すればよいこととなる。このため、マニュアルの編集作業を容易に行うことが可能となる。
 本実施形態によれば、参照情報選択ステップS14の後に、外部情報取得ステップS31を行う。これにより、ユーザは、参照情報選択部14により選択した第1参照情報、並びに、チャンク参照情報抽出部34により抽出した第1チャンク参照情報及び第2チャンク参照情報を比較することができる。このため、マニュアル等の第1参照情報において、変更すべき該当箇所を即座に把握することができる。
 <情報提供装置1の第3変形例>
 情報提供装置1の第3変形例では、外部情報取得部31と、外部情報比較部32と、外部情報類似度算出部33と、チャンク参照情報抽出部34と、チャンク参照情報類似度算出部35と、を備える。また、保存部104に、更にコンテンツ関連性データベースと、外部情報類似度算出用データベースと、チャンク参照情報類似度推定処理用データベースとが、保存される。
 図25は、本実施形態における情報提供システム100の動作の第3変形例を示すフローチャートである。第2変形例では、外部情報取得ステップS31は、参照情報選択ステップS14の後に行われる例について説明した。第3変形例では、参照情報選択ステップS14を省略し、外部情報取得ステップS31、外部情報比較ステップS32、外部情報類似度算出ステップS33、第1チャンク参照情報抽出ステップS34、チャンク参照情報類似度算出ステップS35、第2チャンク参照情報抽出ステップS36を行ってもよい。
 <情報提供装置1の第4変形例>
 情報提供装置1の第4変形例では、更にアクセス制御部を備える点で、第2変形例及び第3変形例と相違する。アクセス制御部は、例えば、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現される。
 アクセス制御部は、チャンク参照情報に対するアクセスを制御する。アクセスは、完全アクセス、読み取りアクセス及び書き込みアクセス、校閲専用アクセス、コメント専用アクセス、読み取り専用アクセス、並びアクセス禁止を含む。アクセス制御部は、アクセス制御情報に基づいて行われる。アクセス制御情報は、ユーザ名と、各ユーザ名に割り当てられるアクセスと、を含む。アクセス制御情報は、例えば、保存部104に保存される。
 ユーザが完全アクセスを割当てられると、そのユーザはチャンク参照情報に対して完全な読み取り及び書き込みアクセスを有し、さらにそのユーザは、ユーザインターフェースの任意の態様を使用できる。例えば、完全アクセスの場合、ユーザはチャンク参照情報の書式を変更できる。ユーザが読み取り及び書き込みアクセスを有している場合、ユーザは読み取り及び書き込みをチャンク参照情報に対して有するが、書式を変更できない。校閲専用アクセスの場合、ユーザは、追跡されているチャンク参照情報に変更を行うことができる。コメント専用アクセスの場合、ユーザはコメントをチャンク参照情報に挿入できるが、チャンク参照情報にある文章情報を変更できない。読み取り専用アクセスの場合、ユーザはチャンク参照情報を閲覧できるが、そのチャンク参照情報に変更を加えることはできず、またいかなるコメントも挿入できない。
 例えば外部情報に基づいて新たなチャンク参照情報を生成し、生成した新たなチャンク参照情報を更新するとする。このとき、本実施形態によれば、アクセス制御部を更に備える。これにより、アクセス制御情報に基づいて、複数のユーザのうち特定の1又は複数のユーザが所定のアクセスを行うことができる。すなわち、チャンク参照情報を利用する複数のユーザに対して、読み取り専用、完全アクセスが可能等の編集種別のコントロールと、ユーザの属性に基づく権限とを結び付けて、チャンク参照情報毎に管理することができる。特に、閲覧のみは同時にアクセス可能としつつ、書き込み等の編集に関しては権限を有するユーザにのみ許可することによって、意図しない編集を防ぐことができる。
 本発明の実施形態を説明したが、実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1   :情報提供装置
4   :医療機器
5   :ユーザ端末
6   :サーバ
7   :公衆通信網
10  :筐体
11  :取得部
12  :メタID選択部
13  :コンテンツID選択部
14  :参照情報選択部
15  :入力部
16  :出力部
17  :記憶部
18  :制御部
21  :第1取得部
22  :第1評価部
23  :第1生成部
31  :外部情報取得部
32  :外部情報比較部
33  :外部情報類似度算出部
34  :チャンク参照情報抽出部
35  :チャンク参照情報類似度算出部
100 :情報提供システム
101 :CPU
102 :ROM
103 :RAM
104 :保存部
105 :I/F
106 :I/F
107 :I/F
108 :入力部分
109 :出力部分
110 :内部バス
S11 :取得ステップ
S12 :メタID選択ステップ
S13 :コンテンツID選択ステップ
S14 :参照情報選択ステップ
S21 :第1取得ステップ
S22 :第1評価ステップ
S23 :第1生成ステップ
S24 :取得ステップ
S25 :メタID選択ステップ
S26 :コンテンツID選択ステップ
S31 :外部情報取得ステップ
S32 :外部情報比較ステップ
S33 :外部情報類似度算出ステップ
S34 :第1チャンク参照情報抽出ステップ
S35 :チャンク参照情報類似度算出ステップ
S36 :第2チャンク参照情報抽出ステップ
 

Claims (5)

  1.  医療機器に関する作業を行うユーザが作業を実施する上で適した参照情報を選択するときに利用する第1データベースを構築するために用いられ、コンピュータの備える保存部に記憶される機械学習用のデータ構造を用いて、機械学習する学習方法であって、
     前記機械学習用のデータ構造は、画像データを有する評価対象情報と、メタIDと、を有する学習データを複数備え、
     前記画像データは、
      前記医療機器と、
      前記医療機器を識別するための識別ラベルと、
     を示す画像を有し、
     前記メタIDは、前記参照情報に対応するコンテンツIDに紐づけられること
     を特徴とする学習方法。
  2.  医療機器に関する作業を行うユーザが作業を実施する上で適した参照情報を選択する情報提供システムであって、
     機械学習用のデータ構造を用いて、機械学習により構築された第1データベースを備え、
     前記機械学習用のデータ構造は、画像データを有する評価対象情報と、メタIDと、を有する学習データを複数備え、
     前記画像データは、
      前記医療機器と、
      前記医療機器を識別するための識別ラベルと、
     を示す画像を有し、
     前記メタIDは、前記参照情報に対応するコンテンツIDに紐づけられること
     を特徴とする情報提供システム。
  3.  医療機器に関する作業を行うユーザが作業を実施する上で適した参照情報を選択する情報提供システムであって、
     特定の医療機器及び前記特定の医療機器を識別するための特定の識別ラベル、を撮像した第1画像データを有する取得データを取得する取得手段と、
     画像データを有する評価対象情報、及び前記評価対象情報に紐づくメタID、を有する学習データを複数備えた機械学習用のデータ構造を用いて、機械学習により構築された第1データベースと、
     前記第1データベースを参照し、前記取得データに基づいて、複数の前記メタIDのうち第1メタIDを選択するメタID選択手段と、
     前記メタIDに紐づくコンテンツIDと、前記コンテンツIDに対応する前記参照情報とが複数記憶された第2データベースと、
     前記第2データベースを参照し、前記第1メタIDに基づいて、複数の前記コンテンツIDのうち第1コンテンツIDを選択するコンテンツID選択手段と、
     前記第2データベースを参照し、前記第1コンテンツIDに基づいて、複数の前記参照情報のうち第1参照情報を選択する参照情報選択手段とを備え、
     前記画像データは、
      前記医療機器と、
      前記医療機器を識別するための識別ラベルと、
     を示す画像を有すること
     を特徴とする情報提供システム。
  4.  前記メタID選択手段は、
      複数の前記メタIDを含むメタIDリストを生成し、
      前記メタIDリストに対応する参照サマリーリストを生成し、
      前記参照サマリーリストから選択された前記第1メタIDを選択すること
     を特徴とする請求項3記載の情報提供システム。
  5.  第1映像情報を取得する第1取得手段と、
     予め取得された過去の第1映像情報、前記過去の第1映像情報に紐づけられたシーンIDを含むシーン情報、及び、前記過去の第1映像情報と前記シーン情報との間における3段階以上のシーン連関度が記憶されたシーンモデルデータベースと、
     前記シーンモデルデータベースを参照し、前記第1映像情報と前記シーン情報との間における第1シーン連関度を含むシーンIDリストを取得する第1評価手段と、
     前記シーンIDリストに対応するシーン名リストを生成する第1生成手段と、更に備え、
     前記取得手段は、前記第1画像データと、前記シーン名リストから選択されたシーン名に対応する第1シーンIDと、を1組として有する前記取得データを取得すること
     を特徴とする請求項3又は4記載の情報提供システム。
PCT/JP2020/013352 2019-03-29 2020-03-25 学習方法及び情報提供システム WO2020203558A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/962,055 US20210158959A1 (en) 2019-03-29 2020-03-25 Learning method and information providing system
CN202080002662.6A CN112106041A (zh) 2019-03-29 2020-03-25 学习方法和信息提供系统
DE112020000014.1T DE112020000014T5 (de) 2019-03-29 2020-03-25 Verfahren für einen Lernprozess und Informationsbereitstellungssystem

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019069364 2019-03-29
JP2019-069364 2019-03-29
JP2019127966A JP6647668B1 (ja) 2019-03-29 2019-07-09 機械学習用のデータ構造、学習方法及び情報提供システム
JP2019-127966 2019-07-09

Publications (1)

Publication Number Publication Date
WO2020203558A1 true WO2020203558A1 (ja) 2020-10-08

Family

ID=69568133

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/013352 WO2020203558A1 (ja) 2019-03-29 2020-03-25 学習方法及び情報提供システム

Country Status (5)

Country Link
US (1) US20210158959A1 (ja)
JP (1) JP6647668B1 (ja)
CN (1) CN112106041A (ja)
DE (1) DE112020000014T5 (ja)
WO (1) WO2020203558A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11531571B2 (en) * 2020-01-29 2022-12-20 Walmart Apollo, Llc Systems and methods for processing of catalog items with a plurality of models
JP6800453B1 (ja) * 2020-05-07 2020-12-16 株式会社 情報システムエンジニアリング 情報処理装置及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085730A (ja) * 2012-10-19 2014-05-12 Mitsubishi Heavy Ind Ltd 機器の損傷解析支援システム及び損傷解析支援方法
JP2017224133A (ja) * 2016-06-15 2017-12-21 Necフィールディング株式会社 保守作業手順データ管理装置、システム、方法及びプログラム
JP2019021150A (ja) * 2017-07-20 2019-02-07 オリンパス株式会社 工事支援装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101315652A (zh) * 2008-07-17 2008-12-03 张小粤 医院内部的临床医学信息系统的构成及其信息查询方法
US8757485B2 (en) * 2012-09-05 2014-06-24 Greatbatch Ltd. System and method for using clinician programmer and clinician programming data for inventory and manufacturing prediction and control
JP5847070B2 (ja) * 2012-12-27 2016-01-20 オリンパス株式会社 サーバ装置及び撮影装置
KR102252072B1 (ko) * 2014-10-14 2021-05-14 삼성전자주식회사 음성 태그를 이용한 이미지 관리 방법 및 그 장치
JP2017205292A (ja) * 2016-05-18 2017-11-24 オリンパス株式会社 画像ファイル作成方法、画像ファイル作成プログラム及び画像ファイル作成装置
US20180150598A1 (en) * 2016-11-30 2018-05-31 General Electric Company Methods and systems for compliance accreditation for medical diagnostic imaging
WO2019079430A1 (en) * 2017-10-17 2019-04-25 Verily Life Sciences Llc SYSTEMS AND METHODS FOR SEGMENTING SURGICAL VIDEOS

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014085730A (ja) * 2012-10-19 2014-05-12 Mitsubishi Heavy Ind Ltd 機器の損傷解析支援システム及び損傷解析支援方法
JP2017224133A (ja) * 2016-06-15 2017-12-21 Necフィールディング株式会社 保守作業手順データ管理装置、システム、方法及びプログラム
JP2019021150A (ja) * 2017-07-20 2019-02-07 オリンパス株式会社 工事支援装置

Also Published As

Publication number Publication date
CN112106041A (zh) 2020-12-18
JP6647668B1 (ja) 2020-02-14
US20210158959A1 (en) 2021-05-27
DE112020000014T5 (de) 2020-12-10
JP2020166804A (ja) 2020-10-08

Similar Documents

Publication Publication Date Title
JP6651190B1 (ja) 機械学習用のデータ構造、学習方法及び情報提供システム
US8589420B2 (en) Medical information system and program for same
CN112507701B (zh) 待纠错医疗数据的识别方法、装置、设备和存储介质
CN112528660A (zh) 处理文本的方法、装置、设备、存储介质和程序产品
US20190311810A1 (en) System and method for facilitating computational analysis of a health condition
WO2020203561A1 (ja) 情報提供システム
CN107077528A (zh) 具有基于文本识别的文本图像链接的图片归档系统
WO2020203558A1 (ja) 学習方法及び情報提供システム
WO2021084822A1 (ja) 情報提供システム
WO2021114635A1 (zh) 患者分群模型构建方法、患者分群方法及相关设备
JP2021108146A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
CN111462914A (zh) 一种实体链接方法及装置
WO2020203560A1 (ja) 学習方法及び情報提供システム
CN113096795B (zh) 多源数据辅助的临床决策支持系统及方法
CN106326626B (zh) 一种健康病患信息输入系统
WO2022079593A1 (en) A system and a way to automatically monitor clinical trials - virtual monitor (vm) and a way to record medical history
CN110993091A (zh) 从数据生成向量
Moses et al. Instant answering for health care system by machine learning approach
US20230350897A1 (en) Method and system for processing large amounts of real world evidence
CN118093784A (zh) 表格问答方法、装置、存储介质及计算机设备
Chen et al. Joint prediction scheme of pulmonary infection risk after renal transplantation
Kumar Modified Location Model Estimation Using Content Based Medical Image Retrieval
CN116468026A (zh) 文本识别方法、装置、计算机设备及计算机可读存储介质
CN117390145A (zh) 临床试验的自动文本对话方法、装置、设备及介质
Moreno-Barea et al. Named Entity Recognition for De-Identifying Spanish Electronic Health Records

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20784189

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20784189

Country of ref document: EP

Kind code of ref document: A1